El Google chino, Baidu, quiere la ventaja en inteligencia artificial. Su nuevo responsable de área, Adam Coates, repasa sus retos futuros.
La inteligencia artificial persigue el lejano objetivo de que algún día el software iguale a los seres humanos a la hora de realizar tareas importantes. Después de observar los resultados de un nuevo campo llamado aprendizaje profundo, que consiste en el procesamiento de grandes cantidades de datos a través de redes simuladas de millones de neuronas interconectadas, algunos expertos han llegado a creer que este objetivo quizá no sea tan lejano (ver "Aprendizaje profundo" y "Un software compara caras con una precisión casi humana").
La semana pasada, Baidu, la compañía de búsquedas por internet más grande de China, abrió un nuevo laboratorio en Silicon Valley (EEUU) dedicado al campo del aprendizaje profundo, uniéndose así al grupo de gigantes tecnológicos estadounidenses que apuestan fuerte por dicho campo (ver "El Google chino se muda a EEUU para investigar en inteligencia artificial"). El líder de investigación en el nuevo laboratorio, Adam Coates, conversó con Tom Simonite para MIT Technology Review sobre cómo el aprendizaje profundo podría crear software que se asemeje más al rendimiento humano en algunas tareas.
El experimento "Google Brain", mediante el que una enorme red neuronal aprendió a reconocer gatos y otros objetos con sólo mirar imágenes en YouTube, a menudo es considerado como una de las pruebas más importantes de la potencia del aprendizaje profundo (ver "Software autodidacta y almacenamiento de datos más rápido"). ¿Qué hace que ese proyecto sea tan importante?
Lo mejor del resultado de Google es que nadie tiene que decirle qué es cierto objeto. Gracias a la neurociencia tenemos muchas pruebas de que ésta es una forma crucial de aprender el funcionamiento el mundo. Pero también es un imperativo de ingeniería. No puedo programar suficientes reglas en el ordenador para que pueda entender el mundo. Lo que podemos intentar ahora es que los ordenadores aprendan las reglas ellos mismos.
El sistema de Google no llegó al nivel de rendimiento humano, y como mucho llegó a detectar rostros humanos sólo el 81% de las veces. El enfoque más establecido de aprendizaje "supervisado", que utiliza datos etiquetados a mano para que el software aprenda de ellos, logra tasas de rendimiento mejores. ¿Sabemos cómo mejorar los sistemas sin supervisión, o autodidactas?
Hacer que funcionen al nivel que queremos, es decir, lograr un nivel de rendimiento humano, es muy difícil.
Si me das muchos ejemplos de lo que quieres predecir, puedo entrenar al software para que lo haga bien. Lo difícil es en tener éxito cuando no cuentas con muchos ejemplos. Los seres humanos no tienen que ver un millón de gatos para entender lo que son. Podríamos utilizar una combinación de aprendizaje supervisado y no supervisado. Entender cómo combinar esas dos ideas tendrá una importancia crucial.
Te has inspirado en el experimento Google Brain para desarrollar una red neuronal aún mayor en Stanford (EEUU). ¿Los grandes "cerebros" serán automáticamente más inteligentes?
Por la magnitud del reto que estamos considerando, es decir, el rendimiento a nivel humano, está claro que usar una red neuronal pequeña no nos lleva a ningún sitio. Las redes de última tecnología tienen cientos de millones de conexiones. Podemos hacer muchas cosas con ellas, como por ejemplo reconocer una gran cantidad de objetos.
Pero la cuestión va más allá de simplemente agrandar la red neuronal. El resultado de Google Brain se basa en un enorme sistema distribuido con una gran cantidad de núcleos de CPU [16.000]. Hemos descubierto que si agrupas una gran cantidad de GPU [procesadores gráficos especializados] puedes crear una red neuronal mucho más grande, con 10.000 millones de nodos, con 16 máquinas en lugar de 1.000.
Hemos usado el mismo índice de referencia [imágenes de vídeos de YouTube] que usó el equipo de Google. Pero, aunque pudimos entrenar a una red neuronal mucho más grande, nuestro detector de gatos no fue necesariamente mejor. Actualmente podemos trabajar con redes neuronales más grandes de lo que sabemos hacer con ellas.
[En el laboratorio de Baidu] queremos construir un marco donde ejecutar experimentos suficientemente grandes como para probar todas las variaciones en los algoritmos que pudieran mejorar el rendimiento universalmente.
No hay comentarios:
Publicar un comentario