25 de julio de 2013

LAS MÁQUINAS SE VUELVEN MÁS INTELIGENTES (hay evidencia de que aprenden como nosotros)


Exísten estudios sugieren que los modelos informáticos llamados redes neurales, que se utilizan en un número creciente de aplicaciones, pueden aprender a reconocer patrones en los datos utilizando los mismos algoritmos como lo hace el cerebro humano.


El cerebro realiza su tarea canónica - aprendizaje - por ajustar sus innumerables conexiones de acuerdo a un conjunto de reglas en secreto. Para desbloquear estos secretos, los científicos desde hace 30 años comenzaron a desarrollar modelos computacionales que intentan replicar el proceso de aprendizaje. Ahora, un número creciente de experimentos están revelando que estos modelos se comportan sorprendentemente similares a los cerebros reales al realizar ciertas tareas. Los investigadores dicen que las similitudes sugieren una correspondencia básica entre el cerebro y los ordenadores de algoritmos del aprendizaje subyacentes.

El algoritmo utilizado por un modelo de ordenador llamado la máquina de Boltzmann, inventado por Geoffrey Hinton y Terry Sejnowski en 1983, parece particularmente prometedora como una explicación teórica simple de un número de procesos del cerebro, incluyendo el desarrollo, la formación de la memoria, el objeto y el reconocimiento de sonidos, y el ciclo de sueño y la vigilia.

"Es la mejor posibilidad que realmente tenemos para comprender el cerebro en la actualidad", dijo Sue Becker, profesor de psicología, neurociencia y comportamiento en la Universidad McMaster en Hamilton, Ontario. "No sé de un modelo que explica una gama más amplia de los fenómenos en términos de aprendizaje y la estructura del cerebro."




Geofrey Hinton, uno de los pioneros del campo relativo a la inteligencia artificial.

Hinton, un pionero en el campo de la inteligencia artificial, siempre ha querido entender las reglas que rigen cuando el cerebro realiza una conexión y cuando disminuye su accionar - en resumen, el algoritmo de cómo aprendemos. "Me parece que si quieres entender algo, tiene que ser capaz de construir algo semejante", dijo. Siguiendo el enfoque reduccionista de la física, su plan era construir modelos informáticos simples del cerebro que emplea una variedad de algoritmos de aprendizaje y "ver cuáles funcionan", dijo Hinton, quien divide su tiempo entre la Universidad de Toronto, donde es profesor de ciencias de la computación.

Los entramados neuronales de capas múltiples se componen de capas de neuronas artificiales con conexiones ponderadas entre ellos. Los datos de entrada alimentados a la red envía una cascada de señales a través de las capas, y un algoritmo de aprendizaje dicta si hay que aumentar o disminuir el peso de cada conexión. El resultado es una red más en sintonía con los patrones que existen en los datos.


Las redes neuronales de capas múltiples se componen de capas de neuronas artificiales con conexiones ponderadas entre ellas. La entrada de datos que alimentan a la red envía una cascada de señales a través de las capas, y un algoritmo de aprendizaje dicta si hay que aumentar o disminuir el peso de cada conexión. El resultado es una red más sintonizada con los patrones que existen en los datos.

 Durante las décadas de 1980 y 1990, Hinton - el tatara-tatara-nieto del lógico del siglo 19 George Boole, cuyo trabajo es la base de la informática moderna - inventó o co-inventó una colección de algoritmos de aprendizaje automático. Los algoritmos, que indican cómo las computadoras para aprender a partir de datos, se utilizan en los modelos de ordenador llamadas redes neuronales artificiales - mapa de neuronas interconectadas virtuales, que transmiten señales a sus vecinos por el encendido y apagado, o Cuando los datos se introducen en el "disparo". red, lo que desencadenó una cascada de actividad de tiro, el algoritmo determina con base en los patrones de activación si aumentar o disminuir el peso de la conexión, o sinapsis, entre cada par de neuronas.
Durante décadas, muchos de los modelos de computadora de Hinton se desvanecieron. Pero gracias a los avances en la potencia de cálculo, la comprensión de los científicos sobre el cerebro y los propios algoritmos, redes neuronales están desempeñando un papel cada vez más importante en neurociencia. Sejnowski, jefe del Laboratorio de Neurobiología Computacional en el Instituto Salk de Estudios Biológicos en La Jolla, California, dijo: "Hace treinta años, teníamos ideas muy crudo, ahora estamos empezando a probar algunas de estas ideas."

Máquinas Cerebrales

Los primeros intentos de Hinton en replicar el cerebro eran limitadas. Las computadoras podían correr sus algoritmos de aprendizaje en las pequeñas redes neuronales, pero la ampliación de los modelos lograron abrumar rápidamente los procesadores. En 2005, Hinton descubrió que si seccionaba sus redes neuronales en capas y hacía pasar los algoritmos sobre ellos una capa a la vez, el proceso se hacía más eficiente, se aproximandose a la estructura del desarrollo del cerebro.

Aunque Hinton publicó su descubrimiento en dos principales revistas, redes neuronales habían caído en desgracia para entonces, y "él estaba luchando para conseguir que la gente interesada", dijo Deng Li, investigador principal de Microsoft Research en el estado de Washington. Deng, sin embargo, sabía Hinton y decidió dar a su método de "aprendizaje profundo", un intento en 2009, al ver rápidamente su potencial. En los años posteriores, los algoritmos de aprendizaje teóricos se han puesto en práctica en un número creciente de aplicaciones, tales como Google asistente personal y ahora la función de búsqueda por voz en los teléfonos de Microsoft Windows.

Uno de los más prometedores de estos algoritmos, la máquina de Boltzmann, lleva el nombre del físico austríaco Ludwig Boltzmann, quien desarrolló la rama de la física que se ocupan de un gran número de partículas, conocidas como la mecánica estadística. Boltzmann descubrió una ecuación que da la probabilidad de que un gas de moléculas que tienen una energía particular cuando se alcanza el equilibrio. Reemplace las moléculas con las neuronas, y la máquina de Boltzmann, ya que dispara, converge en exactamente la misma ecuación.

Las sinapsis en la red comienzan con una distribución aleatoria de los pesos y los pesos son ajustados progresivamente según un sencillo procedimiento: El patrón de actividad neuronal se genera mientras el equipo está siendo alimentado de datos (como imágenes o sonidos) se compara con la actividad hecha de manera aleatoria y la coacción se produce mientras que la entrada está apagada.

Geoffrey Hinton, un pionero en el campo de la inteligencia artificial, cree que la mejor manera de entender cómo aprenden los cerebros es tratar de construir equipos que aprenden de la misma manera. "Usted inevitablemente descubrirá mucho acerca de los problemas computacionales, y a un más acerca del nivel de comprensión de un modo en que ni los psicólogos lo han conseguido", dijo.

Cada una de las sinapsis virtuales siguen los dos conjuntos de estadísticas. Si las neuronas se conectan de inicio en secuencia con más frecuencia cuando son impulsadas por datos de los que cuando están disparadas al azar, el peso de la sinapsis se incrementará en una cantidad proporcional a la diferencia. Pero si dos neuronas más a menudo se disparan juntas durante la coacción al azar de despido por datos, la sinapsis de conectarlos es demasiado amplia y por lo tanto se debilitarán.

La versión más utilizada de la máquina de Boltzmann funciona mejor cuando está "entrenando", o alimenta a miles de ejemplos de datos, una capa a la vez. En primer lugar, la capa inferior de la red recibe datos en bruto que representan imágenes pixeladas o sonidos multitonal, y al igual que las células de la retina, las neuronas indican si detectan contrastes en su parcela de datos, funciona algo así como un interruptor que da la luz a la oscuridad. Disparando puede desencadenar neuronas conectadas, en función del peso de la sinapsis entre ellos. Como el disparo de pares de neuronas virtuales se compara repetidamente con las estadísticas de señales de fondo, las relaciones significativas entre las neuronas se establecen y refuerzan de forma gradual. Los pesos de las sinapsis son mate, y de imagen o sonido, las categorías se arraigan en las conexiones. Cada capa posterior esta entrenado de la misma manera, de acuerdo al uso de los datos que ingresen de la capa de abajo.

Si una imagen de un coche se alimenta en una red neuronal entrenada para detectar objetos específicos en imágenes, la capa inferior se activa si detecta un cambio, lo que indicaría un borde o punto final. Estas señales de las neuronas 'viajan a las neuronas de alto nivel, que detectan esquinas, partes de las ruedas, y así sucesivamente. En la capa superior, hay neuronas que disparan sólo si la imagen contiene un coche.

"La cosa mágica que sucede es que es capaz de generalizar", dijo Yann LeCun, director del Centro para la Ciencia de Datos en la Universidad de Nueva York. "Si usted demuestra que un coche que nunca ha visto antes, si es que tiene alguna forma o aspecto común a todos los coches que se lo mostró durante el entrenamiento, se puede determinar que es un coche."

Las redes neuronales han sido un éxito recientemente a su paso gracias al régimen de entrenamiento capa por capa de Hinton, el uso de chips de computadoras de alta velocidad llamado unidades de procesamiento gráfico y un aumento explosivo del número de imágenes y de voz grabada disponibles para ser utilizados para la formación. Las redes ahora pueden reconocer correctamente el 88 por ciento de las palabras que se hablan en las conversaciones normales, humanos, idioma Inglés, en comparación con alrededor del 96 por ciento para un oyente humano promedio. Se pueden identificar los coches y miles de otros objetos en las imágenes con una precisión similar y en los últimos tres años han llegado a dominar las competencias de aprendizaje automático.

Construyendo un Cerebro

Nadie sabe cómo determinar directamente las normas de aprendizaje del cerebro, pero hay muchas similitudes entre el comportamiento altamente sugestivos del cerebro y el de la máquina de Boltzmann.
Tanto aprender sin supervisión con excepción de los modelos que existen de forma natural en los datos. "Usted no consigue millones de ejemplos de su madre que le dice lo que hay en una imagen", dijo Hinton. "Hay que aprender a reconocer las cosas sin que nadie te dice lo que las cosas son. A continuación, después de enterarse de las categorías, la gente te dice el nombre de estas categorías. Así los niños aprenden acerca de los perros y gatos y luego se enteran de que los perros se llaman "perros y gatos se llaman 'gatos'".
Cerebros adultos son menos maleables que los menores de edad, tanto como una máquina de Boltzmann entrenado con 100.000 imágenes de automóviles no cambiará mucho al ver a otra: sus sinapsis ya tienen los pesos correctos para categorizar un coche. Y, sin embargo, el aprendizaje nunca termina. Nueva información todavía se puede integrar en la estructura de ambos cerebros y máquinas de Boltzmann.
En los últimos cinco a 10 años, los estudios de la actividad cerebral durante el sueño han proporcionado algunos de la primera evidencia directa de que el cerebro emplea un algoritmo de aprendizaje de Boltzmann-como el fin de integrar la nueva información y los recuerdos en su estructura. Los neurocientíficos saben desde hace tiempo que el sueño juega un papel importante en la consolidación de la memoria, ayudando a integrar la información recién aprendida. En 1995, Hinton y colegas propusieron que el sueño sirve la misma función que el componente de línea de base del algoritmo, la tasa de actividad neural en la ausencia de entrada.
"Lo que está haciendo durante el sueño es sólo estás averiguar el tipo de base", dijo Hinton. "Estás pensando cómo correlacionada serían estas neuronas si el sistema se ejecuta por sí mismo. Y entonces, si las neuronas son más correlacionadas que eso, aumentan entonces el peso entre ellas. Y por el contrario se vuelven menos correlacionadas que eso, y disminuyen el peso entre ellos. "

A nivel de las sinapsis ", este algoritmo puede implementarse de diferentes maneras", dijo Sejnowski, quien a principios de este año se convirtió en asesor de la Iniciativa BRAIN nueva de la administración Obama, un esfuerzo de investigación de $ 100 millones para el desarrollo de nuevas técnicas para el estudio del cerebro .
La forma más fácil para el cerebro para ejecutar el algoritmo de Boltzmann, dijo, es pasar de la pura sinapsis durante el día para detallar lo trabajado durante la noche. Giulio Tononi, director del Centro del Sueño y la Conciencia en la Universidad de Wisconsin-Madison, ha encontrado que la expresión de los genes dentro de las sinapsis cambios de una manera que apoye esta hipótesis: los genes implicados en el crecimiento sináptica son más activos durante el día, y los implicados en el recorte sináptico son más activos durante el sueño.
Por otra parte, "la línea de base puede ser calculada durante el sueño y los cambios realizados en relación con ella durante el día", dijo Sejnowski. Su laboratorio es la construcción de modelos detallados por ordenador de las sinapsis y las redes que sustentan a fin de determinar la forma en que recogen las estadísticas de disparo durante la vigilia y el sueño, y cuando cambie de concentración sináptica para reflejar la diferencia.

Las complicaciones cerebrales




Esta imagen de la retina, en la que los diferentes tipos de células se tiñen con diferentes colores, destaca su estructura en capas. Conos sensibles al color (morado) se conectan a las células horizontales (naranja), que conectan con las células bipolares (verde), y los que se conectan a amacrinas y células ganglionares (magenta)Imagen obtenida por Josh Morgan (RO Wong laboratorio), tomada de la revista Nature.

Un algoritmo de Boltzmann-como puede ser sólo uno de los muchos que el cerebro emplea para modificar sus sinapsis. En la década de 1990, varios grupos independientes desarrollaron un modelo teórico de cómo el sistema visual codifica de manera eficiente el flujo de información golpear la retina. La teoría sostiene que un proceso similar al de compresión de imagen llamado "codificación dispersos" se llevó a cabo en las capas más bajas de la corteza visual, por lo que las etapas posteriores del sistema visual se tornan más eficientes.

Las predicciones del modelo están pasando poco a poco cada vez más estrictas pruebas experimentales. En un artículo publicado en PLOS Computational Biology en mayo, los neurocientíficos computacionales en el Reino Unido y Australia encontraron que cuando las redes neuronales utilizando un algoritmo de codificación escasos llamados Artículos de Expertos, inventados por Hinton en 2002, están expuestos a los mismos datos visuales anormales como gatos vivos (por ejemplo, los gatos y las redes neuronales tanto ver sólo las imágenes de rayas), las neuronas desarrollan casi exactamente las mismas anomalías.

"Para cuando la información llega a la corteza visual, pensamos que el cerebro representa como un código escaso", dijo Bruno Olshausen, neurocientífico computacional y director del Centro de Redwood de neurociencia teórica en la Universidad de California-Berkeley, quien ayudó a desarrollar la teoría de la codificación dispersos. "Así que es como si tuvieras una máquina de Boltzmann sentado en la parte posterior de la cabeza tratando de aprender las relaciones entre los elementos del código escaso."

Olshausen y su equipo de investigación utilizados recientemente modelos de redes neuronales de las capas superiores de la corteza visual para mostrar cómo los cerebros son capaces de crear la percepción estables de entradas visuales a pesar de movimiento de la imagen. En otro estudio reciente, se encontraron con que la actividad disparo de las neuronas en la corteza visual de gatos que miran una película negro y blanco fue bien descrita por una máquina de Boltzmann.

Una aplicación potencial de que el trabajo es en la construcción de prótesis neural, como una retina artificial. Con una comprensión de "el formato de la información en el cerebro, que se sabe cómo estimular el cerebro para hacer que alguien piense que están viendo una imagen", dijo Olshausen.

Sejnowski dice entender los algoritmos mediante el cual las sinapsis crecen y se encogen permitirá a los investigadores alteran a estudiar cómo funciona la red se descomponen. "Luego se puede comparar a los problemas conocidos que los seres humanos tienen", dijo. "Casi todos los trastornos mentales pueden atribuirse a problemas en las sinapsis. Así que si podemos entender sinapsis un poco mejor, vamos a ser capaces de entender la función normal del cerebro, cómo procesa la información, cómo se aprende, y de lo que va mal cuando se tiene, por ejemplo, la esquizofrenia ".

El enfoque de red neural para la comprensión del cerebro contrasta marcadamente con la de la Human Brain Project, el plan de Suiza neurocientífico Henry Markram muy publicitado para crear una simulación precisa de un cerebro humano utilizando una super-computadora. A diferencia de enfoque de comenzar con un modelo muy simplificado y poco a poco lo que es más complejo de Hinton, Markram quiere incluir como detalle tanto como sea posible desde el principio, en moléculas individuales, con la esperanza de que la completa funcionalidad y la conciencia surgirán.

El proyecto recibió $ 1.3 mil millones en fondos de la Comisión Europea en enero, pero Hinton cree que el mega-simulacro fallará, sumido en demasiadas partes móviles que todavía nadie entiende. (Markram no respondió a solicitudes de comentarios.)

En términos más generales, Hinton no piensa el funcionamiento del cerebro se pueden deducir únicamente de los detalles de los estudios de imágenes del cerebro, sino que estos datos deben utilizarse para construir y perfeccionar los algoritmos. "Uno tiene que estar pensando en teoría y explorar el espacio de los algoritmos de aprendizaje para llegar a una teoría como" la máquina de Boltzmann, dijo. Para Hinton, el siguiente paso es el desarrollo de algoritmos para la formación de redes neuronales aún más semejantes a las que exísten en el cerebro, tales como los que tienen las sinapsis que conectan las neuronas dentro de, no sólo entre, capas. "Un objetivo importante es entender lo que ganas por tener cálculos computacionalmente más complicada en cada etapa", dijo.

La hipótesis es que la mayor interconexión permite a los bucles de retroalimentación más fuertes, lo que, según Olshausen, son probablemente la forma en que el cerebro alcanza "relleno perceptual", donde las capas superiores hacen inferencias acerca de lo que las capas inferiores están sintiendo sobre la base de información parcial. "Eso está íntimamente ligada a la conciencia", dijo.

El cerebro humano, por supuesto, sigue siendo mucho más complicado de lo que cualquiera de los modelos, sino que es más grande, más denso, más eficiente, más interconectado, tiene las neuronas más complejas - y hace malabares con varios algoritmos simultáneamente. Olshausen ha estimado que entendemos sólo el 15 por ciento de la actividad en la corteza visual. Aunque los modelos están haciendo progresos, la neurociencia es todavía "un poco como la física antes de Newton", dijo. Sin embargo, confía en que el proceso de construcción de estos algoritmos puede que algún día explicar el enigma final del cerebro - cómo los datos sensoriales se transforman en una conciencia subjetiva de la realidad. La conciencia, Olshausen dijo, "es algo que surge de una máquina de Boltzmann de un modo muy, muy complicado."


Fuente:
https://www.simonsfoundation.org/quanta/20130723-as-machines-get-smarter-evidence-they-learn-like-us/

Para saber más visiten:
http://www.ploscompbiol.org/article/info%3Adoi%2F10.1371%2Fjournal.pcbi.1003005

No hay comentarios:

Publicar un comentario