legolillo
Hij@'e Puta
- Registrado
- 2006/09/06
- Mensajes
- 9.044
En marzo, Yoshua Bengio recibió el premio Turing, la más alta distinción en la informática, por sus contribuciones al desarrollo del profundo aprendizaje de la técnica que provocó un renacimiento en la inteligencia artificial , lo que lleva a los avances en vehículos auto-conducción , traducción del habla en tiempo real y reconocimiento facial .
Ahora, Bengio dice que el aprendizaje profundo necesita ser mejorado. Él cree que no se dará cuenta de todo su potencial, y no entregará una verdadera revolución de IA, hasta que pueda ir más allá del reconocimiento de patrones y aprender más sobre causa y efecto. En otras palabras, dice, el aprendizaje profundo debe comenzar a preguntarse por qué suceden las cosas.
El profesor de 55 años de la Universidad de Montreal, que luce espesas canas y cejas, dice que el aprendizaje profundo funciona bien en situaciones idealizadas, pero no se acercará a replicar la inteligencia humana sin poder razonar sobre las relaciones causales. "Es importante integrar [la causalidad] en la IA", dice Bengio. “Los enfoques actuales del aprendizaje automático suponen que el sistema de IA entrenado se aplicará en el mismo tipo de datos que los datos de entrenamiento. En la vida real a menudo no es el caso ".
Los sistemas de aprendizaje automático, incluido el aprendizaje profundo, son altamente específicos, entrenados para una tarea en particular, como reconocer gatos en imágenes o comandos hablados en audio. Desde que irrumpió en la escena alrededor de 2012, el aprendizaje profundo ha demostrado una capacidad particularmente impresionante para reconocer patrones en los datos; Se le ha dado muchos usos prácticos, desde detectar signos de cáncer en exámenes médicos hasta descubrir fraudes en datos financieros.
Pero el aprendizaje profundo es fundamentalmente ciego a la causa y al efecto. A diferencia de un médico real, un algoritmo de aprendizaje profundo no puede explicar por qué una imagen en particular puede sugerir una enfermedad. Esto significa que el aprendizaje profundo debe usarse con precaución en situaciones críticas.
Comprender la causa y el efecto haría que los sistemas de IA existentes fueran más inteligentes y eficientes. Un robot que entiende que dejar caer cosas hace que se rompan no necesitaría tirar docenas de jarrones al suelo para ver qué les sucede.
Bengio dice que la analogía se extiende a los autos sin conductor. "Los seres humanos no necesitan vivir muchos ejemplos de accidentes para conducir con prudencia", dice. Pueden imaginar accidentes, "para prepararse mentalmente si realmente sucedió".
La pregunta es cómo dar a los sistemas de IA esta capacidad.
En su laboratorio de investigación, Bengio está trabajando en una versión de aprendizaje profundo capaz de reconocer relaciones simples de causa y efecto. Él y sus colegas publicaron recientemente un documento de investigación que describe el enfoque. Utilizaron un conjunto de datos que mapea las relaciones causales entre fenómenos del mundo real, como el tabaquismo y el cáncer de pulmón, en términos de probabilidades. También generaron conjuntos de datos sintéticos de relaciones causales.
El algoritmo en el documento esencialmente forma una hipótesis sobre qué variables están causalmente relacionadas, y luego prueba cómo los cambios en diferentes variables se ajustan a la teoría. El hecho de que fumar no solo esté relacionado con el cáncer, sino que en realidad lo cause, por ejemplo, aún debería ser evidente, incluso si el cáncer se correlaciona con otros factores, como las visitas al hospital.
Un robot podría eventualmente usar este enfoque para formular una hipótesis sobre lo que sucede cuando cae algo, y luego confirmar su presentimiento cuando ve que varias cosas se estrellan contra el piso.
Bengio ya ha transformado la IA una vez. Durante las últimas décadas, ayudó a desarrollar las ideas y técnicas de ingeniería que liberaron el potencial del aprendizaje profundo, junto con otros ganadores del Premio Turing de este año: Geoffrey Hinton , de la Universidad de Toronto y Google, y Yann LeCun , que trabaja en NYU y Facebook
El aprendizaje profundo utiliza redes neuronales artificiales para aproximar matemáticamente la forma en que las neuronas y las sinapsis humanas aprenden formando y fortaleciendo conexiones. Los datos de entrenamiento, como imágenes o audio, se envían a una red neuronal, que se ajusta gradualmente hasta que responda de la manera correcta. Un programa de aprendizaje profundo puede ser entrenado para reconocer objetos en fotografías con alta precisión, siempre que vea muchas imágenes de entrenamiento y tenga mucha potencia informática.
Pero los algoritmos de aprendizaje profundo no son buenos para generalizar o tomar lo que han aprendido de un contexto y aplicarlo a otro. También capturan fenómenos que están correlacionados, como el canto del gallo y la salida del sol, independientemente de cuál sea la causa del otro.
La causalidad se ha estudiado durante mucho tiempo en otras áreas, y las técnicas matemáticas han surgido en las últimas décadas para explorar las relaciones causales, ayudando a revolucionar el estudio de campos como las ciencias sociales, la economía y la epidemiología. Un pequeño grupo de investigadores está trabajando para combinar causalidad y aprendizaje automático.
Los experimentos de ciencia cognitiva también muestran que comprender la causa y el efecto es fundamental para el desarrollo humano y la inteligencia, aunque no está claro cómo los humanos forman este conocimiento.
El trabajo de Bengio sobre la causalidad podría ser un pequeño paso hacia la respuesta a esta pregunta, pero también refleja más realismo en torno al aprendizaje profundo. A pesar de que las aplicaciones de la técnica se han multiplicado, un número creciente de expertos ha señalado los límites de la tecnología en áreas críticas como la comprensión del idioma .
En la entrevista, Bengio también expresó cierta frustración con la forma en que las empresas exageran las capacidades de la inteligencia artificial y el aprendizaje profundo. "Creo que sería bueno que haya una corrección en el mundo de los negocios, porque ahí es donde está el hype", dice.
Otros creen que el enfoque en el aprendizaje profundo puede ser parte del problema. Gary Marcus , profesor emérito de la Universidad de Nueva York y autor de un libro reciente que destaca los límites del aprendizaje profundo, Reiniciando la IA: construyendo inteligencia artificial en la que podemos confiar , dice que el interés de Bengio en el razonamiento causal señala un cambio bienvenido en el pensamiento.
"Demasiado aprendizaje profundo se ha centrado en la correlación sin causalidad, y eso a menudo deja a los sistemas de aprendizaje profundo en una pérdida cuando se prueban en condiciones que no son exactamente las mismas en las que fueron entrenados", dice.
Marcus agrega que la lección de la experiencia humana es obvia. “Cuando los niños preguntan '¿por qué?' están preguntando sobre la causalidad ”, dice. "Cuando las máquinas comienzan a preguntar por qué, serán mucho más inteligentes".
Fuente: https://www.wired.com/story/ai-pioneer-algorithms-understand-why/
Ahora, Bengio dice que el aprendizaje profundo necesita ser mejorado. Él cree que no se dará cuenta de todo su potencial, y no entregará una verdadera revolución de IA, hasta que pueda ir más allá del reconocimiento de patrones y aprender más sobre causa y efecto. En otras palabras, dice, el aprendizaje profundo debe comenzar a preguntarse por qué suceden las cosas.
El profesor de 55 años de la Universidad de Montreal, que luce espesas canas y cejas, dice que el aprendizaje profundo funciona bien en situaciones idealizadas, pero no se acercará a replicar la inteligencia humana sin poder razonar sobre las relaciones causales. "Es importante integrar [la causalidad] en la IA", dice Bengio. “Los enfoques actuales del aprendizaje automático suponen que el sistema de IA entrenado se aplicará en el mismo tipo de datos que los datos de entrenamiento. En la vida real a menudo no es el caso ".
Los sistemas de aprendizaje automático, incluido el aprendizaje profundo, son altamente específicos, entrenados para una tarea en particular, como reconocer gatos en imágenes o comandos hablados en audio. Desde que irrumpió en la escena alrededor de 2012, el aprendizaje profundo ha demostrado una capacidad particularmente impresionante para reconocer patrones en los datos; Se le ha dado muchos usos prácticos, desde detectar signos de cáncer en exámenes médicos hasta descubrir fraudes en datos financieros.
Pero el aprendizaje profundo es fundamentalmente ciego a la causa y al efecto. A diferencia de un médico real, un algoritmo de aprendizaje profundo no puede explicar por qué una imagen en particular puede sugerir una enfermedad. Esto significa que el aprendizaje profundo debe usarse con precaución en situaciones críticas.
Comprender la causa y el efecto haría que los sistemas de IA existentes fueran más inteligentes y eficientes. Un robot que entiende que dejar caer cosas hace que se rompan no necesitaría tirar docenas de jarrones al suelo para ver qué les sucede.
Bengio dice que la analogía se extiende a los autos sin conductor. "Los seres humanos no necesitan vivir muchos ejemplos de accidentes para conducir con prudencia", dice. Pueden imaginar accidentes, "para prepararse mentalmente si realmente sucedió".
La pregunta es cómo dar a los sistemas de IA esta capacidad.
En su laboratorio de investigación, Bengio está trabajando en una versión de aprendizaje profundo capaz de reconocer relaciones simples de causa y efecto. Él y sus colegas publicaron recientemente un documento de investigación que describe el enfoque. Utilizaron un conjunto de datos que mapea las relaciones causales entre fenómenos del mundo real, como el tabaquismo y el cáncer de pulmón, en términos de probabilidades. También generaron conjuntos de datos sintéticos de relaciones causales.
El algoritmo en el documento esencialmente forma una hipótesis sobre qué variables están causalmente relacionadas, y luego prueba cómo los cambios en diferentes variables se ajustan a la teoría. El hecho de que fumar no solo esté relacionado con el cáncer, sino que en realidad lo cause, por ejemplo, aún debería ser evidente, incluso si el cáncer se correlaciona con otros factores, como las visitas al hospital.
Un robot podría eventualmente usar este enfoque para formular una hipótesis sobre lo que sucede cuando cae algo, y luego confirmar su presentimiento cuando ve que varias cosas se estrellan contra el piso.
Bengio ya ha transformado la IA una vez. Durante las últimas décadas, ayudó a desarrollar las ideas y técnicas de ingeniería que liberaron el potencial del aprendizaje profundo, junto con otros ganadores del Premio Turing de este año: Geoffrey Hinton , de la Universidad de Toronto y Google, y Yann LeCun , que trabaja en NYU y Facebook
El aprendizaje profundo utiliza redes neuronales artificiales para aproximar matemáticamente la forma en que las neuronas y las sinapsis humanas aprenden formando y fortaleciendo conexiones. Los datos de entrenamiento, como imágenes o audio, se envían a una red neuronal, que se ajusta gradualmente hasta que responda de la manera correcta. Un programa de aprendizaje profundo puede ser entrenado para reconocer objetos en fotografías con alta precisión, siempre que vea muchas imágenes de entrenamiento y tenga mucha potencia informática.
Pero los algoritmos de aprendizaje profundo no son buenos para generalizar o tomar lo que han aprendido de un contexto y aplicarlo a otro. También capturan fenómenos que están correlacionados, como el canto del gallo y la salida del sol, independientemente de cuál sea la causa del otro.
La causalidad se ha estudiado durante mucho tiempo en otras áreas, y las técnicas matemáticas han surgido en las últimas décadas para explorar las relaciones causales, ayudando a revolucionar el estudio de campos como las ciencias sociales, la economía y la epidemiología. Un pequeño grupo de investigadores está trabajando para combinar causalidad y aprendizaje automático.
Los experimentos de ciencia cognitiva también muestran que comprender la causa y el efecto es fundamental para el desarrollo humano y la inteligencia, aunque no está claro cómo los humanos forman este conocimiento.
El trabajo de Bengio sobre la causalidad podría ser un pequeño paso hacia la respuesta a esta pregunta, pero también refleja más realismo en torno al aprendizaje profundo. A pesar de que las aplicaciones de la técnica se han multiplicado, un número creciente de expertos ha señalado los límites de la tecnología en áreas críticas como la comprensión del idioma .
En la entrevista, Bengio también expresó cierta frustración con la forma en que las empresas exageran las capacidades de la inteligencia artificial y el aprendizaje profundo. "Creo que sería bueno que haya una corrección en el mundo de los negocios, porque ahí es donde está el hype", dice.
Otros creen que el enfoque en el aprendizaje profundo puede ser parte del problema. Gary Marcus , profesor emérito de la Universidad de Nueva York y autor de un libro reciente que destaca los límites del aprendizaje profundo, Reiniciando la IA: construyendo inteligencia artificial en la que podemos confiar , dice que el interés de Bengio en el razonamiento causal señala un cambio bienvenido en el pensamiento.
"Demasiado aprendizaje profundo se ha centrado en la correlación sin causalidad, y eso a menudo deja a los sistemas de aprendizaje profundo en una pérdida cuando se prueban en condiciones que no son exactamente las mismas en las que fueron entrenados", dice.
Marcus agrega que la lección de la experiencia humana es obvia. “Cuando los niños preguntan '¿por qué?' están preguntando sobre la causalidad ”, dice. "Cuando las máquinas comienzan a preguntar por qué, serán mucho más inteligentes".
Fuente: https://www.wired.com/story/ai-pioneer-algorithms-understand-why/
Última edición: