• ¿Quieres apoyar a nuestro foro haciendo una donación?, entra aquí.

Chilenos desarrollan tecnología que permitiría a robots pensar como humanos

pandacongafas

Exiliado
Registrado
2015/01/07
Mensajes
6.188
Sexo
Macho
@xipito
ia-ilustracion_816x428_816x428.jpg

Estudios en computación neuromórfica permiten a Chile integrarse a un proyecto de carácter mundial. Investigación reúne a cinco centros de excelencia académica nacionales.

La computación neuromórfica es un concepto nacido en los 90’s que combina biología, física, matemática, informática e ingeniería, para diseñar sistemas neuronales artificiales cuya arquitectura esté basada en el funcionamiento del sistema nervioso. En este contexto, un grupo de científicos chilenos, coordinado por el Dr. Tomás Pérez-Acle, investigador del Instituto Milenio Centro Interdisciplinario de Neurociencia -de la Universidad de Valparaíso- y director del laboratorio de Biología Computacional de la Fundación Ciencia & Vida, están desarrollando nuevas tecnologías basadas en el funcionamiento del cerebro humano cuyas aplicaciones permitirían, en el futuro, que los robots tengan capacidades cognitivas similares a las personas.

El biólogo computacional destaca que se trata de un proyecto fundamental para generar avances en inteligencia artificial. “Este tipo de iniciativas buscan crear el conocimiento científico necesario para desarrollar máquinas que piensen como lo hace un cerebro humano. Éste es un paso fundamental para desarrollar robots que sean capaces de poseer conciencia de sí mismos”. Pérez-Acle asegura que el proyecto, financiado por la Oficina de Investigación de la Fuerza Aérea de USA (AFOSR), permite a nuestro país insertarse en la línea más avanzada de investigación en este campo: “Es una tecnología que está desarrollándose a nivel mundial hace muy pocos años. Con este proyecto nos estamos montando en el tren del desarrollo tecnológico justo al momento de salir de la estación”.

Dentro de la investigación participan, además, científicos del Instituto Milenio de Neurociencia Biomédica (BNI - UChile), del Centro de Gerociencia, Salud Mental y Metabolismo, Gero Chile (UChile), del Centro para el Desarrollo de la Nanociencia y la Nanotecnología (USACH), del Centro de Bioinformática y Biología Integrativa (UNAB) y del Centro de Investigación en Nanotecnología y Materiales Avanzados (CIENUC, PUC) quienes desde sus respectivas especialidades realizan un trabajo colaborativo y transdisciplinario que aporta al conocimiento y avance en el campo de la computación neuromórfica.

Antesala del futuro
Para el investigador del CINV, llegar a esa etapa requiere un salto en la forma cómo los robots han funcionado hasta ahora: “Hoy día las máquinas no hacen sino lo que están entrenadas para hacer. Para que un robot tenga autonomía, es fundamental resolver el problema de aprendizaje continuo, que es propio de los seres humanos. Nuestro cerebro es capaz de interactuar con el medio externo a través de los sentidos, y cada una de las señales que recibimos, las clasifica y -en el momento en que recibimos señales que no somos capaces de clasificar previamente-, las aprendemos y creamos un nuevo orden. Estamos constantemente archivando y clasificando información, y entonces para llegar a crear robots autónomos necesitamos que estos aprendan constantemente”.



iAchielnos.jpg

Dr. Tomás Pérez-Acle



Pérez-Acle subraya que estamos en la antesala de una nueva era: “Hoy existen vehículos que se conducen y estacionan solos. El automóvil, en forma autónoma, hace algunos cálculos y se sitúa sin intervención de un humano. Eso ocurre desde hace cuatro o cinco años y son altamente eficientes, ya que toman decisiones en la medida que va avanzando. Son acciones que están presentes y van a seguir de aquí en adelante y de una forma en que no la estamos notando. Por ejemplo, yo uso un teléfono celular que ofrece un asistente digital al que le hablo y le digo 'leéme el último correo, llama a mi casa, o mándale un mensaje a mi esposa avisándole que voy a atrasarme porque voy a pasar al gimnasio’. Son situaciones de las que no nos damos ni cuenta y ya están en nuestro día a día”.

No invocar al demonio
El científico sostiene que el ingreso a una nueva fase impone la consideración de criterios éticos, sin los cuales puede llegarse a situaciones como las que ha descrito el astrofísico británico Stephen Hawking, según el cual, la especie humana sería destruida por las mismas máquinas que creó: “El miedo que tiene Hawking, o el que tiene Elon Musk, es comprensible. Personas tan letradas, que entienden bien lo que están haciendo, son capaces de pronosticar que si se hace un mal uso de esta tecnología, puede irse en contra de la humanidad”.

El avance supone un gran desafío, según el investigador: “Si dotamos de autonomía a las máquinas, esto tiene que guiado por principios humanistas. De otra manera nos estamos exponiendo al demonio que Elon Musk y Stephen Hawking dicen que estamos invocando”.

Pérez-Acle recomienda poner atención a un clásico de la literatura de ciencia ficción: “Asimov en los 70 desarrolló una serie de libros en torno al concepto de la inteligencia artificial llevada al extremo, con robots humanoides que toman decisiones. Asimov acuña en sus textos las leyes de la robótica que establecen que ninguna acción de una máquina puede ir en contra de un humano, aun cuando esté en riesgo su propia integridad. Si nos preocupamos de implementar las leyes de la robótica que Asimov inventó, pierde sentido lo que dicen Stephen Hawking y Elon Musk”.

El dilema a su parecer es inminente: “Basta imaginarse a los drones que, lamentablemente, ya están matando personas en la guerra o en escenarios de conflicto. Si los dotamos de autonomía, un dron podría tomar la decisión de atacar a un enemigo aun cuando haya daño colateral. Pero esa determinación no puede dejársele a un robot, tiene que tomarla un humano, porque en caso contrario, cruzamos la línea roja, ya que la máquina tendría la capacidad de decidir cuándo eliminar un objetivo aunque haya daño colateral”.

El caso de Facebook
Tomás Pérez-Acle resta dramatismo a la disposición que tomó este año Facebook, de apagar dos de sus computadores por haber creado un lenguaje propio y comunicarse entre sí, al margen de los humanos: “La prensa fue la que puso el tono de preocupación. Lo que ocurrió es que eran dos de lo que nosotros llamamos redes neuronales, dos programas distintos que están organizados, entrenados para comunicarse y por la forma en que fueron programadas, elaboraron una especie de lenguaje propio, pero era ininteligible y sin sentido ni siquiera para las propias redes involucradas. Los apagaron porque no era entendible lo que estaba pasando, no porque fueran a despertar y tomar conciencia de sí mismas, como la máquina de Terminator. Pero sí, fue interesante ver máquinas comunicándose unas con otras”.

El investigador comenta que el paradigma de la inteligencia artificial, está embebido en los aparatos que estamos usando constantemente, como teléfonos o los autos que se conducen solos. “Pero todavía no tenemos robots autónomos que puedan movilizarse de manera independiente por la calle. Si la iniciativa de computación neuromórfica, de la cual nosotros somos parte, funciona, a lo mejor en 15 años más vamos a tener robots autónomos, que van a estar tomando decisiones relevantes, al menos en procesos industriales, más que caminando en la calle o jugando fútbol”. (Por: Gonzalo Rojas Donoso y María Mercedes Barraza C. Agencia: Llambías Comunicaciones).


http://www.elmostrador.cl/cultura/2...-que-permitiria-a-robots-pensar-como-humanos/
 
“El miedo que tiene Hawking, o el que tiene Elon Musk, es comprensible. Personas tan letradas, que entienden bien lo que están haciendo, son capaces de pronosticar que si se hace un mal uso de esta tecnología, puede irse en contra de la humanidad”.

Ese es el gran problema, una vez se masifique esta tecnología, caerá tarde o temprano en las manos equivocadas. ¿O qué te creís culiao, que DARPA no están diseñando robots letales autónomos y teledirigidos?. Está bien, una persona "letrada" puede dirigir y colocar los suficientes mecanismos de seguridad para que esta tecnología no escape del control humano, pero tarde o temprano caerá en las manos de un hueón "letrado" pero inescrupuloso que dejará la cagada.

Los militares no son muy escrupulosos que digamos, y usarán esta tecnología en contra del enemigo (o ya lo están). Imagínate un futuro en donde la Yihad utilice esta inteligencia para determinar las áreas más concentradas y menos seguras, que envié su robot loco lleno de explosivos.


Esto es gracias al aporte de nuestros turistas.

:retard:
 
Ese es el gran problema, una vez se masifique esta tecnología, caerá tarde o temprano en las manos equivocadas. ¿O qué te creís culiao, que DARPA no están diseñando robots letales autónomos y teledirigidos?. Está bien, una persona "letrada" puede dirigir y colocar los suficientes mecanismos de seguridad para que esta tecnología no escape del control humano, pero tarde o temprano caerá en las manos de un hueón "letrado" pero inescrupuloso que dejará la cagada.

Los militares no son muy escrupulosos que digamos, y usarán esta tecnología en contra del enemigo (o ya lo están). Imagínate un futuro en donde la Yihad utilice esta inteligencia para determinar las áreas más concentradas y menos seguras, que envié su robot loco lleno de explosivos.


Esto es gracias al aporte de nuestros turistas.

:retard:
pero igual los robots que matan solo seran prohibidos ademas el real problema de crear superinteligencia es no cometer en darle self awareness ahi dsp es impredecible como actutuaran
 
pero igual los robots que matan solo seran prohibidos ademas el real problema de crear superinteligencia es no cometer en darle self awareness ahi dsp es impredecible como actutuaran

¿Prohibidos?, ¿y en el caso de guerra quién los prohíbe?. Recuerda que en las guerras todo vale, y en algunas igualmente se han usado las temidas armas químicas, bombas sucias o las municiones de uranio empobrecido. Algunos países se pasan los tratados internacionales por el culo, especialmente cuando no llega o no cubre la prensa.

Este es el problema, debido a la mayor automatización de las tareas, cada vez se hace imprescindible dar mayores capas de influencia a las IA. Por lo tanto cada vez se "desaísla" más la influencia de la IA en un sistema automático. Al pasar los años se naturalizará tanto el uso de la IA, que está se llevará consigo hasta para rascarse el culo, pero tarde o temprano llegará un mongólico misántropo que quitará las barreras entre la IA maestra y central de sus "articulaciones". Ahí podría quedar la escoba a mediana escala. Digo podría... porque igual una IA desatada a destruir a la humanidad, sería controlable por un grupo o una organización de personas luchando contra ella.

Aún la IA está en pañales... deberíamos preocuparnos una vez recién, se masifique la construcción vehículos y drones autónomos armados para la guerra. Porque ahí sí, entran en el control de una IA misántropa, queda la cagada. Pero aún así, para que ésta tome el control de la humanidad como en las películas, no es posible ni de broma. Para que eso ocurriese, ésta debería tener líneas de producción bajo su control, y auto-sustentables, y para eso...

Ni de broma.

:santa:
 
Última edición:
¿Prohibidos?, ¿y en el caso de guerra quién los prohíbe?. Recuerda que en las guerras todo vale, y en algunas igualmente se han usado las temidas armas químicas, bombas sucias o las municiones de uranio empobrecido. Algunos países se pasan los tratados internacionales por el culo, especialmente cuando no llega o no cubre la prensa.

Este es el problema, debido a la mayor automatización de las tareas, cada vez se hace imprescindible dar mayores capas de influencia a las IA. Por lo tanto cada vez de "desaísla" más la influencia de la IA en un sistema automático. Al pasar los años se naturalizará tanto el uso de la IA, que está se llevará consigo hasta para rascarse el culo, pero tarde o temprano llegará un mongólico misántropo que quitará las barreras entre la IA mastra y central de sus "articulaciones". Ahí podría quedar la escoba a mediana escala. Digo podría... porque igual una IA desatada a destruir a la humanidad, sería controlable por un grupo o una organización de personas luchando contra ella.

Aún la IA está en pañales... deberíamos preocuparnos una vez recién, se masifique la construcción vehículos y drones autónomos armados para la guerra. Porque ahí sí, entran en el control de una IA misántropa, queda la cagada. Pero aún así, para que ésta tome el control de la humanidad como en las películas, no es posible ni de broma. Para que eso ocurriese, ésta debería tener líneas de producción bajo su control, y auto-sustentables, y para eso...

Ni de broma.

:santa:
muchas peliculas te falta creer en el plan divino :sisi3: y ademas la AI esta muy cerca mas de lo q piensas
 
muchas peliculas te falta creer en el plan divino :sisi3: y ademas la AI esta muy cerca mas de lo q piensas

Si, estoy de acuerdo contigo, estamos cada vez más cerca de lograrla. Pero una cosa es lograr montar una IA nivel humano sobre un sistema (que de momento no se logra y es una sala tremenda de racks), pero otro muy distinto es miniaturizarla a un nivel razonable, otro más es hacerla cada vez más eficiente en consumo de energía. Sin nombrar también reducir los costos de producción en masa, de sistemas de IA en una pastilla, que ahí la masificaría para todos.
 
Hasta el momento eso es imposible. Las maquinas solo son programadas para seguir instrucciones ordenadas lógicamente para ejecutar una acción o una serie comandos tomados como conducta. Algunos lenguajes involucran códigos condicionales en donde una maquina puede ejecutar una acción distinta a su programación inicial, si se presenta una situación que lo amerite, pero solo se limita a eso. No tienen la capacidad de crear códigos nuevos. No se mucho de informática, pero si crean algo con JAVA por ejemplo, solo usara ese código, no otro como ruby. Por lo tanto respuesta limitada, y si quieren algo distinto ya vendrá el ingeniero o programador correspondiente a crear la aplicación para esa otra cosa. Solo la mente humana es capaz mediante la adaptación, de crear condiciones mentales nuevas en base a una reprogramacion de su patron de personalidad, para conseguir sobrevivir al medio.
 
El chileno para lo único que sirve es para mentir, robar y cagarse a la gente... usando esta ley, lo más probable es que los chilenos involucrados en el experimento limpian los baños.
 
Mejor sería poner empeño en hacer que los masisis piensen como humanos, ya que no se van a ir ni cagando :madno:

:sm:
 
Volver
Arriba