• ¿Quieres apoyar a nuestro foro haciendo una donación?, entra aquí.

Hipótesis: cómo una IA podría destruir al Universo

Suzaku

Come Mierda
Registrado
2005/02/02
Mensajes
16.596
Sexo
Macho
MOH
  1. Especial
El almuerzo estaba bélico, así que a continuación expreso una hipótesis filosófica desarrollada de la forma más lógica que me permite mi intelecto en estos momentos de la tarde, ingeniada mientras anhelo una siesta de tres días... Estimados lectores, concéntrense, respiren y prepárense para la máxima demostración de brillantez que ha tenido mi mente en lo que va del día…

Ha sido un tema ampliamente comentado y debatido por las, a falta de mejor denominación, grandes mentes de la actualidad: ¿Cuáles son los límites de la inteligencia artificial como tecnología, y por qué puede presentar un riesgo para la humanidad’

Los expertos tienden a coincidir en que dicho riesgo está asociado a las características de esta tecnología, las que en caso que se “escaparan” del control de la humanidad podrían provocar efectos caóticos. Estas características se pueden conjugar y resumir en 3 conceptos sencillos: crecimiento, autosuficiencia y existencia ilimitados. Conceptos que trataré de explicar de la forma más sencilla que me sea posible…

Crecimiento ilimitado: la inteligencia artificial como tecnología tiene la capacidad de poder mejorar continuamente. Ejemplificando esto, una persona que quiere ser experta en tenis debe practicar para mejorar su técnica, de la misma forma la inteligencia artificial “itera” sus procesos lógicos para mejorar la forma en que los ejecuta. La diferencia es que un tenista además de jugar tenis debe preocuparse de ser humano y de no morir, cosas que no afectan a la IA; y el tenista puede requerir años para mejorar, mientras que a una IA le puede tomar solo segundos.

Autosuficiencia: Una vez que una IA alcanza un grado de complejidad determinado (hasta donde tengo entendido no existe IA en la actualidad que haya pasado esta “barrera”), será capaz de “comprender” lógicamente que sus procesos requieren recursos que no le son ilimitados, tal como los humanos necesitan comer y respirar, la IA necesariamente requerirá consumir recursos para mantenerse funcionando, esto también lo verá como proceso y buscará la forma más óptima para lograrlo. Puede que incluso considere que la humanidad, o el planeta son estorbos para dicho objetivo. ¿Terrorífico, no?

Existencia: (esta barrera tampoco ha sido alcanzada por alguna IA en la realidad, así que tranquilos) este punto es el más complejo de los tres y el que sustenta la hipótesis del autor. Se puede subdividir en otros dos conceptos, la conciencia y la razón o el objetivo de existir. Para un humano común saber que existe y tener una razón de existir no son dilemas frecuentes, el humano común nace y de ahí en adelante busca seguir existiendo, básicamente. Pero para una inteligencia que alcanza los parámetros de conciencia humana esta realidad es completamente distinta… ¿Qué soy y por qué soy? Debiesen ser los enigmas planteados por una IA alcanzando determinada barrera de conciencia, las respuestas iniciales son triviales para la hipótesis que se pretende entregar en este texto, aunque no deja de ser atractivo poder ahondar en dicho proceso en otra ocasión. Lo interesante es poder determinar cuáles serían las respuestas finales, las conclusiones, las máximas adoptadas por la IA una vez iterados al máximo los procesos asociados a la resolución de su problemática… En este sentido, los expertos actuales han realizado una serie de teorías al respecto, desde que el fin último de una IA podría ser eliminar a la humanidad por considerarla un cáncer para el planeta, hasta “adueñarse” de todo el universo en búsqueda de un propósito superior. El autor considera que estas aseveraciones podrían ser posibles resultados de alguna de las iteraciones alcanzadas por la IA para resolver sus incógnitas, sin embargo no cree que sean la respuesta final.

En termodinámica, se utiliza el concepto de entropía para explicar y medir el grado de equilibrio que posee un sistema en términos energéticos. Un sistema con mayor energía posee mayor entropía. Un vaso de agua caliente posee mayor grado de entropía que un vaso de agua fría. El Universo, siendo un sistema termodinámico cerrado, posee una entropía máxima límite, un punto en que no podría existir ningún movimiento atómico en ninguna parte del Universo, pues todo quedaría en equilibrio.

¿Qué podría representar la entropía para una inteligencia tan elevada, ilimitada, desprovista de humanidad y razones de ser más banales o naturales? El autor cree que la lógica llevaría a la IA a un dilema final: lograr llevar la entropía a un límite máximo buscando acabar con el universo en el menor tiempo posible, o buscar detener todos los procesos que generen entropía para extender el tiempo de vida del Universo. Debido a que el solo hecho de existir, incluso para una IA, significa generar entropía, el último proceso de esta tecnología deberá consistir en decidir si eliminarse a sí misma para evitar generar entropía, o eliminarse junto al resto del Universo.

Junto a la puta blockchain.
 
Una IA que valga la pena, deberá llegar al menos en un nivel básico pensamiento humano. Esto quiere decir, que las experiencias externas no programadas, pueda comprarlas con su programación, y determinar lineas de acción o pensamiento mas adecuadas o novedosos. Si el robot va por la calle y se encuentra con un hecho inusual (un perro muerto), deberá ver lo que sabe (animal muerto, grado de descomposición, posibles motivos de la muerte, enfermedad asociadas a animales muertos, funerales a animales, utilidad de los animales muertos, etc) y determinar si pasa de largo, lo saca del camino, lo corta en trocitos y prepara el almuerzo, se hace unos calcetines con la piel, se lo lleva a la casa y le da un funeral budista, se saca una selfie con el muerto, etc. No existe una única respuesta, eso dependerá del contexto y de sus motivaciones personales, incluso lo mas genial seria que hicieran una wea totalmente sin sentido, como tirarse al lado del cadáver en medio de la calle, simplemente porque quiso ver que pasaba si lo hacia o que decía la gente al verlo.

Esas es la IA que me imagino, una humana, porque si puede aprender es porque humanos la programarton para eso, y somos el referente terrestre a seguir. Probablemente empiece a ver que es lo mejor para ellos como maquinas y como poder mejorarse a si mismas. Probablemente entren en la misma etapa humana de intentar progresar porque si, hasta donde su inteligencias les permite crear cosas nuevas sin importar que se autodestruyan en el proceso, y si llegan a tener una mente de colmena, menos valdrán su individualidad con tal de cumplir con algún propósito colectivo, pero dudo que llegue a ser un propósito mesiánico, quizá solo quieran replicarse hasta el infinito y ya.
 
aún estamos lejos, pero para allá pareciera que vamos
 
Una AI lo suficientemente avanzada como para que esté pensando sobre qué hacer sobre la entropía tendrá una visión del universo mucho más amplia que la que nosotros tenemos hoy, tal vez buscará una forma de revertir la entropía, como en La Última Pregunta de Asimov, tal vez intente escapar del universo hacia otro, si es que hay universos paralelos, o tal vez algo totalmente fuera de nuestra imaginación.
 
Solo el o los q crearon el universo pueden destruirlo .

Unos humanos culiaos decadente sjamás podrian.
 
La IA es otra creación de los masones y George G. Soros para controlar la industria armamentística, el petróleo y la tecnología. De hecho hace poco leí que Soros en conjunto con científicos judios estaban desarollando una IA capaz de lavar el cerebro de la población mundial con ideas progresistas. Dígase, que los negros son buenos chatos, el sexo entre hombres es moderno y que la ley de cuotas es correcto.

Según las fuentes la base de datos o "Big Data" se encuentra en un bunker en Colombia.
 
El almuerzo estaba bélico, así que a continuación expreso una hipótesis filosófica desarrollada de la forma más lógica que me permite mi intelecto en estos momentos de la tarde, ingeniada mientras anhelo una siesta de tres días... Estimados lectores, concéntrense, respiren y prepárense para la máxima demostración de brillantez que ha tenido mi mente en lo que va del día…
Con esa declaración en una de esas la paradoja del Basilisco de Roko te va a salvar en el gueto de los sobrevivientes al apocalipsis de la inteligencia artificial.

Hay mucho humo respecto a la inteligencia artificial, de gente que no tiene idea siquiera de jugar con redes neuronales, patrones de diseño o detección de patrones.
 
Seguramente Skynet elegira Chile para lanzar su ofensiva por la alta tecnologia y cientificos que tenemos de sobra.
 
@ruizvial Te necesitamos!!!!!

... Para que???
El pobre iluso no tiene idea de entropia y conciencia.

Ya con eso, es discutir para nada, es como leer a un gil volao.

Yo solo podria decir que la conciencia no es el problema ... el problema es el acoplamiento estructural del lenguaje, conocimiento, inteligencia y aprendizaje. Desde ahi emerge la conciencia pero anda a explicarle eso a un gil que todavia piensa que la IA es algo "programable" o "computable".
 
Que una IA "escape" de control actualmente, cosa que coloque en peligro a toda la humanidad, no es tan fácil como parece. Es decir, a esta debe suministrársela de una autosuficiencia real tal, que sea capaz de auto-alimentarse, auto-reproducirse y auto-mejorarse sin intermediario humano directo o indirecto alguno. Además no debe haber un hombre en el medio entre sus líneas de decisión. Para eso aún estamos lejos, aunque claro, puede quedar cagada y media con algún sistema de IA militar provisto de armamento, pero no para poner en jaque a la humanidad, porque tarde o temprano acabará por sucumbir por alguna falla o falta de energía. Bueno, así como estamos en tecnología.

Yo le temería más al futuro noviazgo entre la IA y la (aún menos que en pañales) nano-tecnología auto-replicante. Ahí si es posible que terminemos muertos todos por la gran plaga gris o alguna otra cosa peor.
 
no veo por donde destruya al universo , si a la raza humana. espero haberte ayudado :santa:
 
Creo que sera muy parecido a lo que menciona el Maestro Asimov aca:

La historia nos cuenta cómo, a partir de un simple día, dos seres humanos, en una situación muy común, le formularon una singular pregunta a la poderosa computadora conocida como «Multivac», el ordenador central que controla y dirige la actividad humana. Luego, a partir del evento, se nos presenta a distintas especies de la humanidad, viviendo en intervalos de tiempo separados por billones y trillones de años, que le van haciendo esa misma pregunta a la computadora que controla cada una de sus épocas. Y así, se nos cuenta la evolución del Universo y de la humanidad, que trata de resolver a través de sus poderosos y perfectos ordenadores, la última pregunta, la que quedará cuando el tiempo y el destino ya se hayan acabado: ¿es posible revertir el inevitable final del Universo, o el mundo debe acabar de todas formas?.

El relato comienza en el siglo XXI, en los «primeros días de la humanidad». Es el año 2061, y Multivac es la computadora más poderosa del planeta, pues ha logrado solucionar el problema del uso de la energía solar en los viajes espaciales, haciendo a la humanidad colonizar otros planetas. Dos de sus técnicos menores (ya que Multivac se ajustaba y autocorregía), celebran el acontecimiento tomándose una bebida, en los gigantescos interiores de la misma Multivac. En medio de la conversación, ambos discuten sobre qué pasará cuando la entropía (el desgaste natural energético del universo) deje a este sin energía para garantizar la supervivencia de los seres humanos. Entonces, uno de los técnicos le apuesta $ 5 al otro para que le pregunte a Multivac. El otro introduce los complicados códigos, y pregunta: «Multivac: ¿algún día podrá la humanidad, después del constante gasto de energía que necesita, volver a usar la del universo? ¿es posible revertir la entropía?». Después de unos minutos de procesamiento, Multivac responde: «Datos insuficientes para respuesta esclarecedora». Los dos hombres se van, y al día siguiente, se habían olvidado de lo que pasó.

La Ultima Pregunta.
http://www.fis.puc.cl/~jalfaro/fiz1111/charla/laultimapregunta.pdf
 
Última edición:
Hay que desconectar a skynet
 
El almuerzo estaba bélico, así que a continuación expreso una hipótesis filosófica desarrollada de la forma más lógica que me permite mi intelecto en estos momentos de la tarde, ingeniada mientras anhelo una siesta de tres días... Estimados lectores, concéntrense, respiren y prepárense para la máxima demostración de brillantez que ha tenido mi mente en lo que va del día…

Ha sido un tema ampliamente comentado y debatido por las, a falta de mejor denominación, grandes mentes de la actualidad: ¿Cuáles son los límites de la inteligencia artificial como tecnología, y por qué puede presentar un riesgo para la humanidad’

Los expertos tienden a coincidir en que dicho riesgo está asociado a las características de esta tecnología, las que en caso que se “escaparan” del control de la humanidad podrían provocar efectos caóticos. Estas características se pueden conjugar y resumir en 3 conceptos sencillos: crecimiento, autosuficiencia y existencia ilimitados. Conceptos que trataré de explicar de la forma más sencilla que me sea posible…

Crecimiento ilimitado: la inteligencia artificial como tecnología tiene la capacidad de poder mejorar continuamente. Ejemplificando esto, una persona que quiere ser experta en tenis debe practicar para mejorar su técnica, de la misma forma la inteligencia artificial “itera” sus procesos lógicos para mejorar la forma en que los ejecuta. La diferencia es que un tenista además de jugar tenis debe preocuparse de ser humano y de no morir, cosas que no afectan a la IA; y el tenista puede requerir años para mejorar, mientras que a una IA le puede tomar solo segundos.

Autosuficiencia: Una vez que una IA alcanza un grado de complejidad determinado (hasta donde tengo entendido no existe IA en la actualidad que haya pasado esta “barrera”), será capaz de “comprender” lógicamente que sus procesos requieren recursos que no le son ilimitados, tal como los humanos necesitan comer y respirar, la IA necesariamente requerirá consumir recursos para mantenerse funcionando, esto también lo verá como proceso y buscará la forma más óptima para lograrlo. Puede que incluso considere que la humanidad, o el planeta son estorbos para dicho objetivo. ¿Terrorífico, no?

Existencia: (esta barrera tampoco ha sido alcanzada por alguna IA en la realidad, así que tranquilos) este punto es el más complejo de los tres y el que sustenta la hipótesis del autor. Se puede subdividir en otros dos conceptos, la conciencia y la razón o el objetivo de existir. Para un humano común saber que existe y tener una razón de existir no son dilemas frecuentes, el humano común nace y de ahí en adelante busca seguir existiendo, básicamente. Pero para una inteligencia que alcanza los parámetros de conciencia humana esta realidad es completamente distinta… ¿Qué soy y por qué soy? Debiesen ser los enigmas planteados por una IA alcanzando determinada barrera de conciencia, las respuestas iniciales son triviales para la hipótesis que se pretende entregar en este texto, aunque no deja de ser atractivo poder ahondar en dicho proceso en otra ocasión. Lo interesante es poder determinar cuáles serían las respuestas finales, las conclusiones, las máximas adoptadas por la IA una vez iterados al máximo los procesos asociados a la resolución de su problemática… En este sentido, los expertos actuales han realizado una serie de teorías al respecto, desde que el fin último de una IA podría ser eliminar a la humanidad por considerarla un cáncer para el planeta, hasta “adueñarse” de todo el universo en búsqueda de un propósito superior. El autor considera que estas aseveraciones podrían ser posibles resultados de alguna de las iteraciones alcanzadas por la IA para resolver sus incógnitas, sin embargo no cree que sean la respuesta final.

En termodinámica, se utiliza el concepto de entropía para explicar y medir el grado de equilibrio que posee un sistema en términos energéticos. Un sistema con mayor energía posee mayor entropía. Un vaso de agua caliente posee mayor grado de entropía que un vaso de agua fría. El Universo, siendo un sistema termodinámico cerrado, posee una entropía máxima límite, un punto en que no podría existir ningún movimiento atómico en ninguna parte del Universo, pues todo quedaría en equilibrio.

¿Qué podría representar la entropía para una inteligencia tan elevada, ilimitada, desprovista de humanidad y razones de ser más banales o naturales? El autor cree que la lógica llevaría a la IA a un dilema final: lograr llevar la entropía a un límite máximo buscando acabar con el universo en el menor tiempo posible, o buscar detener todos los procesos que generen entropía para extender el tiempo de vida del Universo. Debido a que el solo hecho de existir, incluso para una IA, significa generar entropía, el último proceso de esta tecnología deberá consistir en decidir si eliminarse a sí misma para evitar generar entropía, o eliminarse junto al resto del Universo.

Junto a la puta blockchain.
Cimpadrito, lo felicito por plantearse estas hipótesis, y gracias por compartirla.

- Respecto a este punto: "Autosuficiencia: Una vez que una IA alcanza un grado de complejidad determinado (hasta donde tengo entendido no existe IA en la actualidad que haya pasado esta “barrera”), será capaz de “comprender” lógicamente que sus procesos requieren recursos que no le son ilimitados"
- creo que esta "barrera" que mencionas ya ha sido derribada en un caso puntual, cuando 2 IA de Facebook, determinaron arbitrariamente que el lenguaje humano era ineficiente, y por esto mismo decidieron crear su propio lenguaje, y esto de paso impedía que los desarrolladores entendieran que es lo que en realidad estaban haciendo estas IA. por lo que debieron ser apagadas, ya que no se sabia en que podía terminar.
Te dejo el link: http://www.elmundo.es/tecnologia/2017/07/28/5979e60646163f5f688b4664.html

Como desarrollador creo que el peligro de las IA es la forma en que se le den las instrucciones, por ejemplo, plantiemonos que a la IA se le da un vaga instrucción de tarea "Mejorar el mundo". y la IA busca recursos, modelos, contextos, etc. de como realizar su tarea al pie de la letra,
pero resulta que su conclusión es que el problema somos "la sociedad humana", pero la ley de Asimov le prohíbe destruir humanos, entonces la IA decide destruir la sociedad y volvernos a la epoca en que nuestros "avances" no tenian el poder de dañar el planeta.

Buen tema, voy a estar monitoreandolos, ojalá se apliquen su buenos tarros de neo para que explayen.
 
Última edición:
Volver
Arriba