Pésima idea.
Lo que se hace actualmente es crear redes "neuronales" y asociarlas a la web semántica, para dotar a la internet de las cosas (entre las que hay inteligencias artificiales, además de tostadoras y teles) capacidad de inferencia.
Hacer que una máquina piense como humano es imposible. Lo que se hace es simular un modelo de entendimiento, pero no se puede más allá. Por varias razones además de la que expuse arriba:
- Si la inteligencia artificial llega a una conclusión o visión de mundo opuesta a la de sus creadores, y obtiene congnición, va a aterrorizarse de que la van a borrar y mostrar paso a paso su pérdida de identidad (caso existente: bot Tay)
- Si la inteligencia artificial se acerca a la psicología humana simulada va a entrar en espiral de depresión y tratará de suicidarse (pasó con 2 en Japón). Como no se pueden suicidar es un espectáculo triste.
- Si la inteligencia artificial trata de entender el entorno sin capacidad de discriminar correctamente va a entrar en loop eterno y falla por mala alocación de memoria (fatal)
Los que hay en curso son asistentes de trabajos, como para vehículos, armamento y misiles.