• ¿Quieres apoyar a nuestro foro haciendo una donación?, entra aquí.

El tema de la inteligencia artificial de codigo abierto

creo que la gracia es que el chat decida cuando el asunto vale la pena tirarloa la calculadora y cuando se puede sacar de forma logico verbal.
ojo que ese juego entre disntintos procesamientos es infinitamente multimplicable hacia los cientos de algoritmos matematicos clasicos que existen . y todas las ciencias posibles

onda si le preguntas algo de cartografia por que no se ESTAS EN UN BARCO el chatgtp podria activar algun modulo de geometria no euclidiana y luego activar un modulo de carta astronomica y te puede dar una respuesta a un costo de computo bajo y sin fallas.
Estas comentando como si ChatGPT pensara y tomara decisiones racionales. Un language model no hace eso. Otro sistema debe se entrenado para determinar de qué tipo de pregunta se trata a partir de lenguaje natural y extraer datos para consultar otro subsistema. Dado que no hay datos para entrenar dicho sistema, el dominio de posibles subsistemas es grande, imagino que serán soluciones bastante específicas y no muy fiables.

ChatGPT es narrow AI.
Post automatically merged:

Gracias mi amor por el dato.

Respeto de chatgpt está claro que puede hacer pedazo a Google si agrega más funciones. Imágenes videos sonidos etc. La gracia sería por ejemplo que pudiera programar arduinos o raspberry para hacer hardware

Microsoft pago 10 billones de dólares para tener acceso al código de OpenAI e integrarlo a su buscador. Bing es la expression de ChatGPT en búsquedas.
 
Estas comentando como si ChatGPT pensara y tomara decisiones racionales. Un language model no hace eso. Otro sistema debe se entrenado para determinar de qué tipo de pregunta se trata a partir de lenguaje natural y extraer datos para consultar otro subsistema. Dado que no hay datos para entrenar dicho sistema, el dominio de posibles subsistemas es grande, imagino que serán soluciones bastante específicas y no muy fiables.

ChatGPT es narrow AI.
en efecto solo queria usar una analogia. pero es como tu dices.
Post automatically merged:

andan diciendo (no lo he verificado) que la IA de facebook es portable y se puede instalar hasta en una raspberry.
no se si esto tenga efectos en robotica, pero es otra ramificacion de la zorra que esta quedando
 
Estas comentando como si ChatGPT pensara y tomara decisiones racionales. Un language model no hace eso. Otro sistema debe se entrenado para determinar de qué tipo de pregunta se trata a partir de lenguaje natural y extraer datos para consultar otro subsistema. Dado que no hay datos para entrenar dicho sistema, el dominio de posibles subsistemas es grande, imagino que serán soluciones bastante específicas y no muy fiables.

La decisión racional es la mas factible de resolver por las máquinas, ya que su principal instrumento es la lógica. La principal valla de esto, son los inputs, que los seres humanos contamos naturalmente (pero igual limitadamente) con el medio natural/social.

La que creo no sería resulta por una IA dada su no conexión con lo natural, es la emocional. Sin embargo la decisión emocional ha sido cercada mediante bigdata (entendimiento del comportamiento "azaroso" del humano).

En resumen la IA será racional?, si. Será emocional?, no. Pero si entenderá lo que el humano quiere y desea :sconf:
 
Última edición:
La decisión racional es la mas factible de resolver por las máquinas, ya que su principal instrumento es la lógica. La principal valla de esto, son los inputs, que los seres humanos contamos naturalmente (pero igual limitadamente) con el medio natural/social.

La que creo no sería resulta por una IA dada su no conexión con lo natural, es la emocional. Sin embargo la decisión emocional ha sido cercada mediante bigdata (entendimiento del comportamiento "azaroso" del humano).

En resumen la IA será racional?, si. Será emocional?, no. Pero si entenderá lo que el humano quiere y desea :sconf:

Como funciona ChatGPT:

1)Un language model es entrenado mediante unsupervised learning sobre un corpus de texto gigantesco (todo el texto de internet, libros, etc), lo cual es relativamente fácil y barato. Solo es capaz de predecir el siguiente token (palabra) en una secuencia, por ejemplo:

input: Hola como
output: estas
output: ?

Input: Boric es
output: un
output: gran
output: presidente
output: .

Un language model con un trillón de parametron es extraordinariamente bueno prediciendo tokens con inputs (prompts) largos y outputs largos que hacen sentido para los humanos.


2)Luego contratas muchos humanos bastante capaces, lo cual es muy caro, y creas una base de datos de pares prompt-texto, de altísima calidad. En el caso de ChatGpt, principalmente preguntas-respuestas. Afinas el modelo general con este set. Esto se llama supervised fine-tuning.


3) Tomas una base de datos de prompts altamente variada, que sea una buena muestra de las preguntas que las personas le haran a ChatGPT. Contratas muchos humanos (no necesariamente tan capaces) y les asignas la tarea de calificar la calidad de las respuestas, por ejemplo, de 1 a 7.
En base a este par de respuesta-calificación, entrenas otro modelo más pequeño (1 o 2 órdenes de magnitud menos de parametros) usando supervise learning. Esto se llama reward model.

4)Luego usas el Reward model(3), para mejorar el modelo tuneado(2). Tomas tu base de datos de prompts, hacer que el modelo tuneado(2) genere una respuesta. El Reward model(3) le asigna una calificacion. La calificación es usada para mejorar el modelo tuneado mediante reinforcement learning.
Nota: No solo calificas la respuesta con el reward model, sino también la comparas con la respuesta generada con el modelo original(1) para que la optimización del reward model no rompa las reglas gramaticales y mantenga el conocimiento del modelo general(1) para genera texto de alta calidad.

Como podría esto aprender matemáticas y otras habilidades?

1) Mi primera aproximación fue pensar que las matemáticas u otros dominios son muy diferentes a languaje, debería ser un modelo separado que identifique posibles preguntas de matemáticas u otros dominios y las envié a otros subsistemas. Las preguntas que no sean de matemáticas u otros dominos las envíe a ChatGPT. Debes seguir un proceso similar al descrito para entrenar un tercer model. Debes contratar mucha gente, bastante inteligente, que cree una base de datos de preguntas y redirecciones a otros sistemas formulando el problema y extrayendo parametros desde el texto.

2) Ahora pienso que quizás no sea necesario. Todavía usando mucha gente inteligente, las usas para crear respuestas que incluyan texto y una expresión del problema matemático u otros dominios usando quizás un DSL (domain specific language) que serán tratados por el sistema como cualquier otro token. Luego incorporas esta base de datos, en el paso (1), (2). En el criterio de calificación del paso (3) premias respuestas que tengan expresión en el DSL.
Cunado ChatGPT genere una respuesta con una expresión DSL, el subsistema adecuado genera la representación adicional: Fórmula matemática, mapa, diagrama, etc.



No soy experto en AI, seguro los boys de Altman podrán llegar a soluciones mejores de como incorporar esto, pero la solución siempre estará basada en ejemplos generados por humanos. El sistema sera tan bueno, según cuanto se gaste en crear estas bases de datos, que son intensivas en mano de obra altamente calificada. GPT es narrow AI, cada problema debe resolverse con un esfuerzo de ingeniería y recursos.
 
Última edición:
Sea como sé que se integren matemáticas y otras habilidades a los language models, se hara usando una base de datos de ejemplos generados por humanos. Eso descalifica un language model para ser considerado AGI (artificial general intelligence, como la humana)?

Un podría pensar que estas bases de datos de ejemplo son similares a lo que experimenta un niño cuando va al colegio.

Pedrito tiene 10 pollitos, se come 2, cuantos le quedan?
Juanita tiene 4 pasteles, se muere 1, cuantos le quedan?
a - b = c => DSL. Formular el problema desde language natural y extraer parámetros.

Sin embargo, los humanos aprenden mucho más rápido que las máquinas y con pocos ejemplos, a pesar de que el cerebro es lento en comparación a los procesadores. Parece imposible que funcionen de la misma forma.

Una razon puede ser que la red neuronal artificial parte con pesos al azar, sin Informacion, en cambio el cerebro tiene priors. Durante 500 millones de años desde que apareció el primer cerebro, la evolución ha ido entrenando subsistemas que son codificados en código genético y mediante el maravilloso proceso de embryogenesis, los animales obtienen un cerebro ya bastante entrenado al nacer. Entre otras muchas habilidades, capaz de calcular proporciones espaciales y temporales para poder sobrevivir en un espacio tridimensional y con tiempo lineal, cazando y evitando ser cazados.

El contra argumento es que, las neuronas muestran un comportamiento más complejo que las neuronas artificiales, aparentemente realizan mayor procesamiento, puede ser que la unidad de abstracción en redes neuronales artificiales no es la correcta. Esto podria explicar porque las redes neuronales artificiales son tan difíciles y costosas de entrenar a pesar de que los computadores son ordenes de magnitud más rápidos que el cerebro.

Un humano observando el mundo parece estar consiénteme realizando abstracciones increíblemente eficientes, alto grado de compresión de información, con bajo costo procesamiento. Almacena estas abstracciones en una memoria y establece relaciones entre las abstracciones. No hay ningún sistema AI que pueda hacer eso en tiempo real ni a una fracción de la eficiencia con la que lo hace el cerebro.
Las redes neuronales pueden estar en continuo entrenamiento, pero es lento y necesitan muchos ejemplos.

Este proceso de aprendizaje parece ser observable y voluntario en los humanos. Experimenta en su conciencia la información sensorial, experimenta en su conciencia la voluntad de entender, experimenta en su conciencia como emergen abstracciones, la voluntad y el esfuerzo de buscar relaciones con otras abstracciones, en el caso de abstracciones complejas, la voluntad y esfuerzo de memorizarlo. Que AI puede realizar aprendizaje mediante este tipo de operaciones de alto nivel?
Sin embargo, podemos preguntarnos si esta experiencia de aprendizaje en la conciencia es real o es solo qualia (como se siente en la conciencia el proceso de aprendizaje). El cerebro puede estar realizando el aprendizaje involuntario, a muy bajo nivel, más parecido a las redes neuronales artificiales, sin embargo, en seres con conciencia genera estas representaciones, que son meras ilusiones, No hay libre albedrio, voluntad, comandos de alto nivel. Esto nos lleva a cuestionarnos el problema difícil de la conciencia, si la conciencia es una característica fundamental de la realidad y si es esencial para el desarrollo de inteligencia.


Que opinan los atroneros expertos en AI, es AGI posible? Es ChatGPT AGI o puede convertirse en AIG con entrenamiento continuo?
 
Última edición:
Como funciona ChatGPT:

1)Un language model es entrenado mediante unsupervised learning sobre un corpus de texto gigantesco (todo el texto de internet, libros, etc), lo cual es relativamente fácil y barato. Solo es capaz de predecir el siguiente token (palabra) en una secuencia, por ejemplo:

input: Hola como
output: estas
output: ?

Input: Boric es
output: un
output: gran
output: presidente
output: .

Un language model con un trillón de parametron es extraordinariamente bueno prediciendo tokens con inputs (prompts) largos y outputs largos que hacen sentido para los humanos.


2)Luego contratas muchos humanos bastante capaces, lo cual es muy caro, y creas una base de datos de pares prompt-texto, de altísima calidad. En el caso de ChatGpt, principalmente preguntas-respuestas. Afinas el modelo general con este set. Esto se llama supervised fine-tuning.


3) Tomas una base de datos de prompts altamente variada, que sea una buena muestra de las preguntas que las personas le haran a ChatGPT. Contratas muchos humanos (no necesariamente tan capaces) y les asignas la tarea de calificar la calidad de las respuestas, por ejemplo, de 1 a 7.
En base a este par de respuesta-calificación, entrenas otro modelo más pequeño (1 o 2 órdenes de magnitud menos de parametros) usando supervise learning. Esto se llama reward model.

4)Luego usas el Reward model(3), para mejorar el modelo tuneado(2). Tomas tu base de datos de prompts, hacer que el modelo tuneado(2) genere una respuesta. El Reward model(3) le asigna una calificacion. La calificación es usada para mejorar el modelo tuneado mediante reinforcement learning.
Nota: No solo calificas la respuesta con el reward model, sino también la comparas con la respuesta generada con el modelo original(1) para que la optimización del reward model no rompa las reglas gramaticales y mantenga el conocimiento del modelo general(1) para genera texto de alta calidad.

Como podría esto aprender matemáticas y otras habilidades?

1) Mi primera aproximación fue pensar que las matemáticas u otros dominios son muy diferentes a languaje, debería ser un modelo separado que identifique posibles preguntas de matemáticas u otros dominios y las envié a otros subsistemas. Las preguntas que no sean de matemáticas u otros dominos las envíe a ChatGPT. Debes seguir un proceso similar al descrito para entrenar un tercer model. Debes contratar mucha gente, bastante inteligente, que cree una base de datos de preguntas y redirecciones a otros sistemas formulando el problema y extrayendo parametros desde el texto.

2) Ahora pienso que quizás no sea necesario. Todavía usando mucha gente inteligente, las usas para crear respuestas que incluyan texto y una expresión del problema matemático u otros dominios usando quizás un DSL (domain specific language) que serán tratados por el sistema como cualquier otro token. Luego incorporas esta base de datos, en el paso (1), (2). En el criterio de calificación del paso (3) premias respuestas que tengan expresión en el DSL.
Cunado ChatGPT genere una respuesta con una expresión DSL, el subsistema adecuado genera la representación adicional: Fórmula matemática, mapa, diagrama, etc.



No soy experto en AI, seguro los boys de Altman podrán llegar a soluciones mejores de como incorporar esto, pero la solución siempre estará basada en ejemplos generados por humanos. El sistema sera tan bueno, según cuanto se gaste en crear estas bases de datos, que son intensivas en mano de obra altamente calificada. GPT es narrow AI, cada problema debe resolverse con un esfuerzo de ingeniería y recursos.

estos equipos que estan ,montando las IAs (programadoes especialistas en IA) estan basicamente desarrollando una nueva ciencia.
es una huea elevadisima que combina logica formal, programacion, matematicas muy abstractas y cada tanto neurociencias.
Estos tipos estan desmontando cada problema existente y ver como una IA puede abordarlo.
Es otra vez un tema que ya desde el tercermundo nos esta pasando por arriba y apenas tendremos gente capacitada para ello.
 
estos equipos que estan ,montando las IAs (programadoes especialistas en IA) estan basicamente desarrollando una nueva ciencia.
es una huea elevadisima que combina logica formal, programacion, matematicas muy abstractas y cada tanto neurociencias.
Estos tipos estan desmontando cada problema existente y ver como una IA puede abordarlo.
Es otra vez un tema que ya desde el tercermundo nos esta pasando por arriba y apenas tendremos gente capacitada para ello.

Me impression es que la matematica y la arquitectura de los modelos con que se entrenan las AI no son complicadas. El modelo que emerge si es complicado y es una caja negra, no es entendible por humanos ni modificable. Solo se puede modificar reentrenándolo con mejores datos, agregando nuevos pasos de entrenamiento o aumentando el tamaño.

Para desarrollar un producto basado en AI hay que formular el problema de tal forma que sea abordable por los modelos de entrenamientos que existen actualmente. Conseguir gran cantidad de datos o contratar gente que genre datos. Gastar bastante dinero en compute en la nube.

Los rendimientos marginales no decrecen tan rápido con él tamaño, los modelos grandes tienen una gran ventaja y el costo de entrenamiento es alto. OpenAI ha tenido mucho éxito con estas bases de datos de alta calidad generadas por humanos, lo cual es muy costoso. Esto hace que pocas empresas puedan competir.
Ademas, hay una carrera comercial, Open Ai se asoció con Microsoft y ahora opera como una empresa cerrada, el nuevo conocimiento que adquiere no fluye al resto de la industria. Lo mismo Google y probablemente cualquier entidad que opere en esta industria no compartirá porque el beneficio comercial es esta cercano.

Dadas estas condiciones, lo esperable es que las empresas grandes desarrollen modelos fundacionales y ofrezcan APIs. Las empresas pequeñas usen estas APIs para afinarlos al uso que le quieran dar, rentrenándolos con bases de datos propias. No habrá un GTP hecho en chile, empresas chilenas usaran las API de Microsoft o Google.

Sin embargo, como la matemática y los modelos son sencillos, la siguiente arquitectura de machine learning puede surgir en cualquier parte. Por ejemplo, John Carmack renuncio a fakebook, levanto algo de VC y está trabajando independientemente en AGI.
 
Me impression es que la matematica y la arquitectura de los modelos con que se entrenan las AI no son complicadas. El modelo que emerge si es complicado y es una caja negra, no es entendible por humanos ni modificable. Solo se puede modificar reentrenándolo con mejores datos, agregando nuevos pasos de entrenamiento o aumentando el tamaño.

Para desarrollar un producto basado en AI hay que formular el problema de tal forma que sea abordable por los modelos de entrenamientos que existen actualmente. Conseguir gran cantidad de datos o contratar gente que genre datos. Gastar bastante dinero en compute en la nube.

Los rendimientos marginales no decrecen tan rápido con él tamaño, los modelos grandes tienen una gran ventaja y el costo de entrenamiento es alto. OpenAI ha tenido mucho éxito con estas bases de datos de alta calidad generadas por humanos, lo cual es muy costoso. Esto hace que pocas empresas puedan competir.
Ademas, hay una carrera comercial, Open Ai se asoció con Microsoft y ahora opera como una empresa cerrada, el nuevo conocimiento que adquiere no fluye al resto de la industria. Lo mismo Google y probablemente cualquier entidad que opere en esta industria no compartirá porque el beneficio comercial es esta cercano.

Dadas estas condiciones, lo esperable es que las empresas grandes desarrollen modelos fundacionales y ofrezcan APIs. Las empresas pequeñas usen estas APIs para afinarlos al uso que le quieran dar, rentrenándolos con bases de datos propias. No habrá un GTP hecho en chile, empresas chilenas usaran las API de Microsoft o Google.

Sin embargo, como la matemática y los modelos son sencillos, la siguiente arquitectura de machine learning puede surgir en cualquier parte. Por ejemplo, John Carmack renuncio a fakebook, levanto algo de VC y está trabajando independientemente en AGI.
No son complicadas cuando ya estan hechas. Me sa la.impresion que cuando ya esta armado el dibujo y se prueba que funciona es facil copiar la arquitectura. Ahora hasta yo podrua montar un pequeño modelo con un tutorial. Pero quien lo hubiera hecho el 2019? Con pc's similares a los de hoy?
 
Última edición:
Le consulté a ChatGPT que me hiciera un bloque de escalamiento analogico para un PLC Siemens, y el qliao me lo hizo al toque.
Me va a dejar sin pega :lol2:

Incluso es capaz de hacer lenguaje complejo
 
Esta mas cerca de lo que parece...


"Una IA que apoya a las personas a solucionar problemas legales ha sido demandada por no contar con una licencia para ejercer. DoNotPay, que se autodescribe como «el primer abogado robot del mundo» enfrenta una demanda colectiva interpuesta por el bufete Edelson. Según Business Insider, la querella argumenta que la inteligencia artificial ofrece asesoría sin tener un título universitario en Derecho o ser supervisada por otros abogados. "


Con esto se registrarán muchos más @abogadofracasado o @abogadocolectivero en el foro.
 
Durante 500 millones de años desde que apareció el primer cerebro, la evolución ha ido entrenando subsistemas que son codificados en código genético y mediante el maravilloso proceso de embryogenesis

Que opinan los atroneros expertos en AI, es AGI posible? Es ChatGPT AGI o puede convertirse en AIG con entrenamiento continuo?


Es casi una pregunta filosofica que te respondes tu mismo. A mi juicio, creo que, a futuro, la unica diferencia que habra entre un ser humano y una AI, sera su matriz de origen; El vientre materno o una fabrica de neurotransmisores en Singapur.

Y de ahi, la Matriz esta a la vuelta de la esquina.
 
No son complicadas cuando ya estan hechas. Me sa la.impresion que cuando ya esta armado el dibujo y se prueba que funciona es facil copiar la arquitectura. Ahora hasta yo podrua montar un pequeño modelo con un tutorial. Pero quien lo hubiera hecho el 2019? Con pc's similares a los de hoy?

El primer modelo de lenguaje basado en deep learning debe haber sido propuesto hace décadas. El transformer que es la arquitectura la red neuronal es del 2017.
Pienso que lo que ha cambiado es la escala, el gran énfasis en RLHF y un gran esfuerzo de ingeniería.

Mas que seguir un tutorial, me agrada aprender haciendo. Cuando estudie un poco de redes neuronales, programe un framework para entrenar redes feedforward mediante backpropagation, eso me dio algo de intuición. En estos dias para partir lo razonable sería programar un perceptron y mulitilayer perceptron en python, solo con numpy. Luego aprender pytorch.

Ahora me agradaría hacer un proceso artesanal como el que describí arriba sobre chatgpt, partiendo de un modelo de lenguaje open source. Por ejemplo, un bot que hable como antoniano, creo que sería relativamente fácil dado que hay una base de datos y se podría usar a los propios antronianos para calificar las respuestas, en el mismo foro con las reacciones, para entrenar el reward model.
O entrenarme una novia AI que me haga compañía, lo cual es difícil porque no hay datos.
 
El primer modelo de lenguaje basado en deep learning debe haber sido propuesto hace décadas. El transformer que es la arquitectura la red neuronal es del 2017.
Pienso que lo que ha cambiado es la escala, el gran énfasis en RLHF y un gran esfuerzo de ingeniería.

Mas que seguir un tutorial, me agrada aprender haciendo. Cuando estudie un poco de redes neuronales, programe un framework para entrenar redes feedforward mediante backpropagation, eso me dio algo de intuición. En estos dias para partir lo razonable sería programar un perceptron y mulitilayer perceptron en python, solo con numpy. Luego aprender pytorch.

Ahora me agradaría hacer un proceso artesanal como el que describí arriba sobre chatgpt, partiendo de un modelo de lenguaje open source. Por ejemplo, un bot que hable como antoniano, creo que sería relativamente fácil dado que hay una base de datos y se podría usar a los propios antronianos para calificar las respuestas en el mismo foro para entrenar el reward system. O entrenarme una novia AI que me haga compañía, lo cual es difícil porque no hay datos.
estas jugando con fuerzas que no podras controlar aldeanito
Post automatically merged:

a todo esto ya estan saliendo tex-to video
 
Esta DOT CSV haciendo un analisis de la carta abierta..

 
algunos toluenos sin sustento alguno:

- si algún dia resuelven el problema histológico de los implantes podrian implantar circuitos que remplace circuitería cerebral dañada con balazos, o accidente vascular. si como en ciberpunk.
- siento que elgun momento las IAS interactuaran con otras IAs en repositorios o en la web.
- siento que mas temprano que tarde esto tendrá una arista política. si al debur del internet trastoco la no-localizacion de los medios
y ahora tuiter remplazó totalmente los diarios. Las IA deberan tener un contorno legal que aun no hay como dibujar, por que la tecnologia se pega saltos zaratrustianos cada dos dias
Post automatically merged:

vean estas maravillas
josephine_17_by_stablephotography_dft7fbh-fullview.jpg
 
Un muy buen analisis sobre las IA sobre las artes gráficas, extensible, a toda la sociedad.

 


miren esto chat gtp sabe como usar OTROS MODELOS para la huea que le piden

cacahn la huea chat sabe que hacen otros modelos como meterles input y trasvasijar la info de un modelo en otro hasta encontrar la respuesta.

en una iteracion mas empieza a meter mano en los otros modelos..

gg humanidad
 
Volver
Arriba