• ¿Quieres apoyar a nuestro foro haciendo una donación?, entra aquí.

Ahora todologo del antro quiere crear un Dios de inteligencia artificial

En realidad eso es posible solamente uno debe replicar la forma como operamos el ser humano sin el ingridiente de self awarness y podrias construir un muy buen AI y bastante seguro
Es casi imposible wn... porque lo que tú consideras básico para replicar un programa no tiene puta idea de interpretar.

Las "inteligencias" artificiales no existen actualmente.
Lo que hay son chatbots que tienen cierta memoria persistente que responden a "if" y "then",
adornados con accesos a memoria por red neural, y sería.

Para que sean inteligencias deberían poder pasar semántica y sintaxis, por ejemplo pre-aritmética para niños de 1ro básico y problemas de palabras.
Las "inteligencias" artificiales de ahora solo saben calcular e interpolar cosas ya existentes.
Son incapaces de crear conceptos nuevos.
:hands: tolueno del bueno.
 
Es casi imposible wn... porque lo que tú consideras básico para replicar un programa no tiene puta idea de interpretar.

Las "inteligencias" artificiales no existen actualmente.
Lo que hay son chatbots que tienen cierta memoria persistente que responden a "if" y "then",
adornados con accesos a memoria por red neural, y sería.

Para que sean inteligencias deberían poder pasar semántica y sintaxis, por ejemplo pre-aritmética para niños de 1ro básico y problemas de palabras.
Las "inteligencias" artificiales de ahora solo saben calcular e interpolar cosas ya existentes.
Son incapaces de crear conceptos nuevos.
:hands: tolueno del bueno.
Aun estoy trabajando en eso sobre crear conceptos nuevos pero voy en buen camino yo creo que de aca al 2025 se cura el cancer usando el approach que estoy investigando. Y vo dale con la wea que es como tomas del todo las decisiones no somos nada mas que un AI avanzada en un cuerpo biologico en donde el cuerpo biologico define lo maximo que podemos hacer o las deficiencias que podemos tener etc por eso si es posible replicar nuestra inteligencia :) Si sigues pegando con el Approach biologico claro pero trata pensar outside the box :buenaonda:
 
Aun estoy trabajando en eso sobre crear conceptos nuevos pero voy en buen camino yo creo que de aca al 2025 se cura el cancer usando el approach que estoy investigando. Y vo dale con la wea que es como tomas del todo las decisiones no somos nada mas que un AI avanzada en un cuerpo biologico en donde el cuerpo biologico define lo maximo que podemos hacer o las deficiencias que podemos tener etc por eso si es posible replicar nuestra inteligencia :) Si sigues pegando con el Approach biologico claro pero trata pensar outside the box :buenaonda:
Suficiente tolueno por hoy.
 
ignorante :buenaonda: x eso argumentas
Pero si escribí arriba la razón exacta de por qué no es posible actualmente.
El tema de la memoria está bien desarrollado (por ejemplo programando en C puedes hacer mímica de la búsqueda de datos como lo hace parte del cerebro humano), pero el asunto central es la interpretación del medio que rodea a la entidad de manera que construya conceptos que lo conectan a ese medio, y lo vuelven interactivo con esas definiciones estáticas y dinámicas del entorno. Yo creo que ahí la voy a dejar o si no me voy en la volá técnica.
 
Pero si escribí arriba la razón exacta de por qué no es posible actualmente.
El tema de la memoria está bien desarrollado (por ejemplo programando en C puedes hacer mímica de la búsqueda de datos como lo hace parte del cerebro humano), pero el asunto central es la interpretación del medio que rodea a la entidad de manera que construya conceptos que lo conectan a ese medio, y lo vuelven interactivo con esas definiciones estáticas y dinámicas del entorno. Yo creo que ahí la voy a dejar o si no me voy en la volá técnica.
Si se puede hacer eso mira las noticias en los proximos 10 meses :buenaonda: te repito estas muy perdido
 
Última edición:
Si se puede hacer eso mira las noticias en los proximos 10 meses :buenaonda:
No wn. No se puede.
Lo que hay son chatbots mejorados.
Es un tema de que los programas no saben discriminar información, sobretodo cuando los ponen frente al entorno.
Se ve bastante claro cuando estudias visión de máquina: se usan reduccionismos matriciales para "que la máquina vea" (se divide cada fotograma del sensor en matrices, y se emiten alertas por cada cambio, cosas así).
Por mucho que tengan percepción de patrones no pueden descomponer qué forma esos patrones de las imagenes, por lo que solo pueden interpretar formas previamente ingresadas.
Los chatbots con cuea entienden semántica.
 
No wn. No se puede.
Lo que hay son chatbots mejorados.
Es un tema de que los programas no saben discriminar información, sobretodo cuando los ponen frente al entorno.
Se ve bastante claro cuando estudias visión de máquina: se usan reduccionismos matriciales para "que la máquina vea" (se divide cada fotograma del sensor en matrices, y se emiten alertas por cada cambio, cosas así).
Por mucho que tengan percepción de patrones no pueden descomponer qué forma esos patrones de las imagenes, por lo que solo pueden interpretar formas previamente ingresadas.
Los chatbots con cuea entienden semántica.
te falta saber mas del state of the art de AI pero cosas que aun no son publicadas :gafas:que se manejan internamente pero AI avanzara muchisimo en los proximos 18 meses :buenaonda: para la percepcion publica.
 
Última edición:
te falta saber mas del state of the art de AI pero cosas que aun no son publicadas :gafas:que se manejan internamente pero AI avanzara muchisimo en los proximos 18 meses :buenaonda: para la percepcion publica
Estaría bueno que no supiera el "state of the art", o no publicadas, porque los de elsevier son más careros que la chucha.
De las que hay son puros chatbots.
Si tienes alguna implementación decente, postea el paper.
 
Estaría bueno que no supiera el "state of the art", o no publicadas, porque los de elsevier son más careros que la chucha.
Te lo digo xq me caiste bien la AI ya puede abstraer las formulas que definen nuestra conciencia para usarlo para tomar decisiones y ser iguales que nosotros en la forma como actuamos, de esa forma tendras AI con interaciones mas naturales hacia nosotros :buenaonda:
 
Te lo digo xq me caiste bien la AI ya puede abstraer las formulas que definen nuestra conciencia para usarlo para tomar decisiones y ser iguales que nosotros en la forma como actuamos, de esa forma tendras AI con interaciones mas naturales hacia nosotros :buenaonda:
No papu, no es posible ya que un programa no es humano.
A lo más es una mímica humana.
La frontera maldita está en la capacidad de creatividad.
 
No papu, no es posible ya que un programa no es humano.
A lo más es una mímica humana.
La frontera maldita está en la capacidad de creatividad.
La forma de crear nuevas cosas tambien se puede pero tomara tiempo xq hay que hacer la base, Claro que si se puede toda tu forma como actuas se puede abstraer en dos formulas :)
 
La forma de crear nuevas cosas tambien se puede pero tomara tiempo xq hay que hacer la base, Claro que si se puede toda tu forma como actuas se puede abstraer en dos formulas :)
Puta wn, yo sé que es por la hora (del tolueno), pero dudo mucho que entiendas el problema al que haces referencia.
No hay int artif porque para que sea inteligencia debe discernir y discriminar información para que le haga sentido el entorno.

Por ejemplo, apuntar el sensor teórico y decirle "mira eso".
La cajita va a hacer post de TODO lo que admite el sensor. No entienden literales, o suposiciones.
Si vas por el lado de interpretarles una fórmula de tu argumento lógico (como un string) la cajita solo va a calcular,
mucho más complejo si la haces matricial, vectorial, diferencial, o que detecte alguna área hipotética.
No comprenden el concepto de concepto por lo que poner de input un string de fórmula a procesar simplemente la va a poner a escupir cualquier cosa en vez de procesar el entorno al que debería hacer referencia la interpretación interna que esa inteligencia haga por su propia cuenta.
 
Puta wn, yo sé que es por la hora (del tolueno), pero dudo mucho que entiendas el problema al que haces referencia.
No hay int artif porque para que sea inteligencia debe discernir y discriminar información para que le haga sentido el entorno.

Por ejemplo, apuntar el sensor teórico y decirle "mira eso".
La cajita va a hacer post de TODO lo que admite el sensor. No entienden literales, o suposiciones.
Si vas por el lado de interpretarles una fórmula de tu argumento lógico (como un string) la cajita solo va a calcular,
mucho más complejo si la haces matricial, vectorial, diferencial, o que detecte alguna área hipotética.
No comprenden el concepto de concepto por lo que poner de input un string de fórmula a procesar simplemente la va a poner a escupir cualquier cosa en vez de procesar el entorno al que debería hacer referencia la interpretación interna que esa inteligencia haga por su propia cuenta.
entonces toda mi investigacion esta mala? :ear: tampoco voy a resolver todo gratis primero q me paguen :lol2:
 
Última edición:
Estaría bueno que no supiera el "state of the art", o no publicadas, porque los de elsevier son más careros que la chucha.
De las que hay son puros chatbots.
Si tienes alguna implementación decente, postea el paper.
entonces lo mandare a elsevier :clapclap:
 
entonces toda mi investigacion esta mala? :ear: tampoco voy a resolver todo gratis primero q me paguen :lol2:
Hermanito, no sea picota.
El otro antronista le está explicando el por que él CREE que no es posible y usted solo se remite a decir que "no cacha ná", sin dar ningún argumento del por qué.
 
No wn. No se puede.
Lo que hay son chatbots mejorados.
Es un tema de que los programas no saben discriminar información, sobretodo cuando los ponen frente al entorno.
Se ve bastante claro cuando estudias visión de máquina: se usan reduccionismos matriciales para "que la máquina vea" (se divide cada fotograma del sensor en matrices, y se emiten alertas por cada cambio, cosas así).
Por mucho que tengan percepción de patrones no pueden descomponer qué forma esos patrones de las imagenes, por lo que solo pueden interpretar formas previamente ingresadas.
Los chatbots con cuea entienden semántica.
Yo estoy empezando a ver algo parecido. Recién implementé un programa que sigue un objetivo en un video, aunque la wuea no es tan precisa todavía :(
 
Hermanito, no sea picota.
El otro antronista le está explicando el por que él CREE que no es posible y usted solo se remite a decir que "no cacha ná", sin dar ningún argumento del por qué.
:lol2: si es posible replicar la formula que usa nuestra conciencia para tomar decisiones entonces es posible crear maquinas con conciencia simulada basado en la formula.
 
Nada.
Verte dar la cacha con más clones que Supa es suficiente para putearte.

Aunque no la defiendo a ella, es más bipolar que la chucha... Bastante masoquista seguir weando ahí.

jaja taba aburrido asi q vine a enseñar algo al antro :santo: y sobre la Varicela no hay tema :lol2:
:idolo:Conversación entre clones
 
Volver
Arriba