Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
De hecho, disfruté mucho este artículo.
A un nivel, estos modelos ya son generales, en el sentido de que puedes lanzar casi cualquier pregunta o tarea y ellos pueden hacer algo con ello.
Pero el problema no es que los modelos no sean "generales", es que Turing estaba equivocado sobre lo que realmente es la inteligencia general y lo que significa.
El juego de imitación estaba equivocado.
La imitación no es inteligencia.
La inteligencia es mucho más profunda y matizada.
Los mayores problemas hoy en día son que los modelos no aprenden de los errores y no son consistentes. No tienen una teoría de la mente. Pueden hacer algo de una manera hoy y exactamente la misma cosa de manera diferente mañana.
Las máquinas verdaderamente generales necesitarán tener:
1) memoria a largo plazo
2) una teoría de la mente consistente
3) acción consistente y fiable en un espacio de problemas dado
4) estructuras de creencias centrales consistentes, algún tipo de "meta-peso"
5) aprendizaje continuo que actualiza los pesos
6) la capacidad de aprender de los errores y la experiencia
Hasta que tengamos eso, no tenemos una máquina en la que realmente podamos confiar o algo que cumpla con la verdadera definición de inteligencia.
De nuevo, la imitación no es inteligencia.
Parte superior
Clasificación
Favoritos
