Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Na verdade, gostei muito deste artigo.
A um nível, estes modelos já são gerais, na medida em que você pode lançar praticamente qualquer pergunta ou tarefa para eles e eles conseguem fazer algo com isso.
Mas o problema não é que os modelos não são "gerais", é que Turing estava errado sobre o que a inteligência geral realmente é e o que significa.
O jogo da imitação estava errado.
Imitação não é inteligência.
Inteligência é muito mais profunda e mais sutil.
Os maiores problemas hoje são que os modelos não aprendem com os erros e não são consistentes. Eles não têm uma teoria da mente. Eles podem fazer algo de uma maneira hoje e a mesma coisa de forma diferente amanhã.
Máquinas verdadeiramente gerais precisarão ter:
1) memória de longo prazo
2) uma teoria da mente consistente
3) ação consistente e confiável em um determinado espaço de problemas
4) Estruturas de crença centrais consistentes, algum tipo de "meta-peso"
5) aprendizado contínuo que atualiza pesos
6) a capacidade de aprender com erros e experiências
Até que tenhamos isso, não temos uma máquina na qual realmente possamos confiar ou algo que atenda à verdadeira definição de inteligência.
Novamente, imitação não é inteligência.
Top
Classificação
Favoritos
