Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Na verdade, gostei muito deste artigo.
Em certo nível, esses modelos já são gerais, no sentido de que você pode colocar praticamente qualquer pergunta ou tarefa para eles e eles podem fazer algo com isso.
Mas o problema não é que os modelos não sejam "gerais", é que Turing estava errado sobre o que inteligência geral realmente é e o que ela significa.
O jogo da imitação estava errado.
Imitação não é inteligência.
A inteligência é muito mais profunda e nuançada.
Os maiores problemas hoje são que os modelos não aprendem com os erros e não são consistentes. Eles não têm teoria da mente. Eles podem fazer algo de um jeito hoje e exatamente a mesma coisa diferente amanhã.
Máquinas verdadeiramente gerais precisarão ter:
1) memória de longo prazo
2) uma teoria consistente da mente
3) ação consistente e confiável em um dado espaço de problemas
4) Estruturas de crença centrais consistentes, algum tipo de "meta-peso"
5) aprendizado contínuo que atualiza os peso
6) a capacidade de aprender com erros e experiências
Até termos isso, não temos uma máquina em que realmente possamos confiar ou algo que atenda à verdadeira definição de inteligência.
Novamente, imitação não é inteligência.
Melhores
Classificação
Favoritos
