Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Sundar Pichai, CEO do Google, admitiu recentemente algo surpreendente (Guarde isto).
O Google não entende completamente como os seus próprios sistemas de IA funcionam mais.
Esta é uma mudança fundamental na forma como o desenvolvimento de IA está a acontecer neste momento.
Quando os engenheiros do Google treinam estes enormes modelos de IA, não estão a codificar manualmente cada comportamento como no software mais antigo.
Em vez disso, alimentam a IA com bilhões de dados e deixam-na descobrir padrões por conta própria.
Uma vez que estes modelos se tornam incrivelmente grandes e complexos, começam a fazer coisas que ninguém programou explicitamente.
A IA do Google aprendeu a entender e traduzir bengali, uma língua para a qual nunca foi especificamente treinada.
Essa é a parte estranha, o sistema descobriu isso por si mesmo.
Este fenômeno é chamado de comportamento emergente.
Acontece porque, quando se aumenta um modelo para bilhões de parâmetros, algo muda.
A um certo limiar, estes modelos desenvolvem subitamente capacidades que parecem quase intuitivas.
Começam a raciocinar sobre problemas complexos, a trabalhar em línguas que não deveriam conhecer, a resolver tarefas para as quais nunca foram treinados.
É como se a IA estivesse a ensinar-se a si mesma.
A questão central é a desconexão entre capacidade e compreensão.
O Google implementou sistemas de IA para milhões de pessoas sabendo que não têm um mapa completo de como esses sistemas chegam às suas conclusões.
...
Top
Classificação
Favoritos
