8 arquiteturas de modelos de IA, explicadas visualmente: Todos falam sobre LLMs, mas há toda uma família de modelos especializados fazendo coisas incríveis. Aqui está um rápido resumo: 1. LLM (Modelos de Linguagem Grande) Texto entra, é tokenizado em embeddings, processado através de transformadores, e o texto sai. ↳ GPT, Claude, Gemini, Llama. 2. LCM (Modelos de Conceito Grande) Funciona no nível do conceito, não em tokens. A entrada é segmentada em frases, passada por embeddings SONAR, e depois usa difusão antes da saída. ↳ O LCM da Meta é o pioneiro. 3. LAM (Modelos de Ação Grande) Transforma intenção em ação. A entrada flui através da percepção, reconhecimento de intenção, decomposição de tarefas, e então planejamento de ação com memória antes de executar. ↳ Rabbit R1, Microsoft UFO, Uso de Computador Claude. 4. MoE (Mistura de Especialistas) Um roteador decide quais "especialistas" especializados lidam com sua consulta. Apenas os especialistas relevantes são ativados. Os resultados passam por seleção e processamento. ↳ Mixtral, GPT-4, DeepSeek. ...