🚀🚀🚀Estamos entusiasmados por abrir o código-fonte do Tencent-HY-MT1.5, apresentando dois modelos de tradução—1.8B e 7B—desenhados para uma implementação sem costura em dispositivos e na nuvem, com velocidade e precisão líderes na indústria. Destaques: 🔹 1.8B Poder em Dispositivo: Otimizado para hardware de consumo com uma pegada de memória de 1GB. Usando destilação em política para alinhar com modelos maiores, entrega uma latência de 0.18s (50 tokens), superando APIs comerciais convencionais. 🔹 7B Desempenho SOTA: Uma versão atualizada do nosso campeão WMT25, superando modelos de código aberto de médio porte e rivalizando com o 90º percentil de gigantes de código fechado como o Gemini-3.0-Pro. 🔹 33+ Línguas e Dialetos: Tradução de alta fidelidade em 33 línguas e 5 dialetos chineses. 🔹 Pronto para Produção: Suporte nativo para terminologia personalizada, contexto de diálogos longos e manutenção da formatação de documentos. Já alimentando vários serviços da Tencent, nossa sinergia de modelos duplos garante desempenho consistente e estável em ambientes tanto de dispositivos quanto de nuvem. 🌍 👉🏻 Experimente agora: 🔗 GitHub: 🤗 Hugging Face: