[@SentientAGI ] Il team di Sentient ha sviluppato un tool di valutazione chiamato LiveCodeBench Pro, che è stato ufficialmente adottato dalla più grande conferenza mondiale sull'AI e ha superato anche la revisione dei documenti, un risultato importante! LiveCodeBench Pro potrebbe essere nuovo per molti di voi. ■ Che cos'è LiveCodeBench Pro? - Uno strumento per valutare e confrontare correttamente le capacità di codifica dei modelli di intelligenza artificiale (AI) più recenti, in particolare i LLM (modelli di linguaggio di grandi dimensioni) (ad esempio, come confrontare le schede grafiche?) ■ Significato e obiettivo - I metodi di valutazione della codifica esistenti hanno limiti, come la fuga di problemi, criteri di valutazione poco rigorosi e l'inflazione dei punteggi attraverso trucchi di prompt. - Mantiene le stesse condizioni di problemi, tempo, memoria e valutazione delle competizioni di programmazione, per verificare in modo accurato se i LLM possono realmente scrivere algoritmi complessi in un ambiente pratico. Sembra una grande notizia che il tool di valutazione sviluppato dal team di Sentient sia stato ufficialmente riconosciuto a livello mondiale 🫡 Grazie a questo, sembra che un mondo di programmazione più equo stia per arrivare.