Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Sean Ren 🔆
Gebäude @SaharaLabsAI | Prof. Dr. @USCViterbi @nlp_usc | @MIT TR 35 , @ForbesUnder30 | Zurück: @allen_ai, @Snapchat, @Stanford, @UofIllinois
Sean Ren 🔆 erneut gepostet
LLMs können gut zu argumentieren scheinen, aber ein einzelnes falsches Token kann die gesamte Ausgabe entgleisen lassen. Unsere neue Arbeit zeigt, dass die Token-Ebene-Memorierung eine Hauptursache für das Scheitern ist, insbesondere unter Verteilungsverschiebung.
Einführung: STIM 🔍🧠
🧵 #NLProc

2,5K
Ich freue mich, auf der Berkeley #SBC2025 #BASS2025 über die Konvergenz von KI und Web3 zu sprechen und wie wir eine offene, kollaborative Wirtschaft für eine KI-gesteuerte Zukunft schaffen können.
Unser Blockchain-Produktleiter teilt die technische Architektur, wie wir On-Chain-Monetarisierungsflüsse für KI-Assets erreichen.
@BerkeleyRDI @StanfordSBA


7,79K
Sean Ren 🔆 erneut gepostet
Ich werde nächste Woche beim @aclmeeting sein, um diese Arbeit zu präsentieren! 🇦🇹
Ich freue mich darauf, alte Freunde zu treffen und neue zu finden. Lass uns treffen, wenn du mehr über die Zukunft der menschenzentrierten NLP, Personalisierung und mehrstufige Interaktionen nachdenken möchtest oder einfach nur einen schönen Wiener Kaffee ☕️ genießen willst.
7,89K
Sean Ren 🔆 erneut gepostet
1+1=3
2+2=5
3+3=?
Viele Sprachmodelle (z. B. Llama 3 8B, Mistral v0.1 7B) werden mit 7 antworten. Aber warum?
Wir tauchen in die internen Abläufe des Modells ein, decken einen Funktionsinduktionsmechanismus auf und stellen fest, dass er häufig wiederverwendet wird, wenn Modelle während des kontextuellen Lernens auf Überraschungen stoßen. 🧵

6,38K
Sean Ren 🔆 erneut gepostet
Die Data Services Plattform (DSP) ist JETZT LIVE!
🔆 Jetzt kann jeder, überall auf der Welt, zur KI-Entwicklung beitragen und echte Belohnungen für seine Arbeit verdienen.
🔆 Über 450.000 $ in $SAHARA + Partnerbelohnungen am ersten Tag verfügbar!
Starte noch heute →
#KIfürALLE

254,61K
Sean Ren 🔆 erneut gepostet
Wir sind @Zai_org begeistert, GLM-4.1V-9B-Thinking als Open Source zu veröffentlichen, ein VLM, das mit langen CoTs denken kann. SoTA in <10B VLMs, vergleichbar mit Qwen-2.5-VL-72B in 18 Aufgaben. Ein RL, um sie alle zu beherrschen!
Details
- Technischer Bericht:
-Code:


2,99K
Sean Ren 🔆 erneut gepostet
Hier ist ein aktueller Vortrag, den ich gehalten habe, in dem ich die Fortschritte der letzten 6-12 Monate im Bereich KI zusammenfasse, warum es schwierig ist, perfekte Modelle zu entwickeln, wie Labore wahrscheinlich die nächste Phase des Trainings (für Agenten) angehen und andere interessante Details aus der Welt des Denkens.
Themen:
00:00 Einführung & der Stand des Denkens
05:50 Hillclimbing unvollkommene Bewertungen
09:18 Technische Engpässe
13:02 Schmeichelei
18:08 Die Goldlöckchen-Zone
19:28 Was kommt als Nächstes? (Hinweis: Planung)
26:40 Fragen & Antworten
YouTube usw. in den Antworten.
Danke an @corbtt und @OpenPipeAI für die Einladung.
67,89K
Sean Ren 🔆 erneut gepostet
Können LLMs angemessen erklären, „Warum ist der Himmel blau?“
… einem 10-Jährigen 👶🏽 im Vergleich zu jemandem mit einem Doktortitel in Physik 👩🏽🔬?
In unserem #ACL2025-Papier bewerten wir, wie gut LLMs ihre Erklärungen auf verschiedene Personen zuschneiden können.✍️
🔗
🧵 (1/n)

1,68K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten