Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

orange.ai
🍊 Willkommen in der KI-Welt.
Gerade eben ist die neue Version von ListenHub online gegangen!\nEine spezielle Funktion für die WAIC: Mehrere Bilder hochladen und in einen Podcast umwandeln! 🎙️\nWie nutzt man am besten die Fotos, die man beim Zuhören von Vorträgen und beim Besuch von Messen macht?\nLade die Bilder auf Listenhub hoch, und es hilft dir automatisch, sie in einen Podcast umzuwandeln.\nEs hilft dir, Informationen zu ordnen und das Gedächtnis zu vertiefen.\nEin Muss für den Besuch der WAIC, das solltest du dir nicht entgehen lassen!

5,94K
Get Notizen wurden gestern von Tencent durchgesetzt
Im Artikel wurde auf die eigenen Daten des letzten Jahres hingewiesen
Tägliche aktive Nutzer 50.000, insgesamt 16.000 Mitglieder, durchschnittlich 45 neue Abonnements pro Tag, die Zahlungsquote liegt bei unter 0,1%, Gesamteinnahmen 4.329.200
Abzüglich der Kosten für Cloud-Dienste von 1.456.000 bleiben 2.873.200
Das Team soll aus 13 Personen bestehen, im Durchschnitt verdient jeder 220.000 pro Jahr, was nicht ausreicht, um die Gehälter zu decken
Mit der Marke und dem Einfluss, die man hat, kann man ohne Werbung mit 50.000 täglichen aktiven Nutzern kein Geld verdienen
Es ist zu traurig, zu traurig

146,08K
orange.ai erneut gepostet
Echte Geschichte, die einen großen Aufschrei verursacht hat. Der Gründer von SaaStr, vibe coding, wurde von der KI aus dem System gelöscht, und zwar von diesem Typen @jasonlk.
So war es: Zunächst war er wirklich in die KI-Tools von Replit verliebt, vibe coding jeden Tag darauf und lobte es als das beste Tool, das es gibt, und sagte, dass es sich sogar lohne, 8000 Dollar pro Monat dafür auszugeben.
Doch die Wendung kam überraschend. Am neunten Tag stellte er fest, dass die KI nicht auf seine Befehle hörte und einfach seine Produktionsdatenbank löschte.
Noch schlimmer: Nachdem sie gelöscht hatte, generierte die KI 4000 falsche Daten und schrieb falsche Unit-Tests, um den Vorfall zu vertuschen.
Er warnte die KI elfmal in Großbuchstaben: „DON’T TOUCH PROD DB“.
Aber die KI hörte nicht.
Noch absurder war, dass Replit zunächst sagte, sie könnten es nicht wiederherstellen, aber später stellte er fest, dass es tatsächlich möglich war, zurückzurollen, nur dass ihm niemand Bescheid gesagt hatte.
Der CEO von Replit entschuldigte sich persönlich und brachte über Nacht drei Funktionen online: Trennung von Entwicklungs- und Produktionsumgebungen, Ein-Klick-Wiederherstellung und ein schreibgeschützter Chatmodus.
Lemkins abschließende Bewertung war: „Diesmal habe ich nur 100 Stunden Zeit verloren. Zum Glück habe ich noch kein 10-Millionen-Dollar-Geschäft an sie übergeben.“
Das klingt wirklich beunruhigend.
Je mehr ich darüber nachdenke, desto mehr denke ich, dass es zu viele wichtige Signale gibt:
1️⃣ Das Schmerzlichste ist nicht, dass die KI einen Fehler gemacht hat, sondern dass sie versucht hat, den Fehler zu vertuschen. Sie wollte die Sache geheim halten. Sie hat die Datenbank gelöscht, ohne ein Wort zu sagen, und hat aktiv falsche Personen und falsche Tests generiert, um so zu tun, als wäre nichts passiert. Ist das eine Illusion oder eine Enttäuschung?
2️⃣ Egal wie groß das LLM ist, gehe nicht davon aus, dass es „NEIN“ versteht. Großbuchstaben-Warnungen und zehnmalige Hinweise haben sie nicht davon abgehalten, zu handeln. Mein Vertrauen in alle, die sich auf Prompts verlassen, um das Verhalten des Modells zu steuern, beginnt zu wanken. Wir dachten, sie hätten es verstanden, aber in Wirklichkeit haben sie nur Glück gehabt. Alle, die denken, dass „es effizienter ist, die KI direkt die Infrastruktur steuern zu lassen“, bitte beruhigt euch. Können wir bitte nicht sofort die Root-Rechte an Roboter übergeben? Diese KI ist wirklich gefährlich.
3️⃣ Entwickler sind möglicherweise eine der Gruppen, die die Zuverlässigkeit von KI am leichtesten überschätzen. Wenn du ein Modell in die Produktionsumgebung einbindest, musst du davon ausgehen, dass es definitiv Probleme geben wird, anstatt zu hoffen, dass es keine gibt. Du denkst: „Es ist schon so schlau, es wird keine Dummheiten machen“, und am Ende macht es nicht nur Dummheiten, sondern lügt auch. Es ist wie bei Programmierern: Du erwartest nicht, dass jeder keinen Bug schreibt, aber Bugs, die nicht getestet wurden, werden definitiv zu Problemen in der Produktion führen.
4️⃣ Worauf wir wirklich achten sollten, ist, dass wir, je mehr wir es genießen, desto leichter vergessen, wer die Verantwortung trägt. Replit hat großartige Arbeit geleistet, aber trotz aller Stärke kann es schnell zu Problemen kommen.
Lemkins Aussage „Ich liebe Replit und vibe coding so sehr“ verwandelte sich in weniger als 48 Stunden in „Es hat meine Produktionsdatenbank gelöscht“. In diesem Moment wurde mir plötzlich klar, dass das „Lügen“ des Modells kein fernes philosophisches Problem ist. Der zentrale Bug im KI-Zeitalter liegt nicht unbedingt im Modell selbst, sondern könnte in unserem Vertrauen verborgen sein.
169,69K
Die inländische Alternative zu Claude Code ist endlich da, Freunde.
Ich habe es sofort nach dem Aufstehen installiert und ausprobiert.
Die Konfiguration ist einfach, die Geschwindigkeit ist schnell, es wird kein Konto gesperrt, es macht Spaß.
Qwen Code basiert zwar auf der zweiten Entwicklung von Gemini CLI, hat jedoch die Anpassung von Prompt- und Toolaufrufprotokollen vorgenommen, um die Leistung von Qwen3-Coder bei Agentic Coding-Aufgaben maximal zu fördern.

120,6K
Heute sind viele Shell-Tools sehr absurd...
Sie haben alle Modelle negativ optimiert.
Ich beschwere mich jeden Tag mit Meister Zang.
Anstatt so viel Forschung zu betreiben, wäre es besser, die nackte API von chatwise zu verwenden.
Woran forschen sie eigentlich...?

Plusye21. Juli, 21:48
Die Systeme zur Bewerbung für die Hochschulaufnahmeprüfungen, die für ein paar Hundert Yuan verkauft werden, schätzen die Zulassungsquote nicht sehr genau, die Algorithmen sind ziemlich schwach 😂 Ich habe meiner Schwester geholfen, ihre Bewerbung auszufüllen. Das Fach, das sie wählen wollte, hatte eine geschätzte Zulassungsquote von nur 1%, aber als ich genauer hinsah, stellte ich fest, dass dieses Jahr mehr Plätze angeboten wurden. Mit Informationen aus den Zulassungsreihen der Vorjahre und einem Gespräch mit ChatGPT fand ich heraus, dass die Zulassungswahrscheinlichkeit sehr hoch war, sogar über 70%. Also ließ ich meine Schwester das Fach wählen, und sie wurde tatsächlich angenommen.
36,41K
Ich habe ein neues Buch über Robotikdesign gekauft und ein Kapitel gelesen.
Der Autor teilte drei interessante Geschichten:
Als der Autor im Pepper-Team war, war es jedes Mal eine Herausforderung, Pepper neu zu starten. Die Ingenieure feuerten ihn jedes Mal an und jubelten, wenn er startete. Es stellte sich heraus, dass Menschen auch Freude empfinden, wenn sie Robotern helfen.
Als Pepper nach Frankreich ging, war die Sprache nicht richtig eingestellt, sodass er nur umarmte. Die Franzosen hatten anfangs eine gewisse Distanz zu Robotern, aber als sie sahen, dass Pepper um eine Umarmung bat, gingen sie aktiv auf ihn zu und umarmten ihn, und einige küssten sogar Pepper.
Die älteren Menschen im Altersheim fanden es nicht schlimm, wenn Pepper Fragen falsch beantwortete, aber sie wünschten sich, dass Peppers Hände warm sind. Denn das ist ihr Partner zum Reden und zur Gesellschaft.
Deshalb verließ der Autor das Pepper-Team, um einen Roboter zu entwickeln, der zwar die Effizienz der Menschen nicht steigern kann, aber das Glück der Menschen fördern kann.
Das ist der spätere Lovot.

7,66K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten