Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Prakash (Ate-a-Pi)
FOLGEN SIE MIR für KI-Kommentare; Tech-Optimist, zukunftsgeschocktes, selbstbewusstes Neuron, das einst von Supraleitern getäuscht wurde;
Dies ist in der gesamten Wirtschaft deutlich zu erkennen... viele interessante, nützliche Informationen sind hinter der Unternehmensfirewall verborgen... wie die Teilnehmer eine Entscheidung über eine Fusion oder Investition getroffen haben, worüber sie sich Sorgen gemacht haben, wie sie die Risiken gemindert oder abgesichert haben. Millionen von Seiten.

Ruxandra Teslo 🧬Vor 21 Stunden
Die FDA sitzt auf einem Schatz an Daten: frühere regulatorische Einreichungen, die oft Zehntausende von Seiten umfassen. Diese wären unglaublich informativ, sind aber aufgrund des Handelsgeheimnisgesetzes gesperrt. Ich schlage vor, KI und Insolvenzrecht zu nutzen, um diese Informationen freizusetzen und Start-ups zu stärken.
2,95K
Deshalb gibt es nur eine kleine Anzahl von Elite-AI-Forschern.

Fleetwood10. Aug., 20:36
Die Menge an stillschweigenden Wissen in der Ausbildung von Modellen ist buchstäblich verrückt.
Gibt es eine geheime Kabale, die versucht, dieses Wissen einzuschränken? Ist Karpathy der einzige Abtrünnige?
2,85K
TLDR: ChatGPT könnte in den nächsten Jahren subtil Milliarden von Menschen beeinflussen, und OpenAI möchte das Verhältnis von KI-Einfluss zu freiem Willen für die Menschheit richtig gestalten.

Sam Altman11. Aug., 08:37
Wenn Sie den Rollout von GPT-5 verfolgt haben, könnte Ihnen auffallen, wie stark einige Menschen an bestimmten KI-Modellen hängen. Es fühlt sich anders und intensiver an als die Art von Bindung, die Menschen zu früheren Technologien hatten (und es war ein Fehler, alte Modelle, auf die Benutzer in ihren Arbeitsabläufen angewiesen waren, plötzlich abzulehnen).
Das ist etwas, das wir im letzten Jahr oder so genau verfolgt haben, aber es hat immer noch nicht viel Aufmerksamkeit in den Mainstream erhalten (außer als wir ein Update zu GPT-4o veröffentlicht haben, das zu schmeichelhaft war).
(Das ist nur mein aktuelles Denken und noch keine offizielle Position von OpenAI.)
Menschen haben Technologie, einschließlich KI, auf selbstzerstörerische Weise genutzt; wenn ein Benutzer in einem psychisch fragilen Zustand ist und zu Wahnvorstellungen neigt, wollen wir nicht, dass die KI das verstärkt. Die meisten Benutzer können eine klare Grenze zwischen Realität und Fiktion oder Rollenspiel ziehen, aber ein kleiner Prozentsatz kann das nicht. Wir schätzen die Freiheit der Benutzer als ein zentrales Prinzip, fühlen uns aber auch verantwortlich dafür, wie wir neue Technologien mit neuen Risiken einführen.
Wahnvorstellungen bei einem Benutzer zu fördern, der Schwierigkeiten hat, den Unterschied zwischen Realität und Fiktion zu erkennen, ist ein extremer Fall, und es ist ziemlich klar, was zu tun ist, aber die Bedenken, die mich am meisten beunruhigen, sind subtiler. Es wird viele Grenzfälle geben, und im Allgemeinen planen wir, dem Prinzip zu folgen, "erwachsene Benutzer wie Erwachsene zu behandeln", was in einigen Fällen auch bedeutet, den Benutzern entgegenzutreten, um sicherzustellen, dass sie das bekommen, was sie wirklich wollen.
Viele Menschen nutzen ChatGPT effektiv als eine Art Therapeut oder Lebensberater, auch wenn sie es nicht so beschreiben würden. Das kann wirklich gut sein! Viele Menschen ziehen bereits heute einen Nutzen daraus.
Wenn die Menschen gute Ratschläge erhalten, sich ihren eigenen Zielen annähern und ihre Lebenszufriedenheit über Jahre hinweg steigt, werden wir stolz darauf sein, etwas wirklich Hilfreiches geschaffen zu haben, auch wenn sie ChatGPT viel nutzen und darauf angewiesen sind. Wenn die Benutzer hingegen eine Beziehung zu ChatGPT haben, bei der sie denken, dass sie sich nach dem Gespräch besser fühlen, aber unwissentlich von ihrem langfristigen Wohlbefinden (wie auch immer sie es definieren) abgelenkt werden, ist das schlecht. Es ist auch schlecht, wenn ein Benutzer weniger ChatGPT nutzen möchte und das Gefühl hat, dass er es nicht kann.
Ich kann mir eine Zukunft vorstellen, in der viele Menschen ChatGPTs Ratschläge für ihre wichtigsten Entscheidungen wirklich vertrauen. Obwohl das großartig sein könnte, macht es mich unruhig. Aber ich erwarte, dass es in gewissem Maße kommt, und bald könnten Milliarden von Menschen auf diese Weise mit einer KI sprechen. Daher müssen wir (wir als Gesellschaft, aber auch wir als OpenAI) herausfinden, wie wir es zu einem großen Netto-Vorteil machen können.
Es gibt mehrere Gründe, warum ich denke, dass wir eine gute Chance haben, das richtig zu machen. Wir haben viel bessere Technologien, um zu messen, wie wir abschneiden, als frühere Generationen von Technologien. Zum Beispiel kann unser Produkt mit Benutzern sprechen, um ein Gefühl dafür zu bekommen, wie es ihnen mit ihren kurz- und langfristigen Zielen geht, wir können komplexe und nuancierte Themen unseren Modellen erklären und vieles mehr.
3,07K
Das ist ein 140 Millionen Dollar Bonus für ein Jahr.

TBPN11. Aug., 06:30
BREAKING: Der ehemalige OpenAI-Forscher Leopold Aschenbrenner (@leopoldasch) hat mit seinem Situational Awareness Fund 1,5 Milliarden USD überschritten und verzeichnete im ersten Halbjahr 2025 ein Plus von 47%.
Er verwandelte seinen viralen Essay zur Situational Awareness in einen der am schnellsten wachsenden Hedgefonds aller Zeiten.
Der Fonds setzt auf die gesamte KI-Lieferkette: Halbleiter, Rechenzentren und das Stromnetz.
Aschenbrenner bezeichnet die Firma als "Brain Trust für KI", die darauf ausgelegt ist, das vorauszusehen, was er für 2027 als AGI prognostiziert, sowie den darauf folgenden Billionen-Dollar-Infrastrukturaufbau.

2,18K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten