Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Prakash (Ate-a-Pi)
FÖLJ MIG för AI-kommentarer; teknikoptimist, framtidschockad självmedveten neuron, en gång lurad av supraledare;
Detta är skrivet i stor utsträckning i större delen av ekonomin ... Massor av intressanta, användbara saker som fastnat bakom företagets brandvägg ... Hur deltagarna fattade ett beslut om en fusion eller investering, vad de var oroliga för, hur de minskade eller garanterade riskerna. Miljontals sidor.

Ruxandra Teslo 🧬21 timmar sedan
FDA sitter på en guldgruva av data: tidigare regulatoriska inlämningar, som ofta sträcker sig över tiotusentals sidor. Dessa skulle vara otroligt informativa, men är inlåsta på grund av lagen om affärshemligheter. Jag föreslår att utnyttja AI och konkurslagstiftning för att släppa lös denna information &
Stärk nystartade företag.
2,97K
Det är därför det bara finns ett litet antal elitforskare inom AI.

Fleetwood10 aug. 20:36
Mängden underförstådd kunskap i träningsmodeller är bokstavligen vansinnig.
Finns det någon hemlig kabal som försöker begränsa denna kunskap? Är karpathy den enda avhopparen?
2,86K
TLDR: ChatGPT kan subtilt påverka miljarder människor under de närmaste åren och OpenAI vill få rätt grad av AI-inflytande kontra fri vilja för mänskligheten.

Sam Altman11 aug. 08:37
Om du har följt GPT-5-lanseringen är en sak som du kanske märker hur mycket av en koppling vissa människor har till specifika AI-modeller. Det känns annorlunda och starkare än den typ av anknytning som människor har haft till tidigare typer av teknik (och så plötsligt var det ett misstag att fasa ut gamla modeller som användarna var beroende av i sina arbetsflöden).
Detta är något som vi har följt noga under det senaste året eller så, men som fortfarande inte har fått mycket uppmärksamhet (förutom när vi släppte en uppdatering till GPT-4o som var för smickrande).
(Detta är bara min nuvarande tanke, och ännu inte en officiell OpenAI-ståndpunkt.)
Människor har använt teknik, inklusive AI, på självdestruktiva sätt; Om en användare befinner sig i ett mentalt bräckligt tillstånd och är benägen att få vanföreställningar vill vi inte att AI ska förstärka det. De flesta användare kan hålla en tydlig gräns mellan verklighet och fiktion eller rollspel, men en liten andel kan det inte. Vi värdesätter användarfrihet som en grundläggande princip, men vi känner också ansvar för hur vi introducerar ny teknik med nya risker.
Att uppmuntra vanföreställningar hos en användare som har problem med att skilja mellan verklighet och fiktion är ett extremfall och det är ganska tydligt vad man ska göra, men de bekymmer som oroar mig mest är mer subtila. Det kommer att finnas många gränsfall, och i allmänhet planerar vi att följa principen om att "behandla vuxna användare som vuxna", vilket i vissa fall kommer att innebära att trycka tillbaka användare för att säkerställa att de får vad de verkligen vill ha.
Många människor använder ChatGPT effektivt som en slags terapeut eller livscoach, även om de inte skulle beskriva det så. Det här kan bli riktigt bra! Många människor får värde av det redan idag.
Om människor får goda råd, går upp mot sina egna mål och deras livstillfredsställelse ökar med åren, kommer vi att vara stolta över att göra något genuint användbart, även om de använder och förlitar sig mycket på ChatGPT. Om användarna å andra sidan har en relation till ChatGPT där de tror att de mår bättre efter att ha pratat men omedvetet knuffas bort från sitt långsiktiga välbefinnande (hur de än definierar det) är det dåligt. Det är också dåligt, till exempel om en användare vill använda ChatGPT mindre och känner att de inte kan.
Jag kan föreställa mig en framtid där många människor verkligen litar på ChatGPT:s råd för sina viktigaste beslut. Även om det skulle kunna vara bra, gör det mig illa till mods. Men jag förväntar mig att det kommer till en viss grad, och snart kan miljarder människor prata med en AI på det här sättet. Så vi (vi som i samhället, men också vi som i OpenAI) måste ta reda på hur vi kan göra det till en stor nettopositiv.
Det finns flera skäl till att jag tror att vi har en bra chans att få detta rätt. Vi har mycket bättre teknik som hjälper oss att mäta hur vi ligger till än vad tidigare generationer av teknik hade. Till exempel kan vår produkt prata med användare för att få en känsla för hur de ligger till med sina kort- och långsiktiga mål, vi kan förklara sofistikerade och nyanserade frågor för våra modeller och mycket mer.
3,16K
Det är en bonus på 140 miljoner dollar under ett år

TBPN11 aug. 06:30
BREAKING: Den före detta OpenAI-forskaren Leopold Aschenbrenners (@leopoldasch) Situational Awareness Fund toppar 1,5 miljarder dollar och bokför +47% under H1 '25.
Han förvandlade sin virala essä om situationsmedvetenhet till en av de snabbast växande hedgefonderna någonsin.
Fonden är den långa AI-försörjningskedjan: halvledare, datacenter och elnätet.
Aschenbrenner kallar företaget för en "hjärntrust på AI", byggd för att fronta vad han förutspår kommer att vara AGI år 2027 och den infrastrukturutbyggnad på biljoner dollar som följer.

2,19K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda