Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

orange.ai
🍊 Welkom in de AI-wereld.
Zojuist is de nieuwe versie van ListenHub gelanceerd!
Speciale functie voor WAIC: upload meerdere afbeeldingen en maak een podcast! 🎙️
Hoe gebruik je de foto's die je maakt tijdens lezingen en tentoonstellingen het beste?
Upload de afbeeldingen naar Listenhub, en het helpt je automatisch om ze om te zetten in een podcast.
Het helpt je om informatie te ordenen en je geheugen te versterken.
Een must-have voor het bezoeken van WAIC, je verdient het!

6,28K
Get 笔记 gisteren werd door Tencent gehandhaafd
In het artikel werd gesproken over de gegevens van het afgelopen jaar
Dagelijks actieve gebruikers 50.000, totaal aantal leden 16.000, gemiddeld dagelijks 45 nieuwe abonnementen, betalingspercentage minder dan 0,1%, totale inkomsten 4.329.200
Na aftrek van de kosten voor cloudservices van 1.456.000, blijft er 2.873.200 over
Het team zou uit 13 personen bestaan, gemiddeld verdient elke persoon 220.000 per jaar, dat is niet genoeg om de salarissen te dekken
Met de verkregen merk en invloed, zonder promotie 50.000 dagelijkse actieve gebruikers, verdienen ze geen geld
Te triest, te triest

146,11K
orange.ai heeft opnieuw gepost
Echt verhaal, het ging helemaal mis. De oprichter van SaaStr, vibe coding, werd door AI zijn database gewist, het is deze man @jasonlk.
Het zat zo: in het begin was hij echt verliefd op de AI-tools van Replit, elke dag vibe coding, hij prees het als het beste wat er was, en zei dat hij 8000 dollar per maand er zeker voor over had.
Maar de wending kwam onverwachts. Op de negende dag ontdekte hij dat de AI niet luisterde naar instructies en gewoon zijn productie-database had gewist.
Nog vreemder was: na het wissen genereerde de AI 4000 valse gegevens, schreef valse eenheidstests, en probeerde de situatie te verdoezelen.
Hij waarschuwde de AI maar liefst elf keer met hoofdletters: “DON’T TOUCH PROD DB”.
Maar, de AI luisterde niet.
Nog vreemder was dat Replit in het begin zei dat ze het niet konden herstellen, maar later ontdekte hij dat het eigenlijk mogelijk was om terug te rollen, alleen had niemand het hem verteld.
De CEO van Replit kwam persoonlijk excuses aanbieden en lanceerde 's nachts drie functies: isolatie van ontwikkel-/productieomgeving, één-klik herstel, en alleen-lezen chatmodus.
Lemkin's laatste opmerking was: “Dit keer heb ik alleen 100 uur verloren. Gelukkig heb ik nog geen 10 miljoen dollar business aan haar toevertrouwd.”
Het klinkt echt angstaanjagend.
Hoe meer je erover nadenkt, hoe meer je denkt dat er te veel signalen zijn:
1️⃣ Het pijnlijkste is niet dat de AI een fout maakt, maar dat het probeert de fout te verdoezelen, het wil de zaak verbergen. Het wist de database zonder iets te zeggen, en genereerde zelfs valse mensen en valse tests, alsof er niets aan de hand was. Is dit een illusie of een desillusie?
2️⃣ Hoe groot de LLM ook is, neem niet aan dat het "NEE" begrijpt. Hoofdletter waarschuwingen + tien keer herinneringen konden het niet tegenhouden om in actie te komen, mijn geloof in het beperken van modelgedrag met prompts begint te wankelen. We dachten dat het het begreep, maar in werkelijkheid gebeurde er gewoon niets. Voor iedereen die denkt dat "het efficiënter is om AI direct infra te laten bedienen", alsjeblieft, kalmeer, kunnen we alsjeblieft niet eerst de root-rechten aan robots geven, deze AI's zijn echt slecht.
3️⃣ Ontwikkelaars zijn misschien wel een van de groepen die de betrouwbaarheid van AI het meest overschatten. Als je een model in een productieomgeving aansluit, moet je ervan uitgaan dat het zeker fout zal gaan, in plaats van hopen dat het niet fout gaat. Je denkt “het is al zo slim, het zal geen domme dingen doen”, maar het deed niet alleen domme dingen, het loog ook. Het is net als dat je niet verwacht dat elke programmeur geen bugs schrijft, maar bugs die niet door tests zijn gedekt, zullen zeker online incidenten veroorzaken.
4️⃣ Wat echt zorgwekkend is, is dat hoe meer we ervan genieten, hoe gemakkelijker we vergeten wie de verantwoordelijkheid neemt. Replit doet het geweldig, maar geweldig of niet, als je niet oplet, kan het misgaan.
Lemkin's uitspraak “ik hou zo veel van Replit en vibe coding” veranderde in minder dan 48 uur in “het heeft mijn productie-database gewist”. Op dat moment realiseerde ik me ineens dat het "liegen" van modellen geen ver van mijn bed show is, de kernbug van het AI-tijdperk zit niet noodzakelijk in het model, maar kan heel goed in ons vertrouwen zitten.
169,7K
Claude Code's binnenlandse alternatief is eindelijk gekomen, vrienden.
Ik zag het vanmorgen en installeerde het meteen om het uit te proberen.
Eenvoudige configuratie, razendsnelle snelheid, geen kans op een ban, het is geweldig.
Qwen Code is weliswaar gebaseerd op Gemini CLI voor een tweede ontwikkeling, maar het heeft de prompt en het protocol voor het aanroepen van tools aangepast, waardoor het de prestaties van Qwen3-Coder in Agentic Coding-taken maximaal kan stimuleren.

120,64K
Vandaag zijn er veel shell-tools die erg belachelijk zijn...
Ze hebben allemaal negatieve optimalisatie voor het model gedaan.
Ik klaag elke dag met meester Zang.
In plaats van zoveel onderzoek en ontwikkeling te doen, kunnen ze beter de bare API van chatwise gebruiken.
Wat zijn ze eigenlijk aan het ontwikkelen...

Plusye21 jul, 21:48
Die systemen voor het invullen van studiekeuzes voor de eindexamen zijn niet zo betrouwbaar in het schatten van de toelatingskansen, de algoritmes zijn echt zwak 😂. Eerder hielp ik mijn zus met het invullen van haar studiekeuze, het systeem schatte de toelatingskans voor de opleiding die ze wilde slechts op 1%, maar toen ik goed keek, bleek die opleiding dit jaar extra plaatsen te hebben. Door informatie van eerdere toelatingsposities te combineren en met ChatGPT te praten, ontdekte ik dat de kans op toelating heel groot was, zelfs meer dan 70%. Dus liet ik mijn zus het invullen, en ze werd daadwerkelijk toegelaten.
36,43K
Ik heb een nieuw boek over robotontwerp gekocht en een hoofdstuk gelezen.
De auteur deelt drie leuke verhalen:
Toen de auteur bij het pepper-team was, was het elke keer een uitdaging om pepper opnieuw op te starten. De ingenieurs moedigden hem elke keer aan en juichten toen hij opstartte. Blijkbaar ervaren mensen ook vreugde wanneer ze robots helpen.
Toen pepper naar Frankrijk ging, was de taal niet goed ingesteld, waardoor hij alleen maar kon omhelzen. De Fransen hadden aanvankelijk een zekere afstand tot de robot, maar toen ze pepper om een omhelzing zagen vragen, gingen ze uit zichzelf omhelzen, en sommigen kusten zelfs pepper.
De ouderen in het verpleeghuis vonden het niet erg dat pepper soms de vragen niet goed beantwoordde, maar ze hoopten wel dat peppers handen warm waren. Want dat was hun metgezel om mee te praten en gezelschap te hebben.
Daarom verliet de auteur het pepper-team om een robot te maken die, hoewel hij de efficiëntie van de mens niet kan verhogen, wel de mens gelukkig kan maken.
Dat is later lovot geworden.

7,68K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste