Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Creatorul AuditAgent | AI x Crypto x Produs | Construirea economiei agentice
De ce OpenAI a lansat modele cu greutăți deschise? Să-și omoare propria afacere... (sau nu?)
Da, tocmai @OpenAI lansat două modele cu greutăți deschise, ceea ce înseamnă că dezvoltatorii le pot folosi fără a plăti nimic OpenAI. Mai exact, este lansat sub cea mai liberală licență comercială Apache 2.0. Deci, de ce a făcut OpenAI asta? Există mai multe aspecte.
Dar, vreau să clarific că atunci când o companie lansează un model cu greutăți deschise, nu înseamnă că modelul este la fel de open-source ca codul open-source pe care îl puteți rula singur, cum ar fi sistemul de operare @Linux. Nu, cu modelele AI este puțin diferit. În special, un model este o cutie neagră, un set de greutăți. Și, deși îl puteți testa pe diferite sarcini și puteți vedea cum funcționează, dacă nu puteți reproduce procesul de antrenament, nu puteți ști niciodată dacă există backdoors sau vulnerabilități de securitate care au ajuns intenționat sau accidental în acest model. Deci, să separăm imediat acest lucru de open source. Din păcate, modelele cu greutăți open source nu pot fi pe deplin de încredere (totuși, pot fi chep).
Celălalt aspect pe care l-am observat, arătat în imagine, este că calitatea modelelor open-source nu este foarte diferită de modelele emblematice OpenAI care sunt disponibile doar prin API. Este grozav! Acest lucru este neașteptat! Te-ai gândi câți bani ar putea pierde OpenAI permițând dezvoltatorilor să-și folosească modelele? Cu toate acestea, asta nu este totul. Modelele nu sunt tot ce obțineți atunci când utilizați OpenAI prin API. De exemplu, atunci când utilizați ChatGPT prin UI și alegeți modelul o3, există de fapt un agent complex care lucrează sub capotă care, în timp ce utilizați aceste modele, are o mulțime de logică scrisă deasupra pentru a funcționa cu adevărat bine cu documentele și instrumentele dvs. Nu le accesați prin aceste modele publicate de OpenAI.
Deci, de ce a lansat OpenAI modele cu greutăți deschise? În primul rând, principalii lor concurenți, în special @Meta, @MistralAI și @deepseek_ai (oh și @Google), au lansat deja modele competitive cu greutăți deschise pe care oamenii le folosesc. Iar popularitatea OpenAI în rândul persoanelor care folosesc modele deschise nu crește. Cu toate acestea, pentru dezvoltatorii care au nevoie de ambele modele cu ponderi deschise (pentru calcule locale/private) alături de modele accesibile API (pentru lucruri mai grele), dacă au nevoie de ambele, pur și simplu nu pot folosi OpenAI. Este mai ușor pentru ei să-și folosească concurenții precum Google sau DeepSeek.
În al doilea rând, există o presiune semnificativă atât din partea utilizatorilor, cât și a autorităților de reglementare care doresc mai multă deschidere. Oamenii sunt îngrijorați că AI ar putea scăpa de sub control sau ar putea cădea sub controlul unui grup restrâns de companii din Silicon Valley, iar oamenii doresc mai multă transparență. Deși îndrăznesc să spun că, chiar și doar îngrijorându-mă de concurență și de scăderea vânzărilor, o astfel de mișcare către deschidere va face probabil afacerea OpenAI și mai mare.
Și în al treilea rând, desigur, există gluma despre numele companiei OpenAI. Judecând după modul în care s-a dezvoltat totul, compania numită OpenAI a fost cea mai închisă companie de inteligență artificială dintre lideri. Acest lucru este amuzant în sine, dar acum s-a schimbat. Ce crezi?

282
Majoritatea oamenilor nu înțeleg deloc cum funcționează înlocuirea oamenilor cu AI (sau cum NU funcționează). Chiar și o accelerare de zece ori a tot ceea ce face un specialist nu șterge automat munca în sine, ci doar rescrie economia din jurul ei. Când prețul efectiv al unui livrabil se prăbușește, cererea latentă care stătea pe raft devine brusc viabilă. Nu am întâlnit niciodată un proprietar de produs care să creadă că inginerii săi livrează mai multe funcții decât are nevoie foaia de parcurs; lista de dorințe este întotdeauna mai lungă decât permite numărul de angajați. Faceți fiecare caracteristică de zece ori mai ieftină de construit și nu reduceți echipele cu un factor de zece - luminați fiecare "frumos de avut" care părea cândva inaccesibil, plus produse întregi green-field pe care nimeni nu s-a deranjat să le extindă.
Un studiu recent @Microsoft Research privind utilizarea Copilot în lumea reală subliniază același punct. Utilizatorii vin pentru ajutor pentru a redacta cod sau pentru a aduna fapte, dar modelul ajunge să antreneze, să sfătuiască și să predea – pliind noi tipuri de muncă într-o singură sesiune. Profesiile nu sunt monoliți; sunt mănunchiuri de subprocese, fiecare acoperit doar parțial (și imperfect) de modelele de astăzi. Pe măsură ce instrumentele AI evoluează, domeniul de aplicare al rolului evoluează odată cu ele, adesea extinzându-se mai degrabă decât micșorându-se.
Chiar și într-un auditor de contracte inteligente AI pe care l-am construit la @NethermindEth, în ciuda numelui său, vizăm o parte foarte specifică a procesului: găsirea potențialelor vulnerabilități. Între timp, specialiștii în securitate folosesc acest lucru ca instrument și fac o muncă mult mai complexă și cu mai multe fațete – formularea de strategii, validarea constatărilor, corectarea AI, adăugarea de context implicit, comunicarea cu dezvoltatorii, descoperirea intențiilor ascunse și gestionarea așteptărilor.
Deci, în loc să numărăm ce locuri de muncă vor "dispărea", este mai util să ne întrebăm ce probleme merită rezolvate odată ce costul marginal al rezolvării lor cade de pe o stâncă. Istoria sugerează că răspunsul este "mult mai mult decât putem face personal" și asta pledează pentru un viitor în care talentul este redistribuit și multiplicat, nu devine învechit.


315
Andrej Karpathy susține introducerea unui nou termen legat de "ingineria contextului" în dezvoltarea de software AI folosind LLM-uri.
Și acest termen a părut mult timp foarte necesar. De fiecare dată când explic oamenilor cum dezvoltăm Nethermind AuditAgent, unul dintre aspectele cheie, pe lângă utilizarea expertizei în domeniu (securitate web3) și utilizarea celor mai bune modele AI disponibile (de la OpenAI, Anthropic și Google) și instrumente pentru LLM, este tocmai "ingineria contextului".
Există uneori o expresie "contextul este regele" și chiar este adevărat. LLM-urile, fie că sunt avansate uriașe sau LLM-uri mici optimizate, sunt un instrument puternic, dar ca orice instrument, dacă este pe mâini greșite, veți obține rezultate mult mai puțin promițătoare decât ați putea dacă lucrați corect cu ele. Iar managementul contextului (sau ingineria) este într-adevăr un domeniu complex și nu foarte bine descris, care evoluează constant și a apărut într-adevăr ca o extensie a conceptului de inginerie promptă, care are deja unele conotații negative.
În general, Andrej a enumerat principalele aspecte legate de ingineria contextului (pe a doua captură de ecran), dar în fiecare sarcină specifică, oamenii obțin rezultate excelente în mare parte prin încercări și erori, de fiecare dată încercând monoton să selecteze elementele de context potrivite care sunt cu adevărat necesare în această etapă de rezolvare a problemelor, colectând repere pentru fiecare etapă, analizând valorile, împărțind seturile de date în teste, validare și așa mai departe și așa mai departe.
Ce părere aveți despre "ingineria contextului"?

Andrej Karpathy25 iun. 2025
+1 pentru "inginerie de context" față de "inginerie promptă".
Oamenii asociază solicitările cu descrieri scurte ale sarcinilor pe care le-ai da unui LLM în utilizarea ta de zi cu zi. Când în fiecare aplicație LLM de putere industrială, ingineria contextului este arta delicată și știința de a umple fereastra contextului cu informațiile potrivite pentru pasul următor. Știință, deoarece a face acest lucru corect implică descrieri și explicații ale sarcinilor, câteva exemple de fotografii, RAG, date conexe (posibil multimodale), instrumente, stare și istorie, compactare... Prea puțin sau de forma greșită, iar LLM nu are contextul potrivit pentru performanțe optime. Prea mult sau prea irelevant și costurile LLM ar putea crește și performanța ar putea scădea. A face acest lucru bine nu este trivial. Și arta datorită intuiției călăuzitoare în jurul psihologiei LLM a spiritelor oamenilor.
Pe lângă ingineria contextului în sine, o aplicație LLM trebuie:
- împărțirea problemelor direct în fluxuri de control
- Împachetați ferestrele contextuale corect
- expedierea apelurilor către LLM-uri de tipul și capacitatea potrivite
- gestionarea fluxurilor UIUX de verificare a generării
- mult mai mult - bariere de protecție, securitate, evaluări, paralelism, preluare, ...
Deci, ingineria contextului este doar o mică parte dintr-un strat gros emergent de software non-trivial care coordonează apelurile LLM individuale (și multe altele) în aplicații LLM complete. Termenul "ChatGPT wrapper" este obosit și foarte, foarte greșit.
372
Ieri am lansat un nou produs în producție – I.R.I.S. (Integrity & Risk Intelligence Scanner), primul agent AI de pe X (fostul Twitter) care:
• Acceptă un repo de contract inteligent sau adresa unui contract implementat
• Rulează codul prin platforma noastră SaaS AuditAgent - deja o soluție lider de piață utilizată de auditorii externi și echipele de dezvoltare
• Publică un raport complet de vulnerabilitate fără a părăsi fluxul social
De ce?
• Un canal fără frecare. Dezvoltatorii primesc un audit în care vorbesc deja despre cod - fără formulare, fără fire de e-mail.
• AuditAgent sub capotă. Nu doar un "motor de scanare", ci serviciul nostru emblematic care alimentează auditurile din lumea reală.
• Informații în ~30 de minute. Triaj perfect înainte de o revizuire manuală profundă.
• Creșterea go-to-market. Agentul Twitter prezintă puterea AuditAgent și direcționează utilizatorii către întreaga platformă.
Primele 16 ore pe cronologie
✨ 2,7 milioane de afișări
🔥 49 K angajamente
📊 85 % sentiment pozitiv (214 tweet-uri)
🛠️ ≈150 de tweet-uri care împărtășesc cazuri practice de utilizare
🔍 33 audituri exprese
📋 38 454 linii de cod scanate
⚠️ 377 vulnerabilități detectate
O notă personală
Acum exact un an m-am alăturat Nethermind cu ceea ce părea o ipoteză riscantă: "AI va deveni o parte esențială a securității contractelor inteligente, dar numai instrumentele specializate, native ale fluxului de lucru, vor ajuta cu adevărat profesioniștii".
Douăsprezece luni mai târziu, avem două produse în producție – AuditAgent (și acum I.R.I.S.(@UndercoverIRIS) – și un impact clar asupra securității Web3.
Mulțumiri imense întregii echipe @NethermindEth AI și @virtuals_io. Persistență + o ipoteză solidă + expertiză combinată = rezultate pe care industria le poate vedea.
Vom continua să construim instrumente care să aducă securitate dezvoltatorilor în primul rând, astfel încât Web3 să devină mai sigur cu fiecare angajament.

740
Tocmai s-a întors de la AI Summit London - și peisajul Enterprise-AI arată foarte diferit de aproape
3 lucruri care m-au lovit:
1️⃣ Rafturi de produse supraaglomerate.
Fiecare stand promitea o "platformă AI" plug-and-play care se potrivește în mod magic oricărui stack. Dar mergeți suficient de mult și continuați să auziți același blocaj: sisteme vechi fără API-uri, date împrăștiate, logică de afaceri neclară. Realitatea va fi brutală pentru SaaS cu o mărime unică.
2️⃣ Magazinele personalizate strălucesc liniștit.
Agențiile care combină consultanța profundă în domeniu cu dezvoltarea personalizată rapidă au un avantaj clar. Ei pot cădea în mijlocul dezordonat, pot coase lucruri împreună și pot livra ceva care rulează de fapt în infrastructura fragilă a unui client.
3️⃣ Munca personalizată devine din ce în ce mai ieftină, nu mai scumpă.
Cu modele de generare de cod care scriu adaptoare, teste și schele, dezvoltatorii seniori orchestrează acum mai degrabă decât tastează manual. Experiența noastră de utilizare continuă a instrumentelor AI în cadrul organizației nu face decât să confirme acest lucru.
Concluzia
Câștigătorii în Enterprise AI nu vor fi cei mai strălucitori agenți "out-of-the-box" – vor fi echipele agile care pot co-crea soluții în timp real, ghidate de constrângerile dezordonate ale tehnologiei vechi.

269
Limită superioară
Clasament
Favorite
La modă pe lanț
La modă pe X
Principalele finanțări recente
Cele mai importante