Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Förenkla LLM:er, AI-agenter, RAG och maskininlärning för dig! • Medgrundare @dailydoseofds_• BITS Pilani • 3 patent • f.d. AI-ingenjör @ LightningAI
Det finns en grundläggande spänning i AI-agentdesignen idag!
Och det blir uppenbart först när man börjar bygga för produktion:
Ju striktare du upprätthåller en instruktion, desto mer offrar du kontextuella nyanser.
Tänk på det så här.
När du bygger en kundinriktad agent är vissa instruktioner faktiskt icke-förhandlingsbara.
Därför vill du att din agent ska upprätthålla dem strikt, även om det låter robotlikt när det händer.
Till exempel kan instruktioner som efterlevnadsrapporter inom finans eller säkerhetsvarningar inom vården inte tolerera några misstag.
Men andra instruktioner är milda förslag, som att matcha kundens ton eller hålla svaren kortfattade. Dessa bör påverka samtalet, inte dominera det.
Problemet är att de flesta agentarkitekturer inte låter dig uttrycka denna skillnad så lätt.
Varje instruktion får vanligtvis samma nivå av tillsyn, så du tvingas antingen vara strikt med allt och låta robotisk, eller vara flexibel och riskera att missa viktiga regler.
Och nej, du kan inte bara betona vissa instruktioner i prompten eftersom blotta närvaron av en instruktion redan snedvrider modellens beteende. Betoning lägger bara till mer partiskhet ovanpå den befintliga biasen.
Men jag tycker att Parlants senaste kontroll av "kritikalitetsnivåer" är intressant (öppen källkod med 18 000 stjärnor).
Det låter dig tala om för din agent hur mycket uppmärksamhet varje instruktion ska ge.
```
agent.create_guideline(
villkor="Kunden frågar om mediciner",
åtgärd="Direkt till vårdgivare",
kritikalitet=Kritikalitet.HÖG
)
agent.create_guideline(
villkor="Kunden slutför ett köp",
handling="Nämn lojalitetsprogrammet",
kritikalitet=Kritikalitet.LÅG
)
```
Du kan ställa in en instruktions kritikalitet som LÅG, MEDEL eller HÖG, vilket gör det lättare att uppnå den beteendemässiga sweet spot du söker i agentens samtal med användarna.
Generellt älskar jag hur de utvecklar detta ramverk och hur funktionerna naturligt bygger på en grundläggande, solid filosofi från version till version.
Du kan se hela implementationen på GitHub och prova själv.
Jag har delat repo-länken i svaren.

90
Få vet detta om L2-regularisering:
Det är INTE bara en regulariseringsteknik.
De flesta använder L2-regularisering till en sak: minska överanpassning. Men det finns något annat som den gör anmärkningsvärt bra.
L2-regularisering är en utmärkt lösning mot multikollinearitet.
Multikollinearitet uppstår när två eller fler funktioner är starkt korrelerade, eller när en egenskap kan förutsäga en annan. Detta är en mardröm för linjära modeller.
Här är varför:
Betrakta en datamängd med två starkt korrelerade egenskaper (egenskap A och egenskap B) och en målvariabel (y).
Din linjära modell har två parametrar (θ₁, θ₂), och målet är att hitta värden som minimerar restsumman av kvadrater (RSS).
Nu ska vi visualisera detta:
Plotta RSS-värdet för många kombinationer av (θ₁, θ₂). Du får en 3D-yta där:
→ x-axel är θ₁
→ y-axel är θ₂
→ z-axeln är RSS-värdet
Utan L2-regularisering får du en dal.
Flera parameterkombinationer ger dig samma minsta RSS. Modellen kan inte bestämma sig för vilken den ska välja. Denna instabilitet är multikollinearitetens förbannelse.
Med L2-regulariseringen försvinner dalen.
Du får ett enda globalt minimum. Modellen har nu ett tydligt svar.
Detta är den dolda superkraften med L2-regularisering som de flesta tutorials hoppar över. Det handlar inte bara om att förhindra överanpassning. Det handlar om att ge din modell stabilitet när funktioner korrelerar.
👉 Över till dig: Visste du detta om L2-regularisering?

1,31K
Topp
Rankning
Favoriter

