falt ned i et mindre galt kaninhull etter å ha lest Paul Christians 'How failure Looks Like' på nytt (det kom opp på kurven og jeg sliter med å forstå 'tap av kontroll'-scenarier) og man alle beslutningsteori-greiene bare umiddelbart støter på det stoppende problemet med en gang
Å bestemme om et gitt program vil sende ut et bestemt symbol for bestemte innganger er semi-bestemmelig og tilsvarer derfor stoppeproblemet. Enhver "les den andre agentens kildekode"-baserte beslutningsteori faller fra hverandre på grunn av dette faktum.
faktisk faller enhver *reflekterende* beslutningsteori fra hverandre på grunn av dette faktum. tdt et. al. bare arbeid i situasjoner der agenter ikke er ferdige. ikke veldig nyttig.
De logiske usikkerhetsgreiene holder seg ganske bra
@azsantosk her er faktisk en vill og ubegrunnet oppfatning; Å legge til sannsynlighet tar oss fra en diskret til en kontinuerlig setting, og det er det som fjerner ubestemmelighet Det ville være et så vakkert teorem
@azsantosk så enten er vi over eller under Turing
@azsantosk enten har omega hyperberegning (er en veiviser) eller så er ikke agentene våre veldig interessante
@azsantosk da er jeg absolutt ikke i stand til selvmodifisering og mange andre ting forutsatt av de forskjellige beslutningsteoriene om mindre feil dot com
10,51K