Jeg har tenkt en stund at hvis noen vil starte enda et «nytt AI-laboratorium fordi de eksisterende ikke er bra for menneskeheten», burde de ha et eksplisitt bindende mandat for å fokusere på menneskeforsterkende verktøy og ikke bygge noe med > 1 minutts tidshorisontautonomi *Selv om* alle argumentene om sikkerhet ender feil, ASI-selskaper som søker maksimal autonomi nå er det mange av, og den menneskelige augmentasjonsnisjen ("ikke bygg Skynet, bygg mecha-drakter for sinnet") er underbetjent. Vær så snill å gjøre det åpen kildekode så mye som mulig.