Jag gillar Antropic, men stör mig att så många rationalistiska AI-alignment-typer faller så hårt för deras stambaserade "vi bryr oss om alignment" i gruppsignalering, vilket helt motsäger Anthropics faktiska roll att påskynda AI-kapprustningen mer än någon annan