Ich mag Anthropic, aber es ärgert mich, dass so viele rationalistische AI-Alignment-Typen so stark auf ihr tribalistisches "Wir kümmern uns um Alignment" in der Gruppensignalisierung hereinfallen, was völlig im Widerspruch zu Anthropics tatsächlicher Rolle steht, das AI-Rüstungsrennen mehr als jeder andere zu beschleunigen.