Space Data Centers: Wir haben mehrere Wochen damit verbracht, das Massenzbudget der ersten Generation vorgeschlagener Datenzentrum-Satelliten zu untersuchen. Es war unglaublich aufschlussreich. Einerseits macht es viel mehr Sinn, warum es anfangs einige Bedenken gegenüber der Idee gab. Starlink-Satelliten haben mit Abstand die größte Oberfläche an Flugerfahrung. Daher wurde die Architektur der Satcom-Nutzlast zu einer Art Standard "So sollte ein Satellit aussehen" In Wirklichkeit sind aus der Analyse sehr unterschiedliche Vermögensklassen entstanden. Das dürfte Raumfahrzeugbauern nicht überraschen, daher werden die Luft- und Raumfahrt-Ingenieure darüber lachen, aber es erklärt, warum es anfangs so viel Reibung (oder Vereinfachung) in der Investmentgemeinschaft gab. Einfach ausgedrückt, ist die Bewegung von SatCom zu Compute-Satelliten eine Bewegung von der Signal-Routing-Architektur zu einer thermodynamischen Architektur. Fundamental offenbart dieser Architekturwechsel einen dreieckigen Engpass, der die Dichte der Energieerzeugung, die Rechenkapazität und die thermische Ableitung ausbalanciert. Eine der interessantesten Erkenntnisse aus der Sensitivitätsanalyse ist, wie wichtig die Betriebstemperatur von Silizium für die gesamte Leistungsdichte wird. Elon hat das vor über 6 Wochen angemerkt, aber es ist cool, endlich die Zahlen zu haben, um es zu untermauern und zu erklären. Was das alles bedeutet, ist, dass wir denken, dass es wahrscheinlich ist, dass die erste Iteration von "starthink" ~50kw/Tonne beträgt und die V2 "starthink" in der Lage ist, ~100kw/Tonne zu erreichen, was MWs pro Starship-Start antreibt. Offensichtlich wird es schwierig sein, den Zeitrahmen vorherzusagen, aber es ist sicherlich eine der möglichen Ergebnisse, GWs von Rechenleistung vor 2030 im Orbit um die Erde zu sehen. Die vollständige Analyse ist hier.