Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Greg Osuri 🇺🇸 deAI Summer 2025
Fundador de Akash • @akashnet_ • $AKT
Usar IA es arte más que ciencia.
Copiar pasta de ChatGPT huele a basura tan fácil de detectar.

Balajihace 8 horas
0% de IA es lento.
Pero 100% IA es basura.
Entonces, la cantidad óptima de IA está en realidad entre 0-100%. La cifra exacta varía según la situación, pero solo la idea de que el 0% y el 100% son subóptimos es útil.
Es la curva de Laffer, pero para IA.

1.19K
H1B para los solicitantes que pagan impuestos más altos es una excelente propuesta para el mediano plazo.
Sin embargo, una revisión completa será más óptima.

Deedyhace 15 horas
🚨 ENORME noticia de inmigración: Trump acaba de proponer un gran cambio a la H-1B. No más lotería, sino selección ponderada por salario.
Según su código de trabajo y ubicación, su salario base %ile lo ubicará en uno de los 4 grupos. 85k H-1B se seleccionan en orden decreciente IV > III > II > I. Si hay más solicitantes que un espacio, la lotería ocurre dentro de un grupo.
Los datos de las solicitudes de LCA, las seleccionadas en el H-1B, muestran un 13% de nivel IV y un 24% III de ~480k aplicaciones. Esto significa que la mayoría de los niveles IV llenarán el límite de 85k.
Esto tiene alrededor de un 30% de posibilidades de convertirse en ley para 2027.
¿Qué significa todo esto? Describí las grandes consecuencias de este proyecto de ley a continuación.

1.26K
4,5 gigavatios es aproximadamente el equivalente a 5 plantas nucleares.
La última instalación nuclear construida en los EE. UU. tardó aproximadamente 14 años en completarse. Algo me dice que Sam no esperará tanto.
La forma más rápida de lograr esa capacidad es a través de generadores de combustibles fósiles. Si se utiliza GNL (el más limpio de los combustibles fósiles), el generador emitirá alrededor de 2,7 millones de toneladas de carbono cada año, lo que supone 2/3 de las emisiones de CO₂ de 2023 de todo el estado estadounidense de Vermont.
Estamos bien encaminados para que la IA consuma el 12% de la energía de EE. UU. para 2028.

Sam Altman22 jul, 20:50
Hemos firmado un acuerdo para 4,5 gigavatios adicionales de capacidad con Oracle como parte de Stargate. Es fácil lanzar números, pero este es un proyecto de infraestructura _gigantesco_.
Algunas fotos de progreso de Abilene:


6.1K
Las guerras de GPU y energía de 2027-2030 serán dos de los mayores catalizadores para DeAI.
Mira este espacio.

Elon Musk23 jul, 00:54
Las GPU de 230k, incluidas las GB200 de 30k, están operativas para entrenar @xAI de Grok en un solo superclúster llamado Colossus 1 (la inferencia la realizan nuestros proveedores de nube).
En Colossus 2, el primer lote de 550k GB200s y GB300s, también para entrenamiento, comienza a estar en línea en unas pocas semanas.
Como ha declarado Jensen Huang, @xAI es inigualable en velocidad. Ni siquiera está cerca.
3.53K
genial pero ese cableado es amateur como el infierno

Sam Altman22 jul, 20:50
Hemos firmado un acuerdo para 4,5 gigavatios adicionales de capacidad con Oracle como parte de Stargate. Es fácil lanzar números, pero este es un proyecto de infraestructura _gigantesco_.
Algunas fotos de progreso de Abilene:


1.84K
Nvidia fabricó 2,5 millones de H100 el año pasado.
Se acerca el verdadero shock de suministro de GPU.

Elon Musk23 jul, 01:04
El objetivo @xAI es de 50 millones en unidades de computación de IA equivalente a H100 (pero con una eficiencia energética mucho mejor) en línea dentro de 5 años
4.3K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas