Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Me parece increíble que la "programación", tal y como la veíamos antes, ya esté mayormente resuelta a estas alturas.
Escuché por primera vez el concepto de código generado por IA en 2015, cuando un amigo mío empezó a trabajar en una startup llamada @trygigster.
La premisa de Gigster era ser una plataforma para contratar ingenieros de software freelance. Su plan era usar el código que esos freelancers escribieron para los clientes para entrenar sus redes neuronales. La esperanza era que estos modelos pudieran eventualmente generar código y reemplazar por completo a los desarrolladores freelance.
En ese momento, el aprendizaje profundo empezaba a popularizarse (esto fue antes de que se descubrieran los LLM), y el equipo de Gigster creía que podían usar la investigación más reciente —redes neuronales recurrentes (RNN)— para entrenar una máquina a escribir código por sí misma.
El problema de las RNN es que generan galimatías que parecen código válido pero que en realidad no funcionan. No tienen la capacidad de mantener grandes contextos y son muy lentos de entrenar, así que la idea de generar código automáticamente simplemente no era factible entonces.
Avanzando 10 años, todo lo que Gigster intentaba hacer ahora está disponible para todos. El progreso que han logrado Anthropic, Google y OpenAI en la generación de código es asombroso si te alejas de la vista. Lo que yo pensaba que era un sueño imposible ahora es realidad.
Populares
Ranking
Favoritas
