Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Javi Lopez ⛩️
"Oprogramowanie stanie się towarem, jak elektryczność, i będzie działać bezpośrednio w warstwie LLM."
Co to w ogóle znaczy? Rozłożę to na czynniki pierwsze (długi post nadchodzi 🍿) i gdy skończysz, nie będzie żadnego środka. Albo całkowicie odrzucisz tę ideę (i się mylisz), albo wyjdziesz jako konwertyta, a ja powitam cię w moim kulcie 😂
Wczorajszy post, w którym powiedziałem, że widzę to bardzo wyraźnie w niedalekiej przyszłości, wzbudził wiele szumu i pytań. Więc zamierzam rozwinąć pomysł, który dzielę się tutaj (i z każdym, kto nie nudzi się mną poza X, jestem już zmęczony sobą w tym momencie) od ponad roku. Zaczynajmy.
1. 'Wszystkie oprogramowanie będzie działać w warstwie LLM'
Po pierwsze, oczywiste.
Nawet dzisiaj są ludzie, którzy, niewiarygodnie, wciąż zaprzeczają, że zmierzamy w kierunku świata, w którym całe oprogramowanie (frontend, backend, infrastruktura itp.) jest tworzone za pomocą zwykłego języka naturalnego.
W rzeczywistości, jesteśmy już prawie tam z LLM-ami takimi jak Claude, Grok czy ChatGPT oraz narzędziami takimi jak Cursor, Windsurf czy Lovable. Każdy przyzwoity programista, którego znam, nie pisze już ani jednej linii kodu. Mówią w języku naturalnym i kierują chmarą agentów do budowy całej aplikacji, a potem tylko ją przeglądają (i kłócą się oraz błagają 🤣), aby AI dostarczyło ich wizję.
Ta część jest trywialna. Jeśli jeszcze tam nie jesteś, to dlatego, że nie chcesz być.
Następny skok jest znacznie większy i to tam nawet ludzie głęboko zanurzeni w AI patrzą na mnie z sceptycyzmem.
Nie będziemy potrzebować tej warstwy. Żadnego Pythona, żadnego HTML, żadnego C++, żadnego CSS, nic.
Wszystko (cała warstwa oprogramowania, logika, trwałość lub pamięć (nazywaj to bazą danych, jeśli chcesz, ale będzie to znacznie więcej niż to), będzie 'działać' bezpośrednio wewnątrz LLM.
Elon Musk podsumował to w zdaniu, które przejdzie do historii: "Każdy strumień bitów wejściowych do każdego strumienia bitów wyjściowych."
Jeśli znasz technologię, prawdopodobnie nie potrzebujesz więcej. Już to rozumiesz. Na wszelki wypadek, oto szybki przykład.
Dziś, jeśli chcemy zbudować upscaler jak Magnific, potrzebujemy:
- Logiki backendowej, kodu działającego na serwerze (w naszym przypadku Python)
- Bazy danych (Firebase, Postgres, Supabase, MySQL itp.)
- Warstwy frontendowej, tego, co widzi użytkownik: HTML, CSS, JavaScript
- Warstwy infrastruktury: chmurowe GPU, gdzie dzieje się magia i gdzie wywołujemy przepływy pracy za pomocą API
Co za cyrk!
I pewnie, możesz to w zasadzie zbudować już z Cursor + Claude. Ale języki programowania zostały zaprojektowane dla ludzi. Przyszłe AI ich nie będą potrzebować. Są zbędne. Parametr, który powinniśmy usunąć. Nieskuteczność.
Czy naprawdę myślisz, że to wszystko jest konieczne? Czy naprawdę myślisz, że wciąż będziemy robić takie rzeczy za 20 lat?
Nie. Przyszłe LLM, które trudno sobie dziś wyobrazić, ale które zobaczymy szybciej, niż myślisz, mogłoby zrobić zrzut ekranu dzisiejszego Magnific i, mając tylko ten obraz i kliknięcie lub przeciągnięcie myszką, wywnioskować, co musi zrobić dalej.
WYWNIOSEK, CO MUSI ZROBIĆ DALEJ.
I nie mam na myśli, że potajemnie zbuduje frontend, backend i bazę danych pod maską (to średniowieczne). Mam na myśli, że dosłownie wygeneruje następny wizualny kadr do pokazania użytkownikowi. To mógłby być ten sam zrzut ekranu z suwakiem przesuniętym o 1 piksel w prawo i wyświetlanym obrazem z nieco bardziej szczegółowym upscalem.
Tak po prostu.
„Ale… ale… ale… Javi… gdzie dzieje się logika? Gdzie jest program, który to robi?”
Bezpośrednio wewnątrz LLM! W ten sam sposób, w jaki dzisiejsze modele mogą wziąć obraz i wygenerować pełne wideo z przyzwoitą fizyką, zrozumieją to, co obecnie nazywamy 'logiką biznesową' każdej aplikacji, niezależnie od tego, jak skomplikowana.
"Każdy strumień bitów wejściowych do każdego strumienia bitów wyjściowych."
Logika wyłaniająca się z samego modelu, a nie z ręcznie tworzonych kodów.
Teraz prawdopodobnie to rozumiesz. Jeśli nie, poświęć chwilę na przemyślenie tej idei, zanim przejdziesz do następnego punktu, nie pozwól, aby utknęła ci w gardle.
2. 'Oprogramowanie stanie się towarem, jak elektryczność'
I nie tylko oprogramowanie. Cała cyfrowa rozrywka również (filmy, gry wideo itp.). W czasie rzeczywistym.
Większość wartości technologii cyfrowej skoncentruje się w bardzo niewielu firmach. W tych, które wygrają wyścig multimodalnych LLM i w tych, które dostarczą infrastrukturę, na której będą działać. Wyobraź sobie świat, w którym powiedzenie 'Chcę SaaS, który to robi' lub 'zrób mi film w tym stylu z moim psem w roli głównej' daje ci natychmiastowy wynik z LLM o jakości znacznie wyższej niż najlepsze produkcje dzisiejsze.
W zasadzie myślę, że cała logika i warstwy wizualne będą działać na ultra-zaawansowanych LLM, które ledwo możemy sobie dziś wyobrazić. Nie będzie sensu budować aplikacji, stron czy rozrywki w sposób, w jaki robimy to teraz. Możliwość zrobienia tego skoncentruje się w firmach z najlepszymi LLM i mocą obliczeniową do ich uruchamiania na dużą skalę.
Będziemy wybierać dostawców AI głównie na podstawie ceny, a znacznie mniej na podstawie funkcji czy pojemności. Pomyśl o firmach elektrycznych dzisiaj, lub PS vs Xbox, jeśli zablokują jakieś interesujące IP.
3. 'Ale Javi, one nie są deterministyczne i nie mają pamięci. Nigdy nie zbudują przyzwoitych aplikacji w ten sposób'
Nazywanie tego niemożliwym jest krótkowzroczne. Oczywiście będą miały trwałość i pamięć. Tylko nie w prosty sposób 'jak baza danych', którego używamy dzisiaj.
4. 'Ok, ale jak w ogóle zbudowałbyś takiego LLM?'
Starannie 😂
Głównie z danymi syntetycznymi. Oto oczywisty pomysł, który wciąż jest dość rewolucyjny.
Ponieważ LLM i agenci są bliscy generowania aplikacji end-to-end (backend i frontend), możemy je instrumentować do budowy w zamkniętej pętli, z wyraźnymi celami i funkcjami nagradzającymi, rejestrując stany UI i dane wejściowe. Te trajektorie mogą zasilać trening przyszłych modeli bazowych.
Jeśli mogę o tym pomyśleć z moją ograniczoną wiedzą (nawet jeśli żadna duża firma publicznie nie powiedziała, że to robi), mogę założyć, że znacznie jaśniejsze umysły już nad tym pracują.
5. 'Jeśli to okaże się prawdą, jak zdobyć przewagę nad niewierzącymi?'
Już jesteś do przodu, jeśli masz rację w czymś takim. Na razie moim ruchem jest pozycjonowanie poprzez inwestycje, ustalając, które firmy skoncentrują większość mocy, blokując GPU i technologię. Później wrzucę link w wątku, chociaż może to być krótkowzroczne i skoncentrowane na tym, co istnieje dzisiaj. Najlepiej, co możesz zrobić, to śledzić grę dzień po dniu i być czujnym.
Jak to ląduje?
Jakiekolwiek pytania, chętnie odpowiem w komentarzach.

11,85K
brach...


Javi Lopez ⛩️9 godz. temu
Airbnbs, a mówię o naprawdę premium Airbnb, kiedyś były miejscami, gdzie płaciłeś mniej niż w hotelu i dostawałeś znacznie więcej, jak możliwość wcześniejszego zameldowania i późniejszego wymeldowania itd.
Teraz są znacznie droższe niż 5-gwiazdkowe hotele i zmuszają cię do wyniesienia śmieci pod groźbą kary, nie wpuszczą cię przed 16:00, wyrzucają o 10:00 i dają długą listę instrukcji, jak opuścić miejsce, mimo że płacisz 300 € za tzw. sprzątanie i 700 € dziennie za samo miejsce.


3,21K
Airbnbs, a mówię o naprawdę premium Airbnb, kiedyś były miejscami, gdzie płaciłeś mniej niż w hotelu i dostawałeś znacznie więcej, jak możliwość wcześniejszego zameldowania i późniejszego wymeldowania itd.
Teraz są znacznie droższe niż 5-gwiazdkowe hotele i zmuszają cię do wyniesienia śmieci pod groźbą kary, nie wpuszczą cię przed 16:00, wyrzucają o 10:00 i dają długą listę instrukcji, jak opuścić miejsce, mimo że płacisz 300 € za tzw. sprzątanie i 700 € dziennie za samo miejsce.


7,08K
Jutro wiadomości:
Lovable zabił OpenAI.
A wideo zabiło gwiazdę radia!

Javi Lopez ⛩️8 sie, 20:57
⚡ GPT-5 właśnie zabił Loveable.
Ostatecznie wszystkie warstwy oprogramowania będą działać bezpośrednio w LLM-ach.
Ogromna moc, jaką będą miały firmy AI z GPU oraz zdolność do ciągłego wydawania nowych LLM-ów, doprowadzi do absolutnych monopolii.
4,45K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi