Philip Clark (@PJClark), Thrive Capital (@ThriveCapital) Ortağı, OpenAI, Cursor, Fiziksel Zeka ve yarı iletken geçmişine dayalı yatırımlardan yararlanarak yapay zeka gelişiminin durumu hakkında üç büyük çıkarım sunuyor: 1.) Yapay zekanın atılımları doğrusal değildir. Mimari dalgalar halinde gelirler, tıpkı silikon gibi. Philip'in yarı iletken benzetmesi, yapay zeka ilerlemesini donanım benzeri paradigma değişimleri dizisi olarak yeniden çerçeveliyor. Bir yol sınırına ulaştığında (tek çekirdek → çok çekirdekli; ön eğitim → eğitim sonrası), yeni bir mimari ortaya çıkar. Yapay zeka kademeli ayarlamayla evrilmiyor.. yapısal yenilemelerle ilerliyor. 2.) Güçlendirme öğrenme bir sonraki mimari dönemdir (şimdilik) Philip, pekiştirici öğrenmeyi eğitimden sonrakı eğitimin halefi olarak çerçeveler: yeni bir temel, bir optimizasyon değil. Ama kritik olarak, bunun son olmayacağını vurguluyor. Donanımın tek çekirdekten çok çekirdekliye, oradan GPU'ya sıçraması gibi, yapay zeka birden fazla paradigma dalgası yaşayacak ve her biri yeni performans tavanlarını açacak. Pekiştirme öğrenmesi sadece bir sonraki dalgadır, son dalga değil. 3.) OpenAI'nin hendeği modeller değil.. Bir sonraki paradigmayı keşfetmeye devam edebilme yeteneği. Philip, temel avantajın ürünün üst akımında olduğunu savunuyor: büyük modellerdeki her büyük mimari atılım OpenAI'den kaynaklanıyor. Savunma güçleri, "bir sonraki şeyi" tekrar tekrar icat ederken aynı anda bir öncesini de işlevselleştirmelerinden kaynaklanıyor.. herhangi bir sektörde nadir bir kombinasyon, kesintisiz sıçrayışlarla tanımlanan bir kombinasyon. . . . Molly: "Sourcery'yi gururla destekleyen sponsorlardan biri @turingcom, bu yüzden yapay zeka araştırma tarafına maruz kaldım—bir yapay zeka araştırma hızlandırıcısı [CEO @jonsidd ile röportaj yaptık]. Modellere yardım ediyorlar. Ve şu anda, son bir iki çeyrekte taklit veri ve sentetik veriden pekiştirme öğrenmeye ciddi bir geçiş fark ediyorlar. Teknik tarafta ve uygulama tarafında nasıl gördüğünü merak ediyorum?" Philip: "Bence yapay zeka bir anlamda yarı iletkenlere biraz benziyor—eğer yarı iletkenlere geri dönmeme izin verilirse, büyük bir mihlatı. Yani daha iyi performans elde etmeye çalışırken çok, çok dalga var. Biliyorsunuz, yarı iletkenlerde eskiden tek çekirdekli yarı iletkenlerimiz vardı. Sonra tek bir çekirdekten daha fazlasını çıkaramıyoruz ve çok çekirdekli sisteme geçtik. Sonra GPU'lara geçtik. Ve bence yapay zeka ile de çok benzer bir şey görüyoruz; yani GPT-1, GPT-2, GPT-3 döneminde ön eğitimle başladık. Bu bizi GPT-4'e götürdü. Sonra ChatGPT için birçok eğitim sonrası teknik kullanmaya başladık—denetimli ince ayarlama, insan geri bildirimiyle pekiştirici öğrenme. Bu da modellerin daha az yabancı zekalar ve daha yardımsever asistanlar olmasını sağladı. Ve şimdi, bu kazanımların kolay alınan meyvelerinin çoğu sıkıldığında (muhtemelen hâlâ yapılacak çok şey olsa da), pekiştirme öğrenmesi yapay zekada bir sonraki büyük paradigma değişimi oldu ve birçok kaynağın gideceği yer....