Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

S.Y. Lee Story/IP
AI berjalan di IP. Story membuat IP dapat diprogram. Salah satu pendiri, Story
S.Y. Lee Story/IP memposting ulang
<Cerita, Mendapatkan Momentum Baru>
Tokoh baru telah bergabung dengan @StoryProtocol, yang membentuk kembali industri konten melalui tokenisasi IP.
Dia adalah Sandeep Chinchali, seorang profesor di UT Austin dan ahli dalam AI, robotika, dan sistem terdistribusi.
Sandeep Chinchali, mantan peneliti NASA, mempelajari AI generatif dan robotika cloud di Stanford, dan saat ini menjadi profesor di UT Austin, berurusan dengan mengemudi otonom dan model pembelajaran mesin terdistribusi.
Selama penelitiannya, dia memasang kotak hitam langsung di kendaraan untuk mengumpulkan data dunia nyata, menganalisis pemandangan langka yang dikenal sebagai peristiwa 'ekor panjang'. Dia sangat menyadari pentingnya kualitas dan kelangkaan data dengan memberi label data ini dan melatih model AI ringan pada perangkat keras TPU pembelajaran mendalam.
Dalam prosesnya, dia mengajukan pertanyaan pada dirinya sendiri.
"Agar AI berfungsi dengan baik dalam kenyataan, ia membutuhkan data berkualitas, bukan hanya model. Dan untuk mengumpulkan data itu secara sukarela, diperlukan struktur insentif yang efektif."
Dia menemukan jawabannya di Story.
@StoryProtocol mendefinisikan data tidak hanya sebagai sumber daya tetapi sebagai IP, dan sedang membangun sistem penghargaan on-chain.
Pengumpulan data langka → Pelabelan → Sintesis → Pendaftaran on-chain → distribusi royalti
Setiap langkah dilacak secara transparan pada rantai. Profesor Sandeep menjelaskannya sebagai berikut.
"Saya mencatat adegan mengemudi langka yang ditangkap oleh kamera dasbor saya di Story, dan seorang teman melabelinya. Berdasarkan ini, AI menciptakan data sintetis, menghasilkan IP yang terhubung di setiap langkah, dan royalti secara otomatis didistribusikan ke semua kontributor."
Sebagai Chief AI Officer Story, Profesor Sandeep Chinchali akan memimpin strategi AI secara keseluruhan, infrastruktur data pembelajaran on-chain, dan desain sistem penghargaan data terdistribusi. Dia mendefinisikan nilai data sebagai berikut.
"Data adalah IP baru."
6,63K
S.Y. Lee Story/IP memposting ulang
Kami bertanya kepada @SPChinchali tentang peran IP di era AI.
"Pada dasarnya semua kumpulan data publik memiliki lisensi non-komersial.
"Terkadang model AI generatif yang membuat citra dapat dilatih pada data IP yang tidak aman dan mereka bahkan tidak dapat menggunakan data sintetis."
"Apa yang benar-benar @StoryProtocol fokuskan adalah model pondasi generasi berikutnya."
"Anda tidak bisa begitu saja mengikis data itu di internet."
7,32K
Tim tim pengembang agen AI

ØxG17 Jul, 23.55
🌱 Minggu lalu saya mengirimkan SaaS penuh dalam 3 hari. Enam bulan yang lalu itu akan memakan waktu 3 bulan.
Apa yang berubah? Saya belajar mengatur agen AI seperti tim pengembang.
Inilah buku pedoman lengkap saya + petunjuk yang tepat yang menghasilkan aplikasi produksi dari satu ide 🧵👇
1,48K
<Babak berikutnya dimulai: Menyambut Sandeep Chinchali sebagai Chief AI Officer>
Minggu lalu, kami membagikan Story Chapter 2. Visi kami adalah membangun infrastruktur asli AI untuk ekonomi IP senilai tujuh puluh triliun dolar. Hari ini, visi itu bergerak maju.
Saya senang menyambut @SPChinchali sebagai Chief AI Officer kami.
Ketika saya pertama kali melihat latar belakang Sandeep (Stanford PhD, NASA JPL, PROFESOR UT Austin, insinyur awal di startup yang diakuisisi oleh VMware), saya mengharapkan profil akademis teknis yang saling mendalam. Yang menonjol adalah betapa jelasnya dia menghubungkan keahliannya dengan apa yang sebenarnya perlu dibangun.
Dia telah menghabiskan lebih dari satu dekade mengerjakan salah satu masalah tersulit AI: bagaimana menangkap dan menyusun data dunia nyata yang tepat untuk melatih sistem cerdas. Dia telah mengumpulkan dan memberi label data ekor panjang, melatih model pada perangkat edge, dan menghadapi keterbatasan yang sama yang sekarang dihadapi laboratorium AI. Keyakinannya pada kripto berasal dari pengalaman langsung. Dia melihatnya sebagai satu-satunya fondasi yang layak untuk insentif, asal, dan koordinasi dalam skala besar.
Seiring waktu, keyakinan itu menjadi lebih tajam. Setelah bertahun-tahun mengerjakan masalah ini di laboratorium robotika, di ruang kelas, dan di startup, Sandeep sampai pada kesimpulan yang jelas: menyelesaikannya membutuhkan sesuatu yang dibangun dengan tujuan. Ketika dia melihat apa yang telah kami bangun di Story, itu langsung klik. Ini adalah bagian yang hilang.
Dan dia membawa orang-orang bersamanya. Salah satu hal yang saya perhatikan sejak awal dalam percakapan kami adalah seberapa sering dia berbicara tentang murid-muridnya. Tidak hanya sepintas, tetapi dengan kebanggaan dan rasa ingin tahu yang nyata. Dia merujuk pada apa yang mereka bangun, apa yang membuat mereka bersemangat, pertanyaan apa yang mereka ajukan. Dan entah bagaimana, kisah-kisah itu selalu berputar kembali ke apa yang sedang kami kerjakan di Story. Kebiasaan menenun ide lintas orang dan disiplin ilmu itu tidak performatif. Hanya itu bagaimana dia berpikir.
Keingintahuan dan keterbukaan itu adalah bagian dari apa yang membuatnya menjadi komunikator yang kuat. Dia tidak mengurangi kompleksitas demi aksesibilitas. Dia membangun jembatan. Apakah dia berbicara dengan peneliti, pembangun, atau mitra, dia bertemu orang-orang di mana mereka berada dan membawa mereka ke depan.
Ini adalah jenis pola pikir yang sesuai dengan saat itu. Arah AI semakin jelas.
Persaingan tidak lagi tentang komputasi atau desain model. Komputasi terkonsentrasi. Model dikloning dalam beberapa minggu. Yang tetap langka adalah data: terutama data dunia nyata yang dibersihkan IP yang tidak dapat dikikis atau disimulasikan.
Dalam beberapa bulan terakhir, tim AI terkemuka telah datang kepada kami untuk mencari infrastruktur yang membuat data semacam ini dapat digunakan. Mereka menginginkan sistem di mana asal, izin, dan aliran royalti tertanam sejak awal.
Story adalah satu-satunya infrastruktur yang dirancang khusus untuk memungkinkan ini dalam skala besar.
Kami mendaftarkan data dunia nyata sebagai IP, melacak siklus hidup penuhnya mulai dari pengambilan hingga anotasi hingga pembuatan sintetis, dan merutekan royalti di semua kontributor.
Untuk memimpin upaya ini, kami membutuhkan lebih dari sekadar keahlian teknis. Kami membutuhkan seseorang yang dapat menandingi skala dan ambisi dari apa yang kami bangun: seseorang dengan kombinasi langka dari pemikiran sistem yang mendalam, pengalaman langsung, dan keingintahuan yang tulus.
Itu adalah Sandeep.
Dia telah membangun robotika, pembelajaran mesin, dan infrastruktur terdesentralisasi. Sama pentingnya, dia membawa keterbukaan dan kemurahan hati intelektual yang membuatnya menjadi penghubung. Dia mendengarkan dengan cermat, menarik wawasan lintas domain, dan membumikan semuanya dalam gambaran yang lebih besar. Kombinasi ketelitian, kejelasan, dan tujuan itulah yang dibutuhkan saat ini.
Sandeep akan memimpin strategi AI Story di seluruh penelitian, produk, dan pengembangan ekosistem, termasuk peluncuran primitif baru untuk data dan pelatihan terdesentralisasi.
Ini adalah langkah maju yang penting bagi Story. Kami percaya IP data akan menentukan era AI berikutnya. Dengan Sandeep di dalamnya, masa depan itu ada dalam jangkauan.
Mari kita bangun. Lebih banyak lagi yang akan datang minggu depan.

Sandeep Chinchali17 Jul, 23.00
Saya telah menghabiskan karir saya mengejar satu pertanyaan: Bagaimana kita mengumpulkan data yang tepat untuk membuat AI bekerja di dunia nyata?
Dari laboratorium Stanford hingga ruang kelas UT Austin, saya mencari di mana-mana. Jawabannya bukanlah lab AI lain, tetapi blockchain yang dibangun untuk memperlakukan data sebagai IP. Itu sebabnya saya bergabung dengan @StoryProtocol sebagai Chief AI Officer mereka.
Di Stanford, saya mempelajari "robotika awan", bagaimana armada robot dapat menggunakan komputasi terdistribusi untuk belajar bersama. Saya bahkan memasang kamera dasbor di mobil saya untuk menyelesaikan ini:
Jika robot hanya dapat mengunggah 5-10% dari apa yang mereka lihat, bagaimana kita memilih data yang paling berharga?
Sebagian besar adalah rekaman jalan bebas hambatan yang membosankan. Tetapi <1% menangkap pemandangan langka: Waymo yang mengemudi sendiri, lokasi konstruksi, manusia yang tidak dapat diprediksi. Data "ekor panjang" itu membuat model lebih cerdas. Saya memberi label tangan, bahkan membayar layanan pelabelan Google Cloud untuk menganotasi rekaman saya dengan konsep khusus seperti "unit LIDAR" dan "kendaraan otonom", dan model terlatih yang berjalan pada TPU berukuran USB. Tapi akademisi hanya sejauh ini.
Di UT Austin, pertanyaan saya bergeser:
→ Bagaimana cara mengumpulkan data langka untuk meningkatkan ML?
→ Sistem insentif apa yang sebenarnya berfungsi?
Itu menarik saya ke kripto – blockchain, ekonomi token, bahkan DePIN. Saya menulis blog, menulis makalah tentang ML terdesentralisasi, tetapi masih bertanya-tanya: siapa yang sebenarnya membangun infrastruktur ini?
Secara kebetulan, saya bertemu dengan tim Story. Saya diundang untuk memberikan ceramah di kantor Palo Alto mereka. Saat itu jam 6 sore, kamar masih penuh sesak. Saya mengoceh tentang "Neuro-Symbolic AI" dan diakhiri dengan slide berjudul "A Dash of Crypto." Pembicaraan itu berubah menjadi peran penasihat, yang sekarang berubah menjadi sesuatu yang jauh lebih besar.
Kami berada di momen penting. Komputasi sebagian besar terpecahkan. Arsitektur model disalin dalam semalam. Parit yang sebenarnya adalah data.
Tidak tergores Reddit. Bukan bahasa tanpa akhir. Tetapi data dunia nyata yang dibersihkan hak, ekor panjang, yang melatih AI yang terwujud – robot, AV, sistem yang menavigasi dunia kita yang berantakan.
Bayangkan ini: Saya menangkap adegan mengemudi langka di dashcam & mendaftarkannya di Story. Seorang teman melabelinya. Agen AI membuat varian sintetis. Pada rantai berstruktur grafik Story, masing-masing menjadi IP tertaut. Royalti mengalir kembali secara otomatis. Semua orang dibayar, setiap langkah dapat dilacak secara on-chain.
Itulah sebabnya saya sekarang menjadi Chief AI Officer di Story yang membangun rel untuk data pelatihan yang terdesentralisasi dan dibersihkan IP. Saatnya menjadikan data sebagai IP baru. Cerita adalah tempat untuk melakukannya.
Masih banyak lagi yang akan segera datang. Ayo.



10K
S.Y. Lee Story/IP memposting ulang
Saya telah menghabiskan karir saya mengejar satu pertanyaan: Bagaimana kita mengumpulkan data yang tepat untuk membuat AI bekerja di dunia nyata?
Dari laboratorium Stanford hingga ruang kelas UT Austin, saya mencari di mana-mana. Jawabannya bukanlah lab AI lain, tetapi blockchain yang dibangun untuk memperlakukan data sebagai IP. Itu sebabnya saya bergabung dengan @StoryProtocol sebagai Chief AI Officer mereka.
Di Stanford, saya mempelajari "robotika awan", bagaimana armada robot dapat menggunakan komputasi terdistribusi untuk belajar bersama. Saya bahkan memasang kamera dasbor di mobil saya untuk menyelesaikan ini:
Jika robot hanya dapat mengunggah 5-10% dari apa yang mereka lihat, bagaimana kita memilih data yang paling berharga?
Sebagian besar adalah rekaman jalan bebas hambatan yang membosankan. Tetapi <1% menangkap pemandangan langka: Waymo yang mengemudi sendiri, lokasi konstruksi, manusia yang tidak dapat diprediksi. Data "ekor panjang" itu membuat model lebih cerdas. Saya memberi label tangan, bahkan membayar layanan pelabelan Google Cloud untuk menganotasi rekaman saya dengan konsep khusus seperti "unit LIDAR" dan "kendaraan otonom", dan model terlatih yang berjalan pada TPU berukuran USB. Tapi akademisi hanya sejauh ini.
Di UT Austin, pertanyaan saya bergeser:
→ Bagaimana cara mengumpulkan data langka untuk meningkatkan ML?
→ Sistem insentif apa yang sebenarnya berfungsi?
Itu menarik saya ke kripto – blockchain, ekonomi token, bahkan DePIN. Saya menulis blog, menulis makalah tentang ML terdesentralisasi, tetapi masih bertanya-tanya: siapa yang sebenarnya membangun infrastruktur ini?
Secara kebetulan, saya bertemu dengan tim Story. Saya diundang untuk memberikan ceramah di kantor Palo Alto mereka. Saat itu jam 6 sore, kamar masih penuh sesak. Saya mengoceh tentang "Neuro-Symbolic AI" dan diakhiri dengan slide berjudul "A Dash of Crypto." Pembicaraan itu berubah menjadi peran penasihat, yang sekarang berubah menjadi sesuatu yang jauh lebih besar.
Kami berada di momen penting. Komputasi sebagian besar terpecahkan. Arsitektur model disalin dalam semalam. Parit yang sebenarnya adalah data.
Tidak tergores Reddit. Bukan bahasa tanpa akhir. Tetapi data dunia nyata yang dibersihkan hak, ekor panjang, yang melatih AI yang terwujud – robot, AV, sistem yang menavigasi dunia kita yang berantakan.
Bayangkan ini: Saya menangkap adegan mengemudi langka di dashcam & mendaftarkannya di Story. Seorang teman melabelinya. Agen AI membuat varian sintetis. Pada rantai berstruktur grafik Story, masing-masing menjadi IP tertaut. Royalti mengalir kembali secara otomatis. Semua orang dibayar, setiap langkah dapat dilacak secara on-chain.
Itulah sebabnya saya sekarang menjadi Chief AI Officer di Story yang membangun rel untuk data pelatihan yang terdesentralisasi dan dibersihkan IP. Saatnya menjadikan data sebagai IP baru. Cerita adalah tempat untuk melakukannya.
Masih banyak lagi yang akan segera datang. Ayo.



32,51K
Tunggu sampai apa yang dibawa oleh kemitraan ini lebih lanjut

World Chain13 Jul, 00.24
☀️ Minggu ini di World Dev Summer:
🔸 Mitra dunia dan @StoryProtocol
🔸 46 Aplikasi Mini yang dikirimkan di @ETHGlobal Cannes
🔸 194 ribu manusia memverifikasi ID Dunia mereka
🔸 @SuccinctLabs bukti validitas pilot di World Chain




3,97K
Sebuah perusahaan yang merupakan infrastruktur untuk komputasi baru saja mencapai kapitalisasi pasar $4 triliun. Bagaimana dengan infrastruktur yang memberikan hak kepemilikan data dengan mendaftarkan dan melisensikan data tersebut? Mengubah data menjadi IP?

Sandeep Chinchali11 Jul, 13.46
Super sharp move by the Story team. Data and labels are quickly emerging as the most valuable form of IP in AI, as models become open source and architectures commoditize.
5,84K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal