Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

S.Y. Lee Story/IP
AI berjalan di IP. Story membuat IP dapat diprogram. Salah satu pendiri, Story
Bersemangat untuk membagikan peluncuran @psdnai kami, yang diinkubasi oleh @StoryProtocol dan hanya mungkin oleh IP yang dapat diprogram @StoryProtocol!

Bloomberg TV11 jam lalu
ScaleAI harus membuat "sweatshop digital" untuk pelabelan data AI, kata @storysylee, Presiden startup @psdnai. Dia menjelaskan mengapa pendekatan insentif kripto Poseidon bekerja lebih baik untuk pelatihan data
2,05K
Bersemangat berbagi peluncuran @psdnai kami, diinkubasi oleh @StoryProtocol dan hanya mungkin oleh IP yang dapat diprogram @StoryProtocol!

Bloomberg TV11 jam lalu
ScaleAI harus membuat "sweatshop digital" untuk pelabelan data AI, kata @storysylee, Presiden startup @psdnai. Dia menjelaskan mengapa pendekatan insentif kripto Poseidon bekerja lebih baik untuk pelatihan data
5
Sangat berterima kasih atas dukungan berkelanjutan dari @cdixon dan @a16zcrypto !

Chris Dixon15 jam lalu
Dengan senang hati mengumumkan bahwa kami memimpin putaran awal senilai $15 juta di Poseidon, yang diinkubasi oleh @StoryProtocol dan sedang membangun lapisan data terdesentralisasi untuk mengoordinasikan penawaran dan permintaan untuk data pelatihan AI.
Generasi pertama model fondasi AI dilatih pada data yang tampaknya menjadi sumber daya yang tidak terbatas secara efektif. Saat ini, sumber daya yang paling mudah diakses seperti buku dan situs web sebagian besar telah habis, dan data telah menjadi faktor pembatas dalam kemajuan AI.
Sebagian besar data yang tersisa sekarang memiliki kualitas yang lebih rendah atau terlarang karena perlindungan IP. Untuk beberapa aplikasi AI yang paling menjanjikan — di seluruh robotika, kendaraan otonom, dan kecerdasan spasial — data bahkan belum ada. Sekarang sistem ini membutuhkan jenis informasi yang sama sekali baru: multi-sensorik, kaya akan kasus tepi, ditangkap di alam liar. Dari mana semua data dunia fisik ini akan berasal?
Tantangannya bukan hanya teknis - ini adalah masalah koordinasi. Ribuan kontributor harus bekerja sama dengan cara yang terdistribusi untuk mencari, memberi label, dan memelihara data fisik yang dibutuhkan AI generasi berikutnya. Kami percaya tidak ada pendekatan terpusat yang dapat secara efisien mengatur pembuatan dan kurasi data yang diperlukan pada tingkat skala dan keragaman yang diperlukan. Pendekatan terdesentralisasi dapat menyelesaikan hal ini.
@psdnai memungkinkan pemasok untuk mengumpulkan data yang dibutuhkan perusahaan AI, sambil memastikan keamanan IP melalui lisensi IP yang dapat diprogram Story. Ini berupaya membangun fondasi ekonomi baru untuk internet, di mana pembuat data mendapatkan kompensasi yang adil untuk membantu perusahaan AI menggerakkan sistem cerdas generasi berikutnya.
Tim Poseidon, yang dipimpin oleh Chief Scientist dan Cofounder @SPChinchali, membawa keahlian mendalam dalam infrastruktur AI. Sandeep adalah seorang profesor di UT Austin yang berspesialisasi dalam AI, robotika, dan sistem terdistribusi, dengan gelar PhD dari Stanford dalam AI dan sistem terdistribusi. Kepala Produk dan Cofounder @sarickshah menghabiskan satu dekade sebagai insinyur pembelajaran mesin, menskalakan produk AI untuk perusahaan besar di layanan keuangan, telekomunikasi, dan perawatan kesehatan.
Kami sangat senang dapat mendukung Poseidon dalam pekerjaannya untuk memecahkan salah satu hambatan paling kritis dalam pengembangan AI.

1,21K
S.Y. Lee Story/IP memposting ulang
<Cerita, Mendapatkan Momentum Baru>
Tokoh baru telah bergabung dengan @StoryProtocol, yang membentuk kembali industri konten melalui tokenisasi IP.
Dia adalah Sandeep Chinchali, seorang profesor di UT Austin dan ahli dalam AI, robotika, dan sistem terdistribusi.
Sandeep Chinchali, mantan peneliti NASA, mempelajari AI generatif dan robotika cloud di Stanford, dan saat ini menjadi profesor di UT Austin, berurusan dengan mengemudi otonom dan model pembelajaran mesin terdistribusi.
Selama penelitiannya, dia memasang kotak hitam langsung di kendaraan untuk mengumpulkan data dunia nyata, menganalisis pemandangan langka yang dikenal sebagai peristiwa 'ekor panjang'. Dia sangat menyadari pentingnya kualitas dan kelangkaan data dengan memberi label data ini dan melatih model AI ringan pada perangkat keras TPU pembelajaran mendalam.
Dalam prosesnya, dia mengajukan pertanyaan pada dirinya sendiri.
"Agar AI berfungsi dengan baik dalam kenyataan, ia membutuhkan data berkualitas, bukan hanya model. Dan untuk mengumpulkan data itu secara sukarela, diperlukan struktur insentif yang efektif."
Dia menemukan jawabannya di Story.
@StoryProtocol mendefinisikan data tidak hanya sebagai sumber daya tetapi sebagai IP, dan sedang membangun sistem penghargaan on-chain.
Pengumpulan data langka → Pelabelan → Sintesis → Pendaftaran on-chain → distribusi royalti
Setiap langkah dilacak secara transparan pada rantai. Profesor Sandeep menjelaskannya sebagai berikut.
"Saya mencatat adegan mengemudi langka yang ditangkap oleh kamera dasbor saya di Story, dan seorang teman melabelinya. Berdasarkan ini, AI menciptakan data sintetis, menghasilkan IP yang terhubung di setiap langkah, dan royalti secara otomatis didistribusikan ke semua kontributor."
Sebagai Chief AI Officer Story, Profesor Sandeep Chinchali akan memimpin strategi AI secara keseluruhan, infrastruktur data pembelajaran on-chain, dan desain sistem penghargaan data terdistribusi. Dia mendefinisikan nilai data sebagai berikut.
"Data adalah IP baru."
8,82K
S.Y. Lee Story/IP memposting ulang
Kami bertanya kepada @SPChinchali tentang peran IP di era AI.
"Pada dasarnya semua kumpulan data publik memiliki lisensi non-komersial.
"Terkadang model AI generatif yang membuat citra dapat dilatih pada data IP yang tidak aman dan mereka bahkan tidak dapat menggunakan data sintetis."
"Apa yang benar-benar @StoryProtocol fokuskan adalah model pondasi generasi berikutnya."
"Anda tidak bisa begitu saja mengikis data itu di internet."
7,36K
Tim tim pengembang agen AI

ØxG17 Jul, 23.55
🌱 Minggu lalu saya mengirimkan SaaS penuh dalam 3 hari. Enam bulan yang lalu itu akan memakan waktu 3 bulan.
Apa yang berubah? Saya belajar mengatur agen AI seperti tim pengembang.
Inilah buku pedoman lengkap saya + petunjuk yang tepat yang menghasilkan aplikasi produksi dari satu ide 🧵👇
1,51K
S.Y. Lee Story/IP memposting ulang
Saya telah menghabiskan karir saya mengejar satu pertanyaan: Bagaimana kita mengumpulkan data yang tepat untuk membuat AI bekerja di dunia nyata?
Dari laboratorium Stanford hingga ruang kelas UT Austin, saya mencari di mana-mana. Jawabannya bukanlah lab AI lain, tetapi blockchain yang dibangun untuk memperlakukan data sebagai IP. Itu sebabnya saya bergabung dengan @StoryProtocol sebagai Chief AI Officer mereka.
Di Stanford, saya mempelajari "robotika awan", bagaimana armada robot dapat menggunakan komputasi terdistribusi untuk belajar bersama. Saya bahkan memasang kamera dasbor di mobil saya untuk menyelesaikan ini:
Jika robot hanya dapat mengunggah 5-10% dari apa yang mereka lihat, bagaimana kita memilih data yang paling berharga?
Sebagian besar adalah rekaman jalan bebas hambatan yang membosankan. Tetapi <1% menangkap pemandangan langka: Waymo yang mengemudi sendiri, lokasi konstruksi, manusia yang tidak dapat diprediksi. Data "ekor panjang" itu membuat model lebih cerdas. Saya memberi label tangan, bahkan membayar layanan pelabelan Google Cloud untuk menganotasi rekaman saya dengan konsep khusus seperti "unit LIDAR" dan "kendaraan otonom", dan model terlatih yang berjalan pada TPU berukuran USB. Tapi akademisi hanya sejauh ini.
Di UT Austin, pertanyaan saya bergeser:
→ Bagaimana cara mengumpulkan data langka untuk meningkatkan ML?
→ Sistem insentif apa yang sebenarnya berfungsi?
Itu menarik saya ke kripto – blockchain, ekonomi token, bahkan DePIN. Saya menulis blog, menulis makalah tentang ML terdesentralisasi, tetapi masih bertanya-tanya: siapa yang sebenarnya membangun infrastruktur ini?
Secara kebetulan, saya bertemu dengan tim Story. Saya diundang untuk memberikan ceramah di kantor Palo Alto mereka. Saat itu jam 6 sore, kamar masih penuh sesak. Saya mengoceh tentang "Neuro-Symbolic AI" dan diakhiri dengan slide berjudul "A Dash of Crypto." Pembicaraan itu berubah menjadi peran penasihat, yang sekarang berubah menjadi sesuatu yang jauh lebih besar.
Kami berada di momen penting. Komputasi sebagian besar terpecahkan. Arsitektur model disalin dalam semalam. Parit yang sebenarnya adalah data.
Tidak tergores Reddit. Bukan bahasa tanpa akhir. Tetapi data dunia nyata yang dibersihkan hak, ekor panjang, yang melatih AI yang terwujud – robot, AV, sistem yang menavigasi dunia kita yang berantakan.
Bayangkan ini: Saya menangkap adegan mengemudi langka di dashcam & mendaftarkannya di Story. Seorang teman melabelinya. Agen AI membuat varian sintetis. Pada rantai berstruktur grafik Story, masing-masing menjadi IP tertaut. Royalti mengalir kembali secara otomatis. Semua orang dibayar, setiap langkah dapat dilacak secara on-chain.
Itulah sebabnya saya sekarang menjadi Chief AI Officer di Story yang membangun rel untuk data pelatihan yang terdesentralisasi dan dibersihkan IP. Saatnya menjadikan data sebagai IP baru. Cerita adalah tempat untuk melakukannya.
Masih banyak lagi yang akan segera datang. Ayo.



32,52K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal