Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bilawal Sidhu
Google ha appena scoperto una potente capacità emergente in Veo 3 - annota visivamente le tue istruzioni sul fotogramma iniziale, e Veo lo fa per te!
Invece di iterare all'infinito per trovare il prompt perfetto, definendo complesse relazioni spaziali a parole, puoi semplicemente disegnarlo come faresti per un artista umano.
Questa capacità chiede a gran voce un UX adeguato, ma per ora puoi semplicemente scarabocchiare nella tua app preferita e utilizzare "fotogrammi in video" in Google Flow.
152,06K
Presto il tuo iPhone utilizzerà FaceID per assicurarsi che sia davvero tu a usare il dispositivo mentre scorri, interagisci e pubblichi.
Apple è in una posizione unica per fare tutto questo sul dispositivo in modo da preservare la privacy.
Le funzionalità "attenzione consapevole" sono già un passo in questa direzione: il tuo iPhone scatta una foto infrarossa a bassa risoluzione ogni pochi secondi per controllare il tuo sguardo e vedere se stai prestando attenzione allo schermo.
Il passo successivo sarebbe far sapere a un'app che sei davvero tu, o semplicemente che è un essere umano reale a utilizzare il dispositivo, e non un bot.

Balaji23 lug, 03:37
Un tipo importante di rete sociale sarà quello in cui non sono assolutamente permessi bot.
8,33K
Combinare il controllo esplicito del software 3D con la creatività dei modelli di intelligenza artificiale generativa è un flusso di lavoro promettente ma sottovalutato.
Costruisci le tue scene 3D in modo procedurale descrivendole in linguaggio naturale, poi portale fino in fondo con i tuoi modelli di immagini e video preferiti.
Strumenti come intangible sono costruiti attorno a un flusso di lavoro del genere, così non devi unire app con il nastro adesivo. Davvero interessante!
35,93K
SceneScript tratta la ricostruzione 3D come un problema di linguaggio piuttosto che di geometria.
Il modello osserva un video di una stanza e impara semplicemente a scrivere un copione per essa. Genera autoregressivamente comandi testuali come make_wall(...) o make_bbox(...) che definiscono la scena.
Il nuovo documento "Scene Language" di Stanford fa un passo ulteriore aggiungendo le embedding CLIP per catturare anche l'aspetto visivo.
Il fatto che i modelli di linguaggio comprendano già le relazioni spaziali abbastanza bene da scrivere grafi di scena è piuttosto sorprendente.
100,44K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari