Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bilawal Sidhu
Google hat gerade eine leistungsstarke emergente Fähigkeit in Veo 3 entdeckt - visuelle Annotation deiner Anweisungen im Startbild, und Veo macht es einfach für dich!
Anstatt endlos an dem perfekten Prompt zu iterieren und komplexe räumliche Beziehungen in Worten zu definieren, kannst du es einfach zeichnen, wie du es für einen menschlichen Künstler tun würdest.
Diese Fähigkeit schreit nach einer ordentlichen UX, aber für den Moment kritzel einfach in deiner bevorzugten App und benutze "Frames zu Video" in Google Flow.
152,06K
Bald wird dein iPhone FaceID verwenden, um sicherzustellen, dass tatsächlich du dein Gerät benutzt, während du scrollst, interagierst und postest.
Apple ist einzigartig positioniert, um dies alles geräteintern auf eine datenschutzfreundliche Weise zu tun.
„Aufmerksamkeitserkennende“ Funktionen sind bereits ein Schritt in diese Richtung – dein iPhone macht alle paar Sekunden ein niedrig aufgelöstes Infrarotfoto, um deinen Blick zu überprüfen und zu sehen, ob du auf den Bildschirm achtest.
Der nächste Schritt wäre, einer App mitzuteilen, dass tatsächlich du es bist, oder einfach, dass ein echter Mensch das Gerät benutzt und kein Bot.

Balaji23. Juli, 03:37
Eine wichtige Art von sozialem Netzwerk wird eines sein, in dem überhaupt keine Bots erlaubt sind.
8,34K
Die Kombination der expliziten Kontrolle von 3D-Software mit der Kreativität von generativen KI-Modellen ist ein vielversprechender, aber unterschätzter Workflow.
Erstellen Sie Ihre 3D-Szenen prozedural, indem Sie sie in natürlicher Sprache beschreiben, und bringen Sie sie dann mit Ihren bevorzugten Bild- und Videomodellen bis zum Ende.
Werkzeuge wie intangible sind um einen solchen Workflow herum aufgebaut, sodass Sie keine Apps zusammenkleben müssen. Ziemlich cool!
35,94K
SceneScript behandelt die 3D-Rekonstruktion als ein Sprachproblem und nicht als ein geometrisches.
Das Modell sieht sich ein Video eines Raumes an und lernt einfach, ein Skript dafür zu schreiben. Es gibt autoregressiv Textbefehle wie make_wall(...) oder make_bbox(...) aus, die die Szene definieren.
Das neue "Scene Language"-Papier von Stanford geht einen Schritt weiter und fügt CLIP-Embeddings hinzu, um auch das visuelle Erscheinungsbild zu erfassen.
Die Tatsache, dass Sprachmodelle bereits räumliche Beziehungen gut genug verstehen, um Szenengraphen zu erstellen, ist ziemlich verrückt.
100,44K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten