Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bilawal Sidhu
Google vient de découvrir une puissante capacité émergente dans Veo 3 - annoter visuellement vos instructions sur le cadre de départ, et Veo le fait pour vous !
Au lieu d'itérer sans fin sur le prompt parfait, en définissant des relations spatiales complexes par des mots, vous pouvez simplement le dessiner comme vous le feriez pour un artiste humain.
Cette capacité appelle à une expérience utilisateur appropriée, mais pour l'instant, amusez-vous à griffonner dans votre application de choix, et utilisez "cadres vers vidéo" dans Google Flow.
152,07K
Bientôt, votre iPhone utilisera FaceID pour s'assurer que c'est bien vous qui utilisez votre appareil pendant que vous faites défiler, interagissez et publiez.
Apple est particulièrement bien placé pour faire tout cela sur l'appareil de manière à préserver la vie privée.
Les fonctionnalités "sensibles à l'attention" sont déjà un pas dans cette direction : votre iPhone prend une photo infrarouge basse résolution toutes les quelques secondes pour vérifier votre regard afin de voir si vous faites attention à l'écran.
La prochaine étape serait de faire savoir à une application que c'est bien vous, ou simplement qu'il s'agit d'un véritable humain utilisant l'appareil, et non d'un bot.

Balaji23 juil., 03:37
Un type important de réseau social sera celui où aucun bot n'est autorisé.
8,34K
Combiner le contrôle explicite des logiciels 3D avec la créativité des modèles d'IA générative est un flux de travail prometteur mais sous-estimé.
Construisez vos scènes 3D de manière procédurale en les décrivant en langage naturel, puis emmenez-les jusqu'au bout avec vos modèles d'image et de vidéo de choix.
Des outils comme intangible sont conçus autour d'un tel flux de travail afin que vous n'ayez pas besoin de bricoler des applications ensemble. Plutôt cool !
35,94K
SceneScript considère la reconstruction 3D comme un problème de langage plutôt que de géométrie.
Le modèle regarde une vidéo d'une pièce et apprend simplement à écrire un script pour cela. Il génère de manière autoregressive des commandes textuelles comme make_wall(...) ou make_bbox(...) qui définissent la scène.
Le nouveau papier "Scene Language" de Stanford va encore plus loin en ajoutant des embeddings CLIP pour capturer l'apparence visuelle également.
Le fait que les modèles de langage comprennent déjà les relations spatiales suffisamment bien pour écrire des graphes de scène est assez incroyable.
100,45K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables