PandIA is now for sale. For inquiries, please contact us.

PandIA

Google DeepMind : Un modèle de langage IA génère désormais des descriptions pour YouTube Shorts

Google DeepMind : Un modèle de langage IA génère désormais des descriptions pour YouTube Shorts
Google DeepMind : Un modèle de langage IA génère désormais des descriptions pour YouTube Shorts

Google a récemment fusionné DeepMind et Google Brain en une seule grande équipe d'IA. Mercredi dernier, le nouveau Google DeepMind a partagé des détails sur l'utilisation d'un de ses modèles de langage visuel (VLM) pour générer des descriptions pour YouTube Shorts. Cette avancée pourrait aider à améliorer la découvrabilité de ces courtes vidéos.

0:00
/

Qu'est-ce que YouTube Shorts ?

YouTube Shorts est une nouvelle plateforme de vidéos courtes, similaire à TikTok. Les utilisateurs peuvent créer et partager des vidéos de 15 secondes avec des outils de création faciles à utiliser. Cependant, comme ces vidéos sont créées en quelques minutes, elles n'incluent souvent pas de descriptions et de titres utiles, ce qui les rend plus difficiles à trouver par la recherche.

Comment fonctionne le modèle de langage visuel de Google DeepMind ?

Le modèle de langage visuel de Google DeepMind, appelé Flamingo, peut générer ces descriptions en analysant les premières images d'une vidéo pour expliquer ce qui se passe. Par exemple, il pourrait décrire une vidéo comme "un chien équilibrant une pile de biscuits sur sa tête". Ces descriptions textuelles sont stockées comme métadonnées pour "mieux catégoriser les vidéos et faire correspondre les résultats de recherche aux requêtes des spectateurs".

"Flamingo peut générer ces descriptions en analysant les premières images d'une vidéo pour expliquer ce qui se passe."

Pourquoi est-ce important ?

Cette nouvelle fonctionnalité résout un véritable problème. Pour les Shorts, les créateurs n'ajoutent parfois pas de métadonnées parce que le processus de création d'une vidéo est plus simplifié que pour une vidéo de format plus long. De plus, comme les Shorts sont principalement regardés sur un flux où les gens se contentent de faire défiler jusqu'à la vidéo suivante au lieu de les rechercher activement, il n'y a pas autant d'incitation à ajouter des métadonnées.

"Ce modèle Flamingo - la capacité de comprendre ces vidéos et de nous fournir un texte descriptif - est vraiment très précieux pour aider nos systèmes qui recherchent déjà ces métadonnées." - Todd Sherman, directeur de la gestion des produits pour Shorts.

Conclusion

En conclusion, l'arrivée de Flamingo marque une étape importante dans l'évolution de l'intelligence artificielle et de son application à la plateforme YouTube. Cette technologie pourrait avoir un impact significatif sur la façon dont les vidéos sont découvertes et consommées sur la plateforme.

Source : DeepMind

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter