Cinematic Moments utilise le machine learning pour animer des images dans Google Photos

Par

le

Présentée par Google lors de sa dernière Google I/O, la fonction Cinematic Moments a pour objectif d’animer des clichés.

Lors de l’événement I / O de Google mardi, le vice-président de Google Photos, Shimrit Ben-Yair, a montré comment l’entreprise utilise le machine learning pour améliorer leur service Google Photos. Une amélioration s’appuie sur «Cinematic Photos», une fonctionnalité lancée l’année dernière qui ajoute un effet tridimensionnel aux images. À partir de cette fondation, Google a créé «Cinematic Moments».

Cinematic Moments crée une photo animée à partir de plusieurs images fixes, des photos d’un enfant sautant sur un trampoline, par exemple. Les algorithmes de machine learning prennent les deux photos, disons une avec l’enfant debout sur le trampoline et une dans les airs, et insèrent plusieurs images entre les deux pour créer une image en mouvement du saut.

De nombreux exemples fournis par Google (ci-dessous) ressemblent à l’effet Ken Burns à première vue, mais en y prêtant plus attention, vous pouvez voir les animations, qui vont de subtiles à dramatiques. Les résultats sont quelque peu effrayants. Ils ont l’air assez réalistes, mais quelque chose à leur sujet ne semble pas tout à fait correct.

MyHeritage a obtenu un effet similaire récemment, en utilisant l’IA pour animer des photos des ancêtres des gens. Ce processus n’a besoin que d’une seule image. Cependant, l’animation est réalisée grâce à la technologie deepfake utilisant des vidéos d’acteurs en direct pour animer le visage dans l’image fixe.

Google n’a pas précisé quand Cinematic Moments serait déployé, mais a déclaré qu’il serait disponible à la fois sur Android et iOS. Ben-Yair a également noté que le processus fonctionne également avec les photos numérisées. Les utilisateurs ne sont donc pas liés uniquement aux photos prises avec leur téléphone.


Articles recommandés