Comment repérer les vidéos générées par IA ?

Repérer les vidéos générées par IA, ce n’est pas toujours simple… et vous l’avez sûrement déjà remarqué. En effet, les taux de détection humaine pour les vidéos IA ne sont que de 24,5%. Autrement dit, nous nous trompons plus de 3 fois sur 4 ! Même les outils de détection IA ont leurs limites.

Heureusement, tout n’est pas sombre. Même si les nouveaux outils comme Sora 2 d’OpenAI ou Veo 3 de Google repoussent les limites du réalisme, ils laissent encore quelques traces derrière eux. Et c’est une bonne nouvelle : avec les bons réflexes, vous pouvez garder une longueur d’avance. Alors, voyons ensemble comment repérer les vidéos générées par IA.

1. Les mains

Commençons par le plus simple : les mains. L’IA a encore beaucoup de mal avec elles. Vraiment beaucoup. Et ce n’est pas surprenant : nos mains sont incroyablement complexes. Elles ont 27 os, des mouvements précis, des gestes qui changent d’une personne à l’autre. Bref, un cauchemar pour l'IA.

Alors, prenez un moment pour regarder les mains dans la vidéo. Vous voyez six doigts ? Des doigts collés entre eux ? Une main qui tient un objet comme si elle n’avait jamais vu cet objet de sa vie ? C’est souvent un signe clair de vidéo générée par IA. Parfois, les doigts se plient dans des angles impossibles ou traversent carrément les objets.

2. Le visage

L’IA est très forte pour créer des visages. Parfois même trop forte. Elle peut inventer un visage ultra réaliste… mais qui n’existe pas. Et c’est justement là que vous pouvez repérer le truc.

Voici les points à surveiller :

Les yeux et le clignement

Les premiers deepfakes ne clignaient presque pas. Aujourd’hui, c’est beaucoup mieux, mais il reste des signes. Le clignement est-il naturel ? Les yeux bougent-ils de manière fluide ? Les ombres autour des yeux sont-elles cohérentes ?

Si quelque chose semble “robotique”, prenez ça comme un indice.

Les micro-expressions

Notre visage bouge tout le temps : petits sourires involontaires, sourcils qui réagissent, légères asymétries. L’IA copie ces mouvements, mais souvent mal. Si les expressions semblent rigides, lentes ou “vides”, méfiez-vous.

Le petit malaise difficile à expliquer

Parfois, tout semble normal… mais quelque chose cloche. C’est ce qu’on appelle “la vallée dérangeante” : un visage presque humain, mais pas assez. Si votre instinct vous dit que ça sonne faux, écoutez-le.

La synchronisation des lèvres

Regardez les lèvres de près. Est-ce qu’elles suivent vraiment la voix ? Même un tout petit décalage s’entend et se voit. Si les mouvements ne collent pas parfaitement au son, c’est un gros signal d’alarme.

3. La physique

Même les modèles récents comme Sora 2 sont beaucoup meilleurs pour respecter la physique… mais ils font encore des erreurs.

Par exemple, les objets qui se traversent : une main qui passe à travers un mur, quelqu’un qui se fond dans un meuble ou disparaît bizarrement en arrière-plan ? Ce n’est pas de la magie, c’est l’IA qui bug.

Ensuite, les mouvements contre nature : un objet qui tombe trop lentement, quelqu’un qui semble flotter, ou une trajectoire complètement irréaliste. Même si Sora 2 gère mieux les lois de la physique, il reste des ratés.

Enfin, les interactions ratées : regardez comment les gens manipulent les objets. Quelqu’un qui “mange” mais où la nourriture ne touche jamais vraiment sa bouche ? C’est un signe clair qu’il s’agit d’une vidéo générée par IA.

4. Les détails qui trahissent

Même les vidéos les plus réalistes laissent des indices si on sait où regarder. Parfois, un objet a une ombre et un autre juste à côté n’en a pas. La lumière peut vaciller sans raison, et l’IA peine encore à créer un éclairage naturel et cohérent.

Le bruit dans l’image est aussi un indice : cheveux fins, feuilles ou herbes, si ça paraît granuleux là où ce ne serait pas le cas avec une vraie caméra, méfiez-vous.

Et puis il y a l’arrière-plan, où se cachent beaucoup de défauts. Il faut suivre la vidéo attentivement : parfois le titre d’une enseigne change d’un plan à l’autre, une fenêtre disparaît, ou la couleur des vêtements des personnes à l’arrière-plan change subtilement. Ces petits détails sont souvent les signes les plus fiables qu’une vidéo a été générée par IA.

Enfin, regardez les cheveux et la barbe : si une barbe disparaît ou change de forme, ou si les cheveux bougent de façon étrange, c’est encore un indice d’IA.

5. Les comportements humains absents

Nous, les humains, on fait plein de petits trucs inconscients : tapoter un stylo, se gratter le nez, ajuster nos lunettes, faire des gestes qui n'ont aucun rapport avec ce qu'on dit... Ce sont ce qu'on appelle les "adaptateurs".

L'IA peut reproduire des mouvements, mais elle ne comprend pas pourquoi on fait ces petits gestes. Du coup, soit ils sont absents, soit ils semblent... bizarres. Quelqu'un qui tient un stylo d'une façon totalement improbable, par exemple.

Le mouvement trop parfait : paradoxalement, des mouvements trop fluides, trop parfaits peuvent être suspects. La réalité est imparfaite. En effet, les vraies caméras tremblent un peu, les gens font des gestes maladroits. Si tout semble chorégraphié à la perfection, c'est peut-être parce que ça l'est... par un algorithme.

Le caméraman absent : mettez-vous à la place de la personne qui filme. Si quelqu'un filme simplement un bébé en train de faire quelque chose de dangereux, vous devez vous demander : pourquoi n'aident-ils pas le bébé qui est sur le point de se blesser ? Les modèles de vidéo IA, parce qu'il n'y a pas de personne réelle derrière la caméra, ne font pas réagir l'opérateur comme un humain le ferait. C'est un indice majeur.

6. Le contexte, votre meilleur allié

Au-delà des détails techniques, votre bon sens reste la meilleure arme. D’où vient la vidéo ? Un média reconnu ou un compte anonyme avec des chiffres dans le nom ? Méfiez-vous.

Regardez le profil du créateur : publie-t-il des vidéos très variées ou répète-t-il toujours le même scénario ? Trop de contenus différents ou répétitifs, c’est un signal d’alerte.

Pensez aux formats viraux : TikTok et Reels regorgent de vidéos répétitives, souvent copiées par l’IA pour faire le buzz. Et la logique de la situation compte aussi : un cheval qui détruit des voitures au lieu de les contourner ? L’IA privilégie le spectaculaire plutôt que le réel.

Enfin, vérifiez les faits : un vrai événement apparaît sous plusieurs angles et dans plusieurs sources fiables. Si Le Monde, Le Parisien ou Reuters n’en parlent pas, il y a probablement une raison.

7. Les outils à votre disposition

Vous n'avez pas besoin d'être un expert pour vérifier une vidéo :

  • La recherche d'image inversée : prenez une capture d'écran de la vidéo et utilisez Google Images ou TinEye pour voir si cette image existe ailleurs, dans un autre contexte.
  • Les métadonnées : si vous pouvez accéder aux métadonnées du fichier (date, appareil utilisé...), vérifiez qu'elles sont cohérentes. Les vidéos IA manquent souvent de ces informations ou présentent des incohérences.
  • Les détecteurs IA : des outils comme les détecteurs de vidéos IA peuvent analyser les incohérences visuelles. Cependant, la précision peut chuter jusqu'à 50% face à de nouveaux deepfakes du monde réel. Ces outils ne sont donc pas infaillibles à 100%.

Conclusion

Gardez à l’esprit que l’IA progresse constamment. Les indices d’aujourd’hui pourraient ne plus fonctionner demain. C’est la dure réalité. À vrai dire, les indicateurs techniques que nous utilisons actuellement disparaissent à une vitesse vertigineuse.

Mais le principe reste le même : restez vigilant, faites confiance à votre instinct et vérifiez toujours avant de croire.

À propos de l'expert

Ahmed el jaouari

Ahmed EL JAOUARI

Ahmed, fondateur de la plateforme FunInformatique, est diplômé en ingénierie des systèmes informatiques et passionné par la cybersécurité. Avec sa plateforme, il propose des guides pratiques et des tutoriels visuels visant à rendre les technologies numériques accessibles à tous, même aux débutants.

Questions & Réponses

Posez votre question