Comment garder son esprit critique à l’ère de l’intelligence artificielle

Apprenez à développer et maintenir votre esprit critique face à l'avènement de l'intelligence artificielle générative et à identifier les pièges des fake news et deepfakes modernes.

Détails de la leçon

Description de la leçon

Dans cette leçon, nous explorons les risques et défis que pose l'intelligence artificielle dans la distinction entre le réel et le virtuel. Grâce à des exemples concrets comme l’affaire MATA contre Avianca et des analyses techniques sur la création de deepfakes, cette vidéo offre aux spectateurs des outils simples et efficaces pour détecter les manipulations d’images, de texte et de sons produits par l’IA générative. La méthode STOP est décrite en détail pour valider les informations : questionner la source, rechercher la trace, analyser les intentions, et exiger des preuves.

Un focus est fait sur le fonctionnement technique des IA, qui ne connaissent pas la vérité mais opèrent via des probabilités. L’importance cruciale du rôle humain est rappelée, invitant à garder un regard critique et à ne jamais déléguer sans vérification finale. Des techniques concrètes permettent d’identifier les erreurs courantes des IA, telles que des anomalies dans les mains, le regard ou le texte dans les images. Enfin, cette leçon incite à adopter une posture éthique de validation systématique, essentielle pour lutter contre la désinformation à l’ère numérique.

Objectifs de cette leçon

L’objectif principal est de fournir une méthodologie pratique permettant de développer son esprit critique face aux productions de l’intelligence artificielle. La leçon vise à enseigner comment reconnaître les faux contenus, appliquer la méthode STOP et garantir une vérification rigoureuse des informations.

Prérequis pour cette leçon

Une culture numérique de base et une utilisation régulière d’Internet sont suffisantes. Aucune compétence technique avancée n’est requise, mais une curiosité sur les enjeux de l’intelligence artificielle est recommandée.

Métiers concernés

Les journalistes, community managers, responsables communication, enseignants, juristes, analystes en cybersécurité, ainsi que tout professionnel de la veille et de la gestion de l’information sont particulièrement concernés par ces enjeux.

Alternatives et ressources

En complément de la méthode STOP, il est possible d’utiliser des outils de vérification d’images tels que Google Images, TinEye, ou des modules d’analyse de deepfakes comme Deepware Scanner. Côté textes, l’usage de fact-checkers reconnus (AFP, Le Monde, CheckNews) est conseillé.

Questions & Réponses

Les IA génératives fonctionnent principalement comme des moteurs statistiques qui cherchent à prédire la suite la plus probable d’un texte, et non à délivrer des faits vérifiés. Lorsqu'elles rencontrent un domaine dans lequel elles manquent de connaissances, elles privilégient la cohérence formelle du texte, quitte à inventer des éléments plausibles, ce qui peut entraîner des erreurs ou des 'hallucinations'.
Il convient de prêter attention à la forme et au nombre des doigts, à la texture de la peau, à l’asymétrie et à l’expression du regard, ainsi qu’à la lisibilité ou la cohérence des textes en arrière-plan. Ce sont souvent des points faibles dans les images générées par IA.
La méthode STOP est un acronyme permettant de structurer une démarche de vérification d’information : S pour Source, T pour Trace, O pour Opinion, P pour Preuve. Elle aide à prendre du recul, à questionner la fiabilité d’un contenu et à éviter la diffusion de fausses informations.