---VIDÉOS, ARTICLES ET SUPPORTS-
---POUR ABORDER LES 'DEEP FAKES' EN COURS-
---L'intelligence artificielle générative offre des capacités extraordinaires, non seulement pour créer des images réalistes, mais aussi pour les modifier ou les falsifier. Cette section aborde l'utilisation cruciale de l'IA dans le contexte de l'éducation aux médias et à l'information (EMI) et de l'enseignement moral et civique (EMC).
Nous explorerons comment maîtriser ces outils peut aider à mieux dépister et déconstruire les "fake news" diffusées par d'autres. Apprendre à comprendre et à utiliser l'IA générative devient ainsi un geste essentiel pour promouvoir une citoyenneté responsable et informée.
À travers des exemples pratiques et des guides d'utilisation, nous fournirons les clés pour identifier les images manipulées et comprendre les mécanismes derrière leur création, renforçant ainsi notre capacité collective à discerner la vérité dans l'ère numérique.
-- ASMA MHALLA
-- FAKE NEWS
-- FAKE PROPOS
-- ACTUALITÉS -MAI 2024-
En début d'année, 800 sites web automatisés générant de fausses nouvelles via l'IA ont été identifiés, contre 150 en mars 2023.
Créer un tel site ne coûte désormais que 105 dollars, une forte baisse par rapport aux 500 dollars de l'année précédente. Cette expansion rapide et économiquement accessible des contenus synthétiques menace l'intégrité de notre environnement informationnel, posant des défis majeurs en termes de véracité et de valeur informative.
Les vidéos deepfake, utilisant l'intelligence artificielle pour créer des contenus vidéo très réalistes, représentent une menace croissante pour l'intégrité des processus électoraux.
Capables de manipuler l'apparence et les propos des candidats, ces vidéos peuvent semer la confusion et la désinformation parmi les électeurs, influençant ainsi indûment leurs opinions et choix. La vigilance et la réglementation sont essentielles pour protéger la démocratie contre ces manipulations potentiellement déstabilisatrices.
Ci-dessous, vous trouverez quelques exemples illustrant les technologies et méthodes employées, les possibilités offertes, la facilité d'accès ainsi que les menaces associées aux vidéos et manipulations générées par l'IA.
-- LES FRANÇAIS ET LES JEUNES FACE AUX DEEPFAKES -
-- Une étude de l'Ifop pour Alucare.fr sur les deepfakes a interrogé 2191 personnes, dont 551 jeunes de moins de 35 ans. Elle révèle que seulement 33% des Français pensent pouvoir identifier un contenu généré par IA, contre 55% chez les jeunes.
Cependant, confrontés à cinq deepfakes, 94% des participants se sont trompés au moins une fois. Malgré une meilleure connaissance des deepfakes chez les jeunes (83% en sont conscients), 46% des 18-24 ans admettent avoir partagé de tels contenus. Les deepfakes suscitent une inquiétude générale, 57% des Français craignant d'en être victimes, et cette préoccupation monte à 64% chez les plus jeunes. Concernant les implications politiques, 62% des Français redoutent l'usage de deepfakes dans les campagnes électorales, avec une préférence marquée (90%) pour l'ajout obligatoire d'une mention signalant l'origine artificielle des contenus.
-- SENSIBILISATION AUX DEEPFAKES ET À LEUR IMPACT POTENTIEL -
-- Cette vidéo examine les technologies que n'importe qui peut utiliser pour fabriquer des deep fakes.
Ces technologies permettent de créer des vidéos et des audios très réalistes de personnes en apparence en train de dire ou de faire des choses qu'elles n'ont pas réellement faites.
-- CONTENU DE LA VIDÉO
0:00 - Intro
1:07 - Deepfake à 24 millions d'€
2:27 - Deepfake de Cyprien
4:26 - Autres dangers de Deepfakes
5:38 - Créer une photo Deepfake
6:21 - Créer une vidéo Deepfake
7:25 - Cloner une voix avec ElevenLabs
8:52 - C'est bluffant !
9:37 - Créer un Clone IA avec HeyGen
13:09 - L'astuce en plus
14:02 - Je crée mon Deepfake
16:05 - Le futur du Deepfake
16:59 - Détecter un Deepfake
18:43 - La norme C2PA
20:00 - On découvre le résultat
- L'utilisation de la vidéo en cours :
Montrer comment l'intelligence artificielle peut imiter des individus.
Informer sur les risques liés à l'usage non contrôlé de ces technologies.
Examiner les cadres législatifs nécessaires pour prévenir les abus.
La vidéo présente des exemples de deepfakes, expliquant comment ils sont créés à partir de données numériques par des algorithmes d'apprentissage automatique.
Les deepfakes posent des défis éthiques et de sécurité, affectant la désinformation et la confiance dans les médias.
-- JOURNALISTES DISCUTENT AVEC LEURS JUMEAUX I.A. -
-- Reid Hoffman, pionnier dans le domaine de l'intelligence artificielle et cofondateur de LinkedIn, a récemment démontré une prouesse technologique aussi impressionnante qu’inquiétante.
Dans sa vidéo, Hoffman s'entretient avec une version IA de lui-même, créée à partir de son propre visage, corps, voix, et nourrie par deux décennies de ses podcasts, discours et ouvrages.
Cette réplique digitale, qui clone non seulement son apparence mais aussi sa pensée, pose des questions profondes sur la régulation, l'éthique et l'impact des IA sur l'emploi. Cette interaction, nommée "Hoffman sur Hoffman", illustre les potentielles applications des jumeaux numériques pour renforcer les liens humains, tout en soulevant des questions cruciales sur les limites éthiques de ces technologies. ARTICLE
- Joanna Stern, journaliste spécialisée dans la technologie pour le Wall Street Journal, a mené une expérience fascinante pour déterminer si un clone numérique pourrait la remplacer pendant une journée.
Développement de l'expérience :
Pour créer ce double numérique, Stern a utilisé les services de Synthesia pour cloner sa présence vidéo et Eleven Labs pour sa voix, cherchant à créer la réplique la plus fidèle possible pour seulement 1000 dollars pour la vidéo et 5 dollars par mois pour la voix.
Elle a ensuite mis son clone à l'épreuve dans plusieurs situations :
- Interview avec le patron de Snapchat : Le clone a réussi à tromper l'interviewé.
- Appel à sa sœur : Sa sœur a eu des doutes.
- Appel à sa banque : Le clone a passé avec succès l'analyse biométrique de la voix.
- Vidéo TikTok générée par ChatGPT : L'audience n'a pas été dupée.
- Conférence Zoom avec sa famille : Le clone a été rapidement identifié.
- Conclusion de l'expérience
L'expérience montre que si la technologie de clonage de la voix est déjà assez avancée pour tromper efficacement, la vidéo, bien que bluffante, n'est pas encore tout à fait prête à nous remplacer complètement.
- Implications et réflexions finales
Cette expérience soulève des questions importantes sur l'évolution des deepfakes audio et vidéo. Bien que ces technologies offrent des possibilités fascinantes pour la création de contenu et l'adaptation à de nouvelles audiences, elles posent également des défis en termes de sécurité et de détection. La capacité des clones IA à générer des contenus de valeur ajoutée reste limitée, mais ils peuvent déjà produire des contenus simples.
-- "REALTIME DEEPFAKES" : SÉCURITÉ INFORMATIONNELLE -
-- L'avènement des technologies d'intelligence artificielle générative, capable de modifier en temps réel l'apparence des individus dans des vidéos, atteint aujourd'hui un niveau de réalisme impressionnant. Ces avancées technologiques, bien que remarquables, présentent des risques significatifs, notamment en termes de sécurité informationnelle.
Il est impératif de reconnaître le potentiel de ces technologies à être utilisées dans des contextes frauduleux. Les techniques de deepfake peuvent faciliter des arnaques sophistiquées, par exemple en simulant des appels vidéo ou des messages audio d'individus en position d'autorité au sein d'une organisation. Ce type de manipulation peut persuader les victimes de divulguer des informations confidentielles ou de transférer des fonds à des acteurs malveillants.
Face à ces risques, une vigilance accrue et une éducation aux médias sont essentielles pour préparer les individus à identifier et à contrer ces menaces. Les institutions éducatives et les organisations doivent intégrer des stratégies proactives d'éducation aux médias et à l'information pour sensibiliser à la prolifération des fausses nouvelles et aux abus potentiels des deepfakes. Cette démarche est cruciale pour renforcer la résilience informationnelle et la sécurité au sein de nos sociétés.
-- Microsoft vient de présenter VASA-1, une nouvelle technologie conçue pour générer des visages parlants réalistes à partir d'une seule image statique et d'un enregistrement vocal !
VASA-1, le premier modèle lancé, offre une synchronisation avancée des mouvements des lèvres avec la parole, ainsi que des expressions faciales réalistes et des mouvements de tête.
VASA-1 produit des vidéos de haute qualité en temps réel à une résolution de 512x512 pixels, à 40 images par seconde (FPS) et ainsi améliore le réalisme des avatars numériques dans les interactions virtuelles.
Cette technologie représente une avancée significative dans le domaine des interactions numériques, facilitant la création d'avatars plus expressifs et dynamiques pour les conférences en ligne, les jeux vidéo et autres applications de réalité virtuelle. En utilisant VASA-1, les développeurs peuvent créer des personnages qui non seulement parlent de manière synchronisée avec l'audio, mais qui le font aussi avec des mouvements naturels et fluides, rendant l'expérience numérique beaucoup plus immersive.
- Lets get emotional
Le nouveau modèle de Synthesia permet aux avatars IA de simuler des émotions par rapport à un contexte.
-- CRÉATION D'INFLUENCEUR -
-- FRANCE : Amandine Le Pen ou l’IA au service de l’extrême droite
Dans l’univers numérique où les frontières entre le vrai et le faux deviennent de plus en plus floues, une nouvelle figure émerge sur TikTok en France : Amandine Le Pen.
-- MANIPULATION DE PERSONNES CONNUES -
-- Le deepfake, un art de plus en plus facile à utiliser.
L'émergence des deepfakes, ces vidéos ultra-réalistes générées par intelligence artificielle, soulève des questions cruciales, notamment dans le domaine politique.
Un récent exemple mettant en scène des hommes et femmes politiques français illustre parfaitement la facilité avec laquelle les images peuvent être manipulées, posant un risque potentiel de perturbation des processus électoraux.
Crédit : @ZgF_Shacoy
Cette technologie, bien que bluffante, nécessite une vigilance accrue de la part des citoyens et des autorités pour prévenir les abus. Heureusement, l'éducation joue un rôle clé : en enseignant aux élèves comment créer et détecter ces manipulations, nous les équipons mieux pour reconnaître et dénoncer les fausses informations. Cet article explore les implications des deepfakes en politique et souligne l'importance de l'éducation médiatique pour maintenir l'intégrité de nos démocraties.
-- Cette vidéo de 2022, mettant en scène Mark Zuckerberg et Elon Musk dans une séquence humoristique qui suit un sketch de Mr. Bean, bien que peu convaincante à l'époque, confirme la rapidité avec laquelle ces technologies évoluent.
En l'espace de seulement deux ans, les progrès dans le domaine des deepfakes sont notables, rendant les vidéos générées de plus en plus difficiles à distinguer de la réalité. Cet exemple illustre non seulement le potentiel créatif de ces outils, mais aussi le besoin impérieux de développer simultanément des méthodes de détection plus efficaces pour contrecarrer les risques associés à leur mauvais usage. La progression de ces technologies soulève des questions éthiques importantes, surtout lorsqu'elles touchent à des figures publiques et à des contextes politiques sensibles.
En seulement deux clics, une personne quelconque dans une vidéo en train de faire n'importe quoi peut être remplacée par une personne connue faisant la même chose.
- Cet article explique comment identifier une image générée par IA de Katy Perry au Met Gala comme étant fausse.
La chanteuse n'était pas présente à cet événement sur le tapis rouge à New York, mais des milliers de fans, y compris la propre mère de Mme Perry, ont cru que l'image était réelle.
Marianna Spring, correspondante pour la BBC spécialisée dans la désinformation et les réseaux sociaux, examine en détail cette fausse image et explique pourquoi cela est important au-delà de l'événement du tapis rouge. ARTICLE ET VIDEO
-- DESTRUCTION D'UNE RÉPUTATION -
- Dazhon Darien, directeur sportif au lycée de Pikesville, a été arrêté suite à la création d'un enregistrement audio raciste et faux attribué au principal de l'établissement, Eric Eiswert.
L'enregistrement, qui a circulé le 17 janvier, simulait la voix du principal se plaignant de manière offensante des élèves et du personnel, suscitant une réaction immédiate et outragée dans la communauté.
La police de Baltimore County, après avoir mené une investigation détaillée, a déclaré avoir des preuves concluantes que l'enregistrement était fabriqué. Des analyses forensiques, réalisées en collaboration avec le FBI et un analyste de l'Université de Californie à Berkeley, ont révélé des traces indiquant que le contenu avait été généré par intelligence artificielle. L'utilisation de modèles de langage avancés et de techniques d'apprentissage profond pour imiter la voix du principal a été identifiée.
Le chef de la police a indiqué que l'enregistrement avait été créé par Darien en représailles après que le principal eut lancé une enquête sur lui concernant la gestion douteuse de fonds scolaires totalisant 1 916 dollars. Outre cette enquête, le principal avait reproché à Darien de licencier un entraîneur sans son accord et avait mentionné que le contrat de Darien pourrait ne pas être renouvelé.
Darien a été appréhendé à l'aéroport international Baltimore-Washington alors qu'il tentait de voyager avec une arme déclarée emballée de manière suspecte. Les enquêteurs ont également découvert un mandat d'arrêt ouvert à son nom.
-- L'IA QUI S'INFILTRE DANS NOS SOUVENIRS ET NOS MÉMOIRES
-- Cette « photo » a été réalisée à partir de la mémoire d'une femme de 84 ans
Les progrès de l'IA générative, capables de créer des images à partir de souvenirs humains, sont aussi impressionnants que potentiellement inquiétants. Le projet "Synthetic Memories" utilise cette technologie pour matérialiser des souvenirs comme celui de Maria, 84 ans, qui se souvient de son père emprisonné pendant la guerre civile espagnole. Les images produites sont intentionnellement floues, capturant l'essence des souvenirs sans se focaliser sur des détails précis, ce qui pourrait altérer l'authenticité de la mémoire.
Bien que ces avancées offrent des applications positives, notamment pour les personnes souffrant de démence ou les réfugiés cherchant à revivre leur passé, elles soulèvent des questions éthiques importantes. La facilité avec laquelle l'IA peut manipuler des images ouvre la porte à des usages plus sinistres, tels que l'interrogation de prisonniers politiques ou de suspects, mettant en évidence le besoin crucial de réglementation et de surveillance rigoureuses dans ce domaine.
-- ASMA MHALLA
-- Dans cette vidéo la docteure en sciences politiques Asma Mhalla dévoile les défis et les opportunités que représente la montée en puissance de l'intelligence artificielle.
À travers cette interview, Mhalla alerte sur le manque flagrant de dirigeants capables de naviguer dans l'ère du choc technologique.
Elle plaide pour une prise de conscience urgente des implications de l'IA, soulignant la nécessité d'une réflexion éthique et stratégique pour guider notre société à travers les transformations induites par ces technologies.
-- CATHERINE DENEUVE EN DEEPFAKE AU SERVICE DE LA PUBLICITÉ -
-- La nouvelle campagne publicitaire de Cartier présente une montre élégante avec Catherine Deneuve comme figure centrale, emblème du raffinement à la française. Ce spot publicitaire unique intègre des personnages des films marquants de Deneuve, reproduits grâce à l'intelligence artificielle.
Le film, d'une durée de 60 secondes, se déroule sur le pittoresque pont Alexandre III à Paris, accompagné d'une mélodie jazz. L'acteur américain Rami Malek y fait un voyage temporel, rencontrant les avatars de Catherine Deneuve issus de ses films tels que "Les Parapluies de Cherbourg", "Indochine" et "Place Vendôme", tous créés par deepfake.
Emmanuelle Guillon, directrice internationale de la création et de la communication chez Cartier, explique la technique innovante utilisée pour réaliser ce film. De son côté, la critique de cinéma Murielle Joudet souligne comment le deepfake peut altérer notre perception des souvenirs cinématographiques.
-- VICTORIA SHI : PORTE PAROLE DE L'UKRAINE -
L'Ukraine a innové en désignant une intelligence artificielle comme porte-parole pour les affaires consulaires, nommée Victoria Shi. Annoncée le 1er mai 2024 par le ministère ukrainien des Affaires étrangères, cette personnalité numérique a pour vocation de lire des textes préparés par des humains.
Son nom, Victoria Shi, symbolise la "victoire" de l'Ukraine et son nom de famille signifie "IA" en ukrainien.
Sa première apparition a eu lieu dans une vidéo sur YouTube où elle se présente comme une entité numérique, utilisant l'apparence de l'ukrainienne Rosalie Nombre, célèbre pour sa participation à une télé-réalité. Des mesures, telles qu'un QR code, ont été mises en place pour certifier l'authenticité de ses déclarations, qui seront exclusivement liées aux affaires consulaires.
Le ministre Dmytro Kouleba souligne que cette initiative permet d'optimiser les ressources du ministère en laissant aux diplomates le temps de se concentrer sur d'autres tâches essentielles.
-- QUELQUES DEFINITIONS -
• Fabulations (ou hallucinations) : réponses incorrectes de l’IA générative qui ne sont pas basées sur les données d'entraînement.
• Baratin : réponses de l'IA qui ne sont pas concernées par la véracité des informations.
• Biais d'automatisation : tendance à surestimer et accepter sans critique les décisions de l'IA, réduisant ainsi la vigilance et l'esprit critique envers les informations fournies.
• Effet de halo : jugement rapide basé sur des impressions initiales; par exemple, la supposition que des réponses bien formulées par l'IA sont nécessairement exactes.
• Anthropomorphisme : attribution de qualités humaines à la machine.
----UNE SCÉNARIO PÉDAGOGIQUE EN DEUX SÉANCES DE 60 MINUTES--
----ENGAGER LES ÉLÈVES DE 4ÈME/3ÈME DANS UNE EXPLORATION DES DEEP FAKES
En utilisant des vidéos, des discussions de groupe et des activités créatives, les élèves apprennent à identifier les sources, évaluer les risques et découvrir les aspects positifs des médias génératifs.
Des rôles spécifiques comme chercheur, éthicien, et présentateur encouragent la collaboration et la réflexion critique. L'activité finale de création d'affiches permet aux élèves de synthétiser et de partager leurs apprentissages, favorisant ainsi une prise de conscience collective sur l'importance de la littératie médiatique dans notre société numérique.