Lutte d’influence et manipulation de l’information : quels enjeux pour 2024, super année électorale ?
Présentation officielle : Érigée comme priorité stratégique et nouvel axe de conflictualité, l’influence s’intègre dans les stratégies non-militaires mises en place par les belligérants pour peser sur des conflits, qu’ils les concernent directement ou non. Cela donne lieu à un format de « guerre hybride » regroupant un ensemble de techniques, de méthodes et d’outils pour parvenir à ses fins. La « guerre d’influence » donne lieu à plusieurs réponses de la part des États, qui augmentent leur vigilance à ces menaces, créent différentes structures dans le but de s’adapter à ces enjeux cruciaux. Quels sont alors les effets concrets de cette adaptation ? Comment analyser et répondre efficacement à ces nouvelles menaces au niveau national, mais aussi européen et international ?
Modératrice : Après une quinzaine d’années passées sur le terrain, Samira El Gadir dirige aujourd’hui le service des Vérificateurs de TF1 et LCI, une cellule dédiée au factchecking. Elle anime également deux chroniques hebdomadaires sur les antennes de LCI et au JT de TF1
David Colon est enseignant et chercheur en histoire à Sciences Po. Spécialiste de la communication, il a reçu les prix Akropolis et Jacques Ellul pour son livre Propagande (Flammarion, « Champs », 2021) et en 2024 les prix de la Revue des Deux Mondes et La Plume et l’épée pour son livre La Guerre de l’information. Les Etats à la conquête de nos esprits (Tallandier, « Essais », 2023)
Chine Labbé est Rédactrice en chef & Viceprésidente chargée des partenariats, Europe et Canada. En avril 2023, elle a été nommée par le Conseil d’administration de Radio France au Comité relatif à l’honnêteté, à l’indépendance et au pluralisme de l’information et des programmes de Radio France.
Charles Thépaut est sous-directeur à la veille et la stratégie à la direction de la communication et de la presse. Diplomate de carrière spécialisé sur la zone Afrique du Nord – Moyen Orient, il a été en poste en Algérie, en Syrie, en Irak, en Allemagne et aux ÉtatsUnis.
Après avoir travaillé au ministère de l’Intérieur et au Commissariat à l’énergie atomique (CEA), Chloé Debiève est, depuis octobre 2023, en poste au ministère des Armées où elle exerce la fonction de chargée de domaine influence et lutte informationnelle au Centre interarmées de concepts, de doctrines et d’expérimentations (CICDE).
Lutte d’influence et manipulation de l’information : quels enjeux pour 2024, super année électorale ? constitue l’un de ces moments suspendus au-dessus de la mêlée médiatique, salutaire, nécessaire, incontournable. Tour à tour les intervenants ont réussi à transmettre des clés de compréhension décisive face à la guerre informationnelle qui, en 2024, n’a fait que s’accélérer. Nous sommes dans une nouvelle ère médiatique, informationnelle, et sans les armes intellectuelles pour y faire face, nos sociétés démocratiques risquent fort d’en payer le prix le plus élevé.
L’espace informationnel en 2024 : démocratie et conflictualité
Samira El Gadir ouvre la table ronde en remerciant le public pour sa présence. Elle se présente comme journaliste à TF1, responsable du service de fact-checking et de lutte contre la désinformation. Depuis cinq ans, une équipe dédiée, les « Vérificateurs » traite ces sujets, notamment à travers des formats diffusés lors des journaux télévisés. Elle anime une chronique hebdomadaire sur les fake news. Le thème central de cette table ronde est la lutte contre les manipulations, abordée à travers le prisme des élections.
Contexte global des élections en 2024
Samira El Gadir souligne avec justesse que 2024 est une année électorale cruciale, avec des scrutins dans 77 pays, représentant plus de la moitié de la population mondiale. Les élections à Taïwan, en Russie, en Europe et aux États-Unis se déroulent dans un contexte géopolitique tendu, marqué par les conflits en Ukraine et au Proche-Orient. Ces événements fournissent un terrain fertile pour les acteurs étatiques et non étatiques visant à influencer les débats politiques et internationaux, parfois pour diffuser une idéologie à travers des narratifs sur les réseaux sociaux.
L’impact des nouvelles technologies sur la désinformation
Les périodes électorales et les moments forts de l’actualité sont des opportunités pour les campagnes manipulatoires. Ce qui différencie les luttes d’influence actuelles des précédentes est l’usage croissant de l’intelligence artificielle et des réseaux sociaux. Ces outils offrent une palette sans fin aux acteurs malveillants pour mener des opérations de propagande et d’ingérence.
Ces premiers jalons posés, Samira El Gadir présente les intervenants et les échanges débutent devant une assemblée concentrée. La salle est pleine, le silence quasi religieux.
Introduction et problématique des campagnes de désinformation
La journaliste commence par interroger Charles Thépaut pour qu’il définisse les enjeux principaux des influences étrangères dans les campagnes de désinformation et de manipulation, avec un focus sur leurs acteurs, méthodologies, et impacts sur le débat public national et international.
Charles Thépaut introduit le sujet en insistant sur la diversité des acteurs et techniques des campagnes de désinformation. Il souligne la nécessité d’identifier les responsables, particulièrement lorsqu’ils sont liés à des ingérences étrangères. Il mentionne en particulier l’évolution des outils numériques et des stratégies employées, qui rendent ces campagnes plus complexes et insidieuses.
Désorganisation et brutalisation des relations internationales
Charles Thépaut identifie deux tendances majeures :
- Une désorganisation du débat public, où les plateformes numériques amplifient la fragmentation et la polarisation.
- Une brutalisation des relations internationales, notamment via l’usage stratégique de la désinformation dans les processus électoraux.
Il illustre ces tendances en évoquant les interférences documentées lors des élections présidentielles aux États-Unis en 2016 et en 2020. Ces campagnes avaient pour objectif principal d’affaiblir la confiance dans les résultats et de polariser davantage les électorats.
Spectre et acteurs des opérations de désinformation
Il met en lumière la diversité des acteurs impliqués :
- Des dynamiques organiques, comme les campagnes issues de militants spontanés ou de groupes de pression.
- Des réseaux étatiques ou paraétatiques, agissant de manière coordonnée pour influencer les perceptions internationales.
Il mentionne également des exemples précis liés aux narratifs diffusés :
- La propagation de désinformations autour du conflit en Ukraine, notamment l’idée que l’OTAN aurait provoqué la guerre.
- Les tentatives de discrédit des institutions démocratiques, comme la campagne menée pour associer des fraudes électorales massives à des votes par correspondance aux États-Unis.
Focus sur la Russie et l’évolution des opérations
La Russie, selon Charles Thépaut, est l’acteur le plus actif dans ces campagnes, mobilisant des ressources importantes à travers :
- Des réseaux d’entreprises privées comme le groupe Wagner, utilisé pour amplifier certains récits.
- Des campagnes sur les réseaux sociaux, illustrées par l’achat massif de publicités ciblées durant les élections américaines.
Depuis 2022, une évolution majeure a été observée : les autorités russes assument publiquement leur implication via des canaux comme Telegram, où elles promeuvent directement leurs narratifs. Par exemple, il mentionne les messages destinés à justifier l’invasion de l’Ukraine, relayant des thèses sur une prétendue menace existentielle de l’Occident contre la Russie.
Cette évolution reflète une stratégie plus agressive, où les élections et conflits deviennent des champs de bataille pour imposer des récits favorables à leurs intérêts géopolitiques.
Problématique des campagnes de manipulation
C’est au tour de David Colon d’être sollicité, afin de définir plus largement le spectre des campagnes de manipulation, au-delà des réseaux sociaux.
David Colon met en avant que les campagnes de manipulation, bien qu’elles incluent la désinformation sur les réseaux sociaux, ne se limitent pas à cet aspect. Il insiste avec force sur leur ampleur et leur diversité, notamment leur impact sur les sphères sociales, politiques et économiques.
Une stratégie de long terme et la persévérance russe
Le chercheur souligne que la Russie se distingue par sa stratégie de manipulation pensée sur le long terme. Par exemple, l’armée russe avait déjà envisagé l’usage de l’intelligence artificielle en 1952Voir David Colon, « Le rôle de l’intelligence artificielle dans la guerre de l’information » Revue n° 873 Octobre 2024 – p. 7-12. La désinformation et la manipulation de l’information sont perçues par la Russie comme des champs prioritaires pour affaiblir l’OTAN et dissuader les États-Unis de soutenir l’Ukraine.
Décomposition des sociétés adverses : la stratégie du Kremlin
La stratégie russe repose sur trois axes principaux :
- Amplification des failles sociales existantes, décrite comme un travail de « décomposition de la société adverse », en empruntant l’expression au général Valéri GerasimovPour avoir une idée plus précise des idées de Gerasimov, voir par exemple « Le général Gerasimov et la vision russe des guerres menées par les Occidentaux – 2013 » sur Cliotexte, . Cela inclut des tactiques telles que l’amplification de tensions préexistantes, appelées « réalité augmentée ».
- Sabotage de la confiance dans les institutions, en ciblant particulièrement le système électoral. Par exemple, faire douter les citoyens de l’intégrité des processus électoraux pour remettre en question la légitimité des élus.
- Sabotage de la vérité, via une confusion entre le vrai et le faux. Cette méthode, inspirée de la doctrine russe des années 1970, vise à perturber les sphères informationnelles des adversaires.
Sphère informationnelle et strates d’action
La manipulation se déploie à travers trois couches d’intervention :
- Couches basses du cyberespace, comme les cyberattaques (attaques DDoS, par exemple) visant à perturber l’espace informationnel.
- Couches intermédiaires, incluant les protocoles Internet et les algorithmes, qui sont exploités pour manipuler les flux d’information.
- Couches cognitives, visant les comportements humains et les perceptions, bien qu’elle ne soit pas toujours prioritaire dans les campagnes russes.
Le rôle clé de la combinatia : la combinaison des moyens
Le Kremlin applique une approche intégrée, ou « combinatia », en utilisant divers leviers simultanément :
- Réseaux sociaux et médias traditionnels : Propagation de faits authentiques, amplification du mélange entre le vrai et le faux.
- Agents d’influence et corruption : Recrutement de journalistes, corruption d’hommes politiques, et infiltration dans les mouvements sociaux.
- Pressions économiques : Utilisation de ressources comme le gaz et le pétrole, déjà mises en œuvre en Estonie ou en Moldavie, pour influencer les décisions politiques.
Les médias comme terrain d’action prioritaire
Les médias traditionnels restent une priorité pour ces acteurs, qu’ils soient authentiques, manipulés ou synthétiques. David Colon conclut sur l’importance de considérer les phénomènes de désinformation et de manipulation dans leur globalité, en intégrant à la fois les actions en ligne, les événements réels et l’usage croissant de technologies comme l’intelligence artificielle pour propager des infox.
Mécanismes profonds des campagnes de désinformation
Chine Labbé, qui n’a pas pu être physiquement présente, intervient en visioconférence. Son analyse début par une étude de cas mettant en scène l’exploitation de l’IA pour générer de la désinformation. La démonstration est saisissante.
- Exemple analysé : Une vidéo présentant une jeune femme fictive, Alica Brown, prétendant avoir été renversée à l’âge de 13 ans par Kamala Harris, alors procureure générale en Californie.
- Outils utilisés : La vidéo est un deepfake utilisant une personne générée par IA, accompagnée d’un faux site d’information local, « KBSL TV », conçu spécifiquement pour diffuser cette désinformation.
Méthodologie des campagnes de désinformation
-
Caractéristiques du contenu faux :
-
- Les indices révélateurs :
- Disparition des dents dans certaines images ralenties.
- Absence de variations naturelles dans la voix.
- Manque de bruit de fond réaliste.
- Fiabilité apparente pour des spectateurs non spécialistes.
- Les indices révélateurs :
-
Création et diffusion :
-
- Les deepfakes s’appuient sur des sites créés pour l’occasion (comme « KBSL TV »), souvent éphémères.
- Ces sites peuvent être entièrement générés par des outils comme ChatGPT ou d’autres modèles IA.
- Les chatbots, lorsqu’ils sont sollicités, renforcent la désinformation en citant ces sources factices.
- Réseau de désinformation de John Mark DouganVoir sur Newsguard : https://www.newsguardtech.com/fr/press/les-details-du-reseau-florissant-dun-propagandiste-du-kremlin-des-echanges-avec-lui-et-un-extrait-du-livre-a-venir-du-co-pdg-de-newsguard-revelent-linfluence-mondiale-dun/ :
-
- Ancien shérif adjoint de Floride, exilé à Moscou, devenu propagandiste pro-russe.
- Dougan a établi un réseau de 171 sites autonomes, diffusant 26 campagnes pro-russes en deux ans, dont cinq directement liées à des élections.
Implications et Enjeux
-
Démocratisation de la désinformation :
-
- Changement d’échelle : Là où les campagnes nécessitaient auparavant des ressources étatiques, une personne seule équipée d’outils génératifs peut créer des centaines de sites et contenus désinformants.
- Baisse des barrières à l’entrée : Le coût et les compétences nécessaires sont réduits. Exemple : la création d’un site autonome pour 105 dollars en deux jours.
-
Évolution de la menace :
-
- Bien que les tactiques de propagande soient anciennes, la technologie a amplifié leur portée.
- Ce n’est plus uniquement une question de volume, mais aussi de nature, avec des campagnes plus rapides, massives et difficiles à détecter.
Exemple concret : Expérience menée par Mandiant (anciennement FireEye)Mandiant a été racheté en 2022 par Alphabet / Google
-
Création d’un faux site d’information locale :
- Mission : Diffuser des informations inventées sur une élection locale.
- Résultat : Site fonctionnel en 48 heures, montrant la facilité et le faible coût associés à ces démarches.
Chine Labbé met en garde contre la démocratisation de la désinformation via l’IA générative. Elle insiste sur l’importance d’une vigilance accrue face aux nouvelles échelles et natures des campagnes, ainsi que sur les implications éthiques et sociopolitiques qu’elles engendrent.
La guerre informationnelle au cœur de l’année 2024
Chloé Debiève répond à son tour à la question de Samira El Gadir sur l’impact des conflits actuels sur les élections, en soulignant que la guerre aujourd’hui est indissociable de la guerre informationnelle. Elle précise que les belligérants dans les conflits modernes ne cherchent plus uniquement à dominer militairement, mais aussi à imposer un narratif, une vision du monde. Forte de son expérience institutionnelle elle estime que cette dimension informationnelle est désormais essentielle pour mener une guerre efficace. Elle cite les exemples de l’Ukraine et du Moyen-Orient, où l’influence sur l’opinion publique et l’imposition de récits alternatifs ont des conséquences stratégiques majeures. Le propos est limpide et les exemples pertinents pour des usages avec des élèves.
La guerre informationnelle comme élément stratégique
Chloé Debiève commence par souligner que la guerre d’aujourd’hui est profondément marquée par la dimension informationnelle. Elle insiste sur le fait que les acteurs militaires le savent bien : la victoire ne repose plus uniquement sur un avantage tactique ou opérationnel. Au contraire, imposer son narratif, faire passer sa vision de la guerre et de la réalité devient un élément fondamental de la victoire. La guerre informationnelle est alors au cœur de ces conflits, permettant non seulement de gagner le soutien des populations locales mais aussi d’attirer des alliés internationaux. Elle rappelle que dans des zones comme l’Ukraine ou le Moyen-Orient, la capacité à imposer ce narratif est vitale pour la survie des belligérants. Ces derniers, qu’ils soient des régimes autoritaires ou des mouvements insurgés, utilisent les informations et leur gestion comme un moyen de maintenir le soutien, notamment occidental, ce qui devient souvent une question de survie.
La polarisation de la société et l’impact sur le choix électoral
Chloé Debiève explique ensuite que les périodes électorales représentent un moment propice pour l’insertion de la guerre et des conflits dans les débats nationaux. Elle soutient que les élections, en raison de leur clivage naturel, exacerbent les tensions dans la société. Lors des élections, les citoyens sont poussés à choisir un camp, et les conflits internationaux deviennent des points de polarisation supplémentaires. Elle remarque fort à propos que dans le contexte actuel, les élections deviennent des moments où les camps se forment autour des positions sur des enjeux internationaux majeurs, notamment les guerres en cours. La guerre elle-même, avec ses récits et ses enjeux, amplifie cette polarisation, poussant les citoyens à se positionner clairement, souvent sur des réseaux sociaux, où la logique du « choisir un camp » devient prégnante. Elle ajoute que ce phénomène peut avoir un impact significatif sur la manière dont les électeurs perçoivent les partis politiques, qui peuvent être associés à des positions spécifiques sur un conflit, ce qui influence le vote.
La manipulation de l’opinion publique par les belligérants
Dans la deuxième partie de son intervention, Chloé Debiève met l’accent sur l’importance pour les belligérants d’influencer l’opinion publique à l’échelle internationale, particulièrement dans les démocraties où l’opinion publique est déterminante. Elle explique que certains belligérants, en particulier ceux qui mènent des campagnes de désinformation, cherchent à manipuler les débats politiques et à perturber le processus démocratique. Elle cite l’exemple emblématique de la Russie, qui utilise une stratégie de « maskirovka« Voir « Les opérations extraordinaires de la seconde guerre mondiale » (camouflage) pour semer le doute et la confusion. Cette doctrine de désinformation vise à brouiller les cartes, à créer un flou dans les esprits, et à manipuler l’opinion publique de manière subtile. Elle illustre ce phénomène en prenant l’exemple d’une déclaration de Vladimir Poutine lors du Forum économique oriental en septembre 2023, où il a exprimé son soutien à Kamala Harris, tout en affirmant que Donald Trump avait infligé les sanctions les plus sévères à la Russie, ce qui était une fausse déclaration.
Ce type de déclaration, bien que surprenante en apparence, s’inscrit parfaitement dans la stratégie russe, visant à déstabiliser les électeurs américains et à semer le doute sur la politique étrangère américaine, particulièrement en ce qui concerne la Russie. Reste à mesurer l’impact sur les électeurs, ce qui est bien moins aisé.
L’impact des conflits internationaux sur les élections nationales
Chloé Debiève élargit ensuite son propos en évoquant l’impact des conflits internationaux sur les élections nationales, notamment en France. Elle souligne que même si certains conflits, comme la guerre en Ukraine, restent relativement régionaux, la guerre de l’information est, elle, mondiale à l’image du réseau internet. Elle mentionne que le soutien à l’Ukraine et la gestion des alliances internationales deviennent des enjeux majeurs dans les élections, et que ces questions peuvent affecter profondément le choix des électeurs. En France, par exemple, les partis politiques doivent naviguer entre différents camps, certains étant perçus comme plus favorables à l’un ou l’autre belligérant, et cela influence la perception publiqueVoir par exemple l’article de l’Express de Paul Véronique, Mars 2024 « La guerre en Ukraine vue par le RN et LFI : quatre arguments, une même complaisance avec Poutine ».
Elle évoque également l’enjeu économique et militaire qui s’ajoute à ces considérations géopolitiques, et souligne que, même si les citoyens ne sont pas toujours conscients de l’impact direct de la guerre sur leurs choix électoraux, cette dynamique existe bel et bien. La guerre de l’information affecte directement les préférences des électeurs, modifiant les débats internes des pays en fonction des conflits internationaux en cours.
Une guerre de l’information mondiale
En conclusion, Chloé Debiève insiste sur le fait que, si les conflits militaires restent souvent régionaux, la guerre de l’information est un phénomène global qui touche tous les pays. Elle met efficacement en lumière le rôle stratégique de la manipulation de l’information, soulignant que la guerre de l’information est désormais une arme utilisée par de nombreux acteurs internationaux pour influencer non seulement les décisions politiques à l’échelle nationale, mais aussi les résultats électoraux à travers le monde. La conclusion s’impose : cette guerre de l’information a des répercussions profondes et mondiales, modifiant les équilibres politiques et impactant les processus démocratiques de manière significative.
Quels impacts pour ces campagnes de désinformation ?
Charles Thépaut, qui doit quitter la table-ronde en avance, se voit proposer par Samira El Gadir de mesurer les effets concrets de ces opérations.
Le diplomate commence par souligner que la question de l’impact des campagnes de désinformation est centrale, certes, mais qu’elle reste complexe et controversée. Il précise qu’il n’existe pas de consensus, ni académique, ni parmi les experts, sur la meilleure manière de mesurer l’efficacité de ces opérations.
Indicateurs classiques de l’impact
Pour évaluer l’impact, Charles Thépaut indique qu’il faut croiser plusieurs facteurs, en s’appuyant sur des indicateurs classiques tels que :
- La diffusion du contenu : mesurer combien de fois un message a été partagé ou vu.
- L’engagement généré : analyser les réactions, commentaires et interactions, en distinguant entre engagement authentique et inauthentique, souvent amplifié par des mécanismes artificiels.
Limitations des campagnes à court terme
Il souligne que, selon les données de Viginum, les campagnes de désinformation détectées en France ont un impact limité à court terme. Par exemple, dans des cas récents, comme les graffitis sur les murs de Paris, l’impact immédiat a été faible. Même si ces campagnes ont créé un buzz temporaire, elles n’ont pas perturbé de manière significative le débat public.
Exemples concrets : L’affaire des graffitis à Paris
Un exemple illustratif est l’opération des graffitis d’étoiles de David, qui ont été utilisés pour polariser le débat autour de la situation au Proche-Orient :
- Contexte de l’opération : Cette action était liée à un réseau connu de désinformation, le réseau russe « RRN/Doppelgänger », et avait pour but d’amplifier la polarisation du débat en FranceVoir France Diplomatie 2023, Russie – Nouvelle ingérence numérique russe contre la France (9 novembre 2023) .
- Réponse de l’État français : Une réponse rapide a été mise en place pour contrer la viralité de ces contenus sur les réseaux sociaux, notamment via une communication officielle sur l’origine russe de l’ingérence et l’investigation judiciaire en parallèle.
Les effets à long terme : La logique de grignotement
Charles Thépaut met en garde contre l’impact à long terme des campagnes de désinformation, qui visent à :
- Atténuer la confiance dans les institutions démocratiques et électorales.
- Créer un flou politique qui peut miner la crédibilité des processus électoraux à long terme, même si leur impact immédiat reste faible.
Il insiste sur l’importance de surveiller cette tendance, car ces actions peuvent avoir un effet cumulatif sur la confiance du public.
Surveillance et protection des élections en 2024
À l’approche des élections européennes et des scrutins de 2024, Charles Thépaut précise qu’une vigilance forte est maintenue :
- Collaboration internationale : La France collabore avec ses partenaires internationaux pour assurer la protection des scrutins.
- Dispositifs de surveillance : Des mécanismes ont été mis en place pour détecter toute tentative de manipulation numérique des élections, mais à ce jour, aucun impact majeur n’a été observé.
La réponse stratégique à l’échelle internationale
Charles Thépaut insiste sur le fait que les acteurs de la désinformation sont généralement intégrés dans des stratégies de politique étrangère. Il évoque l’exemple de Portal Combat, un réseau russe de désinformation découvert en février 2024.
- Réponse publique et diplomatique : Après avoir détecté le réseau, la France a choisi de diffuser l’information pour prévenir le public, puis a intégré cette réponse dans un cadre plus large, réaffirmant sa position diplomatique en soutenant l’Ukraine, à travers une rencontre entre le président français et le président Zelenski.
Conclusion : maintenir la focalisation sur les enjeux centraux
L’importance de ne pas se laisser distraire par les tentatives de diversion des acteurs de la désinformation est vitale. Pour le diplomate, il est crucial de revenir au cœur des débats essentiels, comme le soutien à l’Ukraine, afin d’éviter que des narratifs externes ne redéfinissent les priorités politiques internes.
Au cœur de la stratégie des campagnes de désinformation
Recherche sur l’efficacité des campagnes de désinformation
Samira El Gadir propose à David Colon de présenter ses travaux. L’historien introduit sa réflexion en expliquant qu’il mène un travail de recherche pour comprendre la stratégie derrière les campagnes de désinformation, mais aussi pour mesurer leur efficacité à différentes échelles. L’objectif est de comprendre comment ces campagnes sont évaluées, notamment par le Kremlin.
Les indicateurs utilisés par le Kremlin
Colon décrit les indicateurs que le Kremlin utilise pour mesurer l’impact de ses actions :
- Les sondages : Ceux-ci sont utilisés pour mesurer l’adhésion du public, par exemple la proportion de Français considérant légitime le soutien à l’Ukraine. C’est une mesure immédiate de l’efficacité des campagnes.
- Les résultats électoraux : Il évoque l’objectif du Kremlin de peser sur les résultats électoraux, comme en Allemagne avec l’Extrême droite, et de faire progresser sa position à l’échelle globale en influençant l’opinion publique.
Les investissements du Kremlin dans la manipulation de l’information
David Colon souligne que le Kremlin investit massivement dans la manipulation de l’information, notamment à travers :
- Des augmentations budgétaires pour les médias russes : Cela contraste avec les faibles augmentations des médias français comme France Culture ou RFI.
- Le recrutement d’influenceurs : Le Kremlin met en place une stratégie d’influence en investissant dans des influenceurs ayant un large public fidèle sur les réseaux sociaux.
La politique de manipulation de l’information : Virtual politics
Il fait référence à la notion de « virtual politics » (politique virtuelle) introduite par Andrew Wilson.
Ce concept désigne l’utilisation d’une politique d’influence à travers des faux partis, des sites internet manipulés, et des fausses manifestations pour discréditer les adversairesPour voir le cas concret de ces approches en Ukraine voir « The Methodology of the “Russian World” as the Technological Foundation for Ukrainophobia ».
Objectif à long terme : L’objectif est de détacher les citoyens de la réalité et de manipuler leur perception de celle-ci, ce qui mine les bases même de la démocratie.
Mesurer la perception de la réalité
David Colon met en lumière la différence entre la perception de la réalité par l’opinion publique et la réalité elle-même :
- Exemple des États-Unis : Il cite le cas où plus de la moitié des Américains croient que le chômage est à son plus haut niveau depuis 1945, alors qu’en réalité il est à son plus bas niveau.
- Les théories du complot : Il rappelle que des théories du complot, comme celles soutenues par QAnon, sont massivement crues par une part importante de la population, ce qui démontre l’efficacité des manipulations.
Les outils modernes au service de la manipulation
David Colon évoque l’impact des technologies modernes et des outils numériques pour amplifier la désinformation :
- Les chatbots et la désinformation : Selon lui, un chatbot sur trois génère de la désinformation, contribuant à la pollution de l’information.
- Les moteurs de recherche et les influenceurs : Il mentionne comment des histoires fabriquées, comme la fausse acquisition par Zelensky d’une Lamborghini à plusieurs millions d’euros, sont propulsées par des moteurs de recherche comme Google grâce aux bots et influenceurs.
Il explique que ces manipulations ont un impact direct sur les citoyens des démocraties, qui perdent la capacité à distinguer le vrai du faux. Il dénonce la pollution massive des systèmes informationnels et l’affaiblissement des démocraties à cause de cette désinformation.
L’importance de l’indicateur ultime : La capacité de décision rationnelle
David Colon identifie l’indicateur ultime de l’efficacité de ces campagnes : la capacité des citoyens à prendre des décisions rationnelles. Selon lui, cet indicateur est aujourd’hui en déclin à cause de la manipulation massive de l’information. Il cite l’exemple de la France pendant la Seconde Guerre mondiale, où le manque d’information fiable a conduit à un échec stratégique.
Les défis d’évaluation de l’impact des campagnes
Le chercheur fait remarquer qu’il existe des lacunes dans l’évaluation de l’impact de ces campagnes en France :
- Manque d’indicateurs fiables : Il critique le manque de transparence des plateformes de réseaux sociaux, qui ne fournissent pas suffisamment de données pour objectiver l’impact de la désinformation.
- Manque de données spécifiques : Il souligne que, en l’absence de chiffres clairs et d’indicateurs précis, il est difficile d’évaluer l’efficacité de ces campagnes à l’échelle nationale ou internationale.
David Colon conclut en insistant sur la nécessité de prendre conscience de la stratégie de manipulation de l’information et d’agir pour protéger les citoyens des effets dévastateurs de cette désinformation, tout en améliorant les mécanismes de surveillance et de mesure de l’impact de ces campagnes. La solidité de la démonstration est remarquable, à l’image d’une table ronde aussi passionnante qu’inquiétante.
La Transparence des IA Génératives : un enjeu fondamental
Chine Labbé se voit proposer d’explorer la question centrale des IA génératives. D’emblée elle met au cœur de sa réflexion la question cruciale de la transparence des outils d’IA générative. La rédactrice en chef de Newsguard met en lumière le défi majeur auquel sont confrontées les entreprises qui utilisent ces technologies : la difficulté de mesurer précisément le succès des campagnes et des narratifs produits par l’IA.
L’importance de la transparence est soulignée comme un impératif pour ces sociétés. À cet égard, elle mentionne que son entreprise fait partie des signataires du code de bonne pratique pour l’information au niveau de la Commission européenne, un code qui devrait bientôt évoluer en un code de conduite dans le cadre du Digital Services Act (DSA). Cette initiative législative vise à encadrer de manière plus stricte les plateformes numériques et leur rôle dans la gestion de contenus générés par IA, ce qui souligne l’importance de la régulation dans ce domaine.
Les risques de fiabilité des sites généraux par IA
Chine Labbé revient ensuite sur la nature même des sites générés par IA, précisant que bien qu’ils ne soient pas intrinsèquement malveillants, ces sites sont souvent peu fiables. La question de la fiabilité est particulièrement préoccupante, car ces sites sont créés par des intelligences artificielles qui, par nature, ne sont pas parfaites. Un élément central de son discours est le concept d’hallucination de l’IA, un phénomène où l’intelligence artificielle génère des informations non factuelles, en s’appuyant sur des probabilités statistiques plutôt que sur des faits réelsSur le concept d’hallucination de l’IA voir « Lorsque l’IA se trompe : quelles sont les dérives de concepts et les hallucinations ? ».
L’IA, dans son fonctionnement, n’a pas vocation à produire des informations factuelles et exactes, mais simplement à générer du contenu statistiquement probable. Cette distinction est essentielle pour comprendre les risques liés à l’utilisation des IA génératives : l’IA n’est pas une source fiable par elle-même, et son usage peut conduire à des erreurs d’interprétation.
Évolution rapide des sites généraux par IA et manque de données
Chine Labbé poursuit en soulignant l’explosion du nombre de sites générés par IA. En mai 2023, 49 sites avaient été recensés, mais le nombre a fortement augmenté pour atteindre 1090 à la fin de l’année 2023. Cette croissance exponentielle est une illustration concrète de l’accélération de la diffusion de contenus générés par IA, qui pose de nouvelles questions sur leur impact sur la société et les risques qu’ils engendrent, notamment en matière de désinformation. Cependant, une lacune majeure demeure : le manque de données pour évaluer concrètement l’impact de ces sites. Il est primordial d’avoir des informations précises sur l’origine des données utilisées pour entraîner les modèles d’IA afin de comprendre les risques associés à ces technologies.
Le Blocage des Données des Médias Traditionnels
Chine Labbé attire ensuite l’attention sur un autre problème majeur : les médias traditionnels, qui produisent des informations fiables, bloquent l’accès de leurs données aux modèles d’IA. C’est là une approche décisive qu’il faut bien avoir en tête. Cette décision est compréhensible du point de vue des médias, qui cherchent à protéger leur modèle économique et leurs informations. En conséquence, les intelligences artificielles se nourrissent de données provenant d’autres sources, souvent moins fiables, notamment de sites de désinformation ou de sites générés par des IA. Elle souligne que 67 % des 500 sites les plus fiables en termes d’information bloquent l’accès de leurs données aux crawlers des IAVoir sur Newsguard « Les chatbots d’IA sont bloqués par 67% des sites d’actualité les plus fiables, et s’appuient à la place sur des sites de piètre qualité » . Cette situation a des conséquences importantes pour la qualité des informations que ces modèles génèrent, car ils se retrouvent alimentés par des sources moins sûres.
Les implications des données sur la qualité de l’IA Générative
Les données qui nourrissent les modèles d’IA sont donc au cœur du problème. Chine Labbé indique que l’un des aspects les plus inquiétants est que certaines IA, en raison de leur conception, sont plus enclines à diffuser de la fausse information que d’autres. Par exemple, une étude menée par son entreprise a montré que Grok, un générateur d’images lancé par Elon MuskIA : c’est quoi Grok, l’intelligence artificielle générative lancée par Elon Musk ?, avait une propension 35 % plus élevée que MidJourney à générer des images qui ne respectaient pas les faits. Ce constat renforce l’idée que certaines IA sont plus susceptibles de produire des informations erronées, ce qui pose un défi supplémentaire pour la régulation des contenus générés par IA. Et ce d’autant plus que les résultats des élections de novembre 2024 ont porté au pouvoir Donald Trump et un soutien de poids, Elon Musk, qui ne cache pas ses ambitions.
La nécessité d’une visibilité accrue et de solutions régulatoires
Face à cette situation, Chine Labbé appelle à une plus grande visibilité concernant les données utilisées pour entraîner les modèles génératifs. Il est essentiel d’avoir une meilleure compréhension de la manière dont ces modèles sont alimentés et de savoir quels garde-fous sont mis en place pour éviter la diffusion de fausses informations. Elle souligne l’importance de la régulation, qui doit non seulement permettre de mieux comprendre les modèles génératifs, mais aussi de contrôler leur impact sur l’information. Une régulation plus stricte permettrait de mieux gérer la désinformation et de limiter les effets négatifs de l’IA sur la société.
Comment lutter contre la désinformation ?
Sollicitée face à cette redoutable question Chloé Debiève relève le challenge en soulignant un paradoxe majeur dans la lutte contre la désinformation : la démocratie, tout en étant la clé de notre modèle de valeurs, est également une source de vulnérabilité. En effet, la liberté d’expression, la libre circulation des idées, et la diversité des médias constituent des atouts précieux, mais ces libertés ouvrent aussi des brèches que des acteurs malveillants peuvent exploiter pour diffuser des informations fausses.
Elle met en évidence que, dans des régimes plus contraints, les réseaux sociaux et les voies d’accès à l’information sont beaucoup plus limités, ce qui freine la propagation de fausses informations. Cependant, dans nos démocraties, l’abondance d’informations, dont une proportion croissante peut être fausse, constitue un défi.
Les forces et faiblesses liées à notre modèle
Chloé Debiève insiste sur le fait que la réponse à cette menace doit être ancrée dans les valeurs mêmes de notre démocratie. Ce n’est pas en adoptant les mêmes méthodes que les acteurs malveillants que la démocratie pourra l’emporter. Elle évoque l’exemple des Jeux Olympiques de Paris, où, malgré les tentatives de désinformation, les stratégies adverses ont échoué à provoquer des perturbations. Cela montre que lorsqu’un événement se passe bien, sans failles créées, il devient difficile pour les concurrents d’y injecter de fausses informations.
Elle met en lumière le fait que nos adversaires, notamment la Russie, ne créent pas de nouvelles failles, mais cherchent plutôt à exploiter celles déjà existantes. Cela montre que la prévention et l’anticipation sont des aspects cruciaux dans la lutte contre la désinformation.
La structuration de la lutte contre la désinformation
La réponse gouvernementale à la désinformation a pris une nouvelle ampleur avec la révision de la Stratégie Nationale de Sécurité, portée par Emmanuel Macron, qui a désigné l’influence comme une fonction stratégique de l’État. Cette approche fait écho à la vision stratégique de 2021 du Chef d’État-Major des Armées françaises (CEMA), mettant l’accent sur l’importance de « gagner la guerre avant la guerre ».
La France a ainsi structuré sa lutte contre la désinformation au sein de plusieurs ministères, en particulier le ministère des Affaires Étrangères (MEAE), qui coordonne cette fonction, tandis que le ministère des Armées participe à sa déclinaison.
Travail interministériel et collaboration inter-agences
Elle précise que cette approche repose sur une collaboration étroite entre les ministères et les acteurs publics et privés. Elle évoque la création de services spécialisés au sein des armées, visant à anticiper et à influencer les événements dans le domaine informationnel. Ces services travaillent en coordination avec d’autres services, tels que le comcyber, pour construire des doctrines et des stratégies communes.
Elle souligne également l’importance de former les militaires à cette nouvelle approche stratégique, en incluant des parcours de formation dédiés à l’influence dans les écoles de guerre, afin de garantir que tous les niveaux de l’armée soient sensibilisés à ces enjeux.
Réponse rapide et fact-checking
L’un des aspects essentiels de la lutte contre la désinformation est la rapidité de réponse. Chloé Debiève évoque l’existence de cellules dédiées dans chaque ministère, en particulier au sein du ministère des Armées, ainsi qu’une collaboration renforcée avec des organismes spécialisés tels que Viginum. Cette collaboration vise à accélérer le processus de vérification des faits et à répondre rapidement, notamment sur les réseaux sociaux, où les informations peuvent se propager à grande vitesse.
Elle conclut en montrant qu’une réponse efficace à la désinformation exige une action concertée, avec des interlocuteurs dédiés et une coopération entre les acteurs publics et privés, pour être en mesure de contrer rapidement les menaces.
Un enjeu collectif
Sollicité à son tour David Colon propose une approche plus globale.
Progrès réalisés en France dans la lutte contre la manipulation de l’information
David Colon commence par saluer les progrès accomplis par la France dans la lutte contre la manipulation de l’information, en particulier en ce qui concerne la cybersécurité et l’influence numérique. Il met en lumière l’action de l’amiral Arnaud Coustillière qui a joué un rôle clé dans la mise en place de stratégies contre l’influence et la désinformation, notamment dans le champ numérique.
L’historien fait également référence à plusieurs réformes importantes qui ont été mises en place récemment :
- La loi sur les ingérences étrangères, adoptée le 25 juillet, qui a pour objectif de lutter contre les tentatives d’ingérence étrangères dans les processus démocratiques français.
- La stratégie nationale d’influence, qui est en cours de rédaction et devrait être finalisée prochainement. Cette stratégie vise à renforcer l’influence de la France sur la scène internationale et à mieux gérer les enjeux liés à la désinformation et à l’influence externe.
La lutte contre la manipulation de l’information : un enjeu collectif, pas l’apanage de l’État
David Colon souligne l’importance de considérer la lutte contre la manipulation de l’information comme une responsabilité partagée, qui ne doit pas être exclusivement sous la tutelle de l’État ou des armées. C’est un point central de son propos. Selon lui, ce sujet est trop grave et complexe pour être le monopole de quelques acteurs institutionnels. Il appelle à une mobilisation de l’ensemble de la société, y compris des entreprises, des médias, des acteurs de la société civile et du secteur éducatif.
En ce sens, il évoque son travail auprès de l’OCDE et dans le cadre des États généraux de l’information, qui ont permis de faire des préconisations concrètes pour répondre à ce défi global. Une des propositions majeures consiste à étendre le concept de Responsabilité Sociétale des Entreprises (RSE) à une Responsabilité Sociale Démocratique (RSD). Cette notion vise à encourager les entreprises à participer activement à la protection de l’espace public informationnel démocratique, et à prendre en charge des actions de préservation de la qualité de l’information dans la société. Il fait également référence à l’exemple d’entreprises victimes de cyberattaques ou de manipulations de l’information et souligne l’importance pour celles-ci de contribuer à garantir la qualité du débat démocratique.
L’approche transversale et l’intégration des différents acteurs
David Colon critique aussi la tendance française à fonctionner en silos, où différentes entités publiques et privées travaillent de manière isolée sur la question de l’influence et de la contre-influence. Il souligne la nécessité de casser ces silos et d’adopter une approche globale, ce que les anglophones appellent la « whole of society approach« . Il explique que, face à la limitation des moyens de l’État, notamment en matière de cybersécurité et de communication, il est crucial d’impliquer l’ensemble de la société.
Il précise que la France doit investir dans les secteurs médiatiques et numériques afin de diffuser des contenus fiables, authentiques et non manipulés, en accord avec les objectifs de la Stratégie nationale d’influence. Ces efforts doivent se concentrer sur l’amélioration de l’image de la France à l’échelle internationale, en exploitant les technologies numériques, les réseaux sociaux, et en engageant des campagnes de communication ciblées pour contrer la désinformation.
Passage d’une approche curative à une approche préventive
David Colon appelle à un changement de paradigme, passant d’une approche curative, où l’on supprime les contenus manipulatoires, à une approche préventive, qui consiste à anticiper et réduire les risques de manipulation avant qu’ils ne prennent de l’ampleur.
Il évoque des initiatives comme Viginum, la plateforme française de lutte contre la manipulation de l’information, qui a publié des guides pratiques à destination des journalistes, des fact-checkers, et des entreprises pour les préparer à des événements à risque, tels que les Jeux Olympiques. Ces guides visent à aider ces acteurs à identifier et contrer la désinformation de manière proactive.
Une autre action cruciale réside dans l’éducation des citoyens, et en particulier des jeunes, à la désinformation. David Colon insiste sur l’importance de renforcer l’esprit critique au sein de la population, grâce à des programmes éducatifs dédiés à l’éducation aux médias et à la désinformation. Il mentionne également des méthodes telles que le debunking (démystification des fausses informations), le pre-bunking (prévention de la désinformation avant qu’elle ne se propage), et le nudging (incitation subtile au bon comportement).
Renforcement de la résilience sociale face à la désinformation
David Colon aborde ensuite la question de la résilience sociale face à la désinformation. Il explique que, contrairement aux virus tels que la Covid-19, il est impossible d’éradiquer complètement la désinformation. L’objectif n’est donc pas d’éliminer totalement cette menace, mais de rendre la société plus résistante face à elle.
Il cite plusieurs exemples de pays qui ont réussi à développer une grande résilience face à la manipulation de l’information : Taïwan, la Finlande, la Suède et les Pays-Bas. Ces pays ont su instaurer des mécanismes solides de lutte contre la désinformation, renforçant ainsi la confiance de leurs citoyens dans l’intégrité de l’information publique.
Il souligne que des sociétés résilientes comme celles-ci sont capables de faire face à des tentatives de manipulation, comme celles qui pourraient provenir de pays comme la Russie ou la Chine. David Colon propose que la France s’inspire de ces exemples pour construire une société où la désinformation n’a plus d’impact. Il termine en mentionnant que, lorsque des tentatives de manipulation se produiront, comme des actes de propagande dans l’espace public (par exemple, des tags de groupes étrangers), la réponse de la société doit être de les ignorer, de ne pas leur accorder de valeur médiatique et de ne pas leur permettre de perturber l’ordre public.
La nécessité d’une approche collective, transversale et préventive face à la manipulation de l’information, ainsi que sur le développement de la résilience sociale face à ce phénomène font sens. Les RSMED et la diffusion de ces moments à travers cet article vont, je l’espère, dans ce sens.
L’engagement de TF1 dans la lutte contre les fake news
Alors que la table-ronde touche à sa fin, Samira El Gadir désire partager l’expérience de TF1, un média grand public, dans la lutte contre les fake news. C’est très intéressant car ceci donne une vision de l’intérieur d’un média majeur de notre scène audiovisuelle. Elle raconte comment la chaîne a entamé une réflexion approfondie en 2019 sur son rôle face à la désinformation. L’objectif était de déterminer si, en tant que journal télévisé limité en temps, TF1 devait ou non consacrer une tribune aux fake news. Cette question a soulevé un débat interne, en particulier avec les journalistes de l’ancienne génération, qui considéraient que TF1 devait se concentrer uniquement sur des informations vérifiées et sérieuses, sans laisser de place aux fausses informations. Cependant, face à l’impact croissant des réseaux sociaux, même ces journalistes ont reconnu la nécessité de traiter cette problématique.
- Création d’une cellule dédiée : En réponse à cette problématique, TF1 a mis en place une cellule dédiée et des formats spécifiques pour lutter contre les fake news.
- Formation des journalistes : Depuis 2019, la chaîne a développé un service de vérification des informations, dont Samira El Gadir est responsable. Ce service inclut la formation d’une grande partie des journalistes de TF1 aux outils de lutte contre la désinformation, notamment l’OSINT (Open Source Intelligence) et d’autres techniques permettant de vérifier l’authenticité des informations circulant sur les réseaux sociaux.
L’éducation aux médias et à la désinformation
Samira El Gadir met en avant l’importance de l’éducation aux médias, un domaine dans lequel TF1 est activement impliqué. Le média organise des programmes d’éducation dans les écoles pour sensibiliser les plus jeunes à la désinformation. L’objectif est de leur fournir des clés de compréhension sur le fonctionnement des algorithmes, l’influence des réseaux sociaux et la manière de croiser les sources pour vérifier les informations. Cela permet de rendre le public, dès le plus jeune âge, plus imperméable à la désinformation.
- Sensibilisation dans les écoles : Des ateliers sont organisés pour expliquer des concepts clés comme l’impact des algorithmes et la nécessité de vérifier les sources d’information, en particulier sur les réseaux sociaux.
- Public cible : L’accent est mis sur les jeunes, pour leur apprendre dès le début de leur parcours scolaire à être critiques vis-à-vis des informations auxquelles ils sont exposés.
Démonstration pratique avec un format vidéo
Samira El Gadir présente une courte chronique diffusée dans le journal de 20h, illustrant le travail de vérification des informations. La vidéo montre comment TF1 traite un exemple de désinformation : une série de faux messages politiques circulant sur les réseaux sociaux, prétendant que des célébrités soutiennent des messages anti-européens ou anti-ukrainiens. Ces affiches, mises en scène avec des célébrités comme Luc Besson et Beyoncé, sont en réalité des faux, créés et propagés par des bots.
- Analyse des fake news : La chronique expose les caractéristiques des faux profils créés pour propager ces messages : profils récemment créés, noms aléatoires et incohérences dans les messages, tels que des traductions maladroites.
- Identification des bots : La démonstration met en lumière les techniques utilisées pour reconnaître ces bots, comme l’absence d’abonnés sur les profils et l’utilisation automatique de systèmes de partage.
Réception du public et éducation continue
La journaliste conclut en évoquant l’impact positif de cette démarche sur le public de TF1. Contrairement à ce que l’on aurait pu penser initialement, le public est très réceptif à ces formats sur les fake news, qui sont diffusés chaque samedi. La chaîne se rend compte que le public, bien qu’habitué à des informations classiques, montre un réel intérêt pour des clés de compréhension sur la désinformation.
- Réaction du public : L’intérêt pour les programmes sur la vérification des informations est plus fort que prévu, et le format court de 1 minute 30 est bien reçu.
- L’éducation continue : Samira souligne qu’il est essentiel de continuer à fournir des outils au public pour lutter contre la désinformation. La chaîne met donc un point d’honneur à poursuivre ces actions éducatives pour former le public à détecter les fake news par eux-mêmes.
Chine Labbé apporte ses éclairages face à l’évaluation de la résilience face à la désinformation et l’importance de l’éducation aux médias. Elle conclut la discussion en abordant l’évaluation de la résilience face à la désinformation, en particulier en France, en comparaison avec d’autres pays comme les États-Unis. Elle revient sur un article qu’elle a écrit en 2022 sur la présidentielle française, où elle s’attendait à une propagation de fausses informations, mais où les politiques français ont largement évité de relayer ces récits.
Comparaison avec les États-Unis :
La différence principale entre la France et les États-Unis réside dans le paysage politique : aux États-Unis, un homme politique de premier plan a amplifié les accusations de fraude électorale, tandis qu’en France, cette idée n’a pas trouvé d’écho parmi les leaders politiques, même ceux de l’extrême droite ou gauche.
Les mécanismes de la désinformation :
Pour lutter contre la désinformation, Chine Labbé souligne l’importance de la prévention, de l’éducation aux médias et du renforcement de la résilience citoyenne. Elle évoque notamment le fact-checking, les jeux vidéo pédagogiques sur les mécanismes de manipulation des récits, ainsi que l’initiative de NewsGuard qui évalue la fiabilité des sources d’information en ligne.
Approche proactive et éducation à grande échelle :
Le travail de prévention ne se limite pas aux écoles. Il inclut aussi les bibliothèques publiques et les maisons de quartier, afin de toucher un large public. La démarche consiste à doter les citoyens d’outils pour reconnaître la désinformation et éviter qu’ils ne soient influencés par des récits manipulés.
Réflexion sur la résilience à la française
Protection relative
La protection contre la désinformation en France vient de la structure politique et de l’absence de relais politiques de premier plan pour des récits de fraude ou de manipulation. Cependant, cette situation reste fragile et nécessite un travail constant de musculation de la résilience citoyenne.
Stratégies à adopter pour une meilleure résilience
Prendre en compte la diversité des publics
L’éducation aux médias ne doit pas se limiter aux jeunes générations. Il est également essentiel de s’adresser aux adultes dans différents contextes (bibliothèques, maisons de quartier, associations sportives).
***
Questions du public
Question sur la Chine et l’intelligence artificielle :
Un membre du public exprime son inquiétude face aux progrès de la Chine en matière d’IA, soulignant le contrôle informationnel qu’elle pourrait exercer sur ses 1,5 milliard d’habitants. Il craint que cela perturbe l’équilibre géopolitique international.
Réponse (David Colon) : La Chine a pris des mesures stratégiques tôt pour protéger son espace informationnel et développer des outils d’influence, y compris des médias internationaux et des armées de trolls. Avec l’arrivée de Xi Jinping, la Chine a accentué son autonomie technologique et investi massivement dans les infrastructures numériques et l’information. TikTok, par exemple, est un outil de guerre cognitive et un vecteur de données massives qui peut perturber les sociétés occidentales, capturant l’attention et saturant les systèmes d’information. Le ciblage individuel à une échelle inédite pourrait avoir des conséquences dévastatrices.
Question sur la légitimité des élections démocratiques face à la manipulation de l’information :
Réponse (Chloé Debiève) : La démocratie repose sur ses valeurs et son modèle, et il est possible de préserver la légitimité des élections. Toutefois, la société doit être consciente des vulnérabilités aux manipulations, qu’elles soient internes (désinformation) ou externes (ingérence étrangère). Bien que la désinformation soit un défi, l’engagement dans la démocratie et la gestion de la perméabilité de la société à ces influences restent essentiels.
Question sur l’évaluation des effets de la composante informationnelle dans les opérations militaires :
Réponse (Chloé Debiève) : La mesure des effets informationnels est complexe, car elle implique des éléments immatériels difficiles à quantifier. Les militaires évaluent constamment les résultats de leurs actions, mais la nature intangible des informations rend la tâche ardue. Cela nécessite une évaluation continue depuis la conception des opérations jusqu’à leur déploiement.
Question sur les risques de manipulation des algorithmes et des Big Data dans l’IA générative :
Réponse (Chine Labbé) : Les IA génératives, telles que ChatGPT, peuvent être trompées par des sites d’informations inauthentiques, citant parfois des sources biaisées. Des partenariats avec des entreprises spécialisées permettent de signaler ces sources, mais le défi reste important car les algorithmes sont nourris principalement par des contenus peu fiables. Pour y remédier, il est essentiel de travailler sur des standards européens pour garantir la responsabilité des IA génératives. L’Europe a un rôle clé à jouer en matière de régulation et de leadership sur ces questions.
Conclusion : une table ronde formidable, précise, pédagogique, ambitieuse, capitale.
Nulle doute que les collègues en HGGSP, EMI, EMC trouveront dans ces réflexions de quoi approfondir leurs approches. Mais, bien plus encore, tous les citoyens doivent être sensibilisés à ces questions, cruciales pour nos démocratie. Ce partage d’un grand moment des RSMED 2024 en a la modeste ambition.