Article

À l’assaut de la haine et des fausses nouvelles en ligne

Sur les réseaux sociaux, les campagnes de désinformation malveillantes se multiplient. Tout comme les attaques personnelles ciblées. Le Laboratoire sur la société numérique riposte à l’aide de contre-mesures fondées sur l’intelligence artificielle.
Établissement(s)
McMaster University
Province(s)
Ontario
Sujet(s)
Sciences sociales
Sciences politiques
Formes découpées dans du papier couleur sépia de bouches, d'yeux, de mains et d'oreilles; coupures de journaux; surimpression de taches et de mots en rouge et remplissage de certaines formes de cette couleur; et les mots “fake news” dispersés un peu partout autour.

Les réseaux sociaux forment un terrain miné par la mésinformation, regorgeant de rumeurs non vérifiées, de demi-vérités exagérées et d’affirmations qu’il convient de prendre avec la plus grande réserve. Ils constituent même de plus en plus une arme tactique qui va jusqu’à désinformer de façon délibérée dans le but de promouvoir des idées malveillantes.

Si certains groupes étrangers inondent les réseaux sociaux de réalités déformées afin de s’ingérer dans les processus électoraux, d’autres amplifient les fausses nouvelles dans le but de susciter la méfiance à l’égard des vaccins. Parallèlement, il devient même difficile de départager le vrai du faux en ce qui concerne les images et vidéos générées par l’intelligence artificielle depuis les zones de conflit.

Selon Clifton van der Linden, politicologue et directeur du Laboratoire sur la société numérique de l’Université McMaster (en anglais seulement), cette propagande érode notre conception d’une réalité commune, ce qui nuit grandement à la résilience démocratique. « Les fondements d’une société démocratique reposent évidemment sur le respect des divergences d’opinions, explique-t-il. Mais encore faut-il s’entendre sur certains faits. »

Le Forum économique mondial considère la mésinformation et la désinformation comme un risque mondial grave. Et la situation ne fera qu’empirer, prédit Clifton van der Linden, au fur et à mesure que des outils tels que l’intelligence artificielle générative et le microciblage algorithmique gagneront en puissance et en accessibilité.

C’est pourquoi le Laboratoire sur la société numérique (en anglais seulement) prend d’assaut cette problématique, grâce au concours d’une équipe pluridisciplinaire internationale et d’une puissance de calcul de haute performance financée par la FCI.

Débusquer les fausses nouvelles 

La vérification des faits par l’humain et les outils de génération de rapports à l’échelle locale ne sauraient faire face à l’ampleur de la mésinformation. C’est pourquoi, ces dernières années, des chercheurs et chercheuses ainsi que des sociétés de médias sociaux ont programmé l’intelligence artificielle afin que celle-ci détecte les schémas de langage qui caractérisent les fausses nouvelles.

Toutefois, cette méthode présente d’importants inconvénients. D’abord, sa capacité à vérifier les faits est limitée à des sujets précis puisqu’elle est axée sur le contenu. De plus, les modèles peuvent être soumis à la rétro-ingénierie, ce qui permet aux propagandistes de déterminer les mots clés ou les modèles à éviter. Enfin, il arrive souvent que les campagnes de mésinformation ou désinformation ne soient détectées qu’après leur diffusion à grande échelle.

Le Laboratoire sur la société numérique adopte une approche différente. Ses algorithmes examineront non seulement l’information diffusée, mais aussi les attributs des personnes qui la partagent et la manière dont le contenu se propage sur les réseaux. « Il s’agit du premier algorithme de détection automatisé évolutif et échelonnable de bout en bout », explique Clifton van der Linden.

Pour concevoir ces algorithmes, le Laboratoire sur la société numérique cherche, dans un premier temps, à modéliser la diffusion de la désinformation au sujet de la COVID-19 via Twitter (désormais X) et à mesurer son incidence sur l’opinion publique. À terme, on souhaite créer un ensemble d’algorithmes qui ne tienne pas compte du sujet et soit capable de détecter de manière précoce la prolifération de la désinformation sur toute plateforme de réseaux sociaux, permettant ainsi à leurs gestionnaires de prendre des mesures avant que ce contenu n’atteigne un vaste public.

Clifton van der Linden estime qu'il serait même possible d’en établir l’origine et le public cible. « En théorie, nous serions en mesure de distinguer les campagnes de désinformation coordonnées par des groupes étrangers ou malveillants, des objections de conscience à l’égard de certains scénarios émises par un seul individu souhaitant simplement exprimer son désaccord », explique-t-il.

S’attaquer aux messages toxiques

La désinformation n’est pas la seule part d’ombre des réseaux sociaux à laquelle s’attaque le Laboratoire sur la société numérique. En effet, il souhaite également se pencher sur la prévalence de la haine en ligne à l’encontre de personnalités connues, en particulier les femmes et les personnes de couleur, un phénomène qui dissuade de nombreuses personnes de se lancer en politique ou en journalisme.

Pour ce faire, l’équipe utilise des modèles avancés de traitement du langage naturel et d’autres stratégies d’apprentissage automatique afin de mettre au point un « filtre anti-haine », semblable à un dossier de courrier indésirable. « Il est possible de configurer son propre filtre à l’aide du processeur dorsal de manière à éliminer les courriels ou les messages haineux sur les réseaux sociaux », explique le chercheur.

Or, l’élaboration de ces solutions nécessite une puissance de calcul considérable. Et selon Clifton van der Linden, la FCI a joué un rôle clé sur ce plan, en finançant les ordinateurs et l’infrastructure de recherche de pointe nécessaires à la création et à l’exploitation du laboratoire.

« La contribution de la FCI a permis une accélération significative de ce très important programme de recherche », explique-t-il. Et comme la puissance de calcul du laboratoire est mise à la disposition d’autres chercheurs et chercheuses à travers SHARCNET, un consortium formé de 19 collèges, universités et instituts de recherche qui exploite un réseau de groupes d’ordinateurs de haute performance partout en Ontario, les retombées sont encore plus marquées.

Former une nouvelle génération de chercheurs et chercheuses en sciences sociales informatiques

Portrait de Clifton van der Linden.

Bien que le Laboratoire sur la société numérique ne soit en activité que depuis quelques années, soit peu avant le confinement lié à la COVID-19, il s’est agrandi et comprend aujourd’hui une équipe de spécialistes en linguistique, en statistique, en ingénierie, en sciences politiques et en sciences sociales informatiques, et ce, en provenance du monde entier.

Et si la recherche demeure l’objectif principal du laboratoire, son rôle ne s’arrête pas là. « Nous nous efforçons également de contribuer à la vocation pédagogique de l’université », déclare John McAndrews, directeur administratif du laboratoire. Il cite la cohorte diversifiée d’assistantes et assistants de recherche du premier cycle, d’étudiantes et étudiants diplômés et de stagiaires postdoctoraux qui profitent d’une formation de pointe aux méthodes utilisées en sciences sociales informatiques.

Les chercheurs et chercheuses en sciences sociales ont souvent de grandes idées en matière d’innovation sociale, mais ne disposent pas toujours du savoir-faire technique ou des outils numériques nécessaires pour les mettre en œuvre, explique-t-il. « Le laboratoire se situe à ce carrefour, offrant une expertise interdisciplinaire et des ordinateurs de haute performance permettant de rendre possibles ces innovations. »

À titre de chercheur en début de carrière, je considère que la contribution de la FCI a vraiment permis une accélération significative d’un programme de recherche très important. »

Clifton van der Linden, Université McMaster