Techno

Il crée un site de désinformation avec 2$ et une IA

Une capture d'écran du site de fausses nouvelles réalisé par Jean-Hugues Roy.

Créer de faux articles journalistiques à l’aide d’intelligence artificielle (IA) est «dangereusement facile», selon Jean-Hugues Roy, professeur à l’école des médias de l’UQAM. Il a réalisé un site comportant une trentaine de nouvelles en s’abonnant pour 2$ à une IA. Prouver sa thèse ne lui aura pris que deux heures.

Pour se faire, l’expert a demandé à ChatGPT de faire un article en français en s’inspirant des journaux de fausses nouvelles. Sa commande est la suivante:

«Voici un texte en anglais: <texte venant d’un journal américain de fausses nouvelles> Faites-en une adaptation dramatique et sensationnaliste en français pour le contexte du Québec dans laquelle vous allez ajouter plusieurs superlatifs et exagérer certains détails en utilisant le « vous » pour parler directement au lecteur»

Il ajoute ensuite diverses lignes demandant à l’IA de s’occuper du code de la page web et d’utiliser l’image prise dans l’article de fausses nouvelles.

Capture d’écran d’une page web créée par l’IA selon la commande de Jean-Hugues Roy

Pour l’instant, les histoires «ne tiennent pas toujours debout», admet l’auteur. Par exemple, bien que les noms de lieux soient adaptés au Québec, les politiciens et les appareils gouvernementaux ne sont pas mis à jour.

On peut par exemple lire sur un des articles que «le maire de Montréal, Murial Bowser, a témoigné devant le Congrès». Muriel Bowser (Murial semble être une erreur de l’IA) est plutôt la mairesse du District de Columbia aux États-Unis et le Congrès est un appareil du gouvernement américain.

De toute manière, explique M. Roy, «bien des gens ne font que lire le titre et la photo donc juste ça c’est suffisant pour générer beaucoup de traction» et induire des personnes en erreur.

Il s’agit d’une première expérience pour lui, mais le service Newsguard, qui se spécialise en détection de désinformation, a déjà trouvé de véritables usines de fausses nouvelles créées par l’intelligence artificielle.

L’expert estime que son site de désinformation pourrait être réglé en perfectionnant sa requête et en investissant plus de temps dans celui-ci. Il serait par exemple possible d’utiliser une génération d’image par IA pour illustrer l’article.

Au-delà du texte

Bien qu’elles soient actuellement facilement repérables à cause de diverses incohérences, la génération d’images inquiète de plus en plus le professeur de l’école de criminologie de l’Université de Montréal Samuel Tanner.

Un internaute qui verrait l’image sans faire de recherche supplémentaire pourrait facilement tomber dans le panneau. «Dans une société où on fait confiance en ce qu’on voit, il faut maintenant se méfier et diversifier les sources d’information», explique-t-il, craignant que ce type d’images mène à une baisse de confiance envers les médias.

Il pense par exemple aux fausses images de l’arrestation de Trump, ou encore à une image fictive montrant un manifestant âgé qui aurait été blessé lors des manifestations en France. Elles auraient pu être le déclencheur de manifestations violentes, selon M. Tanner.

L’image est la proie de l’IA, mais la voix aussi, rappelle Jean-Hugues Roy. Il prévient que quelqu’un pourrait relativement facilement (bien que ce soit plus complexe que pour la génération de texte) synthétiser la voix d’un animateur radio «en seulement quelques minutes» afin de lui faire lire les articles de son site de désinformation. De fait, la fausse nouvelle, présentée par la voix d’un journaliste de bonne réputation, gagnerait en crédibilité.

Inscrivez-vous à notre infolettre et recevez un résumé, dès 17h, de l’actualité de Montréal.

Articles récents du même sujet

Exit mobile version