Édition 7 - La fausse croyance des liens entre IA et désinformation ?
#7 Les fake news n'ont pas attendu l'IA pour pulluler
Si tu aimes mon contenu, clique sur le ❤ au-dessus et à côté de mon nom pour m’aider à remonter sur Substack ou Gmail et parce que ça me donne encore plus envie de faire mieux la prochaine fois 😊
C’est jeudi, le jour d’EthicGPT ! 😊 Je suis très heureux de te retrouver pour cette 7e édition !
Si quelqu’un t’a transféré cette édition et que le contenu te plaît, n’hésite pas à t’abonner et à la transférer également. Cela m’aidera beaucoup pour faire connaître mon travail 😌
3 liens utiles si jamais tu débarques ici pour la première fois :
Prêt(e) à consacrer ces quelques minutes à l’éthique appliquée à l’IA avec moi ? C’est parti 🚀
Vous l’avez lu partout, vu dans tous les grands médias. Vous l’avez aussi entendu de la bouche des politiques. L’IA, c’est le temple de la désinformation. Avec l’IA, les fake news seront partout, elles vont se multiplier et le monde va être déstabilisé. Rien que ça !
Il ne s’agit pas de nier les liens entre les outils d’IA grand public et fake news. Oui, ils existent et oui, il est désormais plus facile de propager de la désinformation “de qualité”. Mais il est faux et archi faux de dire que la désinformation est née avec ChatGPT et Midjourney.
Pour une IA éthique, il est cependant essentiel de se saisir de ce sujet important.
La désinformation ne date pas d’hier…
Tous les Français qui me lisent connaissent l’affaire Dreyfus. On est en 1894 et un officier de l’Armée française est accusé de haute trahison pour espionnage au profit de l’Allemagne. Il est condamné, dégradé, déporté en Guyane, avant d’être réhabilité quelques années plus tard.
L’affaire Dreyfus, c’est l’une des désinformations les plus marquantes de l’Histoire. Faussement accusé, notamment parce qu’il est juif, Dreyfus a subi toutes les fake news qu’on pouvait imaginer à l’époque.
La désinformation, c’est donc une vieille méthode pour tromper une audience. L’objectif est toujours le même :
On prend un élément réel (une personne, un évènement…),
On transforme les faits voire on les invente :
Pour l’affaire Dreyfus, un membre de l’armée a bien espionné au profit de l’Allemagne,
Mais ce n’était pas Alfred Dreyfus.
On fait croire à une audience ciblée que ces faits sont réels (ici, entre autres, le conseil de guerre ayant condamné Dreyfus)
On fait tout pour masquer la réalité des faits ou qu’il s’agit d’une invention.
Les fake news sont donc aussi vieilles que l’être humain ! Mais, ces dernières années, la désinformation est devenue une arme accessible à tous.
… Ni de ChatGPT et de Midjourney !
L’arrivée des réseaux sociaux a fait passer la désinformation dans l’ère moderne. Désormais, n’importe qui peut produire une fake news, avec un objectif qui n’a pas évolué : tromper l’audience.
Or, ni ChatGPT ni Midjourney n’existaient quand la phase moderne de la désinformation a débuté. Il y a donc un problème quand certains politiques (car ce sont eux) insistent sur le rôle de l’IA générative dans les fake news. Les outils d’IA sont autant responsables des fake news que ne le sont Facebook ou Twitter. Ils ne sont que les intermédiaires en facilitant grandement la propagation (Facebook et Twitter) et la production (outils d’IA).
Il est donc assez agaçant de voir l’UE (toujours elle) cibler l’IA générative comme étant source de désinformation, comme si elle ne savait faire que ça. Non, Midjourney n’a pas inventé la désinformation et cette dernière continuera quand Midjourney disparaîtra.
Le rôle de l’IA générative dans la production de fake news
Pourtant, il sera faux de nier l’évidence : oui, les fake news peuvent amplifier en nombre et en diffusion avec l’IA.
D’une part, l’IA non générative peut créer des algorithmes de recommandation, qui peuvent eux-mêmes propager de manière bien plus rapide les fake news. D’autre part, l’IA générative peut produire des fake news de très grande qualité, pouvant facilement tromper les utilisateurs.
Certaines fake news peuvent faire sourire, comme le pape en doudoune. D’autres pas vraiment, comme la fausse explosion à Washington. Les deepfakes peuvent être très dangereux et je suis pour une interdiction de principe avec quelques exceptions possibles.
Les outils d’IA, générative ou non, vont donc jouer un rôle clé dans la désinformation du futur, sans pour autant devoir être accusés de tous les maux. Pour une IA éthique, il est donc nécessaire de penser le sujet pour éviter un point de non-retour.
Le rôle de l’IA éthique face à la désinformation
Pour moi, l'IA éthique va jouer un rôle fondamental dans la lutte contre les fake news. Non, elle ne sera pas magique au point de les stopper. Mais on pourra faire des choses intéressantes.
L’IA éthique, c’est la responsabilité des systèmes d'IA à fournir des informations véridiques, fiables et non biaisées. En tant qu'impératif éthique, les systèmes d'IA doivent alors privilégier l'exactitude, en garantissant qu'ils n’amplifient pas la désinformation.
Par exemple, en ce qui concerne la presse et la diffusion d’informations, les outils d’IA vont devoir examiner les données de manière critique, en faisant tout pour que les nouvelles diffusées soient exactes car vérifiées en amont.
En outre, selon moi, la transparence des informations est très importante et, là encore, l'IA éthique a un rôle à jouer. C’est en expliquant de la manière la plus transparente possible qu’un outil d’IA gagne la confiance de ses utilisateurs, mais aussi de toutes les personnes qui vont interagir directement ou directement avec lui.
Enfin, il va falloir se poser les questions liées à la responsabilité. Oui, j’ai dit plus haut que ChatGPT et Midjourney ne sont que des intermédiaires, comme le sont Facebook et Twitter. Néanmoins, le risque d’amplification est réel et repenser la notion de responsabilité ne doit pas être un vœu pieux. Tout d’abord, on doit pouvoir reconnaître la responsabilité de l’utilisateur, sans qu’il puisse se dérober. Ensuite, l’éditeur de l’outil devra aussi faire face à ses responsabilités s’il n’a pas pris les mesures techniquement possibles pour empêcher la création et/ou la propagation de la fake news.
Je conviens que la solution parfaite n’existe. Certains lecteurs pourraient d’ailleurs voir une contradiction entre le début de l’édition, où je dis clairement que l’IA n’est pas responsable de la désinformation, et ce paragraphe, où je mets en jeu la responsabilité d’un outil d’IA. C’est parce que je sépare la création même du concept de désinformation (bien plus vieux que l’IA) et l’accélération de la diffusion (permise par les réseaux sociaux et accentuée par l’IA).
Or, ce que je veux, c’est une IA éthique qui empêche tant bien que mal la diffusion de choses qui pourraient faire plus de mal que de bien.
Quelles solutions peut proposer l’IA éthique face à la désinformation ?
J’ai déjà en partie répondu dans le paragraphe précédent et je vais apporter quelques précisions dans celui-ci.
Perso, je vois 4 solutions envisageables d’une IA éthique face aux fake news.
Les algorithmes
C’est la solution la plus logique, la plus “simple” et au fond, celle qu’on souhaite tous. Une IA puissante pourrait créer un algorithme capable d’identifier une fake news. En gros, chaque publication passe dans la moulinette de cet algo qui, en quelques millisecondes, valide le post ou au contraire le supprime, car c’est une fake news.
Pour moi, cette solution technique est de très loin la meilleure, car elle n’implique quasiment aucun travail une fois déployée et elle est infaillible. Tout le problème est de justement la rendre infaillible, ce qui n’est pas une mince affaire.
La sensibilisation
Cela fait des années qu’on parle d’éduquer les gens face aux réseaux sociaux. Pourquoi ne pas commencer par l’IA ? On pourrait apprendre aux internautes à repérer la désinformation. Malheureusement, je n’y crois pas du tout.
Aujourd’hui, la majorité des gens ne vérifient plus les informations qu’ils lisent. On croit tout ce qu’on voit ou presque. On part donc de très très loin dans cette éducation numérique.
Je sais que mes lecteurs sont plus avisés :) Donc je vous fais confiance pour vous former vous-mêmes !
La réglementation
C’est la technique préférée de l’Union européenne, sur à peu près tous les sujets ! IL FAUT REGULER ! Bon, si vous me lisez, vous savez que c’est pas vraiment la mienne. Néanmoins, il faudra instaurer des garde-fous.
Par exemple, si l’algorithme magique dont j’ai parlé juste au-dessus existe réellement, il faudra l’imposer légalement. Les notions de responsabilité vont aussi devoir être tranchée.
En revanche, je refuse une régulation a priori, seulement guidée par la peur et les seuls effets négatifs. Or, c’est ce qu’il y a avec une partie de l’AI Act.
La transparence des outils d’IA
J’en ai parlé dans le paragraphe précédent, donc je ne veux pas répéter. Mais plus l’algo Midjourney est transparent (c’est un exemple), plus on aura confiance en lui et plus on saura si l’algo en question joue le jeu de la désinformation ou non.
Bref, c’est un sujet complexe et j’espère vous avoir un peu éclairé.
Voilà, c’est tout pour aujourd’hui, à la semaine prochaine 🙂