Édition 2 - Pourquoi il faut interdire les deepfakes
#2 Une prise de position nécessaire pour une IA éthique
Si tu aimes mon contenu, clique sur le ❤ au-dessus et à côté de mon nom pour m’aider à remonter sur Substack ou Gmail et parce que ça me donne encore plus envie de faire mieux la prochaine fois 😊
C’est jeudi, le jour d’EthicGPT ! 😊 Je suis très heureux de te retrouver pour cette 2e édition !
Si quelqu’un t’a transféré cette édition et que le contenu te plaît, n’hésite pas à t’abonner et à la transférer également. Cela m’aidera beaucoup pour faire connaître mon travail 😌
Aujourd’hui, j’ai choisi de rebondir sur un fait d’actualité : les deepfakes. Or, deepfake et IA éthique, c’est un gros débat !
Les deepfakes ne sont pas nouveaux. On les voit depuis plusieurs années. Mais l’arrivée d’outils d’IA générative à destination du grand public a clairement changé la donne.
Aujourd’hui, n’importe qui peut créer un deepfake en quelques minutes. Avec une inconnue : la viralité de ce deepfake et ses conséquences potentiellement désastreuses.
L’actualité m’a donné raison, avec cette fausse explosion près du Pentagon à Washington, qui a fait “perdre” 500 milliards de dollars en quelques minutes à la Bourse new-yorkaise, immédiatement retrouvés une fois la rumeur dégonflée.
À l’heure où l’IA générative va devenir mainstream et accessible à des milliards d’individus, il faut immédiatement réguler les deepfakes et en faire un principe d’interdiction.
Qu’est-ce qu’un deepfake ?
Le deepfake est la contraction des expressions “deep learning” et “fake news”. En gros, on crée quelque chose de très réaliste, mais faux, grâce à la puissance de la technologie, avec des objectifs divers et variés.
Ce mot est apparu sur Reddit en 2017, soit 20 ans après la création de ce qu’on n’appelait pas encore deepfake. Le terme français hypertrucage existe, mais n’est quasiment pas employé.
Les premiers deepfakes datent du siècle dernier, puisque c’est en 1997 qu’on l’utilise pour la première fois dans les films via le Video Rewrite Program. Par exemple, le film Star Wars Rogue One, sorti en 2016, a “ressuscité” l’acteur Peter Cushing, décédé en 1994 !
Cette technologie mélangeait d’ailleurs le deepfake et la 3D. Au moment du tournage, ce n’était pas aussi développé qu’aujourd’hui.
Enfin, contrairement à une idée reçue, le deepfake, ce n’est pas que de la vidéo. On l’a vu avec la fausse explosion près du Pentagon, on va voir de plus en plus d’images générées par IA qui seront considérées comme des deepfakes. Il est également possible de recréer la voix d’une personne, vivante ou décédée.
Le deepfake, une technologie au départ positive…
En 1997, la création des deepfakes est vue sous un angle positif. C’est souvent comme ça avec une création du Sapiens et c’est après qu’on voit le négatif 😅
Dans l’industrie du cinéma, le deepfake est en effet une révolution. Quel réalisateur n’a jamais voulu pouvoir faire tourner un acteur ou une actrice décédé(e) ? Clairement, on va se taper du Morgan Freeman encore longtemps tant son charisme écrase celui de la nouvelle génération !
On a aussi vu des deepfakes redonner la “vie” à des personnes disparues grâce à de simples photos, suscitant une immense émotion de leurs proches.
Au départ, le deepfake est donc une invention positive et je dirais même éthique. Le problème, c’est qu’avec les humains, les travers arrivent assez vite.
… Qui dérive vers un côté noir et dangereux
C’est principalement avec la vidéo que les deepfakes ont commencé à inquiéter. Sur LinkedIn, j’ai donné 2 exemples caricaturaux, mais réels :
La fausse déclaration de guerre ou appel à la mobilisation générale d’un vrai politique,
La fausse bonne idée d’investissement mise en avant par Elon Musk.
Aujourd’hui, il est très facile de réaliser ces fausses vidéos. Je pense même que c’est 10 % du travail. Les 90 %, c’est rendre le contenu viral. Car oui, un deepfake dangereux qui reste entre les mains de son auteur n’est pas dangereux.
Or, aujourd’hui, une armée de bots peut rendre un contenu viral sur Twitter ou TikTok en quelques minutes. Avec des partages, likes et commentaires effectués par des robots, le contenu arrive rapidement devant les yeux de milliers de personnes, puis des dizaines de milliers, puis des millions.
Parmi ces millions de personnes, certains vont croire que le contenu est véritable. Imagine les conséquences d’une déclaration de guerre qui apparaît vraie dans l’esprit de milliers de personnes. C’est potentiellement cataclysmique.
Mais le deepfake peut aussi avoir des conséquences personnelles terribles.
Alors que le revenge porn a pris une ampleur sans précédent, on peut désormais créer de fausses vidéos intimes pour la partager au conjoint soi-disant trompé, alors que la vidéo est tout simplement fausse. Des personnes se font harceler en ligne pour des photos dénudées qu’elles n’ont jamais réalisées.
Et que dire de l’audio ? Imagine qu’une personne que tu connais très bien te transmet un vocal sur WhatsApp pour t’annoncer quelque chose de très important et qu’il faut agir vite. Par exemple, un besoin urgent d’argent. Sauf que ce vocal est faux, créé par deepfake. Et c’est encore plus complexe à détecter si la personne à la voix reproduite s’est faite pirater son numéro de téléphone sans s’être fait pirater la carte Sim !
En résumé, les usages des deepfakes peuvent avoir de terribles conséquences pour les personnes visées voire pour la stabilité du monde si une fake news devient virale et est considérée comme vraie.
C’est pour cette raison que je milite pour une interdiction immédiate.
Pour un principe d’interdiction mondiale des deepfakes
En 2023, la technologie deepfake reste embryonnaire. Or, elle s’est déjà fortement améliorée en 10 ans. Surtout, elle est désormais accessible à tous.
Une IA éthique ne peut pas accepter que les deepfakes représentent un danger pour des personnes ciblées ou même l’avenir de l’humanité.
Même si je ne suis personne pour imposer quoique ce soit, je préconise une interdiction immédiate des deepfakes ou, du moins, de très fortement restreindre l’accès.
Cela peut paraître radical, mais je n’ai pas assez confiance dans la raison humaine pour démêler le vrai du faux quand le faux paraît vrai.
La liberté de création ne disparaîtra quand l’important ici, c’est le partage et la viralité. Un deepfake qui reste sur le serveur d’une personne et n’est pas partagé ne pose a priori aucun problème.
Mais rassure-toi, je prévois des exceptions 😃
4 exceptions pour faire perdurer cette technologie innovante et la liberté de création
Bien entendu, il n’y a pas que de mauvais deepfakes. Et il est important de prévoir des exceptions pour que la liberté de création perdure.
Néanmoins, si un deepfake est créé et partagé sans respecter une de ces exceptions, les sanctions doivent être très lourdes et dissuasives. Pas 150 balles d’amende !
Le cinéma et la culture
Je l’ai déjà cité plus haut. Clairement, la technologie deepfake est une aubaine pour l’industrie du cinéma, de la musique et de la culture en général.
Refaire jouer un acteur disparu, c’était quelque chose de complètement irréel il y a encore quelques années.
Refaire chanter un chanteur disparu, c’était quelque chose de complètement irréel il y a quelques années.
Soutenons donc la liberté créatrice des cinéastes et vidéastes. Bien entendu, il faut que les héritiers aient donné leur accord (voire la personne de son vivant) et qu’ils soient rétribués en conséquence.
Ce dernier point a d’ailleurs un lien avec l’exception suivante.
L’accord de la personne
Un deepfake vidéo, audio ou image mettant en scène une personne ne doit pas être effectuée sans son accord ou celui de ses héritiers. Sauf pour la parodie d’une personne connue (j’y viens).
En gros, on ne pourrait même pas reproduire une voix sans cet accord. Ça permettrait d’éviter des drames familiaux.
Et pour les images ne mettant en scène aucun humain ?
Dire que c’est un deepfake
Si l’image de l’explosion près du Pentagon avait immédiatement indiqué “AI generated image”, il n’y aura eu aucun problème. Et ce n’est qu’un petit problème. Imagine pour des choses bien pires !
Indiquer en amont que l’image a été générée par une intelligence artificielle, cela change tout.
Si le deepfake met en scène une personne et n’est pas une parodie, il faut en outre l’accord de la personne.
La parodie et l’humour
Les célèbres deepfakes de Tom Cruise ne me choquent pas. Parce que c’est de l’humour. Quand on est une personne médiatique et connue, il faut savoir accepter des deepfakes basés sur l’humour et la parodie, même si parfois, cela peut heurter.
Il faut bien entendu séparer l’humour du mensonge. Faire un deepfake de fausse vidéo porno, ce n’est pas de l’humour.
En gros, pour une IA éthique, il ne faut autoriser les deepfakes que selon 4 conditions, dont certaines peuvent être cumulatives :
L’autorisation de la personne ou de ses héritiers pour quasiment tout type de deepfake,
Le cinéma ou la culture pour ressusciter des personnes disparues,
Indiquer immédiatement que la vidéo ou le média est un deepfake,
La parodie ou l’humour, sans avoir besoin de l’accord de la personne si elle est médiatique.
Le deepfake est une superbe invention. Elle n’est dangereuse par ce qu’en font certains.
On se retrouve la semaine prochaine pour une nouvelle édition ! 😀
Je ne crois pas à l'interdiction sauf exception soit une bonne chose. J'irais davantage avec autorisation sauf exception . Je ne crois pas qu'une innovation puisse dériver de quelque manière que ce soit.
C'est l'humain qui est commande des dérives, pas l'innovation.
Les fausses nouvelles n'ont pas attendu l'IA et peuvent avoir une surprenante résistance au cours des siècles. Une des plus détestables : le protocole des sages de Sion, est un pamphlet de désinformation anti sémite qui a fait et fait encore bcp de dégâts dans le monde depuis 130 ans , aucune deepfake ici.
Internet a failli être interdit , sauf exception, en 1994 , par crainte de la désinformation, suite à une pétition d'universitaires et de propriétaires de médias aux US. Cela aurait été regrettable .
Je partage évidement ton opinion sur les préjudices à la personne causés par les Deepfakes, mais il serait plus constructif de laisser le libre usage sauf risque de préjudice.
En fait nous pensons la même chose mais on aborde la solution différemment
Toujours très intéressant de te lire. Continue de
nous instruire.