Édition 30 - L'AI Act, la victoire du catastrophisme ?
#30 Beaucoup de choses à dire sur le sujet !
Si vous aimez mon contenu, cliquez sur le ❤ au-dessus et à côté de mon nom pour m’aider à remonter sur Substack ou Gmail et parce que ça me donne encore plus envie de faire mieux la prochaine fois 😊
C’est jeudi, le jour d’EthicGPT ! 😊 Je suis très heureux de vous retrouver pour cette 30e édition !
Si quelqu’un vous a transféré cette édition et que le contenu vous plaît, n’hésitez pas à vous abonner et à la transférer également. Cela m’aidera beaucoup pour faire connaître mon travail 😌 Si vous êtes déjà abonné(e), vous pouvez également me soutenir.
Quelques liens utiles si jamais vous débarquez ici pour la première fois :
Vous souhaitez sponsoriser cette newsletter ? C’est par ici.
Mon podcast Singularité IA dans lequel je débats avec mon ami Jean-Baptiste Berthoux,
La présentation et les archives de cette newsletter
Enfin, ma formation Avocats Augmentés a déjà séduit plus de 50 personnes. Cette confiance me rend extrêmement heureux vu tout le boulot que j’accomplis. Elle est disponible à 350 €. Si vous êtes intéressé(e), c’est par ici.
Prêt(e) à consacrer ces quelques minutes sur l’IA avec moi ? C’est parti 🚀
La semaine dernière, l’AI Act, règlement de l’Union européenne sur l’intelligence artificielle, a été adopté en grande pompe. En grande pompe, c’est bien l’expression qui sied le mieux à ce qu’il s’est passé.
Il n’y a qu’à voir le tweet du commissaire européen Thierry Breton, en charge du dossier, qui n’hésite pas à parler d’un jour “historique”. Historique, parce que l’Europe est la première entité à réguler sur l’intelligence artificielle.
Ce tweet en dit long sur la capacité de l’Europe aujourd’hui ou plutôt de l’Union européenne : réguler.
Sur Linkedin et ailleurs, on a vu un défilé de félicitations, de raccourcis gravissimes, d’incompréhension voire de mensonges.
Contrairement à ce que je craignais au départ, l’AI Act a évité le pire. Il ne signe donc pas encore l’acte final de la fin de l’innovation numérique en Europe. Mais il marque une victoire importante des ayatollahs de la Privacy et la confirmation que la bureaucratie européenne s’enfonce dans un puits sans fond.
Surtout, contrairement à ce qu’osent dire certains, ce règlement n’est bon ni pour l’Europe ni pour l’IA éthique. Bien au contraire.
L’AI Act, un résultat moins catastrophique que prévu
La dernière mouture du règlement laissait présager le pire. Je reconnais objectivement que la déclaration de Bruno Le Maire, appelant à une régulation sans bloquer l’innovation, a aidé à changer certains éléments.
L’AI Act a souhaité éviter que les projets d’IA européenne soient mort-nés. Les obligations sont donc moins contraignantes, même si elles sont très strictes pour les modèles propriétaires d’IA générative. Oui, je dis “propriétaires”, car l’AI Act ne s’applique pas aux modèles open source.
Ce dernier point est important et très positif, même si je reste persuadé que l’open source est un sujet de niche pour les convaincus. Les non-convaincus et ceux qui utilisent un outil “parce qu’il le faut” iront toujours vers des modèles propriétaires. Sinon, plein d’entreprises tourneraient sous Linux.
L’AI Act, c'est donc un “exploit” acclamé par certains, décriés par d’autres, qui marque un tournant décisif dans la transformation numérique européenne. Ou plutôt, dans l’absence de transformation.
En fait, le problème ne vient pas du fond. Ce règlement n’est pas la catastrophe. Il appuie même sur des éléments que j’ai moi-même dénoncés :
La forte limitation des deepfakes,
L’interdiction des IA immorales, comme le crédit social à la chinoise ou la prédisposition à commettre un crime.
Non, le problème vient de la forme.
L’AI Act, une défaite sur toute la ligne
Problème 1 : considérer qu’une régulation a priori est une victoire
En droit, quelque chose d’a priori est ce qui vient “avant”. En l’espèce, l’AI Act est une réglementation qui arrive avant même l’intelligence artificielle.
L’arrivée de ChatGPT a tout fait basculer, parce que ce projet de règlement était discuté depuis 2021. Selon certains, il fallait légiférer le plus vite possible. Et ce qui s’est passé la semaine dernière est donc une victoire pour ces personnes.
Je suis ébahi devant autant d’incompréhension.
Comment peut-on considérer comme une victoire le fait de légiférer quelque chose qui n’existe pas ?
Oui, l’IA en Europe, elle n’existe pas. Elle émerge. Hugging Face aurait pu émerger, mais a préféré partir aux Etats-Unis, où l’herbe est plus verte. Mistral AI est prometteur, mais reste un nain de jardin à côté d’OpenAI.
À côté des nains européens, que je soutiens pourtant de toutes mes forces, on a le mastodonte OpenAI, sa rivale Anthropic, Meta et Google qui sont dans la course, Apple qui prépare quelque chose sans rien et les (dangereuses) IA chinoises. Autrement dit, que des Américains et des Chinois. Comme avant, comme toujours.
En créant un règlement qu’elle ne va s’appliquer qu’à elle-même (j’y reviens), l’UE a scié la branche sur laquelle étaient difficilement assis les projets européens.
Comment Mistral AI, qui est en plein développement, va-t-il accueillir les obligations qui lui seront imposées ? A priori, mal.
Dire le contraire et dire plus précisément que ce règlement est une aubaine pour voir émerger une IA européenne forte, c’est au mieux de l’incompétence, au pire un mensonge.
Problème 2 : l’Europe n’influence pas le reste du monde
La Privacy, ou la protection des données en ligne, c’est normalement mon dada. En fait, ce fut mon dada. Puis, en plus de voir que tout le monde s’en foutait de ses données en ligne, j’ai aussi compris que ce principe était détourné par une armée de mollahs qui veulent imposer leurs idées aux autres.
Et ces mollahs sont en plus des menteurs. Ils pullulent sur Linkedin et ils ont l’oreille, directement ou indirectement, des bureaucrates européens.
Ces personnes affirment avec autorité que le reste du monde regarde l’Europe avec des yeux d’ange et que l’Europe est, pour ce reste du monde, un modèle. Le premier exemple est toujours le même : le RGPD.
Mais, ce que ne disent pas nos amis, c’est que les réglementations du reste du monde ne suivent pas vraiment le RGPD. En Californie (donc PAS aux Etats-Unis dans leur ensemble), le CCPA reprend des éléments du RGPD, mais en exclut beaucoup d’autres. Surtout, le CCPA protège de manière déguisée ses entreprises locales, au contraire du RGPD qui ne fait aucune distinction.
Or, le RGPD, ce super modèle selon certains, n’a eu qu’une conséquence : briser des entreprises européennes et seulement européennes. Les GAFAM californiens et TikTok paient leur amende et adaptent leur politique de protection des données. Rien de plus.
Pour ces géants, le RGPD est une paille et les pays en question (USA et Chine) se frottent les mains. Eux sont protectionnistes et ont raison de protéger leur business. En Europe, détruire des business européens n’est pas un problème.
Avec l’AI Act, on va revivre la même chose. Les seuls bénéficiaires seront les entreprises non-européennes. Parce que oui, le règlement s’appliquera bien à OpenAI et consorts. Mais ces géants trouveront toujours un moyen de détourner le règlement, de payer les amendes ou de proposer un LLM alternatif s’il n’y a pas de solution.
De toute façon, ces boîtes savent que l’avenir du monde est en Asie (Moyen-Orient et Extrême-Orient) et que l’argent est là-bas.
Problème 3 : les Etats-Unis ne prennent pas le même chemin que l’Europe
Vendredi ou samedi, j’étais tellement énervé de lire des c*nneries que je me suis senti obligé de répondre à une personne de manière assez véhémente sur Linkedin. J’ai notamment dit que ses propos pouvaient être assimilés à du mensonge.
Préférant répondre dans cette newsletter, j’ai supprimé mes commentaires. Si je suis bêtement sorti de mes gonds, c’est que j’en ai ras-le-bol de lire n’importe quoi sur le sujet. Et ce sujet est grave, car l’IA est l’avenir du monde.
L’un des points de discorde était sur la législation américaine, qui s’inspirerait fortement de l’Europe. Tout ceci est faux.
Déjà, il n’y a pas de législation américaine à proprement parler. Il y a seulement un Executive Order de l’administration Biden.
Ce document est important, mais il faut lire entre les lignes et surtout rappeler son contexte.
Biden a reçu 7 entreprises de l’IA au printemps, dont OpenAI, Anthropic, mais aussi les GAFAM. Objectif ? Établir des lignes directrices sur l’IA. On voit dès lors une volonté de discussions, plutôt qu’une volonté de réguler à tout prix.
L’Executive Order semble mettre des contraintes quand on lit de prime abord. Mais, en lisant un peu mieux, on s’aperçoit que cela n’est pas aussi évident :
Il y a bien un accent mis sur la sécurité et la protection des individus, ce qui est normal et logique,
Il y a aussi une volonté de restreindre voire d’interdire certaines pratiques, à peu près les mêmes que celles interdites dans l’AI Act, ce qui est là aussi normal et logique
Il y a une obligation de partage des tests de sécurité pour les applications sensibles => les ayatollahs de la Privacy penseront que c’est pour protéger les citoyens. Manque de bol, on est aux USA, c’est donc pour que l’administration américaine puisse bénéficier pour son propre intérêt de la technologie.
Enfin, il y a toute une partie sur comment promouvoir l’écosystème américain => en un mot, ça s’appelle du protectionnisme, un gros mot dans l’UE.
Ainsi, l’Executive Order de Biden, en sachant qu’il n’est pas aussi contraignant que l’AI Act, n’est pas influencé par l’AI Act. Il est influencé par une logique mêlant innovation, sécurité et supériorité.
Une innovation nécessaire sans omettre l’éthique et la sécurité, tout en disant implicitement que l’écosystème américain doit surpasser les autres.
Si l’AI Act avait les mêmes termes, je le soutiendrai à fond. Mais ce n’est pas le cas.
Problème 4 : L’AI Act ne va pas favoriser l’écosystème européen
Pour moi, les seules déclarations valables à ce sujet sont celles des acteurs. Je l’ai mis au-dessus, le patron de Mistral s’inquiète d’une régulation trop stricte pour son développement. Le lobby européen pour l’innovation numérique (je ne retrouve plus le nom et le lien) dit exactement la même chose.
Emmanuel Macron lui-même estime que l’AI Act peut empêcher le développement d’un écosystème européen.
Pourtant, j’ai lu je ne sais combien d’avocats (dont une que j’estime vraiment), “d’intellectuels”, de petite élite ou autres personnages influents dire le contraire. Selon ces personnes, l’AI Act va favoriser l’écosystème européen. Cela pourrait marcher si l’Europe avait déjà un concurrent digne de rivaliser avec OpenAI ou même Anthropic.
Spoiler : ce n’est pas le cas.
Spoiler 2 : c’est presque mathématique de dire qu’on ne pourra pas développer un concurrent digne de ce nom avec des règles strictes, quand ces mêmes règles ne s’appliquent ni aux USA, ni en Chine, ni même en Israël, au Royaume-Uni voire en Suisse.
En fait, le problème n’est pas l’AI Act qui n’est qu’un texte. Le problème, ce sont les gens qui les promeuvent. Ces gens ont détruit l’innovation en Europe, alors que c’était le continent numéro 1. Mais ils ne s’en rendent pas compte.
Pour moi, l’IA éthique pourrait être victime de l’AI Act. En effet, je suis persuadé que l’IA éthique a besoin d’une IA innovante. L’innovation va de pair avec l’éthique, il n’y a pas d’éthique seule.
Avec une réglementation trop stricte, on aura des IA inutiles, car trop restreintes, ou bien des IA sans éthique, car développées hors d’Europe. Et au final, ce seront ces IA sans éthique qui gagneront.
C’est peut-être ça le plus triste.
Voilà, c’est tout pour aujourd’hui, à la semaine prochaine 🙂