Édition 35 - L'utopie de l'intelligence artificielle générale (AGI)
#35 Ou quand certains attisent les peurs
Si vous aimez mon contenu, cliquez sur le ❤ au-dessus et à côté de mon nom pour m’aider à remonter sur Substack ou Gmail et parce que ça me donne encore plus envie de faire mieux la prochaine fois 😊
C’est jeudi, le jour d’EthicGPT ! 😊 Je suis très heureux de vous retrouver pour cette 35e édition !
Si quelqu’un vous a transféré cette édition et que le contenu vous plaît, n’hésitez pas à vous abonner et à la transférer également. Cela m’aidera beaucoup pour faire connaître mon travail 😌 Si vous êtes déjà abonné(e), vous pouvez également me soutenir.
Quelques liens utiles si jamais vous débarquez ici pour la première fois :
Vous souhaitez sponsoriser cette newsletter ? C’est par ici.
Mon podcast Singularité IA dans lequel je débats avec mon ami JB,
La présentation et les archives de cette newsletter
Prêt(e) à consacrer ces quelques sur l’IA avec moi ? C’est parti 🚀
Aujourd’hui, j’ai envie de reprendre mes “newsletters éditos” un peu saillantes. Parce qu’il y a un sujet qui m’énerve de plus en plus et que j’avais envie de vous le partager.
Déjà, parce que c’est important que vous ne soyez pas influencés par les mauvaises ondes sur le sujet. Bon, aussi parce que j’aime bien donner mon avis 🙃 Le sujet en question, c’est l’intelligence artificielle générale, la fameuse AIG.
Pourquoi AIG ? Pour l’acronyme anglais Artificial General Intelligence. Cette AIG, qui est sensée tous nous surpasser, est un rêve pour certains, une immense peur pour d’autres. Mais, parmi ces personnes, il y a une sous-catégorie qui pense sérieusement que cela va arriver incessamment sous peu.
Le problème, c’est que ces personnes le disent publiquement. Elles l’écrivent et elles peuvent même le dire aux élèves qu’elles forment, qui bien sûr prennent peur.
Tout ça est dangereux, car on est encore dans la pure utopie.
Qu'est-ce que l'AGI ?
Je l’ai fait plus haut, je vais le refaire plus en détail ici. Avant de parler d’AGI, il faut définir clairement ce qu’est l’intelligence artificielle générale. Contrairement aux idées reçues, l'AGI ne se limite pas à une version améliorée de l'IA que nous connaissons aujourd'hui. L’AGI, c'est l'ambition de créer une machine dotée d'une intelligence comparable voire supérieure à celle de l'humain. Elle serait alors capable de comprendre, d'apprendre et de s'adapter à une multitude de situations.
Dit autrement, ce n’est pas passer de GPT-4 à GPT-5, c’est sortir des LLM tels qu’on les connaît aujourd’hui. Mais, malgré la hype de l’IA générative depuis novembre 2022, nous sommes encore loin du compte. L’AGI n’est à ce jour qu’une théorie et une hypothèse et je vais y revenir.
L'AGI, ce sont surtout questions bien plus complexes que nos IA actuelles, qui posent déjà plein de questions. Quand on parle AGI, on parle d'autonomie de décision, de créativité et même de conscience potentielle. Ces perspectives m'amènent à penser que l’AGI aurait (aura ?) des implications éthiques et sociétales bien plus profondes que GPT-4.
L’intelligence artificielle générale serait donc une ère qui nous ferait passer dans un nouveau paradigme, avec des changements bien plus profonds que ChatGPT ou Midjourney.
L’AGI est une réalité potentielle à long terme…
Dire que l’AGI est une invention de certains auteurs serait un mensonge. Oui, des entreprises, dont OpenAI, travaillent sur ce projet. Oui, les progrès dans ce secteur sont réels et on ne peut pas dire que cela n’arrivera jamais.
Néanmoins, il y a une certitude, c’est que l'AGI en est encore à ses balbutiements. Les avancées majeures sont surtout théoriques et expérimentales. Par exemple, des modèles capables d'apprendre et de s'adapter à des domaines variés sont en développement, mais leur capacité à "penser" comme un être humain et à avoir une conscience est encore très limitée.
Une autre réalité souvent négligée concerne les ressources nécessaires pour la recherche en AGI. Le financement, les compétences et les infrastructures requises sont considérables. L'AGI n'est pas simplement un projet de recherche, c'est une entreprise massive qui exige des investissements à long terme, tant en termes de temps que de ressources.
Sur la question des ressources, on voit néanmoins qu’on s’améliore très vite, AGI ou pas. Par exemple, le LLM de la start-up française Mistral a besoin de bien moins de paramètres que GPT-4, pour des performances qui sont à peine inférieures à celles de GPT-4. Je pense donc que la question des ressources va devenir caduque dans quelques années.
Là où il y a du développement, c’est sur les questions éthiques et de gouvernance de l’AGI. La gestion des données, la prise de décision autonome et les implications sur le travail et la société nécessitent une réflexion approfondie. L'AGI n'est pas qu'une question de technologie, ce serait une question de responsabilité sociale et éthique. Et là, personne n’a la réponse à ce qu’il faudra faire.
Tout ça, c’est à peu près tout ce qui existe sur l’AGI.
… mais actuellement, c’est surtout un mythe
Tout le reste, c’est de l’affabulation et du délire de certaines personnes qui voient l’AGI arriver demain. En France, l’un des fers de lance de cette idée est Laurent Alexandre. Si je lui reconnais le mérite d’avoir vulgarisé l’IA depuis longtemps, il va beaucoup trop loin dans certaines de ses idées, sur l’humanité devenant petit à petit du bétail.
Le premier mythe de l'AGI, ce serait qu’elle est une menace imminente à l'existence humaine. Je me rappelle encore de l’AI Safety Summit au Royaume-Uni à l’automne 2023, où certains intervenants nous faisaient croire que des robots tueurs allaient débarquer dans les rues. Dans Terminator, peut-être. Pas dans la réalité.
Le second mythe, c’est l’inverse, à savoir une AGI comme sauveuse de l’humanité. Des auteurs comme Ethan Mollick ou Packy McCormick sont très technophiles et vont souvent exagérer malgré eux certaines étapes du développement. Dans leurs écrits de passionnés, il est ressort presque que l’AGI va débarquer demain. Mais pour le coup, c’est positif pour l’humanité, donc c’est plus cool que les robots tueurs des technophobes. Sauf que là aussi, c’est exagéré.
Enfin, le plus gros mythe, c’est que l'AGI peut se développer de manière autonome et sans intervention humaine. Aujourd’hui, on est très très très très loin d’avoir cette IA autonome. Même une automatisation Make n’est pas vraiment automne ! Sans autonomie, l’AGI n’a aucune existence.
Il faut donc faire attention à tous ceux qui fantasment sur le sujet de l’AGI, parce que c’est dangereux au final.
Les mythes sur l’AGI attisent des peurs profondes
Les mythes entourant l'AGI ont un impact tangible sur la manière dont on aborde la technologie, notamment en attisant des peurs infondées. Le mythe le plus répandu est celui de l'AGI comme une entité omnipotente, capable de surpasser l'intelligence humaine et de prendre le contrôle. Comme dit plus haut, ce scénario est loin de la réalité actuelle de l'AGI et contribue à une peur irrationnelle.
Un autre mythe est celui de l'AGI agissant de manière malveillante ou éthiquement discutable. Alors que la question éthique est centrale dans le développement de l'AGI, la représentation d'une AGI malveillante relève plus du fantasme que d'une éventualité basée sur des preuves scientifiques. Et surtout : l’AGI est malveillante et non éthique, ce serait à cause de NOUS humains et de ceux qui l’auraient mal développée !
Le problème, c’est que ces mythes influencent les politiques. Une peur excessive peut conduire à des réglementations trop strictes, freinant l'innovation et le progrès. C’est typiquement le cas de l’AI Act en Europe. Mais j’en ai assez dit du mal, donc je vais arrêter 😄 (mais si vous êtes nouveaux par ici, allez lire ça).
La peur de l’IA relève du pur fantasme. Oui, elle va impacter des emplois, mais non, on ne va pas devenir du bétail. Ceux qui proclament haut et fort que l’AGI va débarquer demain (ou dans 5 ans, c’est pareil), sont finalement les plus dangereux.
Quel avenir pour l’AGI ?
Si je devais faire une conclusion bateau, je dirais que l'avenir de l'AGI est à la fois prometteur et incertain. Le potentiel d'innovation et de progrès qu'offre l'AGI est immense. On peut imaginer des applications révolutionnaires dans des domaines aussi variés que la santé, l'éducation ou l'environnement. Mais cet avenir ne peut se concrétiser sans une attention particulière portée aux implications éthiques, sociales, et réglementaires.
Mais quand je dis ça, est-ce que je parle d’IA ou d’AGI au final ? On ne sait plus. Dans tous les cas, il est crucial d'encourager une discussion ouverte et continue sur l'AGI. Surtout, il faut continuer à encourager l’innovation pour une seule raison : on a plus de chance de se prendre un astéroïde (ou une comète, je sais plus) à la Deep Impact que de voir une AGI dominer le monde dans 50 ans.
Voilà, c’est tout pour aujourd’hui, à la semaine prochaine 😌 (ou peut-être dans 2 semaines vu que j’ai 2 formations sur site la semaine prochaine !)
Tu fais référence au projet "Q" qui fait peur tout le monde ?