Impossible de passer à côté, il y a une véritable tempête médiatique sur l’intelligence artificielle et ses dangers supposés. Il se trouve que je suis pris dedans et que j’ai été interrogé par de nombreux médias sur cette question (et ce n’est pas fini !). J’ai donc pris le temps d’organiser mes pensées sur ce sujet sous la forme de ce billet.
Contexte : ChatGPT et les IA génératives
Tout le monde a entendu parler de ChatGPT qui a mis sur le devant de la scène les IA génératives. Vous trouverez dans mon billet 1e soirée RedBay : ChatGPT de nombreux pointeurs pour comprendre ce phénomène. Je vous invite en particulier à visionner l’émission La Grande Enquête, Faut-il avoir peur de l’IA, coproduite par l’Université de Lille et à laquelle j’ai participé, où nous faisons un tour d’horizon de ce que recouvre le terme intelligence artificielle et de ses usages avec les doctorants de l'université.
Retenons que les IA générationnelles ne font que générer des textes probables basés sur un ensemble de textes qu’on leur a fourni pour qu’ils apprennent les structures du langage et les suites de mots de cette base d’apprentissage. Ils n’ont structurellement aucun moyen de citer leurs sources ni d’assurer que le texte qu’ils génèrent est vrai. Cependant si les faits sur lesquels ils sont interrogés sont suffisamment présents dans leur base d’apprentissage, ils vont générer des textes probablement corrects. Par contre, si on les interroge sur des concepts absents de leur base d'apprentissage, ils vont inventer des textes probables mais sans lien avec la réalité, les fameuses hallucinations.
Point de départ : la lettre ouverte demandant une pause de 6 mois sur l’entrainement des grandes IA génératives
Étant intéressé par les travaux de l’Union Européenne dans le domaine du numérique, et en particulier la décennie numérique, je me suis abonné à une lettre d’information sur l’avancement des travaux législatifs sur l’AI Act. Cette lettre d’information est fournie par le Future of Life Institute, une ONG américaine qui réfléchi aux risques civilisationnels des technologies transformatives, dont l’intelligence artificielle. Or, c’est cette ONG qui est à l’origine de la lettre Pause Giant AI Experiments: An Open Letter. J’ai donc vu cette lettre avant qu’elle soit publique et je l’ai signée car ça m’a semblé une bonne idée sur le moment.
Quelle ne fut pas ma surprise 2 jours après d’être appelé par plusieurs journalistes pour me demander mon avis sur cette lettre ! J’étais en fait un des seuls 5 ou 6 français à avoir signé la lettre quand elle a été rendue publique. Bref, me voilà invité à participer
- au journal de 19h du 29 mars (à partir de 15 min 40 s) de France Inter ;
- à une interview dans la Voix du Nord du 30 mars ;
- à une émission sur BFM TV le 31 mars (pas de replay) ;
- au journal de 20 h de TF1 le 2 avril (pas de replay) ;
- et bientôt à une émission sur France 3 Hauts-de-France le 15 mai.
Le Future of Life Institute a posté une FAQ retraçant la genèse de cette lettre et les réactions qu’elle a suscitées.
Points de vue des 3 lauréats du Prix Turing pour leurs travaux en IA
En 2018, Yoshua Bengio, Geoffrey Hinton et Yann Le Cun ont reçu le Prix Turing, la plus haute distinction en informatique, pour leurs travaux en intelligence artificielle. Tous trois ont prix position sur cette lettre ouverte.
Yoshua Bengio en est même le premier signataire (tout en refusant la vision long-termiste de la lettre) ! Il a récemment donné une interview au Monde où il défend l’idée que le monde de l’IA a un besoin urgent de ralentir par précaution pour prendre le temps de réfléchir aux questions éthiques posées par les IA génératives. Il met l’accent sur les risques de désinformation, d’usages militaires et de destruction d’emplois.
Yann Le Cun, qui dirige le laboratoire d’IA de Meta, a pris position contre la lettre. Il a, lui aussi, été interrogé par le Monde et par Usbek&Rica. Il y défend les aspects positifs des IA et déclare qu’un moratoire sur la recherche en IA serait un nouvel obscurantisme (je suis d'accord, mais ce n'est pas ce que demande la lettre). Il plaide pour une régulation des IA et pour des systèmes ouverts.
Geoffrey Hinton a été le dernier à prendre la parole publiquement. Il l’a fait début mai en quittant Google (où il était employé à mi-temps) pour reprendre sa liberté de parole et alerter sur les dangers des IA à son tour. Il a donné une interview au NY Times dont vous pourrez trouver des extraits dans cet article du Monde. Il insiste en particulier sur les risques de désinformation.
Risques principaux
Désinformation
Le risque de désinformation est généralement le premier cité. En particulier, le risque est de ne plus pouvoir différencier si on parle à un humain ou à une IA. C’est le fameux test de Turing, et on peux argumenter que les systèmes tels que ChatGPT passent haut la main ce genre de test. Yoval Noah Harari, lui aussi signataire de la lettre, va même jusque dire que ce serait la fin de la démocratie, voire même de l’histoire humaine (mais « pas la fin de l’histoire, juste la fin de sa partie dominée par l’humain ».).
Je ne suis pas inquiet qu’une éventuelle IA générale invente seule de nouvelles histoires, ce qui est très hypothétique et très lointain, mais plutôt que des personnes motivées par la manipulation de l’opinion utilisent ces outils pour créer massivement des textes qui seraient encore plus difficiles qu’avant à détecter. Cela dit, la désinformation de date pas d’aujourd’hui comme le montre Roy Pinker dans son livre Fake news & viralité avant Internet, et d’autres types d’IA sont aussi impliquées dans la diffusion des infox : les algorithmes de recommandation des réseaux sociaux (voir l’affaire Cambridge Analytica). Les IA génératives ne font que compléter la boîte à outil déjà bien fournie des manipulateurs d’opinion. Le sujet de construire des systèmes d'IA robustes et éthiques est d'ailleurs un thème de recherche bien établi dans la communauté académique (voir par exemple le livre Le fabuleux chantier et la tribune de son auteur, Lê Nguyên Hoang, sur le sujet).
Impacts sur l’emploi
Une des raison pour lesquelles les médias parlent tant de ce sujet est peut-être qu’ils sentent qu’une partie de leur travail est menacé. En effet, après l’automatisation du travail physique par des machines et des robots, on assiste aujourd’hui à l’automatisation du travail intellectuel créatif (production de texte, d’images, de musique, etc).
Allons-nous assister à une destruction massive d’emplois, ou à une destruction créatrice de nouveaux emplois avec une augmentation de la productivité ? Les études (anciennes comme listées dans cet article ou récentes comme la dernière étude de Goldman Sachs) montrent surtout que de nombreux métiers vont être modifiés par les IA génératives. Chiffrer ces impacts est difficile mais il est intéressant de constater que les traducteurs ont bien résisté aux outils de traduction automatique en s’en servant eux-mêmes. Comme avec la calculatrice, le web, wikipedia et d’autres révolutions annoncées, il est important de bien en enseigner les usages et les limites pour en tirer un bénéfice maximal et en limiter les risques.
Au delà de cette modification des emplois existants, il faut aussi se poser la question des emplois créés pour modérer les textes d’apprentissage et les interfaces conversationnelles, et ainsi tenter d’éviter les biais et les contenus problématiques ou illégaux dans les réponses. Or ces emplois, comme ceux des modérateurs des réseaux sociaux, sont peu techniques et très largement délocalisés dans des pays à la main d’œuvre bon marché comme le montre cette enquête.
Cybersécurité
ChatGPT et d’autres grands modèles de langages savent générer du texte dans un grand nombre de langages, dont du code informatique. Des utilisations pour augmenter la productivité des développeurs apparaissent, comme GitHub Copilot. Ces outils peuvent être utilisés pour générer du code, de la documentation, mais aussi analyser du code ou encore générer des tests.
Ce qui inquiète Lê Nguyên Hoang dans cette vidéo est que les cybercriminels ont beaucoup d’argent et pourraient donc investir dans ces outils pour générer des emails d’hameçonnage encore plus difficiles à détecter, analyser des programmes pour trouver de nouvelles failles, ou encore générer des malwares plus facilement.
Impact environnemental
Les grands modèles de langages sont vraiment très grands 😸 (175 milliards de paramètres pour ChatGPT), et leur fabrication et leur utilisation consomment beaucoup de ressources. Ils ont donc un impact sur l’environnement dont on peut se demander s’il est raisonnable compte tenu de leurs usages.
EcoInfo a publié quelques billets sur les impacts environnementaux et sociaux de l’IA et une étude récente a tenté d’estimer l’impact en émissions de gaz à effet de serre de l’entraînement de ChatGPT. Cette consommation est telle que seules les Big Tech ont les moyens techniques pour entraîner de tels modèles. Et dans le cas d’un outil grand public comme ChatGPT, les coûts d’inférence deviennent gigantesques eux aussi à cause du très grand nombre de requêtes. En effet, cet article indique que l’ordre de grandeur du coût quotidien de ChatGPT serait entre 500 000 € et 1 M€, et ces coûts sont principalement des dépenses d’énergie...
Dans cette interview, Priya Donti essaie de mettre les usages des IA en face de ces coûts pour voir s’ils en valent la chandelle mais sa conclusion est plutôt pessimiste. Et de mon côté, je travaille à construire des IA ultra basse consommation d’énergie, les architectures neuromorphiques.
Des boîtes noires incontrôlables
Contrairement aux IA basées sur la logique (des systèmes experts aux solveurs SMT), ni les utilisateurs, ni même leurs concepteurs ne peuvent expliquer pourquoi une IA générative produit un texte donné en réponse à une question donnée. Tout n’est question que de probabilités (ce qui doit plaire à Lê Nguyên Hoang qui défend dans son livre La formule du savoir que les probabilités sont le langage universel de la science). Je rejoins tout à fait Yann Le Cun quand il explique que ces programmes ne raisonnent pas, ne décident rien tout seuls, ils ne font que répondre à des demandes d’utilisateurs. On est donc très loin de Skynet et Terminator ! Il y a une extrapolation exagérée entre ne pas comprendre finement le comportement d’un programme, et fantasmer sur un programme qui prendrait le contrôle de l’humanité. Par contre, il faut craindre les usages que des gens malintentionnés pourraient faire de ces outils.
Le fait que l’ordinateur soit plus performant que l’humain pour certaines tâches est loin d’être nouveau. Il calcule beaucoup mieux que nous (voir par exemple Wolfram Alpha qui peut d’ailleurs être couplé à ChatGPT), et depuis très longtemps. On ne s’en offusque pas alors que la capacité à calculer est un trait qu’on peut considérer comme propre à l’intelligence humain dans le règne animal. Autre exemple, qui peut dire qu’il comprend comment fonctionne son téléphone portable ? Ce qui ne nous empêche pas de d’utiliser cette boîte noire à longueur de journée.
Et le cerveau biologique n’est-il pas une boîte noire, lui aussi ? Qui peut expliquer toutes ses décisions ? On construit bien souvent des raisonnements à posteriori pour les justifier en utilisant une logique approximative. Utilisons notre esprit critique aussi bien pour analyser les discours des machines que ceux des humains !
Appels à plus de régulation
L’éthique de l’IA n’est pas un sujet très récent puisque la déclaration de Montréal pour un développement responsable de l’intelligence artificielle a posé un cadre éthique à l’IA dès 2018 et que l’Unesco projette une recommandation sur l’éthique de l’IA depuis 2019.
Cependant, le moment où la lettre ouverte a été publié n’est pas dû au hasard. En effet, le parlement européen finalise en ce moment même l’AI Act et le gouvernement canadien travaille aussi à un texte sur la régulation de l’IA. Ces 2 premiers textes pourraient avoir un effet prescriptif sur les autres pays. Il est donc important qu’ils soient équilibrés et applicables en prenant en compte les IA génératives et leurs évolutions.
Voici une liste de prises de positions récentes d’organisations ou d’experts sur la question de la régulation de l’IA :
- Le rapport de l’Institut Montaigne, Investir l’IA sûre et digne de confiance : un impératif européen, une opportunité française propose 10 recommandations dans les domaines économiques et réglementaires ;
- OpenFuture défend des approches basées sur les communs pour l’IA, avec en particulier une lettre ouverte du LAION aux parlementaires européens pour protéger la recherche ouverte et les systèmes open source ;
- Le monde a besoin d’une agence internationale pour l’IA, une proposition d’agence sous l’égide de l’ONU par Gary Marcus et Anka Reuel ;
- Lettre ouverte à la Commission Européenne sur l’IA et la robotique demandant à ne pas donner de statut légal aux robots.
Conclusion
Le sujet de l’éthique et de la régulation de l’IA est chaud et je suis très content de voir qu’un débat sociétal s’installe. Même si je ne suis pas d’accord avec 100 % des mots de la lettre ouverte que j’ai signée (j’ai en cela une position très proche de celle de Yoshua Bengio), elle aura eu le mérite de rendre ce débat visible dans la société et je fais volontiers ma part dans ce débat en répondant aux sollicitations des journalistes.
J’attends avec impatience de voir comment ce débat sera entendu par les parlementaires européens et de lire la réglementation qu’ils produiront. L’IA n’est pas le seul domaine du numérique qui pose des questions de régulation et d’autres textes sont déjà passés pour réguler les grandes plateformes, le DSA et le DMA. Comme par hasard, vous remarquerez que les entreprises ciblées sont les mêmes, celles qui sont tellement grandes qu’elles ont une position monopolistique. Certains, comme l’activiste et auteur Cory Doctorow, affirment même que c’est cette position monopolistique qui est à l’origine de certains problèmes.
Au delà de la régulation, comme toujours, une partie de la résilience de la société aux effets pervers des IA réside dans l’éducation qui forme l'esprit critique des citoyens.
Ce texte et ses illustrations (toutes les photos ont été prises par mes soins) est mis à disposition selon les termes de la Licence Creative Commons Attribution - Partage dans les Mêmes Conditions 4.0 International.
Pour ce qui est de HIVE en lui-même, dès que je détecte un texte traité par AI ou une traduction automatique je ne vote plus. Puisqu'il n'y a pas de véritable effort derrière et donc nul besoin d'être dédommagé.
Comme nous en avons déjà disucté, je ne suis pas du tout d'accord avec le fait que d'interroger une IA pour générer un texte ne demande aucun effort! sinon les prompts enginers ne seraient pas aussi bien payé.
Et je trouve que beaucoup de texte générés par IA sont beaucoup plus intéressant que 80 % des posts publiés sur Hive.
Personnellement je ne vois pas pourquoi un texte de qualité généré par IA mériterait ne mériterait pas de récompenses.
Bien entendu un texte "banal" généré par IA ne mérite pas de récompense et chacun devrait rester libre de voter ou non pour un post.
Je suis assez d'accord avec ce point de vue.
Merci de tes commentaires @itharagaian !
Les lois de la robotique d'Azimov sont une bonne base, mais ont pour moi un défaut, elles personnalisent le robot en lui supposant un libre arbitre, ou un pouvoir de décision. Aucune IA actuelle n'agit seule, toujours suite à une demande humaine. C'est donc les humains concevant ou utilisant les IA qu'il faut contrôler, d'où la nécessité d'une régulation passant par la loi. Mais rien n'empêche ces régulations de prendre appui sur des principes éthiques comme les droits et principes du numériques qui ont été adoptés par l'UE en décembre 2022.
Concernant l'emploi, il y a en effet une transformation progressive depuis des décennies suite à l'automatisation avec une aggravation massive des inégalités. Il est grand temps en effet de revoir les systèmes fiscaux et de solidarité pour lutter contre ces inégalités. Le revenu universel et les taxes sur les dividendes et sur les transactions financières font partie de ces réformes souhaitables, j'en conviens volontiers.
Le test de Turing est surtout une expérience de pensée, il a été proposé en 1950 alors qu'on ne parlait pas encore d'intelligence artificielle dans probablement l'article fondateur de la discipline. Son utilité pratique est controversée et l'article de wikipedia en fait bien état. Au vu des réactions du grand public à ChatGPT, j'ai tendance à penser qu'on n'en est pas loin.
On est d'accord sur les trois points, merci pour les précisions :-)
Et pour chatgpt, c'est vrai que cela fait parfois un peu peur de voir des gens qui posent des questions à ces algorithmes et pensent que la réponse est intelligente :)
L'IA est là et les acteurs "mal intentionnés" ne vont pas hésiter à l'utiliser. Il faut donc que les acteurs "bien intentionnés" apprennent à l'utiliser aussi.
Je trouve ce résumé extrèmement réducteur !!! Si c'était le cas, l'irruption de l'IA ne générerait pas autant d'interrogations, à mon avis.
J'ai volontairement résumé à l'extrême, mais c'est vraiment ça. Les 2 meilleures explications que j'ai trouvées sont la vidéo de Monsieur Phi et l'article de Stephen Wolfram (en anglais et beaucoup plus technique).
Autre source que je viens de trouver : cet article de Binaire, le blog de la Société Informatique de France.
Je trouve de nouvelles sources tous les jours 😅
Voici l'article de Colin de la Higuera, titulaire de la chaire UNESCO ressources éducatives libres et IA à l'université de Nantes où il explique pourquoi il a signé la lettre ouverte.
Pour d'autres points de vue, IEEE Spectrum a compilé les réactions de membres de l'IEEE, la plus grande société savante pour « l'avancement de la technologie au profit de l'humanité ».