
As the ChatGPT chatbot continues to evolve and get talked about, hundreds of experts in the field of artificial intelligence express concern in an open letter and ask for a six-month break in research on more powerful tools than ChatGPT4. They state that some AI systems are potentially a serious threat to society and humanity, especially because of the unpredictability of these tools, even for their creators, and the risks for workers.
In recent years, artificial intelligence has developed at a breakneck and disturbing pace, coming dangerously close to the risks highlighted in works of science fiction. Elon Musk, co-founder and former board member of OpenAI, the company that later created ChatGPT, warned on December 3 of the risks posed by the prototype. In a message on Twitter, thethe billionaire wrote :
" ChatGPT est terrifiant. Nous ne sommes pas loin d’une IA dangereusement puissante."
Less powerful than its successor which appeared shortly after, on March 14. On that day, OpenAI launched its latest version of the agent, ChatGPT4, which has more precision, according to the company, and is able to interpret images. The company proposed it by affirming que l’agent "est plus créatif et collaboratif que jamais. Il peut générer, éditer et itérer avec les utilisateurs sur des tâches d’écriture créatives et techniques, telles que la composition de chansons, l’écriture de scénarios ou l’apprentissage du style d’écriture d’un utilisateur."
At the World Government Summit in Dubai last February, Musk had called à développer des "règles ou des règlements pour contrôler le développement de l’IA", en faisant une analogie avec la sécurité des transports ou médicale.
In the letter of March 28 ouverte à signature et publiée sur le site du Future of Life Institute, le fondateur de Tesla et SpaceX, est l’une des centaines de voix qui demandent une pause dans les recherches sur l’IA. Le choix du média n’est pas anodin, Musk est l’un des consultants de l’institut qui fait profession de dénoncer les risques existentiels que fait peser l’IA sur l’humanité et demande de "diriger la technologie transformatrice au profit de la vie et loin des risques extrêmes à grande échelle".
If many of the signatories of the letter have a conflict of interest in their criticism of ChatGPT, working in particular in competing companies of OpenAI and Microsoft whose lead is monstrous, their criticisms are nonetheless legitimate and worrying.
Les signataires disent croire que "l’humanité peut jouir d'un avenir florissant grâce à l'IA "et parlent de "profiter d’un été de l’IA" avec des systèmes conçus "pour le plus grand bénéfice de tous" et souhaitent donner "à la société "une chance de s’adapter". Mais cela n’est possible qu’à la condition d’agir comme lorsque "la société a mis en pause d’autres technologies aux effets potentiellement catastrophiques pour elle".
Concluant la métaphore, ils exhortent à une pause fondée sur le principe de précaution :
"Profitons d'un long été de l'IA et ne nous précipitons pas sans préparation vers l'automne."
A risk for humanity: the absence of control and reflection
Cet automne pourrait être précipité par le fait qu’il n’y a pas de possibilité actuelle de contrôler totalement les développements de l'IA. Les auteurs de la lettre déclarent que les systèmes d’IA concurrents de l’homme sont susceptibles de menacer en profondeur la société et l’humanité. Ils en veulent pour preuve les recherches exhaustives "reconnues par les principaux laboratoires d’IA".
Au regard des principes développés en 2017 at the Asilomar conference on artificial intelligencee (coordonnée par le Future of Life Institute), disent-ils, "l’IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires."
Malgré ces principes, "ce niveau de planification et de gestion n'existe pas". Ils soulignent que ces derniers mois, les laboratoires se sont enfermés "dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler avec fiabilité".
De tels risques sont mentionnés dans des œuvres de science-fiction qui ont souvent le mérite de soulever des questions éthiques, notamment quant à l’articulation entre technologie et pouvoir politique, mais également par des penseurs comme Jacques Ellul ou Georges Bernanos. Le premier, historien, sociologue et théologien protestant, se réjouissait des apports de la technologie qui permet par exemple de voyager et de "recevoir des images du monde entier" :
"Donc, vous avez un univers libre devant vous."
But the author of the works "Le Système technicien" ou "Le bluff technologique", estimait que l’automobile poussait par exemple trois millions de Parisiens à se rendre chaque année en vacances au bord de la Méditerranée, comme une masse sans réflexion sur son mouvement :
"C’est très difficile dans une société [technicienne] comme la nôtre que l’homme puisse être responsable."
Ellul mentions the justifications given by the director of the Nazi camp of Bergen-Belsen, during the Nuremberg trials, according to which he had no time to think about the people who were dying, because he was preoccupied with the technical worries of the ovens. Increasingly efficient technological tools mean that, despite their advantages, man himself becomes the instrument of what should have been means.
The Catholic writer Georges Bernanos does not warn less in his premonitory "La France contre les robots", paru en 1947, en déclarant que le principal danger est l’absence de réflexion sur la technique, notamment avec ces mots devenus relativement célèbres :
"Le danger n'est pas dans la multiplication des machines, mais dans le nombre sans cesse croissant d'hommes habitués, dès leur enfance, à ne désirer que ce que les machines peuvent donner."
Des alertes bien en amont de l’apparition de l’IA, et d’une telle puissance réduisant l’homme au second plan, voire au rang d’inutile.
A risk for information and the labor market
Bernanos opposait "la civilisation des machines [qui] est celle de la quantité" à "celle de la qualité".
Une inquiétude que font leur les signataires de la lettre qui observent le fait que "les systèmes d’IA contemporains deviennent aujourd’hui compétitifs sur le plan humain pour les tâches générales". Ils posent la question fondamentale pour l’avenir de la société démocratique :
"Devrions-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui offrent le plus d’épanouissement ?"
This is a warning signal which resembles, in a very updated way, what Paul VI already denounced in his encyclical Populorum Progressio in 1967, recalling that technology should be at the service of man.
Dans le point 20 de l’encyclique, le pape soulignait que "si la poursuite du développement demande des techniciens de plus en plus nombreux, elle exige encore plus des sages de réflexion profonde, à la recherche d'un humanisme nouveau, qui permette à l'homme moderne de se retrouver lui-même, en assumant les valeurs supérieures d'amour, d'amitié, de prière et de contemplation."
Une préoccupation qui, au regard de la difficulté des concepteurs à maîtriser parfaitement leurs outils d’IA les plus performants prend un sens particulier. Les techniciens sont nombreux, mais la réflexion morale a été trop oubliée, conduisant à une poursuite du développement mal encadrée.
Parmi les conséquences, l’IA menace l’homme alors que le "programme fait pour augmenter la production", dit Paul VI dans le point 20 de sa lettre, devrait être là pour « libérer l’homme de ses servitudes [sur le plan du travail], le rendre capable d’être lui-même l’agent responsable de son mieux-être matériel, de son progrès moral ».
L’encyclique alertait par ces mots sur la technicisation censée enrichir la société :
"Dire: développement, c'est en effet se soucier autant de progrès social que de croissance économique. Il ne suffit pas d'accroître la richesse commune pour qu'elle se répartisse équitablement. Il ne suffit pas de promouvoir la technique pour que la terre soit plus humaine à habiter."
Le propos est corroborée par la récente étude de Goldman Sachs, publié le 26 mars dernier, qui indique que 300 million jobs could be lost worldwide due to the use of AI, i.e. 18% of the mass.
Concerns shared by the authors of the letter who salute Open AI's February 24 statement that "à un moment donné, un examen indépendant pourrait être nécessaire avant de commencer à former les futurs systèmes". Tirant leur conclusion de cette déclaration, ils entendent qu’elle ne reste pas qu’une vague promesse et écrivent :
"Par conséquent, nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire."
Jean Sarpedon