Elon Musk et les experts s’inquiètent
Des scientifiques en Intelligence Artificielle, dont des Français que Le Figaro a eu la chance de rencontrer. Ils suggèrent de prendre du recul dans cette «course dangereuse vers des technologies imprévisibles». Ils ont à l’esprit les IA plus puissantes que ChatGPT-4.
Elon Musk et des centaines de gourous de l’IA à travers le monde ont signé mercredi un appel à une pause temporaire de la recherche sur les systèmes d’intelligence artificielle plus puissants que ChatGPT 4, le modèle d’OpenAI lancé il y a quelques semaines. Les signataires évoquent « des dangers immenses pour l’humanité ».
Colin de la Higuera, prof de l’Université de Nantes en Intelligence Artificielle et signataire de l’appel sans réserve. Il a affirmé : «Je refuse que les géants de la tech nous imposent un rythme de vie.» Il y a un très important enjeu démocratique.»
Les laboratoires d’IA sont en train de se précipiter pour créer et lancer des cerveaux numériques encore plus puissants, sans qu’on sache vraiment où ça nous mènera – et ça fait un peu peur. Les créateurs eux-mêmes ne sont pas capables de comprendre. Prédire ou contrôler de manière fiable ce qu’ils ont créé. C’est ce qu’on peut lire dans l’article publié sur Future of Life, une fondation américaine.
Alors, les signataires demandent un arrêt jusqu’à ce qu’ils installent des systèmes de sécurité, y compris des organismes de régulation. Et qu’ils surveillent et contrôlent les systèmes d’IA très évolués. On parle de la surveillance et de l’observation des systèmes d’IA à haut potentiel, d’un bon financement du gouvernement pour la recherche en sécurité IA, et d’un système d’audit et de certification robuste. Il est important de connaître des méthodes qui peuvent nous aider à discerner le vrai du faux et de compter sur des organismes pour gérer les «conséquences désastreuses sur l’économie. Et la démocratie que l‘intelligence artificielle pourrait provoquer».
Elon Musk et les experts s’inquiètent
La nécessité d’une régulation mondiale
On nous demande pas d’arrêter de développer l‘intelligence artificielle. Mais de faire un pas en arrière par rapport à cette course effrénée pour créer des modèles de boîte noire de plus en plus grands et imprévisibles aux capacités émergentes. Alors, est-ce qu’on devrait vraiment laisser les machines remplir nos réseaux avec leurs mensonges et leurs propagandes ? Est-ce qu’on devrait automatiser tous les emplois, même ceux qui sont satisfaisants ? Doit-on créer des intelligences non humaines qui pourraient un jour être plus nombreuses, plus intelligentes, plus anciennes et nous remplacer ? », ajoutent les signataires. « Ces décisions ne devraient pas être confiées à des chefs technologiques non élus. »
Sam Altman, le chef d’OpenAI (ChatGPT), a avoué être « un peu effrayé » à propos de sa création. Si elle était employée pour de la désinformation à grande échelle ou des cyberattaques. Il a dit à ABCNews au milieu du mois de mars que « la société a besoin de temps pour s’adapter ».
Par contre, les personnalités ayant décidé de faire entendre leurs peurs envers les IA incontrôlables qui surpasseraient l’être humain, se sont rassemblées pour signer cette pétition. Parmi elles, on retrouve notamment Elon Musk, propriétaire de Twitter et fondateur de SpaceX et Tesla, ainsi que Yuval Noah Harari, auteur de Sapiens et Homo Deus.
Steve Wozniak, le cofondateur d’Apple, des membres de DeepMind (laboratoire d’IA chez Google) et Emad Mostaque (dirigeant de Stability AI, un concurrent d’OpenAI) sont parmi les signataires. Des ingénieurs cadres de Microsoft (un allié d’OpenAI) font également partie de la liste. De même, plein de profs américains et européens font partie de la liste.
Des chercheurs français s’unissent pour sauver la biodiversité
Régis Sabbadin, un chercheur en intelligence artificielle à l’Inrae, est signataire de cet engagement. Il travaille à l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement.
Lui, il est convaincu que l‘intelligence artificielle, en particulier l’IA générative, va déclencher une nouvelle révolution industrielle qui va transformer des boulots. «Un peu comme le moteur à explosion ou encore les engrais agricoles, l’IA va produire du progrès», il a expliqué au Figaro.
Mais c’est une double épée, tu vois ? Le chercheur n’est absolument « pas d’accord » avec la partie de l’article qui parle des risques d’une humanité dominée par des IA plus puissantes qu’elle. Selon Malik Ghallab, chercheur émérite en robotique et IA au CNRS, l’IA est une «rupture majeure» qui bouleverse profondément nos sociétés. Donc, il est important de prendre le temps de réfléchir et de laisser à la délibération sociale le temps de faire son travail. C’est un problème car les innovations dans le domaine de l‘IA sont si rapides qu’il n’y a pas le temps pour un débat public. Il faut réguler et mettre en place une gouvernance mondiale pour gérer l’IA.
Malik Ghallab met en garde contre le fait que «la technologie évolue plus rapidement que la science», et que les ingénieurs . Donc, les chercheurs ne sont plus en mesure de contrôler les IA les plus avancées.
Leurs capacités étaient bien plus grandes que ce qu’on avait anticipé. En suite, leurs concepteurs se trouvent maintenant dans une position délicate de « sorciers de l’ombre ». Même s’ils font de leur mieux. Prenez le secteur de l’aviation, par exemple. Il est régi depuis des années par des normes strictes en matière de sécurité. Les frères Wright sont une inspiration pour nous car ils étaient prêts à prendre des risques. Mais leurs risques ne devaient pas affecter l’ensemble de la société, ce qui est très important.
Elon Musk et les experts s’inquiètent
Lire aussi:
Elon Musk prépare le futur avec les essais sur l’homme de Neuralink