"Le parrain de l'IA", Geoffrey Hinton, quitte Google et met en garde contre les dangers à venir

Geoffrey Hinton, pionnier de l'intelligence artificielle, exprime ses inquiétudes quant aux conséquences de l'IA sur le monde

Geoffrey Hinton, souvent surnommé "le parrain de l'IA", a quitté Google pour pouvoir librement partager ses préoccupations quant aux dangers potentiels de l'intelligence artificielle. Dr. Hinton a travaillé pendant plus de 10 ans chez Google et est devenu l'une des voix les plus respectées dans le domaine de l'IA. Il craint que la course effrénée vers la création de produits basés sur l'intelligence artificielle générative, telle que celle qui alimente les chatbots populaires comme ChatGPT, ne conduise à des conséquences néfastes.

Les craintes de Hinton concernant l'intelligence artificielle

Dr. Hinton exprime plusieurs préoccupations majeures concernant les technologies d'IA. Premièrement, il craint que l'Internet ne soit inondé de fausses photos, vidéos et textes, rendant difficile pour les individus de discerner ce qui est vrai de ce qui ne l'est pas. Deuxièmement, il est préoccupé par l'impact des technologies d'IA sur le marché du travail, où des chatbots comme ChatGPT pourraient remplacer des postes tels que parajuristes, assistants personnels et traducteurs. Enfin, il s'inquiète de la possibilité que des armes autonomes deviennent réalité et représentent une menace pour l'humanité.

La course à l'IA entre les géants de la technologie

Dr. Hinton estime que la compétition entre Google, Microsoft et d'autres entreprises se transformera en une course mondiale qui ne s'arrêtera pas sans une forme de régulation internationale. Cependant, il reconnaît que cela pourrait être impossible, car contrairement aux armes nucléaires, il n'y a pas de moyen de savoir si des entreprises ou des pays travaillent secrètement sur la technologie. Selon lui, la meilleure solution serait que les meilleurs scientifiques du monde collaborent pour trouver des moyens de contrôler la technologie.

"Il est difficile de voir comment vous pouvez empêcher les acteurs malveillants de l'utiliser pour de mauvaises choses", a déclaré Dr. Hinton.

L'appel à un moratoire sur le développement de l'IA

Suite à la sortie d'une nouvelle version de ChatGPT en mars, plus de 1 000 dirigeants et chercheurs en technologie ont signé une lettre ouverte demandant un moratoire de six mois sur le développement de nouveaux systèmes en raison des "risques profonds pour la société et l'humanité" que posent les technologies d'IA. Plusieurs jours plus tard, 19 dirigeants actuels et anciens de l'Association for the Advancement of Artificial Intelligence ont publié leur propre lettre mettant en garde contre les risques de l'IA.

Dr. Hinton n'a signé aucune de ces lettres et a déclaré qu'il ne voulait pas critiquer publiquement Google ou d'autres entreprises tant qu'il n'avait pas quitté son emploi. Il a démissionné de Google le mois dernier et a parlé avec Sundar Pichai, le PDG de la société mère de Google, Alphabet. Il a refusé de discuter publiquement des détails de sa conversation avec M. Pichai.

Jeff Dean, le directeur scientifique de Google, a déclaré dans un communiqué : "Nous restons engagés dans une approche responsable de l'IA. Nous apprenons continuellement à comprendre les risques émergents tout en innovant audacieusement."

L'évolution de la vision de Hinton sur l'IA

Dr. Hinton a changé d'avis sur la façon dont l'IA traite le langage. Il pensait auparavant que les systèmes d'IA étaient inférieurs à la manière dont les humains traitent le langage. Cependant, l'année dernière, lorsque Google et OpenAI ont développé des systèmes utilisant des quantités beaucoup plus importantes de données, sa vision a changé. Bien qu'il pense toujours que les systèmes d'IA sont inférieurs au cerveau humain à certains égards, il considère qu'ils surpassent l'intelligence humaine dans d'autres domaines.

"Peut-être que ce qui se passe dans ces systèmes est en réalité beaucoup mieux que ce qui se passe dans le cerveau", a-t-il déclaré.

Dr. Hinton estime que l'amélioration continue des systèmes d'IA les rend de plus en plus dangereux. Il invite à la prudence et à la collaboration entre les chercheurs pour comprendre et contrôler les développements futurs de l'IA.

"Je ne pense pas qu'ils devraient augmenter l'échelle de cela avant d'avoir compris s'ils peuvent le contrôler", a-t-il dit.

Dr. Hinton conclut en disant que lorsqu'on lui demandait comment il pouvait travailler sur une technologie potentiellement dangereuse, il citait auparavant Robert Oppenheimer, qui a dirigé l'effort américain pour construire la bombe atomique : "Quand vous voyez quelque chose de techniquement attrayant, vous foncez et vous le faites."

Il ne dit plus cela aujourd'hui, soulignant l'évolution de sa position et l'importance d'aborder les problèmes potentiels liés à l'IA avec sérieux et responsabilité.