PandIA is now for sale. For inquiries, please contact us.

PandIA

Les Chatbots IA ne respectent pas nos normes sociales

Les Chatbots IA ne respectent pas nos normes sociales
Les Chatbots IA ne respectent pas nos normes sociales

Ils semblent humains, mais ils sont très étrangers.

Avec l'intelligence artificielle désormais à la base des moteurs de recherche Bing de Microsoft et Bard de Google, un IA de conversation brillant et intelligent est à portée de main. Cependant, il y a eu de nombreux moments troublants, comme lorsque des commentaires dérangeants sont prononcés avec désinvolture tels qu'appeler un journaliste laid, déclarer son amour pour des inconnus, ou énumérer des plans pour conquérir le monde.

Retranscription d'un article anglais par Jacob BROWNING et Yann LECUN

💡
Jacob Browning est postdoctorant au département d'informatique de l'Université de New York et travaille sur la philosophie de l'IA.
💡
Yann LeCun est un chercheur en apprentissage automatique récompensé par un prix Turing, professeur à l'Université de New York et scientifique en chef de l'IA chez Meta.

Dire quelque chose de mal : humains vs chatbots

Pour comprendre ces moments étranges, il est utile de penser au phénomène de dire la mauvaise chose. Les humains sont généralement très doués pour éviter les erreurs orales, les gaffes et les faux pas. En revanche, les chatbots commettent beaucoup d'erreurs. Comprendre pourquoi les humains excellent à éviter les erreurs nous aide à comprendre quand et pourquoi nous nous faisons confiance, et pourquoi les chatbots actuels ne sont pas dignes de confiance.

GPT-3 et ChatGPT : erreurs et compréhension contextuelle

Pour GPT-3, il n'y a qu'une seule façon de dire la mauvaise chose : en donnant une réponse statistiquement improbable aux derniers mots échangés. Sa compréhension du contexte, de la situation et de la pertinence ne concerne que ce qui peut être déduit du prompt de l'utilisateur. Pour ChatGPT, cela est modifié légèrement de manière innovante et intéressante. Les réponses du modèle sont renforcées par des évaluateurs humains, qui approuvent ou non la réponse produite. Le résultat est un système qui dit non seulement quelque chose de plausible, mais aussi quelque chose qu'un humain jugerait approprié, ou du moins non offensant.

Cependant, cette approche révèle un défi central auquel est confronté tout interlocuteur, qu'il soit humain ou mécanique. Dans une conversation humaine, il y a d'innombrables façons de dire la mauvaise chose: dire quelque chose d'inapproprié, de malhonnête, de déroutant, d'irrévélatrice, d'offensant ou de simplement stupide. On peut même dire la bonne chose mais être critiqué pour avoir utilisé le mauvais ton ou l'avoir soulignée de manière inexacte. La plupart du temps, ne pas dire la mauvaise chose est plus important que la conversation elle-même. Parfois, se taire peut être la seule bonne option.

Étant donné le peu de façons de dire la bonne chose et le nombre innombrable de façons de dire quelque chose de faux, il est surprenant que les humains ne commettent pas plus d'erreurs. Comment naviguons-nous dans ce paysage périlleux pour éviter de dire la mauvaise chose, et pourquoi les chatbots ne le font-ils pas aussi efficacement?

Le fonctionnement des conversations entre humains

Bien que les conversations humaines puissent porter sur n'importe quel sujet, nos vies sont principalement régies par des "scripts" : commander dans un restaurant, faire la conversation, s'excuser pour un retard, etc. Ces scripts ne sont pas littéraux, ils sont plutôt des modèles généraux ou des règles souples qui stipulent comment certains types d'interaction doivent se dérouler. Ils sont régis par des normes sociales, soit des institutions, des pratiques et des attentes partagées qui nous aident à naviguer dans la vie.

Cela fonctionne bien parce que les humains sont naturellement conformistes. Le respect des normes simplifie nos interactions en les standardisant et en les rationalisant, rendant ainsi notre comportement plus prévisible pour nous-mêmes et pour les autres.

Nous avons élaboré des conventions et des normes pour régir presque tous les aspects de nos vies sociales, de la manière d'utiliser une fourchette au temps d'attente avant de klaxonner à un feu rouge. Ceci est essentiel pour survivre dans un monde de milliards d'individus, où la plupart des gens que nous rencontrons sont des étrangers aux croyances avec lesquelles nous pouvons être en désaccord. Avoir ces normes partagées en place rend la conversation non seulement possible, mais fructueuse, délimitant ce dont nous devrions parler et tout ce que nous ne devrions pas.

Limites des chatbots face aux normes sociales

Les chatbots, en revanche, ne reconnaissent pas qu'il y a des choses qu'ils ne devraient pas dire, quelles que soient les probabilités statistiques. Ils ne comprennent pas les normes sociales qui définissent la limite entre ce que l'on devrait dire et ce que l'on ne devrait pas dire, et sont donc insensibles aux pressions sociales qui façonnent notre utilisation du langage. Même lorsqu'un chatbot reconnaît une erreur et présente des excuses, il ne comprend pas pourquoi, et pourrait même s'excuser d'avoir donné la bonne réponse si on lui dit qu'elle est fausse.

Le problème avec les chatbots ne réside pas dans leur opacité ou dans la technologie inconnue. Le problème est qu'ils ont un long historique d'être peu fiables et offensants, sans faire d'efforts pour s'améliorer ou même réaliser qu'il y a un problème.

Les programmeurs sont évidemment conscients de ces problèmes et les entreprises souhaitant que leurs technologies d'IA soient largement adoptées consacrent beaucoup de temps à ajuster leurs systèmes pour éviter les conversations compliquées ou éliminer les réponses inappropriées. Bien que cela les rende plus sûrs, les programmeurs auront du mal à devancer ceux qui cherchent à déjouer le système. L'approche des programmeurs est réactive et sera toujours en retard : il y a trop de façons de se tromper pour toutes les anticiper.

Une intelligence limitée par l'absence d'humanité

Cela ne devrait pas nous conduire à une satisfaction arrogante quant à l'intelligence des humains et la stupidité des chatbots. Au contraire, leur capacité à parler de tout révèle une connaissance impressionnante, bien que superficielle, de la vie sociale humaine et du monde. Ils sont intelligents, ou du moins capables de bien réussir des tests ou de faire référence à des informations utiles.

Le problème est qu'ils ne se soucient pas. Ils n'ont pas d'objectifs intrinsèques à accomplir au travers de la conversation et ne sont pas motivés par les opinions des autres ou par leurs réactions. Ils ne ressentent pas de remords à mentir et n'ont rien à gagner en étant honnêtes. Ils sont sans scrupules d'une manière que même les pires individus ne le sont pas.

Cela rend leurs conversations sans but. Pour les humains, les conversations servent à réaliser ce que nous voulons - créer des liens, obtenir de l'aide pour un projet, passer le temps ou apprendre quelque chose.

Les chatbots n'ont pas d'histoire à raconter sur eux-mêmes ni de réputation à défendre. Ils ne ressentent pas l'impulsion d'agir de manière responsable comme nous. Malgré leur utilité dans des situations très scriptées et larges, ils leur manquent la compréhension d'eux-mêmes et des autres pour être considérés comme des agents sociaux dignes de confiance - le genre de personne avec qui nous nous attendons à parler la plupart du temps. Sans une certaine connaissance des normes régissant l'honnêteté et la décence et un souci de leur réputation, il y a des limites à l'utilité de ces systèmes et des dangers réels à compter sur eux.

Conversation étrange avec des chatbots

En fin de compte, les chatbots ne conversent pas de manière humaine et ne parviendront jamais à le faire uniquement en disant des choses statistiquement probables. Sans véritable compréhension du monde social, ces systèmes ne sont que des bavards oisifs, peu importe leur niveau d'éloquence ou de perspicacité.

Cela nous aide à comprendre pourquoi ces systèmes sont des outils intéressants, mais aussi pourquoi nous ne devrions pas les anthropomorphiser. Les humains ne sont pas seulement des penseurs ou des locuteurs détachés ; nous sommes des créatures intrinsèquement normatives, liées émotionnellement les uns aux autres par des attentes partagées et appliquées. La pensée et le discours humains résultent de notre socialité, et non l'inverse.

Les simples conversations, dissociées d'un engagement plus large dans le monde, ont peu de points communs avec les humains. Les chatbots n'utilisent pas le langage comme nous - même lorsqu'ils disent exactement les mêmes choses que nous. En fin de compte, nous parlons les uns à côté des autres. Ils ne comprennent pas pourquoi nous parlons de la manière dont nous le faisons, et cela se voit.

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter