PandIA

Universités et chercheurs se rebellent contre les accords avec OpenAI

Universités et chercheurs se rebellent contre les accords avec OpenAI

Les accords à plusieurs millions de dollars entre universités et OpenAI étaient présentés comme un tournant stratégique pour « moderniser » l’enseignement supérieur. Ils deviennent désormais un terrain de contestation académique, notamment au Colorado et en Californie, où des voix s’élèvent contre une intégration jugée précipitée et opaque de l’IA générative dans les campus.

Quand les universités signent des chèques à l’IA

En toile de fond, un mouvement massif : aux États-Unis, les établissements d’enseignement supérieur multiplient les partenariats avec des acteurs comme OpenAI, Microsoft, Google ou Anthropic. Objectif affiché : donner aux étudiants et aux enseignants un accès privilégié à des chatbots avancés, des assistants pédagogiques ou des outils d’aide à la recherche, souvent sous la forme de plateformes personnalisées.

Ces accords se chiffrent en millions de dollars sur plusieurs années. Certains contrats incluent :

- un accès illimité à des modèles de langage type GPT-4-niveau ou supérieurs,

- des interfaces dédiées pour les campus,

- des formations pour le corps enseignant,

- et parfois l’intégration directe de l’IA dans les environnements numériques d’apprentissage.

L’intérêt est évident pour des administrations sous pression :

- rendre l’offre pédagogique plus attractive,

- afficher une stratégie IA crédible face à la concurrence,

- et, potentiellement, réduire certains coûts (tutorat, support, tâches administratives).

Mais cette dynamique suscite désormais une véritable résistance professorale.

Une fronde qui s’organise au Colorado et en Californie

Selon l’enquête d’Inside Higher Ed, des enseignants au Colorado et en Californie contestent ces accords conclus avec OpenAI, estimant qu’ils engagent l’université sans consultation suffisante des premières personnes concernées : celles qui enseignent et encadrent la recherche.

Sans entrer dans les détails contractuels – rarement rendus publics dans leur intégralité – plusieurs lignes de fracture se dégagent.

Manque de transparence et gouvernance technologique

Premier reproche récurrent : l’opacité des contrats.

Les facultés dénoncent :

- des négociations menées directement entre présidences d’université, services IT et directions financières,

- des clauses peu claires sur la propriété des données, les droits de réutilisation et les garanties de confidentialité,

- l’absence d’évaluation indépendante avant déploiement massif.

Pour beaucoup d’enseignants, il s’agit d’une bascule dangereuse :

« Une infrastructure pédagogique critique est déléguée à un acteur privé, dont les modèles sont opaques et dont la stratégie peut changer rapidement, sans réel contre-pouvoir académique. »

En d’autres termes, la gouvernance de la technologie éducative échappe en grande partie à la communauté universitaire, au bénéfice de logiques commerciales.

Données des étudiants : un angle mort encore trop important

Deuxième sujet explosif : la protection des données. Les outils d’IA générative reposent sur des interactions massives : devoirs soumis, brouillons de mémoire, essais, questions personnelles d’étudiants, courriels, conversations pédagogiques sensibles.

Les professeurs s’interrogent :

- Quels types de données sont collectés par OpenAI dans ces accords campus ?

- Sont-elles utilisées pour entraîner ou affiner les modèles, même de manière anonymisée ?

- Combien de temps sont-elles conservées ?

- Que se passe-t-il si un étudiant partage, via le chatbot, des informations sensibles, médicales, financières ou liées à un statut migratoire, par exemple ?

Dans un contexte où plus de 80 % des étudiants (aux États-Unis) déclarent déjà utiliser une forme d’IA générative de manière informelle pour leurs études, selon plusieurs sondages réalisés en 2023-2024, le passage à un outil institutionnel change la nature du risque : la relation n’est plus seulement individuelle et informelle, mais encadrée et légitimée par l’université.

Liberté académique et standardisation pédagogique

Au-delà de la technique, la contestation touche au cœur de l’identité universitaire : la liberté académique.

Plusieurs craintes émergent :

- Des outils d’IA intégrés dans les plateformes pédagogiques peuvent standardiser les contenus, imposant des formats, des corrigés types, voire des recommandations automatiques de notation.

- Des enseignants redoutent qu’à terme, des directions d’établissements s’appuient sur ces outils pour harmoniser les pratiques, au détriment de la diversité des approches pédagogiques.

- Des assistances d’écriture ou de correction trop intrusives peuvent modifier en profondeur la nature du travail étudiant, en brouillant la frontière entre aide et délégation intellectuelle.

Une question traverse les débats :

Qui contrôle réellement la pédagogie lorsque les outils d’IA deviennent le point de passage obligé entre étudiants et enseignants ?

Risque de dépendance technologique et budgétaire

Les accords à plusieurs millions de dollars s’accompagnent souvent de tarifs de lancement attractifs, voire de phases pilotes à coût réduit. Mais plusieurs enseignants s’inquiètent du risque de verrouillage (lock-in) :

- Une fois les cursus, les ressources et les workflows administratifs profondément intégrés à une solution OpenAI, changer de fournisseur devient coûteux.

- Si, à l’avenir, les tarifs augmentent, ou si les conditions d’utilisation se durcissent, les marges de manœuvre de l’université seront limitées.

- La dépendance à des services cloud extérieurs pose aussi la question de la continuité pédagogique en cas d’incident technique, de litige ou de changement réglementaire.

L’enseignement supérieur, déjà fortement tributaire d’éditeurs comme Microsoft, Google ou Canvas pour son infrastructure numérique, se retrouve ainsi encore plus imbriqué dans l’écosystème des Big Tech, via l’IA générative.

Pourquoi le débat dépasse largement OpenAI

Même si ces contestations visent directement des accords avec OpenAI, elles révèlent un enjeu bien plus vaste : quel modèle d’IA pour l’université de demain ?

Trois visions s’opposent en filigrane.

1. L’université « cliente » des Big Tech

Dans cette configuration, l’université achète des solutions clés en main, adaptées à la marge. Avantages :

- déploiement rapide,

- accès aux modèles les plus puissants du marché,

- image moderne et différenciante.

Mais le prix à payer est élevé en termes de souveraineté technologique et de contrôle épistémique (les biais et limites des modèles commerciaux deviennent ceux de l’enseignement et de la recherche).

2. L’université « coproductrice » des outils IA

Certains défendent un modèle hybride :

- contrats avec des acteurs privés,

- mais avec des clauses strictes sur l’usage des données,

- une gouvernance conjointe,

- et un accès plus ouvert aux paramètres et au fonctionnement des modèles, au moins pour la recherche.

Ce modèle nécessite des compétences internes fortes en IA, en droit du numérique et en éthique, qui manquent encore dans de nombreux établissements.

3. L’université « bâtisseuse » d’outils ouverts

Une partie du corps professoral plaide pour des alternatives :

- recours prioritaire à des modèles open source (Llama, Mistral, etc.) hébergés sur des infrastructures contrôlées par l’université ou par des consortiums publics,

- développement de chatbots et d’assistants pédagogiques internes, dont le code et les jeux de données peuvent être audités,

- mutualisation au niveau régional, national ou international.

Ce scénario est plus lent, plus coûteux en investissement initial, mais il renforce la capacité de contrôle et d’expérimentation académique, et réduit la dépendance à quelques acteurs privés.

Vers une nouvelle vague de « gouvernance IA » sur les campus

La contestation des professeurs au Colorado et en Californie n’est pas un simple épisode local : elle s’inscrit dans un mouvement plus large de réappropriation de la décision technologique par la communauté académique.

Plusieurs évolutions semblent se dessiner à court et moyen terme :

- Institutionnalisation de comités IA universitaires : mêlant enseignants, étudiants, experts en éthique, juristes et administrateurs, chargés d’évaluer les outils et contrats avant signature.

- Exigence renforcée de transparence contractuelle : publication (au moins partielle) des clauses liées aux données, à la propriété intellectuelle et aux usages autorisés.

- Cadres d’usage pédagogiques plus précis : ce qui est encouragé, toléré ou proscrit dans l’usage de l’IA par les étudiants et les enseignants, discipline par discipline.

- Expérimentations parallèles avec des modèles ouverts, pour éviter que la seule voie soit celle de grands contrats commerciaux.

À l’échelle internationale, la mise en place de régulations comme l’AI Act européen ou les lignes directrices de différents ministères de l’Éducation va continuer à peser sur ces choix. Même dans des contextes moins régulés, la pression sociale – autour de la vie privée, du plagiat assisté par IA ou des biais algorithmiques – rendra difficile la poursuite de déploiements massifs sans débat approfondi.

En toile de fond, se joue une question stratégique : l’université sera-t-elle un simple terrain d’application des technologies d’IA conçues ailleurs, ou un acteur central de leur conception, de leur critique et de leur encadrement ?

La fronde actuelle face aux accords avec OpenAI indique qu’une partie du monde académique refuse la première option. Les prochains mois diront si les administrations universitaires sont prêtes à ralentir, ajuster ou reconfigurer leurs plans IA, au prix d’un dialogue plus exigeant mais aussi plus légitime avec leur corps professoral.

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter