Lexique de l'Intelligence Artificielle en Français, le glossaire complet sur l'IA
L'intelligence artificielle (IA) est un domaine en pleine expansion et de plus en plus présent dans notre quotidien. Pour mieux comprendre les concepts clés de l'IA, voici un lexique des termes les plus couramment utilisés, avec une courte explication pour chacun d'entre eux.
A
AGI (Artificial General Intelligence)
AGI (Artificial General Intelligence) ou Intelligence Artificielle Générale, est un terme utilisé pour décrire un type d'intelligence artificielle capable d'apprendre et de raisonner de manière autonome, similaire à l'intelligence humaine. Contrairement à l'intelligence artificielle spécialisée, qui est conçue pour des tâches spécifiques, l'AGI vise à créer des systèmes capables de maîtriser une variété de compétences et de connaissances.
Algorithme génétique
Un algorithme génétique est une méthode d'optimisation inspirée de la théorie de l'évolution naturelle. Il utilise des techniques de sélection, de croisement et de mutation pour trouver des solutions optimales ou quasi-optimales à des problèmes complexes.
Alignment
L'alignement, en intelligence artificielle, fait référence à l'adéquation entre les objectifs, les valeurs et les comportements d'un système d'IA et ceux de ses concepteurs ou utilisateurs. Un système d'IA bien aligné agit de manière à respecter et à soutenir les intentions de ses utilisateurs, tout en évitant les comportements indésirables ou nuisibles. L'alignement est crucial pour garantir que les systèmes d'IA soient utilisés de manière responsable et éthique, et pour minimiser les risques potentiels associés à leur déploiement.
Apprentissage par transfert (Transfer Learning)
L'apprentissage par transfert est une technique d'apprentissage automatique qui consiste à utiliser un modèle pré-entraîné sur une tâche similaire pour accélérer l'apprentissage et améliorer les performances sur une nouvelle tâche. L'apprentissage par transfert est souvent utilisé dans la reconnaissance d'images, le traitement du langage naturel et la robotique.
Autoencoder (Auto-encodeur)
Un auto-encodeur est un type de réseau de neurones artificiels utilisé pour l'apprentissage non supervisé. Il apprend à compresser et à décompresser des données en réduisant leurs dimensions tout en préservant autant d'informations que possible. Les auto-encodeurs sont souvent utilisés pour la réduction de dimensionnalité, la détection d'anomalies et la génération de données.
B
Backpropagation (Rétropropagation)
La rétropropagation (backpropagation) est une méthode d'optimisation utilisée pour entraîner des réseaux de neurones. Elle consiste à calculer le gradient de la fonction d'erreur par rapport à chaque poids du réseau en propageant les erreurs de l'avant vers l'arrière. La rétropropagation est utilisée conjointement avec la descente de gradient pour ajuster les poids du réseau et minimiser la fonction d'erreur.
Bagging (Bootstrap Aggregating)
Le bagging (Bootstrap Aggregating) est une méthode d'apprentissage ensembliste qui consiste à entraîner plusieurs modèles sur des sous-ensembles aléatoires de données d'entraînement, puis à combiner leurs prédictions pour obtenir une prédiction finale. Le bagging permet de réduire la variance et d'améliorer la stabilité des modèles.
Bayesian Learning (Apprentissage bayésien)
L'apprentissage bayésien est une approche de l'apprentissage automatique basée sur le théorème de Bayes, qui permet d'incorporer des connaissances antérieures ou des croyances dans le processus d'apprentissage. Cette méthode est souvent utilisée pour l'inférence probabiliste, la classification et la prédiction.
Big Data
Le Big Data désigne un ensemble de données si volumineux et complexes qu'il est difficile de les traiter, analyser et stocker avec les outils traditionnels. L'intelligence artificielle et le Machine Learning sont souvent utilisés pour analyser et exploiter ces données massives.
Boosting (Amplification)
Le boosting (amplification) est une méthode d'apprentissage ensembliste qui consiste à entraîner plusieurs modèles de manière séquentielle, où chaque modèle tente de corriger les erreurs des modèles précédents. Les prédictions des modèles individuels sont ensuite combinées pour obtenir une prédiction finale. Le boosting permet d'améliorer la précision des modèles.
Inscrivez-vous sur Degiro et investissez dans l'IAC
ChatGPT
ChatGPT est un modèle de langage basé sur l'architecture GPT développé par OpenAI. Il est conçu pour générer des réponses naturelles et pertinentes dans le cadre de conversations avec des utilisateurs. ChatGPT est utilisé dans diverses applications, telles que les chatbots, les assistants virtuels et d'autres outils de communication automatisée.
Classification (Classification)
La classification est une méthode d'apprentissage automatique utilisée pour attribuer une catégorie ou une classe à un exemple en fonction de ses caractéristiques. Les modèles de classification sont souvent utilisés pour la reconnaissance d'images, la détection de spam ou la prédiction de diagnostics médicaux.
Clustering (Regroupement)
Le clustering, ou regroupement, est une méthode d'apprentissage non supervisé qui vise à diviser un ensemble de données en groupes homogènes, appelés clusters, en fonction de leurs caractéristiques. Le clustering est utilisé dans divers domaines tels que l'analyse de marché, la segmentation des clients ou la détection d'anomalies.
Computer Vision (Vision par ordinateur)
La vision par ordinateur est un sous-domaine de l'intelligence artificielle qui se concentre sur la capacité des machines à percevoir, analyser et comprendre les images et les vidéos. Les applications de la vision par ordinateur incluent la reconnaissance faciale, la détection d'objets et la navigation autonome des véhicules.
Cross-Validation (Validation croisée)
La validation croisée est une technique d'évaluation des modèles d'apprentissage automatique utilisée pour estimer leur performance sur de nouvelles données. Elle consiste à diviser les données en plusieurs sous-ensembles, puis à entraîner et à valider le modèle sur chaque sous-ensemble, en prenant la moyenne des performances pour obtenir une estimation plus robuste.
D
Deep Learning (Apprentissage profond)
Le Deep Learning (apprentissage profond) est une sous-catégorie de l'apprentissage automatique (Machine Learning) qui utilise des réseaux de neurones artificiels pour imiter le fonctionnement du cerveau humain et permettre à une machine d'apprendre de manière autonome.
E
Embedding (Incorporation)
L'embedding, ou incorporation, est une technique couramment utilisée en intelligence artificielle, et en particulier dans le traitement du langage naturel, pour transformer des entités discrètes, comme les mots, en vecteurs de nombres continus. Ces représentations vectorielles, ou embeddings, ont la propriété de capturer les relations sémantiques entre les entités. Par exemple, dans un espace d'embedding, les mots avec des significations similaires se trouvent proches les uns des autres. Les embeddings ne sont pas limités au texte : on peut également avoir des embeddings pour des entités comme les utilisateurs et les produits dans un système de recommandation, où les embeddings capturent des aspects de leur comportement ou de leurs caractéristiques.
Ensemble Learning (Apprentissage ensembliste)
L'apprentissage ensembliste est une approche de l'apprentissage automatique qui combine plusieurs modèles pour obtenir de meilleures performances que celles obtenues avec un modèle unique. Les méthodes d'apprentissage ensembliste incluent le bagging, le boosting et le stacking.
G
GAN (Generative Adversarial Network, Réseaux antagonistes génératifs)
Les GAN (Generative Adversarial Networks, réseaux antagonistes génératifs) sont une classe d'algorithmes d'apprentissage automatique utilisés pour générer de nouvelles données qui ressemblent à un ensemble de données d'entraînement. Les GAN sont composés de deux réseaux de neurones, un générateur et un discriminateur, qui sont entraînés ensemble dans un processus compétitif.
Génération de texte (Text Generation)
La génération de texte est un sous-domaine du traitement du langage naturel qui se concentre sur la création de textes en langage humain par des machines. Les applications incluent la rédaction automatique d'articles, la création de résumés, et la génération de contenu pour les chatbots ou les assistants vocaux.
Generative AI
La Generative AI, ou intelligence artificielle générative, désigne un ensemble de techniques d'apprentissage automatique qui permettent aux systèmes d'IA de créer du contenu nouveau et original à partir de données d'entraînement. Les modèles de Generative AI, tels que GPT, sont capables de générer du texte, des images, de la musique et d'autres types de contenu en imitant les caractéristiques et les styles présents dans les données d'entraînement. La Generative AI est utilisée dans diverses applications, allant de la génération de texte à la création artistique et à la conception assistée par ordinateur.
GPT
GPT (Generative Pre-trained Transformer) est une architecture de modèle de langage développée par OpenAI. Elle utilise un mécanisme d'auto-attention pour apprendre et générer du texte de manière cohérente et pertinente. GPT est largement utilisé pour diverses tâches de traitement du langage naturel, telles que la génération de texte, la traduction automatique et la réponse aux questions.
GPT-3.5
GPT-3.5 est une version intermédiaire entre GPT-3 et GPT-4, développée par OpenAI. Bien qu'il présente des améliorations par rapport à GPT-3, il n'atteint pas encore les performances de GPT-4. GPT-3.5 est utilisé pour diverses applications liées au traitement du langage naturel, telles que la génération de texte, la traduction automatique et la réponse aux questions.
GPT-4
GPT-4 est une version plus récente et améliorée de l'architecture GPT (Generative Pre-trained Transformer) développée par OpenAI. Il offre une meilleure compréhension du langage naturel, une capacité de génération de texte plus précise et une plus grande adaptabilité aux différents contextes d'utilisation. GPT-4 est utilisé pour diverses applications, allant de la génération de texte à la traduction automatique et à la réponse aux questions.
Grand modèle de langage LLM (Large Language Model)
Un grand modèle de langage (LLM) est un modèle de langage de grande envergure, généralement basé sur des réseaux de neurones profonds, qui a été entraîné sur un vaste ensemble de données textuelles. Les LLM sont capables de comprendre, de générer et de répondre à des questions en langage naturel avec une précision et une cohérence élevées. Ces modèles ont révolutionné le domaine du traitement du langage naturel et sont utilisés dans diverses applications, telles que les assistants vocaux, les chatbots et la génération de texte.
H
Heuristique (Heuristic)
Une heuristique est une méthode de résolution de problèmes basée sur des règles approximatives ou des principes pratiques plutôt que sur des algorithmes rigoureux. Les heuristiques sont souvent utilisées en intelligence artificielle pour résoudre des problèmes pour lesquels une solution optimale est difficile à trouver, en fournissant des solutions acceptables en un temps raisonnable.
Hyperparamètre (Hyperparameter)
Un hyperparamètre est un paramètre d'un algorithme d'apprentissage automatique qui doit être défini avant l'entraînement du modèle. Les hyperparamètres sont utilisés pour contrôler le processus d'apprentissage et influencent la performance du modèle. Les exemples d'hyperparamètres incluent le taux d'apprentissage, le nombre d'itérations, la taille des lots et la complexité du modèle.
I
Intelligence artificielle (IA)
L'intelligence artificielle (IA) désigne la capacité d'une machine ou d'un programme informatique à imiter l'intelligence humaine, en accomplissant des tâches complexes et en apprenant de ses erreurs.
IA faible (Weak AI)
IA faible, ou intelligence artificielle faible, se réfère à des systèmes qui sont conçus pour accomplir des tâches spécifiques sans posséder une véritable conscience ou compréhension globale. Ces systèmes utilisent des techniques d'IA pour résoudre des problèmes et effectuer des tâches, mais ils ne sont pas capables de comprendre ou de raisonner de manière générale comme les humains.
IA forte (Strong AI)
Voir AGI plus haut.
L'IA forte, ou intelligence artificielle forte, est un concept d'IA qui décrit un système informatique capable de posséder une compréhension et une conscience similaires à celles des humains. Contrairement à l'IA faible, l'IA forte serait capable de raisonner, d'apprendre et de s'adapter de manière générale, et pourrait potentiellement surpasser l'intelligence humaine dans tous les domaines.
Internet des objets (Internet of Things, IoT)
L'Internet des objets (Internet of Things, IoT) est un réseau de dispositifs connectés à Internet, tels que des capteurs, des appareils ménagers et des véhicules, qui collectent et échangent des données. L'intelligence artificielle joue un rôle crucial dans l'analyse et l'utilisation de ces données pour améliorer l'efficacité et la qualité de vie.
M
Machine Learning (Apprentissage automatique)
Le Machine Learning (apprentissage automatique) est une méthode d'analyse de données qui permet aux machines d'apprendre sans être explicitement programmées. Il s'agit d'un sous-domaine de l'intelligence artificielle.
Méthode d'apprentissage (Learning Method)
Une méthode d'apprentissage est une technique ou un algorithme utilisé pour entraîner un modèle d'intelligence artificielle. Les méthodes d'apprentissage peuvent être classées en différentes catégories, telles que l'apprentissage supervisé, l'apprentissage non supervisé, l'apprentissage semi-supervisé et l'apprentissage par renforcement. Chaque méthode d'apprentissage a ses propres caractéristiques et applications, et le choix de la méthode appropriée dépend du problème à résoudre et des données disponibles.
Modèle de langage (Language Model)
Un modèle de langage est un modèle statistique ou probabiliste qui permet de prédire la probabilité de séquences de mots dans une langue. Les modèles de langage sont couramment utilisés dans diverses applications de traitement du langage naturel, telles que la traduction automatique, la génération de texte, la reconnaissance vocale et l'autocomplétion.
Multi Modal
Le terme multi modal fait référence aux systèmes d'intelligence artificielle capables de traiter et de comprendre différents types de données, tels que le texte, les images, les vidéos et les sons. Les modèles multi modaux sont conçus pour apprendre des représentations communes à partir de différentes sources de données, ce qui leur permet d'être plus polyvalents et performants dans diverses tâches et applications.
O
Optimisation (Optimization)
L'optimisation est le processus de recherche de la meilleure solution ou des meilleurs paramètres pour un problème donné. En intelligence artificielle et en apprentissage automatique, l'optimisation est souvent utilisée pour minimiser une fonction objectif, telle que l'erreur de prédiction, en ajustant les paramètres du modèle.
R
Recherche arborescente (Tree search)
La recherche arborescente est une méthode de résolution de problèmes en intelligence artificielle qui explore les différentes possibilités de manière systématique en utilisant une structure d'arbre. La recherche arborescente est couramment utilisée pour résoudre des problèmes de jeu, de planification et de prise de décision. Les algorithmes de recherche arborescente, tels que la recherche en profondeur, la recherche en largeur et l'algorithme A*, parcourent l'arbre en examinant les nœuds et en choisissant la meilleure option en fonction d'une heuristique ou d'une fonction d'évaluation. Cette méthode permet d'identifier les solutions optimales ou approximatives aux problèmes complexes en limitant l'espace de recherche et en réduisant le temps de calcul.
Récursivité (Recursivity)
La récursivité est un concept en informatique et en intelligence artificielle où une fonction ou un algorithme fait appel à lui-même pour résoudre un problème. La récursivité est souvent utilisée pour résoudre des problèmes complexes de manière élégante et efficace, tels que la recherche d'arbres, la factorielle et la suite de Fibonacci.
Réduction de dimensionnalité (Dimensionality Reduction)
La réduction de dimensionnalité est une technique d'apprentissage automatique qui vise à réduire le nombre de caractéristiques d'un ensemble de données tout en conservant autant d'informations que possible. La réduction de dimensionnalité est souvent utilisée pour faciliter la visualisation, accélérer les algorithmes d'apprentissage et réduire les problèmes de surapprentissage.
Régression (Regression)
La régression est une méthode d'apprentissage automatique utilisée pour prédire une valeur numérique continue en fonction des caractéristiques d'un ensemble de données. Les modèles de régression sont souvent utilisés pour prédire des tendances, estimer des prix ou analyser des relations entre variables.
Reinforcement Learning (Apprentissage par renforcement)
L'apprentissage par renforcement est une méthode d'apprentissage automatique dans laquelle un agent apprend à prendre des décisions en interagissant avec son environnement. L'agent reçoit des récompenses ou des punitions en fonction de la qualité de ses actions et cherche à maximiser la somme des récompenses au fil du temps.
Réseau de neurones artificiels
Un réseau de neurones artificiels est un modèle informatique inspiré du fonctionnement du cerveau humain. Il est constitué de couches de nœuds (neurones artificiels) interconnectés qui travaillent ensemble pour traiter et analyser des données.
Réseau neuronal convolutif (Convolutional Neural Network, CNN)
Un réseau neuronal convolutif (Convolutional Neural Network, CNN) est un type de réseau de neurones artificiels spécialisé dans le traitement et l'analyse des images. Les CNN sont largement utilisés dans la reconnaissance d'images, la classification et la détection d'objets.
RLHF: Reinforcement Learning from Human Feedback (Apprentissage par renforcement à partir des retours humains)
Le RLHF, ou Reinforcement Learning from Human Feedback, est une méthode d'apprentissage automatique qui combine l'apprentissage par renforcement et les retours humains pour améliorer les performances d'un agent d'intelligence artificielle. Dans cette approche, un agent apprend à travers un processus itératif en recevant des récompenses ou des punitions basées sur les retours humains, plutôt que de simplement apprendre à partir de données préexistantes. Les retours humains fournissent un signal de récompense précieux qui aide l'agent à mieux comprendre et à se conformer aux intentions de l'utilisateur et aux objectifs à long terme. Le RLHF est particulièrement utile dans les situations où il est difficile de définir des récompenses précises ou d'obtenir des données d'entraînement de haute qualité.
Robotique
La robotique est un domaine de recherche et d'ingénierie qui vise à concevoir, construire et utiliser des robots pour accomplir diverses tâches, souvent dans le but de remplacer ou d'assister l'humain. La robotique fait appel à l'intelligence artificielle pour permettre aux robots de prendre des décisions et de s'adapter à leur environnement.
S
Semi-supervised Learning (Apprentissage semi-supervisé)
L'apprentissage semi-supervisé est une méthode d'apprentissage automatique qui combine les approches supervisées et non supervisées. Un algorithme apprend à partir d'un ensemble de données partiellement étiquetées, utilisant à la fois les exemples étiquetés et non étiquetés pour améliorer la performance du modèle.
Singularité technologique
La singularité technologique est un hypothétique point de basculement dans l'avenir où l'intelligence artificielle aurait dépassé l'intelligence humaine, provoquant des changements technologiques et sociaux radicaux et imprévisibles.
Stochastic Gradient Descent (SGD, Descente de gradient stochastique)
La descente de gradient stochastique (Stochastic Gradient Descent, SGD) est une méthode d'optimisation utilisée pour minimiser une fonction objectif en mettant à jour les paramètres du modèle par petites étapes proportionnelles au gradient négatif de la fonction objectif. La SGD est couramment utilisée pour entraîner des réseaux de neurones et des modèles d'apprentissage automatique. Contrairement à la descente de gradient classique, la SGD met à jour les paramètres du modèle en utilisant un sous-ensemble aléatoire des données d'entraînement à chaque étape, ce qui permet de réduire le temps de calcul et d'éviter les minimums locaux.
Supervised Learning (Apprentissage supervisé)
L'apprentissage supervisé est une méthode d'apprentissage automatique dans laquelle un algorithme apprend à partir d'un ensemble d'exemples étiquetés. L'objectif est de construire un modèle capable de prédire l'étiquette d'un nouvel exemple en se basant sur les caractéristiques de l'exemple.
Support Vector Machine (SVM, Machine à vecteurs de support)
Une Support Vector Machine (SVM, machine à vecteurs de support) est un algorithme d'apprentissage supervisé utilisé pour la classification et la régression. Les SVM fonctionnent en trouvant le meilleur hyperplan qui sépare les classes ou prédit les valeurs cibles avec la plus grande marge possible.
Surapprentissage (Overfitting)
Le surapprentissage est un problème courant en apprentissage automatique qui se produit lorsque le modèle apprend trop bien les données d'entraînement et perd de la capacité à généraliser sur de nouvelles données. Pour éviter le surapprentissage, il est important de surveiller la performance du modèle sur des données de validation et d'utiliser des techniques de régularisation.
Système expert
Un système expert est un programme informatique capable de résoudre des problèmes complexes dans un domaine spécifique en utilisant des connaissances et des règles logiques fournies par des experts humains.
T
Token (Jeton)
Un token (jeton en français) est une unité de texte utilisée pour représenter et traiter des séquences de mots ou de caractères dans les modèles de langage et les chatbots. Les tokens permettent aux modèles de langage, tels que GPT, d'apprendre et de générer du texte de manière plus efficace et précise en traitant de plus petites unités de texte.
Traitement du langage naturel (Natural Language Processing, NLP)
Le traitement du langage naturel (Natural Language Processing, NLP) est un sous-domainede l'intelligence artificielle qui se concentre sur la capacité des machines à comprendre, interpréter et générer des textes en langage humain. Les applications du TAL incluent la traduction automatique, les chatbots et les assistants vocaux.
Transformer Models (Modèles de type Transformer)
Les Transformer Models (Modèles de type Transformer) sont une avancée majeure dans le domaine de l'apprentissage automatique et du traitement du langage naturel. Ils combinent la tokenisation, la vectorisation (ou "embedding"), l'encodage positionnel, les mécanismes d'attention et les réseaux de neurones feedforward pour capturer le contexte des séquences de texte et générer des prédictions précises pour diverses tâches linguistiques. Les modèles de type Transformer, tels que GPT ou BERT, ont révolutionné la compréhension et la génération du texte, et sont à la base de nombreuses applications avancées, telles que les chatbots, les systèmes de traduction automatique et les outils de rédaction assistée.
U
Unsupervised Learning (Apprentissage non supervisé)
L'apprentissage non supervisé est une méthode d'apprentissage automatique dans laquelle un algorithme apprend à partir d'un ensemble de données non étiquetées. L'objectif est de trouver des structures cachées ou des modèles sous-jacents dans les données sans connaître les résultats à l'avance.
V
Vecteur (Vector)
Dans le domaine de l'intelligence artificielle (IA), un vecteur est une structure de données fondamentale qui se présente comme une liste ordonnée de nombres. Ces nombres représentent des caractéristiques ou des traits dans un espace multidimensionnel. Dans l'apprentissage automatique, par exemple, les vecteurs peuvent représenter les traits d'un individu ou d'un objet, comme l'âge, le poids et la taille d'une personne. En traitement du langage naturel, les mots ou les phrases peuvent être convertis en vecteurs pour un traitement plus efficace. L'importance du vecteur en IA découle de sa capacité à représenter des données de manière structurée et à permettre des manipulations mathématiques complexes.