Découvrez les nouveaux outils pour créer avec l'IA générative sur AWS
L'essor de l'IA générative et des modèles de base
L'IA générative est une forme d'intelligence artificielle capable de créer de nouveaux contenus et idées, tels que des conversations, des histoires, des images, des vidéos et de la musique. Les modèles de base (Foundation Models ou FMs) sont de très grands modèles pré-entraînés sur d'énormes quantités de données, qui permettent à l'IA générative de fonctionner. Parmi les exemples de FMs, on trouve les grands modèles de langage (LLMs) tels que GPT3.5 et BLOOM, ou le modèle text-to-image Stable Diffusion de Stability AI.
Amazon Bedrock et les modèles Amazon Titan
Amazon Bedrock est un nouveau service qui rend les FMs d'AI21 Labs, Anthropic, Stability AI et Amazon accessibles via une API. Bedrock permet aux clients de construire et de déployer facilement des applications basées sur l'IA générative en utilisant des FMs. Les clients peuvent choisir parmi une gamme de FMs performants pour le texte et les images, y compris les modèles Titan d'Amazon, qui sont deux nouveaux LLMs annoncés aujourd'hui.
Personnalisation des modèles avec Amazon Bedrock
Amazon Bedrock facilite la personnalisation des FMs en fonction des besoins spécifiques des clients. Les clients n'ont qu'à fournir quelques exemples étiquetés stockés dans Amazon S3, et le service peut affiner le modèle pour une tâche particulière sans nécessiter de grandes quantités de données.
Instances Amazon EC2 Trn1n et Inf2 pour l'IA générative
Les instances Amazon EC2 Trn1n, alimentées par AWS Trainium, et les instances Amazon EC2 Inf2, alimentées par AWS Inferentia2, offrent une infrastructure cloud rentable pour l'IA générative. Ces instances permettent aux clients de maximiser les performances et de contrôler les coûts en choisissant l'infrastructure ML optimale pour leurs besoins.
Les instances EC2 Trn1n pour l'apprentissage automatique
Les instances Trn1n, alimentées par Trainium, peuvent offrir jusqu'à 50 % d'économies sur les coûts de formation par rapport à d'autres instances EC2. Elles sont optimisées pour distribuer la formation sur plusieurs serveurs connectés avec un réseau Elastic Fabric Adapter (EFA) de deuxième génération de 800 Gbps.
Les instances EC2 Inf2 pour l'inférence
Les instances Inf2, alimentées par Inferentia2, sont conçues pour offrir une infrastructure rentable pour l'exécution des modèles et l'inférence en temps réel, ce qui nécessite une latence très faible et un débit réseau élevé.
Source : Amazon