PandIA is now for sale. For inquiries, please contact us.

PandIA

Découvrez les nouveaux outils pour créer avec l'IA générative sur AWS

Découvrez les nouveaux outils pour créer avec l'IA générative sur AWS
Amazon Bedrock, nouvelle solution pour l'IA

L'essor de l'IA générative et des modèles de base

L'IA générative est une forme d'intelligence artificielle capable de créer de nouveaux contenus et idées, tels que des conversations, des histoires, des images, des vidéos et de la musique. Les modèles de base (Foundation Models ou FMs) sont de très grands modèles pré-entraînés sur d'énormes quantités de données, qui permettent à l'IA générative de fonctionner. Parmi les exemples de FMs, on trouve les grands modèles de langage (LLMs) tels que GPT3.5 et BLOOM, ou le modèle text-to-image Stable Diffusion de Stability AI.

Construire avec l'IA générative sur AWS

Amazon Bedrock et les modèles Amazon Titan

Amazon Bedrock est un nouveau service qui rend les FMs d'AI21 Labs, Anthropic, Stability AI et Amazon accessibles via une API. Bedrock permet aux clients de construire et de déployer facilement des applications basées sur l'IA générative en utilisant des FMs. Les clients peuvent choisir parmi une gamme de FMs performants pour le texte et les images, y compris les modèles Titan d'Amazon, qui sont deux nouveaux LLMs annoncés aujourd'hui.

Personnalisation des modèles avec Amazon Bedrock

Amazon Bedrock facilite la personnalisation des FMs en fonction des besoins spécifiques des clients. Les clients n'ont qu'à fournir quelques exemples étiquetés stockés dans Amazon S3, et le service peut affiner le modèle pour une tâche particulière sans nécessiter de grandes quantités de données.

Instances Amazon EC2 Trn1n et Inf2 pour l'IA générative

Les instances Amazon EC2 Trn1n, alimentées par AWS Trainium, et les instances Amazon EC2 Inf2, alimentées par AWS Inferentia2, offrent une infrastructure cloud rentable pour l'IA générative. Ces instances permettent aux clients de maximiser les performances et de contrôler les coûts en choisissant l'infrastructure ML optimale pour leurs besoins.

Les instances EC2 Trn1n pour l'apprentissage automatique

Les instances Trn1n, alimentées par Trainium, peuvent offrir jusqu'à 50 % d'économies sur les coûts de formation par rapport à d'autres instances EC2. Elles sont optimisées pour distribuer la formation sur plusieurs serveurs connectés avec un réseau Elastic Fabric Adapter (EFA) de deuxième génération de 800 Gbps.

Les instances EC2 Inf2 pour l'inférence

Les instances Inf2, alimentées par Inferentia2, sont conçues pour offrir une infrastructure rentable pour l'exécution des modèles et l'inférence en temps réel, ce qui nécessite une latence très faible et un débit réseau élevé.

Source : Amazon

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter