Publié le: Nov 26, 2023
HAQM Redshift améliore Redshift ML pour prendre en charge les grands modèles de langage (LLM). HAQM Redshift ML permet de créer, entraîner et déployer des modèles de machine learning à l'aide de commandes SQL familières. Désormais, dans le cadre de Redshift ML, vous pouvez tirer parti des LLM pré-entraînés accessibles au public dans HAQM SageMaker JumpStart, ce qui vous permet de mettre la puissance des LLM au service de l'analytique. Par exemple, vous pouvez tirer des conclusions sur les données de vos commentaires sur les produits dans HAQM Redshift, utiliser des LLM pour résumer les commentaires, effectuer une extraction d'entités, une analyse des sentiments et une classification des commentaires sur les produits.
Pour utiliser cette fonctionnalité, vous devez créer un point de terminaison pour un LLM dans HAQM SageMaker JumpStart. Vous pouvez tirer parti des modèles prédéfinis prêts à l'emploi ou entraîner un modèle personnalisé dans HAQM Sagemaker JumpStart avec vos propres données, puis utiliser le point de terminaison du modèle pour effectuer des inférences à distance sur vos données Redshift à l'aide de Redshift ML. Pour utiliser les inférences de LLM, le type de vos données d'entrée et de sortie doit être SUPER. Aucun coût supplémentaire n'est associé à l'utilisation de LLM avec HAQM Redshift ML. Consultez la page de tarification d'HAQM SageMaker pour en savoir plus.
L'amélioration d'HAQM Redshift ML pour la prise en charge de LLM est désormais disponible en version préliminaire dans les régions AWS USA Est (Virginie du Nord), USA Ouest (Oregon), UE-Ouest (Irlande), US-Est (Ohio), UE-Nord (Stockholm) et AP-Nord-Est (Tokyo). Pour commencer et en savoir plus, consultez le Guide du développeur de bases de données d’HAQM Redshift.