Publicado: Nov 26, 2023

O HAQM Redshift aprimora o Redshift ML para oferecer suporte a grandes modelos de linguagem (LLMs). O HAQM Redshift ML permite que os clientes criem, treinem e implantem modelos de machine learning usando comandos habituais de SQL. Agora, você pode usar LLMs pré-treinados disponíveis publicamente no HAQM SageMaker JumpStart como parte do Redshift ML para levar os recursos dos LLMs às análises. Por exemplo, você pode fazer inferências sobre dados de feedback de produtos no HAQM Redshift, usar LLMs para resumir o feedback e realizar extração de entidades, análise de sentimentos e classificação de feedback de produtos.

Para usar esse recurso, você precisa criar um endpoint para um LLM no HAQM SageMaker JumpStart. Você pode aproveitar os modelos predefinidos prontos para uso ou treinar um modelo personalizado no HAQM SageMaker JumpStart com seus próprios dados. Em seguida, use o endpoint do modelo para fazer inferências remotas com os dados do Redshift usando o Redshift ML. Para usar inferências de LLM, seu tipo de dados de entrada e saída precisa ser SUPER. Não há custos adicionais associados ao uso de LLMs com o HAQM Redshift ML. Consulte a página de preços do HAQM SageMaker para obter mais detalhes.

O aprimoramento do HAQM Redshift ML para oferecer suporte a LLMs já está disponível para pré-visualização nas regiões da AWS Leste dos EUA (Norte da Virgínia), Oeste dos EUA (Oregon), UE-Oeste (Irlanda), Leste dos EUA (Ohio), UE-Norte (Estocolmo) e AP-Nordeste (Tóquio). Para começar a usar e saber mais, acesse o Guia do desenvolvedor de banco de dados do HAQM Redshift.