Publicado: Apr 30, 2024
O HAQM Titan Text Embeddings V2, um novo modelo de incorporação da família de modelos do HAQM Titan, agora está disponível no HAQM Bedrock. Usando o Titan Text Embeddings V2, os clientes podem realizar várias tarefas de processamento de linguagem natural (PLN) representando dados de texto como vetores numéricos, conhecidos como incorporações. Essas incorporações capturam as relações semânticas e contextuais entre palavras, frases ou documentos em um espaço vetorial de alta dimensão. Esse modelo é otimizado para casos de uso de Retrieval-Augmented Generations (RAG – Gerações Aumentadas de Recuperação) e também é adequado para uma variedade de outras tarefas, como recuperação de informações, chatbots de perguntas e respostas, classificação e recomendações personalizadas.
O HAQM Text Embeddings V2 é um modelo leve e eficiente, ideal para tarefas de recuperação de alta precisão em diferentes dimensões. O modelo oferece suporte a tamanhos de incorporações flexíveis (256, 512, 1.024) e prioriza a manutenção da precisão em dimensões menores, ajudando a reduzir os custos de armazenamento sem comprometer a precisão. Ao reduzir de 1.024 para 512 dimensões, o Titan Text Embeddings V2 retém aproximadamente 99% de precisão de recuperação e, ao reduzir de 1.024 para 256 dimensões, o modelo mantém 97% de precisão. Além disso, o Titan Text Embeddings V2 inclui suporte multilíngue para mais de 100 idiomas no pré-treinamento, bem como normalização de vetores unitários para melhorar a precisão da medição da similaridade vetorial.
O HAQM Titan Text Embeddings V2 está disponível nas regiões da AWS Leste dos EUA (N. da Virgínia) e Oeste dos EUA (Oregon). Para saber mais, leia o blog de notícias da AWS sobre o lançamento, a página de produto do HAQM Titan e a documentação. Para começar a usar o Titan Text Embeddings V2 no HAQM Bedrock, acesse o console do HAQM Bedrock.