Escolha entre os principais FMs
O HAQM Bedrock torna a criação com uma variedade de modelos de base (FMs) tão simples quanto uma chamada de API. O HAQM Bedrock fornece acesso aos principais modelos, incluindo Jurassic da AI21 Labs, Claude da Anthropic, Command and Embed da Cohere, Llama 2 da Meta e Stable Diffusion da Stability AI, bem como nossos próprios modelos HAQM Titan. Com o HAQM Bedrock, você pode selecionar o FM mais adequado ao seu caso de uso e aos requisitos da aplicação.

Experimente usar os FMs para diferentes tarefas
Experimente facilmente diferentes FMs usando playgrounds interativos para várias modalidades, incluindo texto, chat e imagem. Os playgrounds permitem que você experimente vários modelos para seu caso de uso a fim de ter uma ideia da adequação do modelo para uma determinada tarefa.

Avalie FMs para selecionar o melhor para o seu caso de uso
O Model Evaluation no HAQM Bedrock permite que você use avaliações automáticas e humanas para selecionar FMs para um caso de uso específico. A avaliação automática de modelos usa conjuntos de dados selecionados e fornece métricas predefinidas, incluindo precisão, robustez e toxicidade. Para métricas subjetivas, você pode usar o HAQM Bedrock para configurar um fluxo de trabalho de avaliação humana com algumas etapas rápidas. Com avaliações humanas, você pode trazer seus próprios conjuntos de dados e definir métricas personalizadas, como relevância, estilo e alinhamento com a voz da marca. Os fluxos de trabalho de avaliação humana podem usar seus próprios funcionários como revisores, ou você pode contratar uma equipe gerenciada pela AW para realizar a avaliação humana, na qual a AWS contrata avaliadores qualificados e gerencia o fluxo de trabalho completo em seu nome. Para saber mais, leia a publicação do blog.

Personalize FMs de forma privada com os dados
Com alguns etapas rápidas, o HAQM Bedrock permite que você passe de modelos genéricos para modelos especializados e personalizados para sua empresa e caso de uso. Para adaptar um FM para uma tarefa específica, você pode usar uma técnica chamada ajuste fino. Indique alguns exemplos rotulados no HAQM Simple Storage Service (HAQM S3), e o HAQM Bedrock faz uma cópia do modelo básico, o treina com seus dados e cria um modelo ajustado acessível somente para você, para que você obtenha respostas personalizadas. O ajuste fino está disponível para os modelos Command, Llama 2, HAQM Titan Text Lite and Express, HAQM Titan Image Generator e HAQM Titan Multimodal Embeddings. Uma segunda forma de adaptar os FMs HAQM Titan Text Lite e HAQM Titan Express no HAQM Bedrock é com o pré-treinamento contínuo, uma técnica que usa conjuntos de dados não rotulados para personalizar o FM para um domínio ou setor. Com o ajuste fino e o pré-treinamento contínuo, o HAQM Bedrock cria uma cópia privada e personalizada do FM de base para você, e os dados não são usados para treinar os modelos de base originais. Os dados usados para personalizar os modelos são transferidos com segurança por meio da HAQM Virtual Private Cloud (HAQM VPC). Para saber mais, leia a publicação do blog.

API Converse
A API Converse fornece aos desenvolvedores uma maneira consistente de invocar modelos do HAQM Bedrock, removendo a complexidade para ajustar as diferenças específicas do modelo, como parâmetros de inferência.
