Perguntas frequentes sobre o HAQM Bedrock

Geral

Abrir tudo

O HAQM Bedrock é um serviço totalmente gerenciado que oferece uma variedade de modelos de base (FMs) líderes do setor, além de um amplo conjunto de funcionalidades necessárias para o desenvolvimento de aplicações com tecnologia de IA generativa, simplificando o desenvolvimento com segurança, privacidade e uso responsável da IA. Com os recursos abrangentes do HAQM Bedrock, você pode experimentar uma variedade dos melhores FMs, personalizá-los de maneira privada com seus dados usando técnicas como ajuste fino e Retrieval-Augmented Generation (RAG) e criar agentes gerenciados que executam tarefas comerciais complexas, desde reservas de viagens e processamento de sinistros de seguros até a criação de campanhas publicitárias e gerenciamento de inventário, tudo sem escrever nenhum código. Como o HAQM Bedrock usa tecnologia sem servidor, você não precisa gerenciar nenhuma infraestrutura e pode integrar e implantar com segurança recursos de IA generativa em suas aplicações usando os serviços da AWS que já conhece.

Há cinco motivos para usar o HAQM Bedrock para criar aplicações de IA generativa.

  • Escolha dos FMs principais: o HAQM Bedrock oferece uma experiência de desenvolvimento fácil de usar para trabalhar com uma ampla gama de FMs de alta performance da HAQM e das principais empresas de IA, como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI e Stability AI. Você pode experimentar rapidamente vários FMs na área de testes e usar uma única API para inferência, qualquer que seja o modelo escolhido. Assim, você tem a flexibilidade de usar FMs de diferentes fornecedores e ficar a par das versões mais recentes do modelo com o mínimo de alterações no código.
  • Fácil personalização do modelo com seus dados: personalize FMs de forma privada com seus próprios dados em uma interface visual sem precisar escrever código. Basta selecionar os conjuntos de dados de treinamento e validação armazenados no HAQM Simple Storage Service (HAQM S3) e, se necessário, ajustar os hiperparâmetros para obter o melhor desempenho possível do modelo.
  • Agentes totalmente gerenciados que invocam APIs dinamicamente para executar tarefas: crie agentes para executar tarefas comerciais complexas, desde reservar viagens e processar pedidos de seguro até criar campanhas publicitárias, preparar declarações de imposto e gerenciar inventários, chamando dinamicamente os sistemas e as APIs de sua empresa. Agentes totalmente gerenciados do HAQM Bedrock ampliam os recursos de raciocínio dos FMs para detalhar tarefas, criar um plano de orquestração e executá-lo.
  • Suporte nativo para RAG para ampliar o poder dos FMs com dados proprietários: com o HAQM Bedrock Knowledge Bases, você pode conectar com segurança os FMs às suas fontes de dados para aumentar a recuperação dentro do serviço gerenciado, ampliando os recursos já poderosos do FM e aprofundando o conhecimento do modelo sobre seu domínio e sua organização.
  • Certificações de segurança e conformidade de dados: o HAQM Bedrock oferece vários recursos para atender aos requisitos de segurança e privacidade. O HAQM Bedrock está no escopo de padrões de conformidade comuns, como o Service and Organization Control (SOC), a Organização Internacional para Padronização (ISO), é elegível para a Health Insurance Portability and Accountability Act (HIPAA), e os clientes podem usar o HAQM Bedrock em conformidade com o Regulamento Geral de Proteção de Dados (RGPD). O HAQM Bedrock tem a certificação CSA Security Trust Assurance and Risk (STAR) de nível 2, que valida o uso de práticas recomendadas e a postura de segurança das ofertas de nuvem AWS. Com o HAQM Bedrock, seu conteúdo não é usado para melhorar os modelos de base e não é compartilhado com outros provedores de modelos. Seus dados no HAQM Bedrock são sempre criptografados em trânsito e em repouso, e, se desejar, você pode usar suas próprias chaves para a criptografia. Você pode usar o AWS PrivateLink com o HAQM Bedrock para estabelecer uma conexão privada entre os FMs e a HAQM Virtual Private Cloud (HAQM VPC) sem expor o tráfego à Internet.

Com a experiência sem servidor do HAQM Bedrock, você pode começar rapidamente. Navegue até o HAQM Bedrock no Console de Gerenciamento da AWS e experimente os FMs no playground. Você também pode criar um agente e testá-lo no console. Depois de identificar seu caso de uso, você pode integrar facilmente os FMs às suas aplicações usando as ferramentas da AWS, sem precisar gerenciar nenhuma infraestrutura.
Link para o curso de introdução ao HAQM Bedrock
Link para o guia do usuário do HAQM Bedrock

O HAQM Bedrock trabalha com o AWS Lambda para invocar ações, o HAQM S3 para dados de treinamento e validação e o HAQM CloudWatch para monitorar métricas.

Você pode começar rapidamente com casos de uso:

  • Crie novos conteúdos originais, como histórias curtas, ensaios, publicações em redes sociais e textos de páginas da Web.
  • Pesquise, encontre e sintetize informações para responder a perguntas com base em um amplo conjunto de dados.
  • Crie imagens realistas e artísticas de vários objetos, ambientes e cenas a partir de instruções de linguagem.
  • Ajude os clientes a encontrar o que estão procurando com recomendações de produtos mais relevantes e contextuais do que a correspondência de palavras.
  • Obtenha um resumo do conteúdo textual, como artigos, postagens de blog, livros e documentos, para conhecer a essência sem precisar ler o conteúdo completo.
  • Forneça sugestão de produtos que correspondam às preferências do cliente e às compras anteriores

Explore mais casos de uso de IA generativa.

O HAQM Bedrock oferece um playground que permite testar vários FMs usando uma interface de bate-papo conversacional. Você pode fornecer um prompt e usar uma interface Web dentro do console para gerar um prompt e usar os modelos pré-treinados para gerar texto ou imagens ou, como alternativa, usar um modelo ajustado e adaptado para o seu caso de uso.

Para obter uma lista das regiões da AWS nas quais o HAQM Bedrock está disponível, consulte Endpoints e cotas do HAQM Bedrock, no Guia de referência do HAQM Bedrock.

É possível ajustar FMs no HAQM Bedrock com facilidade usando dados marcados ou ao usar o recurso de treinamento prévio contínuo para personalizar o modelo usando dados não marcados. Para começar, forneça o conjunto de dados de treinamento e validação, configure hiperparâmetros (epochs, tamanho do lote, taxa de aprendizado, etapas de aquecimento) e envie o trabalho. Em algumas horas, seu modelo ajustado pode ser acessado com a mesma API (InvokeModel).

Sim. Você pode treinar modelos selecionados e publicamente disponíveis e importá-los para o HAQM Bedrock usando o recurso de importação de modelos personalizados. No momento, esse recurso é compatível somente com as arquiteturas Llama 2/3, Mistral e Flan. Para obter informações adicionais, consulte a documentação.

Disponível em versão prévia pública, a inferência com latência otimizada no HAQM Bedrock oferece latência reduzida sem comprometer a precisão. Conforme verificado pela Anthropic, com inferência otimizada para latência no HAQM Bedrock, o Claude 3.5 Haiku é executado de maneira mais rápida na AWS do que em qualquer outro lugar. Além disso, com inferência otimizada para latência no Bedrock, o Llama 3.1 70B e 405B é executado de maneira mais rápida na AWS do que qualquer outro grande provedor de nuvem. Usando chips de IA criados especificamente, como o AWS Trainium2, e otimizações avançadas de software no HAQM Bedrock, os clientes podem acessar mais opções para otimizar sua inferência para um caso de uso específico.

Principais recursos:

  • Reduz os tempos de resposta das interações do modelo de base
  • Mantém a precisão enquanto melhora a velocidade
  • Não requer configuração adicional ou ajuste fino do modelo

Modelos compatíveis: Claude 3.5 Haiku da Anthropic e Llama 3.1 da Meta, modelos 405B e 70B

 

Disponibilidade: a região Leste dos EUA (Ohio) por meio de inferência entre regiões

 

Para começar a usá-la, acesse o console do HAQM Bedrock. Para mais informações, acesse a documentação do HAQM Bedrock.

O acesso à inferência otimizada para latência no HAQM Bedrock não requer nenhuma configuração adicional ou ajuste fino do modelo, permitindo o aprimoramento imediato dos aplicações de IA generativa existentes com tempos de resposta mais rápidos. Você pode ativar o parâmetro “Latência otimizada” ao invocar a API de inferência do Bedrock.

 

Para começar a usá-la, acesse o console do HAQM Bedrock. Para mais informações, acesse a documentação do HAQM Bedrock.

Atendentes

Abrir tudo

Os HAQM Bedrock Agents são recursos totalmente gerenciados que facilitam aos desenvolvedores a criação de aplicações baseadas em IA generativa que podem concluir tarefas complexas para uma ampla variedade de casos de uso e fornecer respostas atualizadas com base em fontes de conhecimento patenteadas. Em apenas algumas etapas curtas, os HAQM Bedrock Agents dividem automaticamente as tarefas e criam um plano de orquestração, sem qualquer codificação manual. O agente se conecta com segurança aos dados da empresa por meio de uma API, convertendo automaticamente os dados em um formato legível por máquina e aumentando a solicitação com informações relevantes para gerar a resposta mais precisa. Os agentes podem então chamar automaticamente as APIs para atender à solicitação do usuário. Por exemplo, uma empresa de manufatura pode querer desenvolver uma aplicação de IA generativa que automatize o rastreamento de níveis de estoque, dados de vendas e informações da cadeia de suprimentos e possa recomendar quantidades e pontos de reordenamento ideais para maximizar a eficiência. Como recursos totalmente gerenciados, os HAQM Bedrock Agents eliminam a necessidade indiferenciada de gerenciar a integração de sistemas e o provisionamento de infraestrutura, permitindo que os desenvolvedores usem a IA generativa em toda a organização.

Você pode conectar com segurança as FMs às fontes de dados da sua empresa usando o HAQM Bedrock Agents. Com uma base de conhecimento, você pode usar agentes para dar aos FMs do HAQM Bedrock acesso a dados adicionais que ajudam o modelo a gerar respostas mais relevantes, específicas ao contexto e precisas sem treinar continuamente esses FMs. Com base nas informações do usuário, os agentes identificam a base de conhecimento apropriada, recuperam as informações relevantes e adicionam as informações ao prompt de entrada, fornecendo ao modelo mais informações de contexto para gerar uma conclusão.

O HAQM Bedrock Agents pode ajudar você a aumentar a produtividade, melhorar sua experiência de atendimento ao cliente e automatizar fluxos de trabalho (como o processamento de sinistros de seguro).

Com os agentes, os desenvolvedores têm suporte contínuo para monitoramento, criptografia, concessão de permissões de usuário, versionamento e gerenciamento de invocação de API sem a necessidade de escrever um código personalizado. O HAQM Bedrock Agents automatiza a engenharia de prompts e a orquestração das tarefas solicitadas pelo usuário. Os desenvolvedores podem usar o modelo de prompt criado pelo agente como base para refiná-lo ainda mais e garantir uma experiência aprimorada para os usuários. Eles podem atualizar a entrada do usuário, o plano de orquestração e a resposta do FM. Com acesso ao modelo de prompt, os desenvolvedores têm melhor controle sobre a orquestração do agente.

Com agentes totalmente gerenciados, você não precisa se preocupar em provisionar ou gerenciar a infraestrutura e pode levar as aplicações à produção mais rapidamente.

Segurança

Abrir tudo

Qualquer conteúdo de cliente processado pelo HAQM Bedrock é criptografado e armazenado em repouso na região da AWS na qual você está usando o HAQM Bedrock.

Não. As entradas de usuários e as saídas de modelos não são compartilhadas com outros provedores de modelos.

O HAQM Bedrock oferece vários recursos para dar suporte a requisitos de segurança e privacidade. O HAQM Bedrock está em conformidade com padrões conhecidos de conformidade, como o FedRAMP Moderado, o Controle de Organizações de Serviço (SOC) e as Normas da Organização Internacional de Normalização (ISO). Além disso, ele é elegível para a Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA), e os clientes podem usar o Bedrock em conformidade com o Regulamento Geral de Proteção de Dados (RGPD). O HAQM Bedrock está incluído no escopo dos relatórios SOC 1, 2 e 3, permitindo que os clientes obtenham insights sobre nossos controles de segurança. Demonstramos a conformidade por meio de auditorias abrangentes de terceiros sobre os controles da AWS. O HAQM Bedrock é um dos serviços da AWS em conformidade com as seguintes normas ISO: ISO 9001, ISO 27001, ISO 27017, ISO 27018, ISO 27701, ISO 22301 e ISO 20000. O HAQM Bedrock tem a certificação CSA Security Trust Assurance and Risk (STAR) de nível 2, que valida o uso de práticas recomendadas e a postura de segurança das ofertas de nuvem AWS. Com o HAQM Bedrock, seu conteúdo não é usado para melhorar os modelos de base e não é compartilhado com outros provedores de modelos. Você pode usar o AWS PrivateLink para estabelecer conectividade privada da VPC com o HAQM Bedrock, sem precisar expor os dados ao tráfego da Internet.

 

Não, a AWS e fornecedores terceirizados de modelos não usarão nenhuma entrada ou saída do HAQM Bedrock para treinar o HAQM Nova, o HAQM Titan ou qualquer modelo de terceiros.

O HAQM Bedrock é compatível com SDKs para serviços de runtime. Os SDKs do iOS e do Android, bem como Java, JS, Python, CLI, .Net, Ruby, PHP, Go e C++, oferecem suporte à entrada de texto e fala.

O streaming é compatível com todos os SDKs.

Cobrança e suporte

Abrir tudo

Consulte a página de preços do HAQM Bedrock para obter informações atualizadas sobre os preços.

Dependendo do contrato com o AWS Support, o HAQM Bedrock recebe suporte nos planos Developer Support, Business Support e Enterprise Support.

Você pode usar métricas do CloudWatch para rastrear tokens de entrada e saída.

Os clientes verão uma fatura do AWS Marketplace para determinados modelos com tecnologia sem servidor do Bedrock e do Bedrock Marketplace. Isso ocorre porque esses modelos são vendidos por fornecedores terceirizados como “Conteúdo de terceiros”, conforme descrito na seção 50.12 dos Termos de Serviço da AWS.

Personalização

Abrir tudo

Lançamos o pré-treinamento contínuo para os modelos HAQM Titan Text Express e HAQM Titan no HAQM Bedrock. O pré-treinamento contínuo permite que você continue o pré-treinamento em um modelo básico do HAQM Titan usando grandes quantidades de dados não rotulados. Esse tipo de treinamento adaptará o modelo de um corpus de domínio geral para um corpus de domínio mais específico, como médico, jurídico, financeiro, entre outros, mas preservando a maioria dos recursos do modelo de base do HAQM Titan. 

As empresas querem criar modelos para tarefas em um domínio específico. Os modelos de base talvez não sejam treinados no jargão técnico usado nesse domínio específico. Portanto, o ajuste direto do modelo de base exige grandes volumes de registros rotulados e um treinamento muito longo para obter resultados precisos. Para aliviar essa carga, o cliente pode, em vez disso, fornecer grandes volumes de dados não rotulados para um trabalho de pré-treinamento contínuo. Esse trabalho adaptará o modelo de base do HAQM Titan ao novo domínio. Assim, o cliente pode ajustar o modelo personalizado que acabou de ser pré-treinado para tarefas downstream usando registros de treinamento com um número significativamente menor de rótulos e um tempo de treinamento reduzido. 

O pré-treinamento contínuo e o ajuste fino do HAQM Bedrock têm requisitos muito semelhantes. Por esse motivo, estamos optando por criar APIs unificadas e compatíveis com o pré-treinamento contínuo e o ajuste fino. A unificação das APIs reduz a curva de aprendizado e ajudará os clientes a usar recursos padrão, como o HAQM EventBridge para rastrear trabalhos de longa duração, integração com o HAQM S3 para buscar dados de treinamento, tags de recursos e criptografia de modelos. 

O pré-treinamento contínuo ajuda você a adaptar os modelos do HAQM Titan aos dados específicos do domínio, preservando a funcionalidade básica dos modelos do HAQM Titan. Para criar um trabalho de pré-treinamento contínuo, navegue até o console do HAQM Bedrock e clique em “Modelos personalizados”. Navegue até a página do modelo personalizado que tem duas guias: Modelos e Trabalhos de treinamento. Ambas as guias fornecem um menu suspenso “Personalizar modelo” à direita. Selecione “Pré-treinamento contínuo” no menu suspenso para navegar até “Criar trabalho de pré-treinamento contínuo”. Você fornecerá o modelo de origem, o nome, a criptografia do modelo, os dados de entrada, os hiperparâmetros e os dados de saída. Além disso, você pode fornecer tags junto com detalhes sobre perfis do AWS Identity and Access Management (IAM) e políticas de recursos para o trabalho.

HAQM Titan

Abrir tudo

Exclusiva do HAQM Bedrock, a família de modelos do HAQM Titan incorpora os 25 anos de experiência da HAQM inovando com IA e machine learning em todos os setores da empresa. Os FMs do HAQM Titan oferecem aos clientes uma variedade de opções de modelos de imagem, multimodais e de texto de alta performance, por meio de uma API totalmente gerenciada. Os modelos do HAQM Titan são criados pela AWS e pré-treinados em grandes conjuntos de dados, o que os torna avançados e prontos para uso geral, criados para dar suporte a uma variedade de casos de uso, além de apoiar o uso responsável da IA. Use-os como estão ou personalize-os de forma privada com seus próprios dados. Saiba mais sobre o HAQM Titan.

Para saber mais sobre os dados processados ​​para desenvolver e treinar modelos de base do HAQM Titan, acesse a página HAQM Titan Model Training and Privacy.

Knowledge Bases/RAG

Abrir tudo

Você pode ingerir conteúdo de várias fontes, incluindo a web, HAQM Simple Storage Service (HAQM S3), o Confluence (versão prévia), o Salesforce (versão prévia) e o SharePoint (versão prévia). Você também pode ingerir dados de streaming ou dados de fontes não compatíveis de forma programática. Você também pode se conectar às suas fontes de dados estruturadas, como o data warehouse do Redshift e o Catálogo de Dados do AWS Glue.

O HAQM Bedrock Knowledge Bases fornece uma linguagem natural gerenciada para SQL para converter a linguagem natural em consultas SQL acionáveis e recuperar dados, permitindo que você crie aplicações usando dados dessas fontes.

Sim, o gerenciamento do contexto da sessão é integrado, permitindo que suas aplicações mantenham o contexto em várias interações, o que é essencial para suportar conversas em vários turnos.

Sim, todas as informações recuperadas incluem citações, melhorando a transparência e minimizando o risco de alucinações nas respostas geradas.

O HAQM Bedrock Knowledge Bases oferece suporte ao processamento de dados multimodal, permitindo que os desenvolvedores criem aplicações de IA generativa que analisam dados visuais e de texto, incluindo imagens, gráficos, diagramas e tabelas. As respostas do modelo podem aproveitar insights de elementos visuais, além do texto, fornecendo respostas mais precisas e contextualmente relevantes. Além disso, a atribuição de fontes para respostas inclui elementos visuais, aumentando a transparência e a confiança nas respostas.

O HAQM Bedrock Knowledge Bases podem processar documentos visualmente ricos em formato PDF, que podem conter imagens, tabelas, gráficos e diagramas. Para dados somente de imagem, o Bedrock Knowledge Bases oferece suporte a formatos de imagem padrão, como JPEG e PNG, permitindo recursos de pesquisa nos quais os usuários podem recuperar imagens relevantes com base em consultas baseadas em texto.

Os clientes têm três opções de análise para o Bedrock Knowledge Bases. Para processamento somente de texto, o analisador Bedrock padrão integrado está disponível sem custo adicional, ideal para casos em que o processamento multimodal de dados não é necessário. Os modelos do HAQM Bedrock Data Automation (BDA) ou de base podem ser usados para analisar dados multimodais. Para mais informações, consulte a documentação do produto

O HAQM Bedrock Knowledge Bases lida com várias complexidades do fluxo de trabalho, como comparação de conteúdo, tratamento de falhas, controle de throughput e criptografia, garantindo que seus dados sejam processados e gerenciados com segurança de acordo com os rigorosos padrões de segurança da AWS.

Avaliação do modelo

Abrir tudo

A avaliação de modelo no HAQM Bedrock permite avaliar, comparar e selecionar os melhores FMs para seu caso de uso em apenas algumas etapas curtas. O HAQM Bedrock oferece a opção entre avaliação automática e avaliação humana. Você pode usar a avaliação automática com métricas predefinidas, como precisão, robustez e toxicidade. Você pode usar fluxos de trabalho de avaliação humana para métricas subjetivas ou personalizadas, como simpatia, estilo e alinhamento com o tom de voz da marca. Para a avaliação humana, é possível aproveitar seus próprios funcionários ou uma equipe gerenciada pela AWS como revisores. A avaliação do modelo no HAQM Bedrock fornece conjuntos de dados selecionados integrados, ou você pode trazer seus próprios conjuntos de dados.

Você pode analisar uma variedade de métricas predefinidas, como precisão, robustez e toxicidade, usando avaliações automáticas. Também é possível usar fluxos de trabalho de avaliação humana para métricas subjetivas ou personalizadas, como simpatia, relevância, estilo e alinhamento com o tom de voz da marca.

As avaliações automáticas permitem que você reduza rapidamente a lista de FMs disponíveis em relação aos critérios padrão (como precisão, toxicidade e robustez). As avaliações humanas são frequentemente usadas para avaliar critérios mais sutis ou subjetivos que exigem julgamento humano e nos casos para os quais talvez não existam avaliações automáticas (como tom de voz da marca, intenção criativa, simpatia).

Você pode avaliar rapidamente os modelos do HAQM Bedrock para métricas como precisão, robustez e toxicidade, usando conjuntos de dados integrados selecionados ou trazendo conjuntos de dados de prompts próprios. Depois que os conjuntos de dados de prompts são enviados aos modelos do HAQM Bedrock para inferência, as respostas do modelo são pontuadas com algoritmos de avaliação para cada dimensão. O mecanismo de back-end agrega pontuações individuais de resposta rápida em pontuações resumidas e as apresenta por meio de relatórios visuais fáceis de entender.

O HAQM Bedrock permite que você configure fluxos de trabalho de revisão humana em algumas etapas curtas e aproveite os funcionários internos ou use uma equipe especializada gerenciada pela AWS para avaliar modelos. Por meio da interface intuitiva do HAQM Bedrock, as pessoas podem revisar e dar feedback sobre as respostas do modelo clicando nos polegares para cima ou para baixo, avaliando em uma escala de 1 a 5, escolhendo a melhor das várias respostas ou classificando os prompts. Por exemplo, um membro da equipe pode ver como dois modelos respondem ao mesmo prompt e, em seguida, ser solicitado a selecionar o modelo que mostra resultados mais precisos, relevantes ou estilísticos. É possível especificar os critérios de avaliação que são mais importantes para você personalizando as instruções e os botões que aparecerão na interface do usuário de avaliação da equipe. Você também pode fornecer instruções detalhadas com exemplos e o objetivo geral da avaliação do modelo, para que os usuários possam alinhar o trabalho de maneira adequada. Esse método é útil para avaliar critérios subjetivos que exigem julgamento humano ou conhecimentos mais diferenciados no assunto e que não podem ser facilmente julgados por avaliações automáticas.

IA responsável com Barreiras de Proteção do HAQM Bedrock

Abrir tudo

As Barreiras de Proteção do HAQM Bedrock ajudam você a implementar salvaguardas para suas aplicações de IA generativa com base nos seus casos de uso e políticas de IA responsável. É possível criar várias barreiras de proteção personalizadas para diferentes casos de uso e aplicá-las em vários modelos de base (FMs), fornecendo uma experiência de usuário consistente e padronizando os controles de segurança e privacidade nas aplicações de IA generativa.

As Barreiras de Proteção auxiliam você a definir um conjunto de seis políticas para ajudar a proteger as aplicações de IA generativa. Nas Barreiras de Proteção do HAQM Bedrock, é possível configurar as seguintes políticas:

  • Filtros de conteúdo multimodais: configuram limites para detectar e filtrar conteúdo de texto e/ou imagem nocivo em categorias como ódio, insultos, sexo, violência, má conduta e ataques de prompts.

  • Tópicos negados: defina um conjunto de tópicos que não são desejáveis no contexto da aplicação. O filtro ajudará a bloqueá-los se forem detectados nas consultas dos usuários ou nas respostas do modelo.

  • Filtros de palavras: configure filtros para ajudar a bloquear palavras, frases e palavrões indesejáveis (correspondência exata). Essas palavras podem incluir termos ofensivos, nomes de concorrentes etc.

  • Filtros de informações confidenciais: configure filtros para ajudar a bloquear ou mascarar informações confidenciais, como informações de identificação pessoal (PII) ou regex personalizado nas entradas do usuário e nas respostas do modelo. O bloqueio ou mascaramento é feito com base na detecção probabilística de informações confidenciais em formatos padrão em entidades como número SSN, data de nascimento, endereço etc. Isso também permite configurar a detecção baseada em expressões regulares de padrões para identificadores.

  • Verificações de fundamentação contextual: ajudam a detectar e filtrar alucinações se as respostas não estiverem fundamentadas (por exemplo, informações factualmente imprecisas ou novas) nas informações de origem e forem irrelevantes para a consulta ou instrução do usuário.

  • Verificações com raciocínio automatizado: ajudam a detectar imprecisões factuais no conteúdo gerado, sugerem correções e explicam por que as respostas são precisas comparando uma representação matemática estruturada do conhecimento chamada de Política de Raciocínio Automatizado.

As Barreiras de Proteção do Bedrock oferecem suporte a conteúdo de texto e imagem para permitir que os clientes criem aplicações de IA generativa seguras em grande escala.

As Barreiras de Proteção do HAQM Bedrock funcionam com uma ampla variedade de modelos, incluindo FMs compatíveis com o HAQM Bedrock, modelos ajustados e modelos auto-hospedados fora do HAQM Bedrock. As entradas do usuário e as saídas do modelo podem ser avaliadas de forma independente para modelos de terceiros e auto-hospedados usando a API do ApplyGuardrail. O HAQM Bedrock Guardrails também pode ser integrado ao HAQM Bedrock Agents e ao HAQM Bedrock Knowledge Bases para criar aplicações de IA generativa alinhadas às políticas responsáveis de IA

Atualmente, as Barreiras de Proteção do HAQM Bedrock oferecem suporte para inglês, francês e espanhol em linguagem natural. O uso de qualquer outro idioma produzirá resultados ineficazes.

Existem cinco políticas de barreira de proteção, cada uma com diferentes proteções disponíveis para uso

  • Filtros de conteúdo: existem seis categorias disponíveis para uso, nomeadamente, disseminação de ódio, insultos, conteúdo sexual, violência, comportamento impróprio (incluindo atividades criminosas) e ataques de prompt (jailbreak e injeção de prompt). Cada categoria pode ter limites de filtragem ainda mais personalizados, oferecendo opções de baixa, média ou alta agressividade para conteúdo de texto e de imagem.
  • Tópico negado: são tópicos personalizados que o cliente pode definir usando descrições simples em linguagem natural
  • Filtro de informações confidenciais: inclui mais de 30 PIIs disponíveis para uso. Esse filtro pode ser ainda mais personalizado ao adicionar as informações confidenciais do cliente.
  • Filtros de palavras: inclui filtragem de palavrões disponível para uso e pode ser ajustado de forma adicional com palavras personalizadas.
  • As verificações de fundamento contextual: podem ajudar a detectar alucinações em aplicações de conversas, resumos e RAG, em que as informações de origem podem ser usadas como referência para validar a resposta do modelo.

Existem cinco políticas de barreira de proteção, cada uma com diferentes proteções disponíveis para uso

  • Filtros de conteúdo: existem seis categorias disponíveis para uso, nomeadamente, disseminação de ódio, insultos, conteúdo sexual, violência, comportamento impróprio (incluindo atividades criminosas) e ataques de prompt (jailbreak e injeção de prompt). Cada categoria pode ter limites de filtragem ainda mais personalizados, oferecendo opções de baixa, média ou alta agressividade.
  • Tópico negado: são tópicos personalizados que o cliente pode definir usando descrições simples em linguagem natural
  • Filtro de informações confidenciais: inclui mais de 30 PIIs disponíveis para uso. Esse filtro pode ser ainda mais personalizado ao adicionar as informações confidenciais do cliente.
  • Filtros de palavras: inclui filtragem de palavrões disponível para uso e pode ser ajustado de forma adicional com palavras personalizadas.
  • As verificações de fundamento contextual: podem ajudar a detectar alucinações em aplicações de conversas, resumos e RAG, em que as informações de origem podem ser usadas como referência para validar a resposta do modelo.

As Barreiras de Proteção do HAQM Bedrock oferece a capacidade de estabelecer barreiras obrigatórias para cada chamada de inferência usando recursos de fiscalização baseados em políticas do IAM. Clique aqui para obter detalhes. 

Há um custo separado para usar o HAQM Bedrock Guardrails. Esse custo é aplicável tanto para a entrada quanto para a saída. Os preços estão disponíveis ao final da página disponibilizada aqui.

As Barreiras de Proteção do HAQM Bedrock oferecem filtros de informações confidenciais que fornecem 31 PIIs que incluem números de previdência social e números de telefone. Consulte a lista completa aqui.

O preço das Barreiras de Proteção do HAQM Bedrock é baseado em um modelo por uso para conteúdo de texto e imagem. Consulte a página de preços das Barreiras de Proteção para obter detalhes sobre preços.

Sim, as APIs do HAQM Bedrock Guardrail ajudam os clientes a executar testes automatizados. O uso do “criador de casos de teste” pode ser recomendável antes da implantação de barreiras de proteção na produção. Ainda não existe um criador de casos de teste nativo. Para o monitoramento contínuo do tráfego de produção, as barreiras de proteção ajudam a fornecer registros detalhados de todas as violações para cada entrada e saída. Dessa forma, os clientes podem monitorar, de maneira granular, cada entrada e cada saída da aplicação com tecnologia de IA generativa. Esses logs podem ser armazenados no CloudWatch ou no S3 e podem ser usados para criar painéis personalizados com base nos requisitos dos clientes.

Usando uma política de raciocínio automatizado, as verificações de raciocínio automatizado podem apontar afirmações precisas e imprecisões factuais no conteúdo. Para declarações precisas e imprecisas, a verificação de raciocínio automatizado fornece explicações lógicas e verificáveis para sua saída. A verificação do raciocínio automatizado exige o envolvimento inicial de um especialista do domínio para criar uma política e só oferece suporte a conteúdo que define regras. Por outro lado, as verificações contextuais de fundamentação no Bedrock Guardrails usam técnicas de machine learning para garantir que o conteúdo gerado acompanhe de perto os documentos que foram fornecidos como entrada de uma base de conhecimento, sem exigir nenhum trabalho inicial adicional. Tanto as verificações de raciocínio automatizado quanto a fundamentação de contexto fornecem seus comentários na saída da API do Guardrail. Você pode usar o feedback para atualizar o conteúdo gerado.

Os formatos de imagem PNG e JPEG são compatíveis com as Barreiras de Proteção do Bedrock.

Marketplace

Abrir tudo

O HAQM Bedrock Marketplace oferece aos clientes mais de 100 modelos populares, emergentes ou especializados, além dos FMs sem servidor do HAQM Bedrock, para que os clientes possam criar e otimizar facilmente suas aplicações de IA generativa. No console HAQM Bedrock, os clientes poderão descobrir um amplo catálogo de FMs oferecidos por vários fornecedores. Em seguida, você pode implantar esses modelos em endpoints totalmente gerenciados, onde você pode escolher o número desejado de instâncias e tipos de instância. Depois que os modelos são implantados, eles podem ser acessados por meio da API Invoke do HAQM Bedrock. Para modelos de texto para texto ajustados por chat, os clientes podem usar nossa nova API Converse, uma API unificada que abstrai as diferenças de FMs e permite a troca de modelos com uma única alteração de parâmetro. Quando aplicável, os modelos podem ser usados com o HAQM Bedrock Playground, Agents, Knowledge Bases, Prompt Management, Prompt Flows, Guardrails e Model Evaluation.

Você deve usar o HAQM Bedrock Marketplace para se beneficiar dos modelos avançados que estão surgindo rapidamente à medida que o setor de IA generativa continua inovando. Você pode acessar e implantar rapidamente modelos populares, emergentes e especializados, personalizados para seus requisitos exclusivos, que podem acelerar o tempo de colocação no mercado, melhorar a precisão ou reduzir o custo de seus fluxos de trabalho de IA generativa. Você pode acessar os modelos por meio das APIs unificadas do Bedrock e, se eles forem compatíveis com a API Converse do Bedrock, usá-los de forma nativa com as ferramentas do Bedrock, como Agents, Knowledge Bases e Guardrails. Você pode conectar facilmente o HAQM Bedrock Marketplace aos modelos sem servidor do HAQM Bedrock, tudo em um único lugar.
 

Basta navegar até a página do catálogo de modelos do HAQM Bedrock no console do Bedrock, onde é possível pesquisar listagens de modelos do HAQM Bedrock no Marketplace, além dos modelos com tecnologia sem servidor do HAQM Bedrock. Depois de selecionar o modelo do HAQM Bedrock Marketplace que você deseja usar, você pode assinar o modelo por meio da página de detalhes do modelo, aceitando o EULA e os preços definidos pelo fornecedor. Depois que a assinatura for concluída, o que normalmente leva alguns minutos, você pode implantar o modelo em um endpoint totalmente gerenciado do SageMaker clicando em Implantar na página de detalhes do modelo ou usando APIs. Na etapa de implantação, você pode selecionar o número desejado de instâncias e tipos de instância para atender à sua workload. Depois que o endpoint estiver configurado, o que normalmente leva de 10 a 15 minutos, você pode começar a fazer chamadas de inferência para o endpoint e usar o modelo nas ferramentas avançadas do Bedrock, desde que o modelo seja compatível com a API Converse da Bedrock.

Modelos com arquiteturas com suporte pela importação de modelos personalizados (Mistral, Mixtral, Flan e Llama2/3/3.1/3.2) podem ser ajustados no SageMaker e disponibilizados no HAQM Bedrock por meio da importação de modelos personalizada. Os modelos que não são têm suporte pela importação de modelos personalizada ainda podem ser ajustados no SageMaker. No entanto, a versão ajustada desses modelos não pode ser usada no HAQM Bedrock.

Data Automation

Abrir tudo

O que é Bedrock Data Automation? O HAQM Bedrock Data Automation é um recurso do Bedrock desenvolvido pela GenAI que simplifica o desenvolvimento de aplicações de IA generativa e automatiza fluxos de trabalho envolvendo documentos, imagens, áudio e vídeos. Ao aproveitar o Bedrock Data Automation, os desenvolvedores podem reduzir o tempo e o esforço de desenvolvimento, facilitando a criação de processamento inteligente de documentos, análise de mídia e outras soluções de automação multimodais centradas em dados. O Bedrock Data Automation oferece a melhor precisão do setor a um custo menor do que soluções alternativas, além de atributos como base visual com pontuações de confiança para explicabilidade e mitigação integrada de alucinações. Isso garante insights confiáveis e precisos de fontes de dados multimodais não estruturadas. Os clientes podem personalizar de forma fácil a saída do Bedrock Data Automation para gerar insights específicos em formatos consistentes exigidos por seus sistemas e aplicativos. Os desenvolvedores começam a usar o Bedrock Data Automation no console do HAQM Bedrock, onde podem configurar e personalizar a saída usando seus dados de amostra. Em seguida, eles podem integrar a API unificada de inferência multimodal do Bedrock Data Automation em suas aplicações para processar seu conteúdo não estruturado em escala de produção com alta precisão e consistência. O Bedrock Data Automation também está integrado ao Bedrock Knowledge Bases, facilitando aos desenvolvedores a geração de informações significativas a partir de seu conteúdo multimodal não estruturado para fornecer respostas mais relevantes para a geração aumentada via recuperação (RAG).

O Bedrock Data Automation facilita a transformação de dados corporativos não estruturados em formatos de saída específicos da aplicação que podem ser utilizados por aplicações de IA generativa e fluxos de trabalho de ETL. Os clientes não precisam mais gastar tempo e esforço gerenciando e orquestrando vários modelos, engenharias de prompts, implementando barreiras de proteção ou juntando saídas para alinhá-las aos requisitos de refino e distribuição do sistema. O Bedrock Data Automation oferece processamento altamente preciso, consistente e econômico de dados não estruturados. O Bedrock Data Automation foi desenvolvido com a IA responsável em mente, fornecendo aos clientes os principais atributos, como fundamentação visual e pontuações de confiança, que facilitam a integração do Bedrock Data Automation nos fluxos de trabalho corporativos.

Os recursos do Bedrock Data Automation estão disponíveis por meio de uma API totalmente gerenciada que os clientes podem integrar facilmente em suas aplicações. Os clientes não precisam se preocupar em escalar os recursos computacionais subjacentes, selecionar e orquestrar modelos ou gerenciar prompts para FMs.

Um esquema é um atributo que os clientes usam para especificar seus requisitos de saída usando linguagem natural ou um editor de esquemas. Ele inclui uma lista de campos que eles desejam extrair, um formato de dados para cada campo e instruções em linguagem natural para cada campo. Por exemplo, os desenvolvedores podem digitar “Crie um esquema para faturas com os seguintes campos: imposto, data de vencimento, data de recebimento” ou “Confirme se o total da fatura corresponde à soma dos itens de linha”. Eles fazem referência aos esquemas como parte das chamadas de API de inferência para que o sistema retorne as informações no formato descrito no esquema.

Documentos

O Bedrock Data Automation é compatível tanto com a saída padrão quanto com a saída personalizada para documentos.

  • A saída padrão fornecerá extração de texto de documentos e saída generativa, como resumo do documento e legendas para tabelas/figuras/diagramas. A saída é retornada em ordem de leitura e, opcionalmente, pode ser agrupada por elemento de layout, que incluirá cabeçalhos/rodapés/títulos/tabelas/figuras/diagramas. A saída padrão será usada para integração do BDA com o Bedrock Knowledge Bases.
  • A saída personalizada aproveita os esquemas, que especificam os requisitos de saída usando linguagem natural ou um editor de esquema. Os esquemas incluem uma lista de campos a serem extraídos e um formato de dados para cada campo.

O Bedrock Data Automation é compatível com PDF, PNG, JPG, TIFF, no máximo 1500 páginas e um tamanho máximo de arquivo de 500 MB por solicitação de API. Por padrão, o BDA oferece suporte a 50 trabalhos simultâneos e 10 transações por segundo por cliente.

Imagens

O Bedrock Data Automation suporta tanto a saída padrão quanto a saída personalizada para imagens.

  • A saída padrão fornecerá resumo, conteúdo explícito detectado, texto detectado, detecção de logotipo e taxonomia do anúncio: IAB para imagens. A saída padrão será usada para integração do BDA com o Bedrock Knowledge Bases.
  • A saída personalizada aproveita os esquemas, que especificam os requisitos de saída usando linguagem natural ou um editor de esquema. Os esquemas incluem uma lista de campos a serem extraídos e um formato de dados para cada campo.

O Bedrock Data Automation é compatível com JPG, PNG, resolução máxima de 4K e tamanho máximo de arquivo de 5 MB por solicitação de API. Por padrão, o BDA oferece suporte a uma simultaneidade máxima de 20 imagens a 10 transações por segundo (TPS) por cliente.

Vídeos

O Bedrock Data Automation é compatível com ambas as saídas padrão para vídeos.

  • A saída padrão fornecerá resumo completo do vídeo, segmentação do capítulo, resumo do capítulo, transcrição completa do áudio, identificação do locutor, conteúdo explícito detectado, texto detectado, detecção de logotipo e taxonomia do Interactive Advertising Bureau (IAB) para vídeos. O resumo completo do vídeo é otimizado para conteúdo com diálogos descritivos, como visões gerais de produtos, treinamentos, noticiários e documentários.

O Bedrock Data Automation é compatível com MOV e MKV com H.264,VP8, VP9 duração máxima de vídeo de 4 horas e tamanho máximo de arquivo de 2 GB por solicitação de API. Por padrão, o BDA oferece suporte a uma simultaneidade máxima de 20 vídeos a 10 transações por segundo (TPS) por cliente.

Áudio

O Bedrock Data Automation é compatível com ambas as saídas padrão para áudio.

  • A saída padrão fornecerá um resumo, incluindo resumo de capítulos, transcrição completa e moderação de conteúdo explícito detectado para arquivos de áudio.

O Bedrock Data Automation é compatível com FLAC, M4A, MP3, MP4, Ogg, WebM, WAV, uma duração máxima de áudio de 4 horas e um tamanho máximo de arquivo de 2 GB por solicitação de API.

O HAQM Bedrock Data Automation geralmente está disponível nas Regiões da AWS Oeste dos EUA (Oregon) e Leste dos EUA (Norte da Virgínia).

Atualmente, o HAQM Bedrock Data Automation oferece suporte ao inglês. O suporte a outros idiomas estará disponível em breve em 2025.

HAQM Bedrock no Estúdio Unificado SageMaker

Abrir tudo

O HAQM Bedrock pode ser acessado por meio do Console de Gerenciamento da AWS, das APIs ou do Estúdio Unificado HAQM SageMaker. No Estúdio Unificado HAQM SageMaker, os usuários podem criar e iterar rapidamente em aplicações de IA generativa usando modelos de base (FMs) de alta performance. Por meio de uma interface intuitiva, você pode experimentar esses modelos, colaborar em projetos e agilizar o acesso a várias ferramentas e recursos do Bedrock a fim de criar aplicações de IA generativa rapidamente.

Para acessar os recursos do HAQM Bedrock no Estúdio Unificado HAQM SageMaker, os desenvolvedores e seus administradores precisarão seguir estas etapas:

  1. Crie um novo domínio no HAQM SageMaker Unified Studio.
  2. Ative o perfil do projeto de desenvolvimento de aplicações de IA generativa.
  3. Acesse o HAQM Bedrock por meio das seções Playground de IA generativa (Descobrir) e Desenvolvimento de aplicativos de IA generativa (Criar), usando as credenciais de autenticação única (SSO) da empresa no Estúdio Unificado HAQM SageMaker.

Embora o HAQM Bedrock possa ser acessado por meio do Console de Gerenciamento da AWS, das APIs ou do Estúdio Unificado HAQM SageMaker, seus recursos no Estúdio Unificado SageMaker se baseiam no HAQM Bedrock Studio original (que não está mais disponível) com várias melhorias importantes. Quando acessado por meio do Estúdio Unificado HAQM SageMaker, ele fornece acesso a modelos avançados de IA de empresas líderes, ferramentas para criar e testar solicitações de IA e integração perfeita com as bases de conhecimento do HAQM Bedrock, HAQM Bedrock Guardrails, HAQM Bedrock Flows e HAQM Bedrock Agents. As equipes podem colaborar em um espaço de trabalho compartilhado para criar aplicações de IA personalizadas de acordo com suas necessidades.

Os novos atributos incluem um hub de modelos para comparação de modelos de IA lado a lado, um playground expandido que oferece suporte a interações de chat, imagem e vídeo e a criação aprimorada do Knowledge Base com crawling da web. Ele introduz a criação de agentes para aplicações de chat mais complexos e simplifica o compartilhamento de aplicativos e prompts de IA nas organizações. Ele também oferece acesso ao código do aplicativo subjacente e a capacidade de exportar aplicativos de chat como modelos do CloudFormation. Ao gerenciar os detalhes da infraestrutura da AWS, ele permite que usuários de vários níveis de habilidade criem aplicações de IA com mais eficiência, tornando-a uma ferramenta mais versátil e poderosa do que sua antecessora.

O HAQM Bedrock IDE foi renomeado para representar melhor a principal capacidade do HAQM Bedrock de ser acessado por meio do ambiente governado do Estúdio Unificado HAQM SageMaker.

Ao acessar a interface do HAQM Bedrock por meio do Estúdio Unificado HAQM SageMaker, as equipes se beneficiam de um ambiente governado que permite a colaboração. As equipes podem criar projetos, convidar colegas e criar juntos aplicações de IA generativa. Elas podem receber feedback rápido sobre seus protótipos e compartilhar as aplicações com qualquer pessoa no Estúdio Unificado SageMaker ou com usuários específicos no domínio. Controles de acesso e atributos de governança robustos permitem que somente membros autorizados acessem recursos do projeto, como dados ou aplicações de IA generativa, apoiando a privacidade e a conformidade dos dados e, assim, promovendo a colaboração e o compartilhamento interfuncionais seguros. Além disso, aplicações de IA generativa podem ser compartilhadas de um construtor para usuários específicos no domínio do Estúdio Unificado SageMaker ou com indivíduos específicos, permitindo direitos de acesso, controles e governança adequados desses ativos.

Embora o HAQM Bedrock possa ser acessado por meio do Console de Gerenciamento da AWS, das APIs ou do Estúdio Unificado HAQM SageMaker, essa integração elimina as barreiras entre dados, ferramentas e desenvolvedores no processo de desenvolvimento de IA generativa. As equipes obtêm uma experiência de desenvolvimento unificada acessando ambientes e ferramentas de analytics familiares do JupyterLab e, ao mesmo tempo, incorporando perfeitamente os recursos robustos de IA generativa do HAQM Bedrock, tudo no mesmo espaço de trabalho.

O ambiente unificado permite uma colaboração perfeita entre desenvolvedores de vários níveis de habilidade ao longo do ciclo de vida do desenvolvimento, desde a preparação de dados até o desenvolvimento de modelos e a criação de aplicações de IA generativa. As equipes podem acessar ferramentas integradas para criação de base de conhecimento, configuração de barreiras de proteção e desenvolvimento de aplicações de IA generativa de alto desempenho, tudo dentro de uma estrutura segura e governada.

No HAQM SageMaker Unified Studio, os desenvolvedores podem alternar facilmente entre diferentes ferramentas com base em suas necessidades, combinando análises, machine learning e recursos de IA generativa em um único espaço de trabalho. Essa abordagem consolidada reduz a complexidade do desenvolvimento e acelera o tempo de geração de valor para projetos de IA generativa. Ao trazer o HAQM Bedrock para o Estúdio Unificado HAQM SageMaker, a AWS reduz as barreiras de entrada para o desenvolvimento de IA generativa e, ao mesmo tempo, mantém a segurança e a governança de nível empresarial, permitindo que as organizações inovem de forma mais rápida e eficaz com a IA generativa.

Os recursos do HAQM Bedrock no Estúdio Unificado HAQM SageMaker são ideais para equipes corporativas que precisam de um ambiente governado para criar e implantar de forma colaborativa aplicações de IA generativa. Por meio do Estúdio Unificado HAQM SageMaker, as equipes podem acessar:
 

  • O Playground de IA generativa na seção Descobrir permite que as equipes experimentem modelos de base (FMs), testem diferentes modelos e configurações, comparem os resultados do modelo e colaborem em prompts e aplicações. Esse ambiente fornece uma maneira perfeita para as equipes avaliarem e entenderem os recursos de diferentes modelos antes de implementá-los em suas aplicações.
     
  • A seção Desenvolvimento de aplicações de IA generativa na seção Criar fornece às equipes as ferramentas necessárias para criar aplicações de IA generativa prontas para produção. As equipes podem criar e gerenciar bases de conhecimento, implementar barreiras de proteção para IA responsável, desenvolver agentes e fluxos e colaborar com segurança, mantendo os controles de governança e conformidade. Esse ambiente é particularmente valioso para organizações que exigem colaboração segura e acesso contínuo à gama completa de recursos do HAQM Bedrock, mantendo os padrões corporativos de segurança e conformidade.

Agora, os recursos do HAQM Bedrock estão geralmente disponíveis no Estúdio Unificado HAQM SageMaker, oferecendo um ambiente colaborativo controlado que capacita os desenvolvedores a criar e personalizar rapidamente aplicações de IA generativa. Essa interface intuitiva atende a desenvolvedores de todos os níveis de habilidade, fornecendo acesso fácil aos modelos de base (FMs) de alta performance do HAQM Bedrock e às ferramentas avançadas de personalização para o desenvolvimento colaborativo de aplicações de IA generativa adaptadas.

No Estúdio Unificado HAQM SageMaker, o HAQM Bedrock se integra perfeitamente aos recursos de análise, machine learning (ML) e inteligência artificial generativa do HAQM SageMaker. As organizações podem passar do conceito à produção mais rapidamente criando protótipos e experimentando modelos de base no HAQM Bedrock e, em seguida, migrar facilmente para editores de código ou cadernos JupyterLab para integrar esses recursos em aplicações e fluxos de trabalho mais amplos. Esse espaço de trabalho consolidado simplifica a complexidade, permitindo uma prototipagem, iteração e implantação mais rápidas de aplicações de IA generativa responsável e prontas para produção que se alinham aos requisitos comerciais específicos.

O HAQM Bedrock no Estúdio Unificado HAQM SageMaker está sujeito aos limites e cotas de conta definidos para a plataforma e os recursos subjacentes do HAQM Bedrock, como modelos de base (FMs), bases de conhecimento, agentes, fluxos e barreiras de proteção.

O acesso do HAQM Bedrock pelo Estúdio Unificado SageMaker não possui custos adicionais, e os usuários pagam apenas pelo uso dos recursos subjacentes que são exigidos pelas aplicações de IA generativa que eles criam. Por exemplo, os clientes pagarão apenas pelo modelo associado pelo Guardrails e Knowledge Base usaram em sua aplicação de IA generativa. Para mais informações, acesse a página de preços do HAQM Bedrock.

O HAQM Bedrock no Estúdio Unificado SageMaker está vinculado aos mesmos SLAs do HAQM Bedrock. Para mais informações, visite a página do Contrato de Nível de Serviço do HAQM Bedrock.

Para facilitar uma experiência de integração tranquila com o HAQM Bedrock no Estúdio Unificado SageMaker, você pode encontrar documentação detalhada no Guia do usuário. Se você tiver alguma dúvida adicional ou precisar de mais ajuda, não hesite em entrar em contato com sua equipe de contas da AWS.