Simplifique a extração de dados e a automação de processos em fluxos de trabalho centrados em dados multimodais, incluindo o processamento de documentos inteligente (IDP)
Esta orientação apresenta como a Automação de Dados do HAQM Bedrock simplifica a geração de insights valiosos usando conteúdo multimodal não estruturado, como documentos, imagens, áudios e vídeos, por meio de uma API unificada de inferência multimodal. A Automação de Dados do HAQM Bedrock ajuda os desenvolvedores a criar aplicações de IA generativa ou a automatizar fluxos de trabalho centrados em dados multimodais, como IDP, análise de mídia ou geração aumentada via recuperação (RAG), de forma rápida e econômica. Com base nesta orientação,é possível simplificar tarefas complexas, como a segmentação de documentos, a classificação, a extração de dados, a normalização do formato de saída e a validação de dados, aprimorando significativamente a escalabilidade do processamento.
Observação: [Isenção de responsabilidade]
Diagrama de arquitetura

-
Processamento inteligente de documentos
-
Processamento de reclamações médicas
-
Processamento inteligente de documentos
-
Este diagrama de arquitetura mostra como realizar a classificação e extração de documentos usando um exemplo de processamento de concessões de empréstimos para uma empresa de serviços financeiros.
Etapa 1
A equipe de ciência de dados faz o upload de documentos de amostra em um bucket do HAQM Simple Storage Service (HAQM S3).Etapa 2
A equipe de ciência de dados usa os esquemas fornecidos e cria esquemas personalizados para cada classe de documento: formulário W-2, recibo de pagamento, carteira de motorista, formulário 1099 e extrato bancário. Cada amostra é processada e a IA generativa solicita a extração de campos (como nome e sobrenome, remuneração bruta, ganhos de capital e saldo final).
Etapa 3
Os esquemas são testados e refinados. As principais normalizações, transformações e validações são adicionadas.
Etapa 4
Os esquemas são gerenciados e armazenados no recurso de Automação de Dados do HAQM Bedrock.
Etapa 5
Usando um evento “Objeto criado”, o HAQM EventBridge aciona uma função do AWS Lambda quando os documentos são carregados no HAQM S3. Em seguida, essa função do Lambda usa o recurso de Automação de Dados doHAQM Bedrock para processar os documentos carregados.Etapa 6
O fluxo de trabalho de processamento no recurso de Automação de Dados do HAQM Bedrock inclui a divisão de documentos com base em limites lógicos, com cada divisão contendo até 20 páginas. Cada página é classificada em um tipo de documento específico e é correspondida com os esquemas apropriados.
Etapa 6 (continuação)
O esquema correspondente é então invocado para cada página, que executa as principais normalizações, transformações e validações. Todo esse processo opera de forma assíncrona, permitindo o manuseio eficiente de vários documentos e grandes volumes de dados.
Etapa 7
A Automação de Dados do HAQM Bedrock armazena os resultados em um bucket do HAQM S3 para processamento posterior e aciona o EventBridge.
Etapa 8
O EventBridge aciona a função do Lambda para processar os resultados JSON da Automação de Dados do HAQM Bedrock. Os resultados do processamento são enviados para os sistemas de processamento downstream.
-
Processamento de reclamações médicas
-
Este diagrama de arquitetura mostra como automatizar o processamento de reclamações médicas com processamento e dados de entrada multimodais para melhorar a eficiência e a precisão.
Etapa 1
Os provedores enviam vídeos, imagens e documentos de reclamações médicas para o HAQM S3.
Etapa 2
Um fluxo de trabalho é acionado na Automação de Dados do HAQM Bedrock.
Etapa 3
Os desenvolvedores criam esquemas na Automação de Dados do HAQM Bedrock para extrair dados relevantes.
Etapa 4
A Automação de Dados do HAQM Bedrock processa documentos, imagens e vídeos extraindo texto, tabelas, objetos e transcrições, normalizando a estruturação dos dados e sinalizando itens com baixo nível de confiança para análise. A Automação de Dados do HAQM Bedrock armazena os dados no HAQM S3 e aciona o EventBridge.
Etapa 5
O EventBridge aciona o Lambda, que recupera a saída da Automação de Dados do HAQM Bedrock do bucket do S3.
Etapa 6
Os Agentes para HAQM Bedrock usam a função do Lambda para obter os detalhes do plano de seguro do paciente no HAQM Aurora.Etapa 7
Em seguida, os Agentes para HAQM Bedrock atualizam o banco de dados de reclamações médicas no Aurora.
Etapa 8
Os adjudicadores verificam os campos importantes e focam os itens com baixo nível de confiança.
Etapa 9
Vídeos, imagens e documentos de explicação da cobertura (EdC) são armazenados no HAQM S3. A Automação de Dados do HAQM Bedrock processa dados multimodais com uma única API e os armazena no HAQM S3. Em seguida, eles são processados, incorporados e armazenados em uma coleção de vetores das Bases de Conhecimento para HAQM Bedrock.Etapa 10
Os Agentes para HAQM Bedrock calculam a elegibilidade usando dados extraídos e informações indexadas.
Etapa 11
Os Agentes para HAQM Bedrock atualizam o banco de dados de reclamações e notificam o adjudicador. O adjudicador analisa e aprova ou ajusta a reclamação de forma eficaz.
Comece a usar

Implemente esta orientação
Pilares do Well-Architected

O AWS Well-Architected Framework ajuda a entender as vantagens e as desvantagens das decisões tomadas durante a criação de sistemas na nuvem. Os seis pilares do Framework permitem que você aprenda as melhores práticas de arquitetura, a fim de projetar e operar sistemas confiáveis, seguros, eficientes, econômicos e sustentáveis. Com a Ferramenta AWS Well-Architected, disponível gratuitamente no Console de Gerenciamento da AWS, você pode avaliar suas workloads em relação às práticas recomendadas ao responder a uma série de questões para cada pilar.
O diagrama de arquitetura acima exemplifica a criação de uma solução pautada nas melhores práticas do Well-Architected. Para ser totalmente Well-Architected, é preciso respeitar a maior quantidade possível das melhores práticas desse framework.
-
Excelência operacional
O HAQM S3, o EventBridge e o Lambda criam um fluxo de trabalho contínuo e automatizado para processamento de documentos e extração de dados por meio de armazenamento seguro para vários tipos de documentos. A Automação de Dados do HAQM Bedrock simplifica a extração e a normalização de dados, reduzindo o esforço manual e aumentando a precisão. As Bases de Conhecimento para HAQM Bedrock indexam as informações processadas, tornando-as facilmente pesquisáveis e acessíveis, enquanto os Agentes para HAQM Bedrock utilizam esses dados estruturados para tomar decisões inteligentes e encaminhar reclamações de forma eficaz. O Aurora serve como um banco de dados robusto para armazenar e recuperar informações cruciais. Juntos, esses serviços possibilitam um sistema altamente eficiente, escalável e confiável que minimiza a intervenção humana e maximiza a produtividade.
-
Segurança
O HAQM S3 oferece armazenamento criptografado, o Lambda executa código em ambientes isolados e o HAQM Bedrock aproveita a infraestrutura segura da AWS com criptografia e controles de acesso integrados. O Aurora fornece recursos avançados de segurança de banco de dados. Esses serviços criam uma abordagem de segurança abrangente que protege os dados durante todo o ciclo de vida, mantendo controles de acesso e trilhas de auditoria rígidos. A capacidade de gerenciar de forma centralizada as políticas de segurança e aproveitar as atualizações e melhorias contínuas de segurança da AWS permite que você mantenha uma forte postura de segurança enquanto se concentra em suas principais operações comerciais.
-
Confiabilidade
O HAQM S3 fornece armazenamento durável e altamente disponível para documentos. O EventBridge ajuda a garantir um processamento consistente orientado por eventos ao acionar de forma confiável as funções do Lambda, que escalam sem problemas para lidar com diversas workloads sem tempo de inatividade. O Aurora, um banco de dados altamente disponível, oferece backups automatizados e recursos de failover. Esses serviços oferecem um sistema robusto e tolerante a falhas que pode suportar falhas de componentes, escalar automaticamente e manter uma performance consistente sob altas cargas, minimizando o tempo de inatividade e os riscos de perda de dados.
-
Eficiência de performance
Os serviços da AWS aprimoram a eficiência da performance por meio de soluções escaláveis e de alta performance para processamento de documentos. O HAQM S3 fornece acesso de baixa latência aos documentos armazenados, enquanto o EventBridge possibilita o processamento de eventos em tempo real. O Lambda oferece potência computacional rápida e sob demanda. A natureza de tecnologia sem servidor do Lambda e do EventBridge elimina os gargalos associados ao provisionamento de servidores. Além disso, o HAQM Bedrock aproveita modelos de IA para o processamento eficiente de tarefas complexas de análise de dados.
-
Otimização de custos
Os serviços da AWS contribuem para a otimização de custos por meio de modelos de pagamento conforme o uso (o que significa que você paga apenas pelos recursos consumidos) e pela eliminação de investimentos iniciais em infraestrutura. O HAQM S3 oferece opções de armazenamento em camadas que equilibram performance e custo. A natureza de tecnologia sem servidor do EventBridge e do Lambda significa pagar somente pelo tempo real de computação usado. O HAQM Bedrock fornece recursos de IA sem precisar de experiência ou infraestrutura interna cara, e o Aurora oferece performance comparável aos bancos de dados comerciais por uma fração do custo.
-
Sustentabilidade
Os serviços da AWS contribuem para a sustentabilidade ao otimizar a utilização de recursos e a eficiência energética. O HAQM S3 usa tecnologias de armazenamento eficientes, enquanto o EventBridge e o Lambda fornecem arquiteturas sem servidor que minimizam a capacidade ociosa. Esses serviços baseados em nuvem reduzem significativamente a infraestrutura on-premises, diminuindo o consumo de energia e as emissões de carbono. Sua escalabilidade garante o uso ideal dos recursos, evitando o excesso de provisionamento e o desperdício.
Conteúdo relacionado

[Título]
Aviso de isenção de responsabilidade
O código de exemplo, as bibliotecas de software, as ferramentas de linha de comando, as provas de conceito, os modelos ou outra tecnologia relacionada (incluindo qualquer uma das anteriores fornecidas por nossa equipe) são fornecidos a você como Conteúdo da AWS nos termos do Contrato de Cliente da AWS ou o contrato por escrito pertinente entre você e a AWS (o que for aplicável). Você não deve usar esse Conteúdo da AWS em suas contas de produção, na produção ou em outros dados essenciais. Você é responsável por testar, proteger e otimizar o Conteúdo da AWS, como código de exemplo, conforme apropriado para uso em nível de produção com base em suas práticas e padrões específicos de controle de qualidade. A implantação de Conteúdo da AWS pode gerar cobranças da AWS para criar ou usar recursos cobráveis, como executar instâncias do HAQM EC2 ou usar armazenamento do HAQM S3.
As referências a serviços ou organizações terceirizadas nesta orientação não implicam em endosso, patrocínio ou afiliação entre a HAQM ou a AWS e terceiros. A orientação da AWS é um ponto de partida técnico, e você pode personalizar sua integração com serviços de terceiros ao implantar a arquitetura.