Semplifica l'estrazione dei dati e l'automazione dei processi attraverso flussi di lavoro multimodali incentrati sui dati, tra cui l'elaborazione intelligente dei documenti (IDP)
Questa guida mostra come HAQM Bedrock Data Automation semplifica la generazione di informazioni preziose da contenuti multimodali non strutturati come documenti, immagini, audio e video attraverso un'API di inferenza multimodale unificata. HAQM Bedrock Data Automation aiuta gli sviluppatori a creare applicazioni di IA generativa o ad automatizzare flussi di lavoro multimodali incentrati sui dati come IDP, analisi dei media o generazione potenziata da recupero dati (RAG) in modo rapido ed economico. Seguendo queste linee guida, è possibile semplificare attività complesse come la suddivisione dei documenti, la classificazione, l'estrazione dei dati, la normalizzazione del formato di output e la convalida dei dati, migliorando in modo significativo la scalabilità di elaborazione.
Nota: [Disclaimer]
Diagramma dell'architettura

-
Elaborazione intelligente dei documenti
-
Elaborazione delle richieste mediche
-
Elaborazione intelligente dei documenti
-
Questo diagramma di architettura mostra come eseguire la classificazione e l'estrazione dei documenti utilizzando un esempio di elaborazione dell'erogazione di prestiti per una società di servizi finanziari.
Fase 1
Il team di data science carica documenti di esempio in un bucket HAQM Simple Storage Service (HAQM S3).Fase 2
Il team di data science utilizza i blueprint forniti e crea nuovi blueprint personalizzati per ogni classe di documenti: W2, busta paga, patente di guida, 1099 ed estratto conto bancario. Ogni campione viene elaborato e l'IA generativa richiede l'estrazione di campi (come nome e cognome, retribuzione lorda, plusvalenze e saldo finale).
Fase 3
I blueprint vengono testati e perfezionati. Vengono aggiunte le principali normalizzazioni, trasformazioni e convalide.
Fase 4
I blueprint sono gestiti e archiviati nella funzionalità Automazione dei dati HAQM Bedrock.
Fase 5
Utilizzando un evento “Oggetto creato”, HAQM EventBridge attiva una funzione AWS Lambda quando i documenti vengono caricati su HAQM S3. Questa funzione Lambda utilizza quindi la funzionalità Automazione dei dati HAQM Bedrock per elaborare i documenti caricati.Fase 6
Il flusso di lavoro di elaborazione nella funzionalità Automazione dei dati HAQM Bedrock include la suddivisione dei documenti in base a limiti logici, con ogni suddivisione contenente fino a 20 pagine. Ogni pagina è classificata in un tipo di documento specifico e abbinata a blueprint appropriati.
Fase 6 (continua)
Il blueprint corrispondente viene quindi richiamato per ogni pagina, eseguendo le principali normalizzazioni, trasformazioni e convalide chiave. L'intero processo funziona in modo asincrono, consentendo una gestione efficiente di più documenti e di grandi volumi di dati.
Fase 7
Automazione dei dati HAQM Bedrock archivia i risultati in un bucket HAQM S3 per elaborarli successivamente e attiva EventBridge.
Fase 8
EventBridge attiva la funzione Lambda per elaborare i risultati JSON di Automazione dei dati HAQM Bedrock. I risultati dell'elaborazione vengono inviati ai sistemi di elaborazione a valle.
-
Elaborazione delle richieste mediche
-
Questo diagramma di architettura mostra come automatizzare l'elaborazione delle richieste mediche con dati di input ed elaborazione multimodali per migliorare l'efficienza e la precisione.
Fase 1
I fornitori inviano documenti, immagini e video per le richieste ad HAQM S3.
Fase 2
Un flusso di lavoro viene attivato in Automazione dei dati HAQM Bedrock.
Fase 3
Gli sviluppatori creano blueprint in Automazione dei dati HAQM Bedrock per estrarre i dati pertinenti.
Fase 4
Automazione dei dati HAQM Bedrock elabora documenti, immagini e video estraendo testo, tabelle, oggetti, trascrizioni, normalizzando la strutturazione dei dati e segnalando gli elementi poco attendibili per la revisione. Automazione dei dati HAQM Bedrock archivia i dati in HAQM S3 e attiva EventBridge.
Fase 5
EventBridge attiva Lambda, che recupera l'output di Automazione dei dati HAQM Bedrock dal bucket S3.
Fase 6
Gli agenti HAQM Bedrock utilizzano la funzione Lambda per recuperare i dettagli del piano assicurativo del paziente da HAQM Aurora.Fase 7
Gli agenti di HAQM Bedrock aggiornano quindi il database delle richieste in Aurora.
Fase 8
I giudicatori verificano campi importanti e si concentrano su elementi a bassa affidabilità.
Fase 9
I documenti, le immagini e i video della spiegazione della copertura (EoC) sono archiviati in HAQM S3. Automazione dei dati HAQM Bedrock elabora i dati multimodali con una singola API e li archivia in HAQM S3. I dati vengono quindi elaborati, incorporati e archiviati in una raccolta vettoriale per le Knowledge Base di HAQM Bedrock.Fase 10
Gli agenti di HAQM Bedrock calcolano l'idoneità utilizzando dati estratti e informazioni indicizzate.
Fase 11
Gli agenti di HAQM Bedrock aggiornano il database delle richieste e ne informano il giudicatore. Il giudicatore esamina e approva o regola la richiesta in modo efficiente.
Inizia

Distribuisci questa guida
Principi di Well-Architected

Il framework AWS Well-Architected consente di valutare i pro e i contro delle decisioni prese durante il processo di creazione di sistemi nel cloud. I sei principi del framework consentono di apprendere le best practice architetturali per la progettazione e il funzionamento di sistemi affidabili, sicuri, efficienti, convenienti e sostenibili. Grazie allo strumento AWS Well-Architected, disponibile gratuitamente nella Console di gestione AWS, puoi rivedere i tuoi carichi di lavoro rispetto a queste best practice rispondendo a una serie di domande per ciascun principio.
Il diagramma dell'architettura sopra riportato è un esempio di una soluzione creata tenendo conto delle best practice Well-Architected. Per essere completamente Well-Architected, dovresti seguire il maggior numero possibile di best practice.
-
Eccellenza operativa
HAQM S3, EventBridge e Lambda creano un flusso di lavoro automatico e senza interruzioni per l'elaborazione dei documenti e l'estrazione dei dati attraverso l'archiviazione sicura per vari tipi di documenti. Automazione dei dati HAQM Bedrock semplifica l'estrazione e la normalizzazione dei dati, riducendo lo sforzo manuale e aumentando la precisione. Le Knowledge Base di HAQM Bedrock indicizzano le informazioni elaborate, rendendole facilmente ricercabili e accessibili, mentre gli agenti di HAQM Bedrock sfruttano questi dati strutturati per prendere decisioni intelligenti e indirizzare le richieste in modo efficiente. Aurora funge da solido database per l'archiviazione e il recupero di informazioni critiche. Insieme, questi servizi consentono un sistema altamente efficiente, scalabile e affidabile che riduce al minimo l'intervento umano e massimizza la produttività.
-
Sicurezza
HAQM S3 offre archiviazione crittografata, Lambda esegue il codice in ambienti isolati e HAQM Bedrock sfrutta l'infrastruttura AWS sicura con crittografia e controlli di accesso integrati. Aurora offre funzionalità avanzate di sicurezza del database. Questi servizi creano un approccio alla sicurezza completo che protegge i dati durante tutto il loro ciclo di vita mantenendo rigorosi controlli di accesso e audit trail. La capacità di gestire centralmente le policy di sicurezza e sfruttare i continui aggiornamenti e miglioramenti della sicurezza di AWS consente di mantenere un solido livello di sicurezza concentrandosi sulle operazioni aziendali principali.
-
Affidabilità
HAQM S3 offre un'archiviazione durevole e ad alta disponibilità per i documenti. EventBridge aiuta a garantire un'elaborazione coerente basata sugli eventi attivando in modo affidabile le funzioni Lambda, che vengono scalate senza problemi per gestire carichi di lavoro variabili senza tempi di inattività. Aurora, un database ad alta disponibilità, offre backup automatici e funzionalità di failover. Questi servizi offrono un sistema robusto e tollerante ai guasti in grado di resistere ai guasti dei componenti, scalare automaticamente e mantenere prestazioni costanti in caso di carichi elevati, riducendo al minimo i tempi di inattività e i rischi di perdita di dati.
-
Efficienza delle prestazioni
I servizi AWS migliorano l'efficienza delle prestazioni attraverso soluzioni scalabili e ad alte prestazioni per l'elaborazione dei documenti. HAQM S3 fornisce un accesso a bassa latenza ai documenti archiviati, mentre EventBridge consente l'elaborazione degli eventi in tempo reale. Lambda offre una potenza di calcolo rapida on-demand. La natura serverless di Lambda ed EventBridge elimina i colli di bottiglia associati al provisioning dei server. Inoltre, HAQM Bedrock sfrutta i modelli di intelligenza artificiale per l'elaborazione efficiente di attività complesse di analisi dei dati.
-
Ottimizzazione dei costi
I servizi AWS contribuiscono all'ottimizzazione dei costi attraverso modelli pay-as-you-go (ossia paghi solo per le risorse consumate) e all'eliminazione degli investimenti iniziali nell'infrastruttura. HAQM S3 offre opzioni di archiviazione su più livelli che bilanciano prestazioni e costi. La natura serverless di EventBridge e Lambda comporta il pagamento solo del tempo di calcolo effettivo utilizzato. HAQM Bedrock fornisce funzionalità di intelligenza artificiale senza costose infrastrutture o competenze interne e Aurora offre prestazioni paragonabili ai database commerciali a una frazione del costo.
-
Sostenibilità
I servizi AWS contribuiscono alla sostenibilità ottimizzando l'utilizzo delle risorse e l'efficienza energetica. HAQM S3 utilizza tecnologie di archiviazione efficienti, mentre EventBridge e Lambda forniscono architetture serverless che riducono al minimo la capacità inattiva. Questi servizi basati su cloud riducono significativamente l'infrastruttura on-premises, diminuendo il consumo di energia e le emissioni di carbonio. La loro scalabilità garantisce un uso ottimale delle risorse, evitando sovra-provisioning e sprechi.
Contenuti correlati

[Titolo]
Avvertenza
Il codice di esempio, le librerie software, gli strumenti della linea di comando, le proof of concept, i modelli e le altre tecnologie correlate (comprese tutte le tecnologie di cui sopra fornite dal nostro personale) vengono forniti all'utente sotto forma di contenuto AWS ai sensi dell'Accordo cliente AWS o del relativo accordo scritto stipulato tra l'utente e AWS (a seconda dei casi). Non bisogna utilizzare il contenuto AWS in questione negli account di produzione o sui dati di produzione o altri dati fondamentali. L'utente è responsabile dei test, della sicurezza e dell'ottimizzazione del contenuto AWS, come il codice di esempio, in modo appropriato per l'utilizzo in produzione sulla base delle pratiche e degli standard di qualità specifici. L'implementazione del contenuto AWS può comportare costi AWS per la creazione o l'utilizzo di risorse AWS addebitabili, quali le istanze HAQM EC2 in esecuzione o l'archiviazione HAQM S3.
Eventuali riferimenti a servizi o organizzazioni di terze parti contenuti in questa guida non implicano alcuna approvazione, sponsorizzazione o affiliazione tra HAQM o AWS e dette terze parti. La guida di AWS è un punto di partenza tecnico e l'integrazione con servizi di terze parti può essere personalizzata al momento dell'implementazione dell'architettura.