Sederhanakan ekstraksi data dan otomatisasi proses di seluruh alur kerja yang berpusat pada data multimodal, termasuk Pemrosesan Dokumen Cerdas (IDP)
Panduan ini menunjukkan cara Otomatisasi Data HAQM Bedrock menyederhanakan pembuatan wawasan berharga dari konten multimodal tidak terstruktur seperti dokumen, gambar, audio, dan video melalui API inferensi multimodal terpadu. Otomatisasi Data HAQM Bedrock membantu developer membangun aplikasi AI generatif atau mengotomatiskan alur kerja yang berpusat pada data multimodal seperti IDP, analisis media, atau retrieval augmented generation (RAG) dengan cepat dan hemat biaya. Dengan mengikuti Panduan ini, Anda dapat menyederhanakan tugas-tugas kompleks seperti pemisahan dokumen, pengklasifikasian, ekstraksi data, normalisasi format output, dan validasi data, yang secara signifikan meningkatkan skalabilitas pemrosesan Anda.
Harap diperhatikan: [Penafian]
Diagram Arsitektur

-
Pemrosesan dokumen cerdas
-
Pemrosesan klaim medis
-
Pemrosesan dokumen cerdas
-
Diagram arsitektur ini menunjukkan cara melakukan klasifikasi dan ekstraksi dokumen menggunakan contoh pemrosesan asal pinjaman untuk perusahaan jasa keuangan.
Langkah 1
Tim ilmu data mengunggah dokumen contoh ke bucket HAQM Simple Storage Service (HAQM S3).Langkah 2
Tim ilmu data menggunakan cetak biru yang disediakan dan membuat cetak biru khusus baru untuk setiap kelas dokumen: W2, Slip Gaji, Surat Izin Mengemudi, 1099, dan Laporan Bank. Setiap sampel diproses, dan prompt AI generatif mengekstrak bidang (seperti nama depan dan belakang, gaji kotor, keuntungan modal, dan saldo penutupan).
Langkah 3
Cetak biru diuji dan disempurnakan. Normalisasi, transformasi, dan validasi utama ditambahkan.
Langkah 4
Cetak biru dikelola dan disimpan dalam fitur Otomatisasi Data HAQM Bedrock.
Langkah 5
Menggunakan peristiwa “Objek Dibuat”, HAQM EventBridge memicu fungsi AWS Lambda saat dokumen diunggah ke HAQM S3. Fungsi Lambda ini kemudian menggunakan fitur Otomatisasi Data HAQM Bedrock untuk memproses dokumen yang diunggah.Langkah 6
Alur kerja pemrosesan dalam fitur Otomatisasi Data HAQM Bedrock mencakup pemisahan dokumen berdasarkan batasan logis, dengan setiap pemisahan berisi hingga 20 halaman. Setiap halaman diklasifikasikan ke dalam jenis dokumen tertentu dan dicocokkan dengan cetak biru yang sesuai.
Langkah 6 (lanjutan)
Cetak biru yang sesuai kemudian menginvokasi untuk setiap halaman, menjalankan normalisasi, transformasi, dan validasi utama. Seluruh proses ini beroperasi secara asinkron, yang memungkinkan penanganan berbagai dokumen dan volume data besar secara efisien.
Langkah 7
Otomatisasi Data HAQM Bedrock menyimpan hasil dalam bucket HAQM S3 untuk pemrosesan selanjutnya dan memicu EventBridge.
Langkah 8
EventBridge memicu fungsi Lambda untuk memproses hasil JSON Otomatisasi Data HAQM Bedrock. Hasil pemrosesan dikirim ke sistem pemrosesan hilir.
-
Pemrosesan klaim medis
-
Diagram arsitektur ini menunjukkan cara mengotomatiskan pemrosesan klaim medis dengan data input multimodal dan pemrosesan untuk meningkatkan efisiensi dan akurasi.
Langkah 1
Penyedia mengirimkan dokumen klaim, gambar, dan video ke HAQM S3.
Langkah 2
Alur kerja dipicu di Otomatisasi Data HAQM Bedrock.
Langkah 3
Pengembang membuat cetak biru di Otomatisasi Data HAQM Bedrock untuk mengekstrak data yang relevan.
Langkah 4
Otomatisasi Data HAQM Bedrock memproses dokumen, gambar, dan video dengan mengekstraksi teks, tabel, objek, transkrip; menormalkan penataan data; menandai item dengan keyakinan rendah untuk ditinjau. Otomatisasi Data HAQM Bedrock menyimpan data di HAQM S3 dan memicu EventBridge.
Langkah 5
EventBridge memicu Lambda, yang mengambil output Otomatisasi Data HAQM Bedrock dari bucket S3.
Langkah 6
Agen HAQM Bedrock menggunakan fungsi Lambda untuk mengambil rincian rencana asuransi pasien dari HAQM Aurora.Langkah 7
Agen HAQM Bedrock kemudian memperbarui basis data klaim di Aurora.
Langkah 8
Juri memverifikasi bidang-bidang penting dan berfokus pada item-item dengan keyakinan rendah.
Langkah 9
Dokumen, gambar, dan video Penjelasan Cakupan (EoC) disimpan di HAQM S3. Otomatisasi Data HAQM Bedrock memproses data multimodal dengan satu API dan menyimpannya di HAQM S3. Kemudian diproses, disematkan, dan disimpan dalam koleksi vektor untuk HAQM Bedrock Knowledge Bases.Langkah 10
Agen HAQM Bedrock menghitung kelayakan menggunakan data yang diekstraksi dan informasi yang diindeks.
Langkah 11
Agen HAQM Bedrock memperbarui basis data klaim dan memberi tahu adjudicator. Adjudicator meninjau dan menyetujui atau menyesuaikan klaim secara efisien.
Memulai

Pilar Well-Architected

Kerangka Kerja AWS Well-Architected membantu Anda memahami keuntungan dan kerugian dari keputusan yang Anda buat saat membangun sistem di cloud. Enam pilar dari Kerangka Kerja ini memungkinkan Anda mempelajari praktik terbaik arsitektur untuk merancang dan mengoperasikan sistem yang andal, aman, efisien, hemat biaya, dan berkelanjutan. Dengan Alat AWS Well-Architected yang tersedia secara gratis di Konsol Manajemen AWS, Anda dapat meninjau beban kerja dan membandingkannya terhadap praktik terbaik ini dengan menjawab serangkaian pertanyaan untuk setiap pilar.
Diagram arsitektur di atas adalah contoh Solusi yang dibuat dengan mempertimbangkan praktik terbaik Well-Architected. Untuk menjadi Well-Architected sepenuhnya, Anda harus mengikuti praktik terbaik Well-Architected sebanyak mungkin.
-
Keunggulan Operasional
HAQM S3, EventBridge, dan Lambda menciptakan alur kerja otomatis yang mulus untuk pemrosesan dokumen dan ekstraksi data melalui penyimpanan aman untuk berbagai jenis dokumen. Otomatisasi Data HAQM Bedrock menyederhanakan ekstraksi dan normalisasi data, mengurangi upaya manual dan meningkatkan akurasi. HAQM Bedrock Knowledge Bases mengindeks informasi yang diproses, membuatnya mudah dicari dan diakses, sementara HAQM Bedrock Agents memanfaatkan data terstruktur ini untuk membuat keputusan cerdas dan mengarahkan klaim secara efisien. Aurora berfungsi sebagai basis data yang kuat untuk menyimpan dan mengambil informasi penting. Bersama-sama, layanan ini memungkinkan sistem yang sangat efisien, terukur, dan andal yang meminimalkan campur tangan manusia dan memaksimalkan produktivitas.
-
Keamanan
HAQM S3 menawarkan penyimpanan terenkripsi, Lambda mengeksekusi kode dalam lingkungan yang terisolasi, dan HAQM Bedrock memanfaatkan infrastruktur AWS yang aman dengan enkripsi bawaan dan kontrol akses. Aurora menyediakan fitur keamanan basis data yang canggih. Layanan ini menciptakan pendekatan keamanan komprehensif yang melindungi data sepanjang siklus hidupnya sambil mempertahankan kontrol akses dan jejak audit yang ketat. Kemampuan untuk mengelola kebijakan keamanan secara terpusat dan memanfaatkan pembaruan serta peningkatan keamanan AWS yang berkelanjutan memungkinkan Anda mempertahankan postur keamanan yang kuat sambil berfokus pada operasi bisnis inti Anda.
-
Keandalan
HAQM S3 menyediakan penyimpanan yang tahan lama dan tersedia secara luas untuk dokumen. EventBridge membantu memastikan pemrosesan berbasis peristiwa yang konsisten dengan memicu fungsi Lambda secara andal, yang dapat diskalakan secara mulus untuk menangani berbagai beban kerja tanpa waktu henti. Aurora, basis data dengan ketersediaan tinggi, menawarkan pencadangan otomatis dan kemampuan failover. Layanan ini menawarkan sistem yang tangguh dan toleran terhadap kesalahan yang dapat menahan kegagalan komponen, diskalakan secara otomatis, dan mempertahankan kinerja yang konsisten di bawah beban tinggi, sehingga meminimalkan risiko waktu henti dan kehilangan data.
-
Efisiensi Performa
Layanan AWS meningkatkan efisiensi kinerja melalui solusi berskala dan berkinerja tinggi untuk pemrosesan dokumen. HAQM S3 menyediakan akses latensi rendah ke dokumen yang disimpan, sementara EventBridge memungkinkan pemrosesan kejadian waktu nyata. Lambda menawarkan daya komputasi yang cepat sesuai permintaan. Sifat Lambda dan EventBridge yang nirserver menghilangkan hambatan yang terkait dengan penyediaan server. Selain itu, HAQM Bedrock memanfaatkan model AI untuk pemrosesan tugas analisis data kompleks yang efisien.
-
Optimisasi Biaya
Layanan AWS berkontribusi pada optimalisasi biaya melalui model bayar sesuai pemakaian (artinya Anda hanya membayar sumber daya yang dikonsumsi) dan penghapusan investasi infrastruktur di muka. HAQM S3 menawarkan opsi penyimpanan berjenjang yang menyeimbangkan kinerja dan biaya. Sifat EventBridge dan Lambda yang nirserver berarti hanya membayar waktu komputasi aktual yang digunakan. HAQM Bedrock menyediakan kemampuan AI tanpa infrastruktur atau keahlian internal yang mahal, dan Aurora menawarkan kinerja yang sebanding dengan basis data komersial dengan biaya yang jauh lebih murah.
-
Keberlanjutan
Layanan AWS berkontribusi terhadap keberlanjutan dengan mengoptimalkan pemanfaatan sumber daya dan efisiensi energi. HAQM S3 menggunakan teknologi penyimpanan yang efisien, sementara EventBridge dan Lambda menyediakan arsitektur nirserver yang meminimalkan kapasitas menganggur. Layanan berbasis cloud ini secara signifikan mengurangi infrastruktur on-premise, menurunkan konsumsi energi dan emisi karbon. Skalabilitasnya memastikan penggunaan sumber daya yang optimal, menghindari penyediaan berlebihan dan pemborosan.
Konten Terkait

[Judul]
Penafian
Kode sampel; pustaka perangkat lunak; alat baris perintah; bukti konsep; templat; atau teknologi terkait lainnya (termasuk yang sebelumnya disediakan oleh personel kami) disediakan untuk Anda sebagai Konten AWS berdasarkan Perjanjian Pelanggan AWS, atau perjanjian tertulis yang relevan antara Anda dan AWS (mana saja yang berlaku). Anda tidak boleh menggunakan Konten AWS ini di akun produksi Anda, atau pada produksi atau data penting lainnya. Anda bertanggung jawab untuk menguji, mengamankan, dan mengoptimalkan Konten AWS, seperti kode sampel, yang sesuai untuk penggunaan tingkat produksi berdasarkan praktik dan standar kontrol kualitas spesifik Anda. Melakukan deployment Konten AWS dapat dikenai biaya AWS untuk membuat atau menggunakan sumber daya AWS berbayar, seperti menjalankan instans HAQM EC2 atau menggunakan penyimpanan HAQM S3.
Referensi ke layanan atau organisasi pihak ketiga dalam Panduan ini tidak menyiratkan dukungan, sponsor, atau afiliasi antara HAQM atau AWS dan pihak ketiga. Panduan dari AWS adalah titik awal teknis, dan Anda dapat menyesuaikan integrasi Anda dengan layanan pihak ketiga saat melakukan deployment arsitektur.