HAQM Bedrock – Häufig gestellte Fragen
Themen der Seite
AllgemeinesAllgemeines
Alles öffnenWas ist HAQM Bedrock?
HAQM Bedrock ist ein vollständig verwalteter Service, der eine Auswahl an branchenführenden Basismodellen (FMs) zusammen mit einer breiten Palette an Funktionen anbietet. Diese werden für die Entwicklung von generativen KI-Anwendungen benötigt und vereinfachen die Entwicklung mit Sicherheit, Datenschutz und verantwortungsvoller KI. Mit den umfassenden Funktionen von HAQM Bedrock können Sie mit einer Vielzahl von Top-FMs experimentieren, sie mit Techniken wie Fine-Tuning und Retrieval Augmented Generation (RAG) privat an Ihre Daten anpassen und verwaltete Agenten erstellen, die komplexe Geschäftsaufgaben ausführen – von der Buchung von Reisen und der Bearbeitung von Versicherungsansprüchen bis hin zur Erstellung von Werbekampagnen und der Verwaltung von Beständen – und das alles, ohne selbst Code schreiben zu müssen. Da HAQM Bedrock Serverless ist, müssen Sie keine Infrastruktur verwalten. Sie können generative KI-Funktionen sicher in Ihre Anwendungen integrieren und bereitstellen, indem Sie die AWS-Services nutzen, mit denen Sie bereits vertraut sind.
Warum sollte ich HAQM Bedrock verwenden?
Es gibt fünf Gründe, HAQM Bedrock für die Entwicklung generativer KI-Anwendungen zu verwenden.
- Auswahl führender FMs: HAQM Bedrock bietet ein benutzerfreundliches Entwicklererlebnis für die Arbeit mit einer breiten Palette leistungsstarker FMs von HAQM und führenden KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI. Sie können schnell mit einer Vielzahl von FMs im Playground experimentieren und unabhängig von den von Ihnen gewählten Modellen eine einzige API für die Inferenz verwenden. So haben Sie die Flexibilität, FMs von verschiedenen Anbietern zu verwenden und mit den neuesten Modellversionen mit minimalen Codeänderungen auf dem Laufenden zu bleiben.
- Einfache Modellanpassung mit Ihren Daten: Passen Sie FMs über eine visuelle Oberfläche privat mit Ihren eigenen Daten an, ohne Code schreiben zu müssen. Wählen Sie einfach die in HAQM Simple Storage Service (HAQM S3) gespeicherten Trainings- und Validierungsdatensätze aus und passen Sie bei Bedarf die Hyperparameter an, um die bestmögliche Modellleistung zu erzielen.
- Vollständig verwaltete Kundendienstmitarbeiter, die APIs dynamisch aufrufen können, um Aufgaben auszuführen: Erstellen Sie Agenten, die komplexe Geschäftsaufgaben ausführen – von der Buchung von Reisen und der Bearbeitung von Versicherungsansprüchen bis hin zur Erstellung von Werbekampagnen, der Vorbereitung von Steuererklärungen und der Verwaltung Ihres Inventars – indem Sie Ihre Unternehmenssysteme und APIs dynamisch aufrufen. Vollständig verwaltete Agenten für HAQM Bedrock erweitern die Argumentationsfähigkeiten von FMs, um Aufgaben aufzuschlüsseln, einen Orchestrierungsplan zu erstellen und diesen auszuführen.
- Native Unterstützung für RAG zur Erweiterung der Leistungsfähigkeit von FMs mit proprietären Daten: Mit HAQM Bedrock Knowledge Bases können Sie FMs sicher mit Ihren Datenquellen verbinden, um den Abruf zu erweitern – und zwar direkt aus dem verwalteten Service heraus. Damit erweitern Sie die bereits leistungsstarken Funktionen des FMs und machen es noch kompetenter in Bezug auf Ihre spezifische Domain und Ihr Unternehmen.
- Zertifizierungen für Datensicherheit und Compliance: HAQM Bedrock bietet mehrere Funktionen zur Unterstützung von Sicherheits- und Datenschutzanforderungen. HAQM Bedrock erfüllt gängige Compliance-Standards wie Service and Organization Control (SOC), International Organization for Standardization (ISO), Health Insurance Portability and Accountability Act (HIPAA) und Kunden können HAQM Bedrock in Übereinstimmung mit der General Data Protection Regulation (GDPR) nutzen. HAQM Bedrock ist nach CSA Security Trust Assurance and Risk (STAR) Level 2 zertifiziert, was die Verwendung von bewährten Verfahren und den Sicherheitsstatus der AWS-Cloud-Angebote bestätigt. Bei HAQM Bedrock werden Ihre Inhalte nicht zur Verbesserung der Basismodelle verwendet und nicht an Drittanbieter von Modellen weitergegeben. Ihre Daten in HAQM Bedrock werden während der Übertragung und im Ruhezustand immer verschlüsselt. Optional können Sie die Daten mit Ihren eigenen Schlüsseln verschlüsseln. Sie können AWS PrivateLink mit HAQM Bedrock verwenden, um eine private Verbindung zwischen Ihren FMs und Ihrer HAQM Virtual Private Cloud (HAQM VPC) herzustellen, ohne Ihren Datenverkehr dem Internet auszusetzen.
Was sind die ersten Schritte zum Start mit HAQM Bedrock?
Mit der Serverless-Erfahrung von HAQM Bedrock können Sie schnell loslegen. Navigieren Sie in der AWS-Managementkonsole zu HAQM Bedrock und probieren Sie die FMs auf dem Playground aus. Sie können auch einen Kundendienstmitarbeiter erstellen und ihn in der Konsole testen. Sobald Sie Ihren Anwendungsfall identifiziert haben, können Sie die FMs mithilfe von AWS-Tools problemlos in Ihre Anwendungen integrieren, ohne eine Infrastruktur verwalten zu müssen.
Link zum Einführungskurs von HAQM Bedrock
Link zum Benutzerhandbuch von HAQM Bedrock
Wie arbeitet HAQM Bedrock mit anderen Services zusammen?
HAQM Bedrock nutzt AWS Lambda zum Aufrufen von Aktionen, HAQM S3 für Trainings- und Validierungsdaten und HAQM CloudWatch zum Nachverfolgen von Metriken.
Was sind die häufigsten Anwendungsfälle für HAQM Bedrock?
Sie können schnell mit Anwendungsfällen beginnen:
- Erstellen Sie neue Originalinhalte wie Kurzgeschichten, Essays, Social-Media-Beiträge und Webseitentexte.
- Suchen, finden und synthetisieren Sie Informationen, um Fragen aus einem großen Datenbestand zu beantworten.
- Erstellen Sie anhand von Sprachanweisungen realistische und künstlerische Images von verschiedenen Motiven, Umgebungen und Szenen.
- Helfen Sie Ihren Kunden, das zu finden, wonach sie suchen – mit relevanteren und kontextbezogenen Produktempfehlungen mit mehr als Wortübereinstimmungen.
- Erhalten Sie eine Zusammenfassung von Textinhalten wie Artikeln, Blogbeiträgen, Büchern und Dokumenten, um das Wesentliche zu verstehen, ohne den gesamten Inhalt lesen zu müssen.
- Produkte vorschlagen, die den Präferenzen der Käufer und früheren Einkäufen entsprechen
Weitere Anwendungsfälle für generative KI erkunden.
Was ist HAQM Bedrock Playground?
HAQM Bedrock bietet einen Playground, auf dem Sie mithilfe einer Chat-Oberfläche mit verschiedenen FMs experimentieren können. Sie können eine Eingabeaufforderung angeben und eine Weboberfläche in der Konsole verwenden, um eine Aufforderung bereitzustellen und die vortrainierten Modelle zum Generieren von Text oder Bildern verwenden oder alternativ ein fein abgestimmtes Modell verwenden, das an Ihren Anwendungsfall angepasst wurde.
In welchen AWS-Regionen ist HAQM Bedrock verfügbar?
Eine Liste der AWS-Regionen, in denen HAQM Bedrock verfügbar ist, finden Sie unter HAQM-Bedrock-Endpunkte und Kontingente im Referenzleitfaden von HAQM Bedrock.
Wie passe ich ein Modell auf HAQM Bedrock an?
Sie können FMs in HAQM Bedrock ganz einfach feinabstimmen, indem Sie markierte Daten verwenden oder indem Sie die Funktion zum Vortraining verwenden, um das Modell mithilfe von nicht markierten Daten anzupassen. Stellen Sie zunächst den Trainings- und Validierungsdatensatz bereit, konfigurieren Sie Hyperparameter (Epochen, Batchgröße, Lernrate, Aufwärmschritte) und senden Sie den Auftrag ab. Innerhalb weniger Stunden kann mit derselben API (InvokeModel) auf Ihr fein abgestimmtes Modell zugegriffen werden.
Kann ich ein Modell trainieren und es auf HAQM Bedrock bereitstellen?
Ja, Sie können öffentlich verfügbare Modelle auswählen und sie mithilfe der Funktion für benutzerdefinierten Modellimport in HAQM Bedrock importieren. Derzeit unterstützt diese Funktion nur die Architekturen Llama 2/3, Mistral und Flan. Weitere Informationen finden Sie in der Dokumentation.
Was ist eine latenzoptimierte Inferenz in HAQM Bedrock?
Die latenzoptimierte Inferenz in HAQM Bedrock ist als öffentliche Vorschau verfügbar und bietet eine geringere Latenz ohne Abstriche bei der Genauigkeit. Wie von Anthropic bestätigt, läuft Claude 3.5 Haiku mit latenzoptimierter Inferenz auf HAQM Bedrock schneller auf AWS als irgendwo anders. Darüber hinaus läuft Llama 3.1 70B und 405B mit latenzoptimierter Inferenz in Bedrock schneller auf AWS als bei jedem anderen großen Cloud-Anbieter. Durch die Verwendung speziell entwickelter KI-Chips wie AWS Trainium2 und fortschrittlicher Softwareoptimierungen in HAQM Bedrock können Kunden auf mehr Optionen zugreifen, um ihre Inferenz für einen bestimmten Anwendungsfall zu optimieren.
Wichtigste Funktionen:
- Verkürzt die Reaktionszeiten für Interaktionen mit dem Fundamentmodell
- Behält die Genauigkeit bei und verbessert gleichzeitig die Geschwindigkeit
- Erfordert keine zusätzliche Einrichtung oder Optimierung des Modells
Unterstützte Modelle: Anthropic's Claude 3.5 Haiku und Meta's Llama 3.1 Modelle 405B und 70B
Verfügbarkeit: Die Region USA Ost (Ohio) über regionenübergreifende Inferenz
Besuchen Sie zunächst die HAQM Bedrock-Konsole. Weitere Informationen finden Sie in der HAQM Bedrock-Dokumentation.
Wie können wir mit der latenzoptimierten Inferenz in HAQM Bedrock beginnen?
Um auf die latenzoptimierte Inferenz in HAQM Bedrock zuzugreifen, ist keine zusätzliche Einrichtung oder Optimierung des Modells erforderlich, sodass vorhandene Anwendungen mit generativer KI sofort mit schnelleren Reaktionszeiten verbessert werden können. Sie können den Parameter „Latenzoptimiert“ aktivieren, während Sie die Bedrock-Inferenz-API aufrufen.
Um zu beginnen, besuchen Sie die HAQM Bedrock-Konsole. Weitere Informationen finden Sie in der HAQM Bedrock-Dokumentation.
Agents
Alles öffnenWas sind HAQM-Bedrock-Agenten?
HAQM-Bedrock-Agenten sind vollständig verwaltete Funktionen, die es Entwicklern erleichtern, generative KI-basierte Anwendungen zu erstellen, die komplexe Aufgaben für eine Vielzahl von Anwendungsfällen erledigen und aktuelle Antworten auf der Grundlage proprietärer Wissensquellen liefern können. In nur wenigen Schritten unterteilen HAQM-Bedrock-Agenten Aufgaben automatisch und erstellen einen Orchestrierungsplan – ganz ohne manuelle Codierung. Der Kundendienstmitarbeiter stellt über eine API eine sichere Verbindung zu Unternehmensdaten her, konvertiert Daten automatisch in ein maschinenlesbares Format und ergänzt die Anfrage mit relevanten Informationen, um die genaueste Antwort zu erhalten. Kundendienstmitarbeiter können dann automatisch APIs aufrufen, um die Anfrage eines Benutzers zu erfüllen. Beispielsweise möchte ein Fertigungsunternehmen möglicherweise eine generative KI-Anwendung entwickeln, die die Nachverfolgung von Lagerbeständen, Verkaufsdaten und Lieferketteninformationen automatisiert und optimale Nachbestellstellen und Mengen empfehlen kann, um die Effizienz zu maximieren. Als vollständig verwaltete Funktionen nehmen HAQM-Bedrock-Agenten den undifferenzierten Aufwand für die Verwaltung der Systemintegration und der Infrastrukturbereitstellung ab und ermöglichen es Entwicklern, generative KI in ihrem gesamten Unternehmen in vollem Umfang zu nutzen.
Wie kann ich FMs mit meinen Unternehmensdatenquellen verbinden?
Mit HAQM-Bedrock-Agenten können Sie FMs sicher mit Ihren Unternehmensdatenquellen verbinden. Mit einer Wissensdatenbank können Sie Kundendienstmitarbeiter einsetzen, um FMs in HAQM Bedrock Zugriff auf zusätzliche Daten zu gewähren, die dem Modell helfen, relevantere, kontextspezifischere und genauere Antworten zu generieren, ohne das FM ständig neu trainieren zu müssen. Basierend auf Benutzereingaben identifizieren die Kundendienstmitarbeiter die entsprechende Wissensbasis, rufen die relevanten Informationen ab und fügen die Informationen zur Eingabeaufforderung hinzu, sodass das Modell mehr Kontextinformationen erhält, um eine Vervollständigung zu generieren.
Was sind einige Anwendungsfälle für HAQM-Bedrock-Agenten?
HAQM-Bedrock-Agenten unterstützen Sie dabei, Ihre Produktivität zu steigern, Ihr Kundenservice-Erlebnis zu verbessern und Workflows zu automatisieren (z. B. bei der Bearbeitung von Versicherungsansprüchen).
Wie tragen HAQM-Bedrock-Agenten zur Verbesserung der Entwicklerproduktivität bei?
Mit Agenten erhalten Entwickler nahtlose Unterstützung für Überwachung, Verschlüsselung, Berechtigungen für Benutzer, Versionsverwaltung und die Verwaltung von API-Aufrufen, ohne eigenen Code schreiben zu müssen. HAQM-Bedrock-Agenten automatisieren die schnelle Entwicklung und Orchestrierung benutzerangeforderter Aufgaben. Entwickler können die vom Agenten erstellte Vorlage für Prompts als Grundlage verwenden, um sie für eine verbesserte Benutzererfahrung weiter zu verfeinern. Sie können die Benutzereingabe, den Orchestrierungsplan und die FM-Antwort aktualisieren. Mit dem Zugriff auf die Prompt-Vorlage haben Entwickler eine bessere Kontrolle über die Kundendienstmitarbeiter-Orchestrierung.
Mit vollständig verwalteten Kundendienstmitarbeitern müssen Sie sich keine Gedanken über die Bereitstellung oder Verwaltung der Infrastruktur machen und können Anwendungen schneller zur Produktion bringen.
Sicherheit
Alles öffnenWerden von HAQM Bedrock verarbeitete Inhalte außerhalb der AWS-Region verschoben, in der ich HAQM Bedrock verwende?
Alle von HAQM Bedrock verarbeiteten Kundeninhalte werden verschlüsselt und im Ruhezustand in der AWS-Region gespeichert, in der Sie HAQM Bedrock verwenden.
Werden Benutzereingaben und Modellausgaben Drittanbietern von Modellen zur Verfügung gestellt?
Nein. Die Eingaben der Nutzer und die Ergebnisse des Modells werden nicht an die Modellanbieter weitergegeben.
Welche Sicherheits- und Compliance-Standards unterstützt HAQM Bedrock?
HAQM Bedrock bietet verschiedene Funktionen zur Unterstützung von Sicherheits- und Datenschutzanforderungen. HAQM Bedrock erfüllt gängige Compliance-Standards wie Fedramp Moderate, Service and Organization Control (SOC), Internationale Organisation für Normung (ISO) und Berechtigung zum Health Insurance Portability and Accountability Act (HIPAA). Kunden können Bedrock in Übereinstimmung mit der Datenschutz-Grundverordnung (DSGVO) verwenden. HAQM Bedrock ist im Umfang der SOC-Berichte 1, 2 und 3 enthalten, sodass Kunden Einblicke in unsere Sicherheitskontrollen erhalten. Wir weisen die Einhaltung der Vorschriften durch umfangreiche Prüfungen unserer AWS-Kontrollen durch Dritte nach. HAQM Bedrock ist einer der AWS-Services, die der ISO-Konformität für die Normen ISO 9001, ISO 27001, ISO 27017, ISO 27018, ISO 27701, ISO 22301 und ISO 20000 unterliegen. HAQM Bedrock ist nach CSA Security Trust Assurance and Risk (STAR) Level 2 zertifiziert, was die Verwendung von bewährten Verfahren und den Sicherheitsstatus der AWS-Cloud-Angebote bestätigt. Bei HAQM Bedrock werden Ihre Inhalte nicht zur Verbesserung der Basismodelle verwendet und nicht an Drittanbieter von Modellen weitergegeben. Sie können AWS PrivateLink verwenden, um eine private Konnektivität von HAQM VPC zu HAQM Bedrock herzustellen, ohne Ihre Daten dem Internetverkehr auszusetzen.
Werden AWS und Modell-Drittanbieter Kundeneingaben oder -ausgaben von HAQM Bedrock verwenden, um HAQM Nova, HAQM Titan oder Drittanbieter-Modelle zu trainieren?
Nein, AWS und die Modell-Drittanbieter werden keine Eingaben oder Ausgaben von HAQM Bedrock verwenden, um HAQM Nova, HAQM Titan oder Drittanbieter-Modelle zu trainieren.
SDK
Alles öffnenWelche SDKs werden für HAQM Bedrock unterstützt?
HAQM Bedrock unterstützt SDKs für Laufzeit-Services. iOS- und Android-SDKs sowie Java, JS, Python, CLI, .Net, Ruby, PHP, Go und C++ unterstützen sowohl Text- als auch Spracheingabe.
Welche SDKs unterstützen Streaming-Funktionen?
Streaming wird in allen SDKs unterstützt.
Abrechnung und Support
Alles öffnenWas kostet HAQM Bedrock?
Aktuelle Preisinformationen finden Sie auf der Seite mit der Preisübersicht für HAQM Bedrock.
Welcher Support wird für HAQM Bedrock geboten?
Abhängig von Ihrem AWS-Support-Vertrag wird HAQM Bedrock im Rahmen der Pläne Developer Support, Business Support und Enterprise Support unterstützt.
Wie kann ich die Eingabe- und Ausgabe-Token verfolgen?
Sie können CloudWatch-Metriken verwenden, um die Eingabe- und Ausgabe-Token zu verfolgen.
Warum sehe ich einen Rechnungseintrag für AWS Marketplace für meine Verwendung von AWS Bedrock?
Kunden erhalten eine Rechnung von AWS Marketplace für bestimmte Serverless-Modelle und Bedrock Marketplace-Modelle von Bedrock. Dies liegt daran, dass diese Modelle von Drittanbietern als „Inhalte von Drittanbietern“ verkauft werden, wie in den AWS-Servicebedingungen in Abschnitt 50.12 beschrieben.
Individuelle Anpassung
Alles öffnenUnterstützt HAQM Bedrock Continued Pre-Training?
Wir haben Continued Pre-Training für Modelle von HAQM Titan Text Express und HAQM Titan auf HAQM Bedrock eingeführt. Continued Pre-Training ermöglicht es Ihnen, das Vortraining auf einem HAQM-Titan-Basismodell mit großen Mengen an ungekennzeichneten Daten fortzusetzen. Bei dieser Art von Training wird das Modell von einem allgemeinen Domain-Korpus an einen spezifischeren Domain-Korpus wie Medizin, Recht, Finanzen usw. angepasst, wobei die meisten Fähigkeiten des HAQM-Titan-Basismodells erhalten bleiben.
Warum sollte ich das Continued Pretraining in HAQM Bedrock verwenden?
Unternehmen möchten möglicherweise Modelle für Aufgaben in einer bestimmten Domain erstellen. Die Basismodelle sind möglicherweise nicht auf die Fachsprache trainiert, die in dieser speziellen Domain verwendet wird. Die direkte Feinabstimmung des Basismodells erfordert daher große Mengen an gekennzeichneten Trainingsdatensätzen und eine lange Trainingsdauer, um genaue Ergebnisse zu erzielen. Um diesen Aufwand zu verringern, kann der Kunde stattdessen große Mengen an nicht gekennzeichneten Daten für einen Continued-Pre-Training-Auftrag zur Verfügung stellen. Mit dieser Aufgabe wird das HAQM-Titan-Basismodell an die neue Domain angepasst. Anschließend kann der Kunde das neu vortrainierte benutzerdefinierte Modell auf nachgelagerte Aufgaben abstimmen, wobei deutlich weniger markierte Trainingsdatensätze und eine kürzere Trainingsdauer benötigt werden.
Wie verhält sich das Feature Continued Pre-Training zu anderen AWS-Services?
HAQM Bedrock Continued Pre-Training und Fine Tuning haben sehr ähnliche Anforderungen. Aus diesem Grund haben wir uns dafür entschieden, einheitliche APIs zu erstellen, die sowohl das fortlaufende Pre-Training als auch Fine Tuning unterstützen. Die Vereinheitlichung der APIs reduziert die Lernkurve und hilft den Kunden bei der Nutzung von Standard-Features wie HAQM EventBridge zur Verfolgung lang laufender Aufträge, HAQM-S3-Integration zum Abrufen von Trainingsdaten, Ressourcen-Tags und Modellverschlüsselung.
Wie verwende ich fortgesetztes Vor-Training?
Das Continued Pre-Training hilft Ihnen, die HAQM-Titan-Modelle an Ihre Domain-Spezifischen Daten anzupassen, wobei die Basisfunktionalität der HAQM-Titan-Modelle erhalten bleibt. Um einen Continued-Pre-Training-Auftrag zu erstellen, navigieren Sie zur HAQM-Bedrock-Konsole und klicken Sie auf „Benutzerdefinierte Modelle“. Sie navigieren zur Seite für benutzerdefinierte Modelle, die zwei Registerkarten enthält: Modelle und Trainingsaufträge. Beide Registerkarten bieten auf der rechten Seite ein Dropdownmenü namens „Modell anpassen“. Wählen Sie im Dropdownmenü „Continued Pretraining“ aus, um zu „Continued-Pretraining-Auftrag erstellen“ zu gelangen. Sie geben das Quellmodell, den Namen, die Modellverschlüsselung, die Eingabedaten, die Hyperparameter und die Ausgabedaten an. Zusätzlich können Sie Tags sowie Details zu AWS Identity and Access Management (IAM)-Rollen und Ressourcenrichtlinien für den Auftrag angeben.
HAQM Titan
Alles öffnenWas sind HAQM-Titan-Modelle?
Die HAQM-Titan-Modellfamilie ist exklusiv für HAQM Bedrock erhältlich und beinhaltet die 25-jährige Erfahrung von HAQM bei Innovationen mit KI und Machine Learning im gesamten Unternehmen. HAQM-Titan-FMs bieten Kunden über eine vollständig verwaltete API eine breite Auswahl an leistungsstarken Bild-, multimodalen und Textmodellen. HAQM-Titan-Modelle werden von AWS erstellt und anhand großer Datensätze vortrainiert, sodass sie leistungsstarke Allzweckmodelle sind, die eine Vielzahl von Anwendungsfällen unterstützen und gleichzeitig den verantwortungsvollen Umgang mit KI unterstützen. Verwenden Sie sie unverändert oder passen Sie sie individuell mit Ihren eigenen Daten an. Weitere Informationen zu HAQM Titan.
Wo kann ich mehr über die Daten erfahren, die zur Entwicklung und Schulung von HAQM-Titan-FMs verarbeitet werden?
Weitere Informationen zu den Daten, die zur Entwicklung und zum Training von HAQM-Titan-FMs verarbeitet werden, finden Sie auf der Seite Training und Datenschutz für HAQM-Titan-Modelle.
Wissensdatenbanken / RAG
Alles öffnenWelche Datenquellen kann ich mit HAQM Bedrock Wissensdatenbanken verbinden?
Sie können Inhalte aus verschiedenen Quellen aufnehmen, darunter das Internet, HAQM Simple Storage Service (HAQM S3), Confluence (Vorschau), Salesforce (Vorschau) und SharePoint (Vorschau). Sie können auch Streaming-Daten oder Daten aus nicht unterstützten Quellen programmgesteuert erfassen. Sie können auch eine Verbindung zu Ihren strukturierten Datenquellen wie dem Redshift-Datawarehouse und dem AWS-Glue-Datenkatalog herstellen.
Wie ruft die HAQM Bedrock-Wissensdatenbank Daten aus strukturierten Datenquellen ab?
HAQM Bedrock-Wissensdatenbanken bieten eine verwaltete natürliche Sprache für SQL, um natürliche Sprache in umsetzbare SQL-Abfragen umzuwandeln und Daten abzurufen, sodass Sie Anwendungen mit Daten aus diesen Quellen erstellen können.
Unterstützt die Wissensdatenbank HAQM Bedrock mehrteilige Unterhaltungen?
Ja, die Verwaltung des Kontexts von Sessions ist integriert, sodass Ihre Anwendungen den Kontext über mehrere Interaktionen hinweg beibehalten können, was für die Unterstützung mehrteiliger Unterhaltungen unerlässlich ist.
Bietet HAQM Bedrock Knowledge Bases eine Quellenangabe für abgerufene Informationen?
Ja, alle abgerufenen Informationen enthalten Zitate, wodurch die Transparenz verbessert und das Risiko von Halluzinationen in den generierten Antworten minimiert wird.
Welche multimodalen Funktionen bietet HAQM Bedrock Wissensdatenbanken?
HAQM Bedrock Knowledge Bases unterstützt die multimodale Datenverarbeitung und ermöglicht es Entwicklern, Anwendungen mit generativer KI zu erstellen, die sowohl Text- als auch visuelle Daten, einschließlich Bilder, Diagramme und Tabellen, analysieren. Modellantworten können zusätzlich zu Text auch Insights aus visuellen Elementen nutzen und so genauere und kontextrelevante Antworten liefern. Darüber hinaus umfasst die Quellenangabe für Antworten visuelle Elemente, was die Transparenz und das Vertrauen in die Antworten erhöht.
Welche multimodalen Datenformate unterstützt HAQM Bedrock Wissensdatenbanken?
HAQM Bedrock Wissensdatenbanken können visuell reichhaltige Dokumente im PDF-Format verarbeiten, die Bilder, Tabellen, Diagramme und Schaubilder enthalten können. Bei reinen Bilddaten unterstützt Bedrock Wissensdatenbanken Standardbildformate wie JPEG und PNG und ermöglicht Suchfunktionen, mit denen Benutzer relevante Bilder auf der Grundlage textbasierter Abfragen abrufen können.
Welche verschiedenen Parsing-Optionen stehen in den HAQM Bedrock-Wissensdatenbanken zur Verfügung?
Kunden haben drei Parsing-Optionen für Bedrock-Wissensdatenbanken. Für die reine Textverarbeitung steht der integrierte Standard-Bedrock-Parser ohne zusätzliche Kosten zur Verfügung, ideal für Fälle, in denen keine multimodale Datenverarbeitung erforderlich ist. HAQM Bedrock Data Automation (BDA) oder Foundation-Modelle können zum Parsen multimodaler Daten verwendet werden. Weitere Informationen finden Sie in der Produktdokumentation.
Wie gewährleistet HAQM Bedrock Knowledge Bases die Datensicherheit und verwaltet komplexe Workflows?
HAQM Bedrock Knowledge Base bewältigt verschiedene komplexe Workflows wie Inhaltsvergleiche, Fehlerbehandlung, Steuerung des Durchsatzes und Verschlüsselung und stellt sicher, dass Ihre Daten gemäß den strengen Sicherheitsstandards von AWS sicher verarbeitet und verwaltet werden.
Modellevaluierung
Alles öffnenWas ist das die Bewertungsmodell von HAQM Bedrock?
Mit der Modellbewertung von HAQM Bedrock können Sie mit nur wenigen kurzen Schritten das beste FM für Ihren Anwendungsfall bewerten, vergleichen und auswählen. HAQM Bedrock bietet die Wahl zwischen automatischer Bewertung und menschlicher Bewertung. Sie können die automatische Bewertung mit vordefinierten Metriken wie Genauigkeit, Robustheit und Toxizität verwenden. Sie können menschliche Bewertungs-Workflows für subjektive oder benutzerdefinierte Metriken wie Freundlichkeit, Stil und Übereinstimmung mit der Markensprache verwenden. Bei menschlichen Bewertungen können Ihre eigenen Mitarbeiter oder ein von AWS verwaltetes Team als Prüfer eingesetzt werden. Die Modellbewertung von HAQM Bedrock bietet integrierte kuratierte Datensätze. Sie können aber auch Ihre eigenen Datensätze verwenden.
Anhand welcher Kennzahlen kann ich FMs bewerten?
Mithilfe automatischer Bewertungen können Sie eine Vielzahl vordefinierter Metriken wie Genauigkeit, Robustheit und Toxizität bewerten. Sie können auch menschliche Bewertungs-Workflows für subjektive oder benutzerdefinierte Metriken verwenden, wie z. B. Freundlichkeit, Relevanz, Stil und Übereinstimmung mit der Markensprache.
Was ist der Unterschied zwischen menschlichen und automatischen Bewertungen?
Automatische Bewertungen ermöglichen es Ihnen, die Liste der verfügbaren FMs anhand von Standardkriterien (wie Genauigkeit, Toxizität und Robustheit) schnell einzugrenzen. Von Menschen durchgeführte Bewertungen werden häufig zur Beurteilung von differenzierteren oder subjektiven Kriterien verwendet, welche ein menschliches Urteilsvermögen erfordern und bei denen es möglicherweise keine automatischen Bewertungen gibt (z. B. Übereinstimmung mit der Markensprache, kreative Absicht, Freundlichkeit).
Wie funktioniert die automatische Bewertung?
Sie können HAQM-Bedrock-Modelle schnell auf Metriken wie Genauigkeit, Robustheit und Toxizität prüfen, indem Sie kuratierte integrierte Datensätze verwenden oder Ihre eigenen Prompt-Datensätze einbringen. Nachdem Ihre Prompt-Datensätze zur Inferenz an HAQM.Bedrock-Modelle gesendet wurden, werden die Modellantworten mit Bewertungsalgorithmen für jede Dimension bewertet. Die Backend-Engine fasst die einzelnen Prompt-Response-Ergebnisse zu einer Gesamtbewertung zusammen und stellt sie in leicht verständlichen visuellen Berichten dar.
Wie funktioniert menschliche Bewertung?
Mit HAQM Bedrock können Sie in wenigen Schritten menschliche Überprüfungsworkflows einrichten und Ihre internen Mitarbeiter oder ein von AWS verwaltetes Expertenteam zur Bewertung von Modellen heranziehen. Über die intuitive Benutzeroberfläche von HAQM Bedrock können Benutzer Modellantworten überprüfen und Feedback dazu geben, indem sie auf Daumen hoch oder runter klicken, auf einer Skala von 1 bis 5 bewerten, die beste aus mehreren Antworten auswählen oder Prompts bewerten. Beispielsweise kann einem Teammitglied gezeigt werden, wie zwei Modelle auf dieselbe Aufforderung reagieren, und dann aufgefordert werden, das Modell auszuwählen, das genauere, relevantere oder stilistischere Ergebnisse liefert. Sie können die für Sie wichtigen Bewertungskriterien festlegen, indem Sie die Anweisungen und Schaltflächen auf der Bewertungsoberfläche für Ihr Team anpassen. Sie können auch detaillierte Anweisungen mit Beispielen und dem Gesamtziel der Modellbewertung geben, damit Benutzer ihre Arbeit entsprechend ausrichten können. Diese Methode ist nützlich, um subjektive Kriterien zu bewerten, die ein menschliches Urteilsvermögen oder ein differenziertes Fachwissen erfordern und die nicht ohne weiteres durch automatische Auswertungen beurteilt werden können.
Verantwortungsvolle KI mit HAQM Bedrock Integritätsschutz
Alles öffnenWas ist der HAQM-Bedrock-Integritätsschutz?
HAQM Bedrock Integritätsschutz unterstützt Sie bei der Implementierung von Schutzmaßnahmen für Ihre generativen KI-Anwendungen basierend auf Ihren Anwendungsfällen und verantwortungsvollen KI-Richtlinien. Sie können mehrere Integritätsschutzmaßnahmen erstellen, die auf verschiedene Anwendungsfälle zugeschnitten sind, und sie auf mehrere Basismodelle (FMs) anwenden, um eine konsistente Benutzererfahrung zu gewährleisten und die Sicherheits- und Datenschutzkontrollen in Ihren Anwendungen mit generativer KI zu standardisieren.
Welche Schutzmaßnahmen sind im Integritätsschutz für HAQM Bedrock verfügbar?
Mit dem Integritätsschutz können Sie eine Reihe von sechs Richtlinien definieren, um Ihre generativen KI-Anwendungen zu schützen. Sie können die folgenden Richtlinien in HAQM Bedrock Integritätsschutz konfigurieren:
-
Multimodale Inhaltsfilter – Konfigurieren Sie Schwellenwerte, um schädliche Text- und/oder Bildinhalte in verschiedenen Kategorien zu erkennen und zu filtern, darunter Hass, Beleidigungen, sexuelle Inhalte, Gewalt, Fehlverhalten und Prompt-Angriffe.
-
Verweigerte Themen – Definieren Sie eine Reihe von Themen, die im Kontext Ihrer Anwendung unerwünscht sind. Der Filter hilft dabei, sie zu blockieren, wenn sie in Benutzeranfragen oder Modellantworten erkannt werden.
-
Wortfilter – Konfigurieren Sie Filter, um unerwünschte Wörter, Phrasen und Schimpfwörter zu blockieren (exakte Übereinstimmung). Solche Wörter können beleidigende Begriffe, Namen von Mitbewerbern usw. enthalten.
-
Filter für sensible Informationen – Konfigurieren Sie Filter, um sensible Informationen wie persönlich identifizierbare Informationen (PII) oder benutzerdefinierte Regex in Benutzereingaben und Modellantworten zu blockieren oder zu maskieren. Das Blockieren oder Maskieren erfolgt auf der Grundlage der wahrscheinlichkeitsbasierten Erkennung sensibler Informationen in Standardformaten wie Sozialversicherungsnummer, Geburtsdatum, Adresse usw. Dies ermöglicht auch die Konfiguration einer auf regulären Ausdrücken basierenden Erkennung von Mustern für IDs.
-
Kontextuelle Erdungsprüfungen – Helfen bei der Erkennung und Filterung von Halluzinationen, wenn die Antworten nicht in den Quellinformationen begründet sind (etwa sachlich ungenau oder neue Informationen) und für die Anfrage oder Anweisung des Benutzers irrelevant sind.
-
Automated-Reasoning-Prüfungen – Helfen bei der Erkennung sachlicher Ungenauigkeiten in generierten Inhalten, schlagen Korrekturen vor und erklären, warum Antworten korrekt sind, indem sie mit einer strukturierten, mathematischen Darstellung von Wissen abgeglichen werden, die als Automated Reasoning Policy aufgerufen wird.
Welche Modalitäten werden mit Bedrock Integritätsschutz unterstützt?
Bedrock Integritätsschutz unterstützt sowohl Text- als auch Bildinhalte, sodass Kunden sichere generative KI-Anwendungen in großem Maßstab erstellen können.
Kann ich den Integritätsschutz mit allen verfügbaren FMs und Tools auf HAQM Bedrock verwenden?
HAQM Bedrock Integritätsschutz funktioniert mit einer Vielzahl von Modellen, einschließlich FMs, die in HAQM Bedrock unterstützt werden, optimierten Modellen sowie selbst gehosteten Modellen außerhalb von HAQM Bedrock. Benutzereingaben und Modellausgaben können mithilfe der ApplyGuardrail-API unabhängig voneinander für Drittanbieter- und selbst gehostete Modelle ausgewertet werden. HAQM Bedrock Integritätsschutz kann auch in HAQM Bedrock Agenten und HAQM Bedrock Wissensdatenbanken integriert werden, um sichere und geschützte Anwendungen generativer KI zu erstellen, die mit den Richtlinien für verantwortungsvolle KI übereinstimmen
Welche Sprachen werden von Bedrock Integritätsschutz unterstützt?
Derzeit unterstützt HAQM Bedrock Integritätsschutz die natürliche Sprache in Englisch, Französisch und Spanisch. Die Verwendung einer anderen Sprache führt zu ineffektiven Ergebnissen.
Verfügen Sie über eine Liste mit vorgefertigtem (integrierten) Integritätsschutz, und was angepasst werden kann?
Es gibt fünf Integritätsschutz-Richtlinien mit jeweils unterschiedlichen vorgefertigten Schutzmaßnahmen
- Inhaltsfilter – Es gibt 6 vorgefertigte Kategorien (Hass, Beleidigungen, Sex, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) und Prompt-Angriff (Jailbreak und Prompt-Injektion). Jede Kategorie kann weitere benutzerdefinierte Schwellenwerte in Bezug auf die Aggressivität der Filterung haben – niedrig/mittel/hoch für Text- und Bildinhalte.
- Abgelehntes Thema – Hierbei handelt es sich um benutzerdefinierte Themen, die der Kunde mithilfe einer einfachen Beschreibung in natürlicher Sprache definieren kann
- Filter für vertrauliche Informationen – Dieser wird mit über 30 vorgefertigten PIIs geliefert. Durch das Hinzufügen vertraulicher Kundeninformationen ist eine weitere Anpassung möglich.
- Wortfilter – Es verfügt über eine vorinstallierte Filterung von Schimpfwörtern und kann mit benutzerdefinierten Wörtern weiter angepasst werden.
- Kontextbezogene Integritätsprüfungen – Können helfen, Halluzinationen für RAG-, Zusammenfassungs- und Konversationsanwendungen zu erkennen, bei denen Quellinformationen als Referenz zur Validierung der Modellantwort verwendet werden können.
Verfügen Sie über eine Liste mit vorgefertigtem (integrierten) Integritätsschutz, und was angepasst werden kann?
Es gibt fünf Integritätsschutz-Richtlinien mit jeweils unterschiedlichen vorgefertigten Schutzmaßnahmen
- Inhaltsfilter – Es gibt 6 vorgefertigte Kategorien (Hass, Beleidigungen, Sex, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) und Prompt-Angriff (Jailbreak und Prompt-Injektion). Jede Kategorie kann hinsichtlich der Filteraggressivität weitere benutzerdefinierte Schwellenwerte aufweisen – niedrig/mittel/hoch.
- Abgelehntes Thema – Hierbei handelt es sich um benutzerdefinierte Themen, die der Kunde mithilfe einer einfachen Beschreibung in natürlicher Sprache definieren kann
- Filter für vertrauliche Informationen – Dieser wird mit über 30 vorgefertigten PIIs geliefert. Durch das Hinzufügen vertraulicher Kundeninformationen ist eine weitere Anpassung möglich.
- Wortfilter – Es verfügt über eine vorinstallierte Filterung von Schimpfwörtern und kann mit benutzerdefinierten Wörtern weiter angepasst werden.
- Kontextbezogene Integritätsprüfungen – Können helfen, Halluzinationen für RAG-, Zusammenfassungs- und Konversationsanwendungen zu erkennen, bei denen Quellinformationen als Referenz zur Validierung der Modellantwort verwendet werden können.
Wie kann ich den Integritätsschutz in meiner Organisation durchsetzen?
HAQM Bedrock Integritätsschutz bietet die Möglichkeit, mithilfe von IAM-richtlinienbasierten Durchsetzungsfunktionen obligatorische Integritätsschutzmaßnahmen für jede Inferenz festzulegen. Weitere Einzelheiten finden Sie hier.
Bietet AWS eine Entschädigung für geistiges Eigentum an, die Urheberrechtsansprüche für seine generativen KI-Services abdeckt?
AWS bietet eine unbegrenzte Entschädigung für Urheberrechtsansprüche, die sich aus der generativen Ausgabe der folgenden allgemein verfügbaren generativen KI-Services von HAQM ergeben: HAQM-Modelle und andere in Abschnitt 50.10 der Servicebedingungen (die „entschädigungsfähigen generativen KI-Services“) aufgeführte Services. Dies bedeutet, dass die Kunden vor Ansprüchen Dritter geschützt sind, die behaupten, dass die von den entschädigten generativen KI-Diensten als Reaktion auf vom Kunden bereitgestellte Eingaben oder andere Daten erzeugte Ausgabe gegen das Urheberrecht verstößt. Die Kunden müssen die Dienste auch verantwortungsbewusst nutzen, z. B. indem sie keine rechtsverletzenden Daten eingeben oder die Filter-Features eines Dienstes deaktivieren.
Fallen für den Kunden separate Kosten für die Entwicklung von individuellem Integritätsschutz für HAQM Bedrock an? Wird dies sowohl auf die Eingabe als auch auf die Ausgabe angewendet?
Für die Nutzung des Integritätsschutzes für HAQM Bedrock fallen separate Kosten an. Diese können sowohl für die Eingabe als auch für die Ausgabe angewendet werden. Preise finden Sie hier unten auf der Seite.
Erkennen die standardmäßigen Integritätsschutzfunktionen automatisch Sozialversicherungsnummern oder Telefonnummern?
HAQM Bedrock Integritätsschutz bietet Filter für sensible Informationen, die 31 PIIs bereitstellen, darunter Sozialversicherungsnummern und Telefonnummern. Die vollständige Liste finden Sie hier.
Wie sieht das Preismodell für die Nutzung von HAQM Bedrock Integritätsschutz aus?
HAQM Bedrock Integritätsschutz wird sowohl für Text- als auch für Bildinhalte auf Basis eines nutzungsbasierten Modells abgerechnet. Bitte besuchen Sie die Preisseite für den Integritätsschutz, um Einzelheiten zu den Preisen zu erfahren.
Können Kunden die Wirksamkeit des von ihnen festgelegten Integritätsschutzes automatisch testen? Gibt es einen „Testfallgenerator“ (die Terminologie des Journalisten) für die laufende Überwachung?
Ja, HAQM-Bedrock-Integritätsschutz-APIs helfen Kunden bei der Durchführung automatisierter Tests. „Testfallgenerator“ ist vielleicht etwas, das Sie verwenden möchten, bevor Sie Integritätsschutz in der Produktion einsetzen. Es gibt noch keinen nativen Testfallgenerator. Für die fortlaufende Überwachung des Datenverkehrs in der Produktion hilft der Integritätsschutz dabei, detaillierte Protokolle aller Verstöße für alle Eingaben und Ausgaben bereitzustellen, sodass Kunden jede einzelne Eingabe und Ausgabe ihrer generativen KI-Anwendung differenziert überwachen können. Diese Protokolle können in CloudWatch oder S3 gespeichert und zum Erstellen benutzerdefinierter Dashboards basierend auf den Kundenanforderungen verwendet werden.
Wie unterscheidet sich die Validierung mithilfe von Automated Reasoning-Prüfungen von Contextual Grounding-Prüfungen?
Mithilfe einer Automated Reasoning-Richtlinie können Automated Reasoning-Prüfungen sowohl auf korrekte Behauptungen als auch auf sachliche Ungenauigkeiten in Inhalten hinweisen. Sowohl für korrekte als auch für ungenaue Aussagen liefert die Automated Reasoning-Prüfung überprüfbare, logische Erklärungen für ihre Ergebnisse. Die Automated Reasoning-Prüfung erfordert die vorherige Einbeziehung eines Experten aus dem jeweiligen Bereich, um eine Richtlinie zu erstellen, und unterstützt nur Inhalte, die Regeln definieren. Andererseits verwendet die kontextuelle Verankerung in Bedrock Integritätsschutz Techniken des Machine Learning, um sicherzustellen, dass der generierte Inhalt den Dokumenten, die als Eingabe aus einer Wissensdatenbank bereitgestellt wurden, genau folgt, ohne dass zusätzliche Vorarbeiten erforderlich sind. Sowohl Automated Reasoning Checks als auch Contextual Grounding geben ihr Feedback in der Guardrail-API-Ausgabe aus. Sie können das Feedback verwenden, um den generierten Inhalt zu aktualisieren.
Welche Bildformate werden für multimodale Inhalte unterstützt?
Die Bildformate PNG und JPEG werden von Bedrock Integritätsschutz unterstützt.
HAQM Marketplace
Alles öffnenWas ist HAQM Bedrock Marketplace?
HAQM Bedrock Marketplace bietet Kunden über 100 beliebte, aufstrebende oder spezialisierte Modelle zusätzlich zu den Serverless-FMs von HAQM Bedrock, sodass Kunden ihre Anwendungen für generative KI einfach erstellen und optimieren können. In der HAQM Bedrock-Konsole können Kunden einen umfangreichen Katalog von FMs verschiedener Anbieter einsehen. Diese Modelle können dann auf vollständig verwalteten Endpunkten bereitgestellt werden, wobei Sie die gewünschte Anzahl von Instances und Instance-Typen auswählen können. Nach der Bereitstellung kann über die Invoke-API von HAQM Bedrock auf die Modelle zugegriffen werden. Für Chat-optimierte Text-zu-Text-Modelle können Kunden unsere neue Converse-API verwenden, eine einheitliche API, die FM-Unterschiede abstrahiert und den Modellwechsel mit einer einzigen Parameteränderung ermöglicht. Gegebenenfalls können die Modelle mit HAQM Bedrock Playground, Agenten, Wissensdatenbanken, Prompt-Management, Prompt-Flows, Integritätsschutz und Modellbewertung verwendet werden.
Warum sollte ich HAQM Bedrock Marketplace verwenden?
Sie sollten HAQM Bedrock Marketplace verwenden, um von den leistungsstarken Modellen zu profitieren, die sich im Zuge der fortlaufenden Innovationen in der Branche der generativen KI schnell entwickeln. Sie können schnell auf beliebte, neu entstehende und spezialisierte Modelle zugreifen und diese bereitstellen, die auf Ihre individuellen Anforderungen zugeschnitten sind. Dadurch können Sie die Markteinführungszeit verkürzen, die Genauigkeit verbessern oder die Kosten Ihrer Workflows für generative KI senken. Sie können über die einheitlichen APIs von Bedrock auf die Modelle zugreifen und sie, wenn sie mit der Converse-API von Bedrock kompatibel sind, nativ mit Bedrock-Tools wie Agenten, Wissensdatenbanken und Integritätsschutz verwenden. Sie können HAQM Bedrock Marketplace ganz einfach mit den Serverless-Modellen von HAQM Bedrock verbinden – alles von einem einzigen Ort aus.
Wie fange ich mit HAQM Bedrock Marketplace an?
Navigieren Sie einfach zur Seite „HAQM Bedrock Model Catalgo“ in der Bedrock-Konsole, wo Sie nach HAQM Bedrock Marketplace-Modelllisten zusammen mit den Serverless HAQM Bedrock-Modellen suchen können. Nachdem Sie das HAQM Bedrock Marketplace-Modell ausgewählt haben, das Sie verwenden möchten, können Sie das Modell über die Seite „Model Detail“ abonnieren und dabei die EULA und die vom Anbieter festgelegten Preise akzeptieren. Sobald das Abonnement abgeschlossen ist, was in der Regel einige Minuten dauert, können Sie das Modell auf einem vollständig verwalteten SageMaker-Endpunkt bereitstellen, indem Sie auf der Seite „Model Detail“ auf „Deploy“ klicken oder APIs verwenden. Im Schritt „Bereitstellung“ können Sie die gewünschte Anzahl von Instances und Instance-Typen auswählen, um Ihren Workload zu erfüllen. Sobald der Endpunkt eingerichtet ist, was in der Regel 10 bis 15 Minuten dauert, können Sie Inferenzaufrufe an den Endpunkt senden und das Modell in den fortschrittlichen Tools von Bedrock verwenden, vorausgesetzt, das Modell ist mit der Converse-API von Bedrock kompatibel.
Kann ich HAQM Bedrock Marketplace-Modelle optimieren?
Modelle mit Architekturen, die von Custom Model Import unterstützt werden (Mistral, Mixtral, Flan und Llama2/3/3.1/3.2), können in SageMaker optimiert und in HAQM Bedrock über Custom Model Import verfügbar gemacht werden. Modelle, die nicht von Custom Model Import unterstützt werden, können in SageMaker trotzdem optimiert werden. Die optimierte Version dieser Modelle kann jedoch nicht in HAQM Bedrock verwendet werden.
Datenautomatisierung
Alles öffnenWas ist Bedrock Data Automation?
Was ist Bedrock Data Automation? HAQM Bedrock Data Automation ist eine von GenAI betriebene Funktion von Bedrock, die die Entwicklung von Anwendungen mit generativer KI optimiert und Workflows mit Dokumenten, Bildern, Audio und Videos automatisiert. Durch die Nutzung von Bedrock Data Automation können Entwickler die Entwicklungszeit und den Entwicklungsaufwand reduzieren, wodurch die Erstellung intelligenter Lösungen für die Dokumentenverarbeitung, Medienanalyse und andere multimodale datenzentrierte Automatisierungslösungen erleichtert wird. Bedrock Data Automation bietet branchenführende Genauigkeit zu geringeren Kosten als alternative Lösungen, zusammen mit Features wie visuelle Erdung mit Wertungen für Vertrauen in die Erklärbarkeit und integrierter Halluzinationsminderung. Dies gewährleistet vertrauenswürdige und genaue Einblicke aus unstrukturierten, multimodalen Datenquellen. Kunden können die Ausgabe von Bedrock Data Automation einfach anpassen, um spezifische Erkenntnisse in konsistenten Formaten zu generieren, die von ihren Systemen und Anwendungen benötigt werden. Entwickler beginnen mit Bedrock Data Automation auf der HAQM Bedrock-Konsole, wo sie die Ausgabe mithilfe ihrer Beispieldaten konfigurieren und anpassen können. Anschließend können sie die einheitliche multimodale Inferenz-API von Bedrock Data Automation in ihre Anwendungen integrieren, um ihre unstrukturierten Inhalte im Produktionsmaßstab mit hoher Genauigkeit und Konsistenz zu verarbeiten. Bedrock Data Automation ist auch in die Bedrock-Wissensdatenbanken integriert, was es Entwicklern erleichtert, aus ihren unstrukturierten multimodalen Inhalten aussagekräftige Informationen zu generieren, um relevantere Antworten für die Retrieval Augmented Generation (RAG) bereitzustellen.
Warum sollte ich Bedrock Data Automation verwenden?
Bedrock Data Automation erleichtert die Umwandlung unstrukturierter Unternehmensdaten in anwendungsspezifische Ausgabeformate, die von allgemeinen KI-Anwendungen und ETL-Workflows genutzt werden können. Kunden müssen nicht mehr Zeit und Mühe darauf verwenden, mehrere Modelle zu verwalten und zu koordinieren, Prompts zu entwickeln, Integritätsschutz zu implementieren oder Ausgaben zusammenzufügen, um sie an nachgelagerte Systemanforderungen anzupassen. Bedrock Data Automation ermöglicht eine äußerst genaue, konsistente und kostengünstige Verarbeitung unstrukturierter Daten. Bedrock Data Automation wurde mit Blick auf verantwortungsvolle KI entwickelt und bietet Kunden wichtige Features wie visuelle Erdung und Wertungen des Vertrauens, die die Integration von Bedrock Data Automation in die Workflows von Unternehmen erleichtern.
Was verwaltet HAQM Bedrock Data Automation in meinem Auftrag?
Die Funktionen von Bedrock Data Automation sind über eine vollständig verwaltete API verfügbar, die Kunden einfach in ihre Anwendungen integrieren können. Kunden müssen sich nicht um das Skalieren der zugrunde liegenden Rechenressourcen, das Auswählen und Orchestrieren von Modellen oder das Verwalten von Prompts für FMs kümmern.
Was ist eine Vorlage?
Eine Vorlage ist ein Feature, mit dem Kunden ihre Ausgabeanforderungen in natürlicher Sprache oder einem Schema-Editor angeben können. Sie enthält eine Liste der Felder, die extrahiert werden sollen, ein Datenformat für jedes Feld und Anweisungen in natürlicher Sprache für jedes Feld. Entwickler können beispielsweise Folgendes eingeben: „Erstellen Sie eine Vorlage für Rechnungen mit den folgenden Feldern: Steuer, Fälligkeitsdatum, Belegdatum“ oder „Bestätigen Sie, dass der Rechnungsbetrag mit der Summe der Einzelposten übereinstimmt“. Sie verweisen auf Vorlagen als Teil der Inferenz-API-Aufrufe, sodass das System Informationen in dem in der Vorlage beschriebenen Format zurückgibt.
Welche Features und Dateiformate werden von HAQM Bedrock Data Automation pro Modalität unterstützt
Dokumente
Bedrock Data Automation unterstützt sowohl Standardausgaben als auch benutzerdefinierte Ausgaben für Dokumente.
- Die Standardausgabe ermöglicht die Extraktion von Text aus Dokumenten und die generative Ausgabe wie Dokumentzusammenfassungen und Beschriftungen für Tabellen/Abbildungen/Diagramme. Die Ausgabe wird in Leserichtung zurückgegeben und kann optional nach Layoutelementen gruppiert werden, zu denen Kopf-/Fußzeilen/Titel/Tabellen/Abbildungen/Diagramme gehören. Die Standardausgabe wird für die BDA-Integration mit Bedrock-Wissensdatenbanken verwendet.
- Die benutzerdefinierte Ausgabe nutzt Vorlagen, die die Ausgabeanforderungen mithilfe natürlicher Sprache oder eines Schema-Editors spezifizieren. Vorlagen enthalten eine Liste der zu extrahierenden Felder und ein Datenformat für jedes Feld.
Bedrock Data Automation unterstützt PDF, PNG, JPG, TIFF, maximal 1 500 Seiten und eine maximale Dateigröße von 500 MB pro API-Anfrage. Standardmäßig unterstützt BDA 50 gleichzeitige Aufträge und 10 Transaktionen pro Sekunde pro Kunde.
Bilder
Bedrock Data Automation unterstützt sowohl Standardausgabe als auch benutzerdefinierte Ausgabe für Bilder.
- Die Standardausgabe bietet eine Zusammenfassung, erkannte explizite Inhalte, erkannten Text, Logoerkennung und eine Anzeigen-Taxonomie: IAB für Bilder. Die Standardausgabe wird für die BDA-Integration mit Bedrock-Wissensdatenbanken verwendet.
- Die benutzerdefinierte Ausgabe nutzt Vorlagen, die die Ausgabeanforderungen mithilfe natürlicher Sprache oder eines Schema-Editors spezifizieren. Vorlagen enthalten eine Liste der zu extrahierenden Felder und ein Datenformat für jedes Feld.
Bedrock Data Automation unterstützt JPG, PNG, eine maximale Auflösung von 4K und eine maximale Dateigröße von 5 MB pro API-Anfrage. Standardmäßig unterstützt BDA eine maximale Parallelität von 20 Bildern bei 10 Transaktionen pro Sekunde (TPS) pro Kunde.
Videos
Bedrock Data Automation unterstützt beide Standardausgaben für Videos.
- Die Standardausgabe bietet eine vollständige Videozusammenfassung, Kapitelsegmentierung, Kapitelzusammenfassung, vollständige Audiotranskription, Sprecheridentifikation, erkannte explizite Inhalte, erkannten Text, Logoerkennung und die IAB-Taxonomie (Interactive Advertising Bureau) für Videos. Die vollständige Videozusammenfassung ist für Inhalte mit beschreibendem Dialog wie Produktübersichten, Schulungen, Nachrichtensendungen und Dokumentationen optimiert.
Bedrock Data Automation unterstützt MOV und MKV mit H.264, VP8, VP9, einer maximalen Videodauer von 4 Stunden und einer maximalen Dateigröße von 2 GB pro API-Anfrage. Standardmäßig unterstützt BDA eine maximale Parallelität von 20 Videos bei 10 Transaktionen pro Sekunde (TPS) pro Kunde.
Audio
Bedrock Data Automation unterstützt sowohl die Standardausgabe für Audio.
- Die Standardausgabe bietet eine Zusammenfassung einschließlich Kapitelzusammenfassung, vollständige Transkription und erkennt explizite Inhaltsmoderation für Audiodateien.
Bedrock Data Automation unterstützt FLAC, M4A, MP3, MP4, Ogg, WebM, WAV, eine maximale Audiodauer von 4 Stunden und eine maximale Dateigröße von 2 GB pro API-Anfrage.
In welchen AWS-Regionen ist HAQM Bedrock Data Automation verfügbar?
HAQM Bedrock Data Automation ist in den AWS-Regionen USA West (Oregon) und USA Ost (Nord-Virginia) allgemein verfügbar.
Welche Sprachen unterstützt HAQM Bedrock Data Automation?
HAQM Bedrock Data Automation unterstützt derzeit Englisch. Zusätzliche Sprachunterstützung wird bald im Jahr 2025 verfügbar sein.
HAQM Bedrock in SageMaker Unified Studio
Alles öffnenWas ist HAQM Bedrock in SageMaker Unified Studio?
Auf HAQM Bedrock kann über die AWS-Managementkonsole, APIs oder HAQM SageMaker Unified Studio zugegriffen werden. In HAQM SageMaker Unified Studio können Benutzer mithilfe von leistungsstarken Basismodellen (FMs) schnell generative KI-Anwendungen erstellen und diese iterieren. Über eine intuitive Schnittstelle können Sie mit Modellen experimentieren, an Projekten zusammenarbeiten und einen optimierten Zugriff auf verschiedene Bedrock-Tools und -Ressourcen erhalten, um schnell generative KI-Anwendungen zu erstellen.
Wie greife ich in HAQM SageMaker Unified Studio auf die Funktionen von HAQM Bedrock zu?
Um in HAQM SageMaker Unified Studio auf die Funktionen von HAQM Bedrock zuzugreifen, müssen Entwickler und ihre Administratoren die folgenden Schritte ausführen:
- Erstellen Sie eine neue Domain in HAQM SageMaker Unified Studio.
- Aktivieren Sie das Gen AI-Anwendungsentwicklungsprojektprofil.
- Greifen Sie über die Abschnitte generativer KI-Playground (Discover) und generative KI-Anwendungsentwicklung (Build) auf HAQM Bedrock zu und verwenden Sie dabei die Anmeldeinformationen des Single Sign-On (SSO) des Unternehmens in HAQM SageMaker Unified Studio.
Was sind die wichtigsten Features und Funktionen von HAQM Bedrock in HAQM SageMaker Unified Studio ? Wie unterscheidet es sich von HAQM Bedrock Studio und HAQM Bedrock IDE?
Auf HAQM Bedrock kann zwar über die AWS-Managementkonsole, APIs oder HAQM SageMaker Unified Studio zugegriffen werden, aber die Funktionen in SageMaker Unified Studio bauen auf dem ursprünglichen HAQM Bedrock Studio (das nicht mehr verfügbar ist) auf, wobei mehrere wichtige Verbesserungen vorgenommen wurden. Beim Zugriff über HAQM SageMaker Unified Studio bietet es Zugriff auf erweiterte KI-Modelle von führenden Unternehmen, Tools zum Erstellen und Testen von KI-Prompts und eine nahtlose Integration mit HAQM-Bedrock-Wissensdatenbanken, HAQM-Bedrock-Integritätsschutz, HAQM-Bedrock-Flows und HAQM-Bedrock-Agenten. Teams können in einem gemeinsamen Arbeitsbereich zusammenarbeiten, um benutzerdefinierte KI-Anwendungen zu erstellen, die auf ihre Bedürfnisse zugeschnitten sind.
Zu den neuen Features gehören ein Modell-Hub für den Vergleich von KI-Modellen nebeneinander, ein erweiterter Playground, der Chat-, Bild- und Videointeraktionen unterstützt, und eine verbesserte Erstellung von Wissensdatenbanken mit Web-Crawling. Sie führt die Erstellung von Agenten für komplexere Chat-Anwendungen ein und vereinfacht die gemeinsame Nutzung von KI-Apps und Prompts innerhalb von Organisationen. Es bietet auch die Möglichkeit, auf den zugrundeliegenden Anwendungscode zuzugreifen und Chat-Apps als CloudFormation-Vorlagen zu exportieren. Durch die Verwaltung von AWS-Infrastrukturdetails ermöglicht sie es Benutzern mit unterschiedlichen Fähigkeiten, KI-Anwendungen effizienter zu erstellen, wodurch sie zu einem vielseitigeren und leistungsfähigeren Tool als ihr Vorgänger wird.
HAQM Bedrock IDE wurde umbenannt, um die Kernfunktionen von HAQM Bedrock besser darzustellen, auf die über die verwaltete Umgebung von HAQM SageMaker Unified Studio zugegriffen wird.
Wie ermöglicht HAQM Bedrock in SageMaker Unified Studio die Zusammenarbeit zwischen Teams innerhalb einer Organisation?
Wenn Teams über HAQM SageMaker Unified Studio auf die Benutzeroberfläche von HAQM Bedrock zugreifen, profitieren sie von einer kontrollierten Umgebung, die die Zusammenarbeit ermöglicht. Teams können Projekte erstellen, Kollegen einladen und gemeinsam generative KI-Anwendungen entwickeln. Sie können schnelles Feedback zu ihren Prototypen erhalten und die Anwendungen mit jedem in SageMaker Unified Studio oder mit bestimmten Benutzern in der Domain teilen. Dank robuster Zugriffskontrollen und Governance-Features können nur autorisierte Mitglieder auf Projektressourcen wie Daten oder die generativen KI-Anwendungen zugreifen, was den Datenschutz und die Einhaltung von Vorschriften unterstützt und somit eine sichere funktionsübergreifende Zusammenarbeit und gemeinsame Nutzung fördert. Darüber hinaus können generative KI-Anwendungen von einem Builder für bestimmte Benutzer in der SageMaker-Unified-Studio-Domain oder für bestimmte Einzelpersonen freigegeben werden, sodass angemessene Zugriffsrechte, Kontrollen und Governance für solche Assets möglich sind.
Warum wird HAQM Bedrock in HAQM SageMaker Unified Studio integriert?
Auf HAQM Bedrock kann zwar über die AWS-Managementkonsole, APIs oder HAQM SageMaker Unified Studio zugegriffen werden, doch diese Integration beseitigt Barrieren zwischen Daten, Tools und Entwicklern im Entwicklungsprozess generativer KI. Teams erhalten ein einheitliches Entwicklungserlebnis, indem sie auf vertraute JupyterLab-Umgebungen und Analytik-Tools zugreifen und gleichzeitig die leistungsstarken generativen KI-Funktionen von HAQM Bedrock nahtlos integrieren – alles im selben Arbeitsbereich.
Die einheitliche Umgebung ermöglicht eine nahtlose Zusammenarbeit zwischen Entwicklern mit unterschiedlichen Fähigkeiten während des gesamten Entwicklungszyklus – von der Datenaufbereitung über die Modellentwicklung bis hin zur Erstellung generativer KI-Anwendungen. Teams können innerhalb eines sicheren und kontrollierten Rahmens auf integrierte Tools zur Erstellung von Wissensdatenbanken, zur Konfiguration des Integritätsschutzes und zur Entwicklung leistungsstarker Anwendungen mit generativer KI zugreifen.
In HAQM SageMaker Unified Studio können Entwickler je nach Bedarf mühelos zwischen verschiedenen Tools wechseln und dabei Analyse-, Machine Learning- und generative KI-Funktionen in einem einzigen Arbeitsbereich kombinieren. Dieser konsolidierte Ansatz reduziert die Komplexität der Entwicklung und beschleunigt die Wertschöpfung für Projekte mit generativer KI. Durch die Integration von HAQM Bedrock in HAQM SageMaker Unified Studio senkt AWS die Eintrittsbarrieren für die Entwicklung generativer KI, während dabei gleichzeitig die Sicherheit und Governance auf Unternehmensebene gewahrt bleibt. So können Unternehmen mit generativer KI letztlich schneller und effektiver innovieren.
Wann sollte ich die Funktionen von HAQM Bedrock in HAQM SageMaker Unified Studio nutzen?
Die Funktionen von HAQM Bedrock in HAQM SageMaker Unified Studio eignen sich hervorragend für Unternehmensteams, die eine kontrollierte Umgebung für die gemeinsame Entwicklung und Bereitstellung generativer KI-Anwendungen benötigen. Über HAQM SageMaker Unified Studio können Teams auf Folgendes zugreifen:
- Der Playground der generativen KI im Bereich „Discover“ ermöglicht es Teams, mit Basismodellen (FMs) zu experimentieren, verschiedene Modelle und Konfigurationen zu testen, Modellergebnisse zu vergleichen und gemeinsam an Prompts und Anwendungen zu arbeiten. Diese Umgebung bietet Teams eine nahtlose Möglichkeit, die Fähigkeiten verschiedener Modelle zu bewerten und zu verstehen, bevor sie sie in ihre Anwendungen implementieren.
- Die -Anwendungsentwicklung der generativen KI im Bereich „Build“ bietet Teams die Tools, die sie benötigen, um produktionsreife generative KI-Anwendungen zu erstellen. Teams können Wissensdatenbanken erstellen und verwalten, Integritätsschutz für verantwortungsvolle KI implementieren, Agenten und Flows entwickeln und sicher zusammenarbeiten und gleichzeitig die Governance- und Compliance-Kontrollen aufrechterhalten. Diese Umgebung ist besonders wertvoll für Unternehmen, die eine sichere Zusammenarbeit und einen nahtlosen Zugriff auf das gesamte Leistungsspektrum von HAQM Bedrock benötigen und gleichzeitig die Sicherheits- und Compliance-Standards des Unternehmens einhalten müssen.
Wie lässt sich HAQM Bedrock in andere AWS-Services innerhalb von HAQM SageMaker Unified Studio integrieren, um Anwendungen mit generativer KI zu erstellen?
Die Funktionen von HAQM Bedrock sind jetzt in HAQM SageMaker Unified Studio allgemein verfügbar und bieten eine kontrollierte kollaborative Umgebung, die es Entwicklern ermöglicht, generative KI-Anwendungen schnell zu erstellen und anzupassen. Diese intuitive Schnittstelle richtet sich an Entwickler aller Qualifikationsstufen und bietet nahtlosen Zugriff auf die leistungsstarken Basismodelle (FMs) von HAQM Bedrock und die fortschrittlichen Anpassungstools für die kollaborative Entwicklung maßgeschneiderter generativer KI-Anwendungen.
Innerhalb von HAQM SageMaker Unified Studio lässt sich HAQM Bedrock nahtlos in die Analyse-, Machine Learning(ML)- und generative KI-Funktionen von HAQM SageMaker integrieren. Unternehmen können schneller vom Konzept zur Produktion übergehen, indem sie in HAQM Bedrock Prototypen entwickeln und mit ihnen experimentieren. Anschließend können sie problemlos auf JupyterLab Notebooks oder Code-Editoren umsteigen, um diese Ressourcen in umfassendere Anwendungen und Workflows zu integrieren. Dieser konsolidierte Arbeitsbereich optimiert die Komplexität und ermöglicht eine schnellere Prototypenerstellung, Iteration und Bereitstellung von produktionsbereiten, verantwortungsvollen generativen KI-Anwendungen, die auf spezifische Geschäftsanforderungen abgestimmt sind.
Gibt es Beschränkungen oder Kontingente für die Verwendung von HAQM Bedrock in SageMaker Unified Studio?
HAQM Bedrock innerhalb von SageMaker Unified Studio ist an die für die Plattform und die zugrundeliegenden HAQM-Bedrock-Ressourcen definierten Kontobeschränkungen und -kontingente gebunden, wie etwa Basismodelle (FMs), Wissensdatenbanken, Agenten, Flows und Integritätsschutz.
Wie sehen die Preis- und Abrechnungsmodelle für die Nutzung von HAQM Bedrock in SageMaker Unified Studio aus?
Der Zugriff auf HAQM Bedrock über SageMaker Unified Studio ist kostenlos und Benutzer zahlen nur für die Verwendung der zugrundeliegenden Ressourcen, die für die von ihnen erstellten Anwendungen mit generativer KI erforderlich sind. Kunden zahlen beispielsweise nur für das zugehörige Modell, den Integritätsschutz und die Wissensdatenbank, die sie für ihre generative KI-Anwendung verwendet haben. Weitere Informationen finden Sie auf der HAQM-Bedrock-Preisseite.
Welche Service Level Agreements (SLAs) gelten für HAQM Bedrock in SageMaker Unified Studio?
HAQM Bedrock innerhalb von SageMaker Unified Studio unterliegt denselben SLAs wie HAQM Bedrock. Weitere Informationen finden Sie auf der Seite HAQM Bedrock Service Level Agreement.
Welche Dokumentations- und Support-Ressourcen stehen für HAQM Bedrock in SageMaker Unified Studio zur Verfügung?
Um eine reibungslose Einführung in HAQM Bedrock in SageMaker Unified Studio zu ermöglichen, finden Sie eine ausführliche Dokumentation im Benutzerhandbuch. Wenn Sie weitere Fragen haben oder zusätzliche Unterstützung benötigen, wenden Sie sich bitte an Ihr AWS-Kundenteam.