Einführung

Im Grunde ist Machine Learning (ML) darauf ausgelegt, digitale Tools und Services bereitzustellen, um aus Daten zu lernen, Muster zu erkennen, Prognosen zu treffen und dann auf diese Prognosen zu reagieren. Fast alle Systeme der künstlichen Intelligenz (KI) werden heutzutage mit ML erstellt. ML verwendet große Datenmengen, um Entscheidungslogik zu erstellen und zu validieren. Diese Entscheidungslogik bildet die Grundlage des KI-„Modells“.

Eine schnell wachsende Untergruppe des Machine Learning ist die generative KI, die von großen Modellen unterstützt wird, die auf einer großen Datenmenge vorab trainiert werden – allgemein als Grundlagenmodelle (FMs) bezeichnet. Zu den auf generativer KI basierenden AWS-Services gehören:

  • HAQM Bedrock (bietet Ihnen die Möglichkeit, generative KI-basierte Anwendungen mithilfe von FMs zu erstellen und zu skalieren)
  • HAQM CodeWhisperer (ein KI-Codierungsbegleiter, der Codevorschläge in Echtzeit basierend auf Ihren Kommentaren in natürlicher Sprache und jedem vorherigen Code in Ihrer integrierten Entwicklungsumgebung generiert)

Dieser Entscheidungsleitfaden hilft Ihnen, die richtigen Fragen zu stellen, Ihre Kriterien und Ihr Geschäftsproblem auszuwerten und festzustellen, welche Services am besten zu Ihren Anforderungen passen.

In weniger als zwei Minuten erklärt Dr. Werner Vogels, CTO von HAQM, wie generative KI funktioniert und wie Sie sie einsetzen können. Dieses Video ist Teil eines längeren Gesprächs zwischen Dr. Vogels und Swami Sivasubramanian, AWS-Vizepräsident für Datenbank, Analytik und ML, über die umfassende Landschaft der generativen KI, warum diese kein Hype ist und wie AWS den Zugriff auf große Sprach- und Grundlagenmodelle demokratisiert.

Zeit zum Lesen

25 Minuten

Zweck

Bei der Entscheidung zu helfen, welche AWS ML-Services am besten für Ihre Anforderungen geeignet sind.

Stufe

Einsteiger

Letzte Aktualisierung

26. Juli 2023

Verständnis

Da Unternehmen weiterhin KI- und ML-Technologien einsetzen, kann die Bedeutung der Kenntnis und Auswahl von AWS-ML-Services nicht genug hervorgehoben werden.
 
AWS bietet eine Reihe von ML-Services, die Unternehmen dabei helfen, ML-Modelle schneller und einfacher zu erstellen, zu trainieren und bereitzustellen. Diese Services können zur Lösung einer Vielzahl von Geschäftsproblemen eingesetzt werden, z. B. zur Vorhersage der Kundenabwanderung, zur Betrugserkennung sowie zur Bild- und Spracherkennung.
AWS betrachtet ML als eine Reihe von Technologieebenen, die aufeinander aufbauen.
 
Die oberste Ebene besteht aus KI-Services. Hier bettet AWS ML in verschiedene Anwendungsfälle ein, beispielsweise Personalisierung, Prognose, Anomalieerkennung und Sprachtranskription.
 
Die mittlere Ebene besteht aus AWS-ML-Services, einschließlich HAQM SageMaker, und Deep-Learning-Technologien (DL). Hier baut AWS seine ML-Infrastruktur auf, sodass Sie sich ganz auf die differenzierte Arbeit der Entwicklung von ML-Modellen konzentrieren können.
 
Die untere Ebene besteht aus generativen KI-Services. Generative KI kann neue Inhalte erstellen, darunter Konversationen, Geschichten, Bilder, Videos und Musik. Wie jede KI basiert auch die generative KI auf ML-Modellen – sehr großen Modellen, die auf der Grundlage riesiger Datenmengen vorab trainiert werden und allgemein als Grundlagenmodelle bezeichnet werden.

Darüber hinaus bietet AWS die folgende spezialisierte, beschleunigte Hardware für leistungsstarkes ML-Training und Inferenz.
 
  • HAQM-EC2-P4d-Instances sind mit NVIDIA A100-Tensor-Kern-GPUs ausgestattet, die sich sowohl für Trainings- als auch für Inferenzaufgaben im Machine Learning gut eignen. AWS Trainium ist der ML-Beschleuniger der zweiten Generation, den AWS speziell für das DL-Training von über 100 Milliarden Parametermodellen entwickelt hat.
  • AWS-Inferentia2-basierte HAQM-EC2-Inf2-Instances sind so konzipiert, dass sie in HAQM EC2 hohe Leistung zu niedrigsten Kosten für Ihre DL-Inferenz- und generative KI-Anwendungen liefern.

Überlegungen

Bei der Lösung eines Geschäftsproblems mit AWS-ML-Services kann die Berücksichtigung mehrerer wichtiger Kriterien zum Erfolg beitragen. Im folgenden Abschnitt finden Sie einige der wichtigsten Kriterien, die Sie bei der Auswahl eines ML-Services berücksichtigen sollten.

  • Der erste Schritt im ML-Lebenszyklus besteht darin, das Geschäftsproblem zu formulieren. Um den richtigen AWS-ML-Service auszuwählen, ist es wichtig, das Problem zu verstehen, das Sie zu lösen versuchen, da verschiedene Services für unterschiedliche Probleme konzipiert sind. Es ist auch wichtig, festzustellen, ob ML die beste Lösung für Ihr Geschäftsproblem ist.

    Sobald Sie festgestellt haben, dass ML am besten geeignet ist, können Sie zunächst aus einer Reihe speziell entwickelter AWS-KI-Services auswählen (in Bereichen wie Sprache, Vision und Dokumente).

    HAQM SageMaker bietet eine vollständig verwaltete Infrastruktur, wenn Sie Ihre eigenen Modelle erstellen und trainieren müssen. AWS bietet eine Reihe von fortschrittlichen ML-Frameworks und Infrastrukturoptionen für die Fälle, in denen Sie hoch individuelle und spezialisierte ML-Modelle benötigen. AWS bietet außerdem eine große Auswahl an beliebten Grundlagenmodellen für die Entwicklung neuer Anwendungen mit generativer KI.

  • Die Auswahl des ML-Algorithmus für das Geschäftsproblem, das Sie zu lösen versuchen, hängt von der Art der Daten ab, mit denen Sie arbeiten, sowie von den gewünschten Ergebnissen. In den folgenden Informationen wird erläutert, wie jede der wichtigsten AWS-KI/ML-Servicekategorien Sie in die Lage versetzt, mit ihren Algorithmen zu arbeiten:

    • Spezialisierte KI-Services: Diese Services bieten nur begrenzte Möglichkeiten zur Anpassung des ML-Algorithmus, da es sich um vorab trainierte Modelle handelt, die für bestimmte Aufgaben optimiert sind. Normalerweise können Sie die Eingabedaten und einige Parameter anpassen, haben jedoch keinen Zugriff auf die zugrunde liegenden ML-Modelle oder die Möglichkeit, eigene Modelle zu erstellen.
    • HAQM SageMaker: Dieser Service bietet die größte Flexibilität und Kontrolle über den ML-Algorithmus. Sie können SageMaker verwenden, um benutzerdefinierte Modelle mit Ihren eigenen Algorithmen und Frameworks zu erstellen oder vorgefertigte Modelle und Algorithmen von AWS verwenden. Dies ermöglicht ein hohes Maß an Anpassung und Kontrolle über den ML-Prozess.
    • ML-Frameworks und -Infrastruktur der unteren Ebene: Diese Services bieten die größte Flexibilität und Kontrolle über den ML-Algorithmus. Sie können diese Services verwenden, um hoch individuelle ML-Modelle mithilfe ihrer eigenen Algorithmen und Frameworks zu entwickeln. Die Nutzung dieser Services erfordert jedoch erhebliche ML-Kenntnisse und ist möglicherweise nicht für jeden Anwendungsfall durchführbar.
  • Wenn Sie einen privaten Endpunkt in Ihrer VPC benötigen, variieren Ihre Optionen abhängig von der Ebene der AWS-ML-Services, die Sie verwenden. Dazu gehören:

    • Spezialisierte KI-Services: Die meisten spezialisierten KI-Services unterstützen derzeit keine privaten Endpunkte in VPCs. Auf HAQM Rekognition Custom Labels und HAQM Comprehend Custom kann jedoch über VPC-Endpunkte zugegriffen werden.
    • Kern-KI-Services: HAQM Translate, HAQM Transcribe und HAQM Comprehend unterstützen alle VPC-Endpunkte.
    • HAQM SageMaker: SageMaker bietet integrierte Unterstützung für VPC-Endpunkte und ermöglicht Ihnen die Bereitstellung der trainierten Modelle als Endpunkt, auf den nur von der VPC aus zugegriffen werden kann.
    • ML-Frameworks und -Infrastruktur der unteren Ebene: Sie können Ihre Modelle in HAQM-EC2-Instances oder in Container innerhalb Ihrer VPC bereitstellen und haben so die vollständige Kontrolle über die Netzwerkkonfiguration.
  • KI-Services der oberen Ebene, wie HAQM Rekognition und HAQM Transcribe, sind für eine Vielzahl von Anwendungsfällen konzipiert und bieten eine hohe Leistung in Bezug auf die Geschwindigkeit. Allerdings erfüllen sie möglicherweise bestimmte Latenzanforderungen nicht.

    Wenn Sie ML-Frameworks und -Infrastrukturen der niedrigeren Ebene verwenden, empfehlen wir die Nutzung von HAQM SageMaker. Aufgrund des vollständig verwalteten Services und der optimierten Bereitstellungsoptionen ist diese Option im Allgemeinen schneller als die Erstellung benutzerdefinierter Modelle. Ein hochoptimiertes benutzerdefiniertes Modell kann zwar die Leistung von SageMaker übertreffen, erfordert jedoch viel Fachwissen und Ressourcen, um es zu erstellen.

  • Die Genauigkeit der AWS-ML-Services hängt vom jeweiligen Anwendungsfall und dem Grad der erforderlichen Anpassung ab. KI-Services der höheren Ebene, wie HAQM Rekognition basieren auf vorab trainierten Modellen, die für bestimmte Aufgaben optimiert wurden und in vielen Anwendungsfällen eine hohe Genauigkeit bieten.

    In einigen Fällen können Sie HAQM SageMaker verwenden, das eine flexiblere und anpassbarere Plattform zum Erstellen und Trainieren benutzerdefinierter ML-Modelle bietet. Durch das Entwickeln Ihrer eigenen Modelle können Sie möglicherweise eine noch höhere Genauigkeit erzielen, als dies mit vorab trainierten Modellen möglich ist.

    Sie können sich auch für die Verwendung von ML-Frameworks und -Infrastrukturen wie TensorFlow und Apache MXNet entscheiden, um hoch individuelle Modelle zu erstellen, die die höchstmögliche Genauigkeit für Ihren spezifischen Anwendungsfall bieten.

  • AWS entwickelt in jeder Phase seines Entwicklungsprozesses Grundlagenmodelle (FMs) mit Blick auf eine verantwortungsvolle KI. Während des gesamten Entwurfs, der Entwicklung, des Einsatzes und des Betriebs berücksichtigen wir eine Reihe von Faktoren, darunter:

    1. Genauigkeit (wie gut eine Zusammenfassung mit dem zugrunde liegenden Dokument übereinstimmt, ob eine Biografie sachlich korrekt ist)
    2. Fairness (ob die Ergebnisse demografische Gruppen ähnlich behandeln)
    3. Überlegungen zum geistigen Eigentum und zum Urheberrecht
    4. Angemessene Nutzung (Herausfiltern von Benutzeranfragen nach Rechtsberatung, medizinischen Diagnosen oder illegalen Aktivitäten)
    5. Toxizität (Hassreden, Obszönitäten und Beleidigungen)
    6. Datenschutz (Schutz personenbezogener Daten und Kundenanfragen)

    AWS integriert Lösungen, um diese Probleme in den Prozessen zur Erfassung von Trainingsdaten, in den FMs selbst und in der Technologie zur Vorverarbeitung von Benutzereingaben und Nachbearbeitung von Ausgaben zu bewältigen.

Auswahl

Nachdem Sie nun die Kriterien kennen, die Sie zur Bewertung Ihrer Speicheroptionen verwenden sollten, können Sie auswählen, welche AWS-Speicherservices für Ihre Geschäftsanforderungen geeignet sind.

Die folgende Tabelle zeigt, welche Speicheroptionen für welche Umstände optimiert sind. Verwenden Sie sie, um die Lösung zu ermitteln, die am besten zu Ihrem Anwendungsfall passt.

KI/ML-Services und unterstützende Technologien
Wann würden Sie es verwenden?
Wofür ist es optimiert?
Schließen

HAQM Comprehend

Mit HAQM Comprehend können Sie Aufgaben zur Verarbeitung natürlicher Sprache, wie Stimmungsanalyse, Entitätserkennung, Themenmodellierung und Spracherkennung, mit Ihren Textdaten durchführen.

Schließen

HAQM Lex

HAQM Lex unterstützt Sie bei der Entwicklung von Chatbots und Sprachassistenten, die über eine Benutzeroberfläche in natürlicher Sprache mit Benutzern interagieren können. Es bietet vorgefertigte Dialogmanagement-, Sprachverständnis- und Spracherkennungsfunktionen.

Schließen

HAQM Polly

Verwenden Sie HAQM Polly, um Text in lebensechte Sprache umzuwandeln und so die Erstellung sprachgesteuerter Anwendungen und Services zu vereinfachen.

Schließen

HAQM Rekognition

Mit HAQM Rekognition können Sie Ihren Anwendungen Bild- und Videoanalysen hinzufügen. Sie stellen der HAQM-Rekognition-API ein Bild oder Video zur Verfügung und der Service kann Objekte, Personen, Text, Szenen und Aktivitäten identifizieren. Er kann auch unangemessene Inhalte erkennen.

Schließen

HAQM Textract

Mit HAQM Textract können Sie Text und Daten aus gescannten Dokumenten, Formularen und Tabellen extrahieren und so die Speicherung, Analyse und Verwaltung dieser Daten vereinfachen.

Schließen

HAQM Transcribe

Mit HAQM Transcribe können Kunden Audio- und Videoaufnahmen automatisch in Text transkribieren. Dies kann im Vergleich zur manuellen Transkription Zeit und Aufwand sparen.

Schließen

HAQM Translate

Verwenden Sie diesen Service, um Texte in Echtzeit von einer Sprache in eine andere zu übersetzen. Dies ist besonders hilfreich, wenn Ihr Unternehmen in mehreren Ländern tätig ist oder mit Nicht-Muttersprachlern kommunizieren muss.

Verwenden Sie die wichtigsten KI-Services von AWS, wenn Sie spezifische, vorgefertigte Funktionen in Ihre Anwendungen integrieren möchten, ohne dass umfangreiche Anpassungen oder Fachwissen im Bereich Machine Learning erforderlich sind.
Optimiert für eine einfache Bedienung und erfordert nicht viel Codierungs-, Konfiguration- oder ML-Kenntnisse.
Schließen

HAQM Bedrock

HAQM Bedrock ist ein vollständig verwalteter Service, der Grundlagenmodelle von führenden KI-Startups und HAQM über eine API zur Verfügung stellt. So können Sie aus einer Vielzahl von Grundlagenmodellen auswählen, um das für Sie am besten geeignete Modell zu finden.

Verwenden Sie HAQM Bedrock, um über eine API Zugriff auf Grundlagenmodelle von führenden KI-Startups und HAQM zu erhalten.
Optimiert für Flexibilität – Sie können aus einer Reihe von FMs auswählen, um das beste Modell für Ihre Anforderungen zu finden.
Schließen

HAQM CodeWhisperer

HAQM CodeWhisperer ist ein Echtzeit-KI-Codierungsbegleiter, der bei der Erstellung von Code für routinemäßige oder zeitaufwändige, undifferenzierte Aufgaben, der Arbeit mit unbekannten APIs oder SDKs, der korrekten und effektiven Nutzung von AWS-APIs und anderen gängigen Codierungsszenarien wie dem Lesen und Schreiben von Dateien, der Image-Verarbeitung und dem Schreiben von Einheitstests hilft.

Verwenden Sie HAQM CodeWhisperer, wenn Sie ML-gestützte Code-Empfehlungen in Echtzeit benötigen.
Optimiert, um Ihnen in Echtzeit nützliche Vorschläge basierend auf Ihrem vorhandenen Code und Ihren Kommentaren bereitzustellen.
Schließen

SageMaker Autopilot

HAQM SageMaker Autopilot wurde entwickelt, um den Aufwand beim Erstellen von ML-Modellen zu reduzieren. Sie stellen einfach einen Tabellendatensatz bereit und wählen die Zielspalte aus, die vorhergesagt werden soll. SageMaker Autopilot wird automatisch verschiedene Lösungen untersuchen, um das beste Modell zu finden. Sie können dann das Modell mit nur einem Klick direkt in die Produktion übernehmen oder die empfohlenen Lösungen iterativ bearbeiten, um die Modellqualität weiter zu verbessern.

Schließen

SageMaker Canvas

HAQM SageMaker Canvas bietet Ihnen die Möglichkeit, Machine Learning zu nutzen, um Vorhersagen zu generieren, ohne Code schreiben zu müssen.

Schließen

SageMaker Data Wrangler

HAQM SageMaker Data Wrangler reduziert den Zeitaufwand für das Aggregieren und Aufbereiten von Tabellen- und Image-Daten für ML. Mit SageMaker Data Wrangler können Sie den Prozess der Datenaufbereitung und des Feature Engineering vereinfachen und jeden Schritt des Datenvorbereitungs-Workflows (einschließlich Datenauswahl, Bereinigung, Erkundung, Visualisierung und Verarbeitung in großem Maßstab) von einer einzigen visuellen Oberfläche aus abschließen. 

Schließen

SageMaker Ground Truth

SageMaker Ground Truth ist ein verwalteter Service zur Kennzeichnung von Daten zum Trainieren und Verbessern von Machine-Learning-Modellen. Es bietet eine äußerst genaue und effiziente Möglichkeit, große Datensätze durch die Verwendung einer Kombination aus menschlichen Annotatoren und Algorithmen für Machine Learning zu kennzeichnen. SageMaker Ground Truth unterstützt eine Vielzahl von Datentypen, darunter Text, Bild, Video und Audio, und lässt sich nahtlos mit anderen SageMaker Services für umfassende Machine-Learning-Workflows integrieren.

Schließen

SageMaker JumpStart

SageMaker JumpStart stellt vorab trainierte Open-Source-Modelle für eine Vielzahl von Problemtypen bereit, um Ihnen den Einstieg in Machine Learning zu erleichtern. Sie können diese Modelle vor der Bereitstellung schrittweise trainieren und optimieren. JumpStart bietet außerdem Lösungsvorlagen zum Einrichten der Infrastruktur für häufige Anwendungsfälle sowie ausführbare Beispiel-Notebooks für Machine Learning mit SageMaker.

Schließen

SageMaker Pipelines

Mit HAQM SageMaker Pipelines können Sie ML-Workflows mit einem Python SDK erstellen und Ihren Workflow anschließend mit HAQM SageMaker Studio visualisieren und verwalten. Mit HAQM SageMaker Pipelines können Sie die von Ihnen in SageMaker Pipelines erstellten Workflow-Schritte speichern und wiederverwenden.

Schließen

SageMaker Studio

Eine vollständig integrierte Entwicklungsumgebung (IDE), die es Entwicklern ermöglicht, Machine-Learning-Modelle in großem Maßstab zu entwickeln, zu trainieren und bereitzustellen. Es bietet eine einzige webbasierte Benutzeroberfläche zur Verwaltung des gesamten Lebenszyklus von Machine Learning, von der Datenaufbereitung und dem Modelltraining bis hin zur Bereitstellung und Überwachung. SageMaker Studio unterstützt außerdem beliebte Tools wie Jupyter Notebooks, Git und TensorFlow und bietet eine Reihe vorgefertigter Algorithmen für gängige Anwendungsfälle.

Schließen

SageMaker Studio Lab

HAQM SageMaker Studio Lab ist eine cloudbasierte IDE zum Erlernen und Experimentieren mit Machine Learning mithilfe von vorgefertigten Jupyter-Notebooks. Es enthält eine Reihe vorgefertigter Notebooks zu Themen wie Bilderkennung, Verarbeitung natürlicher Sprache und Erkennung von Anomalien.

Verwenden Sie diese Services, wenn Sie individuellere Machine-Learning-Modelle oder Workflows benötigen, die über die vorgefertigten Funktionalitäten der wichtigsten KI-Services hinausgehen.
Optimiert für das Entwickeln und Trainieren von benutzerdefinierten Machine-Learning-Modellen, umfangreiches Training auf mehreren Instances oder GPU-Clustern, mehr Kontrolle über das Bereitstellen von Machine-Learning-Modellen, Echtzeit-Inferenz und für das Erstellen durchgängiger Workflows.
Schließen

Apache MxNet

Apache MXNet ist ein Open-Source-Framework für Deep Learning, das mehrere Programmiersprachen unterstützt, darunter Python, Scala und R. Der Service ist für seine Skalierbarkeit und Geschwindigkeit bekannt und bietet eine Reihe von High-Level-APIs zum Entwickeln und Trainieren neuronaler Netzwerke sowie Low-Level-APIs für fortgeschrittene Benutzer.

Schließen

Hugging Face in HAQM SageMaker

Hugging Face auf HAQM SageMaker ist eine Open-Source-Bibliothek für die natürliche Sprachverarbeitung (NLP), die eine breite Palette vorab trainierter Modelle und Tools für die Arbeit mit Textdaten bereitstellt. Es ist für seine Benutzerfreundlichkeit und hohe Leistung bekannt und wird häufig für Aufgaben wie Textklassifizierung, Stimmungsanalyse und Sprachübersetzung verwendet.

Schließen

Pytorch in AWS

PyTorch in AWS ist ein Open-Source-Framework für Machine Learning, das dynamische Berechnungsgraphen und automatische Differenzierung zum Entwickeln und Trainieren neuronaler Netzwerke bietet. PyTorch ist für seine Benutzerfreundlichkeit und Flexibilität bekannt und verfügt über eine große und aktive Entwicklergemeinschaft, die zu seiner Entwicklung beiträgt.

Schließen

TensorFlow in AWS

TensorFlow ist ein von Google entwickeltes Open-Source-Framework für Machine Learning, das häufig für die Entwicklung und das Training neuronaler Netzwerke verwendet wird. Es ist für seine Skalierbarkeit, Geschwindigkeit und Flexibilität bekannt und unterstützt eine Reihe von Programmiersprachen, darunter Python, C++ und Java. TensorFlow bietet eine große Auswahl an vorgefertigten Modellen und Tools für die Image- und Textverarbeitung sowie Low-Level-APIs für fortgeschrittene Benutzer, die eine größere Kontrolle über ihre Modelle benötigen.

Nutzen Sie die von AWS bereitgestellten ML-Frameworks und -Infrastruktur, wenn Sie noch mehr Flexibilität und Kontrolle über Ihre Machine-Learning-Workflows benötigen und bereit sind, die zugrunde liegende Infrastruktur und Ressourcen selbst zu verwalten.
Optimiert für die Bereitstellung spezifischer benutzerdefinierter Hardwarekonfigurationen, Zugriff auf Deep-Learning-Frameworks, die SageMaker nicht bietet, mehr Kontrolle über Ihre Datenspeicherung und -verarbeitung sowie benutzerdefinierte Algorithmen und Modelle.
Schließen

AWS Inferentia und AWS Inferentia2

Der AWS-Inferentia-Beschleuniger der ersten Generation treibt HAQM Elastic Compute Cloud (HAQM EC2)-Inf1-Instances an, die einen bis zu 2,3-fach höheren Durchsatz und bis zu 70 % niedrigere Kosten pro Inferenz als vergleichbare HAQM-EC2-Instances bieten. Der AWS-Inferentia2-Beschleuniger verbessert die erste Generation von AWS Inferentia. Inferentia2 bietet im Vergleich zu Inferentia einen bis zu viermal höheren Durchsatz und eine bis zu zehnmal geringere Latenz.

Schließen

AWS Trainium

AWS Trainium ist der Beschleuniger für Machine Learning (ML) der zweiten Generation, den AWS speziell für Deep-Learning-Trainings von über 100 Milliarden Parametermodellen entwickelt hat. Jede HAQM Elastic Compute Cloud (EC2) Trn1-Instance stellt bis zu 16 AWS-Trainium-Beschleuniger für die Nutzung von Deep Learning (DL)-Training in der Cloud bereit.

Verwenden Sie beschleunigte Hardware, wenn Sie die niedrigsten Kosten für das Training von Modellen erzielen möchten und Inferenz in der Cloud ausführen müssen.
Optimiert für die Unterstützung der kostengünstigen Bereitstellung von Grundlagenmodellen in großem Maßstab.

Verwendung

Sie sollten nun ein klares Verständnis der Kriterien haben, die Sie bei der Auswahl eines AWS-ML-Service benötigen. Sie können nun auswählen, welche AWS-KI/ML-Service(s) für Ihre Geschäftsanforderungen optimiert sind.

Um herauszufinden, wie Sie den/die von Ihnen ausgewählten Service(s) verwenden und mehr darüber erfahren können, haben wir drei Pfade bereitgestellt, auf denen Sie die Funktionsweise der einzelnen Services erkunden können. Die erste Reihe von Pfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in HAQM Comprehend, HAQM Textract, HAQM Translate, HAQM Lex, HAQM Polly, HAQM Rekognition und HAQM Transcribe.

  • HAQM Comprehend
  • Erste Schritte mit HAQM Comprehend

    Verwenden Sie die HAQM-Comprehend Konsole, um einen asynchronen Auftrag zur Erkennung von Entitäten zu erstellen und auszuführen.

    Erste Schritte mit dem Tutorial »

    Erkenntnisanalyse in Texten mit HAQM Comprehend

    Lernen Sie, wie Sie HAQM Comprehend verwenden, um Texte zu analysieren und Erkenntnisse daraus abzuleiten.  

    Erste Schritte mit dem Tutorial »

    HAQM Comprehend – Preise


    Informieren Sie sich über die Preisgestaltung und den Beispielen von HAQM Comprehend.

    Leitfaden erkunden »

  • HAQM Textract
  • Erste Schritte mit HAQM Textract

    Erfahren Sie, wie HAQM Textract mit formatiertem Text verwendet werden kann, um nahe beieinander liegende Wörter und Wortzeilen zu erkennen und ein Dokument auf Elemente wie verwandten Text, Tabellen, Schlüssel-Wert-Paare und Auswahlelemente zu analysieren.

    Leitfaden erkunden »

    Extrahieren von Text und strukturierte Daten mit HAQM Textract

    Erfahren Sie, wie Sie mit HAQM Textract Text und strukturierte Daten aus einem Dokument extrahieren.




    Erste Schritte mit dem Tutorial »

    AWS Power Hour: Machine Learning

    Tauchen Sie in dieser Folge in HAQM Textract ein, verbringen Sie Zeit in der AWS-Managementkonsole und sehen Sie sich Codebeispiele an, die Ihnen helfen zu verstehen, wie Sie Service-APIs optimal nutzen.


    Video ansehen »

  • HAQM Translate
  • Erste Schritte mit HAQM Translate mithilfe der Konsole

    Der einfachste Einstieg in HAQM Translate besteht darin, die Konsole zum Übersetzen von Texten zu verwenden. Erfahren Sie, wie Sie mit der Konsole bis zu 10 000 Zeichen übersetzen.

    Leitfaden erkunden »

    Übersetzen von Texten in der Cloud

    In diesem Tutorial-Beispiel müssen Sie als Teil eines internationalen Gepäckherstellers verstehen, was Kunden in Bewertungen in der lokalen Marktsprache Französisch über Ihr Produkt sagen.  

    Erste Schritte mit dem Tutorial »

    HAQM Translate – Preise


    Erkunden Sie die Preisgestaltung von HAQM Translate, einschließlich der kostenlosen Version, die 2 Millionen Zeichen pro Monat für 12 Monate anbietet.


    Leitfaden erkunden »

    Beschleunigung mehrsprachiger Workflows mit einer anpassbaren Übersetzungslösung

    Erfahren Sie, wie Sie mithilfe von HAQM Translate und anderen AWS-Services eine einheitliche Übersetzungslösung mit Anpassungsfunktionen erstellen.

    Blog lesen »

  • HAQM Lex
  • HAQM-Lex-V2-Entwicklerhandbuch


    Informieren Sie sich über den Einstieg, die Funktionsweise und Preisinformationen für HAQM Lex V2.


    Leitfaden erkunden »

    Einführung in HAQM Lex


    Wir stellen Ihnen den Konversationsservice HAQM Lex vor und zeigen Ihnen anhand von Beispielen, wie Sie einen Bot erstellen und ihn für verschiedene Chat-Services bereitstellen.

    Am Kurs teilnehmen » (Anmeldung erforderlich)

    Erkundung der generativen KI in Konversationserlebnissen

    Erkunden Sie den Einsatz generativer KI in Konversationserlebnissen.


    Blog lesen »

  • HAQM Polly
  • Was ist HAQM Polly?



    Verschaffen Sie sich einen vollständigen Überblick über den Cloud Service, der Text in lebensechte Sprache umwandelt und mithilfe dessen Sie Anwendungen entwickeln können, um Ihre Kundenbindung und Zugänglichkeit zu verbessern.

    Leitfaden erkunden »

    Hervorheben von Text während er gesprochen wird mithilfe von HAQM Polly


    Wir stellen Ihnen Ansätze zum Hervorheben von Text während des Sprechens vor, um Audio in Büchern, Websites, Blogs und anderen digitalen Erlebnissen visuelle Funktionen zu verleihen.

    Blog lesen »

    Erstellung von Audio für Inhalte in mehreren Sprachen mit der gleichen TTS-Stimmenpersona in HAQM Polly

    Wir erklären Neuronale Text-to-Speech (NTTS) und erörtern, wie ein breites Portfolio an verfügbaren Stimmen, das eine Reihe von unterschiedlichen Sprechern in unterstützten Sprachen bereitstellt, für Sie arbeiten kann.

    Blog lesen »

  • HAQM Rekognition
  • Was ist HAQM Rekognition?



    Erfahren Sie, wie Sie diesen Service nutzen können, um Bild- und Videoanalysen zu Ihren Anwendungen hinzuzufügen.  

    Leitfaden erkunden »

    Praxisnahe Rekognition: Automatisierte Bild- und Videoanalyse

    Erfahren Sie, wie die Gesichtserkennung beim Streaming von Videos funktioniert, zusammen mit Codebeispielen und wichtigen Punkten in einem selbstgesteuerten Tempo.  

    Erste Schritte mit dem Tutorial »

    HAQM Rekognition – Häufig gestellte Fragen



    Lernen Sie die Grundlagen von HAQM Rekognition kennen und erfahren Sie, wie Sie damit Ihr Deep Learning verbessern und Ihre Anwendungen visuell analysieren können.

    Häufig gestellte Fragen lesen »

  • HAQM Transcribe
  • Transcribe

    Was ist HAQM Transcribe?


    Erkunden Sie den automatischen Spracherkennungsservice von AWS, der mithilfe von ML Audio in Text umwandelt. Erfahren Sie, wie Sie diesen Service als eigenständige Transkription nutzen oder einer beliebigen Anwendung die Sprach-zu-Text-Funktion hinzufügen können

    Leitfaden erkunden »

    HAQM Transcribe – Preise


    Wir stellen Ihnen die AWS-Transkription mit nutzungsbasierter Bezahlung vor, einschließlich benutzerdefinierter Sprachmodelloptionen und dem kostenlosen Kontingent von HAQM Transcribe.


    Leitfaden erkunden »

    Audio-Transkript mit HAQM Transcribe erstellen

    Erfahren Sie, wie Sie mit HAQM Transcribe ein Texttranskript aufgezeichneter Audiodateien erstellen und dabei ein reales Anwendungsszenario zum Testen anhand Ihrer Anforderungen verwenden.

    Erste Schritte mit dem Tutorial »

    Erstellen einer HAQM-Transcribe-Streaming-App

    Erfahren Sie, wie Sie eine App zum Aufzeichnen, Transkribieren und Übersetzen von Live-Audio in Echtzeit erstellen und die Ergebnisse direkt per E-Mail erhalten.

    Leitfaden erkunden »

Die zweite Reihe von KI/ML-AWS-Servicepfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in die Services der HAQM-SageMaker-Familie.

  • SageMaker
  • Funktionsweise von HAQM SageMaker

    Verschaffen Sie sich einen Überblick über Machine Learning und die Funktionsweise von SageMaker.

    Leitfaden erkunden »

    Erste Schritte mit HAQM SageMaker

    Erfahren Sie, wie Sie einer HAQM-SageMaker-Domain beitreten und so Zugriff auf HAQM SageMaker Studio und RStudio auf SageMaker erhalten. 

    Leitfaden erkunden »

    Verwendung von Apache Spark mit HAQM SageMaker

    Erfahren Sie, wie Sie Apache Spark für die Vorverarbeitung von Daten und SageMaker für Modelltraining und Hosting verwenden. 

    Leitfaden erkunden »

    Verwendung von Docker-Container zur Entwicklung von Modellen

    Erfahren Sie, wie HAQM SageMaker im großem Umfang Docker-Container für Entwicklungs- und Laufzeitaufgaben einsetzt. Erfahren Sie, wie Sie vorgefertigte Docker-Images für die integrierten Algorithmen und die unterstützten Deep-Learning-Frameworks für Training und Inferenz bereitstellen.

    Leitfaden erkunden »
     

    Frameworks und Sprachen für Machine Learning

    Erfahren Sie, wie Sie mithilfe des HAQM SageMaker Python SDK mit SageMaker arbeiten können.



    Leitfaden erkunden »

  • SageMaker Autopilot
  • Erstellen eines HAQM-SageMaker-Autopilot-Experiment für tabellarische Daten

    Erfahren Sie, wie Sie ein HAQM-SageMaker-Autopilot-Experiment erstellen, um verschiedene Modellkandidaten in einem tabellarischen Datensatz zu untersuchen, vorverarbeiten und zu trainieren.

    Leitfaden erkunden »

    Automatisches Erstellen von Machine-Learning-Modellen


    Erfahren Sie, wie Sie mit HAQM SageMaker Autopilot automatisch ein ML-Modell erstellen, trainieren und optimieren und das Modell bereitstellen, um Prognosen zu generieren.

    Erste Schritte mit dem Tutorial »

    Modellierung mit HAQM SageMaker Autopilot anhand dieser Beispiel-Notebooks erkunden

    Entdecken Sie Beispiel-Notebooks für Direktmarketing, Vorhersage der Kundenabwanderung und wie Sie Ihren eigenen Datenverarbeitungscode in HAQM SageMaker Autopilot integrieren.

    Leitfaden erkunden »

  • SageMaker Canvas
  • Erste Schritte mit HAQM SageMaker Canvas


    Erfahren Sie, wie Sie mit der Verwendung von SageMaker Canvas beginnen.

    Leitfaden erkunden »

    Generieren von Machine-Learning-Prognosen ohne Codierung

    Dieses Tutorial erklärt, wie Sie HAQM SageMaker Canvas verwenden, um ML-Modelle zu entwickeln und genaue Prognosen zu generieren, ohne eine einzige Codezeile zu schreiben.

    Erste Schritte mit dem Tutorial »

    Vertiefung in SageMaker Canvas


    Lernen Sie SageMaker Canvas und seine visuellen, codierungsfreien ML-Funktionen näher kennen.

    Blog lesen »

    Verwendung von HAQM SageMaker Canvas zur Erstellung Ihres ersten ML-Modells

    Erfahren Sie, wie Sie mit HAQM SageMaker Canvas ein ML-Modell zur Bewertung der Kundenbindung basierend auf einer E-Mail-Kampagne für neue Produkte und Services erstellen.

    Erste Schritte mit der Übung »

  • SageMaker Data Wrangler
  • Erste Schritte mit HAQM SageMaker Data Wrangler

    Erfahren Sie, wie Sie SageMaker Data Wrangler einrichten und anschließend anhand eines vorhandenen Beispieldatensatzes eine exemplarische Vorgehensweise bereitstellen.


    Leitfaden erkunden »

    Trainingsdaten für Machine Learning mit minimalem Code vorbereiten

    Erfahren Sie, wie Sie mit HAQM SageMaker Data Wrangler Daten für ML vorbereiten.



    Erste Schritte mit dem Tutorial »

    Intensiv-Workshop zu SageMaker Data Wrangler

    Erfahren Sie, wie Sie geeignete Analysetypen auf Ihren Datensatz anwenden, um Anomalien und Probleme zu erkennen, die abgeleiteten Ergebnisse/Einblicke zur Formulierung von Abhilfemaßnahmen im Zuge von Transformationen Ihres Datensatzes verwenden. Außerdem können Sie mithilfe der von SageMaker Data Wrangler bereitgestellten Optionen zur Schnellmodellierung die richtige Auswahl und Reihenfolge von Transformationen testen.

    Erste Schritte mit dem Workshop »

  • SageMaker Ground Truth/Ground Truth Plus
  • Erste Schritte mit HAQM Groud Truth

    Erfahren Sie, wie Sie mit der Konsole einen Kennzeichnungsauftrag erstellen, öffentliche oder private Mitarbeiter zuweisen und den Kennzeichnungsauftrag an Ihre Mitarbeiter übermitteln. Erfahren Sie, wie Sie den Fortschritt eines Auftrags zur Kennzeichnung überwachen.

    Leitfaden erkunden »

    Beschriftung von Trainingsdaten für Machine Learning

    Erfahren Sie, wie Sie einen Auftrag zur Kennzeichnung in HAQM SageMaker Ground Truth einrichten können, um Trainingsdaten für Ihr ML-Modell mit Anmerkungen zu versehen.

    Erste Schritte mit dem Tutorial »

    Erste Schritte mit HAQM Ground Truth Plus

    Erfahren Sie, wie Sie die notwendigen Schritte durchführen, um ein Projekt von HAQM SageMaker Ground Truth Plus zu starten, Kennzeichnungen anzuzeigen und die Voraussetzungen für SageMaker Ground Truth Plus zu erfüllen.  

    Leitfaden erkunden »

    Erste Schritte mit HAQM Ground Truth

    Sehen Sie sich an, wie Sie innerhalb weniger Minuten mit der Kennzeichnung Ihrer Daten über die SageMaker-Ground-Truth-Konsole beginnen können.

    Video ansehen »

    HAQM SageMaker Ground Truth Plus – Trainingsdatensätze ohne Code oder interne Ressourcen erstellen

    Erfahren Sie mehr über Ground Truth Plus, einen schlüsselfertigen Service, der mithilfe von Expertenteams schnell hochwertige Trainingsdatensätze liefert und die Kosten um bis zu 40 Prozent senkt.

    Blog lesen »

  • SageMaker JumpStart
  • Erste Schritte mit Machine Learning mit SageMaker JumpStart

    Erkunden Sie die Lösungsvorlagen für SageMaker JumpStart, die eine Infrastruktur für gängige Anwendungsfälle einrichten, sowie ausführbare Beispiel-Notebooks für Machine Learning mit SageMaker.

    Leitfaden erkunden »

    Schneller Einstieg in Ihrem Machine-Learning-Projekt mit HAQM SageMaker JumpStart

    Erfahren Sie, wie Sie Ihr ML-Projekt mithilfe vorab trainierter Modelle und vorgefertigter Lösungen von HAQM SageMaker JumpStart beschleunigen können. Anschließend können Sie das ausgewählte Modell über HAQM-SageMaker-Studio-Notebooks bereitstellen.

    Erste Schritte mit dem Tutorial »

    Erhalten Sie praktische Erfahrungen mit HAQM SageMaker JumpStart in diesem Vertiefungs-Workshop

    Erfahren Sie, wie die Low-Code-ML-Funktionen von HAQM SageMaker Data Wrangler, Autopilot und Jumpstart es einfacher machen, schneller zu experimentieren und hochpräzise Modelle in die Produktion zu bringen.

    Erste Schritte mit dem Workshop »

  • SageMaker Pipelines
  • Erste Schritte mit HAQM SageMaker Pipelines


    Erfahren Sie, wie Sie durchgängige Workflows erstellen, die SageMaker-Aufträge verwalten und bereitstellen. SageMaker Pipelines verfügt über eine SageMaker-Python-SDK-Integration, sodass Sie jeden Schritt Ihrer Pipeline mithilfe einer Python-basierten Schnittstelle erstellen können.

    Leitfaden erkunden »

    Machine-Learning-Workflows automatisieren


    Erfahren Sie, wie Sie mithilfe von HAQM SageMaker Pipelines, HAQM SageMaker Model Registry und HAQM SageMaker Clarify durchgängige Workflows für Machine Learning (ML) erstellen und automatisieren.

    Erste Schritte mit dem Tutorial »

    So erstellen Sie vollautomatisierte ML-Workflows mit HAQM SageMaker Pipelines

    Erfahren Sie mehr über HAQM SageMaker Pipelines, den weltweit ersten ML CI/CD Service, der für jeden Entwickler und Datenwissenschaftler zugänglich ist. SageMaker Pipelines bringt CI/CD-Pipelines in ML und reduziert so die erforderliche Codierungszeit.

    Video ansehen »

  • SageMaker Studio
  • Erstellen und Trainieren eines Machine-Learning-Modells vor Ort

    Erfahren Sie, wie Sie ein ML-Modell vor Ort in Ihrem HAQM-SageMaker-Studio-Notebook entwickeln und trainieren.

    Erste Schritte mit dem Tutorial »

    Integration von SageMaker Studio mit EMR-Workshop

    Erfahren Sie, wie Sie die verteilte Verarbeitung in großem Maßstab nutzen können, um Daten aufzubereiten und anschließend Machine-Learning-Modelle zu trainieren.  

    Erste Schritte mit dem Workshop »

Die dritte Reihe von KI/ML-AWS-Servicepfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in HAQM Bedrock, HAQM CodeWhisperer, AWS Trainium, AWS Inferentia und HAQM Titan.

  • HAQM Bedrock
  • Überblick über HAQM Bedrock

    Erfahren Sie, wie HAQM Bedrock Grundlagenmodelle von führenden KI-Startups und HAQM über eine API zur Verfügung stellt. Auf diese Weise können Sie aus einer großen Auswahl an FMs das Modell auswählen, das für Ihren Anwendungsfall am besten geeignet ist.  

    Leitfaden erkunden »

    Ankündigen von neuen Tools für die Entwicklung mit generativer KI in AWS

    Erfahren Sie mehr über die Hintergründe der Entwicklung von HAQM Bedrock, wie es in den breiteren AWS-Ansatz für KI und ML passt – und verschaffen Sie sich einen Überblick über die möglichen Nutzungen generativer AWS-Services für KI.

    Blog lesen »

    Generative KI entmystifizieren

    In diesem Video diskutieren Dr. Werner Vogels, HAQM CTO, und Swami Sivasubramanian, AWS VP of database, analytics, and ML, über die breite Landschaft der generativen KI, warum diese kein Hype ist und wie AWS den Zugriff auf große Sprach- und Grundlagenmodelle demokratisiert.

    Video ansehen »

  • HAQM CodeWhisperer
  • Was ist HAQM CodeWhisperer?

    Machen Sie sich ein Bild davon, wie CodeWhisperer Sie bei der Erstellung von Code für routinemäßige oder zeitaufwändige, undifferenzierte Aufgaben, bei der Arbeit mit unbekannten APIs oder SDKs, bei der korrekten und effektiven Nutzung von AWS-APIs und bei anderen gängigen Codierungsszenarien wie dem Lesen und Schreiben von Dateien, der Image-Verarbeitung und dem Schreiben von Einheitstests unterstützen soll.

    Leitfaden erkunden »

    Erste Schritte mit HAQM CodeWhisperer

    Erfahren Sie, wie Sie CodeWhisperer für die Verwendung mit jeder der vier möglichen IDEs einrichten: AWS Toolkit für JetBrains, AWS Toolkit für Visual Studio Code, Lambda und AWS Cloud9.

    Leitfaden erkunden »

    HAQM-CodeWhisperer-Workshop

    Erfahren Sie, wie Sie eine vollwertige, ereignisgesteuerte, Serverless-Anwendung zur Bilderkennung erstellen. Mithilfe von HAQM CodeWhisperer schreiben Sie Ihren eigenen Code, der auf AWS Lambda ausgeführt wird, um mit HAQM Rekognition, HAQM DynamoDB, HAQM SNS, HAQM SQS, HAQM S3 und HTTP-APIs von Drittanbietern zu interagieren und eine Bilderkennung durchzuführen.

    Erste Schritte mit dem Workshop »

  • AWS Trainium
  • Skalierung verteilter Trainings mit AWS Trainium und HAQM EKS

    Erfahren Sie, wie Sie von der allgemeinen Verfügbarkeit von HAQM-EC2-Trn1-Instances, die von AWS Trainium unterstützt wird, profitieren können – einem speziell entwickelten ML-Beschleuniger, der optimiert wurde, um eine leistungsstarke, kostengünstige und stark skalierbare Plattform für das Training von Deep-Learning-Modellen in der Cloud bereitzustellen.  

    Blog lesen »

    Überblick über AWS Trainium

    Erfahren Sie mehr über AWS Trainium, den Machine Learning (ML)-Beschleuniger der zweiten Generation, den AWS speziell für das Deep-Learning-Training von Modellen mit mehr als 100 Milliarden Parametern entwickelt hat. Jede HAQM Elastic Compute Cloud (EC2)-Trn1-Instance stellt bis zu 16 AWS-Trainium-Beschleuniger bereit, um eine leistungsstarke und kostengünstige Lösung für Deep-Learning-Training (DL) in der Cloud bereitzustellen.

    Leitfaden erkunden »

    Empfohlene Trainium-Instances

    Erfahren Sie, wie AWS-Trainium-Instances konzipiert wurden, um hohe Leistung und Kosteneffizienz für Deep-Learning-Modellinferenz-Workloads bereitzustellen.



    Leitfaden erkunden »

  • AWS Inferentia
  • Überblick über AWS Inferentia

    Erfahren Sie, wie Beschleuniger von AWS entwickelt werden, um für Ihre Deep Learning (DL)-Inferenzanwendungen hohe Leistung zu niedrigsten Kosten zu liefern.  

    Leitfaden erkunden »

    AWS Inferentia2 basiert auf AWS Inferentia1 auf und bietet einen viermal höheren Durchsatz und eine zehnmal geringere Latenz

    Finden Sie heraus, wofür AWS Inferentia2 optimiert ist – und erfahren Sie, wie es von Grund auf so konzipiert wurde, dass es eine höhere Leistung bietet und gleichzeitig die Kosten für LLMs und generative KI-Inferenz senkt.

    Blog lesen »

    Machine-Learning-Inferenz mithilfe von AWS Inferentia

    Erfahren Sie, wie Sie einen HAQM-EKS-Cluster mit Knoten erstellen, auf denen HAQM-EC2-Inf1-Instances ausgeführt werden, und (optional) eine Beispielanwendung bereitstellen. HAQM-EC2-Inf1-Instances werden von AWS-Inferentia-Chips unterstützt, die von AWS speziell entwickelt wurden, um hohe Leistung und niedrigste Kosten für Inferenzen in der Cloud bereitzustellen.

    Leitfaden erkunden »

  • HAQM Titan
  • Überblick über HAQM Titan

    Erfahren Sie, wie HAQM Titan FMs anhand großer Datensätze vorab trainiert werden, was sie zu leistungsstarken Allzweckmodellen macht. Erfahren Sie, wie Sie sie unverändert oder privat verwenden können, um sie mit Ihren eigenen Daten für eine bestimmte Aufgabe anzupassen, ohne große Datenmengen mit Anmerkungen zu versehen.

    Leitfaden erkunden »

Erkunden

Architekturdiagramme

Diese Referenz-Architekturdiagramme zeigen Beispiele für genutzte AWS-KI- und ML-Services.

Architekturdiagramme erkunden »

Whitepaper

Lesen Sie Whitepapers, die Ihnen den Einstieg erleichtern und lernen Sie bewährte Methoden bei der Auswahl und Nutzung von KI/ML-Services kennen.

Whitepapers erkunden »

AWS-Lösungen

Erkunden Sie geprüfte Lösungen und Architekturleitfäden für gängige Anwendungsfälle für KI- und ML-Services.

Lösungen erkunden »

War diese Seite hilfreich?