Veröffentlicht am: Nov 26, 2023

HAQM Redshift verbessert Redshift ML zur Unterstützung großer Sprachmodelle (LLM). HAQM Redshift ML ermöglicht es Kunden, mit bekannten SQL-Befehlen Machine-Learning-Modelle zu erstellen, zu trainieren und bereitzustellen. Jetzt können Sie vortrainierte, öffentlich verfügbare LLMs in HAQM SageMaker JumpStart als Teil von Redshift ML nutzen, sodass Sie das Potenzial von LLMs für Analysen verwenden können. Sie können beispielsweise Rückschlüsse auf Ihre Produktfeedback-Daten in HAQM Redshift ziehen, LLMs verwenden, um Feedback zusammenzufassen und Entitätenextraktionen, Stimmungsanalysen und Produktfeedback-Klassifizierungen durchzuführen.

Um dieses Feature nutzen zu können, müssen Sie einen Endpunkt für ein LLM in HAQM SageMaker JumpStart erstellen. Sie können die sofort einsatzbereiten vordefinierten Modelle nutzen oder ein benutzerdefiniertes Modell in HAQM Sagemaker JumpStart mit Ihren eigenen Daten trainieren und dann den Modellendpunkt verwenden, um mithilfe von Redshift ML aus der Ferne Rückschlüsse auf Ihre Redshift-Daten zu ziehen. Um LLM-Inferenzen verwenden zu können, benötigen Sie den Eingabe- und Ausgabedatentyp SUPER. Für die Verwendung von LLMs mit HAQM Redshift ML fallen keine zusätzlichen Kosten an. Weitere Informationen finden Sie auf der Preisseite von HAQM SageMaker.

Die HAQM-Redshift-ML-Erweiterung für LLM-Unterstützung ist jetzt in den AWS-Regionen USA Ost (Nord-Virginia), USA West (Oregon), EU-West (Irland), USA Ost (Ohio), EU-Nord (Stockholm) und AP-Nordost (Tokio) als Vorschauversion verfügbar. Für den Einstieg und weitere Informationen besuchen Sie das Entwicklerhandbuch zu Datenbanken von HAQM Redshift.