Veröffentlicht am: Apr 30, 2024

HAQM Titan Text Embeddings V2, ein neues Embeddings-Modell in der HAQM-Titan-Modellfamilie, ist jetzt allgemein in HAQM Bedrock verfügbar. Mit Titan Text Embeddings V2 können Kunden verschiedene Aufgaben der natürlichen Sprachverarbeitung (NLP) ausführen, indem sie Textdaten als numerische Vektoren, so genannte Embeddings, darstellen. Diese Embeddings oder Einbettungen erfassen die semantischen und kontextuellen Beziehungen zwischen Wörtern, Phrasen oder Dokumenten in einem hochdimensionalen Vektorraum. Dieses Modell ist für Anwendungsfälle wie Retrieval-Augmented Generations (RAG) optimiert und eignet sich auch gut für eine Vielzahl anderer Aufgaben wie Informationsabfrage, F&A-Chatbots, Klassifizierung und personalisierte Empfehlungen.

HAQM Text Embeddings V2 ist ein schlankes, effizientes Modell, das sich ideal für hochgenaue Abfragen mit unterschiedlichen Dimensionen eignet. Das Modell unterstützt flexible Embedding-Größen (256, 512, 1.024) und priorisiert bei kleineren Dimensionen die Genauigkeit, wodurch die Speicherkosten gesenkt werden können, ohne Kompromisse dahingehend einzugehen. Bei der Reduzierung von 1.024 auf 512 Dimensionen erzielt Titan Text Embeddings V2 eine Abfragegenauigkeit von etwa 99 %. Bei einer Reduzierung von 1.024 auf 256 Dimensionen erreicht das Modell eine Genauigkeit von 97 %. Titan Text Embeddings V2 unterstützt mehr als 100 Sprachen für das Pre-Training sowie die Einheitsvektornormalisierung, um die Genauigkeit der Vektorähnlichkeitsbewertung zu verbessern. 

HAQM Titan Text Embeddings V2 ist in den AWS-Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar. Weitere Informationen finden Sie im Launch-Blog von AWS News, auf der Produktseite zu HAQM Titan und in der Dokumentation. Um mit Titan Text Embeddings V2 in HAQM Bedrock zu beginnen, besuchen Sie die HAQM-Bedrock-Konsole.