AWS Security Blog
Exploring the benefits of artificial intelligence while maintaining digital sovereignty
Around the world, organizations are evaluating and embracing artificial intelligence (AI) and machine learning (ML) to drive innovation and efficiency. From accelerating research and enhancing customer experiences to optimizing business processes, improving patient outcomes, and enriching public services, the transformative potential of AI is being realized across sectors. Although using emerging technologies helps drive positive outcomes, leaders worldwide must balance these benefits with the need to maintain security, compliance, and resilience. Many organizations, including those in the public sector and regulated industries, are investing in generative AI applications powered by large language models (LLMs) and other foundation models (FMs) because these applications can transform and scale their work and provide better experiences for customers. Beyond computing power, unlocking this AI potential resides in the AI applications that organizations can create based on a variety of AI/ML development services, models, and data sources. Organizations must navigate the complexity of building AI applications in light of existing and emerging regulatory regimes while verifying that their AI applications and related data are secure, protected, and resilient to risks and threats.
AWS offers a wide range of AI/ML services and capabilities, built on our sovereign-by-design foundation, that are making it simpler for our customers to meet their digital sovereignty needs while getting the security, control, compliance, and resilience that they need. For example, HAQM Bedrock is a fully managed service that offers a choice of high-performing FMs from leading AI companies such as AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, and Stability AI through a single API, along with a broad set of capabilities to build generative AI applications with security, privacy, and responsible AI. HAQM SageMaker provides tools and infrastructure to build, train, and deploy ML models at scale while supporting responsible AI with governance controls and access to pretrained models.
Innovating securely across the AI lifecycle
Security is and always has been our top priority at AWS. AWS customers benefit from our ongoing investment in data centers, networks, custom hardware, and secure software services, built to satisfy the requirements of the most security-sensitive organizations, including the government, healthcare, and financial services. We have always believed that it is essential that customers have control over their data and its location. That’s why we architected the AWS Cloud to be secure and sovereign-by-design from day one. We remain committed to giving our customers more control and choice so that they can use the full power of AWS while meeting their unique digital sovereignty needs.
As organizations develop and implement generative AI, they want to make sure that their data and applications are secured across the AI lifecycle, including data preparation, training, and inferencing. To help ensure the confidentiality and integrity of customer data, all of our Nitro-based HAQM Elastic Compute Cloud (HAQM EC2) instances that run ML accelerators such as AWS Inferentia and AWS Trainium, and graphics processing units (GPUs) such as P4, P5, G5, and G6, are backed by the industry-leading security capabilities of the AWS Nitro System. By design, there is no mechanism for anyone at AWS to access Nitro EC2 instances that customers use to run their workloads. The NCC Group, an independent cybersecurity firm, has validated the design of the Nitro System.
We take a secure approach to generative AI and make it practical for our customers to secure their generative AI workloads across the generative AI stack so that they can focus on building and scaling. All AWS services—including generative AI services—support encryption, and we continue to innovate and invest in controls and encryption features that allow our customers to encrypt everything everywhere.
For example, HAQM Bedrock uses encryption to protect data in transit and at rest, and data remains in the AWS Region where HAQM Bedrock is being used. Customer data, such as prompts, completions, custom models, and data used for fine-tuning or continued pre-training, is not used for HAQM Bedrock service improvement and is never shared with third-party model providers. When customers fine-tune a model in HAQM Bedrock, the data is never exposed to the public internet, never leaves the AWS network, is securely transferred through a customer’s virtual private cloud (VPC), and is encrypted in transit and at rest.
SageMaker protects ML model artifacts and other system artifacts by encrypting data in transit and at rest. HAQM Bedrock and SageMaker integrate with AWS Key Management Service (AWS KMS) so that customers can securely manage cryptographic keys. AWS KMS is designed so that no one—not even AWS employees—can retrieve plaintext keys from the service.
Developing responsibly
The responsible development and use of AI is a priority for AWS. We believe that AI should take a people-centric approach that makes AI safe, fair, secure, and robust. We are committed to supporting customers with responsible AI and helping them build fairer and more transparent AI applications to foster trust, meet regulatory requirements, and use AI to benefit their business and stakeholders. AWS is the first major cloud service provider to announce ISO/IEC 42001 accredited certification for AI services, covering HAQM Bedrock, HAQM Q Business, HAQM Textract, and HAQM Transcribe. ISO/IEC 42001 is an international management system standard that outlines requirements and controls for organizations to promote the responsible development and use of AI systems.
We take responsible AI from theory into practice by providing the necessary tools, guidance, and resources, including HAQM Bedrock Guardrails to help implement safeguards tailored to customer generative AI applications and aligned with their responsible AI policies, or Model Evaluation on HAQM Bedrock to evaluate, compare, and select the best FMs for specific use cases based on custom metrics, such as accuracy, robustness, and toxicity. Additionally, HAQM SageMaker Model Monitor automatically detects and alerts customers of inaccurate predictions from deployed models. We continue to publish AI Service Cards to enhance transparency by providing a single place to find information on the intended use cases and limitations, responsible AI design choices, and performance optimization best practices for our AI services and models.
Building resilience
Resilience plays a pivotal role in the development of any workload, and AI/ML workloads are no different. Customers need to know that their workloads in the cloud will continue to operate in the face of natural disasters, network disruptions, or disruptions due to geopolitical crises. AWS delivers the highest network availability of any cloud provider and is the only cloud provider to offer three or more Availability Zones (AZs) in all Regions, providing more redundancy. Understanding and prioritizing resilience is crucial for generative AI workloads to meet organizational availability and business continuity requirements. We have published guidance on designing generative AI workloads for resilience. To enable higher throughput and enhanced resilience during periods of peak demands in HAQM Bedrock, customers can use cross-region inference to distribute traffic across multiple Regions. For customers with specific European Union data sovereignty requirements, we are launching the AWS European Sovereign Cloud in 2025 to offer an additional layer of control and resilience.
Supporting choice and flexibility
It’s important that customers have access to diverse AI technologies, while having the freedom to choose the right solutions to meet their needs. AWS provides more diversity, choice, and flexibility so that customers can select the AI solution that best aligns with their specific requirements, whether that’s using open-source models, proprietary solutions, or their own custom AI models. For example, we understand the importance of open-source AI in fostering transparency, collaboration, and rapid innovation. Open-source models enable scrutiny of vulnerabilities, drive security improvements, and support research on AI safety. HAQM SageMaker JumpStart provides pretrained, open-source models for a wide range of common use cases. To provide practitioners and developers with the guidance and tools that they need to create secure-by-design AI systems, we are a founding member of the open-source initiative Coalition for Secure AI (CoSAI).
Also, our commitment to portability and interoperability helps ensure that customers can move easily between environments. For customers changing IT providers, we’ve taken concrete steps to lower costs, and AWS is actively engaged in efforts to facilitate switching between cloud providers, including through our support of the Cloud Infrastructure Service Providers in Europe (CISPE) Cloud Switching Framework, which lays out guidance to assist providers and customers in the switching process. This gives organizations the flexibility to adapt their cloud and AI strategies as their needs evolve.
We remain committed to providing customers with a choice of diverse AI technologies, along with secure and compliant ways to build their AI applications throughout the development lifecycle. Through this approach, customers can enhance the security, compliance, and resilience of their systems.
If you have feedback about this post, submit comments in the Comments section below. If you have questions about this post, contact AWS Support.
German version
Die Vorteile künstlicher Intelligenz unter Aufrechterhaltung der digitalen Souveränität
Weltweit evaluieren und nutzen Unternehmen künstliche Intelligenz (KI) und Machine Learning (ML), um Innovation und Effizienz voranzutreiben. Von der Beschleunigung der Forschung und der Verbesserung des Kundenerlebnisses bis hin zur Optimierung von Geschäftsprozessen, der Verbesserung von Patientenergebnissen und öffentlicher Dienstleistungen – das transformative Potenzial der KI wird branchenübergreifend genutzt. Obwohl der Einsatz neuer Technologien zu positiven Ergebnissen führt, müssen Führungskräfte auf der ganzen Welt diese Vorteile mit der Notwendigkeit abwägen, Sicherheit, Compliance und Resilienz aufrechtzuerhalten. Viele Unternehmen, auch die aus dem öffentlichen Sektor und regulierten Branchen, investieren in Anwendungen mit generativer KI, die auf großen Sprachmodellen (Large Language Models, LLMs) und anderen Basismodellen (Foundation Models, FMs) basieren, da diese Anwendungen ihre Arbeit transformieren und skalieren und Kunden ein besseres Erlebnis bieten können. Neben der Rechenleistung liegt die Erschließung dieses KI-Potenzials in den KI-Anwendungen, die Unternehmen auf der Grundlage einer Vielzahl von KI/ML-Entwicklungsservices, -Modellen und -Datenquellen erstellen können. Unternehmen müssen die Komplexität der Entwicklung von KI-Anwendungen im Lichte bestehender und neuer gesetzlicher Bestimmungen bewältigen und gleichzeitig sicherstellen, dass ihre KI-Anwendungen und die zugehörigen Daten sicher, geschützt und resilient gegen Risiken und Bedrohungen sind.
AWS bietet eine Vielzahl von KI/ML-Services und -Funktionen, die auf unserer Sovereign-by-Design-Grundlage fußen. Damit können Kunden den Anforderungen der digitalen Souveränität leichter gerecht werden und gleichzeitig die benötigte Sicherheit, Kontrolle, Compliance und Resilienz erhalten. HAQM Bedrock ist beispielsweise ein vollständig verwalteter Service, der über eine einzige API eine Auswahl an hochleistungsfähigen FMs von führenden KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI bietet. Darüber hinaus bietet er eine breite Palette an Funktionen, um Anwendungen mit generativer KI sicher, datenschutzkonform und verantwortungsvoll zu entwickeln. HAQM SageMaker bietet Tools und Infrastruktur zum Erstellen, Trainieren und Bereitstellen von ML-Modellen in großem Maßstab und unterstützt gleichzeitig verantwortungsvolle KI mit Governance-Kontrollen und Zugriff auf vortrainierte Modelle.
Sichere Innovationen im gesamten KI-Lebenszyklus
Sicherheit ist und war schon immer unsere oberste Priorität bei AWS. AWS-Kunden profitieren von unseren kontinuierlichen Investitionen in Rechenzentren, Netzwerke, benutzerdefinierte Hardware und sichere Softwareservices, die so konzipiert sind, dass sie auch die Anforderungen von Unternehmen mit den höchsten Sicherheitsanforderungen wie Behörden, Gesundheitswesen und Finanzdienstleister erfüllen. Wir waren schon immer der Meinung, dass es wichtig ist, dass Kunden die Kontrolle über ihre Daten und deren Standort haben. Aus diesem Grund haben wir die AWS Cloud so konzipiert, dass sie vom ersten Tag an sicher und Sovereign by Design ist. Wir sind weiterhin bestrebt, unseren Kunden mehr Kontrolle und Auswahl zu bieten, damit sie die volle Leistung von AWS nutzen und gleichzeitig den individuellen Anforderungen an die digitale Souveränität gerecht werden können.
Bei der Entwicklung und Implementierung generativer KI möchten Unternehmen sicherstellen, dass ihre Daten und Anwendungen während des gesamten KI-Lebenszyklus, einschließlich der Datenvorbereitung, des Trainings und der Inferenzierung, geschützt sind. Um die Vertraulichkeit und Integrität der Kundendaten zu gewährleisten, werden alle unsere Nitro-basierten Instances von HAQM Elastic Compute Cloud (HAQM EC2), auf denen ML-Accelerator wie AWS Inferentia und AWS Trainium sowie Grafikprozessoren (Graphics Processing Units, GPUs) wie P4, P5, G5 und G6 ausgeführt werden, durch die branchenführenden Sicherheitsfunktionen des AWS Nitro System unterstützt. Konstruktionsbedingt gibt es bei AWS für niemanden einen Mechanismus, um auf Nitro-EC2-Instances zuzugreifen, die Kunden zum Ausführen ihrer Workloads verwenden. Die NCC Group, ein unabhängiges Cybersicherheitsunternehmen, hat das Design des Nitro System validiert.
Wir verfolgen einen sicheren Ansatz für generative KI und machen es unseren Kunden einfach, ihre Workloads mit generativer KI im gesamten Stack generativer KI abzusichern, damit sie sich auf die Entwicklung und Skalierung konzentrieren können. Alle AWS-Services – einschließlich auf generativer KI basierender Services – unterstützen die Verschlüsselung. Wir arbeiten kontinuierlich an Innovationen und investieren in Kontrollen und Verschlüsselungsfunktionen, die es unseren Kunden ermöglichen, alles überall zu verschlüsseln.
HAQM Bedrock verwendet beispielsweise Verschlüsselung, um Daten während der Übertragung und im Ruhezustand zu schützen, und die Daten verbleiben in der AWS-Region, in der HAQM Bedrock verwendet wird. Kundendaten wie Prompts und benutzerdefinierte Modelle oder Daten, die für die Feinabstimmung oder das weitere Vortraining genutzt wurden, werden nicht zur Verbesserung des HAQM-Bedrock-Service verwendet und niemals an Drittanbieter von Modellen weitergegeben. Wenn Kunden ein Modell in HAQM Bedrock optimieren, werden die Daten niemals dem öffentlichen Internet zugänglich gemacht, verlassen niemals das AWS-Netzwerk, werden sicher über die Virtual Private Cloud (VPC) eines Kunden übertragen und bei der Übertragung und im Ruhezustand verschlüsselt.
SageMaker schützt ML-Modellartefakte und andere Systemartefakte, indem es Daten während der Übertragung und im Ruhezustand verschlüsselt. HAQM Bedrock und SageMaker sind in AWS Key Management Service (AWS KMS) integriert, sodass Kunden kryptografische Schlüssel sicher verwalten können. AWS KMS ist so konzipiert, dass niemand – nicht einmal ein AWS-Mitarbeiter – Klartext-Schlüssel aus dem Service abrufen kann.
Verantwortungsvolle Entwicklung
Die verantwortungsvolle Entwicklung und Verwendung von KI hat für AWS Priorität. Wir glauben, dass KI einen menschenorientierten Ansatz verfolgen sollte, der KI sicher, fair und robust macht. Wir setzen uns dafür ein, Kunden mit verantwortungsvoller KI zu unterstützen und ihnen dabei zu helfen, fairere und transparentere KI-Anwendungen zu entwickeln, um Vertrauen zu fördern, regulatorische Anforderungen zu erfüllen und KI zum Nutzen ihres Unternehmens und ihrer Stakeholder einzusetzen. AWS ist der erste große Cloud-Service-Anbieter, der die ISO/IEC 42001-akkreditierte Zertifizierung für KI-Services erreicht hat, die HAQM Bedrock, HAQM Q Business, HAQM Textract und HAQM Transcribe abdeckt. ISO/IEC 42001 ist ein internationaler Managementsystemstandard, der Anforderungen und Kontrollen für Unternehmen festlegt, um die verantwortungsvolle Entwicklung und Verwendung von KI-Systemen zu fördern.
Wir bringen verantwortungsvolle KI von der Theorie in die Praxis, indem wir die notwendigen Tools, Anleitungen und Ressourcen bereitstellen. Dazu gehören der HAQM-Bedrock-Guardrails, um Schutzmaßnahmen zu implementieren, die auf Kundenanwendungen mit generativer KI zugeschnitten und auf deren Richtlinien für verantwortungsvolle KI abgestimmt sind, oder die Modellbewertung in HAQM Bedrock, um die besten FMs für bestimmte Anwendungsfälle auf der Grundlage benutzerdefinierter Metriken wie Genauigkeit, Robustheit und Toxizität zu bewerten, zu vergleichen und auszuwählen. Darüber hinaus erkennt HAQM SageMaker Model Monitor automatisch ungenaue Vorhersagen von eingesetzten Modellen und warnt Kunden davor. Wir veröffentlichen weiterhin AI Service Cards zur Verbesserung der Transparenz, indem sie einen zentralen Ort bieten, an dem Informationen zu beabsichtigten Anwendungsfällen und Einschränkungen, Designentscheidungen für verantwortungsvolle KI und bewährten Methoden zur Leistungsoptimierung für unsere KI-Services und -Modelle gefunden werden können.
Aufbau von Resilienz
Resilienz spielt bei der Entwicklung jedes Workloads eine entscheidende Rolle, und KI/ML-Workloads sind da keine Ausnahme. Kunden müssen wissen, dass ihre Workloads in der Cloud auch angesichts von Naturkatastrophen, Netzwerkunterbrechungen oder Störungen aufgrund geopolitischer Krisen weiterhin funktionieren werden. AWS bietet die höchste Netzwerkverfügbarkeit aller Cloud-Anbieter und ist der einzige Cloud-Anbieter, der drei oder mehr Availability Zones (AZs) in allen Regionen anbietet, was für mehr Redundanz sorgt. Das Verständnis und die Priorisierung von Resilienz sind für Workloads mit generativer KI von entscheidender Bedeutung, um Anforderungen von Unternehmen an Verfügbarkeit und Betriebskontinuität zu erfüllen. Wir haben einen Leitfaden veröffentlicht, in dem es um die Gestaltung von Workloads mit generativer KI für Resilienz geht. Um in HAQM Bedrock einen höheren Durchsatz und eine verbesserte Resilienz in Zeiten hoher Nachfrage zu ermöglichen, können Kunden regionsübergreifende Inferenz verwenden, um den Datenverkehr auf mehrere Regionen zu verteilen. Für Kunden mit spezifischen Anforderungen an die Datensouveränität der Europäischen Union führen wir die AWS European Sovereign Cloud in 2025 ein, um eine zusätzliche Ebene der Kontrolle und Resilienz zu bieten.
Unterstützung von Auswahl und Flexibilität
Es ist wichtig, dass Kunden Zugang zu verschiedenen KI-Technologien und gleichzeitig die Freiheit haben, die richtigen Lösungen für ihre Anforderungen zu wählen. AWS bietet mehr Vielfalt, Auswahl und Flexibilität, sodass Kunden die KI-Lösung auswählen können, die ihren spezifischen Anforderungen am besten entspricht, unabhängig davon, ob es sich dabei um Open-Source-Modelle, proprietäre Lösungen oder ihre eigenen benutzerdefinierten KI-Modelle handelt. Wir wissen zum Beispiel, wie wichtig Open-Source-KI für die Förderung von Transparenz, Zusammenarbeit und schneller Innovation ist. Open-Source-Modelle ermöglichen die Untersuchung von Schwachstellen, treiben Sicherheitsverbesserungen voran und unterstützen die Erforschung der KI-Sicherheit. HAQM SageMaker JumpStart bietet vortrainierte Open-Source-Modelle für eine Vielzahl gängiger Anwendungsfälle. Um Anwendern und Entwicklern die Anleitungen und Tools zur Verfügung zu stellen, die sie benötigen, um von Grund auf sichere KI-Systeme zu entwickeln, sind wir Gründungsmitglied der Open-Source-Initiative Coalition for Secure AI (CoSAI).
Darüber hinaus trägt unser Engagement für Portabilität und Interoperabilität dazu bei, dass Kunden problemlos zwischen Umgebungen wechseln können. Für Kunden, die ihren IT-Anbieter wechseln, haben wir konkrete Schritte zur Kostensenkung unternommen, und AWS bemüht sich aktiv, den Wechsel zwischen Cloud-Anbietern zu erleichtern. Dies erfolgt unter anderem durch unsere Unterstützung des Cloud Switching Framework der Anbieter von Cloud-Infrastrukturdiensten in Europa (Cloud Infrastructure Services Providers in Europe, CISPE), das Leitlinien zur Unterstützung von Anbietern und Kunden beim Wechselprozess enthält. Dies gibt Unternehmen die Flexibilität, ihre Cloud- und KI-Strategien an sich ändernde Anforderungen anzupassen.
Wir sind weiterhin bestrebt, unseren Kunden eine Auswahl an verschiedenen KI-Technologien sowie sichere und konforme Möglichkeiten zur Entwicklung ihrer KI-Anwendungen während des gesamten Entwicklungszyklus zu bieten. Durch diesen Ansatz können Kunden die Sicherheit, Compliance und Resilienz ihrer Systeme verbessern.
Wenn Sie Feedback zu diesem Beitrag abgeben möchten, übermitteln Sie Ihre Anmerkungen im Abschnitt Kommentare unten. Wenn Sie Fragen zu diesem Beitrag haben, wenden Sie sich an den AWS Support.
French version
Explorer les avantages de l’intelligence artificielle tout en préservant la souveraineté numérique
Dans le monde entier, les organisations évaluent et adoptent l’intelligence artificielle (IA) et le machine learning (ML) afin de stimuler l’innovation et la productivité. Qu’il s’agisse d’accélérer la recherche, d’améliorer l’expérience client, d’optimiser les processus commerciaux, d’améliorer les résultats pour les patients ou d’enrichir les services publics, le potentiel de transformation de l’IA se traduit dans tous les secteurs. Bien que l’utilisation de technologies émergentes contribue à obtenir des résultats positifs, les dirigeants du monde entier doivent équilibrer ces avantages avec la nécessité de maintenir la sécurité, la conformité et la résilience. De nombreuses organisations, y compris celles du secteur public et des secteurs réglementés, investissent dans des applications d’IA générative alimentées par de grands modèles de langage (LLM) et d’autres modèles de fondation (FM), car ces applications peuvent transformer et mettre à l’échelle leur travail, en plus d’offrir de meilleures expériences aux clients. Au-delà de la puissance de calcul, l’exploitation du potentiel de l’IA réside dans les applications d’IA que les organisations peuvent à partir d’une variété de services de développement, de modèles et de sources de données d’IA/ML. Les organisations doivent gérer la complexité de créer des applications IA au vu des régimes réglementaires existants et émergents et de vérifier que leurs applications IA et les données associées sont sécurisées, protégées et résilientes aux risques et aux menaces.
AWS propose une large gamme de services et de fonctionnalités d’IA/ML, reposant sur notre base de souveraineté dès la conception, qui permettent à nos clients de répondre plus facilement à leurs besoins en matière de souveraineté numérique tout en bénéficiant de la sécurité, du contrôle, de la conformité et de la résilience dont ils ont besoin. Par exemple, HAQM Bedrock est un service entièrement géré qui propose un choix de FM performants issus de grandes sociétés d’IA telles que AI21 Labs, Anthropic, Cohere, Meta, Mistral AI et Stability AI via une API unique, ainsi qu’un large éventail de fonctionnalités pour créer des applications d’IA générative en alliant sécurité, confidentialité et IA responsable. HAQM SageMaker fournit des outils et une infrastructure pour créer, entraîner et déployer des modèles de machine learning à grande échelle, tout en soutenant une IA responsable grâce à des contrôles de gouvernance et à l’accès à des modèles préentraînés.
Innovation en toute sécurité tout au long du cycle de vie de l’IA
La sécurité est et a toujours été la priorité absolue d’AWS. Les clients AWS bénéficient de nos investissements continus dans les centres de données, les réseaux, le matériel personnalisé et les services logiciels sécurisés, conçus pour répondre aux exigences des organisations les plus sensibles en matière de sécurité, notamment les services gouvernementaux, de santé et financiers. Nous avons toujours pensé qu’il était essentiel que les clients contrôlent leurs données ainsi que leur localisation. C’est pourquoi nous avons conçu le Cloud AWS de manière à ce qu’il soit sécurisé et souverain dès sa conception et ce depuis le premier jour. Nous sommes déterminés à offrir plus de contrôle et de choix à nos clients afin qu’ils puissent utiliser toute la puissance d’AWS tout en répondant à leurs besoins uniques en matière de souveraineté numérique.
Lorsque les organisations développent et mettent en œuvre une IA générative, elles veulent s’assurer que leurs données et leurs applications soient sécurisées tout au long du cycle de vie de l’IA, y compris pendant la phase de préparation, d’entraînement et de l’inférence des données. Pour garantir la confidentialité et l’intégrité des données client, toutes nos instances HAQM Elastic Compute Cloud (HAQM EC2) basées sur Nitro qui exécutent des accélérateurs de ML tels qu’AWS Inferentia et AWS Trainium et des unités de traitement graphique (GPU) telles que P4, P5, G5 et G6, sont soutenues par les fonctionnalités de sécurité de pointe d’AWS Nitro System. Sa conception ne comprend aucun mécanisme permettant à quiconque au sein d’AWS d’accéder aux instances Nitro EC2 que les clients utilisent pour exécuter leurs charges de travail. NCC Group, une société de cybersécurité indépendante, a validé la conception du système Nitro.
Nous adoptons une approche sécurisée de l’IA générative et faisons en sorte qu’il soit pratique pour nos clients de sécuriser leurs charges de travail d’IA générative sur l’ensemble de la pile d’IA générative afin qu’ils puissent se concentrer sur la création et la mise à l’échelle. Tous les services AWS, y compris les services d’IA générative, prennent en charge le chiffrement et nous continuons à innover et à investir dans des contrôles et des fonctionnalités de chiffrement qui permettent à nos clients de tout chiffrer, où qu’ils se trouvent.
Par exemple, HAQM Bedrock utilise le chiffrement pour protéger les données en transit et au repos, et celles-ci restent dans la région AWS où HAQM Bedrock est utilisé. Les données client, telles que les invites, les réponses, les modèles personnalisés et les données utilisées pour l’optimisation ou la phase de préentraînement, ne sont pas utilisées pour améliorer le service HAQM Bedrock et ne sont jamais partagées avec des fournisseurs de modèles tiers. Lorsque les clients optimisent un modèle dans HAQM Bedrock, les données ne sont jamais exposées à l’Internet public, elles ne quittent jamais le réseau AWS, elles sont transférées en toute sécurité via le cloud privé virtuel (VPN) du client et elles sont chiffrées en transit et au repos.
SageMaker protège les artefacts du modèle de ML et les autres artefacts du système en chiffrant les données en transit et au repos. HAQM Bedrock et SageMaker s’intègrent à AWS Key Management Service (AWS KMS) afin que les clients puissent gérer leurs clés cryptographiques en toute sécurité. AWS KMS est conçu de telle façon que personne, pas même les employés AWS, ne puisse récupérer les clés en texte brut dans le service.
Développement responsable
Le développement et l’utilisation responsables de l’IA constituent une priorité pour AWS. Nous pensons que l’IA doit adopter une approche centrée sur l’humain qui la rend sûre, équitable, sécurisée et robuste. Nous nous engageons à soutenir nos clients grâce à une IA responsable et à les aider à créer des applications IA plus équitables et plus transparentes pour plus de confiance, mieux répondre aux exigences réglementaires et utiliser l’IA au profit de leur entreprise et de leurs parties prenantes. AWS est le premier fournisseur majeur de services cloud à annoncer une certification accréditée ISO/IEC 42001 pour les services d’IA, couvrant HAQM Bedrock, HAQM Q Business, HAQM Textract et HAQM Transcribe. ISO/IEC 42001 est une norme internationale de systèmes de gestion qui définit les exigences et les contrôles destinés aux organisations afin de promouvoir le développement et l’utilisation responsables des systèmes d’IA.
Nous faisons passer l’IA responsable de la théorie à la pratique en fournissant les outils, les conseils et les ressources nécessaires, notamment les Barrières de protection HAQM Bedrock pour aider à mettre en œuvre des barrières de protection adaptées aux applications d’IA générative des clients et conformes à leurs politiques d’IA responsable, ou encore une évaluation des modèles sur HAQM Bedrock pour évaluer, comparer et sélectionner les meilleurs FM pour des cas d’utilisation spécifiques en fonction de métriques personnalisées, telles que la précision, la robustesse et la toxicité. En outre, HAQM SageMaker Model Monitor détecte et alerte automatiquement les clients en cas de prévisions inexactes issues des modèles déployés. Nous continuons à publier des cartes de service d’IA pour améliorer la transparence en fournissant un lieu unique où trouver des informations sur les cas d’utilisation et les limites prévus, les choix de conception en matière d’IA responsable et les meilleures pratiques d’optimisation des performances pour nos services et modèles d’IA.
Renforcement de la résilience
La résilience joue un rôle central dans le développement de toute charge de travail et les charges de travail d’IA/de ML n’y font pas exception. Les clients ont besoin de savoir que leurs charges de travail dans le cloud continueront à fonctionner malgré les catastrophes naturelles, les perturbations du réseau et celles dues à des crises géopolitiques. AWS offre la disponibilité réseau la plus élevée de tous les fournisseurs de cloud et est le seul fournisseur de cloud à proposer au moins trois zones de disponibilité (AZ) dans toutes les régions, pour une meilleure redondance. Il est essentiel de comprendre et de prioriser la résilience pour que les charges de travail d’IA générative répondent aux exigences de disponibilité et de continuité des activités de l’organisation. Nous avons publié des conseils sur la conception de charges de travail d’IA générative pour la résilience. Pour augmenter le débit et améliorer la résilience pendant les périodes de forte demande dans HAQM Bedrock, les clients peuvent utiliser l’inférence interrégionale afin de répartir le trafic entre plusieurs régions. Pour les clients ayant des exigences spécifiques en matière de souveraineté des données au sein de l’Union européenne, nous lançons le cloud souverain européen AWS en 2025 pour une couche supplémentaire de contrôle et de résilience.
Choix et flexibilité
Il est important que les clients aient accès à plusieurs technologies IA, tout en étant libres de choisir les solutions adaptées à leurs besoins. AWS offre plus de diversité, de choix et de flexibilité afin que les clients puissent sélectionner la solution IA qui correspond le mieux à leurs besoins, qu’il s’agisse d’utiliser des modèles open source, des solutions propriétaires ou leurs propres modèles d’IA personnalisés. Nous comprenons par exemple l’importance de l’IA open source pour favoriser la transparence, la collaboration et l’innovation rapide. Les modèles open source permettent d’examiner les vulnérabilités, d’améliorer la sécurité et de soutenir la recherche sur la sécurité de l’IA. HAQM SageMaker JumpStart fournit des modèles open source préentraînés pour un large éventail de cas d’utilisation courants. Afin de fournir aux praticiens et aux développeurs les conseils et les outils dont ils ont besoin pour créer des systèmes d’IA sécurisés dès la conception, nous sommes membre fondateur de l’initiative open source Coalition for Secure AI (CoSAI).
Notre engagement envers la portabilité et l’interopérabilité permet à nos clients de passer facilement d’un environnement à l’autre. Pour les clients qui changent de fournisseur IT, nous avons pris des mesures concrètes afin de réduire les coûts. AWS s’engage activement afin de faciliter le changement de fournisseur cloud, notamment en soutenant le cadre de commutation cloud CISPE (Cloud Infrastructure Service Providers in Europe), qui donne des conseils pour aider les fournisseurs et les clients au cours du processus de changement. Les entreprises ont ainsi la flexibilité nécessaire pour adapter leurs stratégies de cloud et d’IA à l’évolution de leurs besoins.
Nous restons déterminés à fournir à nos clients un choix de technologies d’IA variées, ainsi que des moyens sécurisés et conformes de créer leurs applications d’IA tout au long du cycle de développement. C’est grâce à cette approche que les clients peuvent améliorer la sécurité, la conformité et la résilience de leurs systèmes.
Si vous avez des commentaires sur cet article, envoyez-les via la section Commentaires ci-dessous. Si vous avez des questions concernant cet article, contactez AWS Support.