Escolha os serviços, as estruturas e os modelos de base de IA e de ML mais adequados para apoiar seu trabalho
Introdução
Basicamente, o machine learning (ML) foi criado para fornecer ferramentas e serviços digitais para aprender com os dados, identificar padrões, fazer previsões e, em seguida, agir de acordo com essas previsões. Quase todos os sistemas de inteligência artificial (IA) atuais são criados usando ML. O ML usa grandes quantidades de dados para criar e validar a lógica de decisão. Essa lógica de decisão forma a base do “modelo” de IA.
Um subconjunto de machine learning em rápido crescimento é a IA generativa, que é alimentada por grandes modelos pré-treinados em um vasto conjunto de dados, comumente chamados de modelos de base (FMs). Os serviços da AWS baseados em IA generativa incluem:
- HAQM Bedrock (que fornece uma maneira de você criar e escalar aplicações baseadas em IA generativa usando FMs)
- HAQM CodeWhisperer (um companheiro de programação de IA que gera sugestões de código em tempo real com base em seus comentários em linguagem natural e em qualquer código anterior em seu ambiente de desenvolvimento integrado)
Este guia de decisão ajudará você a fazer as perguntas certas, avaliar seus critérios e problemas comerciais e determinar quais serviços são mais adequados às suas necessidades.
Em menos de dois minutos, o Dr. Werner Vogels, CTO da HAQM, explica como a IA generativa funciona e como você pode usá-la. Este vídeo é parte de uma discussão mais longa entre o Dr. Vogels e Swami Sivasubramanian, vice-presidente de banco de dados, análise e machine learning da AWS, falam sobre o amplo cenário da IA generativa, por que não é exagero e como a AWS está democratizando o acesso a grandes modelos de linguagem e base.
Hora de ler
25 minutos
Objetivo
Ajude a determinar quais serviços de ML da AWS são mais adequados às suas necessidades.
Nível
Iniciante
Data da última atualização
26 de julho de 2023
Serviços cobertos
Mais guias de decisão sobre
Entender
Além disso, a AWS oferece o seguinte hardware especializado e acelerado para treinamento e inferência de ML de alto desempenho.
- As instâncias P4d do HAQM EC2 são equipadas com GPUs NVIDIA A100 Tensor Core, que são adequadas para tarefas de treinamento e inferência em machine learning. O AWS Trainium é o acelerador de machine ML de segunda geração que a AWS criou especificamente para treinamento de aprendizado profundo de mais de 100 bilhões de modelos de parâmetros.
- As instâncias Inf2 do HAQM EC2 baseadas no AWS Inferentia2 foram criadas para oferecer alto desempenho com o menor custo no HAQM EC2 para sua inferência de DL e aplicações de IA generativa.
Considerar
Ao resolver um problema de negócios com os serviços de ML da AWS, a consideração de vários critérios-chave pode ajudar a garantir o sucesso. A seção a seguir descreve alguns dos principais critérios a serem considerados ao escolher um serviço de ML.
-
Definição do problema
-
Algoritmo de ML
-
Segurança
-
Latência
-
Precisão
-
AWS e IA responsável
-
A primeira etapa do ciclo de vida do ML é enquadrar o problema comercial. Entender o problema que você está tentando resolver é essencial para escolher o serviço de ML da AWS adequado, pois serviços diferentes são projetados para resolver problemas diferentes. Também é importante determinar se o ML é a melhor opção para seu problema de negócios.
Depois de determinar que o ML é a melhor opção, você pode começar escolhendo entre uma variedade de serviços de IA da AWS criados especificamente (em áreas como fala, visão e documentos).
O HAQM SageMaker fornece infraestrutura totalmente gerenciada se você precisar criar e treinar seus próprios modelos. A AWS oferece uma variedade de estruturas avançadas de ML e opções de infraestrutura para os casos em que você precisa de modelos de ML altamente personalizados e especializados. A AWS também oferece um amplo conjunto de modelos básicos muito usados para criar novas aplicações com IA generativa.
-
A escolha do algoritmo de ML para o problema comercial que você está tentando resolver depende do tipo de dados com os quais você está trabalhando, bem como dos resultados desejados. As informações a seguir descrevem como cada uma das principais categorias de serviços de AI/ML da AWS capacita você a trabalhar com seus algoritmos:
- Serviços especializados de IA: esses serviços oferecem uma capacidade limitada de personalizar o algoritmo de ML, pois são modelos pré-treinados e otimizados para tarefas específicas. Normalmente, você pode personalizar os dados de entrada e alguns parâmetros, mas não tem acesso aos modelos de ML subjacentes nem à capacidade de criar seus próprios modelos.
- HAQM SageMaker: esse serviço oferece a maior flexibilidade e controle sobre o algoritmo de ML. Você pode usar o SageMaker para criar modelos personalizados usando seus próprios algoritmos e estruturas, ou usar modelos e algoritmos pré-criados fornecidos pela AWS. Isso permite um alto grau de personalização e controle sobre o processo de ML.
- Estruturas e infraestrutura de ML de nível inferior: esses serviços oferecem a maior flexibilidade e controle sobre o algoritmo de ML. Você pode usar esses serviços para criar modelos de ML altamente personalizados usando seus próprios algoritmos e estruturas. No entanto, o uso desses serviços requer uma experiência significativa em ML e pode não ser viável para todos os casos de uso.
-
Se você precisar de um endpoint privado em sua VPC, as opções variarão com base na camada de serviços de ML da AWS que você estiver usando. Isso inclui:
- Serviços especializados de IA: atualmente, a maioria dos serviços especializados de IA não oferece suporte a endpoints privados em VPCs. No entanto, o HAQM Rekognition Custom Labels e o HAQM Comprehend Custom podem ser acessados usando endpoints da VPC.
- Principais serviços de IA: HAQM Translate, HAQM Transcribe e HAQM Comprehend oferecem suporte a endpoints da VPC.
- HAQM SageMaker: o SageMaker fornece suporte integrado para endpoints da VPC, permitindo que você implante os modelos treinados como um endpoint acessível somente de dentro da VPC.
- Estruturas e infraestrutura de ML de nível inferior: implante seus modelos em instâncias do HAQM EC2 ou em contêineres dentro da VPC, fornecendo controle total sobre a configuração da rede.
-
Serviços de IA de alto nível, como HAQM Rekognition e HAQM Transcribe, foram projetados para lidar com uma ampla variedade de casos de uso e oferecer alto desempenho em termos de velocidade. No entanto, eles podem não atender a determinados requisitos de latência.
Se você estiver usando estruturas e a infraestrutura de ML de nível inferior, recomendamos usar o HAQM SageMaker. Essa opção geralmente é mais rápida do que criar modelos personalizados devido ao serviço totalmente gerenciado e às opções de implantação otimizadas. Embora um modelo personalizado altamente otimizado possa superar o SageMaker, ele exigirá conhecimentos e recursos significativos para ser criado.
-
A precisão dos serviços de ML da AWS varia de acordo com o caso de uso específico e o nível de personalização exigido. Os serviços de IA de alto nível, como o HAQM Rekognition, são criados com base em modelos pré-treinados que foram otimizados para tarefas específicas e oferecem alta precisão em muitos casos de uso.
Em alguns casos, você pode optar por usar o HAQM SageMaker, que fornece uma plataforma mais flexível e personalizável para criar e treinar modelos personalizados de ML. Ao criar seus próprios modelos, você poderá obter uma precisão ainda maior do que a possível com modelos pré-treinados.
Você também pode optar por usar estruturas e infraestruturas de ML, como TensorFlow e Apache MXNet, para criar modelos altamente personalizados que ofereçam a maior precisão possível para seu caso de uso específico.
-
A AWS cria modelos de base (FMs) com a IA responsável em mente em cada estágio do processo de desenvolvimento. Em todo o projeto, desenvolvimento, implantação e operações, consideramos uma série de fatores, incluindo:
- Precisão (até que ponto um resumo corresponde ao documento subjacente; se uma biografia está factualmente correta)
- Equidade (se os resultados tratam grupos demográficos de forma semelhante)
- Considerações sobre propriedade intelectual e direitos autorais
- Uso apropriado (filtrar solicitações de usuários para aconselhamento jurídico, diagnósticos médicos ou atividades ilegais)
- Toxicidade (discurso de ódio, palavrões e insultos)
- Privacidade (proteger informações pessoais e solicitações do cliente)
A AWS cria soluções para abordar esses problemas nos processos usados para adquirir dados de treinamento, nos próprios FMs e na tecnologia usada para pré-processar as solicitações do usuário e as saídas pós-processamento.
Escolher
Agora que você conhece os critérios pelos quais avaliará suas opções de serviço de ML, está tudo pronto para você escolher qual serviço de ML da AWS é ideal para suas necessidades organizacionais.
A tabela a seguir destaca quais serviços de ML são otimizados para quais circunstâncias. Use-a para ajudar a determinar o serviço de ML da AWS mais adequado ao seu caso de uso.
O HAQM Comprehend permite que você execute tarefas de processamento de linguagem natural, como análise de sentimentos, reconhecimento de entidades, modelagem de tópicos e detecção de linguagem, em seus dados de texto.
O HAQM Lex ajuda você a criar chatbots e assistentes de voz que podem interagir com os usuários em uma interface de linguagem natural. Ele fornece recursos predefinidos de gerenciamento de diálogos, compreensão de idiomas e reconhecimento de fala.
Use o HAQM Polly para converter texto em fala realista, facilitando a criação de aplicações de serviços habilitados para voz.
O HAQM Rekognition foi criado para permitir que você adicione análises de imagens e vídeos às suas aplicações. Basta fornecer uma imagem ou vídeo à API do HAQM Rekognition e o serviço identificará objetos, pessoas, texto, cenas e atividades. O serviço também pode detectar qualquer conteúdo inadequado.
O HAQM Textract ajuda você a extrair texto e dados de documentos, formulários e tabelas digitalizados, facilitando o armazenamento, a análise e o gerenciamento desses dados.
O HAQM Transcribe permite que os clientes transcrevam automaticamente gravações de áudio e vídeo em texto. Isso pode economizar tempo e esforço em comparação com a transcrição manual.
Use esse serviço para traduzir texto de um idioma para outro em tempo real. Isso é muito útil se sua empresa opera em vários países ou precisa se comunicar com pessoas que falam idiomas diferentes.
O HAQM Bedrock é um serviço totalmente gerenciado que cria modelos de base das principais startups de IA e da HAQM por meio de uma API, para que você possa escolher entre uma ampla variedade desses modelos para encontrar o mais apropriado ao seu caso de uso.
O HAQM CodeWhisperer é um companheiro de codificação de IA em tempo real que ajuda na criação de código para tarefas rotineiras ou demoradas e indiferenciadas, trabalhando com APIs ou SDKs desconhecidos, fazendo uso correto e eficaz das APIs da AWS e outros cenários comuns de codificação, como leitura e gravação de arquivos, processamento de imagens e gravação de testes unitários.
O HAQM SageMaker Autopilot foi criado para reduzir o trabalho pesado da criação de modelos de ML. Você simplesmente fornece um conjunto de dados tabular e seleciona a coluna de destino para prever, e o SageMaker Autopilot explorará automaticamente as diferentes soluções para encontrar o melhor modelo. Em seguida, você pode implantar diretamente o modelo na produção com apenas um clique ou repetir as soluções recomendadas para melhorar ainda mais a qualidade do modelo.
O HAQM SageMaker Canvas oferece a capacidade de usar machine learning para gerar previsões sem precisar escrever nenhum código.
O HAQM SageMaker Data Wrangler reduz o tempo necessário para agregar e preparar dados tabulares e de imagem para ML. Com o SageMaker Data Wrangler, é possível simplificar o processo de preparação de dados e engenharia de atributos, além de executar cada etapa do fluxo de trabalho de preparação de dados (incluindo seleção, limpeza, exploração, visualização e processamento de dados em grande escala) em uma única interface visual.
O SageMaker Ground Truth é um serviço gerenciado para rotular dados a fim de treinar e aprimorar os modelos de machine learning. Ele fornece uma maneira altamente precisa e eficiente de rotular grandes conjuntos de dados usando uma combinação de anotadores humanos e algoritmos de machine learning. O SageMaker Ground Truth oferece suporte a uma ampla variedade de tipos de dados, incluindo texto, imagem, vídeo e áudio, e se integra perfeitamente a outros serviços do SageMaker para fluxos de trabalho de machine learning de ponta a ponta.
O SageMaker JumpStart fornece modelos pré-treinados de código aberto para uma ampla variedade de tipos de problemas para ajudar você a começar a usar o machine learning. Você pode treinar e ajustar esses modelos de forma incremental antes da implantação. O JumpStart também fornece modelos de solução que configuram a infraestrutura para casos de uso comuns e notebooks de exemplo executáveis para machine learning com o SageMaker.
Com o HAQM SageMaker Pipelines, você pode criar fluxos de trabalho de ML com um descomplicado Python SDK, e então visualizar e gerenciar seu fluxo de trabalho usando o HAQM SageMaker Studio. O HAQM SageMaker Pipelines permite que você armazene e reutilize as etapas do fluxo de trabalho que você cria nos SageMaker Pipelines.
Um ambiente de desenvolvimento integrado (IDE) completo que permite aos desenvolvedores criar, treinar e implantar modelos de machine learning em grande escala. Ele fornece uma única interface baseada na Web para gerenciar todo o ciclo de vida do machine learning, desde a preparação dos dados e o treinamento do modelo até a implantação e o monitoramento. O SageMaker Studio também oferece suporte a ferramentas muito usadas, como cadernos Jupyter, Git e TensorFlow, e oferece um conjunto de algoritmos pré-criados para casos de uso comuns.
Laboratório do SageMaker Studio
O HAQM SageMaker Studio Lab é um IDE baseado em nuvem para aprender e experimentar machine learning usando cadernos Jupyter pré-criados. Ele inclui uma variedade de cadernos pré-criados que abordam tópicos como reconhecimento de imagem, processamento de linguagem natural e detecção de anomalias.
O Apache MXNet é uma estrutura de aprendizado profundo de código aberto que suporta várias linguagens de programação, incluindo Python, Scala e R. Ele é conhecido por sua escalabilidade e velocidade e oferece uma variedade de APIs de alto nível para criar e treinar redes neurais, bem como APIs de baixo nível para usuários avançados.
Hugging Face no HAQM SageMaker
O Hugging Face no HAQM SageMaker é uma biblioteca de código aberto para processamento de linguagem natural (PLN) que fornece uma ampla variedade de modelos e ferramentas pré-treinados para trabalhar com dados de texto. Ele é conhecido pela sua facilidade de uso e alto desempenho e é amplamente usado para tarefas como classificação de texto, análise de sentimentos e tradução de idiomas.
O PyTorch na AWS é uma estrutura de machine learning de código aberto que oferece gráficos de computação dinâmicos e diferenciação automática para criar e treinar redes neurais. O PyTorch é conhecido por sua facilidade de uso e flexibilidade e tem uma grande e ativa comunidade de desenvolvedores contribuindo para seu desenvolvimento.
O TensorFlow é uma estrutura de machine learning de código aberto desenvolvida pelo Google que é amplamente usada para criar e treinar redes neurais. Ele é conhecido por sua escalabilidade, velocidade e flexibilidade, e suporta uma variedade de linguagens de programação, incluindo Python, C++ e Java. O TensorFlow oferece uma ampla variedade de modelos e ferramentas pré-criados para processamento de imagens e textos, bem como APIs de baixo nível para usuários avançados que precisam de maior controle sobre seus modelos.
AWS Inferentia e AWS Inferentia2
O acelerador do AWS Inferentia de primeira geração impulsiona as instâncias Inf1 do HAQM Elastic Compute Cloud (HAQM EC2), que fornecem um throughput até 2,3 vezes maior e um custo por inferência até 70% menor em comparação com as instâncias do HAQM EC2. O acelerador do AWS Inferentia2 melhora a primeira geração do AWS Inferentia. O Inferentia2 oferece throughput até 4 vezes maior e latência até 10 vezes menor em comparação com o Inferentia.
O AWS Trainium é o acelerador de machine learning (ML) de segunda geração que a AWS criou especificamente para treinamento de aprendizado profundo de mais de 100 bilhões de modelos de parâmetros. Cada instância Trn1 do HAQM Elastic Compute Cloud (EC2) implanta até 16 aceleradores do AWS Trainium para uso em treinamento de aprendizado profundo (DL) na nuvem.
Usar
Agora você deve ter uma compreensão clara dos critérios que precisa aplicar ao escolher um serviço de ML da AWS. Agora você pode selecionar quais serviços de AI/ML da AWS são otimizados para suas necessidades comerciais.
Para explorar como usar e saber mais sobre os serviços que você escolheu, fornecemos três conjuntos de roteiros para explorar como cada serviço funciona. O primeiro conjunto de roteiros fornece documentação detalhada, tutoriais práticos e recursos para começar a usar o HAQM Comprehend, o HAQM Textract, o HAQM Translate, o HAQM Lex, o HAQM Polly, o HAQM Rekognition e o HAQM Transcribe.
-
HAQM Comprehend
-
HAQM Textract
-
HAQM Translate
-
HAQM Lex
-
HAQM Polly
-
HAQM Rekognition
-
HAQM Transcribe
-
HAQM Comprehend
-
Comece a usar o HAQM Comprehend
Use o console do HAQM Comprehend para criar e executar um trabalho assíncrono de detecção de entidades.
Comece o tutorial »Insights da análise em textos com o HAQM Comprehend
Aprenda a usar o HAQM Comprehend para analisar e obter insights de textos.
Preços do HAQM Comprehend
Explore informações sobre preços e exemplos do HAQM Comprehend. -
HAQM Textract
-
Conceitos básicos do HAQM Textract
Saiba como o HAQM Textract pode ser usado com texto formatado para detectar palavras e linhas de palavras localizadas próximas umas das outras, bem como analisar um documento em busca de itens como texto relacionado, tabelas, pares de valores-chave e elementos de seleção.
Extrair texto e dados estruturados com o HAQM Textract
Aprenda a usar o HAQM Textract para extrair texto e dados estruturados de documentos.
AWS Power Hour: Machine Learning
Mergulhe no HAQM Textract neste episódio, passe algum tempo no Console de Gerenciamento da AWS e analise exemplos de código que ajudarão você a entender como aproveitar ao máximo as APIs de serviços.
-
HAQM Translate
-
Comece a usar o HAQM Translate usando o console
A maneira mais fácil de começar a usar o HAQM Translate é usar o console para traduzir algum texto. Aprenda a traduzir até 10.000 caracteres usando o console.
Traduzir textos entre idiomas na nuvem
Neste exemplo de tutorial, como integrante de uma empresa internacional de fabricação de malas, você precisa entender o que os clientes dizem sobre seu produto em análises no idioma do mercado local: francês.
Preços do HAQM Translate
Explore os preços do HAQM Translate, incluindo o nível gratuito, que fornece 2 milhões de caracteres por mês durante 12 meses.
Explore o guia »
Acelere fluxos de trabalho multilíngues com uma solução de tradução personalizável
Explore como criar uma solução de tradução unificada com atributos de personalização usando o HAQM Translate e outros serviços da AWS.
-
HAQM Lex
-
Guia do desenvolvedor do HAQM Lex V2
Explore informações sobre como começar, como funciona e informações sobre preços do HAQM Lex V2.
Explore o guia »Introdução ao HAQM Lex
Apresentamos o serviço conversacional HAQM Lex e damos alguns exemplos que mostram como criar um bot e implantá-lo em diferentes serviços de chat.Faça o curso » (é necessário fazer login)
Explorar a IA generativa em experiências de conversação
Explore o uso da IA generativa em experiências de conversação.
-
HAQM Polly
-
O que é o HAQM Polly?
Explore uma visão geral completa do serviço de nuvem que converte texto em fala realista e pode ser usado para desenvolver aplicações para aumentar o engajamento e a acessibilidade do cliente.Destaque o texto enquanto ele estiver sendo falado usando o HAQM Polly
Apresentamos abordagens para destacar o texto à medida que estiver sendo falado para adicionar recursos visuais ao áudio em livros, sites, blogs e outras experiências digitais.Crie áudio para conteúdo em vários idiomas com a mesma persona de voz TTS no HAQM Polly
Explicamos a conversão de texto em fala neural (NTTS) e discutimos como um amplo portfólio de vozes disponíveis, que fornece uma variedade de locutores distintos nos idiomas compatíveis, pode funcionar para você.
-
HAQM Rekognition
-
What is HAQM Rekognition?
Explore como você pode usar esse serviço para adicionar análise de imagem e vídeo às suas aplicações.Reconhecimento prático: análise automatizada de imagens e vídeos
Saiba como o reconhecimento facial funciona com streaming de vídeo, junto com exemplos de código e pontos-chave em um ritmo autoguiado.
Perguntas frequentes sobre o HAQM Rekognition
Aprenda os conceitos básicos do HAQM Rekognition e como ele pode ajudar você a melhorar seu aprendizado profundo e analisar visualmente as aplicações. -
HAQM Transcribe
-
What is HAQM Transcribe?
Explore o serviço de reconhecimento automático de fala da AWS usando ML para converter áudio em texto. Saiba como usar esse serviço como uma transcrição independente ou adicionar o recurso de conversão de fala em texto a qualquer aplicação.Preços do HAQM Transcribe
Apresentamos a transcrição paga conforme o uso da AWS, incluindo opções de modelos de linguagem personalizados e o nível gratuito do HAQM Transcribe.Crie uma transcrição de áudio com o HAQM Transcribe
Aprenda a usar o HAQM Transcribe para criar uma transcrição de texto de arquivos de áudio gravados usando um cenário de caso de uso real para testar suas necessidades.
Crie uma aplicação de streaming do HAQM Transcribe
Aprenda a criar uma aplicação para gravar, transcrever e traduzir áudio ao vivo em tempo real, com os resultados enviados diretamente para você.
O segundo conjunto de roteiros de serviços de AI/ML da AWS fornece documentação detalhada, tutoriais práticos e recursos para começar a usar os serviços da família HAQM SageMaker.
-
SageMaker
-
SageMaker Autopilot
-
SageMaker Canvas
-
SageMaker Data Wrangler
-
SageMaker Ground Truth/Ground Truth Plus
-
SageMaker JumpStart
-
SageMaker Pipelines
-
SageMaker Studio
-
SageMaker
-
Como o HAQM SageMaker funciona
Explore a visão geral do machine learning e como o SageMaker funciona.Conceitos básicos do HAQM SageMaker
Saiba como participar de um domínio do HAQM SageMaker, oferecendo acesso ao HAQM SageMaker Studio e ao RStudio no SageMaker.
Explore o guia »Use o Apache Spark com o HAQM SageMaker
Aprenda a usar o Apache Spark para pré-processamento de dados e o SageMaker para treinamento e hospedagem de modelos.
Explore o guia »Use contêineres Docker para criar modelos
Explore como o HAQM SageMaker faz uso extensivo de contêineres Docker para tarefas de criação e runtime. Saiba como implantar as imagens do Docker pré-criadas para os algoritmos integrados e as estruturas de aprendizado profundo compatíveis usadas para treinamento e inferência.
Explore o guia »
Estruturas e linguagens do machine learning
Saiba como começar a usar o SageMaker usando o HAQM SageMaker Python SDK. -
SageMaker Autopilot
-
Crie um experimento do HAQM SageMaker Autopilot para dados tabulares
Aprenda a criar um experimento do HAQM SageMaker Autopilot para explorar, pré-processar e treinar vários candidatos a modelos em um conjunto de dados tabular.Crie modelos de machine learning automaticamente
Aprenda a usar o HAQM SageMaker Autopilot para criar, treinar e ajustar de maneira automática um modelo ML, além de implantar o modelo para que ele realize previsões.
Explore a modelagem com o HAQM SageMaker Autopilot com esses exemplos de cadernos
Explore exemplos de cadernos para marketing direto, previsão de rotatividade de clientes e como trazer seu próprio código de processamento de dados para o HAQM SageMaker Autopilot. -
SageMaker Canvas
-
Começar a usar o HAQM SageMaker Canvas
Saiba como começar a usar o SageMaker Canvas.Gere previsões de machine learning sem programação de código
Este tutorial explica como o HAQM SageMaker Canvas cria modelos de ML e gera previsões precisas sem a necessidade de programar uma única linha de código.
Comece o tutorial »Mergulhe mais fundo no SageMaker Canvas
Explore uma visão aprofundada do SageMaker Canvas e seus recursos visuais de ML sem código.Use o HAQM SageMaker Canvas para criar seu primeiro modelo de ML
Aprenda a usar o HAQM SageMaker Canvas para criar um modelo de ML para avaliar a retenção de clientes, com base em uma campanha de e-mail para novos produtos e serviços. -
SageMaker Data Wrangler
-
Conceitos básicos do HAQM SageMaker Data Wrangler
Explore como configurar o SageMaker Data Wrangler e, em seguida, forneça um passo a passo usando um exemplo de conjunto de dados existente.
Explore o guia »Prepare dados de treinamento para machine learning com código mínimo
Aprenda a preparar dados para ML usando o HAQM SageMaker Data Wrangler.
Comece o tutorial »Workshop de demonstração de aprofundamento do SageMaker Data Wrangler
Aprenda a aplicar os tipos de análise apropriados em seu conjunto de dados para detectar anomalias e problemas, usar os resultados/insights derivados para formular ações corretivas durante as transformações em seu conjunto de dados e testar a escolha e a sequência corretas de transformações usando as opções de modelagem rápida fornecidas pelo SageMaker Data Wrangler. -
SageMaker Ground Truth/Ground Truth Plus
-
Conceitos básicos do HAQM Groud Truth
Explore como usar o console para criar um trabalho de rotulagem, atribuir uma força de trabalho pública ou privada e enviar o trabalho de rotulagem para sua força de trabalho. Aprenda a monitorar o progresso de um trabalho de rotulagem.
Rotule dados de treinamento para machine learning
Saiba como configurar um trabalho de rotulagem no HAQM SageMaker Ground Truth para anotar dados de treinamento em seu modelo de ML.
Conceitos básicos do HAQM Ground Truth Plus
Explore como concluir as etapas necessárias para iniciar um projeto do HAQM SageMaker Ground Truth Plus, analisar rótulos e satisfazer os pré-requisitos do SageMaker Ground Truth Plus.Comece a usar o HAQM Ground Truth
Veja como começar a rotular os dados em minutos por meio do console SageMaker Ground Truth.
HAQM SageMaker Ground Truth Plus: crie conjuntos de dados de treinamento sem código ou recursos internos
Conheça o Ground Truth Plus, um serviço pronto para uso que usa uma força de trabalho especializada para fornecer conjuntos de dados de treinamento de alta qualidade com rapidez e reduzir os custos em até 40%.
-
SageMaker JumpStart
-
Comece a usar o machine learning com o SageMaker JumpStart
Explore os modelos da solução SageMaker JumpStart que configuram a infraestrutura para casos de uso comuns e exemplos de notebooks executáveis para machine learning com o SageMaker.
Explore o guia »Comece seu projeto de machine learning rapidamente usando o HAQM SageMaker JumpStart
Saiba como acelerar seu projeto de ML usando modelos pré-treinados e soluções pré-criadas oferecidas pelo HAQM SageMaker JumpStart. Em seguida, você poderá implantar o modelo selecionado utilizando os cadernos do HAQM SageMaker Studio.
Experimente o HAQM SageMaker JumpStart com este workshop de Imersão de um dia
Saiba como os recursos de ML de baixo código encontrados no HAQM SageMaker Data Wrangler, no Autopilot e no Jumpstart facilitam a experimentação mais rápida e trazem modelos altamente precisos para a produção.
-
SageMaker Pipelines
-
Conceitos básicos do HAQM SageMaker Pipelines
Saiba como criar fluxos de trabalho de ponta a ponta que gerenciam e implantam trabalhos do SageMaker. O SageMaker Pipelines vem com a integração do SDK do SageMaker para Python, para que você possa criar cada etapa do seu pipeline usando uma interface baseada em Python.
Explore o guia »Automatize os fluxos de trabalho de machine learning
Aprenda a criar e automatizar fluxos de trabalho completos de machine learning (ML) usando o HAQM SageMaker Pipelines, o Registro de Modelos do HAQM SageMaker e o HAQM SageMaker Clarify.
Comece o tutorial »Como criar fluxos de trabalho de ML totalmente automatizados com o HAQM SageMaker Pipelines
Saiba mais sobre o HAQM SageMaker Pipelines, o primeiro serviço de ML CI/CD do mundo projetado para ser acessível a todos os desenvolvedores e cientistas de dados. O SageMaker Pipelines traz pipelines de CI/CD para o ML, reduzindo o tempo de codificação necessário.
Assista ao vídeo » -
SageMaker Studio
-
Crie e treine um modelo de machine learning localmente
Aprenda a criar e treinar um modelo de ML no local em seu caderno do HAQM SageMaker Studio.Workshop de integração do SageMaker Studio com o EMR
Aprenda a utilizar o processamento distribuído em grande escala para preparar dados e, posteriormente, treinar modelos de machine learning.
O terceiro conjunto de roteiros de serviços de AI/ML da AWS fornece documentação detalhada, tutoriais práticos e recursos para começar a usar o HAQM Bedrock, o HAQM CodeWhisperer, o AWS Trainium, o AWS Inferentia e o HAQM Titan.
-
HAQM Bedrock
-
HAQM CodeWhisperer
-
AWS Trainium
-
AWS Inferentia
-
HAQM Titan
-
HAQM Bedrock
-
Visão geral do HAQM Bedrock
Entenda como o HAQM Bedrock disponibiliza os modelos de base das principais startups de IA e da HAQM por meio de uma API, para que você possa escolher entre uma ampla variedade desses modelos para encontrar o mais apropriado ao seu caso de uso.
Anúncio de novas ferramentas de criação com IA generativa na AWS
Entenda o histórico do desenvolvimento do HAQM Bedrock, como ele se encaixa na abordagem mais ampla da AWS para IA e ML e forneça uma visão geral dos possíveis usos dos serviços de IA generativa da AWS.
Desmistificação da IA generativa
Neste vídeo, o Dr. Werner Vogels, CTO da HAQM, e Swami Sivasubramanian, vice-presidente de banco de dados, análise e ML da AWS, discutem o amplo cenário da IA generativa, por que não é exagero e como a AWS está democratizando o acesso a grandes modelos de base e de linguagem.
-
HAQM CodeWhisperer
-
O que é o HAQM CodeWhisperer?
Entenda como o CodeWhisperer foi projetado para ajudar na criação de código para tarefas rotineiras demoradas e indiferenciadas, trabalhando com APIs ou SDKs desconhecidos, fazendo uso correto e eficaz das APIs da AWS e outros cenários comuns de codificação, como leitura e gravação de arquivos, processamento de imagens e gravação de testes unitários.
Conceitos básicos do HAQM CodeWhisperer
Aprenda a configurar o CodeWhisperer para uso com cada um dos quatro IDEs possíveis: Kit de ferramentas da AWS para JetBrains, Kit de ferramentas da AWS para Visual Studio Code, Lambda e AWS Cloud9.
Workshop sobre o HAQM CodeWhisperer
Aprenda a criar uma aplicação completa, orientada por eventos e sem servidor para reconhecimento de imagens. Com a ajuda do HAQM CodeWhisperer, você escreverá seu próprio código que é executado no AWS Lambda para interagir com o HAQM Rekognition, HAQM DynamoDB, HAQM SNS, HAQM SQS, HAQM S3 e APIs HTTP de terceiros para realizar o reconhecimento de imagens.
-
AWS Trainium
-
Escalar o treinamento distribuído com o AWS Trainium e o HAQM EKS
Saiba como você pode se beneficiar da disponibilidade geral das instâncias Trn1 do HAQM EC2 com a tecnologia AWS Trainium, um acelerador de ML desenvolvido especificamente e otimizado para fornecer uma plataforma de alto desempenho, econômica e altamente escalável para treinar modelos de aprendizado profundo na nuvem.
Visão geral do AWS Trainium
Conheça o AWS Trainium, o acelerador de machine learning (ML) de segunda geração que a AWS criou especificamente para treinamento de aprendizado profundo de mais de 100 bilhões de modelos de parâmetros. Cada instância Trn1 do HAQM Elastic Compute Cloud (EC2) implanta até 16 aceleradores AWS Trainium para oferecer uma solução de alto desempenho e baixo custo para treinamento de aprendizado profundo (DL) na nuvem.
Instâncias recomendadas do Trainium
Explore como as instâncias do AWS Trainium foram criadas para fornecer alto desempenho e eficiência de custos para workloads de inferência de modelos de aprendizado profundo.
-
AWS Inferentia
-
Visão geral da AWS Inferentia
Entenda como os aceleradores foram criados pela AWS para gerar alto desempenho ao menor custo para as aplicações de inferência de aprendizado profundo (DL).
O AWS Inferentia2 se baseia no AWS Inferentia1, oferecendo uma throughput 4 vezes maior e uma latência 10 vezes menor
Entenda para que o AWS Inferentia2 é otimizado e explore como ele foi projetado desde o início para oferecer maior desempenho e, ao mesmo tempo, reduzir o custo dos LLMs e da inferência da IA generativa.
Inferência do machine learning usando o AWS Inferentia
Saiba como criar um cluster HAQM EKS com nós executando instâncias HAQM EC2 Inf1 e (opcionalmente) implantar uma aplicação de amostra. As instâncias Inf1 do HAQM EC2 são desenvolvidas por chips do AWS Inferentia, que a AWS criou de forma personalizada para oferecer alto desempenho e a inferência de menor custo na nuvem.
-
HAQM Titan
-
Visão geral do HAQM Titan
Explore como os FMs do HAQM Titan são pré-treinados em grandes conjuntos de dados, o que os torna modelos poderosos e de uso geral. Saiba como você pode usá-los como estão, ou de forma privada, para personalizá-los com seus próprios dados para uma tarefa específica sem fazer anotações em grandes volumes de dados.
Explorar
Esses diagramas de arquitetura de referência mostram exemplos de serviços de IA e ML da AWS em uso.
Explore os whitepapers para ajudar você a começar e aprender as práticas recomendadas para a escolha e o uso de serviços de AI/ML.
Explore soluções aprovadas e orientações de arquitetura para casos de uso comuns de dos serviços de IA e ML.