Kisah Pelanggan/Perangkat Lunak dan Internet/Amerika Serikat

2024
Logo Perplexity

Perplexity Mempercepat Pelatihan Model Fondasi Sebesar 40% dengan HAQM SageMaker HyperPod

Pelajari cara Perplexity, perusahaan rintisan AI generatif, melakukan pelatihan model dengan lebih cepat dan lebih efisien menggunakan HAQM SageMaker HyperPod.

Mengurangi hingga 40%

waktu pelatihan

Mendukung 100.000+ kueri

per jam

Mempertahankan

latensi rendah 

Mengoptimalkan

pengalaman pengguna

Gambaran Umum

Sebagai kekuatan transformatif, kecerdasan buatan (AI) generatif mencakup algoritma machine learning (ML) yang mampu menghasilkan konten baru, dari gambar hingga teks, dengan belajar dari data dengan jumlah yang sangat besar. Perplexity, sebuah perusahaan yang saat ini sedang membangun salah satu mesin jawaban percakapan pertama di dunia, menggunakan kekuatan AI generatif untuk membantu pengguna menemukan pengetahuan yang relevan.

Namun, Perplexity menghadapi tantangan untuk mengoptimalkan keakuratan dan ketepatan modelnya sehingga membutuhkan solusi kuat yang mampu menangani persyaratan komputasinya. Dengan visi untuk meningkatkan pengalaman pengguna, Perplexity telah beralih ke HAQM Web Services (AWS). Menggunakan infrastruktur ML, pustaka pelatihan, dan alat inferensi yang canggih dari AWS, Perplexity memperoleh fleksibilitas, performa, dan efisiensi yang diperlukan untuk melayani basis pengguna global dalam skala besar.

Peluang | Menggunakan Layanan AWS untuk Mengoptimalkan Pengalaman Pengguna

Tidak seperti mesin pencari tradisional yang sering meningkatkan iklan dan kata kunci tertentu daripada hasil yang relevan, solusi Perplexity dioptimalkan untuk menghubungkan pengguna dengan pengetahuan yang mereka cari. Sekitar 10 juta pengguna aktif bulanan mengandalkan Perplexity untuk mempelajari konsep baru, memecahkan tantangan, dan menemukan jawaban.

“Menggunakan model bahasa besar, kami dapat menggabungkan pemahaman bahasa manusia dan kemampuan penalaran menjadi satu model. Langkah ini, dikombinasikan dengan fakta di internet, telah membantu kami membangun mesin jawaban kami,” kata Aravind Srinivas, CEO dan salah satu pendiri Perplexity. “Pada dasarnya, kami menggabungkan indeks pencarian tradisional (mesin fakta) dan mesin penalaran (model bahasa besar) menjadi satu untuk membangun mesin jawaban percakapan pertama di dunia.”

Sejak diluncurkan pada tahun 2022, Perplexity telah menggunakan layanan AWS inti, seperti HAQM Elastic Compute Cloud (HAQM EC2) yang menyediakan kapasitas komputasi yang aman dan dapat diubah ukurannya untuk hampir semua beban kerja, guna mendukung komponen backend, front end, dan pencarian pada produknya. Seiring dengan makin matangnya Perplexity dan bertambahnya jumlah model ML-nya, perusahaan tersebut membutuhkan kekuatan komputasi yang sangat besar untuk melayani pengguna.

Perplexity berkonsultasi dengan pakar AWS dan mendapatkan informasi bahwa HAQM SageMaker HyperPod, infrastruktur yang dibangun khusus untuk pelatihan terdistribusi dalam skala besar, dapat memenuhi kebutuhannya terkait pelatihan model skala besar. HAQM SageMaker HyperPod telah dikonfigurasi sebelumnya dengan pustaka pelatihan terdistribusi HAQM SageMaker yang dioptimalkan untuk menjalankan data kustom paralel yang sangat mudah diskalakan dan hemat biaya serta memodelkan pekerjaan pelatihan deep learning paralel dengan kecepatan interkoneksi yang melebihi 1.600 Gbps. HAQM SageMaker HyperPod juga mencegah gangguan pada pelatihan model fondasi dengan menyimpan pos pemeriksaan secara berkala. Jika kegagalan perangkat keras terjadi selama pelatihan, layanan AWS akan secara otomatis mendeteksi kegagalan, memperbaiki atau mengganti instans yang rusak, dan melanjutkan pelatihan dari pos pemeriksaan terakhir yang disimpan. Langkah ini mendukung pelatihan model tanpa gangguan selama berminggu-minggu atau berbulan-bulan dalam lingkungan terdistribusi.

kr_quotemark

Di AWS, kekuatan ada di tangan pelanggan. Tidak ada ketentuan mengenai layanan yang perlu Anda gunakan.”

Aravind Srinivas
CEO dan Salah Satu Pendiri, Perplexity

Solusi | Mengurangi Waktu Pelatihan Model hingga 40% dengan HAQM SageMaker HyperPod

AWS menawarkan uji coba satu bulan kepada Perplexity untuk menunjukkan kemampuan pelatihan terdistribusi, dan selama uji coba tersebut Perplexity menemukan berbagai keunggulan penggunaan AWS. Misalnya, Perplexity memperoleh fleksibilitas yang lebih besar dalam hal alokasi sumber daya menggunakan berbagai jenis instans HAQM EC2 dan GPU yang disesuaikan untuk tugas tertentu.

Untuk melatih model ML, Perplexity membutuhkan memori dalam jumlah besar sehingga dapat menjalankan data dalam jumlah yang sangat besar dan menyimpan gradien yang berbeda. Perplexity memilih Instans P4de HAQM EC2, yang memberikan performa tertinggi untuk pelatihan ML dan aplikasi komputasi performa tinggi, untuk menjalankan tugas pelatihan agar dapat memenuhi persyaratan memori dan bandwidth. Menggunakan HAQM SageMaker HyperPod, Perplexity mentransfer data di antara GPU yang berbeda dengan jauh lebih cepat sehingga mengurangi waktu pelatihan model ML hingga 40 persen.

“Data bawaan dan pustaka paralel model dari HAQM SageMaker HyperPod membantu kami mengoptimalkan waktu pelatihan pada GPU serta menggandakan throughput pelatihan,” ungkap Srinivas. “Hasilnya, eksperimen pelatihan kami sekarang dapat berjalan dua kali lebih cepat, yang berarti developer kami dapat melakukan iterasi lebih cepat sehingga pengembangan pengalaman AI generatif baru untuk pelanggan kami juga makin cepat. Karena HAQM SageMaker HyperPod memantau kondisi klaster dan memperbaiki kegagalan GPU secara otomatis, developer kami dapat berfokus pada pembuatan model, alih-alih menghabiskan waktu untuk mengelola serta mengoptimalkan infrastruktur dasar.”

Perplexity bertujuan memberikan tanggapan cepat dan akurat terhadap kueri pengguna yang membutuhkan kemampuan inferensi mendekati waktu nyata. Menggunakan Instans P5 HAQM EC2 yang memberikan instans berbasis GPU dengan performa tertinggi untuk aplikasi deep learning, Perplexity dapat menghasilkan jawaban dengan throughput yang jauh lebih tinggi dibandingkan dengan sebelumnya. Bahkan, perusahaan dapat menangani periode lonjakan dengan 10.000 pengguna bersamaan dan lebih dari 100.000 kueri per jam tanpa mengorbankan latensi atau memengaruhi pengalaman pengguna. Perplexity juga melakukan hosting model Llama 2 yang tersedia untuk umum di Instans P5 HAQM EC2 dan menggunakan HAQM SageMaker HyperPod untuk menyempurnakan model sumber terbuka menggunakan datanya sendiri. Model penyempurnaan membantu meningkatkan akurasi dan relevansi respons sehingga dapat menyesuaikan model dengan kebutuhan mesin jawaban Perplexity.

Hasil | Meningkatkan AI Generatif Menggunakan Infrastruktur AWS dan Layanan AI/ML

Dengan keberhasilannya, Perplexity siap mengembangkan inovasi baru di bidang AI generatif. Sebagai bagian dari strategi yang berorientasi ke masa depan, Perplexity akan bereksperimen dengan AWS Trainium, akselerator pelatihan ML performa tinggi, untuk lebih meningkatkan throughput pelatihan. Perplexity juga meluncurkan API yang memungkinkan pengguna mengakses model bahasa besar yang dijalankan sepenuhnya di AWS dan telah dioptimalkan dengan HAQM SageMaker HyperPod.

Untuk memperluas basis pengetahuannya dan memberikan jawaban yang lebih akurat kepada penggunanya, Perplexity juga telah menggunakan HAQM Bedrock, layanan terkelola penuh yang menawarkan pilihan model fondasi performa tinggi dari berbagai perusahaan AI terkemuka dengan satu API. Misalnya, Perplexity telah mulai menggunakan Claude 2 melalui HAQM Bedrock guna mengintegrasikan berbagai kemampuan canggih untuk pengodean, matematika, dan penalaran ke dalam layanannya.

“Di AWS, kekuatan ada di tangan pelanggan,” kata Srinivas. “Tidak ada ketentuan mengenai layanan yang perlu Anda gunakan. Tim AWS selalu memberi tahu kami, ‘Lakukan yang terbaik untuk pelanggan Anda. Lakukan yang terbaik untuk bisnis Anda.’ Keselarasan pelanggan itulah yang sangat kami sukai dari AWS.”

Tentang Perplexity

Perplexity membangun mesin jawaban fungsional dan percakapan yang dioptimalkan untuk membantu pengguna menemukan pengetahuan, bukan sekadar meningkatkan iklan dan kata kunci.

Layanan AWS yang Digunakan

HAQM SageMaker HyperPod

HAQMSageMaker HyperPod menghilangkan pekerjaan berat yang tidak terdiferensiasi dalam membangun dan mengoptimalkan infrastruktur machine learning (ML) untuk melatih model fondasi (FM) sehinggga mengurangi waktu pelatihan hingga 40%.

Pelajari selengkapnya »

Instans P5 HAQM EC2

Instans P5 HAQM Elastic Compute Cloud (HAQM EC2) menggunakan GPU NVIDIA H100 Tensor Core terbaru, dan memberikan performa tertinggi di HAQM EC2 untuk aplikasi deep learning (DL) dan komputasi performa tinggi (HPC).

Pelajari selengkapnya »

Instans P4de HAQM EC2

Instans P4de didukung oleh 8 GPU NVIDIA A100 dengan memori GPU HBM2e performa tinggi 80 GB, 2X lebih tinggi daripada GPU di instans P4d kami saat ini.

Pelajari selengkapnya »

HAQM Bedrock

HAQM Bedrock adalah layanan terkelola penuh yang menawarkan pilihan model fondasi (FM) performa tinggi dari perusahaan AI terkemuka, seperti AI21 Labs, Anthropic, Cohere, Meta, Stability AI, dan HAQM melalui API tunggal, bersama dengan berbagai kemampuan yang Anda butuhkan untuk membangun aplikasi AI generatif yang dibekali dengan keamanan, privasi, dan AI yang bertanggung jawab.

Pelajari selengkapnya »

Kisah Pelanggan Perangkat Lunak dan Internet Lainnya

tidak ada item yang ditemukan 

1

Memulai HAQM SageMaker di Tingkat Free

Anda dapat memulai HAQM SageMaker secara gratis sebagai bagian dari AWS Tingkat Free. Uji coba gratis dua bulan Anda dimulai dari bulan pertama saat Anda membuat sumber daya SageMaker pertama Anda.