TAIPEI, Taiwan (IndonesiaTerkini.com)- Dalam gelaran Computex 2024, AMD (NASDAQ: AMD) memamerkan momentum perkembangan jajaran akselerator AMD Instinct™ dalam pidato pembuka yang disampaikan oleh Chair dan CEO Dr. Lisa Su. AMD meluncurkan roadmap akselerator AMD Instinct multi-tahun yang diperluas dimana menghadirkan langkah tahunan kepemimpinan kinerja AI dan kemampuan memori di setiap generasi.
Roadmap yang diperbarui mulai akselerator AMD Instinct MI325X baru, yang akan tersedia pada Q4 2024. Berikutnya, AMD Instinct MI350 series, bertenaga arsitektur AMD CDNA™ 4 baru, diharapkan akan tersedia pada tahun 2025 hingga peningkatan performa inferensi AI 35x dibandingkan AMD Instinct MI300 Series dengan arsitektur AMD CDNA 3. Diharapkan tersedia pada tahun 2026, AMD Instinct MI400 series bertenaga arsitektur AMD CDNA “Next”.
“Akselerator AMD Instinct MI300X melanjutkan adopsi yang kuat dari berbagai mitra dan pelanggan termasuk Microsoft Azure, Meta, Dell Technologies, HPE, Lenovo dan lainnya, yang merupakan hasil langsung dari kinerja dan proposisi nilai akselerator AMD Instinct MI300X yang luar biasa,” kata Brad McCredie, corporate vice president, Data Center Accelerated Compute, AMD. “Dengan rangkaian produk tahunan kami yang diperbarui, kami tiada henti dalam langkah inovasi kami, memberikan kemampuan dan kinerja kepemimpinan yang diharapkan oleh industri AI dan pelanggan kami untuk mendorong evolusi berikutnya dalam pelatihan dan inferensi AI data center.”
Ekosistem Software AMD AI Semakin Kuat
Open software stack AMD ROCm™ 6 terus berkembang, dan memungkinkan akselerator AMD Instinct MI300X mendorong kinerja mengesankan untuk beberapa LLM paling populer. Pada server yang menggunakan delapan akselerator AMD Instinct MI300X dan ROCm 6 yang menjalankan Meta Llama-3 70B, pelanggan bisa mendapatkan kinerja inferensi dan pembuatan token 1,3x lebih baik dibandingkan pesaing. Pada satu akselerator AMD Instinct MI300X dengan ROCm 6, pelanggan bisa mendapatkan kinerja inferensi dan throughput pembuatan token yang lebih baik dibandingkan kompetitor sebesar 1,2x pada Mistral-7B. AMD juga menyoroti bahwa Hugging Face, penyimpanan terbesar dan terpopuler untuk model AI, kini menguji 700.000 model terpopuler mereka setiap malam untuk memastikan model tersebut berfungsi langsung pada akselerator AMD Instinct MI300X. Selain itu, AMD melanjutkan pekerjaan upstream ke dalam kerangka AI populer seperti PyTorch, TensorFlow, dan JAX.
AMD Melihat Akselerator Baru dan Roadmap Tahunan
Dalam keynote tersebut, AMD mengungkapkan langkah tahunan terbaru untuk roadmap akselerator AMD Instinct guna memenuhi permintaan yang terus meningkat akan komputasi AI yang lebih banyak. Hal ini akan membantu memastikan bahwa akselerator AMD Instinct mendorong pengembangan model AI terdepan generasi berikutnya. Roadmap tahunan AMD Instinct yang diperbarui menyoroti:
- Akselerator AMD Instinct MI325X baru, yang menghadirkan memori HBM3E 288 GB dan bandwidth memori 6 terabyte per detik, menggunakan desain server Universal Baseboard standar industri yang sama dengan yang digunakan oleh AMD Instinct MI300 series, dan tersedia pada Q4 2024. Akselerator ini akan memiliki kapasitas memori dan bandwidth terdepan di industri, masing-masing 2x dan 1,3x lebih baik dibandingkan kompetitor, dan kinerja komputasi 1,3x lebih baik dibandingkan kompetitor.
- Produk pertama dalam AMD Instinct MI350 Seri, akselerator AMD Instinct MI350X, didasarkan pada arsitektur AMD CDNA 4 dan diharapkan akan tersedia pada tahun 2025. Produk ini akan menggunakan desain server Universal Baseboard standar industri yang sama dengan akselerator MI300 Series lainnya dan akan dibuat menggunakan teknologi proses 3nm yang canggih, mendukung tipe data AI FP4 dan FP6, serta memiliki memori HBM3E hingga 288 GB.
- Arsitektur AMD CDNA “Next”, yang akan mentenagai akselerator AMD Instinct MI400 Series, diharapkan akan tersedia pada tahun 2026 dengan menyediakan fitur dan kemampuan terbaru yang akan membantu membuka performa dan efisiensi tambahan untuk inferensi dan pelatihan AI skala besar.
Terakhir, AMD menyoroti permintaan akselerator AMD Instinct MI300X yang terus bertumbuh dengan banyaknya mitra dan pelanggan yang menggunakan akselerator tersebut untuk mendukung beban kerja AI yang berat, termasuk:
- Microsoft Azure menggunakan akselerator untuk layanan Azure OpenAI dan Azure ND MI300X V5 virtual machines terbaru.
- Dell Technologies menggunakan akselerator MI300X di dalam PowerEdge XE9680 untuk beban kerja AI perusahaan.
- Supermicro menyediakan berbagai solusi dengan akselerator AMD Instinct.
- Lenovo mendukung inovasi Hybrid AI dengan ThinkSystem SR685a V3
- HPE menggunakannya untuk mempercepat beban kerja AI di dalam HPE Cray XD675.
Thanks for reading AMD Percepat Laju Inovasi dan Kepemimpinan AI Data Center dengan Roadmap GPU AMD Instinct yang Diperluas. Please share...!