Selular.ID – Tak diragukan lagi, Nvidia kini adalah penguasa AI (artificial intelligence/kecerdasan buatan). Tingginya kebutuhan akan AI, telah membuat Nvidia terbang ke langit tertinggi.
Tak tanggung-tanggung, Mizuho Securities memperkirakan bahwa perusahaan yang didirikan oleh Jensen Huang itu, menguasai antara 70% dan 95% pasar chip AI yang digunakan untuk pelatihan dan penerapan model seperti GPT OpenAI.
Kekuatan harga Nvidia dipertegas oleh margin kotor sebesar 78%, angka yang sangat tinggi untuk perusahaan perangkat keras yang harus memproduksi dan mengirimkan produk fisik.
Dua pesaing terdekat Nvidia Intel dan Advanced Micro Devices melaporkan margin kotor pada kuartal terakhir masing-masing hanya sebesar 41% dan 47%.
Namun ke depan, dominasi Nvidia bisa jadi akan terusik oleh pemain lain. Salah satunya adalah Amazon. Raksasa teknologi yang berbasis di Seattle, Washington, bertekad untuk mengakhiri penguasaan pasar Nvidia di industri AI generatif.
Seperti dilaporkan Reuters, para insinyur di lab chip Amazon di Austin, Texas, berlomba-lomba mengembangkan chip AI yang lebih murah dan lebih cepat daripada chip Nvidia.
Amazon bekerja keras mengembangkan chip kecerdasan buatan (AI) yang lebih cepat dan lebih murah daripada chip Nvidia.
Baca Juga: Gegara Perangkat yang Didukung Alexa, Amazon Boncos Hingga $25 Miliar
Reuters mengunjungi lab chip Amazon.com di Austin, Texas, tempat setengah lusin insinyur menguji desain server baru yang dijaga ketat.
Eksekutif Amazon Rami Sinno mengatakan kepada Reuters bahwa server tersebut dilengkapi dengan chip AI Amazon yang bersaing dengan chip Nvidia.
Perlu diingat bahwa November lalu pada konferensi AWS re:Invent di Las Vegas, Amazon telah mengumumkan generasi berikutnya dari dua keluarga chip yang dirancang AWS – AWS Graviton4 dan AWS Trainium2.
Amazon telah mengatakan pada saat itu bahwa prosesor baru akan memberikan “kemajuan dalam kinerja harga dan efisiensi energi untuk berbagai beban kerja pelanggan, termasuk pelatihan pembelajaran mesin (ML) dan aplikasi kecerdasan buatan (AI) generatif.”
Sekarang minggu ini Reuters, mengutip Rami Sinno, direktur teknik untuk Annapurna Labs milik Amazon yang merupakan bagian dari AWS, mengatakan pelanggan Amazon semakin menuntut alternatif yang lebih murah daripada Nvidia.
Annapurna bertanggung jawab untuk mengembangkan CPU di bawah keluarga Graviton dan ASIC pembelajaran mesin di bawah merek Trainium dan Inferentia.
Menurut laporan Reuters, saat ini chip andalan Amazon, Graviton, telah dikembangkan selama hampir satu dekade dan berada pada generasi keempat. Chip AI, Trainium dan Inferentia, adalah desain yang lebih baru.
“Jadi penawaran hingga 40 persen, 50 persen dalam beberapa kasus peningkatan harga (dan) kinerja – jadi seharusnya setengah dari biaya menjalankan model yang sama dengan Nvidia,” David Brown, VP, Compute and Networking di AWS dilaporkan mengatakan kepada Reuters pada hari Selasa.
Kebutuhan akan chip AI yang lebih murah muncul setelah banyak yang mencap penawaran chip AI terkemuka Nvidia, “pajak Nvidia”, mengacu pada harga yang tinggi.
Chip AI Nvidia tidak murah, meskipun Nvidia tidak mengungkapkan harga H100. Konon, setiap chip Nvidia kabarnya dapat dijual seharga $16.000 hingga $100.000 tergantung pada volume yang dibeli dan faktor lainnya.
Dan ketika perusahaan membutuhkan ratusan ribu chip H100 untuk layanan AI mereka, ini menunjukkan besarnya investasi finansial yang sering dibutuhkan untuk bersaing di sektor ini.
Hal ini telah mendorong banyak perusahaan teknologi besar lainnya termasuk Meta, Microsoft, dan Google, untuk juga mengembangkan atau meningkatkan chip AI internal mereka sendiri.
Di sisi lain, untuk memperkuat dominasinya, Nvidia pada Maret lalu, resmi meluncurkan chip terbaru, B200 Blackwell. Penguasa AI itu, mengklaim B200 Blackwell sebagai chip AI paling kuat di dunia.
Peluncuran B200 Blackwell, merupakan bagian dari serangkaian pengumuman pada hari pembukaan konferensi pengembang tahunan Nvidia, yang juga mencakup platform penelitian 6G dan seperangkat alat perangkat lunak.
Dalam sesi audiensi utama, CEO Nvidia Jensen Huang, mengatakan bahwa chip B200 Blackwell andalan Nvidia dapat melakukan tugas tertentu 30 kali lebih cepat dibandingkan pendahulunya dan dirancang untuk meningkatkan daya komputasi untuk model bahasa besar.
B200 Blackwell mencakup 208 miliar transistor dibandingkan dengan 80 miliar pada chip Hopper H100 yang diluncurkan pada tahun 2023.
Untuk diketahui, platform Hopper yang dibangun Nvidia, membantu perusahaan menjadi pemimpin dalam chip AI.
Dibandingkan dengan GPU saat ini, Huang menjelaskan bahwa chip Blackwell dua kali lebih kuat dalam melatih model AI, 30 kali lebih cepat dalam melakukan tugas-tugas tertentu seperti merespons chatbot, dan mengurangi biaya dan konsumsi energi hingga 25 kali lipat.
Baca Juga: Saingi Starlink, Amazon dan Vrio Bakal Rilis Layanan Internet Satelit