Minggu, 23 November 2025
Selular.ID -

Chip M5 Apple Unggul 19-27% Lebih Cepat dari M4 untuk LLM Lokal

BACA JUGA

Selular.id – Apple secara resmi mengungkap performa chip M5 terbarunya yang menunjukkan peningkatan signifikan dalam menjalankan model bahasa besar (LLM) secara lokal dibandingkan pendahulunya, M4. Dalam postingan blog Riset Pembelajaran Mesin Apple, perusahaan membandingkan waktu inferensi kedua chip pada MacBook Pro menggunakan framework MLX, dengan M5 mencatat peningkatan kecepatan 19-27%.

Performa superior ini terutama terlihat dalam pembuatan token pertama, dimana M5 menyelesaikan proses lebih cepat berkat Akselerator Neural GPU baru. Apple menjelaskan bahwa komponen khusus ini menyediakan operasi perkalian matriks yang penting untuk berbagai workload machine learning. Perbandingan dilakukan terhadap model Qwen 1.7B, 8B, dan 14B dengan presisi berbeda, serta model Mixture of Experts (MoE) yang lebih kompleks.

Framework MLX yang menjadi dasar pengujian ini merupakan kerangka kerja array sumber terbuka yang dirilis Apple beberapa tahun lalu. MLX didesain khusus untuk pembelajaran mesin yang efisien dan fleksibel pada silikon Apple, memanfaatkan arsitektur memori terpadu yang memungkinkan operasi berjalan di CPU maupun GPU tanpa perlu memindahkan memori.

Detail Teknis Pengujian Performa

Apple melakukan evaluasi komprehensif menggunakan MLX LM, paket khusus dalam framework MLX yang ditujukan untuk menghasilkan teks dan menyempurnakan model bahasa pada Mac. Pengujian mencakup Qwen 1.7B dan 8B dengan presisi BF16 native, serta model Qwen 8B dan Qwen 14B terkuantisasi 4-bit. Untuk model yang lebih kompleks, Apple juga menguji dua Mixture of Experts: Qwen 30B dan GPT OSS 20B.

Metode evaluasi menggunakan mlx_lm.generate dengan pengukuran waktu hingga pembuatan token pertama dalam detik, dan kecepatan pembuatan dalam token per detik. Semua benchmark menggunakan prompt berukuran 4096 token, sementara kecepatan pembuatan dievaluasi saat menghasilkan 128 token tambahan. Pendekatan ini mengakomodasi perbedaan karakteristik inferensi antara token pertama yang terikat komputasi dan token berikutnya yang terikat memori.

Hasil pengujian menunjukkan konsistensi peningkatan performa M5 across the board. Bandwidth memori yang lebih tinggi pada M5 – 153 GB/detik dibanding 120 GB/detik pada M4 – menjadi faktor kunci peningkatan ini. Perbedaan 28% dalam bandwidth memori ini secara langsung berkontribusi pada peningkatan kecepatan inferensi yang diamati.

Kemampuan MLX dan Dampaknya bagi Pengembang

MLX LM memungkinkan pengembang dan pengguna mengunduh sebagian besar model yang tersedia di Hugging Face dan menjalankannya secara lokal di Mac berbasis silikon Apple. Framework ini mendukung kuantisasi, metode kompresi yang memungkinkan model berukuran besar berjalan dengan menggunakan lebih sedikit memori. Fitur ini menghasilkan inferensi yang lebih cepat, dimana model dapat menghasilkan respons terhadap input atau perintah dengan latency lebih rendah.

API MLX yang mirip dengan NumPy membuatnya familiar bagi developer yang sudah berpengalaman dalam komputasi ilmiah dan machine learning. Fleksibilitas ini, dikombinasikan dengan dukungan bawaan untuk pelatihan dan inferensi jaringan saraf, menjadikan MLX sebagai tools yang powerful untuk berbagai aplikasi AI di ekosistem Apple.

Dari segi kapasitas memori, Apple mencatat bahwa MacBook Pro dengan RAM 24 GB dapat dengan mudah menampung model presisi BF16 8 GB atau MoE terkuantisasi 4-bit 30 GB. Dalam pengujian ini, workload inferensi tetap di bawah 18 GB untuk kedua arsitektur, menunjukkan efisiensi memori yang baik.

Perkembangan chipset Apple ini sejalan dengan tren industri dimana performa AI menjadi pembeda utama antar perangkat. Seperti yang terjadi pada kompetisi chipset di segmen smartphone, kemampuan processing untuk workload AI menjadi parameter penting dalam menentukan superioritas sebuah platform.

Peningkatan Performa di Berbagai Skenario

Selain pengujian LLM, Apple juga membandingkan performa M5 dan M4 dalam pembuatan gambar. Hasilnya bahkan lebih dramatis, dengan M5 menyelesaikan tugas lebih dari 3.8x lebih cepat daripada M4. Perbedaan signifikan ini menunjukkan kemampuan M5 yang tidak hanya unggul dalam pemrosesan teks, tetapi juga dalam workload AI visual yang membutuhkan komputasi intensif.

Peningkatan performa ini datang di saat yang tepat mengingat Apple baru saja mencatat rekor pendapatan di kuartal IV 2025. Investasi dalam pengembangan chip custom semakin menunjukkan hasil yang konkret, memperkuat posisi Apple dalam persaingan teknologi chip yang semakin ketat.

Strategi Apple dalam mengembangkan chip sendiri juga terlihat dari rencana mereka untuk menghadirkan MacBook lebih terjangkau dengan chip iPhone. Pendekatan ini memungkinkan Apple mengoptimalkan hardware dan software secara terintegrasi, menciptakan pengalaman pengguna yang lebih smooth untuk aplikasi AI.

Dengan peningkatan performa yang konsisten dari generasi ke generasi chip Apple Silicon, pengguna profesional dan developer mendapatkan kemampuan komputasi AI yang semakin powerful di perangkat portabel. Kemampuan menjalankan LLM secara lokal dengan performa tinggi membuka peluang baru untuk aplikasi yang membutuhkan privasi data dan latency rendah, tanpa bergantung pada koneksi cloud.

BERITA TERKAIT

BERITA PILIHAN

BERITA TERBARU