Selular.id – Startup kecerdasan buatan asal Tiongkok, DeepSeek, membuka awal tahun 2026 dengan memperkenalkan arsitektur AI baru bernama Manifold-Constrained Hyper-Connections (mHC) yang ditujukan untuk meningkatkan efisiensi dan stabilitas pelatihan model AI berskala besar.
Inovasi ini dipaparkan dalam sebuah makalah penelitian yang diterbitkan perusahaan, menghadirkan pendekatan berbeda dalam proses training model bahasa besar (large language models atau LLM).
Langkah ini menjadi penting karena pelatihan model AI besar kerap menghadapi tantangan seperti ketidakstabilan selama proses training, yang dapat menyebabkan kegagalan pelatihan di tengah jalan serta pemborosan sumber daya komputasi yang tinggi.
Dengan mHC, DeepSeek berharap dapat mengurangi frekuensi kegagalan tersebut sehingga model bisa selesai dilatih dengan konsumsi energi dan waktu yang lebih efisien.
Menurut laporan yang dirilis, arsitektur mHC bukan hanya tentang mengejar performa maksimal, tetapi juga meminimalkan pemborosan komputasi saat melatih model besar.
Ketika sebuah model AI mengalami kegagalan di tengah pelatihan, proses tersebut harus dimulai ulang dari awal yang berarti lebih banyak listrik, penggunaan unit pemrosesan grafis (GPU), dan waktu yang terbuang sia-sia.
Teknologi mHC berupaya menjaga kelancaran alur pelatihan, sehingga potensi pemborosan bisa ditekan.
Makalah ini menunjukkan bahwa pendekatan mHC mampu menjaga stabilitas pelatihan saat model bertambah besar, tanpa menambah beban komputasi secara signifikan.
Uji coba dilakukan pada beberapa ukuran model—termasuk model dengan miliaran parameter—dan hasilnya menunjukkan stabilitas dan skalabilitas yang lebih baik dibandingkan teknik pelatihan konvensional.
Dalam konteks AI training, istilah stability atau stabilitas merujuk pada kemampuan model untuk melanjutkan proses pelatihan tanpa gangguan atau kegagalan struktural di tengah siklus pembelajaran.
Ketika stabilitas rendah, pelatihan bisa berhenti tiba-tiba, sehingga memerlukan restart dan biaya komputasi tambahan. Arsitektur baru ini bertujuan mengatasi masalah tersebut dengan cara memperbaiki cara informasi bergerak di dalam jaringan neural selama training.
Manifold-Constrained Hyper-Connections sendiri menjelaskan sebuah konsep di mana lapisan-lapisan jaringan AI dihubungkan melalui jalur informasi yang lebih terstruktur dan dikendalikan, sehingga interaksi internal antar bagian model menjadi lebih terprediksi.
Ini berbeda dengan pendekatan tradisional yang terkadang memperluas jalur komunikasi secara bebas untuk mengejar performa. MHC membatasi jalur tersebut sehingga tetap efisien dan terkontrol.
Pelatihan model bahasa besar kini menjadi salah satu aspek paling mahal dalam pengembangan teknologi AI.
Proses ini membutuhkan komputasi intensif, perangkat keras yang mahal, dan konsumsi energi besar.
Bahkan sistem GPU kelas atas pun sering kali harus diatur ulang berkali-kali ketika terjadi gangguan pelatihan. Arkitektur seperti mHC memberi peluang untuk menurunkan total biaya komputasi tanpa mengorbankan kualitas atau kemampuan model itu sendiri.
Perlu dicatat bahwa mHC tidak langsung mengurangi konsumsi daya pada GPU atau mesin pelatihan itu sendiri. Sebaliknya, teknik ini mengurangi jumlah waktu dan daya yang terbuang akibat kegagalan pelatihan, sehingga total energi yang digunakan sepanjang siklus pelatihan dapat ditekan.
Dalam beberapa tahun terakhir, DeepSeek telah menarik perhatian di komunitas AI internasional tidak hanya karena model R1 yang diluncurkan pada 2024, tetapi juga karena pendekatan biaya-efisien yang dibawa perusahaan ini dalam pelatihan AI besar.
R1 sempat mencuri sorotan dunia karena diklaim mampu bersaing dengan model terkemuka seperti ChatGPT dengan biaya pelatihan yang jauh lebih rendah.
Kehadiran arsitektur mHC kini menegaskan bahwa DeepSeek tak hanya berfokus pada kemampuan inference (pemrosesan jawaban model), tetapi juga pada efisiensi internal pelatihan AI, yang selama ini menjadi salah satu tantangan paling berat dalam pengembangan teknologi kecerdasan buatan tingkat lanjut.
Penerapan mHC pun dipandang memiliki dampak jangka panjang pada ekosistem AI global. Model-model besar yang dilatih lebih efisien berpotensi mendorong penurunan biaya implementasi AI di banyak sektor, dari penelitian hingga produk komersial.
Efisiensi pelatihan yang lebih tinggi berpeluang mempercepat riset dan pengembangan model generasi berikutnya.
Berada dalam persaingan yang kian ketat dengan laboratorium AI dari Barat, DeepSeek melalui terobosan ini menunjukkan bahwa inovasi dalam metode pelatihan sama pentingnya dengan kemampuan model yang dilatih.
Metode baru seperti mHC dapat menjadi fondasi teknis penting bagi model bahasa besar yang dirilis pada 2026 dan setelahnya—termasuk potensi pengembangan model berikutnya seperti R2 atau varian lanjutan.
Riset ini juga menggarisbawahi tren yang lebih luas dalam industri AI: mengoptimalkan penggunaan sumber daya sebanyak mungkin untuk menangani pertumbuhan kebutuhan komputasi model masa depan.
Baca juga : DeepSeek Dituduh Latih AI Pakai Ribuan Chip Nvidia “Selundupan”





