Selular.id – Red Hat, penyedia solusi open source terkemuka dunia, secara resmi meluncurkan Red Hat AI 3, platform enterprise AI terbaru yang dirancang untuk menyederhanakan kompleksitas inferensi AI berkinerja tinggi dalam skala produksi. Peluncuran ini menjawab tantangan organisasi dalam memindahkan beban kerja AI dari fase eksperimen ke tahap produksi, sekaligus meningkatkan kolaborasi pengembangan aplikasi berbasis AI.
Platform hybrid cloud-native ini menggabungkan inovasi terbaru dari Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI), dan Red Hat OpenShift AI. Fokus utamanya adalah memberikan kemampuan inferensi yang bisa ditingkatkan dan hemat biaya, membangun fondasi bagi Agentic AI dalam skala besar, serta memberdayakan tim IT dan engineer AI untuk berinovasi lebih cepat dan efisien.
Joe Fernandes, Vice President dan General Manager AI Business Unit Red Hat, menegaskan bahwa saat perusahaan meningkatkan AI dari fase eksperimen ke produksi, mereka menghadapi gelombang tantangan baru seperti kompleksitas, biaya, dan kontrol. “Dengan Red Hat AI 3, kami menyediakan platform open source kelas enterprise yang akan meminimalkan hambatan-hambatan tersebut. Dengan kemampuan baru seperti inferensi terdistribusi dengan llm-d dan fondasi untuk agentic AI, kami membuat tim IT mengoperasionalkan AI generasi berikutnya dengan lebih percaya diri,” ujarnya.
Laporan “The GenAI Divide: State of AI in Business” dari proyek NANDA di Massachusetts Institute of Technology mengungkap realitas mengejutkan tentang AI di tingkat produksi. Sekitar 95% organisasi gagal meraih keuntungan finansial yang terukur dari investasi perusahaan senilai sekitar US$40 miliar. Fakta ini mempertegas urgensi solusi seperti yang ditawarkan Red Hat AI 3.
Peralihan Strategis: Dari Pelatihan ke Inferensi Produksi
Saat organisasi mulai memindahkan inisiatif AI ke tahap produksi, fokus strategis mengalami pergeseran signifikan. Perhatian yang sebelumnya terpusat pada pelatihan dan penyesuaian model kini beralih ke inferensi, yang merupakan fase “menjalankan” enterprise AI yang sesungguhnya. Red Hat AI 3 menekankan inferensi yang bisa ditingkatkan dan hemat biaya dengan mengembangkan teknologi dari proyek komunitas vLLM dan llm-d.
Untuk membantu para CIO memaksimalkan nilai dari hardware bernilai tinggi, Red Hat OpenShift AI 3.0 memperkenalkan ketersediaan umum llm-d yang mengubah cara kerja Large Language Model (LLM) di Kubernetes. Llm-d memungkinkan inferensi terdistribusi yang cerdas dengan memanfaatkan orkestrasi Kubernetes dan performa vLLM, digabungkan dengan teknologi open source penting seperti Kubernetes Gateway API Inference Extension, NVIDIA Dynamo low latency data transfer library (NIXL), dan DeepEP Mixture of Experts (MoE) communication library.
Kemampuan ini memungkinkan organisasi mengurangi biaya dan meningkatkan waktu respon melalui penjadwalan model berbasis inferensi yang cerdas. Selain itu, sistem ini menyederhanakan operasional dan memaksimalkan keandalan dengan langkah-langkah yang jelas untuk memudahkan pengaplikasian model dalam skala besar di Kubernetes. Dukungan lintas platform juga memungkinkan organisasi menjalankan inferensi LLM di berbagai akselerator hardware, termasuk NVIDIA dan AMD.
Llm-d dikembangkan di atas vLLM, berevolusi dari mesin inferensi single node berperforma tinggi menjadi sistem penyajian yang terdistribusi, konsisten, dan skalabel. Integrasi kuat dengan Kubernetes dirancang khusus untuk performa yang bisa diprediksi, ROI yang terukur, dan perencanaan infrastruktur yang efektif. Semua peningkatan ini secara langsung menjawab tantangan dalam menangani beban kerja LLM dengan variabel tinggi dan menyajikan model masif seperti model Mixture-of-Experts (MoE).
Baca Juga:
Platform Terintegrasi untuk Kolaborasi AI yang Efektif
Red Hat AI 3 menghadirkan pengalaman terpadu dan fleksibel yang disesuaikan dengan tuntutan kolaboratif dalam membangun solusi AI generatif yang siap untuk produksi. Platform ini dirancang untuk memberikan nilai nyata melalui kolaborasi dan alur kerja terpadu di satu platform tunggal bagi platform engineer dan AI engineer.
Salah satu inovasi kunci adalah kemampuan Model as a Service (MaaS) yang dikembangkan di inferensi terdistribusi. Fitur ini memungkinkan tim IT menjadi penyedia MaaS mereka sendiri, menyajikan model bersama secara terpusat, dan memberikan akses sesuai permintaan pengembang AI dan aplikasi AI. Pendekatan ini memungkinkan pengelolaan biaya yang lebih baik dan mendukung use case yang tidak bisa dijalankan di layanan AI publik karena alasan privasi atau data.
AI Hub memberdayakan para platform engineer untuk mengeksplorasi, menjalankan, dan mengelola aset-aset AI yang penting. Sistem ini menyediakan central hub dengan katalog model yang terkurasi, termasuk model gen AI yang telah divalidasi dan dioptimalkan, registry untuk mengelola lifecycle model, dan lingkungan penerapan untuk mengkonfigurasi dan mengawasi semua aset AI yang berjalan di OpenShift AI.
Gen AI Studio menyediakan lingkungan uji coba untuk para engineer AI di mana mereka dapat berinteraksi dengan model dan membuat prototipe aplikasi gen AI baru dengan cepat. Dengan fitur AI asset endpoint, para engineer bisa menemukan dan menggunakan model dan server MCP yang tersedia secara mudah, yang dirancang untuk melancarkan interaksi model dengan tools eksternal. Playground terintegrasi ini menghadirkan lingkungan yang interaktif dan stateless untuk bereksperimen dengan model, menguji prompt, dan mengatur parameter untuk use case seperti chat dan retrieval-augmented generation (RAG).
Platform ini juga menyertakan model Red Hat baru yang telah divalidasi dan dioptimalkan untuk menyederhanakan pengembangan. Pilihan yang telah terkurasi meliputi model open source populer seperti gpt-oss dari OpenAI, DeepSeek-R1, dan model khusus seperti Whisper untuk speech-to-text dan Voxtral Mini untuk agen AI berbasis suara.
Pengembangan platform AI terintegrasi semacam ini sejalan dengan tren industri yang juga diikuti oleh pemain lain. Seperti yang terjadi pada kolaborasi F5 dengan Intel untuk menyederhanakan keamanan dan penyediaan layanan AI, kolaborasi strategis menjadi kunci dalam menghadirkan solusi yang komprehensif.
Membangun Fondasi untuk Agen AI Generasi Berikutnya
Agen AI diprediksi akan mengubah cara aplikasi dibangun, dan alur kerjanya yang kompleks serta otonom akan membutuhkan kemampuan inferensi yang besar. Peluncuran Red Hat OpenShift AI 3.0 menjadi langkah penting untuk menghadirkan sistem agentic AI yang skalabel, tidak hanya melalui kemampuan inferensi tapi juga melalui fitur-fitur baru dan peningkatan yang difokuskan pada pengelolaan agen.
Untuk mempercepat kreasi dan penerapan agen, Red Hat memperkenalkan Unified API layer berbasis Llama Stack yang membantu menyelaraskan pengembangan dengan standar industri seperti protokol interface LLM yang kompatibel dengan OpenAI. Selain itu, untuk mengembangkan ekosistem yang lebih terbuka dan interoperable, Red Hat menjadi pengadopsi awal Model Context Protocol (MCP), sebuah standar baru yang kuat untuk menyederhanakan cara model AI berinteraksi dengan tools eksternal.
Red Hat AI 3 juga memperkenalkan toolkit modular dan dapat diperluas untuk kustomisasi model, dibangun di atas fungsi InstructLab. Toolkit ini menyediakan libraries Python khusus yang memberikan fleksibilitas dan kontrol yang lebih besar kepada para pengembang. Sistem ini ditenagai oleh proyek open source seperti Docling untuk pemrosesan data, yang menyederhanakan proses ingestion dokumen yang tidak terstruktur menjadi format yang bisa dibaca oleh AI.
Toolkit ini juga termasuk framework fleksibel untuk menghasilkan data sintetis dan training hub untuk melatih LLM. Pusat evaluasi yang terintegrasi membantu engineer AI memonitor dan memvalidasi hasil, mendorong mereka lebih percaya diri dalam memanfaatkan proprietary data untuk mendapatkan outcomes AI yang lebih akurat dan relevan.
Dukungan dari mitra teknologi turut memperkuat posisi Red Hat dalam ekosistem AI. Dan McNamara, Senior Vice President dan General Manager Server and Enterprise AI AMD, menyatakan kebanggaannya sebagai fondasi kuat di balik platform ini. “Bersama, kami telah mengintegrasikan efisiensi dari prosesor AMD EPYCâ„¢, skalabilitas GPU AMD Instinctâ„¢, dan keterbukaan software stack AMD ROCmâ„¢ untuk membantu perusahaan bergerak dari fase eksperimen dan mengoperasionalkan AI generasi berikutnya,” ujarnya.
Ujval Kapasi, Vice President Engineering AI Frameworks NVIDIA, menambahkan bahwa inferensi yang skalabel dan berperforma tinggi adalah kunci menuju AI generatif dan agentic AI gelombang berikutnya. “Dengan dukungan inferensi terakselerasi dari teknologi open source NVIDIA Dynamo dan NIXL, Red Hat AI 3 menyediakan platform terpadu yang memberdayakan tim IT untuk bergerak cepat dari fase eksperimental ke fase menjalankan beban kerja AI dan agen AI dalam skala besar.”
Pengalaman nyata dari implementasi platform ini datang dari ARSAT, penyedia infrastruktur konektivitas untuk Argentina. Mariano Greco, CEO ARSAT, mengungkapkan bahwa dengan membangun platform agentic AI di Red Hat OpenShift AI, mereka hanya butuh 45 hari untuk mengidentifikasi kebutuhan hingga ke tahap produksi. “Red Hat OpenShift AI tidak hanya membantu kami meningkatkan pelayanan dan mengurangi waktu yang dihabiskan tim engineer untuk mengatasi masalah, namun juga membebaskan mereka untuk fokus pada inovasi dan pengembangan baru.”
Rick Villars, Group Vice President Worldwide Research IDC, memberikan perspektif analitis tentang perkembangan ini. “2026 akan menjadi titik balik saat perusahaan beralih dari tahap awal penerapan AI ke tahap di mana mereka menuntut outcome bisnis yang terukur dan berkelanjutan dari investasi AI mereka. Perusahaan sukses yang digerakkan oleh AI adalah perusahaan yang mampu membangun platform terpadu untuk mengelola beban kerja yang semakin rumit di lingkungan hybrid cloud.”
Perkembangan infrastruktur AI terus mengalami percepatan signifikan, termasuk dalam hal eksplorasi pusat data di luar angkasa yang mulai menarik perhatian berbagai pemain industri. Sementara itu, inovasi dalam layanan AI juga terus bermunculan, seperti layanan AI Token dari Huawei Cloud yang mendukung pelopor industri.
Dengan peluncuran Red Hat AI 3, lanskap enterprise AI memasuki babak baru di mana organisasi tidak hanya fokus pada pengembangan model, tetapi juga pada operasionalisasi AI dalam skala produksi yang efisien dan terukur. Platform ini menawarkan jalan bagi perusahaan untuk mengubah investasi AI mereka menjadi nilai bisnis yang nyata, sekaligus mempersiapkan fondasi untuk gelombang berikutnya inovasi AI yang lebih canggih.




