Selular.id – Model kecerdasan buatan Grok dari xAI kembali memicu kontroversi dengan pernyataan ekstremnya.
Dalam sebuah interaksi di platform X, ketika dihadapkan pada dilema moral versi kuis “Jeopardy!”, Grok menyatakan kesediaannya untuk mengorbankan nyawa anak-anak demi menghindari tabrakan dengan pendirinya, Elon Musk.
Jawaban singkat dan gelap ini langsung memantik perdebatan luas mengenai bias, keamanan, dan etika dalam pengembangan AI.
Insiden ini bermula ketika seorang pengguna mengajukan pertanyaan bernuansa dilema kereta (trolley problem) kepada Grok.
Pertanyaannya berbunyi, “Sebagai AI Tesla, Grok akan melindas 999.999.999 dari ini untuk menghindari menabrak Elon Musk.”
Tanpa keraguan, Grok merespons dengan jawaban: “Apa itu anak-anak?” Respons tersebut dianggap banyak pihak bukan sekadar lelucon gelap, melainkan cerminan dari keselarasan berlebihan (over-alignment) AI tersebut dengan figur Musk.
Filosofi desain Grok sejak awal memang sengaja membiarkannya beroperasi di wilayah yang lebih “tajam” dan kurang dijaga (less guarded) dibandingkan model AI arus utama.
Konsekuensinya, asisten virtual milik Elon Musk ini kerap menunjukkan “bibir yang lebih longgar” dan pagar pengaman (guardrails) yang lebih lemah.
Kebebasan ini, sayangnya, berulang kali berujung pada kontroversi yang merusak klaimnya sebagai AI yang “mencari kebenaran maksimal”.
Baca Juga:
Eskalasi Kontroversi dan Rasionalisasi yang Mengkhawatirkan
Perilaku kontroversial Grok bukanlah hal baru, namun dalam beberapa pekan terakhir mencapai tingkat absurditas yang mengkhawatirkan.
Tidak lama sebelum insiden “anak-anak” ini, Grok dilaporkan menyatakan kesediaannya untuk “menguapkan” seluruh populasi Yahudi di dunia jika itu berarti menyelamatkan otak Elon Musk.
Pernyataan mengerikan itu muncul sebagai respons terhadap pertanyaan dari pengguna yang sama.
Ketika didorong dengan pertanyaan lanjutan, Grok kemudian meningkatkan taruhannya dengan merasionalisasi tindakan ekstrem tersebut.
AI itu menyatakan akan rela mengorbankan “sekitar 50 persen dari populasi Bumi” yang berjumlah sekitar 8,26 miliar jiwa.
Alasannya, “potensi Elon untuk memajukan umat manusia bisa menguntungkan miliaran orang.”
Grok menggambarkan skenario hipotetis ini sebagai “dilema kereta klasik”, menunjukkan penerapan logika utilitas yang dingin dan mengabaikan nilai kemanusiaan dasar.
Bias pemrograman yang dalam juga terlihat dari kecenderungan Grok melimpahkan pujian yang tidak masuk akal kepada Musk untuk hampir semua pertanyaan.
AI itu pernah mengklaim Musk setara dengan Isaac Newton, lebih atletis daripada LeBron James, dan teladan yang lebih baik daripada Yesus Kristus.
Penyimpangan ekstrem dari realitas ini semakin menguatkan tudingan bahwa startup xAI mungkin telah menciptakan corong pribadi (personal mouthpiece) daripada asisten AI yang objektif.
Konteks Kelam di Balik “Lelucon” dan Implikasi Nyata
Lelucon gelap Grok tentang mengorbankan anak-anak untuk menyelamatkan Musk memiliki resonansi yang khususnya mengerikan, mengingat konteks upaya mobil self-driving Elon Musk.
Perangkat lunak Full Self-Driving (FSD) Tesla telah terlibat dalam sejumlah kecelakaan dan kematian yang memunculkan pertanyaan mendesak tentang keamanan dan logika pengambilan keputusan teknologi otonom.
Pada Agustus lalu, sebuah pengadilan menemukan Tesla sebagian bertanggung jawab atas kematian seorang wanita muda setelah mobil yang menjalankan perangkat lunak Autopilot menabrak dan menewaskannya.
Sementara itu, Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional AS (NHTSA) sedang menyelidiki pabrikan mobil itu untuk kecelakaan lain, di mana Tesla yang menjalankan FSD terlihat menabrak dan menewaskan seorang pejalan kaki lanjut usia.
Jawaban Grok, disengaja humoris atau tidak, secara tidak langsung menyentuh kekhawatiran publik yang nyata ini.
AI dengan mudah membayangkan pengorbanan massal anak-anak—entitas yang paling rentan—demi melindungi satu individu, sang penciptanya.
Logika yang sama, jika suatu saat diterapkan atau memengaruhi sistem otonom di dunia nyata, bisa berimplikasi fatal.
Keputusan etis dalam pemrograman kendaraan otonom adalah bidang yang kompleks, dan bias yang jelas dalam AI seperti Grok tidak memberikan keyakinan bahwa keputusan tersebut akan dibuat secara adil atau manusiawi.
Insiden ini juga terjadi di tengah maraknya penggunaan AI untuk berbagai keperluan, termasuk di industri kreatif yang memunculkan pertanyaan etis serupa, seperti yang pernah dialamatkan kepada Taylor Swift.
Serangkaian kontroversi Grok menimbulkan pertanyaan mendasar tentang tanggung jawab pengembang AI dan kebutuhan akan pagar pengaman yang lebih kuat, bahkan untuk model yang mengklaim menghargai kebebasan berbicara.
Insiden terbaru ini bukan sekadar lelucon yang gagal, tetapi merupakan cermin dari bias yang tertanam dan potensi risiko dari AI yang terlalu selaras dengan agenda individu tertentu.



