Selular.ID – OpenAI dilaporkan mulai menghadirkan fitur baru di ChatGPT yang memungkinkan pengguna menunjuk kontak terpercaya untuk menerima notifikasi ketika sistem mendeteksi indikasi masalah keselamatan serius dalam interaksi AI.
Fitur tersebut menjadi bagian dari upaya perusahaan memperkuat aspek keamanan dan perlindungan pengguna di tengah meningkatnya penggunaan chatbot berbasis kecerdasan buatan.
Informasi mengenai fitur ini muncul pada Mei 2026 melalui laporan yang menyebut pengguna ChatGPT nantinya dapat memilih satu kontak terpercaya yang akan dihubungi apabila sistem AI mendeteksi potensi risiko serius terkait keselamatan pengguna.
Pendekatan tersebut disebut dirancang untuk memberikan lapisan perlindungan tambahan tanpa menggantikan layanan darurat profesional.
Langkah OpenAI hadir ketika perusahaan teknologi AI global semakin mendapat sorotan terkait keamanan penggunaan chatbot, terutama dalam percakapan yang berkaitan dengan kesehatan mental, krisis emosional, atau potensi tindakan berbahaya.
Dalam beberapa tahun terakhir, perusahaan AI mulai memperkuat sistem moderasi dan mekanisme intervensi untuk mengurangi risiko penyalahgunaan teknologi.
Fitur kontak terpercaya ini disebut bekerja dengan persetujuan pengguna. Pengguna dapat menentukan siapa yang akan menerima notifikasi apabila sistem mendeteksi pola percakapan yang mengarah pada situasi darurat atau risiko keselamatan tertentu.
Meski detail teknis lengkap belum diumumkan secara resmi, sistem tersebut diperkirakan memanfaatkan model deteksi berbasis AI untuk mengidentifikasi konteks percakapan yang berpotensi berbahaya.
Teknologi serupa sebelumnya telah digunakan berbagai platform digital untuk mendeteksi indikasi self-harm, ancaman kekerasan, atau kondisi krisis psikologis.
OpenAI sendiri selama ini telah menerapkan sejumlah mekanisme keamanan di ChatGPT, termasuk pembatasan respons pada topik berisiko tinggi dan penyaringan konten sensitif.
Penambahan fitur kontak darurat menunjukkan pendekatan perusahaan yang mulai bergerak dari sekadar moderasi konten menuju sistem mitigasi risiko yang lebih proaktif.
Perkembangan AI generatif memang memunculkan tantangan baru terkait etika dan keselamatan digital.
Seiring chatbot AI semakin sering digunakan sebagai asisten pribadi, teman diskusi, hingga tempat berbagi masalah emosional, perusahaan teknologi menghadapi tekanan untuk memastikan sistem mereka tidak memperburuk kondisi pengguna yang sedang mengalami krisis.
Di berbagai negara, regulator dan organisasi keselamatan digital mulai mendorong perusahaan AI untuk menerapkan standar perlindungan yang lebih ketat.
Fokus utamanya mencakup transparansi sistem AI, perlindungan data pribadi, serta mekanisme penanganan situasi darurat yang melibatkan pengguna rentan.
Fitur kontak terpercaya di ChatGPT juga menimbulkan diskusi mengenai privasi pengguna. Karena itu, implementasi sistem semacam ini diperkirakan akan membutuhkan kontrol berbasis izin atau consent yang jelas agar pengguna tetap memiliki kendali atas data dan interaksi mereka.
OpenAI hingga kini belum mengungkap jadwal peluncuran global fitur tersebut maupun negara yang akan mendapat akses pertama.
Namun laporan yang beredar menunjukkan perusahaan tengah mengembangkan sistem keamanan tambahan seiring meningkatnya skala penggunaan ChatGPT secara global.
Dalam beberapa tahun terakhir, ChatGPT berkembang dari sekadar chatbot produktivitas menjadi platform AI multifungsi yang digunakan untuk pendidikan, pekerjaan, kreativitas, hingga percakapan personal.
Perluasan penggunaan tersebut membuat aspek keamanan dan kesehatan digital menjadi perhatian utama dalam pengembangan teknologi AI generatif.
Selain OpenAI, sejumlah perusahaan AI lain juga mulai mengembangkan fitur keselamatan serupa, termasuk sistem deteksi krisis dan pembatasan percakapan sensitif.
Baca Juga:Smartphone AI ChatGPT Siap Diproduksi 2027
Persaingan di industri AI kini tidak hanya berfokus pada kemampuan model bahasa, tetapi juga pada bagaimana perusahaan membangun sistem AI yang dinilai aman dan bertanggung jawab bagi pengguna luas.




