Senin, 4 Agustus 2025
Selular.ID -

Jangan Curhat ke ChatGPT, Ini Bahaya yang Mengintai

BACA JUGA

Selular.id – CEO OpenAI Sam Altman memperingatkan pengguna untuk tidak menjadikan ChatGPT sebagai tempat curhat masalah pribadi. Alasannya, industri AI saat ini belum memiliki kerangka hukum yang melindungi kerahasiaan percakapan pengguna, berbeda dengan layanan terapis atau konseling profesional.

Dalam wawancara di podcast ‘This Past Weekend w/ Theo Von’, Altman mengungkapkan kekhawatirannya tentang tren anak muda yang menggunakan ChatGPT sebagai pengganti terapis. Padahal, percakapan dengan chatbot AI tidak memiliki perlindungan hukum seperti kerahasiaan dokter-pasien atau klien-pengacara.

“Saat ini, jika kalian bicara dengan terapis atau pengacara tentang masalah pribadi, ada hak-hak istimewa hukum untuk itu. Ada kerahasiaan dokter-pasien, ada kerahasiaan hukum, dan sebagainya. Kami belum menemukan solusinya saat kalian berbicara dengan ChatGPT,” kata Altman, seperti dikutip dari TechCrunch.

Risiko Kebocoran Data Pribadi

Altman menjelaskan bahwa OpenAI secara hukum dapat diwajibkan untuk membuka percakapan pengguna jika terjadi gugatan di pengadilan. Selain itu, model AI seperti ChatGPT juga dikenal sering mengulang informasi yang diberikan pengguna saat ditanyakan oleh orang lain.

London, UK - 05 03 2025: Apple iPhone screen with Artificial Intelligence icons internet AI app application ChatGPT, DeepSeek, Gemini, Copilot, Grok, Claude, etc.

William Agnew, peneliti dari Carnegie Mellon University, menambahkan bahwa meskipun perusahaan berusaha menjaga data pengguna, model AI tetap berpotensi membocorkan informasi sensitif. “Orang-orang seharusnya lebih memikirkan privasi dan menyadari bahwa hampir semua yang mereka sampaikan kepada chatbot ini tidak bersifat pribadi,” ujarnya.

Alternatif yang Lebih Aman

Bagi pengguna yang membutuhkan tempat curhat, Altman menyarankan untuk tetap menggunakan layanan profesional seperti terapis atau konselor. Seperti yang terjadi di beberapa perusahaan besar, kebocoran data bisa berakibat serius jika informasi sensitif tersebar.

OpenAI sendiri sebelumnya telah menghapus fitur yang menampilkan obrolan pengguna di hasil pencarian untuk meningkatkan privasi. Namun, Altman mengakui bahwa perlindungan data pengguna masih menjadi tantangan besar dalam pengembangan AI.

Di beberapa negara, kekhawatiran ini bahkan telah memicu larangan penggunaan ChatGPT, seperti yang terjadi di beberapa wilayah dengan regulasi ketat. Pengguna disarankan untuk selalu memeriksa keaslian aplikasi AI, mengingat maraknya aplikasi ChatGPT palsu yang berpotensi mencuri data.

Meskipun AI seperti ChatGPT terus berkembang dan diprediksi akan terus diadopsi dalam 10-20 tahun ke depan, pengguna tetap perlu bijak dalam berinteraksi dengan teknologi ini.

- Advertisement 1-

BERITA TERKAIT

BERITA PILIHAN

BERITA TERBARU