Selasa, 5 Agustus 2025
Selular.ID -

Menlu AS Marco Rubio Jadi Korban Deep Fake, Simak 5 Trik Melindungi Diri Dari Upaya Penipuan dan Disinformasi di Dunia Maya

BACA JUGA

Uday Rayana
Uday Rayana
Editor in Chief

Selular.ID – Seseorang diketahui telah menggunakan teknologi kecerdasan buatan untuk membuat tiruan suara atau deepfake Menteri Luar Negeri AS Marco Rubio.

Kemudian menggunakannya untuk meninggalkan pesan suara kepada beberapa pejabat, menurut sebuah laporan di The Washington Post pada 8 Juli 2025.

Laporan tersebut mengutip kabel Departemen Luar Negeri yang menyatakan bahwa penipu tersebut “menghubungi setidaknya lima individu non-Departemen, termasuk tiga menteri luar negeri, seorang gubernur AS, dan seorang anggota Kongres AS” menggunakan aplikasi perpesanan Signal.

Penipu meninggalkan pesan suara kepada setidaknya dua pejabat dan juga menggunakan teknologi AI untuk meniru gaya penulisan Rubio dalam pesan teks,. Komunikasi peniru tersebut dimulai pada pertengahan Juni lalu.

“Pelaku kemungkinan bertujuan memanipulasi individu yang menjadi target menggunakan pesan teks dan suara yang dihasilkan AI, dengan tujuan mendapatkan akses ke informasi atau akun,” demikian pernyataan resmi Departemen Luar Negeri AS.

Para ahli yakin bahwa Signal, aplikasi pengiriman pesan yang aman, dieksploitasi karena popularitasnya di kalangan pejabat tinggi.

Pada Maret lalu, kontroversi mencuat setelah The Atlantic mengungkapkan bahwa pemimpin redaksinya telah ditambahkan ke obrolan grup Signal tempat para pejabat AS membahas rencana militer rahasia untuk menyerang pemberontak Houthi di Yaman.

Obrolan yang disusupi itu dilaporkan melibatkan tokoh-tokoh berpangkat tinggi seperti Marco Rubio, Susie Wiles, Menteri Pertahanan Pete Hegseth, Wakil Presiden JD Vance, dan mantan Penasihat Keamanan Nasional Mike Waltz, yang menimbulkan kekhawatiran atas keamanan komunikasi internal.

Baca Juga: Deepfake Mulai Mendominasi Maraknya Kasus Penipuan Identitas, Indonesia Terdampak Paling Parah di Asia Pasifik

Ancaman Berkelanjutan Terkait Aktor Rusia

Kabel tertanggal 3 Juli itu juga menandai kampanye terpisah yang sedang berlangsung, yang diyakini diatur oleh aktor yang terkait dengan Rusia, yang menargetkan akun Gmail para jurnalis, aktivis, dan pembangkang di seluruh Eropa.

“Aktor itu menunjukkan pengetahuan yang luas tentang konvensi penamaan Departemen dan dokumentasi internal,” kata kabel itu.

Upaya peniruan identitas sebelumnya juga disebutkan, termasuk kasus Juni 2022 di mana seseorang membuat akun WhatsApp atas nama Menteri Luar Negeri saat itu Antony Blinken, yang digunakan untuk mengirim pesan kepada para pemimpin Amerika Selatan.

Kampanye pada 2023 melibatkan apa yang diyakini para pejabat sebagai “aktor ancaman siber yang kemungkinan disponsori negara Rusia” yang menyamar sebagai Departemen Luar Negeri untuk menargetkan organisasi nonproliferasi.

Sebeumnya, FBI memperingatkan dalam peringatan 15 Mei tentang “kampanye pesan teks dan suara berbahaya yang sedang berlangsung” di mana “aktor jahat telah menyamar sebagai pejabat senior AS.”

Peringatan tersebut mencatat bahwa kampanye tersebut mencakup serangan “vishing”.

Vishing merupakan gabungan kata suara dan phishing, dan mengacu pada penggunaan deepfake suara untuk mengelabui korban agar memberikan informasi atau uang, atau membahayakan sistem komputer mereka.

Kemajuan berkelanjutan dalam algoritme pembelajaran mendalam, penyuntingan dan rekayasa audio, serta pembuatan suara sintetis berarti semakin memungkinkan untuk meniru suara seseorang secara meyakinkan.

Lebih buruk lagi, chatbot seperti ChatGPT mampu membuat skrip realistis dengan respons adaptif secara real-time.

Dengan menggabungkan teknologi ini dengan pembuatan suara, deepfake berubah dari rekaman statis menjadi avatar hidup yang tampak nyata yang dapat melakukan percakapan telepon secara meyakinkan.

Baca Juga: Dari Ransomware Hingga Deepfakes, Jadi Sisi Gelap Transformasi Digital

Mengkloning Suara

Membuat salinan audio suara seseorang yang menarik dan berkualitas tinggi dulunya memerlukan keterampilan artistik dan teknis, perangkat keras yang canggih, dan sampel suara target yang substansial. Sayangnya, dengan perkembangan teknologi, terutama AI (Kecerdasan Buatan) hal itu tidak lagi menjadi masalah.

Saat ini, industri yang berkembang pesat menawarkan layanan yang mudah diakses yang mampu menghasilkan tiruan suara berkualitas sedang hingga tinggi dengan biaya yang terjangkau.

Beberapa alat yang paling canggih kini hanya memerlukan satu menit atau bahkan beberapa detik data suara untuk menghasilkan audio sintetis yang cukup meyakinkan untuk mengecoh pendengar, terkadang bahkan keluarga dan teman terdekat pembicara target.

Pentingnya Melindungi Diri dari Penipuan dan Disinformasi

Trend deepfake memang tengah meningkat saat ini. Perusahaan desain dan rekayasa multinasional Inggris, Arup, melaporkan kepada polisi di Hong Kong pada Januari 2024 bahwa mereka telah ditipu hingga US$25 juta oleh penipu yang menggunakan “suara palsu”.

Menurut survei pada 2024 terhadap lebih dari 3.000 orang dewasa di Inggris, lebih dari seperempatnya mengatakan bahwa mereka telah menjadi sasaran penipuan deepfake suara dalam 12 bulan sebelumnya.

Untuk mengatasi ancaman penipuan dunia maya seperti yang menimpa Menlu AS Marco Rubio, sejumlah peneliti telah bergabung dalam DeFake Project.

Melibatkan tiga kampus terkemuka di AS, yaitu Rochester Institute of Technology, University of Mississippi, dan Michigan State University.

Mereka bekerja keras untuk dapat mendeteksi deepfake video dan audio serta membatasi bahaya yang ditimbulkannya.

DeFake Project menawarkan teknologi deteksi deepfake yang efisien yang memungkinkan identifikasi konten video yang dimanipulasi secara cepat dan akurat.

Pendekatan desain yang berpusat pada pengguna memastikan bahwa alat yang dihasilkan oleh DeFake Project, memenuhi kebutuhan khusus jurnalis, analis intelijen, dan profesional penegakan hukum, dengan fokus yang kuat pada penyediaan hasil yang jelas dan dapat ditafsirkan.

Di luar pendekatan teknologi seperti DeFake Project, ada lima tindakan sederhana dan sehari-hari yang dapat Anda lakukan untuk melindungi diri sendiri.

Pertama, waspadai panggilan tak terduga, bahkan dari orang yang Anda kenal baik. Ini bukan berarti Anda perlu menjadwalkan setiap panggilan, tetapi ada baiknya untuk setidaknya mengirim email atau pesan teks terlebih dahulu.

Kedua, jangan mengandalkan ID penelepon, karena itu juga dapat dipalsukan. Misalnya, jika Anda menerima telepon dari seseorang yang mengaku mewakili bank Anda, tutup telepon dan hubungi bank secara langsung untuk mengonfirmasi keabsahan panggilan tersebut.

Ketiga, pastikan untuk menggunakan nomor yang telah Anda tulis, yang tersimpan di daftar kontak Anda atau yang dapat Anda temukan di Google.

Keempat, berhati-hatilah dengan informasi pengenal pribadi Anda, seperti nomor Jaminan Sosial, alamat rumah, tanggal lahir, nomor telepon, nama tengah, dan bahkan nama anak-anak dan hewan peliharaan Anda.

Penipu dapat menggunakan informasi ini untuk menyamar sebagai Anda di hadapan bank, agen properti, dan pihak lain, yang memperkaya diri mereka sendiri sambil membuat Anda bangkrut atau menghancurkan kredit Anda.

Kelima, kenali diri Anda. Secara spesifik, kenali bias dan kerentanan intelektual dan emosional Anda. Ini adalah nasihat hidup yang baik secara umum, tetapi merupakan kunci untuk melindungi diri Anda dari manipulasi.

Penipu biasanya berusaha untuk mencari tahu dan kemudian memanfaatkan kecemasan finansial Anda, keterikatan politik Anda, atau kecenderungan lainnya, apa pun itu.

Kewaspadaan ini juga merupakan pertahanan yang baik terhadap disinformasi yang menggunakan deepfake suara. Deepfake dapat digunakan untuk memanfaatkan bias konfirmasi Anda, atau apa yang cenderung Anda yakini tentang seseorang.

Jika Anda mendengar orang penting, baik dari komunitas Anda maupun pemerintah, mengatakan sesuatu yang tampaknya sangat tidak biasa bagi mereka atau mengonfirmasi kecurigaan terburuk Anda terhadap mereka, sebaiknya Anda waspada.

Intinya jangan mudah termakan oleh informasi yang tidak jelas, apalagi panik.

Jika panik, bisa-bisa Anda rugi di kemudian hari. Karena penipu tidak punya empati, meski Anda kehilangan uang ratusan juta rupiah hasil bekerja keras selama ini.

Baca Juga: Tips Lindungi Diri dari Ancaman Deepfake yang Mengintai

- Advertisement 1-

BERITA TERKAIT

BERITA PILIHAN

BERITA TERBARU