Rabu, 30 Juli 2025
Selular.ID -

Google, OpenAI, Roblox, dan Discord Bersatu Cegah Eksploitasi Anak di Era AI

BACA JUGA

SELULAR.ID – Para perusahaan besar di bidang teknologi sepakat membentuk aliansi Robust Open Online Safety Tools (ROOST), yakni inisiatif nonprofit yang bertujuan meningkatkan keamanan anak-anak di dunia digital. Mereka yang tergabung di dalamnya adalah Google, OpenAI, Roblox, dan Discord. Pengumuman pembentukan aliansi itu dideklarasikan dalam momen AI Action Summit di Paris, yang kini sedang berlangsung.

ROOTS sendiri akan menyediakan alat berbasis AI yang gratis dan open-source untuk membantu perusahaan mendeteksi, meninjau, serta melaporkan konten eksploitasi anak, termasuk materi pelecehan seksual anak atau Child Sexual Abuse Material (CSAM). Para perusahaan teknologi tersebut membentuk ROOTS sebagai respon terhadap kekhawatiran penyalahgunaan AI.

Mengutip Maginativ, eksploitasi anak Amerika Serikat (AS) di dunia digital terus meningkat tajam. Pada 2023, Pusat Nasional Anak Hilang dan Tereksploitasi atau National Center for Missing & Exploited Children (NCMEC) mencatat lonjakan 12 persen dalam kasus eksploitasi anak yang dicurigai secara online, mencapai lebih dari 36,2 juta laporan.

Baca juga: Dalam 3 Tahun, Lebih Dari 36 Juta Malware Menyusup OpenAI & Roblox

Dengan AI yang semakin mendominasi ruang digital, tekanan terhadap perusahaan teknologi untuk memastikan keamanan anak-anak di platform mereka juga semakin besar. Setidaknya, dalam empat tahun kedepan ROOTS akan menjalankan tugasnya, usai mendapatkan pendanaan awal senilai $27 juta.

Secara global, perlindungan anak dalam bidang teknologi digital kian digencarkan. Di Australia misalnya, UU negara tersebut sudah melarang anak di bawah 16 tahun memiliki media sosial. Saat ini ROOTS didukung berbagai organisasi filantropi besar, termasuk Patrick J McGovern Foundation, Knight Foundation, dan AI Collaborative.

ROOST akan berbasis di Institute of Global Politics, Columbia University. Organisasi ini melibatkan para ahli di bidang AI, keamanan siber, dan perlindungan anak. Upaya mereka meliputi penggunaan Large Language Models (LLMs) untuk meningkatkan keamanan, menyediakan dataset AI yang telah diverifikasi, serta menyempurnakan teknologi moderasi konten yang sudah ada.

ROOST juga berencana menyediakan alat moderasi AI berbasis API yang dapat langsung diintegrasikan oleh berbagai platform. Meski detail teknisnya masih minim, ada kemungkinan ROOST akan mengadopsi proyek Lantern milik Discord, sistem berbasis AI yang memfasilitasi berbagi informasi lintas platform untuk mendeteksi konten berbahaya.

Roblox juga akan membuka akses ke sistem moderasi AI-nya, yang mampu mendeteksi ucapan tidak pantas dalam rekaman audio. Fitur ini kemungkinan akan menjadi bagian dari teknologi ROOST.

Baca juga: Dukung Perkembangan Esports Tanah Air, iQoo Gandeng Bigetron

Meski mendapat dukungan dari perusahaan-perusahaan besar, masih belum jelas bagaimana alat AI ROOST akan berintegrasi dengan sistem deteksi CSAM yang sudah ada, seperti fitur PhotoDNA dari Microsoft.

ROOST berjanji untuk menyediakan infrastruktur keamanan open-source, yang bisa menjadi solusi bagi perusahaan-perusahaan kecil yang selama ini menghadapi kendala biaya dalam menerapkan sistem moderasi berbasis AI.

Baca Juga: Wajah Baru Dunia Teknologi, Ini Sosok Pendiri DeepSeek Liang Wenfeng

- Advertisement 1-

BERITA TERKAIT

BERITA PILIHAN

BERITA TERBARU