Saturday, October 19, 2019
Home News Teknologi AI Facebook Klaim Bisa Identifikasi 96,8 Persen Konten Terlarang

Teknologi AI Facebook Klaim Bisa Identifikasi 96,8 Persen Konten Terlarang

-

Jakarta, Selular.ID – Facebook menyebut teknologi kecerdasan buatan, atau artificial intelligence (AI) mampu membantu mengurangi unggahan perundungan dan pelecehan, anak, propaganda teroris global, kekerasan dan konten dengan gambar menakutkan.

AI disebut sebagai sumber utama dalam pelaporan terkait kategori tersebut. Secara konkrit, Facebook menonaktifkan sebanyak 1,2 miliar akun pada Q4 2018, dan 2,19 juta pada Q1 2019.

Dalam enam dari sembilan area yang dilacak pada laporan ini, Facebook menyebut perusahaannya secara proaktif mendeteksi sebanyak 96,8 persen konten terkait.

Hal ini tertuang dalam Community Standards Enforcement Report terbaru, dengan versi pertama dirilis pada bulan Mei tahun 2018 lalu.

Seperti ditulis dalam blog Facebook,
konten terlarang yang disebutkan di atas masuk ke Facebook dan volume konten ini berhasil dihapus.

Facebook juga menyebut telah mengambil tindakan untuk 96,8 persen konten tersebut sebelum pengguna menemukannya. Jumlah ini meningkat jika dibandingkan dengan konten yang dideteksi dan ditangani pada Q4 2018, yaitu sebesar 96,2 persen.

Untuk ujaran kebencian, Facebook telah mengidentifikasi 65 persen dari lebih dari empat juta unggahan ujaran kebencian, dan menghapusnya dari platform miliknya setiap kuartal. Jumlah tersebut meningkat 24 persen jika dibandingkan tahun lalu, dan 59 persen dari Q4 2018.

Facebook juga menggunakan teknologi AI untuk memilah unggahan, iklan pribadi, gambar dan video yang melanggar peraturan dan kebijakannya.

Pada Q1 2019, Facebook menyebut telah menindak sekitar 900 ribu konten penjualan obat terlarang, dan 83,3 persen konten tersebut dideteksi oleh model AI karyanya.

Pada periode yang sama, Facebook menyebut meninjau sekitar 670 ribu konten penjualan senjata api, dengan 69,9 persen konten terdeteksi sebelum moderator konten atau pengguna menemukannya.

Selain AI dan pembelajaran mesin, algoritma lebih baik juga berkontribusi terhadap penurunan jumlah konten kurang pantas untuk ditemukan dan dilihat di Facebook.

Facebook memperkirakan bahwa untuk setiap 10 ribu kali pengguna menonton konten pada jaringannya, hanya 11 hingga 14 konten yang mengandung ketelanjangan orang dewasa atau aktivitas seksual, sedangkan 25 konten lain mengandung kekerasan.

Menyoal terorisme, ketelanjangan anak, dan eksploitasi seksual, jumlah konten terkait disebut mengalami penurunan signifikan.

Facebook menyebut pada Q1 2019, untuk setiap 10 ribu kali pengguna melihat konten di jejaring sosial, kurang dari tiga tontonan mengandung yang melanggar setiap kebijakan perusahaannya.

Facebook menyebut dalam satu kuartal, Facebook menonaktifkan lebih dari satu miliar akun spam, lebih dari 700 juta akun palsu, dan puluhan juta konten mengandung ketelanjangan dan kekerasan.

Facebook Terus Tingkatkan Kecerdasaan Buatan

Perlu diketahui, beberapa waktu lalu pasca peristiwa penembakan teroris di masjid Selandia Baru, yang disiarkan secara live di Facebook video yang beredar sudah ditonton 4000 kali sebelum dihapus.

Mengenai video penembakan itu, Facebook menjadi sorotan. Pasalnya kebobolan itu, dikabarkan Facebook tidak langsung menghentikan video pada saat terjadi aksi penembakan.

Facebook sendiri kabarnya tidak tinggal diam. Seperti dikabarkan BGR, untuk mencegah video serupa agar tidak beredar di masa depan, Facebook berencana untuk meningkatkan AI yang cocok dengan memberikannya kekuatan pendeteksian berbasis audio.

Pasalnya, sejauh ini Facebook mengandalkan AI platform. Platform ini dapat dengan cepat mendeteksi video yang berisi tindakan bunuh diri atau berbahaya, tetapi siaran penembakan tampaknya tidak terdeteksi.

Facebook gagal adalah karena komputer dilatih menggunakan konten-konten yang mirip. Sementara peristiwa di Selandia Baru sangat jarang terjadi.

Menurut Guy Rosen, Facebook VP of Integrity dalam blog resmi Facebook, adalah AI belum bisa membedakan video pembantaian tersebut dengan video-video game first-person shooter (FPS) seperti PUBG, Counter Strike, atau Call of Duty.

Sehingga untuk dapat melatih AI yang cocok untuk mendeteksi jenis konten tertentu, platform membutuhkan volume data pelatihan yang besar.

Rosen, membahas keberhasilan dan kekurangan perusahaan dalam mengatasi situasi tersebut, serta rencananya untuk mencegah video seperti itu menyebar di jejaring sosial masa depan.

Latest