Jakarta (ANTARA) - Facebook menggunakan kecerdasan buatan (AI) yang canggih untuk mendeteksi dan menghapus konten yang terkait dengan kelompok teroris dan kebencian terorganisir.

Dengan teknologi tersebut, Facebook mampu mendeteksi dan memahami konteks konten yang melanggar standar komunitas, seperti teks yang disematkan dalam gambar dan video, pencocokan media untuk menemukan konten identik dengan foto, video, teks, dan bahkan audio yang telah Facebook hapus sebelumnya.

“Teknologi kecerdasan buatan secara proaktif memfilter konten-konten yang berpotensi melanggar,” kata Head of Counter-Terrorism and Dangerous Organizations Facebook APAC, Nawab Osman saat diskusi virtual bertajuk "Facebook - Dangerous Organisations: Under the Hood Press Briefing" pada Kamis.

Setidaknya ada enam teknik dalam penggunaan dan pemanfaatan teknologi Facebook untuk memerangi konten terorisme. Mulai dari mengumpulkan propaganda terorisme dari kanal-kanal distribusi yang ada, mencocokkan gambar dan video untuk mencegah konten kekerasan di masa mendatang, menggolongkan konten untuk memahami teks, mengidentifikasi kelompok organisasi berbahaya, mengidentifikasi akun berbahaya yang sebelumnya telah dihapus, hingga membagikan informasi penting untuk pengguna di semua platform.

Osman menyebutkan sekitar 99,7 persen konten teroris dan 97,8 persen konten kebencian terorganisir ditindak oleh Facebook pada April hingga Juni 2021. Konten tersebut diidentifikasi secara proaktif menggunakan teknologi yang terus diperbarui, bahkan sering kali sebelum ada orang yang melihatnya.

Mengutip laman laporan Facebook, jika dirinci konten terorisme yang ditindaklanjuti pada kuartal kedua menurun dari 9 juta konten di kuartal pertama menjadi 7,1 juta. Sementara konten kebencian terorganisir menurun dari 9,8 juta konten di kuartal pertama menjadi 6,2 juta di kuartal kedua.

“Kami perlu memahami bahwa pelaku sangat pintar dalam mengakali sistem kami. Oleh sebab itu, jika AI tidak yakin apakah konten ini melanggar atau tidak, kami punya ribuan content reviewer yang memiliki keahlian dan akan memutuskan apakah konten tersebut melanggar standar komunitas atau tidak,” kata Osman.

Ia menyebutkan setidaknya ada 350 orang yang tergabung dalam tim spesialis yang berfokus untuk mengatasi isu organisasi berbahaya di platform Facebook, Instagram, dan WhatsApp.

Osman mengatakan tim pakar dan content policy secara proaktif memantau dan menganalisis laporan berita hingga melakukan riset terkait konten serta isu terorisme dan kebencian terorganisir.

Tim tersebut terdiri dari orang-orang yang memiliki berbagai latar belakang kepakaran, seperti dari pakar di bidang terorisme, kalangan akademisi, mantan jaksa dan penegak hukum, dan sebagainya. Karena Facebook merupakan platform global, tim spesialis juga menguasai lebih dari 30 bahasa yang ada di dunia.

Tim spesialis tersebut merupakan bagian dari tim yang lebih luas, terdiri dari 35.000 orang di Facebook yang berfokus pada isu keselamatan dan keamanan, termasuk 15.000 content reviewers.

“Kami memiliki standar komunitas yang menjelaskan parameter pelanggaran konten terorisme dan kebencian terorganisir atau apa yang boleh dan tidak boleh diunggah di Facebook,” ujar Osman.

“Kami tidak mengizinkan organisasi ataupun individu yang menyatakan misi mereka adalah kekerasan atau yang terlibat dalam kekerasan. Kami juga menilai entitas berdasarkan perilaku mereka di ranah online dan offline, dan secara khusus keterkaitan mereka dengan kekerasan,” terangnya.

Osman mengatakan Facebook berkomitmen agar menciptakan platform tetap aman di samping menjaga kebebasan berpendapat serta hak asasi manusia. Untuk menguatkan komitmen tersebut, Facebook juga bekerja sama dengan perusahaan lain, masyarakat sipil, peneliti, dan pemerintah.

Pewarta : Rizka Khaerunnisa
Editor : Hernawan Wahyudono
Copyright © ANTARA 2024