Belajar dari Jerman: Gabungkan teknologi dan regulasi untuk perangi penyebaran kebencian online

Belajar dari Jerman: Gabungkan teknologi dan regulasi untuk perangi penyebaran kebencian online

Perundungan, kebencian, dan hasutan online tengah meningkat, dan perlu pendekatan baru untuk mengatasinya. Untuk memberantas masalah ini dua pendekatan perlu dipertimbangkan.

Pertama, mengikuti jejak Jerman dalam menjatuhkan sanksi finansial kepada perusahaan media sosial besar bila mereka gagal mengurangi volume konten yang menghina pada platform mereka.

Kedua, kita harus mengembangkan cara-cara untuk mengenali dan menilai dengan benar jumlah konten yang bersifat menghina yang dikirim dan dihapus untuk memastikan bahwa perusahaan-perusahaan tersebut patuh.

Mengingat volume data di media sosial, kecerdasan buatan (artificial intelegence) harus menjadi bagian dari gabungan untuk mendukung regulasi, tapi kita perlu juga mengetahui keterbatasannya.

Dampaknya pada korban

Josh Bornstein adalah korban dari perlakukan kejam daring. David Crosling/AAP

Pada 2015, pengacara Australia John Bornstein menjadi korban perlakuan kejam daring serius di tangan seorang laki-laki di Amerika Serikat, yang menyamar sebagai Bornstein dan mempublikasi artikel daring yang bersifat rasis menggunakan namanya. Bornstein kemudian menerima serangan penuh kebencian dari seluruh dunia.

Insiden ini sangat menyedihkan bagi Bornstein, tapi lebih dari itu kebencian siber juga bisa berdampak pada masyarakat secara luas. Orang yang sama menggunakan identitas palsu lain untuk berlagak sebagai seorang pendukung ISIS yang menyerukan serangan teror di Australia dan negara-negara Barat lainnya. Pada Desember, ia dipenjara di Amerika Serikat atas tuduhan terorisme.

Bornstein kini menyerukan regulasi bagi perusahaan media sosial oleh pemerintah, serta upaya hukum untuk memungkinkan korban bertindak.

Jerman sebagai model pengaturan online

Legislasi baru yang belum lama ini diperkenalkan di Jerman mengharuskan perusahaan untuk menghapus ujaran yang jelas-jelas mengandung kebencian dalam waktu 24 jam.

Menanggapi hal ini, Facebook telah memperkerjakan 1.200 karyawan dan karyawan kontrak untuk memproses secara lebih efektif laporan perlakuan kejam oleh pengguna internet Jerman. Bila perusahaan tersebut gagal menghapus sebagian besar dari konten seperti itu dalam batas 24 jam, regulator bisa menjatuhkan denda hingga €50 juta (A$79 juta).

Hukum semacam ini tidaklah sempurna—dalam beberapa bulan sejak aturan tersebut berlaku pemerintah Jerman sudah mulai mempertimbangkan beberapa perubahan untuk mencegah kewaspadaan berlebihan oleh perusahaan media sosial yang dapat mencederai kebebasan berbicara. Namun pendekatan Jerman memberi kita contoh tanggapan yang tegas dari negara terhadap perundungan maya.

Peraturan di Jerman hanyalah sebuah titik awal dari regulasi dunia teknologi yang benar-benar baru. Hukum perundungan maya tidak bisa dilaksanakan bila kita tidak tahu seberapa banyak hate speech yang ada di dunia maya, dan seberapa banyak hate speech tersebut dihapus oleh perusahaan media sosial. Kita membutuhkan alat untuk mendukung hal ini.

Memperkerjakan kecerdasan buatan

Di Online Hate Prevention Institute (OHPI), kami telah menghabiskan enam tahun terakhir untuk mengatasi kasus spesifik—termasuk kasus Bornstein—dan untuk mencari solusi untuk dapat mengukur jumlah hate speech yang dihapus menggunakan pendekatan crowdsourcing kelas dunia dan kecerdasan buatan.

Beberapa kelompok lain juga sedang mengembangkan teknologi untuk identifikasi dan pengukuran. Kementerian Urusan Diaspora Israel sejak Oktober 2016 mengembangkan Antisemitism Cyber Monitoring System (ACMS)—sebuah alat baru untuk memantau antisemitisme di media sosial. Alat ini akan diluncurkan pada Forum Global untuk Menangkal Antisemitisme 2018 di Yerusalem akhir bulan ini.

Alat tersebut menggunakan analisis teks—sebuah bentuk dari kecerdasan buatan—dan bekerja mencari kata-kata, kalimat, dan simbol di situs media sosial yang telah diidentifikasi sebagai indikator untuk kemungkinan konten antisemit. Alat ini kemudian mengulas konten dan menghasilkan grafik interaktif.

Pendekatan serupa telah digunakan oleh Kongres Yahudi Dunia dan oleh proyek Conversation AI Google, tapi efektivitas pendekatan ini terbatas, khususnya ketika diterapkan pada situs media sosial besar.

Data dari percobaan ACMS selama satu bulan telah dikeluarkan sebelum peluncuran sistem. Piranti lunak ACMS adalah langkah maju yang utama dalam memerangi kebencian siber, tapi data yang terkumpul sendiri menunjukkan adanya keterbatasan metodologi dan teknologi yang cukup serius.

Keterbatasan teknologi

Salah satu keterbatasan ACMS adalah dalam mendeteksi perlakuan kejam yang menggunakan bahasa kode, simbol, dan eufisme yang makin diminati oleh kelompok radikal kanan.

Keterbatasan lainnya, ACMS hanya memantau konten dari Facebook dan Twitter. YouTube, yang meliputi 41% dari antisemitisme daring yang diidentifikasi dalam laporan sebelumnya, tidak termasuk yang dipantau. Sistem otomatis ini juga hanya memantau konten dalam bahasa Inggris, Arab, Prancis, dan Jerman.

Yang lebih mengkhawatirkan adalah klaim Kementerian bahwa kota-kota yang memproduksi konten rasis tertinggi adalah Santiago (Chili), Dnipro (Ukraina), and Bucharest (Rumania). Kota-kota ini memiliki bahasa utama yang tidak dapat diproses oleh piranti lunak. Namun entah bagaimana mereka telah melampaui kota-kota yang bahasa utamanya diproses oleh piranti lunak.

Salah satu hal yang mengkhawatirkan terutama untuk Australia adalah tulisan berjudul Places of Interest: Level of Antisemitism by Location yang menunjukkan Brisbane sebagai kota peringkat tertinggi yang berbahasa Inggris. Hasil ini telah dijelaskan oleh penjelasan susulan yang menunjukkan angkanya merupakan penggabungan dari like, share, dan retweet global yang terlibat dengan konten yang awalnya dikirim dari Brisbane. Oleh karena itu, data ini tunduk pada tingkat keacakan yang luas berdasarkan konten apa yang menjadi viral.

Pengacara dan ilmuwan data harus bekerja sama

Alat deteksi berbasis AI berguna, tapi kita perlu pahami juga keterbatasannya. Analisis teks bisa mengidentifikasi subset tertentu dari kebencian daring, seperti swastika; bahasa yang terkait dengan Hitler, Nazi, kamar gas, dan oven; dan tema antisemitik yang menonjol pada kelompok kanan. Namun ini bukanlah solusi sederhana bagi masalah yang kompleks.

Lebih dari identifikasi, kita membutuhkan pengacara maupun ilmuwan data untuk memperkaya pendekatan yang diambil dalam mengatur ruang daring. Alat kecerdasan buatan baru perlu diverifikasi terhadap pendekatan lain, seperti data crowdsource__ dari masyarakat. Dan para ahli harus mengulas data untuk akurasi. Kita perlu memanfaatkan teknologi untuk mendukung rezim regulasi.

Menelaah masalah perundungan maya adalah langkah penting, asalkan dapat memfasilitasi solusi untuk masa depan, dan bukan sekadar masalah hari ini.

This article was originally published in English

Love this article? Show your love with a gift to support The Conversation's journalism, matched dollar-for-dollar.