Menu Close

ChatGPT digugat pencemaran nama baik: menguji tanggung jawab hukum dan netralitas teknologi AI

ChatGPT. TY Lim/Shutterstock

Untuk pertama kalinya di dunia, sebuah gugatan pencemaran nama baik diajukan kepada teknologi Artificial Intelligence (AI). Gugatan ini diajukan Mark Walters terhadap OpenAI, perusahaan pemilik ChatGPT, di Georgia, Amerika Serikat (AS) pada 5 Juni 2023.

Mark mengajukan gugatan ini setelah seorang jurnalis bernama Fred Riehl menggunakan ChatGPT pada 4 Mei 2023 untuk mencari rangkuman dari kasus The Second Amendment Foundation v Robert Ferguson, tentang kebebasan sipil dari organisasi the Second Amendment Foundation. Hasil dari instruksi atas rangkuman kasus tersebut justru memunculkan nama Mark Walters, seorang penyiar radio di Georgia, dengan informasi bahwa Mark menggelapkan sejumlah dana dari The Second Amendment Foundation.

Menurut Mark, seluruh informasi yang melibatkan namanya tersebut adalah salah, dan ia menganggap bahwa informasi yang ditampilkan merupakan “Halusinasi AI”.

Ini bukan pertama kalinya ChatGPT menuai kontroversi dan kritik terkait keakuratan informasi yang diolahnya. Pada April 2023, Brian Hood, seorang politikus Australia, berencana untuk melayangkan gugatan kepada ChatGPT setelah namanya dicantumkan sebagai salah satu terdakwa dalam kasus penyuapan Australia’s Reserve Bank tahun 2011. Brian memang terlibat dalam kasus tersebut, tetapi dia adalah whistleblower.

Pada bulan yang sama, Jonathan Turley, seorang dosen hukum di George Washington University Law School, AS, mendapati dirinya dituduh melakukan pelecehan seksual kepada mahasiswinya dalam sebuah perjalanan studi ke Alaska. Informasi tersebut merupakan olahan ChatGPT yang juga mencantumkan bahwa kasusnya dimuat dalam sebuah artikel di The Washington Post. Faktanya, Jonathan tidak pernah mengadakan studi lapangan ke Alaska dan artikel di the Washington Post yang dimaksud tidak pernah ada.

Rentetan kontroversi ketidakakuratan informasi yang diolah ChatGPT memang hanya tinggal menunggu waktu sampai akhirnya benar-benar ada gugatan kepada hukum terhadap teknologi mutakhir ini.

Gugatan terhadap AI oleh Mark Walters ini memunculkan diskusi-diskusi penting terkait netralitas teknologi dan pertanggungjawaban hukum oleh teknologi AI. Apakah mungkin AI sebagai sebuah teknologi bisa dianggap sebagai sebuah teknologi yang netral, atau justru memiliki nilai-nilai tertentu yang dipengaruhi penciptanya?

AI dan netralitas teknologi

Kontroversi terkait teknologi AI dalam ChatGPT memang telah lama diperdebatkan sejak perilisannya kepada publik akhir tahun lalu. Sebagian besar masyarakat memandang AI membawa pengaruh negatif karena masalah privasi atau penyalahgunaannya oleh mahasiswa, tetapi tidak sedikit yang menganggap bahwa ChatGPT dapat digunakan secara maksimal untuk kebutuhan dan tujuan yang positif.

Arthur Cockfield dan Jason Pridmore, dosen hukum dan sosiologi di Queens University, Kanada, berargumen bahwa teknologi bisa dipandang dari dua sisi.

Pertama adalah dari sudut pandang instrumentalis, yakni ketika teknologi hanya sekadar alat. Artinya, teknologi bersifat netral, sampai penggunanya menggunakan teknologi tersebut untuk tujuan tertentu.

Kedua adalah dari sudut pandang substantif, yakni bahwa teknologi tidaklah netral. Sejak diciptakan, teknologi sudah memiliki nilai sosial, politik atau ekonomi, karena proses penciptaannya mengikuti nilai yang dianut oleh penciptanya.

Gagasan Cockfield dan Pridmore tersebut berujung pada sintesis kedua sudut pandang tersebut atas penggunaan teknologi. Namun, pada konteks teknologi AI sekarang tak lagi sekadar alat bantu, melainkan juga sudah bertindak selayaknya manusia, netralitas atas teknologi AI perlu diuji, khususnya apakah AI bisa bertindak selayaknya subjek hukum tersendiri.

Entitas buatan memang bisa berlaku sebagai subjek hukum tersendiri, sebagaimana badan hukum. Asas personalitas hukum, yang menjelaskan pihak yang dapat bertindak dan menjadi subjek hukum atas hak dan kewajiban hukum, sejauh ini hanya mengenali subjek hukum murni (individu) dan badan hukum (korporasi).

Pada kasus Sunday Times v. UK, Pengadilan Hak Asasi Manusia Eropa memutuskan bahwa pelarangan publikasi artikel kepada koran the Sunday Times pada tahun 1972 melanggar hak dari media tersebut. Artinya, the Sunday Times sebagai badan hukum yang memiliki hak di mata hukum.

Pertanyaan lanjutannya kemudian adalah: apakah AI sebaiknya menjadi subjek hukum tersendiri karena karakteristik personifikasi hukumnya yang unik, atau dilekatkan kepada subjek hukum yang sudah ada?

Mengingat adanya keterbatasan dalam hal pertanggungjawaban hukum yang tentu akan melekat kepada pembuat teknologi, maka menjadikan AI sebagai subjek hukum tersendiri adalah oversimplikasi atas masalah pertanggungjawaban hukum dari sebuah penyalahgunaan teknologi, setidaknya untuk sekarang.

Atas dasar tersebut, AI belum bisa sepenuhnya dipandang sebagai sebuah teknologi yang netral. AI bekerja dengan algoritme yang dipengaruhi oleh bias, perspektif, dan budaya dari para penciptanya.

Mungkinkah AI melakukan pencemaran nama baik?

Informasi yang diolah ChatGPT dalam kasus Mark Walters jelas merupakan informasi yang tidak akurat. Namun, dalam klaim bahwa informasi tersebut telah mencemarkan reputasi Mark Walters, kelalaian OpenAI – sebagai pemilik ChatGPT – atas kekeliruan informasi yang dirilis tetap merupakan salah satu hal yang perlu dibuktikan kebenarannya dalam gugatan pencemaran nama baik.

Hal ini juga memperkuat fakta bahwa AI tidak bisa berdiri sendiri sebagai subjek hukum.

Fakta bahwa ChatGPT terkadang mengolah dan merilis informasi yang keliru juga belum tentu menjadi dasar yang kuat dalam gugatan, kecuali terbukti ada kesengajaan dari OpenAI untuk merilis informasi tentang Mark Walters tersebut.

Selain itu, prinsip kerugian atau kerusakan yang nyata (actual malice), seperti kehilangan pekerjaan atau bangkrut, juga belum terbukti apakah memang dialami oleh Mark Walters.

Hal-hal tersebut di atas menunjukkan bahwa untuk saat ini, AI tidak punya kapabilitas untuk melakukan pencemaran nama baik, pun sebagai subjek hukum tersendiri. Namun, bukan berarti AI tidak perlu diregulasi, mengingat banyak negara telah memulainya.

AI pada konteks Indonesia

Kasus pencemaran nama baik di Indonesia juga merupakan isu hukum yang krusial dalam beberapa tahun terakhir ini, khususnya sejak Undang-Undang tentang Informasi dan Transaksi Elektronik (UU ITE) lahir.

Meskipun di Indonesia sejauh ini belum ada gugatan atas pencemaran nama baik yang dilakukan oleh AI dan tampaknya tidak ada landasan hukum yang mengaturnya, ada satu ketentuan dalam UU ITE yang mungkin bisa relevan. Pasal 27 Ayat 3 UU ITE yang berbunyi “Setiap orang dengan sengaja dan tanpa hak mendistribusikan dan/atau mentransmisikan dan/atau membuat dapat diaksesnya Informasi Elektronik dan/atau Dokumen Elektronik yang memiliki muatan penghinaan dan/atau pencemaran nama baik.”

Ketidakjelasan makna dari frasa “membuat dapat diaksesnya” tersebut menciptakan ambiguitas dalam penerapannya.

Ambiguitas tersebut bukan tidak mungkin akan memunculkan gugatan “salah alamat” kepada AI. Padahal, sebagaimana yang sudah dibahas di atas, AI tidak bisa menjadi subjek hukum tersendiri, karena statusnya yang lebih tepat sebagai agen elektronik. Pertanggungjawaban AI masih berada pada subjek hukum orang atau badan hukum yang menaunginya.

Secara keseluruhan, perdebatan mengenai tanggung jawab hukum AI masih menjadi isu yang kompleks, terutama jika menyangkut privasi dan keamanan data serta diskriminasi dan bias.

Diperlukan peran dan kolaborasi banyak stakeholders untuk memastikan teknologi AI digunakan dengan bertanggung jawab agar penggunaannya dapat memberikan manfaat secara luas bagi kemajuan manusia dan perbaikan lingkungan.

Want to write?

Write an article and join a growing community of more than 182,600 academics and researchers from 4,945 institutions.

Register now