Menu Close
Representasi ChatGPT
Otoritas perlindungan data Italia menggunakan prosedur darurat untuk memberlakukan larangan sementara. Shutterstock / Diego Thomazini

ChatGPT: pelajaran yang dapat dipetik dari larangan sementara chatbot AI di Italia

Pada Maret 2023, Italia menjadi negara Barat pertama yang memblokir chatbot canggih yang dikenal sebagai ChatGPT.

Otoritas perlindungan data Italia, Garante, mengutip kekhawatiran atas perlindungan data pribadi saat membuat keputusan ini. Garante memberikan waktu kepada OpenAI, perusahaan berbasis di California yang menciptakan ChatGPT, hingga akhir April untuk memenuhi tuntutannya.

Garante mengatakan ChatGPT mengumpulkan data dengan cara yang tidak sesuai dengan hukum perlindungan data. Alasan lain yang diberikan adalah kurangnya verifikasi usia oleh platform tersebut, yang dapat membuat anak-anak terpapar konten berbahaya. Akibatnya, mereka menggunakan prosedur darurat untuk menghentikan sementara pemrosesan data pribadi oleh OpenAI.

Berita tentang larangan sementara ini menyebar ke seluruh dunia, menimbulkan kekhawatiran tentang konsekuensi dari keputusan seperti ini pada pengembangan aplikasi kecerdasan buatan (AI) baru.

Langkah ini juga bertepatan dengan seruan dari para ahli dan pelaku bisnis - termasuk salah satu pendiri OpenAI, Elon Musk - untuk membatasi pengembangan aplikasi berbasis AI hingga risikonya dapat dinilai dengan lebih baik.

Larangan sementara ini dapat memberikan beberapa pelajaran penting mengenai proporsionalitas dan efektivitas larangan terhadap teknologi yang sedang berkembang, koordinasi antara negara-negara anggota di tingkat Eropa, dan penyeimbangan akses layanan untuk melindungi anak-anak agar tidak mengakses konten yang berbahaya.

Perintah yang dikeluarkan pada 30 Maret tersebut ditandatangani oleh Pasquale Stanzione, presiden otoritas perlindungan data Italia. Perintah ini dikeluarkan setelah adanya pemberitahuan tentang pelanggaran data terkait data pengguna ChatGPT yang telah dilaporkan sepuluh hari sebelumnya.

Pemrosesan data

Garante secara singkat membenarkan tindakannya dengan menggarisbawahi kurangnya informasi yang tersedia bagi pengguna, dan subjek data, tentang data yang diproses oleh OpenAI. Mereka juga mengutip pemrosesan data pribadi berskala besar untuk melatih sistem generatif seperti ChatGPT.

Persyaratan OpenAI menyatakan bahwa ChatGPT hanya disediakan untuk pengguna yang berusia di atas 13 tahun. Namun, hal ini tidak memuaskan otoritas perlindungan data Italia, yang prihatin dengan kurangnya verifikasi usia.

Tanggapan dari OpenAI adalah, pertama, memblokir akses ke ChatGPT di Italia dan, kedua, menunjukkan ketersediaannya untuk berkolaborasi dengan Garante dalam mematuhi perintah sementara.

Representasi privasi data.
Dalam keputusannya, Garante mengutip pemrosesan data pribadi berskala besar untuk melatih sistem generatif seperti ChatGPT. Shutterstock / Laymanzoom

Kepatuhan ini melibatkan OpenAI untuk menerapkan perlindungan termasuk penyediaan kebijakan privasi, menawarkan kepada pengguna kemungkinan untuk menggunakan hak-hak individu atas perlindungan data, dan memberikan informasi tentang dasar hukum perusahaan untuk memproses data pribadi.

Garante menyambut baik komitmen ini. Garante menangguhkan perintah sementara dan meminta OpenAI untuk menerapkan perlindungan ini pada akhir April 2023.

Kerangka kerja yang diselaraskan

Namun, kasus ini menyoroti setidaknya tiga pelajaran utama - yaitu kurangnya koordinasi Eropa dalam mengatur teknologi ini, efektivitas dan proporsionalitas tindakan, dan perlindungan anak-anak.

Pertama, diperlukan lebih banyak koordinasi Eropa terkait masalah umum teknologi AI. Usulan Undang-Undang Kecerdasan Buatan dari Uni Eropa hanyalah satu langkah menuju kerangka kerja yang selaras untuk memastikan pengembangan teknologi kecerdasan buatan yang selaras dengan nilai-nilai Eropa.

Dan seperti yang telah ditunjukkan oleh larangan Italia, model peraturan Uni Eropa berpotensi menjadi terpecah-pecah jika otoritas nasional mengambil arahnya sendiri.

Secara khusus, hubungan antara kecerdasan buatan dan perlindungan data memberdayakan otoritas nasional untuk bertindak atas perkembangan teknologi kecerdasan buatan yang baru. Hal ini juga menggarisbawahi perlunya koordinasi yang lebih baik antara negara-negara anggota Eropa dalam segala jenis regulasi.

Merencanakan, bukan melarang

Kedua, langkah-langkah yang diadopsi oleh otoritas perlindungan data Italia menimbulkan pertanyaan tentang efektivitas dan proporsionalitas.

Mengenai efektivitas, perlu dicatat bahwa ada laporan lonjakan 400% dalam unduhan VPN di Italia, yang berpotensi memungkinkan pengguna untuk menyiasati larangan tersebut, setelah berita tentang penerapan larangan sementara tersebut.

Mengenai masalah proporsionalitas, larangan umum tampaknya tidak menyeimbangkan antara kepentingan konstitusional yang saling bertentangan yang dipertaruhkan. Tindakan sementara ini tidak menyebutkan bagaimana hal tersebut memperhitungkan perlindungan kepentingan lain, seperti kebebasan pengguna untuk mengakses ChatGPT.

Meskipun larangan tersebut bersifat sementara, situasi ini mungkin diuntungkan oleh keterlibatan pada tahap awal oleh anggota dewan otoritas perlindungan data Italia lainnya. Diskusi awal dengan OpenAI dapat menghindari larangan itu sepenuhnya. Tindakan ini dapat mengantisipasi penerapan perlindungan lebih lanjut untuk mematuhi perlindungan data.

Cara terbaik untuk melindungi anak-anak

Akhirnya, keputusan tersebut menimbulkan pertanyaan tentang cara terbaik untuk melindungi anak-anak dari konten berbahaya yang dibuat oleh aplikasi-aplikasi ini. Memperkenalkan sistem verifikasi usia atau peringatan mengenai konten berbahaya dapat menjadi topik diskusi, seandainya para pihak terlibat dalam dialog yang berkelanjutan.

Kasus ini menjadi contoh bagaimana larangan umum yang diberlakukan terhadap aplikasi teknologi baru biasanya merupakan hasil dari reaksi cepat tanpa melibatkan penilaian mendalam terhadap efektivitas dan proporsionalitas tindakan tersebut.

Bahkan jika ada yang berargumen bahwa keputusan tersebut cenderung melindungi hak-hak dasar, terutama dalam perlindungan data dan perlindungan untuk anak-anak, hal ini justru menimbulkan lebih banyak ketidakpastian.

Pendekatan preventif dan kolaboratif dengan OpenAI akan meminimalkan risiko pemblokiran layanan ini di Italia. Diskusi berkelanjutan antara OpenAI dan pihak berwenang Italia sangat penting.


Rahma Sekar Andini dari Universitas Negeri Malang menerjemahkan artikel ini dari bahasa Inggris.

This article was originally published in English

Want to write?

Write an article and join a growing community of more than 182,700 academics and researchers from 4,947 institutions.

Register now