Menu Close
a woman holding a cell phone that is scanning her face
Fitur pemindaian wajah semakin kerap digunakan lebih dari yang kita bayangkan. (Shutterstock)

Fitur pemindaian wajah pada ponsel dapat memicu kejahatan yang berbahaya

Pada 14 Desember, beberapa pemerintah provinsi di negara saya, Kanada, memerintahkan perusahaan pengenalan wajah Clearview AI untuk berhenti mengumpulkan — dan menghapus — gambar orang yang diperoleh tanpa persetujuan mereka.

Diskusi tentang risiko sistem pengenalan wajah (face recognition) yang mengandalkan teknologi analisis wajah otomatis cenderung fokus pada perusahaan, pemerintah nasional, dan penegakan hukum. Tapi yang seharusnya menjadi perhatian besar adalah bahwa fitur pengenalan dan analisis wajah ini telah terintegrasi dalam kehidupan sehari-hari kita.

Amazon, Microsoft, dan IBM telah berhenti memasok sistem pengenalan wajah ke kepolisian setelah beberapa penelitian menunjukkan adanya bias algoritmik yang secara tidak proporsional telah salah mengidentifikasi orang kulit berwarna, terutama orang kulit hitam.

Facebook dan Clearview AI telah menghadapi tuntutan hukum dan penyelesaian kasus akibat menyusun database dengan miliaran template wajah tanpa persetujuan orang.

Di Inggris, polisi menghadapi penyelidikan atas penggunaan real-time face recognition di ruang publik. Pemerintah Cina melacak populasi minoritas Uighur melalui teknologi pemindaian wajah.

Namun, untuk memahami ruang lingkup dan konsekuensi dari teknologi ini, kita juga harus memperhatikan praktik harian pengguna yang menerapkan pemindaian dan analisis wajah secara rutin yang lambat laun turut mengikis privasi dan meningkatkan diskriminasi sosial dan rasisme.

Investigasi PBS dalam isu privasi dan bias dari pengenalan wajah.

Sebagai seorang peneliti praktik visual media seluler dan hubungannya dengan kesenjangan sosial, saya telah mengeksplorasi bagaimana tindakan pengguna dapat membangun atau mengubah norma pada hal seputar privasi dan identitas. Dalam hal ini, penggunaan sistem dan produk analisis wajah dalam kehidupan kita sehari-hari telah mencapai titik kritis yang berbahaya.

Pemindaian wajah sehari-hari

Algoritma open source yang mendeteksi fitur wajah membuat sistem pengenalan wajah menjadi fitur yang mudah ditambahkan bagi pengembang aplikasi. Kita semua menggunakan fitur ini untuk membuka password ponsel atau membayar belanjaan.

Kamera video yang ada dalam rumah pintar (smart home) menggunakan pengenalan wajah untuk mengidentifikasi pengunjung serta mempersonalisasi tampilan layar dan pengingat audio. Fitur fokus otomatis pada kamera ponsel mencakup deteksi dan pelacakan wajah, sementara penyimpanan foto cloud menciptakan album dan tayangan slide yang mencocokkan dan mengelompokkan wajah yang dikenalinya dalam gambar yang kita ambil.

Fitur analisis wajah digunakan oleh banyak aplikasi termasuk media sosial dan aksesori yang menghasilkan efek seperti efek penuaan artifisial dan fitur animasi wajah. Aplikasi pengembangan diri dan filter kecantikan, horoskop, atau deteksi etnis juga menghasilkan saran dan kesimpulan berdasarkan pemindaian wajah.

Tetapi, penggunaan sistem analisis wajah untuk aplikasi horoskop, selfie, atau mengidentifikasi siapa yang ada di depan rumah kita akan menghasilkan konsekuensi sosial jangka panjang: ini dapat menciptakan pengawasan skala besar dan pelacakan, dan mempertahankan ketidaksetaraan sosial sistemik.

Risiko

Ketika diulang terus-menerus, penggunaan seperti itu dapat mendorong kita untuk terus menggunakan fitur ini, membukakan pintu kepada sistem yang lebih luas di berbagai konteks yang berbeda. Kita tidak memiliki kendali atas — dan sedikit wawasan tentang — siapa yang menjalankan sistem tersebut dan bagaimana data kita dapat digunakan.

Jika kita telah terbiasa menyediakan wajah kita untuk dipindai secara otomatis, tidak hanya dengan persetujuan kita tetapi juga dengan partisipasi aktif kita, maka pemindaian dan analisis serupa saat kita berada di ruang publik atau saat mengakses layanan akan tidak terasa mengganggu.

Selain itu, penggunaan teknologi analisis wajah untuk kepentingan pribadi secara langsung membuat kita berkontribusi pada pengembangan dan penerapan sistem yang lebih besar yang diciptakan untuk melacak warga, memeringkat klien, atau membuat daftar tersangka untuk penyelidikan.

Perusahaan dapat mengumpulkan dan membagikan data yang menghubungkan gambar kita dengan identitas kita, atau untuk mengatur data yang lebih besar untuk melatih sistem AI mengenali wajah atau emosi.

Meskipun platform-platform yang kita gunakan membatasi penggunaan tersebut, mitra-mitra mereka mungkin tidak mematuhi batasan yang sama. Pengembangan database baru individu tertentu bisa sangat menguntungkan, terutama jika database tersebut terdiri dari beberapa gambar wajah setiap pengguna, atau bila database tersebut dapat menghubungkan gambar dengan informasi pengenal, seperti nama akun.

Gempuran pseudosains

Dari semua ini, mungkin yang paling meresahkan adalah ketergantungan kita yang semakin besar terhadap teknologi analisis wajah sangat mendukung mereka, tidak hanya untuk menentukan identitas individu, tetapi juga mengetahui latar belakang, karakter, dan nilai sosial para pengguna.

A digital mapping of a smiling face
Teknologi analisis wajah yang memprediksi karakteristik seperti etnisitas dan daya tarik bergantung pada ilmu-ilmu pseudo. (Shutterstock)

Banyak aplikasi prediktif dan aplikasi diagnostik yang memindai wajah kita untuk menentukan etnis, kecantikan, kesehatan, emosi, dan bahkan potensi penghasilan kita yang dibuat berdasarkan pseudosains yang meresahkan: frenologi, fisiognomi, dan eugenika.

Pseudosains adalah teori, asumsi, dan metode yang secara keliru dianggap ilmiah, padahal tidak.

Sistem yang saling terkait ini bergantung pada berbagai derajat pada analisis wajah untuk membenarkan hierarki rasial, kolonisasi, perbudakan, sterilisasi paksa, dan penahanan preventif.

Cara kita menggunakan teknologi analisis wajah dapat menguatkan keyakinan dan bias ini, menyiratkan bahwa ilmu-ilmu pseudo ini punya tempat di masyarakat. Penggunaan ini kemudian dapat membenarkan sistem analisis wajah otomatis serupa untuk penggunaan seperti menyaring pelamar kerja atau menentukan kriminalitas.

Membangun kebiasaan yang lebih baik

Aturan bagaimana sistem pengenalan wajah mengumpulkan, menafsirkan, dan mendistribusikan data biometrik belum mampu mengejar penggunaan fitur pemindaian dan analisis wajah sehari-hari. Ada beberapa pembaharuan kebijakan di Eropa dan beberapa negara bagian di Amerika Serikat, tetapi diperlukan regulasi yang lebih besar.

Selain itu, kita perlu menghadapi kebiasaan dan asumsi kita sendiri. Bagaimana kita dapat menempatkan diri kita sendiri dan orang lain, terutama warga yang terpinggirkan, dalam suatu risiko dengan menjadikan pengawasan berbasis mesin sebagai hal yang lumrah?

Beberapa penyesuaian sederhana dapat membantu kita mengatasi asimilasi sistem analisis wajah dalam kehidupan kita sehari-hari. Untuk langkh awal yang baik, kita dapat mengubah pengaturan aplikasi dan perangkat untuk meminimalkan pemindaian dan mengurangi fitur share. Sebelum mengunduh aplikasi, teliti dan baca ketentuan penggunaan.

Kita perlu menahan diri untuk tidak menggunakan fitur efek wajah di media sosial yang sedang tren — apakah kita benar-benar perlu tahu bagaimana rupa kita kalau menjadi karakter Pixar? Pertimbangkan kembali perangkat pintar yang dilengkapi dengan teknologi pengenalan wajah. Waspadai hak orang-orang yang gambarnya mungkin diambil pada perangkat smart home kita — kita harus selalu mendapatkan persetujuan eksplisit dari siapa pun yang lewat di depan kamera kita.

Perubahan kecil ini jika dikalikan dengan seluruh pengguna, produk, dan platform dapat melindungi data kita dan mengulur waktu agar kita dapat kita berefleksi sejenak terhadap risiko, manfaat, dan penerapan teknologi pengenalan wajah yang adil.


Rachel Noorajavi menerjemahkan artikel ini dari bahasa Inggris.

This article was originally published in English

Want to write?

Write an article and join a growing community of more than 182,100 academics and researchers from 4,941 institutions.

Register now