Menu Close
Teknologi pengenalan emosi, sebuah perkembangan teknologi pengenalan wajah, terus berkembang dengan cepat. Steve Jurvetson/flickr, CC BY-SA, CC BY-SA

Kini kecerdasan buatan AI dapat membaca emosi manusia, mengapa kita perlu waspada?

Dalam laporan tahunannya, AI Now Institute, sebuah pusat penelitian interdisipliner yang mempelajari implikasi sosial dari kecerdasan buatan (artificial intelligence), menyerukan larangan teknologi yang dirancang untuk mengenali emosi manusia dalam kasus-kasus tertentu.

Secara khusus, para peneliti mengatakan teknologi pengenalan afek, atau biasa disebut juga teknologi pengenalan emosi, tidak boleh digunakan dalam pengambilan keputusan yang “mempengaruhi kehidupan dan akses peluang seseorang”, seperti pengambilan keputusan dalam merekrut seseorang atau penilaian rasa sakit, karena teknologi ini tidak cukup akurat dan dapat menyebabkan keputusan yang bias.

Apa sebenarnya teknologi ini, bagian mana saja yang sudah digunakan dan dipasarkan, dan mengapa teknologi ini menimbulkan kekhawatiran?

Perkembangan teknologi pengenalan wajah

Para peneliti telah aktif bekerja pada algoritme visi komputer yang dapat menentukan emosi dan niat manusia, begitu pula dengan membuat kesimpulan lainnya, setidaknya selama satu dekade ini. Analisis ekspresi wajah telah ada setidaknya sejak 2003.

Komputer telah mampu memahami emosi bahkan jauh lebih lama lagi. Teknologi terbaru ini bergantung pada teknik data-sentris yang disebut sebagai “pembelajaran mesin” (machine learning), sebuah algortime yang dapat memproses data untuk “dipelajari” bagaimana membuat keputusan untuk mencapai hasil teknologi pengenalan yang lebih akurat.

Tantangan dalam membaca emosi

Para peneliti selalu mencari cara untuk melakukan hal-hal baru dengan mempelajari apa yang telah diteliti sebelumnya. Pengenalan emosi sangat menarik karena, entah bagaimana, kita sebagai manusia dapat mencapai hal ini dengan cukup baik bahkan sejak dulu. Namun kemampuan meniru keterampilan manusia dengan menggunakan komputer masih sulit dicapai.

Meskipun sangat mungkin komputer melakukan beberapa hal yang sangat luar biasa dengan gambar, seperti menyesuaikan sebuah foto menjadi terlihat seperti digambar oleh seorang seniman terkenal dan bahkan membuat foto wajah realistis (belum lagi membuat foto deepfake), kemampuan komputer untuk menyimpulkan sifat manusia seperti emosi dari sebuah foto asli selalu menjadi hal menarik bagi para peneliti.

Mengenali emosi orang dengan komputer memiliki potensi untuk sejumlah aplikasi positif, seorang peneliti yang sekarang bekerja di Microsoft menjelaskannya.

Emosi sangat sulit dibaca karena cenderung bergantung pada konteks. Misalnya, ketika seseorang sedang berkonsentrasi pada sesuatu, mungkin akan tampak sesederhana mereka sedang berpikir. Pengenalan wajah telah lama menggunakan pembelajaran mesin, namun mengidentifikasi keadaan emosi seseorang murni berdasarkan dengan melihat wajah seseorang kerap gagal menangkap informasi penting.

Emosi tidak hanya diekspresikan melalui ekspresi seseorang tapi juga diperlihatkan dari keberadaan seseorang dan apa yang sedang ia lakukan. Tanda-tanda kontekstual ini sulit untuk dimasukkan ke dalam algoritme pembelajaran mesin modern. Untuk mengatasi ini, ada upaya aktif yang dilakukan untuk meningkatkan teknik kecerdasan buatan yang dapat mempertimbangkan konteks, tidak lagi hanya untuk pengenalan emosi tapi juga digunakan untuk semua jenis aplikasi.

Membaca emosi pegawai

Laporan yang dirilis oleh AI Now menyoroti beberapa cara penerapan kecerdasan buatan pada tenaga kerja dalam mengevaluasi produktivitas pegawai dan bahkan digunakan pada tahap awal seperti tahap wawancara. Menganalisis rekaman wawancara, terutama untuk pencari kerja jarak jauh, sudah lama digunakan.

Jika seorang manajer dapat memahami emosi bawahannya dari wawancara hingga tingkat evaluasi produktivitas, pengambilan keputusan terkait masalah ketenagakerjaan lain, seperti kenaikan gaji, promosi, atau penugasan, mungkin dapat dipengaruhi oleh informasi tersebut. Tentu, teknologi ini dapat digunakan untuk cara-cara lainnya.

Mengapa ada kekhawatiran?

Jenis-jenis sistem ini hampir selalu memiliki kelemahan dari sisi keadilan, akuntabilitas, transparansi, dan etis (biasa disingkat “FATE”), yang telah tertanam dalam pencocokan pola mereka. Sebagai contoh, sebuah studi menemukan bahwa algoritme pengenalan wajah menilai wajah orang berkulit hitam lebih marah dibandingkan orang berkulit putih), bahkan ini terjadi ketika mereka tersenyum.

Banyak kelompok penelitian sedang mencoba mengatasi masalah ini meski tampaknya dengan jelas pada titik ini masalah tidak dapat diselesaikan pada tingkat teknologi. Masalah-masalah tentang FATE dalam kecerdasan buatan akan membutuhkan upaya berkelanjutan dan dilakukan bersama oleh pihak-pihak yang menggunakan teknologi ini untuk sadar akan permasalahan yang ada dan mengatasinya.

Seperti yang disoroti laporan AI Now, “Meskipun terdapat peningkatan konten etika kecerdasan buatan, prinsip dan pernyataan etika jarang sekali berfokus pada bagaimana etika kecerdasan buatan dapat diterapkan dan apakah bekerja efektif.”

Laporan tersebut mencatat bahwa pernyataan etika kecerdasan buatan sebagian besar mengabaikan pertanyaan bagaimana, di mana, dan siapa yang akan menerapkan pedoman tersebut. Pada kenyataannya, kemungkinan setiap orang harus menyadari jenis bias dan kelemahan yang dimiliki sistem ini, sama seperti dengan bagaimana kita harus menyadari bias kita sendiri dan bias orang lain.

Masalah mengenai larangan teknologi berlapis

Keakuratan yang lebih tinggi dan kemudahan dalam pemantauan membawa masalah lain di luar etika. Ada juga sejumlah masalah privasi terkait teknologi umum, mulai dari menjamurnya kamera yang berfungsi membantu polisi hingga kamera yang berpotensi membuat data sensitif menjadi anonim.

Dengan masalah etika dan privasi ini, reaksi umum yang mungkin adalah dengan menyerukan larangan pada teknik-teknik ini. Tentu saja, menerapkan kecerdasan buatan untuk hasil wawancara atau prosedur penghukuman pidana tampaknya berbahaya jika sistem tersebut bias dan tidak dapat diandalkan.

Namun ada bentuk penerapan yang berguna, misalnya dalam membantu mengidentifikasi tanda berbahaya untuk mencegah bunuh diri di kalangan remaja dan dalam mendeteksi pengemudi yang mabuk. Itulah salah satu alasan mengapa, bahkan para peneliti, pembuat aturan, dan warga negara yang peduli akan hal ini, pada umumnya berhenti meminta larangan berlapis atas penggunaan teknologi yang berkaitan dengan kecerdasan buatan.

Mengkombinasikan kecerdasan buatan dengan penilaian manusia

Pada akhirnya, perancang teknologi dan masyarakat secara keseluruhan perlu melihat dengan saksama bagaimana informasi dari sistem kecerdasan buatan dilibatkan ke dalam proses pengambilan keputusan. Sistem ini dapat memberikan hasil yang salah sama seperti bentuk kecerdasan lainnya.

Tidak berbeda dengan manusia, mereka juga terkenal buruk dalam menilai tingkat kepercayaan mereka sendiri bahkan dalam tugas-tugas sederhana seperti kemampuan mengenali objek. Tentu masih ada tantangan teknis yang signifikan dalam membaca emosi, terutama dalam mempertimbangkan konteks untuk menyimpulkan emosi.

Jika orang-orang mengandalkan sistem yang tidak akurat dalam membuat keputusan, pengguna sistem akan menjadi jauh lebih buruk. Kita juga tahu bahwa manusia cenderung lebih mempercayai sistem ini ketimbang figur otoritas lainnya.

Oleh karena itu, kita sebagai masyarakat perlu mempertimbangkan dengan saksama sisi keadilan, akuntabilitas, transparansi, dan etika sistem ini, baik dalam proses perancangan maupun penerapannya di masyarakat. Kita juga harus selalu menempatkan manusia sebagai pembuat keputusan akhir.

Rizki Nur Fitriansyah menerjemahkan artikel ini dari bahasa Inggris.

This article was originally published in English

Want to write?

Write an article and join a growing community of more than 182,700 academics and researchers from 4,947 institutions.

Register now