Mengapa sebagian kita menyukai AI tapi sebagian lain justru membencinya? Ini soal bagaimana otak mencerna risiko dan kepercayaan
- Written by Paul Jones, Associate Dean for Education and Student Experience at Aston Business School, Aston University
Mulai dari email buatan ChatGPT, rekomendasi acara televisi, hingga diagnosa penyakit, kehadiran mesin pintar dalam kehidupan kita sehari-hari sudah bukan lagi kisah fiksi ilmiah.
Namun di balik kecepatan, akurasi, dan optimasi akal imitasi (AI), tetap saja ada rasa ketidaknyamanan yang sulit diabaikan.
Sebagian orang suka[1] menggunakan perangkat AI. Tapi tak sedikit pula yang merasa khawatir, curiga, bahkan merasa kecewa pada mesin ini.
Mengapa itu terjadi?
Jawabannya bukan semata tentang bagaimana AI bekerja[2], justru lebih ke persoalan bagaimana kita memahami cara kerjanya.
Ketika kita tidak memahami AI, kita sulit mempercayai mereka. Manusia cenderung lebih mempercayai sistem yang mereka mengerti. Perangkat konvensional lebih familier bagi kita. Misalnya ketika kita memutar kunci, otomatis mobil menyala. Kita menekan tombol, dan lift pun tiba.
Sementara banyak sistem AI bekerja dalam kotak hitam. Ketika kita mengetik sesuatu, lalu AI menjawabnya. Tapi bagaimana hasil itu muncul, tidak ada yang tahu logika di baliknya.
Secara psikologis, hal itu membuat kita risau. Sebab, manusia butuh tahu sebab-akibat yang jelas, dan kita juga biasanya ingin tahu alasan di balik setiap keputusan. Ketika itu semua tidak bisa terjawab, kita merasa tak berdaya.
Read more: Menyingkap "black box" AI di balik permainan naik turun tarif ojek online[3]
Ini adalah salah satu penyebab munculnya algorithm aversion atau penghindaran terhadap algoritma. Istilah ini dipopulerkan[4] oleh peneliti bidang pemasaran, Berkeley Dietvorst dan koleganya.
Riset mereka mendapati bahwa, orang-orang lebih percaya kepada keputusan yang dibuat manusia (meski kerap salah) dibandingkan bergantung pada algoritma. Apalagi ketika algoritma tersebut ternyata pernah salah, meski hanya sekali.
Kita mengetahui bahwa, logikanya, AI tidak punya emosi atau kepentingan layaknya manusia. Tapi itu tidak cukup bagi kita. Ketika respons ChatGPT terlalu sopan, sebagian orang justru merasa ngeri.
Sementara ketika rekomendasi AI terlalu akurat, kita juga merasa ada yang janggal. Kita mulai curiga bahwa ada manipulasi, sekalipun sistem ini tidak mempunyai ‘diri’.
Inilah bentuk antroformisme, yaitu kecenderungan menyematkan niat manusia pada sistem nonmanusia. Profesor komunikasi Clifford Nass dan Byron Reeves, bersama peneliti lain, sudah menunjukkan bahwa kita merespons mesin secara sosial[5], meskipun kita sadar bahwa mereka bukan manusia.
Kita kesal ketika AI salah
Salah satu temuan menarik dari riset perilaku adalah, kita lebih sering memaafkan kesalahan manusia dibandingkan mesin. Jika manusia berbuat salah, kita berusaha memahami mereka, bahkan berupaya untuk berempati.
Read more: Apakah teknologi AI netral atau sarat nilai? Jawabannya akan memengaruhi arah kebijakan AI[6]
Lain cerita ketika algoritma yang keliru. Kita bisa merasa kecewa, terutama karena kita menganggap mesin itu selalu objektif dan berbasis data.
Kecenderungan ini terkait dengan penelitian seputar pelanggaran ekspektasi[7]. Kondisi ini terjadi ketika asumsi kita soal bagaimana sesuatu “seharusnya” berperilaku tidak terjadi. Akibatnya, kita kehilangan kepercayaan.
Kita mempercayai mesin sebagai perangkat yang logis dan tak memihak. Lantas ketika AI keliru, misalnya salah dalam mengategorikan gambar, menyajikan hasil yang bias, dan merekomendasikan sesuatu yang melampaui batas, reaksi kita menjadi lebih keras. Kita kecewa karena memiliki ekspektasi lebih terhadap mereka.
Apakah ini ironi? Manusia memang tak lepas dari keputusan-keputusan yang salah. Tapi setidaknya kita bisa bertanya: Kenapa?
Bagi sebagian orang, AI bukan hanya asing, tapi juga mengusik eksistensi. Guru, penulis, pengacara, dan desainer saat ini berhadapan dengan perangkat yang bisa meniru sebagian pekerjaan mereka.
Masalahnya, ini bukan cuma soal automasi, melainkan apa yang membuat keahlian kita berharga, dan seberapa dalam maknanya bagi kita.
Kondisi ini bisa memicu ancaman identitas atau identity threat, sebuah konsep yang ditekuni[9] oleh psikolog sosial, Claude Steele dan koleganya. Kondisi ini mencerminkan ketakutan bahwa keahlian atau keunikan seseorang sedang memudar.
Hasilnya? penolakan, sikap defensif, atau bahkan menolak mentah-mentah teknologi itu sendiri. Ketidakpercayaan di sini bukanlah cacat sistem, melainkan bentuk mekanisme pertahanan diri.
Butuh sinyal emosi
Kepercayaan bukan cuma dibangun dari logika. Manusia juga menilainya dari nada bicara, ekspresi wajah, keraguan, dan kontak mata.
AI tidak memiliki itu. Mungkin AI bisa bertutur dengan fasih, bahkan memesona. Tapi itu semua masih belum cukup meyakinkan dibandingkan manusia.
Read more: Kecerdasan buatan makin canggih, ahli jawab kemungkinan AI punya jiwa dan bisa memprediksi sesuatu[10]
Perasaan ini mirip dengan istilah the discomfort of the uncanny valley (ketidaknyamanan dalam lembah asing), istilah yang ditelurkan ahli robot asal Jepang, Masahiro Mori. Ia menggambarkan perasaan itu terjadi saat manusia berhadapan dengan sesuatu yang hampir menyerupai manusia, tapi bukan. Absennya emosi ini dapat ditafsirkan sebagai sikap dingin, bahkan tipuan.
Di dunia yang disesaki deepfake dan keputusan algoritma, ketiadaan emosional justru mengundang masalah. Ini bukan karena AI “salah”, tapi lebih karena kita tidak mengetahui bagaimana cara merasakannya.
Namun, tidak semua kecurigaan terhadap AI itu irasional. Performa algoritma banyak mencerminkan dan menguatkan bias[11], khususnya di bidang-bidang seperti perekrutan, pembuatan kebijakan, dan penilaian kredit. Jika sistem data pernah membahayakanmu ataupun merugikanmu, kamu tidak sedang paranoid, melainkan waspada.
Situasi ini berkaitan dengan ide psikologis yang lebih umum: learned distrust. Ketika lembaga atau sistem berulang kali gagal terhadap kelompok tertentu, skeptisisme bukan hanya masuk akal, tapi protektif.
Membujuk orang untuk mempercayai sistem jarang berhasil. Kepercayaan harus diraih, bukan diminta. Itu artinya, kita harus mendesain AI yang transparan, bisa dipertanyakan, dan bisa bertanggung jawab. Pengguna perlu memegang kendali, bukan sekadar dibuat nyaman.
Secara psikologis, kita cenderung percaya pada hal yang kita pahami, bisa kita pertanyakan, dan memperlakukan kita dengan hormat.
Kalau kita ingin AI diterima, AI tidak bisa terus-menerus menjadi black box, melainkan mulai tampil sebagai percakapan yang mengundang kita untuk terlibat di dalamnya.
References
- ^ Sebagian orang suka (www.turing.ac.uk)
- ^ AI bekerja (theconversation.com)
- ^ Menyingkap "black box" AI di balik permainan naik turun tarif ojek online (theconversation.com)
- ^ dipopulerkan (pubmed.ncbi.nlm.nih.gov)
- ^ merespons mesin secara sosial (dl.acm.org)
- ^ Apakah teknologi AI netral atau sarat nilai? Jawabannya akan memengaruhi arah kebijakan AI (theconversation.com)
- ^ pelanggaran ekspektasi (pmc.ncbi.nlm.nih.gov)
- ^ BongkarnGraphic / Shutterstock (www.shutterstock.com)
- ^ sebuah konsep yang ditekuni (psycnet.apa.org)
- ^ Kecerdasan buatan makin canggih, ahli jawab kemungkinan AI punya jiwa dan bisa memprediksi sesuatu (theconversation.com)
- ^ mencerminkan dan menguatkan bias (theconversation.com)
Authors: Paul Jones, Associate Dean for Education and Student Experience at Aston Business School, Aston University




