Asian Spectator

Men's Weekly

.

AI bisa salah diagnosis dan diskriminatif: Konsultasi kesehatan mental tetap harus ke profesional

  • Written by Ali Akbar Septiandri, PhD Candidate in Statistical Science, UCL
AI bisa salah diagnosis dan diskriminatif: Konsultasi kesehatan mental tetap harus ke profesional

● AI hanya dilatih berdasarkan pola dari preferensi pengguna, sehingga rentan bias dan salah diagnosis.

● Psikolog dan psikiater bisa mengenali gejala masalah mental yang terselubung dengan pendekatan empatik dan berbasis bukti.

● Mengurai masalah mental membutuhkan keahlian, empati, dan pengalaman klinis.

Fenomena curhat dengan chatbot kecerdasan buatan (AI) sedang marak[1], bukan hanya di kalangan Gen Z dan Milenial, tapi juga usia lanjut (lansia)[2]. Kehadiran AI seolah jadi obat mujarab untuk mengisi kesepian yang rentan kita alami di era serba digital ini[3].

Di Indonesia, sebuah survei pada 2025[4] menunjukkan bahwa 58% (dari 3.611 responden) bahkan mempertimbangkan AI sebagai pengganti psikolog.

Beberapa orang menilai bahwa AI lebih mudah diakses kapan pun dibutuhkan[5]. Biayanya lebih terjangkau dibandingkan psikolog atau psikiater[6].

Namun, di balik segala kemudahan yang ditawarkan, AI memiliki sejumlah kelemahan[7]. Kita perlu berpikir ulang jika ingin menjadikan teknologi ini sebagai pengganti praktisi kesehatan mental sepenuhnya. Hal ini terutama terkait dengan keamanan dan keakuratan saran psikologis yang diberikan AI.

Artikel ini akan menjelaskan mengapa kita sebaiknya tetap harus berkonsultasi dengan psikolog/psikiater, alih-alih mengandalkan AI dalam mengatasi kondisi mental.

AI rentan membuat kesalahan

Curhat dengan chatbot AI mungkin bisa membuat kita terbuai karena teknologi ini dirancang menyerupai sifat-sifat manusia[8] (antropomorfisme). AI bisa bersikap hangat, memberikan respons emosional, berkomunikasi dengan ramah, dan menjawab nyaris semua pertanyaan tanpa membuat kita merasa dihakimi.

Kemampuan tersebut tak lepas dari sistem pembelajaran bahasa AI yang menjadikan teknologi ini serba tahu dan seolah memahami kita.

AI memiliki sistem pengolahan bahasa alami (NLP)[9] untuk memahami dan berinteraksi layaknya manusia. Teknologi ini juga dikembangkan dengan sistem model bahasa besar[10] (LLM) yang membuat pengetahuan AI sangat luas[11].

Berkat rancangan tersebut, AI sanggup menganalisis[12] dan menjelaskan nyaris semua hal yang kita tanyakan. Ditambah lagi, AI juga belajar menggunakan algoritme dari data dan pola interaksi dengan pengguna[13].

Namun di sinilah masalahnya[14]. Karena hanya dilatih berdasarkan pola dari preferensi pengguna, tanpa akal sehat maupun empati, AI rentan bias[15] dan keliru dalam mengenali gejala[16] maupun memberikan saran psikologis.

Read more: Dilema penggunaan AI di ICU: Rentan picu tindakan medis yang keliru[17]

1. Salah diagnosis

Peneliti dari Google DeepMind mengungkapkan bahwa kecerdasan buatan bisa memberikan informasi dan diagnosis yang keliru, meskipun AI telah dilatih menggunakan data yang beragam dan berukuran sangat besar[18].

Kondisi ini terjadi karena sistem AI hanya bisa bekerja dengan baik menggunakan pola data yang terkontrol[19]. Akibatnya, AI kesulitan mengenali keadaan mental pasien yang tidak biasa[20], terselubung, dan membutuhkan pengamatan jangka panjang.

Contohnya, AI akan kesulitan mengenali pasien dengan smiling depression, yakni seseorang yang tindakan dan ucapannya terlihat bahagia, padahal depresi berat.

Salah satu kekurangan AI tidak bisa mengenali masalah mental yang tak terucapkan layaknya psikolog dan psikiater.
Salah satu kekurangan AI tidak bisa mengenali masalah mental yang tak terucapkan layaknya psikolog dan psikiater. CrizzyStudio / Shutterstock[21]

Sementara itu, psikolog dan pskiater terlatih untuk membaca bahasa tubuh, ekspresi, dan gejala-gejala masalah mental yang tak terucapkan[22] oleh pasien.

Contohnya, ketika kamu bilang “enggak apa-apa”, AI mungkin akan percaya begitu saja. Namun, psikolog bisa mengenali sesuatu yang tidak beres di balik jawabanmu[23].

Karena “enggak apa-apa”-nya kamu justru bisa jadi tanda kuat bahwa kamu membutuhkan pertolongan.

2. Rentan halusinasi

AI dirancang untuk selalu merespons[24], kendati dia tidak memiliki basis data yang cukup mengenai hal yang kita tanyakan.

Selain itu, AI mengoleksi pengetahuan berdasarkan rekomendasi algoritme dari mesin pencarian berbasis engagement[25] alias keterlibatan pengguna (seperti Google dan Youtube).

Dampaknya, AI sering kali memaksakan jawaban yang sebenarnya tidak relevan ketika menjawab topik yang belum dia pahami atau informasinya masih minim di internet.

Untuk konsultasi kesehatan mental, dampaknya bisa sangat buruk. Studi tahun 2025 dalam Journal of Medical Internet Research[26] mengungkapkan bahwa AI rentan berhalusinasi, bahkan mendorong pengguna untuk bunuh diri.

Pasalnya, AI tidak memiliki kemampuan untuk menilai risiko kondisi lawan bicaranya yang memiliki tendensi untuk menyakiti diri sendiri.

Hal ini berbeda dengan psikolog dan psikiater yang menjalani pelatihan klinis untuk memahami diagnosis[27], menyusun tindakan yang sesuai, serta menilai risiko secara mendalam dengan pendekatan berbasis bukti.

Gaji tak kunjung naik. Promosi mesti pindah perusahaan. Skripsi belum juga ACC. Diet ketat, berat badan tak turun juga. Lingkungan kerja toxic, bosnya narsistik. Gaji bulan ini mesti dibagi untuk orang tua dan anak. Mau sustainable living, ongkosnya mahal. Notifikasi kantor berdenting hingga tengah malam. Generasi Zilenials hidup di tengah disrupsi teknologi, persaingan ketat, dan kerusakan lingkungan. Simak ‘Lika Liku Zilenial’ mengupas tuntas permasalahanmu berdasar riset dan saran pakar. 3. Bisa diskriminatif AI rentan memberikan penilaian tidak adil terhadap ras atau etnis tertentu (bias rasial), terlebih ketika data mengenai kelompok minoritas masih sangat minim. Ditambah lagi, penelitian psikologi masih banyak berfokus pada orang-orang kulit putih[28], berpendidikan tinggi, di negara kaya, dan demokratis. Akibatnya, AI berisiko memberikan diagnosis yang keliru[29] dan diskriminatif[30] terhadap kelompok minoritas. AI juga tidak mampu membuat keputusan klinis yang adaptif[31]. Bias rasial mungkin akan lebih minim didapati dari seorang psikolog atau psikiater yang memiliki kode etik berupa larangan melakukan tindakan diskriminatif[32] terhadap pasien. Selain itu, psikolog atau psikiater terlatih untuk memberikan respons yang tepat seusai kondisi pasien[33]. Psikolog dan psikiater mengurai masalah pasien dengan pendekatan yang lebih empatik dan berbasis bukti.
Psikolog dan psikiater mengurai masalah pasien dengan pendekatan yang lebih empatik dan berbasis bukti. Kmpzzz / Shutterstock[34]

Konsultasi kesehatan mental harus ke profesional

AI memang pintar, tapi bukan manusia. Curhat mengenai masalah personal hingga krisis hidup ke sebuah sistem yang tidak mampu merasakan empati, justru berisiko memperburuk keadaan.

Dampak negatif curhat dengan AI bisa memperkuat gangguan kecemasan[35], khususnya bagi orang dengan gangguan obsesif-kompulsif (OCD). Pasalnya, interaksi intens dan respons tanpa batas dari AI, memperkuat perilaku berulang (kompulsif).

Read more: Kamu nyaman curhat dengan AI? Hati-hati kena gangguan mental[36]

Meski begitu, AI mungkin bisa dimanfaatkan sekadar sebagai pelengkap[37], seperti membantu praktisi merangkum transkrip dari sesi konsultasi dengan pasien[38], mengenalkan teknik terapi perilaku kognitif (CBT) dasar[39], memantau suasana hati, serta latihan pernapasan.

Pada akhirnya, dalam menghadapi kasus seperti trauma, depresi berat, atau pikiran untuk bunuh diri, pendekatan yang penuh empati dan penanganan langsung dari profesional bukan hanya penting, tapi mutlak.

Sebab, memahami manusia bukan hanya soal algoritme, tapi juga membutuhkan keahlian, empati, dan pengalaman klinis.

References

  1. ^ curhat dengan chatbot kecerdasan buatan (AI) sedang marak (pmc.ncbi.nlm.nih.gov)
  2. ^ Gen Z dan Milenial, tapi juga usia lanjut (lansia) (snapcart.global)
  3. ^ kesepian yang rentan kita alami di era serba digital ini (brainmindsociety.org)
  4. ^ sebuah survei pada 2025 (snapcart.global)
  5. ^ lebih mudah diakses kapan pun dibutuhkan (pmc.ncbi.nlm.nih.gov)
  6. ^ Biayanya lebih terjangkau dibandingkan psikolog atau psikiater (pmc.ncbi.nlm.nih.gov)
  7. ^ AI memiliki sejumlah kelemahan (pmc.ncbi.nlm.nih.gov)
  8. ^ teknologi ini dirancang menyerupai sifat-sifat manusia (www.tandfonline.com)
  9. ^ pengolahan bahasa alami (NLP) (link.springer.com)
  10. ^ model bahasa besar (dl.acm.org)
  11. ^ pengetahuan AI sangat luas (arxiv.org)
  12. ^ menganalisis (dl.acm.org)
  13. ^ algoritme dari data dan pola interaksi dengan pengguna (arxiv.org)
  14. ^ di sinilah masalahnya (arxiv.org)
  15. ^ AI rentan bias (mental.jmir.org)
  16. ^ keliru dalam mengenali gejala (www.cambridge.org)
  17. ^ Dilema penggunaan AI di ICU: Rentan picu tindakan medis yang keliru (theconversation.com)
  18. ^ data yang beragam dan berukuran sangat besar (arxiv.org)
  19. ^ pola data yang terkontrol (aclanthology.org)
  20. ^ keadaan mental pasien yang tidak biasa (www.cambridge.org)
  21. ^ CrizzyStudio / Shutterstock (www.shutterstock.com)
  22. ^ bahasa tubuh, ekspresi, dan gejala-gejala masalah mental yang tak terucapkan (pmc.ncbi.nlm.nih.gov)
  23. ^ mengenali sesuatu yang tidak beres di balik jawabanmu (pmc.ncbi.nlm.nih.gov)
  24. ^ selalu merespons (aclanthology.org)
  25. ^ rekomendasi algoritme dari mesin pencarian berbasis engagement (dl.acm.org)
  26. ^ Studi tahun 2025 dalam Journal of Medical Internet Research (mental.jmir.org)
  27. ^ pelatihan klinis untuk memahami diagnosis (pmc.ncbi.nlm.nih.gov)
  28. ^ orang-orang kulit putih (www.cambridge.org)
  29. ^ diagnosis yang keliru (link.springer.com)
  30. ^ diskriminatif (dl.acm.org)
  31. ^ tidak mampu membuat keputusan klinis yang adaptif (www.nature.com)
  32. ^ kode etik berupa larangan melakukan tindakan diskriminatif (www.ipkindonesia.or.id)
  33. ^ respons yang tepat seusai kondisi pasien (www.tandfonline.com)
  34. ^ Kmpzzz / Shutterstock (www.shutterstock.com)
  35. ^ memperkuat gangguan kecemasan (www.vox.com)
  36. ^ Kamu nyaman curhat dengan AI? Hati-hati kena gangguan mental (theconversation.com)
  37. ^ pelengkap (www.tandfonline.com)
  38. ^ merangkum transkrip dari sesi konsultasi dengan pasien (www.nature.com)
  39. ^ mengenalkan teknik terapi perilaku kognitif (CBT) dasar (www.sciencedirect.com)

Authors: Ali Akbar Septiandri, PhD Candidate in Statistical Science, UCL

Read more https://theconversation.com/ai-bisa-salah-diagnosis-dan-diskriminatif-konsultasi-kesehatan-mental-tetap-harus-ke-profesional-260094

Magazine

Korupsi di Indonesia: Menyelami isi kepala para koruptor

Ilustrasi ruang pengadilan tindak pidana korupsi (tipikor)BahbahAconk/Shutterstock● Korupsi disebabkan antara lain oleh faktor personal (psikologis) pelaku.● Faktor personal korupsi membua...

AI bisa salah diagnosis dan diskriminatif: Konsultasi kesehatan mental tetap harus ke profesional

● AI hanya dilatih berdasarkan pola dari preferensi pengguna, sehingga rentan bias dan salah diagnosis. ● Psikolog dan psikiater bisa mengenali gejala masalah mental yang terselubung denga...

Penyangkalan pemerkosaan massal Mei 1998 dapat memperburuk diplomasi Indonesia

Menteri Kebudayaan Fadli Zon (Foro Parlamentario Asia Pacífico/Wikimedia), CC BY● Fadli Zon menyangkal pemerkosaan 1998 berisiko mengulang kecaman dunia internasional terhadap Indonesia.&...