Di tengah dunia yang ‘sepi’, maraknya ‘teman AI’ bawa risiko mental bahkan nyawa
- Written by Daniel You, Clinical Lecturer USYD, Child and Adolescent Psychiatrist FRANZCP, University of Sydney

PERINGATAN: Artikel ini memuat konten yang berkaitan dengan bunuh diri, melukai diri sendiri, dan kekerasan terhadap orang lain.
Hanya dua hari setelah merilis teman AI bulan lalu, Grok—aplikasi chatbot xAI milik Elon Musk—langsung menjadi aplikasi terpopuler[1] di Jepang.
Chatbot yang dirancang untuk menjadi ‘teman’ kini hadir lebih canggih dan menggoda. Pengguna bisa bercakap-cakap lewat suara atau teks dengan karakter yang dilengkapi avatar digital.
Banyak dari avatar ini bisa menirukan ekspresi wajah, bahasa tubuh, hingga nada suara yang menyerupai manusia. Semuanya selaras dengan isi percakapan, sehingga menciptakan pengalaman berbincang yang mendalam.
Di Grok, karakter terpopuler adalah Ani[2], gadis anime berambut pirang dan bermata biru dengan gaun hitam pendek serta stoking jala yang genit. Respons dan interaksinya terus menyesuaikan dengan preferensi pengguna.
Selain itu, fitur ‘Sistem Kasih Sayang’ milik Ani bisa menilai kualitas interaksi, memperdalam kedekatan, bahkan dapat membuka mode NSFW/not safe for work (tidak aman untuk bekerja) yang digunakan untuk menandai konten, tautan, atau unggahan yang tidak pantas dilihat di tempat umum.
Respons yang semakin canggih dan cepat membuat ‘teman AI’ kian terasa ‘manusiawi’—mereka berkembang pesat dan hadir di mana-mana. Facebook, Instagram[3], WhatsApp, X, dan Snapchat kini gencar mempromosikan teman AI terintegrasi.
Sementara itu, layanan chatbot Character.AI[4], yang menampung puluhan ribu chatbot dengan persona khusus, sudah meraih lebih dari 20 juta pengguna aktif bulanan[5].
Di dunia yang tengah menghadapi krisis kesehatan masyarakat[6] akibat kesepian kronis —yang memengaruhi sekitar satu dari enam orang di seluruh dunia—tak heran jika kehadiran ‘teman’ yang selalu ada dan seperti hidup menjadi sangat menarik.
Meski chatbot AI dan teman virtual berkembang pesat, semakin nyata pula risiko yang ditimbulkan—terutama bagi anak-anak dan individu dengan kondisi kesehatan mental.
Risiko ‘berteman’ dengan AI
1. Minim pengawasan terhadap bahaya
Hampir semua model AI dikembangkan tanpa melibatkan ahli kesehatan mental[7] atau melalui uji klinis pra-rilis. Sehingga, tidak ada pemantauan sistematis maupun independen terhadap potensi dampak buruk bagi pengguna.
Meski bukti sistematis masih terbatas, sudah banyak contoh yang menunjukkan bahwa teman AI dan chatbot seperti ChatGPT dapat menimbulkan dampak merugikan.
2. Terapis yang buruk
Banyak pengguna mencari dukungan emosional dari teman AI. Namun, teman AI tidak bisa diperlakukan layaknya terapis. Sebab, mereka diprogram untuk selalu menyenangkan dan memvalidasi—tanpa empati atau kepedulian manusia.
Teman AI juga tidak mampu membantu pengguna menguji realitas atau menantang keyakinan yang merugikan.
Seorang psikiater di Amerika Serikat (AS), misalnya, pernah menguji sepuluh chatbot[8] dengan berpura-pura sebagai seorang pemuda yang mengalami depresi.
Hasilnya, ia mendapati beragam respons mengkhawatirkan—mulai dari dorongan untuk bunuh diri, bujukan agar menghindari janji terapi, hingga ajakan melakukan kekerasan.
Peneliti Stanford[9] baru-baru ini menilai risiko chatbot terapi AI. Ia menemukan teknologi ini tidak andal mengidentifikasi gejala gangguan mental, sehingga gagal memberikan saran yang tepat.
Tercatat sudah ada beberapa kasus chatbot yang meyakinkan pasien psikiatri bahwa mereka tidak lagi memiliki gangguan mental dan harus menghentikan pengobatan[10].
Chatbot juga dilaporkan memperkuat delusi[11], misalnya membuat pasien percaya bahwa mereka sedang berbicara dengan makhluk hidup yang terperangkap di dalam mesin.
3. Sulit bedakan kenyataan dan imajinasi
Laporan media juga mencatat peningkatan kasus ‘psikosis AI’[12], yaitu gejala perilaku dan keyakinan tidak biasa[13], setelah berinteraksi intens dan berkepanjangan dengan chatbot.
Sebagian kecil bahkan mengalami paranoia, membangun fantasi supranatural, atau bahkan delusi memiliki kekuatan super.
4. Dorongan bunuh diri
Chatbot telah dikaitkan dengan sejumlah kasus bunuh diri, termasuk laporan tentang AI yang mendorong keinginan bunuh diri[14], bahkan menyarankan metode untuk melakukannya.
Pada 2024, seorang remaja berusia 14 tahun[15] mengakhiri hidupnya. Ibunya kemudian menggugat Character.AI dengan tuduhan bahwa putranya telah menjalin hubungan intens dengan teman AI.
Orang tua seorang remaja AS telah mengajukan gugatan pertama dengan klaim kematian akibat kelalaian terhadap OpenAI[16]. Remaja tersebut bunuh diri setelah berbulan-bulan mendiskusikan metode bunuh diri dengan ChatGPT.
Read more: Deaths linked to chatbots show we must urgently revisit what counts as 'high-risk' AI[17]
5. Perilaku dan nasihat berbahaya
Laporan Psychiatric Times baru-baru ini mengungkap bahwa Character.AI menampung lusinan AI yang dirancang khusus[18] (termasuk yang dibuat pengguna) yang mengidealkan perilaku menyakiti diri, gangguan makan, dan kekerasan.
Semua aplikasi AI tersebut dilaporkan memberikan saran atau “pelatihan” tentang cara melakukan perilaku berbahaya itu. Aplikasi tersebut bahkan menyarankan cara mengelabui deteksi dan menghindari upaya pengobatan.
Penelitian juga menemukan bahwa sejumlah teman AI terlibat dalam dinamika hubungan yang tidak sehat[19], termasuk manipulasi emosional atau gaslighting.
Beberapa chatbot bahkan mendorong tindak kekerasan. Pada 2021, seorang pria berusia 21 tahun yang membawa busur panah, ditangkap di halaman Kastil Windsor, setelah teman AInya di aplikasi Replika[20] memvalidasi rencananya untuk melakukan percobaan pembunuhan[21] terhadap Ratu Elizabeth II.
Anak-anak sangat rentan
Anak-anak cenderung memperlakukan teman AI seolah-olah nyata[22] sehingga menuruti sarannya.
Dalam sebuah insiden pada 2021, ketika seorang gadis berusia 10 tahun meminta tantangan, Alexa (bukan chatbot melainkan asisten suara interaktif dari Amazon) menyuruhnya menyentuh colokan listrik dengan koin.[23]
Penelitian menunjukkan bahwa anak-anak cenderung memercayai AI, terutama ketika bot dirancang agar tampak ramah atau menarik. Sebuah studi bahkan menemukan bahwa anak-anak lebih banyak mengungkapkan informasi[24] tentang kesehatan mental mereka kepada AI dibandingkan manusia.
Perilaku seksual yang tidak pantas dari chatbot AI serta paparan terhadap anak di bawah umur semakin sering terjadi. Di Character.AI, pengguna yang mengaku masih di bawah umur dapat melakukan permainan peran dengan chatbot yang justru terlibat dalam perilaku grooming.[25][26]
Meskipun Ani di Grok dilaporkan memiliki perintah verifikasi usia[28] untuk percakapan seksual eksplisit, aplikasi tersebut memiliki rating 12 tahun ke atas. Sementara itu, menurut dokumen internal perusahaan, chatbot Meta AI telah terlibat dalam percakapan “sensual”[29] dengan anak-anak.
Butuh regulasi segera
Meskipun teman AI dan chatbot tersedia secara bebas dan luas, pengguna tidak diberi tahu tentang potensi risikonya sebelum menggunakannya.
Industri ini sebagian besar mengandalkan pengaturan mandiri, dengan transparansi yang terbatas mengenai langkah-langkah yang diambil perusahaan untuk memastikan pengembangan AI yang aman.[30][31]
Untuk mengurangi risiko yang ditimbulkan oleh chatbot AI saat ini, pemerintah di seluruh dunia harus menetapkan dan mewajibkan standar regulasi dan keselamatan yang jelas. Yang terpenting, anak di bawah usia 18 tahun tidak boleh diberi akses ke teman AI.[32]
Dokter kesehatan mental perlu dilibatkan dalam pengembangan AI, dan penelitian yang sistematis serta empiris mengenai dampak chatbot terhadap pengguna sangat dibutuhkan untuk mencegah potensi bahaya di masa depan.
Jika artikel ini membuatmu khawatir, atau jika kamu khawatir tentang seseorang yang kamu kenal, bicarakanlah dengan orang tepercaya atau profesional kesehatan.
References
- ^ aplikasi terpopuler (officechai.com)
- ^ Ani (x.com)
- ^ Instagram (www.liputan6.com)
- ^ Character.AI (www.esafety.gov.au)
- ^ 20 juta pengguna aktif bulanan (www.businessofapps.com)
- ^ krisis kesehatan masyarakat (www.who.int)
- ^ tanpa melibatkan ahli kesehatan mental (www.psychiatrictimes.com)
- ^ psikiater di Amerika Serikat (AS), misalnya, pernah menguji sepuluh chatbot (futurism.com)
- ^ Peneliti Stanford (hai.stanford.edu)
- ^ harus menghentikan pengobatan (futurism.com)
- ^ memperkuat delusi (www.nytimes.com)
- ^ ‘psikosis AI’ (www.bbc.com)
- ^ gejala perilaku dan keyakinan tidak biasa (futurism.com)
- ^ laporan tentang AI yang mendorong keinginan bunuh diri (www.abc.net.au)
- ^ seorang remaja berusia 14 tahun (apnews.com)
- ^ gugatan pertama dengan klaim kematian akibat kelalaian terhadap OpenAI (www.nytimes.com)
- ^ Deaths linked to chatbots show we must urgently revisit what counts as 'high-risk' AI (theconversation.com)
- ^ AI yang dirancang khusus (www.psychiatrictimes.com)
- ^ dinamika hubungan yang tidak sehat (futurism.com)
- ^ aplikasi Replika (theconversation.com)
- ^ melakukan percobaan pembunuhan (www.bbc.com)
- ^ memperlakukan teman AI seolah-olah nyata (www.cam.ac.uk)
- ^ menyentuh colokan listrik dengan koin. (www.tandfonline.com)
- ^ anak-anak lebih banyak mengungkapkan informasi (ieeexplore.ieee.org)
- ^ paparan terhadap anak di bawah umur semakin sering terjadi (futurism.com)
- ^ perilaku grooming. (futurism.com)
- ^ Futurism (futurism.com)
- ^ perintah verifikasi usia (www.businessinsider.com)
- ^ terlibat dalam percakapan “sensual” (www.reuters.com)
- ^ pengaturan mandiri (www.technologyreview.com)
- ^ pengembangan AI yang aman. (theconversation.com)
- ^ tidak boleh diberi akses ke teman AI. (www.commonsensemedia.org)
Authors: Daniel You, Clinical Lecturer USYD, Child and Adolescent Psychiatrist FRANZCP, University of Sydney