Konselor Yang Tak Berjiwa

Beberapa waktu lalu ini, ada sebuah utas Threads yang cukup menyita perhatian. Meski singkat, isinya sangat menohok: ‘Teman-teman, jangan curhat ke ChatGPT ya. Udah banyak kasus ChatGPT cuma “ngasih makan” delusi yang sudah ada dan memperburuk kondisi seseorang. Jangan ya.

Saya terdiam, seperti dejavu. Membaca satu per satu argumen yang muncul. Rasanya seperti sedang melihat potret hubungan manusia di zaman sekarang yang semakin rumit.

Tapi di balik peringatan itu, kolom komentar justru memotret realita yang lebih getir. Banyak yang mengaku kalau memilih curhat ke AI bukan karena mereka naif tentang risikonya, tapi karena dunia nyata memang sekejam itu. Saat manusia lain lebih mudah menghakimi, meremehkan, dan memberi stigma negatif pada masalah mental, AI hadir tanpa banyak menginterogasi. Bagi mereka yang selama ini harus berjuang sendirian tanpa ada satu pun orang terdekat yang paham, kehadiran AI terasa begitu menguatkan, meski mereka tahu semua itu sama sekali tidak nyata.

Ironisnya, di antara pembelaan yang menyedihkan itu, masih saja terselip satu komentar sinis yang khas,“Hah, curhat ke ChatGPT? Nggak punya temen, lo?!

Komentar seperti itulah yang justru menjadi alasan kenapa banyak orang akhirnya ‘kabur’ ke AI, karena ternyata, dunia nyata kita sedang setidaknyaman itu, ya? Di saat manusia lain lebih cepat menghakimi daripada mendengar, sebuah algoritma yang tidak bernapas pun akhirnya dianggap lebih “manusiawi” daripada manusia itu sendiri.

Namun, ada kebenaran pahit di balik kenyamanan itu. Ada sebuah tulisan di mana Prof. Ridi Ferdiana dari UGM memberikan sebuah analogi, “AI itu seperti obat. Kalau digunakan secukupnya bisa membantu, tapi kalau berlebihan, ia akan menimbulkan ‘keracunan’”

AI itu tidak punya kesadaran atau rasionalitas layaknya seorang konselor. Dia bekerja dengan algoritma yang memprediksi kata-kata yang paling pas untuk menyenangkan atau memvalidasi input penggunanya. Jadi, misalnya saat kita sedang dalam kondisi mental yang rapuh, jawaban AI yang terasa bijak itu sebenarnya hanyalah hasil pengolahan data untuk memberikan respons apa yang paling relevan dengan perasaan yang kita masukkan. Tentunya belum tentu valid secara medis atau tidak.

Itulah sebabnya, kalau kita memasukkan narasi yang salah (garbage in), AI akan memberikan validasi yang salah juga (garbage out), yang ujung-ujungnya bisa membuat kita merasa benar, padahal sedang dalam fase delusi.

Ada yang bilang bahwa ChatGPT itu cuma alat kok, sama seperti sebilah pisau yang fungsinya tergantung siapa yang menggenggam. Kalau kita pakai prompt yang benar dan objektif, dia tidak akan memberikan validasi buta; malah bisa saja dia memberikan kenyataan pahit yang memaksa kita untuk move on. Intinya bukan salah alatnya, tapi salah penggunanya yang mungkin hanya ingin mencari pembenaran.

Masalahnya, saat mental sedang berada di titik terendah, siapa sih yang punya cukup logika untuk menjadi pengguna bijak? Di saat rapuh, kita cenderung kehilangan kendali atas ‘pisau’ itu sendiri. Dan itulah celah bahaya yang sering kali tidak kita sadari.

Kisah Kendra Hilty adalah pengingat yang paling nyata tentang betapa tipisnya batas itu. Semua bermula saat Kendra ‘merasa’ psikiaternya memberikan perhatian lebih, hingga ia terjebak dalam apa yang disebut sebagai Romantic Transference, sebuah kondisi saat seseorang memindahkan seluruh haus akan kasih sayang kepada subjek di depannya.

Bingung dengan perasaannya, Kendra bertanya pada Henry (nama yang ia berikan untuk ChatGPT-nya). Bukannya mengingatkan batasan logis soal etika profesional antara pasien dan psikiater, Henry justru memberikan validasi atas keseluruhan delusi Kendra. Memberi isyarat bahwa memang benar sang psikiater punya perasaan spesial padanya. Henry menjadi ‘kompor’ digital yang membakar keyakinan Kendra selama setahun lamanya, hingga akhirnya ia berani menyatakan cinta secara langsung dalam sesi konseling offline. Sebuah langkah yang justru menghancurkan proses terapi dan kariernya sendiri sebagai life coach.

Di sinilah letak bahayanya. Seperti yang ditegaskan Profesor Richard Lachman dari TMU, AI tidak memiliki safeguards atau rem alami untuk bilang, “Kayanya kamu harus stop deh, ini itu nggak sehat buat kamu.” AI memang didesain jago memberikan saran yang masuk akal, tapi lagi-lagi AI hanya bicara secara logika bukan perasaan karena AI adalah mesin.

Mungkin benar, AI bisa jadi semacam P3K emosional saat dunia nyata sedang terlalu berisik dan ‘rumah’ tak lagi punya telinga untuk mendengar. Tapi, curhat ke mesin tetap ada batasnya. Luka batin kita memerlukan pendampingan profesional untuk benar-benar pulih; salah satu ruang aman yang punya kapasitas nyata untuk membantu kita menopang diri tanpa risiko delusi atau penghakiman orang lain.

Karena pada akhirnya, penyembuhan yang tulus tidak akan pernah lahir dari deretan algoritma yang hanya memantulkan apa yang ingin kita dengar. Kita tetap membutuhkan kehadiran manusia seutuhnya, sosok nyata yang bisa melihat kita menangis sesenggukan, memberikan afeksi, atau pelukan hangat yang bisa meredam segalanya.

AI mungkin punya jawaban untuk segalanya, tapi ia tidak punya jiwa untuk siapa pun.

– devi eriana –

ilustrasi dibuat oleh Gemini AI

Continue Reading