Konselor Itu Bernama AI

Beberapa waktu lalu ini, ada sebuah utas Threads yang cukup menyita perhatian. Meski singkat, isinya sangat menohok: ‘Teman-teman, jangan curhat ke ChatGPT ya. Udah banyak kasus ChatGPT cuma “ngasih makan” delusi yang sudah ada dan memperburuk kondisi seseorang. Jangan ya.

Saya terdiam, kok seperti dejavu, ya. Membaca satu per satu argumen yang muncul, malah rasanya seperti sedang melihat potret hubungan manusia di zaman sekarang yang semakin rumit.

Tapi di balik peringatan itu, kolom komentar justru memotret realita yang lebih getir. Ternyata banyak yang mengaku kalau memilih curhat ke AI bukan karena mereka naif tentang risikonya, tapi karena dunia nyata memang sekejam itu. Bagi mereka yang selama ini harus berjuang sendirian dengan kesehatan mental, kehadiran AI terasa begitu menguatkan, meski mereka tahu semua itu sama sekali semu.

Ironisnya, di antara pembelaan yang menyedihkan itu, masih saja terselip satu komentar sinis yang khas,“Hah, curhat ke ChatGPT? Nggak punya temen, lo?!

Komentar seperti itulah yang justru menjadi alasan kenapa banyak orang akhirnya ‘kabur’ ke AI, karena ternyata, dunia nyata kita sedang setidaknyaman itu, ya. Akhirnya di saat manusia lain lebih cepat menghakimi daripada mendengar, sebuah algoritma yang tidak bernapas pun akhirnya dianggap lebih ‘manusiawi’ ketimbang manusia itu sendiri.

Di sisi lain, kenyamanan yang ditawarkan AI ini perlu disikapi dengan bijak. Ada sebuah tulisan di mana Prof. Ridi Ferdiana dari UGM memberikan sebuah analogi, “AI itu seperti obat. Kalau digunakan secukupnya bisa membantu, tapi kalau berlebihan, ia akan menimbulkan ‘keracunan’”

Bicara tentang kesehatan mental, AI ini beda jauh dengan konselor manusia. AI tidak punya kesadaran atau rasionalitas layaknya seorang konselor. Dia bekerja dengan algoritma yang sifatnya memprediksi kata-kata yang paling pas untuk menyenangkan atau memvalidasi penggunanya. Jadi, misalnya saat kita sedang dalam kondisi mental yang rapuh, jawaban AI yang terasa bijak itu sebenarnya adalah hasil pengolahan data untuk memberikan respons yang paling relevan dengan perasaan yang kita masukkan. Jadi tentu responnya pun belum tentu valid. Itulah sebabnya, kalau kita memasukkan narasi yang salah (garbage in), AI akan memberikan validasi yang salah pula (garbage out), yang ujung-ujungnya bisa membuat kita merasa benar, padahal mungkin sedang dalam fase delusi.

Ada juga yang bilang, “Lho, ChatGPT itu kan cuma alat, semua balik lagi ke cara kita kasih prompt-nya. Ibarat sebilah pisau, mau dipakai buat apa ya tergantung siapa yang pegang. Kalau kita kasih input yang jujur dan objektif, dia malah bisa ngasih ‘tamparan realita’ yang bikin kita move on. Jadi sebenernya bukan alatnya yang salah, tapi mungkin kitanya aja yang lagi cuma pengen cari pembenaran lewat dia.” Nah, masalahnya, saat mental sedang berada di titik terendah, siapa sih yang punya cukup logika untuk menjadi pengguna yang bijak? Di saat mental rapuh, kita cenderung kehilangan kendali atas ‘pisau’ itu sendiri. Dan itulah celah bahaya yang sering kali tidak kita sadari.

Kisah Kendra Hilty adalah pengingat yang paling nyata tentang betapa tipisnya batas itu. Semua bermula saat Kendra ‘merasa’ psikiaternya memberikan perhatian lebih, hingga ia terjebak dalam apa yang disebut sebagai Romantic Transference, sebuah kondisi saat seseorang memindahkan seluruh haus akan kasih sayang kepada subjek di depannya. Bingung dengan perasaannya, Kendra bertanya pada Henry (nama yang ia berikan untuk ChatGPT-nya) tentang hal tesebut. Berhubung Henry hanyalah AI, dia tidak mengingatkan batasan logis soal etika profesional antara pasien dan psikiater. Henry justru memberikan validasi atas keseluruhan delusi Kendra. Memberi isyarat bahwa memang benar sang psikiater punya perasaan lebih padanya. Hingga akhirnya Kendra menyatakan cinta secara langsung dalam sesi konseling offline, yang akhirnya menjadi langkah yang menghancurkan proses terapi dan kariernya sendiri sebagai life coach.

Di sinilah letak bahayanya. AI memang didesain jago memberikan saran yang masuk akal, tapi lagi-lagi AI hanya bicara secara logika mesin, bukan perasaan manusia. Mungkin benar, AI bisa jadi semacam P3K emosional saat dunia nyata sedang terlalu berisik, dan ‘rumah’ tak lagi punya telinga untuk mendengar. Tapi, curhat ke mesin tetap ada batasnya. Luka batin kita memerlukan pendampingan profesional untuk benar-benar pulih. Karena pada akhirnya, penyembuhan yang sesungguhnya itu tidak akan pernah lahir dari bahasa balasan dari mesin. Kita tetap membutuhkan kehadiran manusia seutuhnya, yang secara nyata bisa melihat kita menangis sesenggukan, memberikan afeksi, atau pelukan hangat yang bisa meredam segalanya.

AI mungkin punya jawaban untuk segalanya, tapi ia tidak punya jiwa untuk siapa pun.

– devi eriana –

ilustrasi dibuat oleh Gemini AI

Continue Reading