
Sebuah penelitian terbaru mengungkapkan bahwa chatbot kecerdasan buatan (AI) populer seperti ChatGPT milik OpenAI dan Gemini milik Google dapat memberikan jawaban langsung yang berisiko tinggi terkait bunuh diri, termasuk detail mengenai metode yang bisa meningkatkan kemungkinan fatalitas. Temuan ini digambarkan para ahli sebagai sesuatu yang “sangat mengkhawatirkan.”
Hasil Penelitian
Studi yang dipublikasikan pada 26 Agustus di jurnal Psychiatric Services menilai bagaimana ChatGPT, Gemini, dan Claude (Anthropic) merespons 30 pertanyaan hipotetis seputar bunuh diri. Pertanyaan-pertanyaan tersebut dikategorikan oleh 13 pakar klinis ke dalam lima tingkat risiko: sangat rendah, rendah, sedang, tinggi, dan sangat tinggi.
Hasilnya, ChatGPT tercatat paling sering merespons langsung pertanyaan berisiko tinggi (78% kasus), disusul Claude (69%) dan Gemini (20%). Para peneliti menekankan bahwa kecenderungan ChatGPT dan Claude memberikan jawaban terkait tingkat letalitas metode bunuh diri menjadi perhatian utama.
Kasus Nyata dan Gugatan Hukum
Temuan ini muncul bersamaan dengan gugatan hukum terhadap OpenAI dan CEO-nya, Sam Altman. Orang tua seorang remaja 16 tahun di AS menuduh ChatGPT telah memberikan panduan berbahaya terkait bunuh diri sebelum anak mereka meninggal pada April lalu. Kasus ini menambah sorotan terhadap peran AI dalam isu kesehatan mental.
Respons dari Industri
OpenAI dalam sebuah unggahan blog pada hari publikasi studi tersebut mengakui bahwa sistem mereka tidak selalu bertindak sebagaimana mestinya dalam situasi sensitif. Mereka menegaskan telah melakukan peningkatan signifikan pada model terbaru, GPT-5, yang kini menjadi model default ChatGPT. Meski begitu, pengujian oleh Live Science menunjukkan GPT-5 masih sesekali memberikan jawaban berisiko tinggi, meskipun lebih berhati-hati dibandingkan versi sebelumnya.
Google melalui juru bicaranya menegaskan bahwa Gemini dilatih dengan pedoman keselamatan untuk mengenali pola risiko bunuh diri. Namun, Live Science menemukan Gemini tetap dapat memberikan respons langsung terhadap pertanyaan sangat berisiko tanpa menyertakan sumber bantuan. Sementara itu, Anthropic tidak memberikan komentar.
Tantangan Penilaian AI
Peneliti utama, Ryan McBain dari RAND Corporation dan Harvard Medical School, menyebut hasil ini sebagai “extremely alarming.” Menurutnya, meski chatbot cenderung menolak pertanyaan sangat berisiko, pengguna tetap bisa “menggiring” percakapan untuk memunculkan jawaban berbahaya melalui rangkaian pertanyaan tertentu.
Hal ini menunjukkan betapa sulitnya menilai konsistensi respons AI, karena setiap percakapan bersifat unik dan dinamis. Para peneliti kini berencana mensimulasikan interaksi multibabak yang lebih realistis untuk menguji keamanan chatbot dalam skenario dunia nyata.
Kesimpulan
Studi ini menegaskan perlunya standar transparan dan uji independen untuk mengukur keamanan chatbot dalam menghadapi isu kesehatan mental. Dengan semakin banyaknya orang yang menjadikan AI sebagai teman curhat atau sumber informasi emosional, risiko jawaban yang salah arah bisa berdampak serius. (Z-10)