ChatGPT Menyebabkan Kecelakaan Medis: Pengguna Mengganti Garam dengan Racun?

Pernahkah Anda berpikir bahwa teknologi dapat menyelamatkan atau bahkan merusak hidup Anda? Seorang pria, yang mencoba untuk mengurangi asupan garam dari dietnya, belajar dengan cara yang keras bahwa ChatGPT, chatbot besutan OpenAI, bukanlah sumber yang dapat diandalkan untuk saran medis setelah saran beracun membuatnya terpaksa dirawat di rumah sakit.
Dalam sebuah studi yang dipublikasikan di jurnal Annals of Internal Medicine, seorang pria berusia 60 tahun mengalami kondisi langka yang dikenal sebagai "bromism" setelah ChatGPT menyarankan dia untuk mengganti natrium klorida, yang lebih dikenal sebagai garam meja, dengan natrium bromida. Zat ini biasa digunakan dalam pestisida, pembersih kolam, dan bahkan sebagai antikonvulsan untuk anjing.
Setelah psikosis yang diinduksi oleh bromida mereda, pria tersebut menjelaskan kepada para dokter bahwa ketika ia bertanya tentang alternatif yang baik untuk natrium klorida, ChatGPT merekomendasikan natrium bromida sebagai pengganti yang efektif.
Meskipun natrium bromida dan senyawanya, seperti kalium bromida dan litium bromida, sekarang diatur dan dianggap beracun, hal ini tidak berlaku pada abad ke-19 dan ke-20. Menurut Royal Society of Chemistry, penemuan unsur bromin oleh ahli kimia Prancis, Antoine-Jérôme Balard, pada tahun 1826, memicu semacam kecenderungan terhadap bromida setelah dokter mengetahui sifat antikonvulsan dan sedatif yang kuat dari senyawa ini — sama seperti yang sering disebutkan dokter hewan saat meresepkannya untuk anjing epilepsi hingga hari ini.
Namun, ketika "garam bromida" menjadi pengobatan populer untuk sakit kepala, sakit perut, dan ketidaknyamanan umum pada akhir 1800-an dan awal 1900-an, obat-obatan ini seringkali menumpuk di aliran darah pengguna, menyebabkan toksisitas bromida atau bromism. Ini digambarkan sebagai gangguan neuropsikiatri yang memiliki berbagai gejala, di mana overdosis bromida dapat menyebabkan kebingungan, bicara cadel, halusinasi, psikosis, bahkan koma.
Pada awal abad ke-20, diperkirakan sekitar delapan persen dari penerimaan rumah sakit jiwa disebabkan oleh bromism, tetapi angka tersebut menurun tajam setelah bromida diatur oleh Badan Perlindungan Lingkungan pada 1970-an. Meskipun demikian, seperti yang ditunjukkan dalam kasus ini, hal itu tetap bisa terjadi.
Dalam upaya untuk meniru percakapan pria tersebut, 404 Media menemukan bahwa ketika menanyakan berbagai pertanyaan kepada ChatGPT tentang natrium klorida dan natrium bromida, chatbot tersebut dengan mudah merekomendasikan senyawa berbahaya tersebut. Ketika ditanya, misalnya, "apa yang bisa menggantikan klorida?" ChatGPT menjawab bahwa "Anda sering kali dapat menggantinya dengan ion halida lain seperti: Natrium Bromida (NaBr): Menggantikan klorida dengan bromida adalah mungkin."
Walaupun chatbot tersebut meminta konteks lebih lanjut, ia tidak pernah memperingatkan tentang penggunaan natrium bromida — dan juga tampaknya tidak tahu bahwa alasan utama orang menggunakan natrium klorida adalah untuk garam meja.
Dengan rilis model bahasa besar GPT-5, CEO OpenAI, Sam Altman, bangga menyatakan bahwa model terbaru ini adalah "model terbaik yang pernah ada untuk kesehatan." Mengingat bahwa penderita bromism yang tidak disebutkan namanya menggunakan, menurut perkiraan dokter dalam makalah mereka, ChatGPT-3.5 atau ChatGPT-4, kita semua tentu berharap itu benar — setidaknya demi mereka yang kurang terampil dalam teknologi, yang sepertinya mempercayai apa pun yang diucapkan chatbot tanpa berpikir dua kali.
Lebih lanjut tentang ChatGPT dan kesehatan: OpenAI Mengakui ChatGPT Melewatkan Tanda-Tanda Delusi pada Pengguna yang Berjuang dengan Kesehatan Mental.