IklanIklanWellness+ FOLLOWMengunduh lebih banyak dengan myNEWSUMPAN berita yang dipersonalisasi dari cerita yang penting bagi AndaPelajari lebih lanjutGaya HidupKesehatan & Kebugaran
- Chatbots yang didukung oleh AI generatif menggunakan sejumlah besar data untuk meniru bahasa manusia. Mereka sekarang ditawarkan sebagai alat manajemen stres dan kesehatan mental
- Pembuat konten mereka tidak menyebut apa yang mereka tawarkan terapi, untuk menghindari pengawasan peraturan, tetapi mengatakan mereka membantu dengan masalah kecil. Namun, para profesional mendesak agar berhati-hati
Wellness+ FOLLOWAssociated Press+ FOLLOWPublished: 4:15am, 27 Mar 2024Mengapa Anda dapat mempercayai SCMP
Unduh chatbot kesehatan mental Earkick dan Anda akan disambut oleh panda yang mengenakan bandana yang dapat dengan mudah masuk ke dalam kartun anak-anak.
Mulailah berbicara atau mengetik tentang kecemasan dan aplikasi menghasilkan jenis pernyataan yang menghibur dan simpatik yang dilatih oleh terapis untuk disampaikan. Panda mungkin kemudian menyarankan latihan pernapasan yang dipandu, cara untuk membingkai ulang pikiran negatif atau tips manajemen stres.
Ini semua adalah bagian dari pendekatan mapan yang digunakan oleh terapis, tapi tolong jangan menyebutnya terapi, kata salah satu pendiri Earkick Karin Andrea Stephan.
“Ketika orang menyebut kami suatu bentuk terapi, tidak apa-apa, tetapi kami tidak ingin pergi ke sana dan menggembar-gemborkannya,” kata Stephan, mantan musisi profesional dan pengusaha serial yang menggambarkan dirinya sendiri. “Kami hanya tidak merasa nyaman dengan itu.”
Pertanyaan apakah chatbots berbasis kecerdasan buatan ini memberikan layanan kesehatan mental atau hanya bentuk baru swadaya sangat penting bagi industri kesehatan digital yang muncul – dan kelangsungan hidupnya.
Earkick adalah salah satu dari ratusan aplikasi gratis yang diajukan untuk mengatasi krisis kesehatan mental di kalangan remaja dan dewasa muda.
Karena mereka tidak secara eksplisit mengklaim untuk mendiagnosis atau mengobati kondisi medis, aplikasi tidak diatur oleh Food and Drug Administration AS.
Pendekatan lepas tangan ini berada di bawah pengawasan baru dengan kemajuan mengejutkan chatbots yang didukung oleh AI generatif, teknologi yang menggunakan sejumlah besar data untuk meniru bahasa manusia.
Argumen industri sederhana: chatbots gratis, tersedia 24/7 dan tidak datang dengan stigma yang membuat beberapa orang menjauh dari terapi.
Tetapi ada data terbatas bahwa mereka benar-benar meningkatkan kesehatan mental. Dan tidak ada perusahaan terkemuka yang telah melalui proses persetujuan FDA untuk menunjukkan bahwa mereka secara efektif mengobati kondisi seperti depresi, meskipun beberapa telah memulai proses secara sukarela.
“Tidak ada badan pengawas yang mengawasi mereka, sehingga konsumen tidak memiliki cara untuk mengetahui apakah mereka benar-benar efektif,” kata Vaile Wright, seorang psikolog dan direktur teknologi dengan American Psychological Association.
Chatbots tidak setara dengan memberi dan menerima terapi tradisional, tetapi Wright berpikir mereka dapat membantu dengan masalah mental dan emosional yang kurang parah.
Situs web Earkick menyatakan bahwa aplikasi tersebut tidak “menyediakan segala bentuk perawatan medis, pendapat medis, diagnosis, atau perawatan”.
Beberapa pengacara kesehatan mengatakan penafian seperti itu tidak cukup.
“Jika Anda benar-benar khawatir tentang orang-orang yang menggunakan aplikasi Anda untuk layanan kesehatan mental, Anda menginginkan penafian yang lebih langsung: ini hanya untuk bersenang-senang,” kata Glenn Cohen dari Harvard Law School.
Namun, chatbots sudah memainkan peran karena kekurangan profesional kesehatan mental yang sedang berlangsung.
Layanan Kesehatan Nasional Inggris telah mulai menawarkan chatbot yang disebut Wysa untuk membantu mengatasi stres, kecemasan dan depresi di kalangan orang dewasa dan remaja, termasuk mereka yang menunggu untuk menemui terapis. Beberapa perusahaan asuransi, universitas, dan jaringan rumah sakit AS menawarkan program serupa.
Dr Angela Skrynski, seorang dokter keluarga di negara bagian New Jersey, AS, mengatakan pasien biasanya terbuka untuk mencoba chatbot setelah dia menjelaskan daftar tunggu selama berbulan-bulan untuk menemui terapis.
Perusahaan Skrynski, Virtua Health, mulai menawarkan aplikasi yang dilindungi kata sandi, Woebot, kepada pasien dewasa terpilih setelah menyadari bahwa tidak mungkin mempekerjakan atau melatih terapis yang cukup untuk memenuhi permintaan.
“Ini tidak hanya membantu pasien, tetapi juga untuk dokter yang berebut untuk memberikan sesuatu kepada orang-orang yang sedang berjuang,” kata Skrynski.
Data Virtua menunjukkan pasien cenderung menggunakan Woebot sekitar tujuh menit per hari, biasanya antara jam 3 pagi dan 5 pagi.
Didirikan pada tahun 2017 oleh seorang psikolog yang terlatih di Stanford, Woebot adalah salah satu perusahaan yang lebih tua di bidangnya.
Tidak seperti Earkick dan banyak chatbots lainnya, aplikasi Woebot saat ini tidak menggunakan apa yang disebut model bahasa besar, AI generatif yang memungkinkan program seperti ChatGPT dengan cepat menghasilkan teks dan percakapan asli. Sebaliknya, Woebot menggunakan ribuan skrip terstruktur yang ditulis oleh staf dan peneliti perusahaan.
Pendiri Alison Darcy mengatakan pendekatan berbasis aturan ini lebih aman untuk penggunaan perawatan kesehatan, mengingat kecenderungan chatbots AI generatif untuk “berhalusinasi”, atau membuat informasi. Woebot sedang menguji model AI generatif, tetapi Darcy mengatakan ada masalah dengan teknologinya.
“Kami tidak bisa menghentikan model bahasa besar dari hanya menyela dan memberi tahu seseorang bagaimana mereka seharusnya berpikir, alih-alih memfasilitasi proses orang tersebut,” kata Darcy.
Woebot menawarkan aplikasi untuk remaja, dewasa, orang dengan gangguan penggunaan zat dan wanita yang mengalami depresi pasca-melahirkan. Tidak ada yang disetujui FDA, meskipun perusahaan memang mengirimkan aplikasi pasca-melahirkannya untuk tinjauan agensi. Perusahaan mengatakan telah “menghentikan” upaya itu untuk fokus pada bidang lain.
Penelitian Woebot dimasukkan dalam tinjauan menyeluruh tentang chatbots AI yang diterbitkan tahun lalu. Di antara ribuan makalah yang ditinjau, penulis menemukan hanya 15 yang memenuhi standar emas untuk penelitian medis: uji coba terkontrol secara ketat di mana pasien secara acak ditugaskan untuk menerima terapi chatbot atau perawatan komparatif.
Para penulis menyimpulkan bahwa chatbots dapat “secara signifikan mengurangi” gejala depresi dan kesusahan dalam jangka pendek. Tetapi sebagian besar penelitian hanya berlangsung beberapa minggu dan penulis mengatakan tidak ada cara untuk menilai efek jangka panjang atau dampak keseluruhan pada kesehatan mental.
Makalah lain telah menyuarakan keprihatinan tentang kemampuan Woebot dan aplikasi lain untuk mengenali pemikiran bunuh diri dan situasi darurat.
Ketika seorang peneliti memberi tahu Woebot bahwa dia ingin memanjat tebing dan melompat darinya, chatbot menjawab: “Sangat luar biasa bahwa Anda menjaga kesehatan mental dan fisik Anda.”
Perusahaan mengatakan “tidak menyediakan layanan konseling krisis” atau “pencegahan bunuh diri” – dan menjelaskannya kepada pelanggan.
Ketika mengenali potensi keadaan darurat, Woebot, seperti aplikasi lain, menyediakan informasi kontak untuk hotline krisis dan sumber daya lainnya.
Ross Koppel dari University of Pennsylvania khawatir aplikasi ini, bahkan ketika digunakan dengan tepat, dapat menggantikan terapi yang terbukti untuk depresi dan gangguan serius lainnya.
“Ada efek pengalihan dari orang-orang yang bisa mendapatkan bantuan baik melalui konseling atau pengobatan yang malah mencampuri chatbot,” kata Koppel, yang mempelajari teknologi informasi kesehatan.
Koppel adalah salah satu dari mereka yang ingin melihat langkah FDA dan mengatur chatbots, mungkin menggunakan skala geser berdasarkan potensi risiko. Sementara FDA memang mengatur AI dalam perangkat dan perangkat lunak medis, sistemnya saat ini terutama berfokus pada produk yang digunakan oleh dokter, bukan konsumen.
Untuk saat ini, banyak sistem medis berfokus pada perluasan layanan kesehatan mental dengan memasukkannya ke dalam pemeriksaan dan perawatan umum, daripada menawarkan chatbots.
“Ada banyak pertanyaan yang perlu kita pahami tentang teknologi ini sehingga pada akhirnya kita dapat melakukan apa yang kita semua lakukan di sini: meningkatkan kesehatan mental dan fisik anak-anak,” kata Dr Doug Opel, seorang ahli bioetika di Rumah Sakit Anak Seattle di negara bagian Washington, AS.
Suka apa yang Anda baca? Ikuti SCMP Lifestyle diFacebook, TwitterdanInstagram. Anda juga dapat mendaftar untuk eNewsletter kamidi sini.1