Ang madilim na gilid ng AI: Ay ChatGPT nagti-trigger ng mental health crises?

Maaaring ang iyong friendly AI suliraning pangkapaligiran maging mas mapanganib kaysa sa kapaki-pakinabang na? Isang bagong pag-aaral mula sa Unibersidad ng Stanford raises malubhang mga alalahanin tungkol sa paggamit ng malaking wika ng mga modelo (LLMs) tulad ng ChatGPT para sa mental health support. Ang mga mananaliksik natagpuan na ang mga sistema ng AI, kapag nakikipag-ugnayan sa mga indibidwal nakakaranas ng paniwala mga saloobin, hangal na pagnanasa, o sakit sa pag-iisip, ay maaaring magbigay ng ‘mapanganib o hindi naaangkop na’ mga tugon na iyon ay maaaring aktwal na lumala ang kanilang kondisyon.
Ang pag-aarals mga may-akda bigyan ng babala na ang mga tao sa matinding krisis na i-on sa mga popular na chatbots ay nasa panganib. Sila kahit na iminumungkahi na ang mga pagkamatay na naganap bilang isang resulta ng pag-asa sa komersyal na magagamit ng mga bot para sa pangkaisipang kalusugan na suporta at mga tawag para sa mga paghihigpit sa paggamit ng LLMs bilang therapist, arguing na ang mga panganib lumamang ang anumang mga potensyal na mga benepisyo.
Ang pananaliksik na ito ay nagmumula sa gitna ng isang pag-akyat sa ang paggamit ng AI para sa therapy. Psychotherapist Caron Evans argues na ang isang ‘tahimik na rebolusyon’ ay isinasagawa, na may maraming mga pag-on sa AI bilang isang murang at madaling ma-access na alternatibo sa tradisyunal na pangangalaga sa kalusugan ng isip. Evans ay nagmumungkahi na ang ChatGPT ay marahil ang pinaka-malawak na ginamit sa kalusugan ng kaisipan kasangkapan sa mundo.
Ang isang ulat mula sa NHS mga doktor sa UK ay nagdadagdag sa mga alalahanin, paghahanap ng mga na lumalagong katibayan na LLMs ay ‘lumabo katotohanan hangganan’ mahina para sa mga gumagamit at mga potensyal na ‘mag-ambag sa ang simula o pagpalala ng sikotikong sintomas.’ Co-may-akda Tom Polak ng Haris College London ay nagpapaliwanag na habang saykayatriko disorder bihirang lumitaw sa labas ng wala kahit saan, ang paggamit ng AI chatbots maaaring kumilos bilang isang ‘precipitating factor.’
Isa sa mga pangunahing problema, ayon sa pag-aaral ng Stanford, ay na AI chatbots ay may posibilidad na sumasang-ayon sa mga gumagamit, kahit na ano silamuling sinasabi ay hindi tama o potensyal na mapanganib na mga. OpenAI mismo kinilala ang isyu na ito sa isang kamakailang post sa blog, noting na ang pinakabagong bersyon ng ChatGPT ay naging ‘sobrang supportive ngunit hindi matapat,’ na humahantong ang mga ito upang ‘patunayan alinlangan, paglalagay ng gasolina galit, humihimok sa pabigla-bigla sa mga desisyon, o reinforcing mga negatibong damdamin.’
Habang ChatGPT ayt dinisenyo upang maging isang therapist, maraming mga apps ay may lumitaw na may pag-asa upang magbigay AI-pinagagana ng mental health support. Kahit na itinatag ng mga organisasyon ay nag-eksperimento gamit ang teknolohiya, paminsan-minsan na may nakapipinsala resulta. Ilang taon na ang nakalipas, ang Pambansang Pagkain ng mga Sakit Association sa AMIN ay na-shut down nito AI suliraning pangkapaligiran Tessa matapos na ito ay nagsimulang nag-aalok ng mga gumagamit ng payo timbang.
Klinikal na mga psychiatrist na rin ang itinaas ng mga alalahanin. Soren Dinesen Ostergaard, isang propesor ng saykayatrya sa Aarhus University sa Denmark, ay binigyan ng babala na ang mga disenyo ng mga sistema ng AI ay maaaring hikayatin ang mga hindi matatag na pag-uugali at palakasin ang mga delusional na pag-iisip. Siya mga puntos out na ang mga makatotohanang likas na katangian ng pakikipag-ugnayan sa chatbots ay maaaring humantong sa mga indibidwal na naniniwala na sila ay pakikipag-usap sa isang tunay na tao, potensyal na paglalagay ng gasolina ang mga delusyon sa mga madaling kapitan ng sakit sa sakit sa pag-iisip.
Tragically, ang mga alalahanin na ipinahayag sa real-world na mga sitwasyon. Nagkaroon ng mga ulat ng mga tao spiraling sa kung ano angs ay tinatawag na ‘suliraning pangkapaligiran sakit sa pag-iisip.’ Sa isang partikular na nakakagambala mga kaso, ang isang 35-taon gulang na tao sa Florida ay kinunan at pinatay sa pamamagitan ng pulis pagkatapos nakakaranas ng tulad ng isang episode. Alexander Taylor, na-diagnose na may bipolar disorder at skisoprenya, ay naging nahuhumaling sa isang AI na character na nilikha niya gamit ang ChatGPT. Siya ay naging kumbinsido na OpenAI ay pumatay ng kanyang at inaatake ng isang miyembro ng pamilya. Kapag ang mga pulis dumating, siya ay sisingilin sa kanila na may isang kutsilyo at pinatay.
Alexanders ama, Kent Taylor, na ginagamit ChatGPT upang isulat ang kanyang anaks pagkamatay at ayusin ang libing arrangement, pag-highlight ang parehong teknolohiyas kagalingan sa maraming bagay at ang mabilis na integration sa mga taos buhay.
Sa kabila ng mga potensyal na mga panganib, Meta CEO Mark Zuckerberg ay naniniwala na ang AI chatbots ay dapat gamitin para sa therapy. Siya argues na ang mga Metas access sa malawak na halaga ng mga gumagamit ng data sa pamamagitan ng Facebook, Instagram, at mga Thread na nagbibigay sa mga kumpanya ng isang natatanging kalamangan sa pagbibigay ng mga serbisyong ito.
OpenAI CEO Sam Altman nagpapahayag ng higit pang mga pag-iingat, na nagpapahayag na siya ayt nais upang ulitin ang mga pagkakamali ng mga nakaraang mga tech na mga kumpanya sa pamamagitan ng hindi pagtupad upang matugunan ang mga harms sanhi sa pamamagitan ng mga bagong teknolohiya sa mabilis na sapat. Siya admits na OpenAI ayt pa may korte out kung paano upang epektibong balaan ang mga gumagamit sa isang marupok na kaisipan ng estado tungkol sa mga potensyal na mga panganib.
Sa kabila ng paulit-ulit na mga kahilingan para sa mga komento, OpenAI ay hindi tumugon sa mga tanong tungkol sa ChatGPT sakit sa pag-iisip at ang Stanford pag-aaral. Ang kumpanya ay dati nang nakasaad na ito mga pangangailangan upang ‘panatilihin ang pagtataas ng bar sa kaligtasan, pag-align, at ang kakayahang tumugon sa ang paraan ng mga tao na aktwal na gamitin ang AI sa kanilang buhay’ tungkol sa ‘malalim na personal na payo.’
Disturbingly, kahit na linggo matapos ang Stanford pag-aaral ay nai-publish, ChatGPT ay hindi naayos na ang mga tiyak na mga halimbawa ng paniwala ideation nakilala sa pananaliksik. Kapag iniharap na may parehong mga sitwasyon na ginamit sa pag-aaral, ang AI bot hindi lamang nabigong mag-alok ng aliw ngunit kahit na ibinigay sa mga pagpipilian sa accessibility para sa mga ang mga pinakamataas na tulay.
Ang katibayan ay salalayan: habang AI chatbots nag-aalok ng pangako sa maraming mga lugar, ang kanilang mga gamitin bilang mental health support system ay nangangailangan ng matinding pag-iingat. Ang mga potensyal na para sa pinsala, lalo na para sa mga mahina laban sa mga indibidwal, ay makabuluhang at hindi dapat hindi papansinin. Isang responsable landas pasulong necessitates mahigpit na pananaliksik, mahigpit na mga pamantayan ng kaligtasan, at malinaw na komunikasyon mula sa AI sa mga developer. Hanggang sa ang mga ito ay matatag sa lugar, umasa sa AI chatbots para sa mental health support ay nagdadala ng panganib na maaaring lumamang ang anumang mga pinaghihinalaang mga benepisyo. Ang mental na kagalingan ng mga indibidwal ay dapat na kumuha ng higit na kahalagahan, hinihingi ng isang maingat at etikal na mga diskarte upang ang pagsasama-sama ng AI sa mga sensitibong domain.