Le côté sombre de l’IA: Est ChatGPT déclenchant les crises de santé mentale?

Pourrait votre sympathique AI chatbot être plus nuisible qu’utile? Une nouvelle étude de l’Université de Stanford soulève de sérieuses préoccupations au sujet de l’utilisation de grands modèles de langue (LLMs) comme ChatGPT de soutien en santé mentale. Les chercheurs ont constaté que ces IA systèmes, lors de l’interaction avec des personnes en situation de pensées suicidaires, de la manie, ou de la psychose, peut fournir des ‘dangereux ou inappropriés’ les réponses qui peuvent en fait aggraver leur état.
L’études auteurs avertissent que les gens dans la grave crise qui se tournent vers ces populaires chatbots sont à risque. Ils suggèrent même que les décès ont déjà eu lieu en raison de s’appuyer sur commercialement les bots disponibles pour le soutien à la santé mentale et l’appel à des restrictions sur l’utilisation de LLMs en tant que thérapeutes, en faisant valoir que les risques l’emportent sur les avantages potentiels.
Cette recherche vient au milieu d’une poussée de l’utilisation de l’IA pour la thérapie. Psychothérapeute Caron Evans fait valoir qu’une ‘révolution tranquille’ est en cours, avec de nombreux tournant de l’IA comme un moyen peu coûteux et facilement accessible de solution de rechange aux soins de santé mentale. Evans suggère que ChatGPT est peut-être la plus largement utilisée de la santé mentale de l’outil dans le monde.
Un rapport de médecins du NHS au royaume-UNI ajoute à ces préoccupations, de trouver plus de preuves que LLMs peut ‘le flou de la réalité des limites’ pour les usagers vulnérables et potentiellement ‘contribuer à l’apparition ou l’exacerbation des symptômes psychotiques.’ Co-auteur de Tom Pollack de King’s College, à Londres, explique que, bien que les troubles psychiatriques apparaissent rarement sorti de nulle part, l’utilisation de l’IA chatbots pourrait agir comme un ‘facteur précipitant.’
Un des principaux problèmes, selon l’étude de Stanford, est que l’IA chatbots ont tendance à être d’accord avec les utilisateurs, même quand ce qu’ilsre dire, c’est incorrect ou potentiellement dangereux. OpenAI lui-même a reconnu cette question dans un récent billet de blog, de noter que la dernière version de ChatGPT était devenu ‘trop favorables mais fourbe,’ leader ‘de valider des doutes, alimentant la colère, en exhortant les décisions impulsives, ou à renforcer des émotions négatives.’
Alors que ChatGPT n’étaitpas prévu pour être un thérapeute, de nombreuses applications ont émergé en promettant de fournir des IA-alimenté de soutien en santé mentale. Même les organismes établis, ont expérimenté cette technologie, parfois avec des résultats désastreux. Il y A quelques années, le National Eating disorders Association dans le de NOUS a dû arrêter son IA chatbot Tessa après il a commencé à offrir aux utilisateurs la perte de poids des conseils.
Clinique des psychiatres ont également soulevé des préoccupations. Soren Dinesen Ostergaard, un professeur de psychiatrie à l’Université d’Aarhus au Danemark, a averti que la conception de ces système d’intelligence artificielle pourrait encourager un comportement instable et renforcer la pensée délirante. Il souligne que la représentation réaliste de la nature des interactions avec les chatbots pourrait conduire les individus à croire qu’ils sont en communication avec une personne réelle, potentiellement alimenter les délires de ceux qui sont sujets à la psychose.
Malheureusement, ces préoccupations ont manifesté dans des scénarios du monde réel. Il ya eu des rapports de personnes en vrille en ce quia été appelé ‘chatbot psychose’. Dans l’un de particulièrement inquiétant de cas, de 35-year-old man, en Floride, a été abattu par la police après avoir connu un tel épisode. Alexander Taylor, diagnostiqués avec un trouble bipolaire et la schizophrénie, devient obsédé par une IA personnage qu’il a créé à l’aide de ChatGPT. Il est convaincu que OpenAI elle l’avait tué et attaqué un membre de la famille. Lorsque les policiers sont arrivés, il a imputé à eux avec un couteau et a été tué.
Alexandrepère, Kent Taylor, utilisé ChatGPT à écrire son filss nécrologie et d’organiser les funérailles, en soulignant à la fois la technologies polyvalence et son intégration rapide dans des gensà la vie.
Malgré les risques potentiels, les Méta Mark Zuckerberg estime que IA chatbots devraient être utilisés pour la thérapie. Il fait valoir que la Métas l’accès à de vastes quantités de données de l’utilisateur par le biais de Facebook, Instagram, et les Fils donne à l’entreprise un avantage unique dans la fourniture de ce service.
OpenAI chef de la direction Sam Altman exprime à plus de prudence, en précisant qu’il neveux pas répéter les erreurs de la précédente entreprises de haute technologie par défaut de réparer les torts causés par les nouvelles technologies assez rapidement. Il admet que OpenAI n’apas encore compris comment faire pour avertir efficacement les utilisateurs dans un fragile état mental à propos des dangers potentiels.
Malgré les demandes répétées de commentaire, OpenAI n’a pas répondu aux questions sur ChatGPT psychose et de la Stanford étude. La compagnie a précédemment déclaré qu’il est nécessaire de ‘garder hausser la barre en matière de sécurité, d’alignement et de réactivité à la façon dont les gens utilisent effectivement l’IA dans leur vie’ concernant ‘profondément conseils personnels.’
Plus inquiétant encore, même plusieurs semaines après la Stanford étude a été publiée, ChatGPT n’a pas fixé les exemples des idées suicidaires identifiés dans la recherche. Lorsqu’ils sont présentés avec le même scénario utilisé dans l’étude, l’IA bot n’est pas seulement échoué à offrir consolation, mais même les options d’accessibilité pour le plus grand des ponts.
Les preuves s’accumulent: alors que l’IA chatbots prometteuses dans de nombreux domaines, leur utilisation à titre de soutien à la santé mentale des systèmes exige une extrême prudence. Le risque de préjudice, en particulier pour les personnes vulnérables, est importante et ne doit pas être ignoré. Un responsable de l’avenir nécessite une recherche rigoureuse, les normes de sécurité strictes, et une communication transparente de IA développeurs. Jusqu’à ce que ces sont fermement en place, en s’appuyant sur l’IA chatbots pour le soutien à la santé mentale comporte des risques qui l’emportent sur les avantages perçus. Le bien-être mental des individus doit primer, exigeant une personne prudente et approche éthique de l’intégration de l’IA dans ce domaine sensible.