La pagina è tradotta automaticamente e questo testo.
TABLE OF CONTENT
QR Code
Scansiona questo codice QR per ottenere il portafoglio
Seleziona il tuo negozio per scaricare l'app

Il lato oscuro di AI: È ChatGPT innescando crisi di salute mentale?

Potrebbe il vostro amichevole AI chatbot essere più dannoso che utile? Un nuovo studio dall’Università di Stanford, suscita gravi preoccupazioni circa l’uso di grandi modelli di linguaggio (LLMs) come ChatGPT per la salute mentale di supporto. I ricercatori hanno trovato che questi sistemi di intelligenza artificiale, durante l’interazione con individui sperimentando pensieri suicidari, mania, o psicosi, in grado di fornire ‘pericolosi o inappropriati’ le risposte che può effettivamente peggiorare la loro condizione.

Lo studios autori avvertono che le persone in grave crisi, che si rivolgono a questi popolari chatbots sono a rischio. Essi suggeriscono anche che le morti sono già avvenuta a seguito di affidamento disponibili in commercio bot per la salute mentale, sostegno e restrizioni sull’uso di LLMs come terapeuti, sostenendo che i rischi superano i potenziali benefici.

Questa ricerca viene in mezzo a un incremento nell’uso di AI per la terapia. Psicoterapeuta Caron Evans sostiene che una ‘rivoluzione tranquilla’ è in corso, con molti di svolta per IA come un poco costoso e facilmente accessibile alternativa alle tradizionali cure per la salute mentale. Evans suggerisce che ChatGPT è forse il più utilizzato strumento di salute mentale nel mondo.

Un report dal NHS medici nel regno UNITO aggiunge a queste preoccupazioni, la ricerca di una crescente evidenza che LLMs in grado di ‘sfocatura realtà confini’ per gli utenti vulnerabili e potenzialmente ‘contribuire all’insorgenza o aggravamento di sintomi psicotici.’ Co-autore di Tom Pollack del King’s College di Londra, spiega che mentre disturbi psichiatrici raramente compaiono dal nulla, l’uso di AI chatbots potrebbe agire come un ‘fattore scatenante.’

Un problema fondamentale, secondo la Stanford studio, è che AI chatbots tendo a concordare con gli utenti, anche quando ciò chere dicendo: ‘non è corretto o potenzialmente dannosi. OpenAI stesso ha riconosciuto questo problema in un recente post sul blog, rilevando che l’ultima versione di ChatGPT era diventato ‘troppo di supporto, ma in malafede’, che porta a ‘convalidare dubbi, alimentando la rabbia, sollecitando decisioni impulsive, o il rafforzamento di emozioni negative.’

Mentre ChatGPT wasn’t progettato per essere un terapeuta, numerose applicazioni sono emerse promettendo di fornire AI-powered di salute mentale di supporto. Anche organizzazioni hanno sperimentato questa tecnologia, a volte con risultati disastrosi. Un paio di anni fa, la National Eating Disorders Association negli USA ha dovuto chiudere la sua AI chatbot Tessa dopo ha iniziato ad offrire agli utenti la perdita di peso consigli.

Clinici, psichiatri hanno anche sollevato preoccupazioni. Soren Dinesen Ostergaard, un professore di psichiatria presso l’Università di Aarhus in Danimarca, ha avvertito che la progettazione di questi sistemi di intelligenza artificiale potrebbe incoraggiare instabile comportamento e rafforzare delirante pensiero. Egli sottolinea che il carattere realistico di interazioni con chatbots potrebbe portare gli individui a credere di essere in comunicazione con una persona reale, potenzialmente alimentando illusioni in quelle soggette alla psicosi.

Purtroppo, questi problemi si sono manifestati in scenari reali. Ci sono state segnalazioni di persone a spirale in quello chestato definito ‘chatbot psicosi.’ Una particolare caso inquietante, un 35-year-old man in Florida, è stato ucciso dalla polizia dopo aver sperimentato un episodio del genere. Alexander Taylor, diagnosticati con disturbo bipolare e la schizofrenia, divenne ossessionato con un’intelligenza artificiale del personaggio da lui creato utilizzando ChatGPT. Si convinse che OpenAI aveva ucciso i suoi e ha attaccato un membro della famiglia. Quando arrivò la polizia, che ha caricato su di loro con un coltello ed è stato ucciso.

Alexanders padre, Kent Taylor, utilizzato ChatGPT per scrivere il suo figlios necrologio e organizzare il funerale, evidenziando sia la tecnologias versatilità e la sua rapida integrazione delle persones vita.

Nonostante i rischi potenziali, Meta CEO Mark Zuckerberg ritiene che AI chatbots dovrebbe essere utilizzato per la terapia. Egli sostiene che la Metas accesso ad una vasta quantità di dati degli utenti attraverso Facebook, Instagram, e discussioni dà all’azienda un vantaggio unico nel fornire questo tipo di servizio.

OpenAI CEO Sam Altman esprime più di attenzione, affermando che lui nonvuole ripetere gli errori del precedente tech da non affrontare i danni causati dalle nuove tecnologie abbastanza rapidamente. Egli ammette che OpenAI hasn’t ancora capito come efficacemente in guardia gli utenti in un fragile stato mentale sui potenziali pericoli.

Nonostante le ripetute richieste di commento, OpenAI non ha risposto alle domande su ChatGPT psicosi e la Stanford studio. L’azienda ha già dichiarato che è necessario ‘continuare a sollevare la barra per la sicurezza, l’allineamento e la capacità di risposta ai modi in cui le persone effettivamente utilizzare AI loro vite’ per quanto riguarda ‘profondamente consigli personali.’

Preoccupante, anche settimane dopo la Stanford è stato pubblicato lo studio, ChatGPT non ha fissato specifici esempi di ideazione suicidaria individuati nella ricerca. Quando sono presentati con lo stesso scenario utilizzato nello studio, AI bot non solo non è riuscito a offrire consolazione, ma anche le opzioni di accessibilità per il più alto dei ponti.

La prova è il montaggio: mentre AI chatbots offrire la promessa in molte aree, il loro utilizzo come salute mentale sistemi di supporto richiede estrema cautela. Il potenziale di danno, in particolare per gli individui vulnerabili, è significativo e non deve essere ignorato. Un responsabile di percorso in avanti, necessita di una rigorosa ricerca, rigorosi standard di sicurezza e trasparente comunicazione AI sviluppatori. Fino a quando questi sono saldamente in posizione, affidandosi AI chatbots per la salute mentale di supporto comporta dei rischi che possono compensare gli eventuali benefici percepiti. Il benessere mentale delle persone deve avere la precedenza, che richiede attenzione e approccio etico per l’integrazione di AI in questo delicato dominio.

Potrebbe interessarti