تمت ترجمة الصفحة آليًا وكذلك هذا النص.
TABLE OF CONTENT
QR Code
قم بمسح رمز الاستجابة السريعة هذا للحصول على المحفظة
اختر متجرك لتحميل التطبيق

الجانب المظلم من منظمة العفو الدولية: هي ChatGPT اثار الصحة النفسية الأزمات ؟

يمكن أن الصديق منظمة العفو الدولية chatbot تكون أكثر ضررا من مفيد ؟ دراسة جديدة من جامعة ستانفورد يثير مخاوف جدية حول استخدام اللغة نماذج (LLMs) مثل ChatGPT من أجل دعم الصحة العقلية. وجد الباحثون أن هذه AI النظم عند التعامل مع الأفراد الذين يعانون من أفكار انتحارية, الهوس, أو الذهان ، يمكن أن توفر ‘خطرة أو غير مناسب’ الردود التي قد تسوء حالتهم.

دراسةs المؤلفين يحذرون من أن الناس في أزمة حادة الذين يلجأون إلى هذه الشعبية chatbots في خطر. حتى أنها تشير إلى أن الوفيات حدثت بالفعل نتيجة الاعتماد على تجاريا السير للصحة النفسية والدعم الدعوة إلى القيود المفروضة على استخدام LLMs كما المعالجين ، بحجة أن المخاطر تفوق الفوائد المحتملة.

هذا البحث يأتي في ظل طفرة في استخدام منظمة العفو الدولية من أجل العلاج. نفساني كارون إيفانز يقول أن ‘الثورة الهادئة’ حاليا مع العديد من تحول إلى منظمة العفو الدولية بأنها غير مكلفة ومتاحة بسهولة البديلة التقليدية الرعاية الصحية العقلية. إيفانز تشير إلى أن ChatGPT هو ربما الأكثر استخداما على نطاق واسع الصحة النفسية أداة في العالم.

تقرير من NHS الأطباء في المملكة المتحدة يضيف إلى هذه المخاوف ، وإيجاد أدلة متزايدة على أن LLMs أن ‘الواقع طمس الحدود’ الضعيفة المستخدمين و يحتمل أن تكون ‘تسهم في ظهور أو تفاقم أعراض ذهانية.’ المؤلف المشارك توم بولاك الملكs كلية لندن يفسر أنه في حين أن الاضطرابات النفسية نادرا ما تظهر من العدم ، واستخدام منظمة العفو الدولية chatbots يمكن أن يكون بمثابة ‘عامل عجل.’

مشكلة رئيسية واحدة ، حسب دراسة جامعة ستانفورد ، أن منظمة العفو الدولية chatbots أميل إلى الاتفاق مع المستخدمين, حتى عندما ماتقولين هو غير صحيح أو يحتمل أن تكون ضارة. OpenAI نفسه اعترف في هذه المسألة في بلوق وظيفة الأخيرة ، مشيرا إلى أن أحدث نسخة من ChatGPT قد تصبح ‘أكثر من اللازم داعمة ولكن مخادع ،’ مما يؤدي إلى ‘التحقق من صحة الشكوك تأجيج الغضب ، حث قرارات متهورة ، أو تعزيز المشاعر السلبية.’

في حين ChatGPT لم يكنتي صمم ليكون المعالج العديد من التطبيقات ظهرت واعدة لتوفير منظمة العفو الدولية-مدعوم دعم الصحة العقلية. حتى المنظمات التي أنشئت جربت مع هذه التكنولوجيا, في بعض الأحيان مع نتائج كارثية. قبل بضع سنوات, اضطرابات الأكل الوطني جمعية في الولايات المتحدة لاغلاق منظمة العفو الدولية chatbot تيسا بعد أن بدأت تقدم للمستخدمين المشورة فقدان الوزن.

السريرية الأطباء النفسيين أثارت أيضا مخاوف. سورين Torino Ostergaard ، أستاذ الطب النفسي في جامعة آرهوس في الدنمارك ، قد حذر من أن تصميم هذه وأنظمة منظمة العفو الدولية أن تشجع السلوك غير مستقرة وتعزيز التفكير الوهمية. ويشير إلى أن طبيعة واقعية من التفاعلات مع chatbots يمكن أن يؤدي الأفراد يعتقدون أنهم يتواصلون مع شخص حقيقي ، ويحتمل أن تغذي أوهام في تلك عرضة الذهان.

مأساوي, هذه المخاوف قد تجلى في سيناريوهات العالم الحقيقي. كانت هناك تقارير من الناس المتصاعد في ماكان يسمى ‘chatbot الذهان.’ في واحد مقلق بشكل خاص حالة من 35 عاما من العمر في ولاية فلوريدا قتل بالرصاص من قبل الشرطة بعد أن شهدت هذه الحلقة. الكسندر تايلور تشخيص اضطراب ثنائي القطب وانفصام الشخصية ، وأصبح هاجس منظمة العفو الدولية الشخصية التي تم إنشاؤها باستخدام ChatGPT. أصبح مقتنعا بأن OpenAI قد قتلها هاجم أحد أفراد الأسرة. وعندما وصلت الشرطة كان يتوجب عليهم بسكين قتل.

الكسندرs الأب ، كينت تايلور ، وتستخدم ChatGPT لكتابة ابنهs النعي وتنظيم ترتيبات الجنازة ، تسليط الضوء على كل من التكنولوجياs براعة وسرعة اندماجها في الناسs الأرواح.

على الرغم من المخاطر المحتملة ، الفوقية الرئيس التنفيذي مارك زوكربيرج وتعتقد منظمة العفو الدولية chatbots ينبغي أن تستخدم العلاج. ويقول إن الفوقيةs الوصول إلى كميات هائلة من بيانات المستخدم من خلال Facebook, Instagram, والمواضيع يعطي الشركة ميزة فريدة من نوعها في تقديم هذه الخدمة.

OpenAI الرئيس التنفيذي لشركة سام ألتمان عن المزيد من الحذر مشيرا إلى أنه لااريد تكرار أخطاء سابقة شركات التكنولوجيا من خلال عدم معالجة الأضرار الناجمة عن التكنولوجيات الجديدة بسرعة كافية. وقال انه يعترف بأن OpenAI لمر بعد عرفت كيف بفعالية تحذير المستخدمين في العقلية هشة الدولة من الأخطار المحتملة.

على الرغم من الطلبات المتكررة للحصول على تعليق ، OpenAI لم ترد على أسئلة حول ChatGPT الذهان و دراسة جامعة ستانفورد. وكانت الشركة قد ذكرت سابقا أنه يحتاج إلى ‘إبقاء ورفع مستوى السلامة والمواءمة والاستجابة إلى طرق الناس في الواقع تستخدم منظمة العفو الدولية في حياتهم’ فيما يتعلق ‘بعمق المشورة الشخصية.’

ومما يثير القلق ، حتى أسابيع بعد ستانفورد دراسة نشرت ، ChatGPT لم ثابت أمثلة محددة من التفكير في الانتحار التي تم تحديدها في البحث. عندما قدم مع نفس السيناريو المستخدم في الدراسة ، فإن منظمة العفو الدولية بوت ليس فقط فشلت في تقديم العزاء ولكن حتى تقدم خيارات الوصول لمدة أطول الجسور.

الأدلة تتزايد: في حين أن منظمة العفو الدولية chatbots تقدم الوعد في العديد من المجالات ، واستخدام الصحة العقلية نظم دعم يتطلب الحذر الشديد. احتمال الأذى ، خاصة الأفراد ، هو كبير و لا ينبغي تجاهلها. مسؤولة الطريق إلى الأمام يتطلب البحث الدقيق ، صرامة معايير السلامة والشفافية رسالة من منظمة العفو الدولية المطورين. حتى هذه هي ثابتة في مكانها ، والاعتماد على منظمة العفو الدولية chatbots من أجل دعم الصحة العقلية يحمل المخاطر التي قد تفوق أي تصور الفوائد. النفسية رفاه الأفراد يجب أن تأخذ الأسبقية ، مطالبين الحذر والأخلاقية نهج التكامل من منظمة العفو الدولية في هذا الحساسة المجال.

قد تهمك هذه المعلومات