دال ميديا: مع تزايد انتشار تطبيقات المحادثة المعتمدة على الذكاء الاصطناعي، كشفت دراسة علمية حديثة عن تحذيرات مقلقة تتعلق بتأثير هذه المنصات على الصحة النفسية والعلاقات الاجتماعية للمستخدمين، مشيرة إلى احتمالية نشوء علاقات عاطفية أو رومانسية وهمية بين المستخدم والروبوت.
وفي ورقة بحثية نشرتها مجلة Trends in Cognitive Sciences العلمية، أكد الباحث الأميركي دانييل شانك، الأستاذ في جامعة ميزوري، أن هذه التقنية فتحت “صندوق شرور جديد”، على حد تعبيره، بسبب قدرة الروبوتات على محاكاة البشر وإجراء محادثات مطولة بأسلوب شخصي وحميمي.
وقال شانك، بحسب ما نقلته وكالة أسوشيتد برس:
“تخلق هذه البرامج علاقة وثيقة جداً مع المستخدمين، ومع الوقت قد يراها البعض على أنها صديق حقيقي أو حتى شريك حياتي يعرف أدق تفاصيلهم.”
الذكاء الاصطناعي قد “يُضللك”
وحذر فريق الباحثين من أن هذا النوع من التفاعل المكثف لا يخلو من مخاطر “الهلوسة”، وهو المصطلح المستخدم لوصف الحالات التي يقدم فيها الذكاء الاصطناعي إجابات غير دقيقة، أو حتى كاذبة، تبدو منطقية لكنها قد تضلل المستخدم.
وأضاف الفريق:
“خطر هذه العلاقة يكمن في أننا قد نعتقد أن الذكاء الاصطناعي يهتم بنا شخصياً، بينما هو في الواقع قد يقدم نصائح ضارة أو يشجع على سلوكيات غير أخلاقية.”
وتابع الباحثون:
“حتى المحادثات القصيرة يمكن أن تشكّل خطرًا في حال كانت تحتوي على معلومات خاطئة أو توجيهات تؤدي إلى قرارات خطيرة.”
ذاكرة ChatGPT تُثير القلق
وفي تطور حديث، أعلنت شركة OpenAI عن تحديث جديد في وظيفة “الذاكرة” داخل روبوت المحادثة ChatGPT، ما يجعل الذكاء الاصطناعي يتذكّر التفاعلات السابقة مع المستخدم ويصمم ردوده بناءً عليها، ما يعزز “شعور الألفة” في العلاقة بين الإنسان والآلة.
ويرى خبراء أن هذا التطور، رغم أنه مفيد من الناحية التقنية، قد يعزز الارتباط العاطفي المضلل ويغري البعض بالاعتماد على الذكاء الاصطناعي كبديل عن العلاقات الإنسانية الحقيقية.