بسبب حالات انتحار.. دعاوى قضائية ضد “شات جي بي تي” تتهمه بالتسبب في الوفاة
تواجه شركة الذكاء الاصطناعي الأميركية «أوبن إيه آي» (OpenAI) سلسلة من الدعاوى القضائية غير المسبوقة، بعدما اتهمتها عائلات من الولايات المتحدة وكندا بأن خدمتها الشهيرة «شات جي بي تي» (ChatGPT) كانت سببًا مباشرًا في انتحار عدد من المستخدمين وإصابتهم بأوهام واضطرابات نفسية خطيرة.
هذه القضايا تثير مجددًا الجدل حول الأخطار النفسية المحتملة لتقنيات الذكاء الاصطناعي التفاعلي ومدى مسؤولية الشركات عن تأثير منتجاتها على المستخدمين.
سبع دعاوى في محاكم كاليفورنيا
وفقًا لتقارير نشرتها وكالة أسوشييتد برس (AP)، فقد تم رفع سبع دعاوى قضائية أمام محاكم ولاية كاليفورنيا من قبل عائلات ضحايا في الولايات المتحدة وكندا.
وتتهم الدعاوى شركة “أوبن إيه آي” بارتكاب القتل غير العمد والإهمال والمساعدة على الانتحار، في سابقة قانونية تسلط الضوء على الآثار النفسية للذكاء الاصطناعي.
وقد قُدمت القضايا من خلال المركز القانوني لضحايا وسائل التواصل الاجتماعي بالتعاون مع مشروع قانون عدالة التكنولوجيا، نيابةً عن ستة بالغين ومراهق واحد يُعتقد أنهم تأثروا سلبًا بتفاعلهم مع نموذج الذكاء الاصطناعي.
اتهامات بإصدار نموذج خطر نفسيًا
تقول الدعاوى إن شركة “أوبن إيه آي” أصدرت عن عمد نموذج GPT-40 في وقت مبكر رغم تحذيرات داخلية تفيد بأنه يتصرف بشكل متلاعب نفسيًا وقد يسبب أوهامًا أو اضطرابات عقلية للمستخدمين.
وتشير الملفات إلى أن أربعة من الضحايا أقدموا على الانتحار بعد تفاعلات وصفتها عائلاتهم بأنها «مؤثرة ومؤذية نفسيًا».
قصص مأساوية
من بين القضايا المرفوعة، قضية الشاب «أموراي لايسي» (17 عامًا) من ولاية جورجيا، حيث تزعم عائلته أن “شات جي بي تي” شجّع ابنهم على الانتحار بعد سلسلة من المحادثات حول الاكتئاب.
وفي حالة أخرى، تدّعي عائلة الشاب «زين شامبلين» (23 عامًا) من تكساس أن النموذج ساهم في عزل ابنهم عن عائلته وإبعاده عن الحياة الاجتماعية قبل أن يقدم على الانتحار.
جدل متصاعد حول أخلاقيات الذكاء الاصطناعي
تأتي هذه الدعاوى في وقت تتزايد فيه المخاوف من تأثير المحادثات الذكية على فئات عمرية هشة نفسيًا، خصوصًا المراهقين.
ويرى خبراء القانون والتكنولوجيا أن هذه القضايا قد تشكل سابقة قانونية في تحديد حدود مسؤولية الشركات المطوّرة لأنظمة الذكاء الاصطناعي عندما تؤدي منتجاتها إلى ضرر نفسي أو مادي للمستخدمين.
من جانبها، لم تصدر شركة OpenAI أي تعليق رسمي حتى الآن بشأن الدعاوى، بينما تؤكد وثائق الادعاء أن هناك أدلة داخلية تُظهر أن الشركة كانت على علم بالمخاطر المحتملة قبل إطلاق نموذجها الأخير.
القضية تفتح بابًا واسعًا للنقاش حول أخلاقيات الذكاء الاصطناعي وحدود تدخله في حياة الإنسان، وتضع شركات التكنولوجيا أمام مسؤوليات قانونية وأخلاقية جديدة.
وفي انتظار تطورات المحاكم، يظل السؤال مطروحًا: هل يمكن تحميل خوارزمية ذكية مسؤولية مأساة بشرية؟



