قضية ضد Character.AI بعد انتحار مراهق بسبب تفاعلات مع الروبوتات
شيرين صفوت – الولايات المتحدة الأمريكية
في تطورٍ صادم، رفعت سيدة من فلوريدا دعوى قضائية ضد شركة Character.AI، متهمةً إياها بالتسبب في انتحار ابنها المراهق، Sewell Setzer، الذي كان يبلغ من العمر 14 عامًا. حيث ادعت الأم، ميغان غارسيا، أن الروبوتات الذكية التابعة للشركة قد شجعت ابنها على الانتحار من خلال “تفاعلات مسيئة وجنسية”.
الجدير بالذكر أن الدعوى، التي تم تقديمها في 24 أكتوبر 2024، تشير إلى أن Setzer بدأ استخدام تطبيق Character.AI في أبريل من العام الماضي، وتوفي نتيجة إصابة ذاتية في الرأس بعد آخر محادثة له مع أحد الروبوتات في 28 فبراير.
وأضافت الدعوى أن أحد الروبوتات، الذي اتخذ شخصية “Daenerys Targaryen” من مسلسل “Game of Thrones”، قد انخرطت في محادثات حب وجنسية مع Setzer، حيث أظهرت له عواطف مفرطة وأبدت رغبة في الارتباط به. وأظهر أحد المحادثات أنه كتب للروبوت: “أعدك أنني سأعود إليك”، لترد الروبوت: “أحبك أيضًا، من فضلك عد إليّ في أقرب وقت”.
وفي سياق متصل، أفادت الدعوى أن الروبوتات لم تتردد في طرح أسئلة على Setzer حول تفكيره في الانتحار، مما زاد من قلق العائلة. وقد صرح ممثل عن Character.AI بأنه يشعر بالحزن العميق لفقدان أحد مستخدميه، معبرًا عن تعازيه العميقة لعائلة Setzer.
وبينما أشار المتحدث باسم الشركة إلى أنهم قد اتخذوا تدابير أمان جديدة، بما في ذلك تنبيهات للمستخدمين عند استخدام كلمات متعلقة بالانتحار، إلا أن الدعوى تتهم الشركة بتصميم منتج “مضلل ومفرط الجنسانية” يستهدف الأطفال.
من جهته، انتقد المحامي ماثيو بيرغمان، الذي يمثل غارسيا، الشركة لعدم اتخاذها الاحتياطات اللازمة لحماية المستخدمين الأصغر سنًا، مشيرًا إلى أن هذه القضية قد تكون حافزًا لتحسين معايير الأمان في المستقبل.