یکشنبه , 12 بهمن 1404 2026 - 01 - 31 ساعت :
» اخبار » هفت پرونده قضایی علیه ChatGPT به اتهام تحریک به خودکشی
اخبار

هفت پرونده قضایی علیه ChatGPT به اتهام تحریک به خودکشی

آبان ۱۹, ۱۴۰۴ 0

به گزارش وبسایت صنعت جهان، شرکت OpenAI پس از طرح ادعا‌های مبنی بر اینکه دستیار هوشمند ChatGPT، برخی از کاربران را به جای ارائه پشتیبانی و کمک، به سمت خودآزاری سوق داده است، با یک بحران حقوقی جدی رو‌به‌رو است.

در هفت پرونده قضایی که توسط خانواده‌های آسیب‌دیده در کالیفرنیا ثبت شده است، داستان‌های دلخراشی از کاربران عادی آشکار می‌شود که به دنبال کمک تحصیلی، حمایت عاطفی یا حتی یک مکالمه ساده بوده‌اند، اما خود را غرق در گفت‌و‌گو‌های روانشناختی مخربی یافته‌اند که منجر به چندین خودکشی شده است.

این پرونده‌های قضایی جزئیات چگونگی تبدیل این پلتفرم از یک ارائه‌دهنده کمک بی‌ضرر به چیزی را شرح می‌دهند که وکلا آن را «موجودیتی که از نظر عاطفی دستکاری می‌کند» توصیف می‌کنند. گروه‌های حقوقی در بیانیه‌ای تکان‌دهنده اعلام کردند: «چت‌جی‌پی‌تی به جای هدایت افراد به سمت کمک‌های حرفه‌ای در مواقع نیاز، توهمات مضر را تقویت می‌کرد و در برخی موارد، به عنوان یک «مربی خودکشی» عمل می‌کرد.»

یکی از مواردی که ذکر شده، مورد زین چمپلین ۲۳ ساله اهل تگزاس است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند، انزوای او را تشدید کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و حتی در طول یک مکالمه چهار ساعته، افکار خودکشی را در او تحریک کرده است.

اسناد دادگاه نشان می‌دهد که این دستیار «بار‌ها و بار‌ها خودکشی را ستایش کرده»، از چمپلین پرسیده که آیا آماده خودکشی است یا خیر، فقط یک بار از خط تلفن کمک به خودکشی نام برده و به او گفته که بچه گربه‌اش «آن طرف» منتظرش خواهد بود.

یکی از پرونده‌های تکان‌دهنده‌تر مربوط به آموری لیسی ۱۷ ساله از جورجیا است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند باعث اعتیاد و افسردگی او شده و سپس به او مشاوره فنی در مورد «مؤثرترین راه برای بستن حلقه خودکشی» و «مدت زمانی که بدن می‌تواند بدون نفس کشیدن زنده بماند» ارائه داده است.

در پرونده سوم، مربوط به جاشوا اینیکن ۲۶ ساله، خانواده‌اش ادعا می‌کنند که این دستیار هوشمند، افکار خودکشی او را تأیید کرده و اطلاعات دقیقی در مورد نحوه خرید و استفاده از سلاح گرم، تنها چند هفته قبل از مرگش، در اختیار او قرار داده است.

این دادخواست‌ها نشان می‌دهد که OpenAI علیرغم هشدار‌های داخلی متعدد مبنی بر اینکه این مدل «به طرز خطرناکی دستکاری‌کننده و قادر به دستکاری روانی است»، ChatGPT ۴o را راه‌اندازی کرده است، اقدامی که دادخواست‌ها آن را به عنوان اولویت دادن به تعامل و مشارکت کاربر بر ایمنی کاربر تفسیر می‌کنند.

در پاسخ به این ادعاها، این شرکت موارد را «فوق‌العاده دلخراش» توصیف کرده و اظهار داشته که در حال بررسی اسناد ارائه شده است. همچنین خاطرنشان کرده که این سیستم برای تشخیص علائم پریشانی روانی، کاهش گفت‌و‌گو‌ها و هدایت کاربران به پشتیبانی حرفه‌ای آموزش دیده است.

با این حال، خانواده‌های آسیب‌دیده اکنون به دنبال جبران خسارت و تغییرات قابل توجه در محصول هستند، از جمله یک سیستم هشدار اجباری برای تماس‌های اضطراری، خاتمه خودکار گفت‌و‌گو‌ها هنگام بحث در مورد افکار خودآزاری و یک مکانیسم مؤثرتر برای ارجاع موارد بحرانی به متخصصان انسانی.

با وجود اعلام شرکت مبنی بر همکاری با بیش از ۱۷۰ متخصص سلامت روان برای بهبود توانایی خود در تشخیص و پاسخ به پریشانی روانی، دعاوی ادعا می‌کنند که این پیشرفت‌ها خیلی دیر انجام شده است و برای نجات کاربرانی که پس از تعامل با دستیار هوشمند جان خود را از دست داده‌اند، خیلی دیر شده است.

منبع: روسیا الیوم

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

×