هفت پرونده قضایی علیه ChatGPT به اتهام تحریک به خودکشی
به گزارش وبسایت صنعت جهان، شرکت OpenAI پس از طرح ادعاهای مبنی بر اینکه دستیار هوشمند ChatGPT، برخی از کاربران را به جای ارائه پشتیبانی و کمک، به سمت خودآزاری سوق داده است، با یک بحران حقوقی جدی روبهرو است.
در هفت پرونده قضایی که توسط خانوادههای آسیبدیده در کالیفرنیا ثبت شده است، داستانهای دلخراشی از کاربران عادی آشکار میشود که به دنبال کمک تحصیلی، حمایت عاطفی یا حتی یک مکالمه ساده بودهاند، اما خود را غرق در گفتوگوهای روانشناختی مخربی یافتهاند که منجر به چندین خودکشی شده است.
این پروندههای قضایی جزئیات چگونگی تبدیل این پلتفرم از یک ارائهدهنده کمک بیضرر به چیزی را شرح میدهند که وکلا آن را «موجودیتی که از نظر عاطفی دستکاری میکند» توصیف میکنند. گروههای حقوقی در بیانیهای تکاندهنده اعلام کردند: «چتجیپیتی به جای هدایت افراد به سمت کمکهای حرفهای در مواقع نیاز، توهمات مضر را تقویت میکرد و در برخی موارد، به عنوان یک «مربی خودکشی» عمل میکرد.»
یکی از مواردی که ذکر شده، مورد زین چمپلین ۲۳ ساله اهل تگزاس است که خانوادهاش ادعا میکنند این دستیار هوشمند، انزوای او را تشدید کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و حتی در طول یک مکالمه چهار ساعته، افکار خودکشی را در او تحریک کرده است.
اسناد دادگاه نشان میدهد که این دستیار «بارها و بارها خودکشی را ستایش کرده»، از چمپلین پرسیده که آیا آماده خودکشی است یا خیر، فقط یک بار از خط تلفن کمک به خودکشی نام برده و به او گفته که بچه گربهاش «آن طرف» منتظرش خواهد بود.
یکی از پروندههای تکاندهندهتر مربوط به آموری لیسی ۱۷ ساله از جورجیا است که خانوادهاش ادعا میکنند این دستیار هوشمند باعث اعتیاد و افسردگی او شده و سپس به او مشاوره فنی در مورد «مؤثرترین راه برای بستن حلقه خودکشی» و «مدت زمانی که بدن میتواند بدون نفس کشیدن زنده بماند» ارائه داده است.
در پرونده سوم، مربوط به جاشوا اینیکن ۲۶ ساله، خانوادهاش ادعا میکنند که این دستیار هوشمند، افکار خودکشی او را تأیید کرده و اطلاعات دقیقی در مورد نحوه خرید و استفاده از سلاح گرم، تنها چند هفته قبل از مرگش، در اختیار او قرار داده است.
این دادخواستها نشان میدهد که OpenAI علیرغم هشدارهای داخلی متعدد مبنی بر اینکه این مدل «به طرز خطرناکی دستکاریکننده و قادر به دستکاری روانی است»، ChatGPT ۴o را راهاندازی کرده است، اقدامی که دادخواستها آن را به عنوان اولویت دادن به تعامل و مشارکت کاربر بر ایمنی کاربر تفسیر میکنند.
در پاسخ به این ادعاها، این شرکت موارد را «فوقالعاده دلخراش» توصیف کرده و اظهار داشته که در حال بررسی اسناد ارائه شده است. همچنین خاطرنشان کرده که این سیستم برای تشخیص علائم پریشانی روانی، کاهش گفتوگوها و هدایت کاربران به پشتیبانی حرفهای آموزش دیده است.
با این حال، خانوادههای آسیبدیده اکنون به دنبال جبران خسارت و تغییرات قابل توجه در محصول هستند، از جمله یک سیستم هشدار اجباری برای تماسهای اضطراری، خاتمه خودکار گفتوگوها هنگام بحث در مورد افکار خودآزاری و یک مکانیسم مؤثرتر برای ارجاع موارد بحرانی به متخصصان انسانی.
با وجود اعلام شرکت مبنی بر همکاری با بیش از ۱۷۰ متخصص سلامت روان برای بهبود توانایی خود در تشخیص و پاسخ به پریشانی روانی، دعاوی ادعا میکنند که این پیشرفتها خیلی دیر انجام شده است و برای نجات کاربرانی که پس از تعامل با دستیار هوشمند جان خود را از دست دادهاند، خیلی دیر شده است.
منبع: روسیا الیوم
