شنبه , 11 بهمن 1404 2026 - 01 - 31 ساعت :
» سیاسی » پرچم فلسطین زیر تیغِ ربات‌ها؛ هوش مصنوعی چه چیزی را «خطرناک» می‌داند؟
پرچم فلسطین زیر تیغِ ربات‌ها؛ هوش مصنوعی چه چیزی را «خطرناک» می‌داند؟
سیاسی

پرچم فلسطین زیر تیغِ ربات‌ها؛ هوش مصنوعی چه چیزی را «خطرناک» می‌داند؟

آذر ۱۴, ۱۴۰۴ 0

به گزارش وبسایت صنعت جهان، در جدیدترین پرده از نمایش قدرت هوش مصنوعی، مدل‌های پیشرفته تصمیم گرفتند که صدای کدام کاربران در فضای مجازی خاموش بماند.

شرکت اوپن‌ای‌آی در تابستان ۲۰۲۳ اعلام کرد که قصد دارد از مدل زبانی جی‌پی‌تی-۴ برای نظارت و مدیریت محتوا استفاده کند. این مدل می‌تواند決定 کند که یک متن مجاز یا غیرمجاز است. شرکت از این مدل برای توسعه سیاست محتوا و تصمیم‌گیری درباره نظارت استفاده می‌کند.

این امر به معنی این است که مدل جی‌پی‌تی-۴ می‌تواند به سرعت تغییرات در سیاست‌گذاری‌ها را اعمال کند و خود را با سیاست‌های جدید سازگار کند. شرکت ادعا کرده است که این سامانه اجازه می‌دهد تا به جای ماه‌ها، در عرض چند ساعت تغییرات در سیاست‌گذاری‌ها اعمال شود.

با این حال، این کارآمدی با هوش مصنوعی می‌تواند به سانسور سامانمند و غیرشفاف منجر شود. غول‌های فناوری مانند شرکت مِتا نیز سیاست‌های کنترلی خود را به‌روز کرده‌اند. این شرکت در ژانویه ۲۰۲۵ اعلام کرد که اجازه گفت‌وگوی بیشتر خواهد داد و تمرکز اجرای آن بر موارد غیرقانونی و با شدت بالا خواهد بود.

اما این تغییر در ظاهر یک رویکرد آزاداندیشانه بود و در عمل موجی از حذف، تعلیق، کاهش دیده شدن و سرکوب محتوا بود. این سرکوب به‌ویژه متوجه مطالبی شد که از فلسطین حمایت می‌کردند یا اخبار جنگ را بازتاب می‌دادند.

در دسامبر ۲۰۲۳، نهاد دیده‌بان حقوق بشر گزارشی منتشر کرد با عنوان «وعده‌های شکسته مِتا: سانسور سامانمند محتوای فلسطین در اینستاگرام و فیس‌بوک». این گزارش بیش از ۱,۰۵۰ مورد حذف یا سرکوب محتوا را مستندسازی کرد.

نتایج این گزارش نشان داد که سانسور نه خطای مقطعی بلکه نظامی، جهانی و ساختاری است. محتوایی که به بیان دیدگاه درباره بحران انسانی، اعتراض علیه جنگ یا حمایت از حقوق بشر می‌پرداخت، حذف یا «فیلتر پنهان» می‌شد.

در گزارش اچ‌آر‌دبلیو، صدها کاربر از کشورهای مختلف گزارش داده‌اند که پست‌ها، استوری‌ها یا کامنت‌هایشان حذف شده یا حسابشان تعلیق شده است. این اقدامات بدون اطلاع قبلی و بدون امکان اعتراض واقعی صورت گرفته است.

کاربران رفتارهای خود را تغییر داده‌اند: دیگر جرأت انتشار ندارند، خودسانسوری می‌کنند و دیدگاه‌شان را کم‌رنگ می‌کنند تا دوباره دچار پیامد نشوند.

در یکی از مصاحبه‌ها که در گزارش نقل شده بود، کاربری گفته است: «متوجه شدم بسیاری از کامنت‌هایم… به‌طور خودکار به‌عنوان هرزنامه (اِسپَم) حذف می‌شوند… در نهایت، حتی نمی‌توانستم به کامنت‌های پست‌های خودم پاسخ دهم.»

این یعنی اینکه سانسور نه فقط حذف آشکار، بلکه «کاهش نامرئی دیده شدن» (شدو بن) را نیز در بر می‌گیرد؛ همان چیزی که برای مخاطب عام ملموس نیست.

اما در این میان، مدل‌های زبانی بزرگ، به‌خصوص جی‌پی‌تی-۴، به‌طور فزاینده‌ای به داورانی تبدیل شدند که نه بر اساس قضاوت انسانی، بلکه بر اساس اَلگوریتم و سیاست شرکت، درباره محتوای دیجیتال حکم می‌دهند.

پژوهشگران هشدار می‌دهند که خود این سامانه‌ها نیز نامطلوب هستند: مدلی که برای تشخیص محتوا به کار می‌رود ممکن است سوگیری داشته باشد. آنکه مدل آن را «ناامن» تشخیص می‌دهد، شاید برای بخش بزرگی از انسان‌ها بیان آزاد باشد.

در گزارش اچ‌آر‌دبلیو، شش الگوی تکرارشونده سانسور شناسایی شدند: حذف پست، استوری یا کامنت، تعلیق یا حذف حساب، محدودیت در تعامل مانند لایک، کامنت یا بازنشر، محدودیت در دنبال کردن یا تگ کردن، مسدود کردن ویژگی‌هایی مثل پخش زنده یا کسب درآمد، و فیلتر پنهان (شدو بن).

این شواهد نشان‌دهنده یک تصمیم فردی یا خطای تصادفی نیست، بلکه ساختاری نظام‌مند در حال اجراست.

در این

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

×