پرچم فلسطین زیر تیغِ رباتها؛ هوش مصنوعی چه چیزی را «خطرناک» میداند؟
به گزارش وبسایت صنعت جهان، در جدیدترین پرده از نمایش قدرت هوش مصنوعی، مدلهای پیشرفته تصمیم گرفتند که صدای کدام کاربران در فضای مجازی خاموش بماند.
شرکت اوپنایآی در تابستان ۲۰۲۳ اعلام کرد که قصد دارد از مدل زبانی جیپیتی-۴ برای نظارت و مدیریت محتوا استفاده کند. این مدل میتواند決定 کند که یک متن مجاز یا غیرمجاز است. شرکت از این مدل برای توسعه سیاست محتوا و تصمیمگیری درباره نظارت استفاده میکند.
این امر به معنی این است که مدل جیپیتی-۴ میتواند به سرعت تغییرات در سیاستگذاریها را اعمال کند و خود را با سیاستهای جدید سازگار کند. شرکت ادعا کرده است که این سامانه اجازه میدهد تا به جای ماهها، در عرض چند ساعت تغییرات در سیاستگذاریها اعمال شود.
با این حال، این کارآمدی با هوش مصنوعی میتواند به سانسور سامانمند و غیرشفاف منجر شود. غولهای فناوری مانند شرکت مِتا نیز سیاستهای کنترلی خود را بهروز کردهاند. این شرکت در ژانویه ۲۰۲۵ اعلام کرد که اجازه گفتوگوی بیشتر خواهد داد و تمرکز اجرای آن بر موارد غیرقانونی و با شدت بالا خواهد بود.
اما این تغییر در ظاهر یک رویکرد آزاداندیشانه بود و در عمل موجی از حذف، تعلیق، کاهش دیده شدن و سرکوب محتوا بود. این سرکوب بهویژه متوجه مطالبی شد که از فلسطین حمایت میکردند یا اخبار جنگ را بازتاب میدادند.
در دسامبر ۲۰۲۳، نهاد دیدهبان حقوق بشر گزارشی منتشر کرد با عنوان «وعدههای شکسته مِتا: سانسور سامانمند محتوای فلسطین در اینستاگرام و فیسبوک». این گزارش بیش از ۱,۰۵۰ مورد حذف یا سرکوب محتوا را مستندسازی کرد.
نتایج این گزارش نشان داد که سانسور نه خطای مقطعی بلکه نظامی، جهانی و ساختاری است. محتوایی که به بیان دیدگاه درباره بحران انسانی، اعتراض علیه جنگ یا حمایت از حقوق بشر میپرداخت، حذف یا «فیلتر پنهان» میشد.
در گزارش اچآردبلیو، صدها کاربر از کشورهای مختلف گزارش دادهاند که پستها، استوریها یا کامنتهایشان حذف شده یا حسابشان تعلیق شده است. این اقدامات بدون اطلاع قبلی و بدون امکان اعتراض واقعی صورت گرفته است.
کاربران رفتارهای خود را تغییر دادهاند: دیگر جرأت انتشار ندارند، خودسانسوری میکنند و دیدگاهشان را کمرنگ میکنند تا دوباره دچار پیامد نشوند.
در یکی از مصاحبهها که در گزارش نقل شده بود، کاربری گفته است: «متوجه شدم بسیاری از کامنتهایم… بهطور خودکار بهعنوان هرزنامه (اِسپَم) حذف میشوند… در نهایت، حتی نمیتوانستم به کامنتهای پستهای خودم پاسخ دهم.»
این یعنی اینکه سانسور نه فقط حذف آشکار، بلکه «کاهش نامرئی دیده شدن» (شدو بن) را نیز در بر میگیرد؛ همان چیزی که برای مخاطب عام ملموس نیست.
اما در این میان، مدلهای زبانی بزرگ، بهخصوص جیپیتی-۴، بهطور فزایندهای به داورانی تبدیل شدند که نه بر اساس قضاوت انسانی، بلکه بر اساس اَلگوریتم و سیاست شرکت، درباره محتوای دیجیتال حکم میدهند.
پژوهشگران هشدار میدهند که خود این سامانهها نیز نامطلوب هستند: مدلی که برای تشخیص محتوا به کار میرود ممکن است سوگیری داشته باشد. آنکه مدل آن را «ناامن» تشخیص میدهد، شاید برای بخش بزرگی از انسانها بیان آزاد باشد.
در گزارش اچآردبلیو، شش الگوی تکرارشونده سانسور شناسایی شدند: حذف پست، استوری یا کامنت، تعلیق یا حذف حساب، محدودیت در تعامل مانند لایک، کامنت یا بازنشر، محدودیت در دنبال کردن یا تگ کردن، مسدود کردن ویژگیهایی مثل پخش زنده یا کسب درآمد، و فیلتر پنهان (شدو بن).
این شواهد نشاندهنده یک تصمیم فردی یا خطای تصادفی نیست، بلکه ساختاری نظاممند در حال اجراست.
در این
