خطای الگوریتم سرنوشت ۱۴۰۰ دانشآموز را تغییر داد
به گزارش وبسایت صنعت جهان، در هفتههای پایانی سال تحصیلی، در ایالت ماساچوست آمریکا، یک خطای فنی در سیستم نمرهگذاری خودکار آزمون سراسری باعث شد نمرات حدود ۱۴۰۰ دانشآموز اشتباه محاسبه شود. این اتفاق نشان داد که مدلهای زبانی بزرگ که قرار بود ابزارهای هوشمند یاریدهنده باشند، در بستر آموزشی مستقیم وارد کار قضاوت و نمرهدهی شدهاند.
در سطح انسانی، این خطا پیامدهای انسانی و بزرگی داشت از جمله جابهجایی مسیر تحصیلی یک دانشآموز. استفاده از مدلهای زبانی بزرگ بدون نظارت موثر، نه فقط یک امکان فنی ناقص، بلکه یک تصمیم سیاستی بسیار پرریسک است.
در پرونده دانشگاه «نورثایسترن»، یک دانشجوی دانشگاه به صورت رسمی درخواست بازپرداخت بخشی از شهریه خود را ارائه کرد. دلیل این درخواست آن بود که استاد واحد درسی از محتوای تولیدشده با هوش مصنوعی برای ارائه مطالب استفاده کرده بود. این در حالی بود که استفاده دانشجویان از ابزارهای هوش مصنوعی ممنوع اعلام شده بود.
این شکایت به بحثی گستردهتر درباره «حق آموزشی» دامن زد. هرچند دانشگاه درخواست او را نپذیرفت، اما ماجرا بحثی را آغاز کرد که امروز در بسیاری از محیطهای آموزشی شنیده میشود. وقتی دانشگاه از ابزارهای هوش مصنوعی استفاده میکند و خطایی رخ میدهد، چه کسی مسئول است؟
گزارش رسمی مرکز آزمون نشان میدهد که ایراد نه یک مشکل موردی یا یک خطای اپراتوری، بلکه اختلال در بخش خودکار نمرهگذاری بوده است. این بخشی است که بر پایه مدلهای زبانی و تحلیل خودکار پاسخها عمل میکند. نتیجه، نمراتی بود که پس از بازبینی انسانی اصلاح شدند.
در سطح انسانی، مسئله پیچیدهتر بود. نمره آزمون سراسری برای بسیاری از دانشآموزان معیار پذیرش در برنامههای حمایتی، دورههای پیشرفته یا حتی تشخیص نیاز به کلاسهای جبرانی است. اشتباه در این سطح، به معنای جابهجایی مسیر تحصیلی یک دانشآموز است.
این پرونده نشان داد که استفاده از مدلهای زبانی بزرگ بدون نظارت موثر، یک تصمیم سیاستی بسیار پرریسک است. در پرونده دانشگاه «نورثایسترن»، اعتراض دانشجو به یک موضوع متفاوت شکل گرفت. او به دلیل استفاده بیاعلام استاد از محتوای تولیدشده با هوش مصنوعی در تدریس، شکایت خود را مطرح کرد.
مدلهای زبانی بزرگ در نمرهگذاری DIRECT، نوسانپذیری، سوگیری زبانی و ضعف در تحلیل عمیق دارند. این مسائل یک پدیده خطرناک را ایجاد میکند که متخصصان آن را «توهم ارزیابی» مینامند.
ابزارهای تشخیص هوش مصنوعی نیز بدون خطا نیستند. شرکتهای توسعهدهنده این ابزارها هشدار دادهاند که امکان «مثبت کاذب» در این ابزارها وجود دارد. این خطاها زمانی که وارد فرایندهای انضباطی یا نمرهدهی شوند، میتوانند سرنوشت دانشجویان را تغییر دهند.
این موضوع یکی دیگر از دلایلی است که مطالبه سیاستهای بازپرداخت و اصلاح نمره را افزایش داده است. بررسی مستندات رسمی سیستمهای پرکاربرد نشان میدهد که هرچند از «کمک هوش مصنوعی» صحبت میشود، اما توسعهدهندگان تصریح میکنند که این ابزارها برای کمک به ناظر انسانی طراحی شدهاند.
مسئولیت نهایی نمرهگذاری همچنان بر عهده «انسان» است. با این حال، گزارشهای میدانی از دانشگاهها نشان میدهد که در فشار حجم کار، برخی نمرهدهیها عملاً خودکار انجام میشوند.
پروندهها نشان دادند که زیان مالی و حقوقی دانشجویان قابل مطالبه است. سه نوع زیان برای دانشجو قابل شناسایی است: زیان تحصیلی، زیان اعتباری و زیان مالی.
اگر سیاستگذاران آموزشی و دانشگاهها نتوانند سریعتر از سرعت پیشرفت فناوری، چارچوبهای حقوقی و عملیاتی طراحی کنند، تعداد پروندههایی شبیه این موارد افزایش خواهد یافت. در دنیایی که ماشینها بخشی از فرایند ارزیابی شدهاند، باید این اصل ساده را فراموش نکرد: نمره، فقط یک عدد نیست؛ تصمیمی است درباره آینده یک انسان.
منبع: باشگاه خبرنگاران جوان
