شنبه , 11 بهمن 1404 2026 - 01 - 31 ساعت :
» استخدام » خطای الگوریتم سرنوشت ۱۴۰۰ دانش‌آموز را تغییر داد
خطای الگوریتم سرنوشت ۱۴۰۰ دانش‌آموز را تغییر داد
استخدام

خطای الگوریتم سرنوشت ۱۴۰۰ دانش‌آموز را تغییر داد

آبان ۲۹, ۱۴۰۴ 0

به گزارش وبسایت صنعت جهان، در هفته‌های پایانی سال تحصیلی، در ایالت ماساچوست آمریکا، یک خطای فنی در سیستم نمره‌گذاری خودکار آزمون سراسری باعث شد نمرات حدود ۱۴۰۰ دانش‌آموز اشتباه محاسبه شود. این اتفاق نشان داد که مدل‌های زبانی بزرگ که قرار بود ابزار‌های هوشمند یاری‌دهنده باشند، در بستر آموزشی مستقیم وارد کار قضاوت و نمره‌دهی شده‌اند.

در سطح انسانی، این خطا پیامد‌های انسانی و بزرگی داشت از جمله جابه‌جایی مسیر تحصیلی یک دانش‌آموز. استفاده از مدل‌های زبانی بزرگ بدون نظارت موثر، نه فقط یک امکان فنی ناقص، بلکه یک تصمیم سیاستی بسیار پرریسک است.

در پرونده دانشگاه «نورث‌ایسترن»، یک دانشجوی دانشگاه به صورت رسمی درخواست بازپرداخت بخشی از شهریه خود را ارائه کرد. دلیل این درخواست آن بود که استاد واحد درسی از محتوای تولیدشده با هوش مصنوعی برای ارائه مطالب استفاده کرده بود. این در حالی بود که استفاده دانشجویان از ابزار‌های هوش مصنوعی ممنوع اعلام شده بود.

این شکایت به بحثی گسترده‌تر درباره «حق آموزشی» دامن زد. هرچند دانشگاه درخواست او را نپذیرفت، اما ماجرا بحثی را آغاز کرد که امروز در بسیاری از محیط‌های آموزشی شنیده می‌شود. وقتی دانشگاه از ابزار‌های هوش مصنوعی استفاده می‌کند و خطایی رخ می‌دهد، چه کسی مسئول است؟

گزارش رسمی مرکز آزمون نشان می‌دهد که ایراد نه یک مشکل موردی یا یک خطای اپراتوری، بلکه اختلال در بخش خودکار نمره‌گذاری بوده است. این بخشی است که بر پایه مدل‌های زبانی و تحلیل خودکار پاسخ‌ها عمل می‌کند. نتیجه، نمراتی بود که پس از بازبینی انسانی اصلاح شدند.

در سطح انسانی، مسئله پیچیده‌تر بود. نمره آزمون سراسری برای بسیاری از دانش‌آموزان معیار پذیرش در برنامه‌های حمایتی، دوره‌های پیشرفته یا حتی تشخیص نیاز به کلاس‌های جبرانی است. اشتباه در این سطح، به معنای جابه‌جایی مسیر تحصیلی یک دانش‌آموز است.

این پرونده نشان داد که استفاده از مدل‌های زبانی بزرگ بدون نظارت موثر، یک تصمیم سیاستی بسیار پرریسک است. در پرونده دانشگاه «نورث‌ایسترن»، اعتراض دانشجو به یک موضوع متفاوت شکل گرفت. او به دلیل استفاده بی‌اعلام استاد از محتوای تولیدشده با هوش مصنوعی در تدریس، شکایت خود را مطرح کرد.

مدل‌های زبانی بزرگ در نمره‌گذاری DIRECT، نوسان‌پذیری، سوگیری زبانی و ضعف در تحلیل عمیق دارند. این مسائل یک پدیده خطرناک را ایجاد می‌کند که متخصصان آن را «توهم ارزیابی» می‌نامند.

ابزار‌های تشخیص هوش مصنوعی نیز بدون خطا نیستند. شرکت‌های توسعه‌دهنده این ابزار‌ها هشدار داده‌اند که امکان «مثبت کاذب» در این ابزار‌ها وجود دارد. این خطا‌ها زمانی که وارد فرایند‌های انضباطی یا نمره‌دهی شوند، می‌توانند سرنوشت دانشجویان را تغییر دهند.

این موضوع یکی دیگر از دلایلی است که مطالبه سیاست‌های بازپرداخت و اصلاح نمره را افزایش داده است. بررسی مستندات رسمی سیستم‌های پرکاربرد نشان می‌دهد که هرچند از «کمک هوش مصنوعی» صحبت می‌شود، اما توسعه‌دهندگان تصریح می‌کنند که این ابزار‌ها برای کمک به ناظر انسانی طراحی شده‌اند.

مسئولیت نهایی نمره‌گذاری همچنان بر عهده «انسان» است. با این حال، گزارش‌های میدانی از دانشگاه‌ها نشان می‌دهد که در فشار حجم کار، برخی نمره‌دهی‌ها عملاً خودکار انجام می‌شوند.

پرونده‌ها نشان دادند که زیان مالی و حقوقی دانشجویان قابل مطالبه است. سه نوع زیان برای دانشجو قابل شناسایی است: زیان تحصیلی، زیان اعتباری و زیان مالی.

اگر سیاست‌گذاران آموزشی و دانشگاه‌ها نتوانند سریع‌تر از سرعت پیشرفت فناوری، چارچوب‌های حقوقی و عملیاتی طراحی کنند، تعداد پرونده‌هایی شبیه این موارد افزایش خواهد یافت. در دنیایی که ماشین‌ها بخشی از فرایند ارزیابی شده‌اند، باید این اصل ساده را فراموش نکرد: نمره، فقط یک عدد نیست؛ تصمیمی است درباره آینده یک انسان.

منبع: باشگاه خبرنگاران جوان

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

×