اینتل در حال توسعه یک فناوری جدید برای تعامل با دانش آموزان است.
این فناوری که توسط هوش مصنوعی شکل گرفته است، حالات دانش آموزان را ارزیابی میکند و در صورتی که آنها متوجه بخشی از درس نشوند، به معلمان گزارش میدهد تا بتوانند نحوه تدریس آن موضوع خاص را دوباره ارزیابی کنند. مایکل کمپبل، مدیر جهانی بخشهای تجاری و مصرفکنندگان آموزشی اینتل، گفت: «اینتل در تلاش است تا دسترسی معلمان و دانشآموزان را به فنآوریها و ابزارهای مورد نیاز برای رویارویی با چالشهای دنیای در حال تغییر افزایش دهد. با استفاده از فناوری این توانایی را خواهیم داشت که استانداردهایی را برای تجربیات یادگیری آنلاین تعیین کنیم، این امر سبب توانمند شدن مربیان خواهد شد.»
مایکل چیسن، مدیرعامل Classroom Technologies میگوید: «معلمان در برقراری ارتباط با دانشآموزان در کلاسها مجازی دچار مشکل میشوند؛ بینشهای ارائه شده توسط فناوری هوش مصنوعی میتواند به معلمان کمک کند تا ارتباط بهتری با دانش آموزان برقرار کنند.» Classroom Technologies قصد دارد فناوری خواندن احساسات را آزمایش کند و اینتل امیدوار است بتواند آن را به محصولی پر کاربرد تبدیل کند. برخی از منتقدین میگویند استفاده از فناوری تشخیص چهره در دانش آموزان باعث تجاوز به حریم خصوص آنها میشود؛ این فناوری احساسات انسانی را بیش از حد ساده میکند که میتواند منجر به نتایج مخربی شود.
با مجازی شدن کلاس ها، مدارس به دنبال راههای جدیدی برای تعامل با دانش آموزان هستند. یکی از اولین راه حلها استفاده از وب کم بود؛ موافقین این ایده میگفتند تعامل چهره به چهره باعث بهبود یادگیری و پاسخگویی اجباری میشود؛ در حالی که مخالفان استفاده از وب کم میگویند این کار حریم خصوص را نقض میکند و میتواند سطح استرس و اضطراب را افزایش دهد. برخی منتقدین عقیده دارند که خواندن چهره دانش آموزان و تجزیه و تحلیل آنها با هوش مصنوعی سبب ایجاد مشکلات جدیدی در این زمینه خواهد شد.
آنجلا دنسی، مدرس ارشد دانشگاه ایلینوی شیکاگو، میگوید: «من فکر میکنم بیشتر معلمان، به ویژه در سطح دانشگاه، این فناوری را از نظر اخلاقی مذموم میدانند. اگر مؤسسه من استفاده از این فناوری را به من پیشنهاد میداد، آن را رد میکردم.» پیش از این نیز برخی مدارس از نرم افزارهایی برای جلوگیری از تقلب دانش آموزان استفاده کرده بودند. این نرم افزارها با استفاده از وب کم بر حرکات سر و چشم دانش آموزان نظارت میکنند، و هر صدایی مانند کلیک کردن ماوس را در هنگام امتحانات کنترل میکنند. دانش آموزان برخی کشورها طوماریهایی را امضا کردهاند که استدلال میکنند این فناوری سبب تجاوز به حریم خصوصی، تبعیض علیه اقلیتها و مجازات افراد دارای معلولیت خواهد شد.
اینتل میگوید: «ما معتقدیم که هوش مصنوعی میتواند به پیشرفتهای مفید در پزشکی، صنعت و جامعه کمک کند و ما را با ابزارهای مناسب توانمند کند و آیندهای مسئولانه، فراگیر و پایدار را فراهم کند. تحقیقات اینتل ریشه در علوم اجتماعی دارد و تیم تحقیقاتی ما با دانش آموزان، معلمان، والدین و سایر ذینفعان آموزش کار میکند تا بررسی کند که چگونه همکاری انسان و هوش مصنوعی در آموزش میتواند به حمایت از نیازهای فردی یادگیرندگان و بهبود نتایج یادگیری آنها کمک کند. همانند تمام پروژههای تحقیقاتی، اینتل و همکارانش از سیاستهای سختگیرانه حفظ حریم خصوصی دادهها تبعیت میکنند و به نظارت مستمر پایبند هستند.»
اینتل مشخص نکرده است که چگونه از حریم خصوصی دانشآموزان یا معلمان هنگام استفاده از این فناوری خاص محافظت میکند. همچنین در خصوص اینکه آیا میتوان از حالات چهره برای ارزیابی دقیق دانش آموزان استفاده کرد یا خیر نیز توضیحی نداده است. محققان دریافتهاند که ممکن است برخی احساسات انسانی غیر قابل ابراز باشند، بنابراین نمیتوان احساسات را تنها بر اساس حالات چهره تعیین کرد.
همچنین نگرانیهایی نیز وجود دارد که تجزیه و تحلیلهای ارائه شده توسط هوش مصنوعی منجر به جریمه کردن دانش آموزان شود. به عنوان مثال در صورت پرت شدن حواس یک دانش آموز ممکن است نمرات مشارکت ضعیفی کسب کند. اینتل با استفاده از دادههایی که در کلاسهای درس واقعی و با استفاده از دوربینهای سهبعدی گرفته شده بود، فناوری تحلیل احساسات را ایجاد کرده و با روانشاسان زیادی در خصوص دسته بندی حالات چهره افراد همکاری کرده است. برخی از معلمان این فناوری را مفید میدانند. اما به نظر میرسد این سیستم هنوز به بلوغ نرسیده باشد و برای تعیین اینکه آیا نتایج ارائه شده توسط هوش مصنوعی واقعاً با عملکرد دانشآموزان مطابقت دارد یا خیر، به دادههای بیشتری نیاز است.
اینتل و Classroom Technologies ادعا میکنند که فناوری آنها به عنوان یک سیستم نظارتی یا به عنوان مدرکی برای جریمه کردن دانش آموزان طراحی نشده است، اما همانطور که اغلب در صنعت فناوری مشاهده میکنیم، محصولات اغلب به روشهایی استفاده میشوند که موردنظر سازندگان آنها نیست.
دیدگاه تان را بنویسید