ارسال به دیگران پرینت

هوش مصنوعی

تمرکز بر خطرات واقعی و وجودی هوش مصنوعی | آزمون واقعیت

شاید این جمله برایتان آشنا باشد: «متاسفم دیو، نمی‌تونم انجامش بدم». هال 9000 (HAL 9000) کامپیوتر قاتل فیلم «2001: یک اودیسه فضایی» یکی از چندین نمونه علمی-تخیلی هوش مصنوعی است که از پدیدآورندگان انسانی خود پیش می‌افتد و عواقب مرگباری به بار می‌آورد. پیشرفت‌های اخیر هوش مصنوعی و به‌ویژه معرفی چت جی‌پی‌تی موضوع «خطر وجودی» را در صدر دستور کار بین‌المللی قرار داد.

تمرکز بر خطرات واقعی و وجودی هوش مصنوعی | آزمون واقعیت

شاید این جمله برایتان آشنا باشد: «متاسفم دیو، نمی‌تونم انجامش بدم». هال 9000 (HAL 9000) کامپیوتر قاتل فیلم «2001: یک اودیسه فضایی» یکی از چندین نمونه علمی-تخیلی هوش مصنوعی است که از پدیدآورندگان انسانی خود پیش می‌افتد و عواقب مرگباری به بار می‌آورد. پیشرفت‌های اخیر هوش مصنوعی و به‌ویژه معرفی چت جی‌پی‌تی موضوع «خطر وجودی» را در صدر دستور کار بین‌المللی قرار داد. تعدادی از بزرگان فناوری از جمله ایلان ماسک در مارس 2023 خواستار آن شدند که به خاطر مسائل امنیتی توسعه هوش مصنوعی حداقل به مدت شش ماه متوقف شود. سیاستمداران و متخصصان در همایش امنیت هوش مصنوعی در پاییز گذشته در بریتانیا درباره بهترین روش‌های نظارت بر این فناوری بالقوه خطرناک به بحث و گفت‌وگو پرداختند. اما آن حال‌وهوا با یک حرکت سریع در زمان حال تغییر کرد. نگرانی‌های مربوط به حرکت سریع هوش مصنوعی جای خود را به ترس از این داد که ممکن است این فناوری در شکل کنونی خودش به آن اندازه که انتظار می‌رفت سودمند نباشد و بنگاه‌های فناوری درباره آن اغراق کرده باشند. همزمان، فرآیند تدوین قوانین سیاست‌گذاران را بر آن داشت تا نیاز برای مقابله با مسائل موجود مرتبط با هوش مصنوعی از قبیل تبعیض، یکسویه‌نگری و نقض حقوق مالکیت معنوی را کاملاً درک کنند. تمرکز مقررات‌گذاری و نظارت از خطرات مبهم و فرضی به خطرات مشخص و آنی سوق داده شده و این خبر خوبی است. به عنوان مثال، مشخص شد که سامانه‌های مبتنی بر هوش مصنوعی که افراد را برای دریافت وام مسکن یا دیگر وام‌ها و تخصیص مزایا ارزیابی می‌کنند یکسونگری نژادی دارند. سامانه‌های تشخیص چهره که نهادهای اعمال قانون از آنها استفاده می‌کنند با احتمال زیاد در شناسایی رنگین‌پوستان دچار خطا می‌شوند. از هوش مصنوعی می‌توان برای ساخت ویدئوهای جعل عمیق (deep fake)‌ به‌ویژه تصاویر مستهجن بهره برد و از دیگران اخاذی کرد، یا دیدگاه‌های سیاستمداران را به‌گونه‌ای دیگر جلوه داد. هنرمندان، موسیقیدانان و سازمان‌های خبری می‌گویند که از کارهایشان بدون اجازه برای آموزش الگوهای هوش مصنوعی استفاده می‌شود. همچنین بحث قانونی بودن استفاده از داده‌های شخصی برای مقاصد آموزشی بدون رضایت فرد هنوز ابهامات زیادی دارد. در نتیجه انبوهی از مقررات جدید خلق شدند. به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا استفاده از سامانه‌های زنده تشخیص چهره از سوی مقامات اعمال قانون و همچنین استفاده از هوش مصنوعی برای پیش‌بینی اقدامات مجرمانه، تشخیص احساسات و آگهی‌های احساسی را ممنوع کرده است. بسیاری از کشورها قوانینی را تدوین کرده‌اند که نصب برچسب بر روی ویدئوهای ساخت هوش مصنوعی را الزامی می‌کنند. در کره جنوبی ساخت ویدئوهای جعل عمیق از سیاستمداران در 90 روز قبل از انتخابات ممنوع است. سنگاپور هم احتمالاً همین قاعده را در پیش خواهد گرفت. قوانین موجود باید در برخی موارد شفاف‌سازی شوند. شرکت‌های اپل و متا گفته‌اند که به خاطر ابهامات موجود درباره استفاده از داده‌های شخصی برخی از محصولات هوش مصنوعی خود را در اتحادیه اروپا عرضه نخواهند کرد. به عقیده آنها این ابهامات موجب می‌شوند مصرف‌کنندگان اروپایی از دسترسی به تازه‌ترین فناوری‌ها محروم بمانند. برخی موارد از قبیل اینکه آیا می‌توان تحت قانون «استفاده عادلانه» از مطالب دارای حق کپی‌رایت برای مقاصد آموزشی استفاده کرد یا خیر، نیز به تصمیم دادگاه واگذار می‌شوند. برخی از روش‌های مقابله با مشکلات موجود کار با هوش مصنوعی کارکرد خوبی دارند، اما بازتابی از روش‌های قانون‌گذاران برای تمرکز بر خطرات واقعی مرتبط با سامانه‌های موجود هوش مصنوعی هستند. این حرف بدان معنا نیست که از مخاطره ایمنی (safety risk)‌ غافل بمانیم. مقررات خاص ایمنی در زمان خود ضروری هستند. اما تعیین ماهیت و میزان مخاطرات وجودی آینده آسان نیست و نمی‌توان از اکنون برای آن قانون‌گذاری کرد. برای درک این موضوع به قانون پرمناقشه SB1047 نگاهی بیندازید که هم‌اکنون مراحل تصویب را در مجلس ایالتی کالیفرنیا می‌گذراند. مدافعان آن می‌گویند که چنین لایحه‌ای خطر بروز یک فاجعه از طریق هوش مصنوعی را کاهش می‌دهد. طبق تعریف، این فاجعه یک «خسارت عظیم» یا آسیبی با ارزش بیش از 500 میلیون دلار است که با استفاده از تسلیحات اتمی، رادیولوژی، بیولوژیک یا حملات سایبری علیه زیرساختارهای حیاتی صورت می‌گیرد. لایحه جدید پدید‌آورندگان الگوهای بزرگ هوش مصنوعی را ملزم می‌کند پروتکل‌های امنیتی را رعایت و «کلید خودتخریب» را نصب کنند. منتقدان می‌گویند که چهارچوب این لایحه بیش از واقعیت بر مسائل علمی-تخیلی اتکا دارد و متن ابهام‌آلود آن به شرکت‌ها و آزادی‌های دانشگاهی آسیب می‌رساند. اندرو انجی، پژوهشگر حوزه هوش مصنوعی هشدار می‌دهد که این قانون پژوهشگران را سردرگم خواهد کرد، چون آنها متوجه نمی‌شوند که چگونه می‌توانند از قانون‌شکنی اجتناب ورزند. پس از لابی‌گری زیاد مخالفان لایحه برخی از بخش‌های آن در اوایل این ماه تعدیل شد. قسمت‌های دیگر از جمله حمایت از سوت‌زنان شرکت‌های هوش مصنوعی منطقی به نظر می‌رسند. اما اکثر بخش‌‌های آن برمبنای یک باور شبه‌دینی است که می‌گوید هوش مصنوعی می‌تواند فاجعه‌ای در مقیاس وسیع ایجاد کند. این در حالی است که تولید سلاح‌های هسته‌ای یا بیولوژیک مستلزم دسترسی به ابزارها و موادی است که به‌شدت کنترل می‌شوند. اگر این لایحه به دفتر گاوین نیوسام، فرماندار کالیفرنیا برسد ممکن است وتو شود. آن‌گونه که شرایط نشان می‌دهد نمی‌توان فهمید که یک الگوی بزرگ هوش مصنوعی چگونه می‌تواند خسارات فیزیکی یا مرگبار به بار آورد؟ اما سامانه‌های هوش مصنوعی می‌توانند به روش‌های مختلف اشکال غیرفیزیکی از آسیب‌ها را پدید آورند. کاری که قبلاً هم اتفاق افتاده است. بنابراین منطقی است که قانون‌گذاران بر این دسته از آسیب‌ها تمرکز کنند.

 

منبع : تجارت فردا
به این خبر امتیاز دهید:
بر اساس رای ۰ نفر از بازدیدکنندگان
با دوستان خود به اشتراک بگذارید:
کپی شد

پیشنهاد ویژه

    دیدگاه تان را بنویسید

     

    دیدگاه

    توسعه