تاثیرگذاری هوش مصنوعی بر انتخابات
چگونگی تاثیرگذاری هوش مصنوعی بر انتخابات 2024 | هوش مصنوعی و رایگیری
فرض بر آن است که سیاست به اقناع بستگی دارد اما تبلیغات همیشه آن را زیر نفوذ داشتهاند. برگزارکنندگان کارزارها نیت واقعی خود را پنهان و در موضوعات اغراق میکنند و اغلب دروغ میگویند.
هوش مصنوعی و رایگیری
فرض بر آن است که سیاست به اقناع بستگی دارد اما تبلیغات همیشه آن را زیر نفوذ داشتهاند. برگزارکنندگان کارزارها نیت واقعی خود را پنهان و در موضوعات اغراق میکنند و اغلب دروغ میگویند. آنها با هر ابزار موجود دروغهای مختلف، از وقیحانه تا مصلحتی را به دیگران انتقال میدهند. توطئهچینیها علیه واکسن زمانی به جای پادکستها از طریق جزوههای کاغذی انتشار مییافت. یک قرن قبل از شیوع کووید19، مخالفان ماسک زدن در دوران آنفلوآنزای اسپانیایی کارزاری سرشار از اطلاعات غلط به راه انداختند. آنها پیامهای جعلی از جراحان عمومی را با استفاده از تلگراف (نه اپلیکیشنهای هوشمند) پخش میکردند. از آنجا که مردم فرشته نیستند، انتخابات هیچگاه از دروغ و باورهای غلط خالی نبودهاند.
اما در حالی که جهان به مجموعه انتخابات سال 2024 میاندیشد چیزی جدید ذهنها را به خود مشغول میدارد. در گذشته همیشه این انسانها بودند که اطلاعات غلط را میساختند. اما اکنون پیشرفتهای هوش مصنوعی زایشی با الگوهایی که قادرند با کوچکترین علامت مقالات پیچیده و تصاویری واقعگرایانه خلق کنند امکان انجام تبلیغاتی ترکیبی را فراهم کردهاند. این نگرانی وجود دارد که پخش اطلاعات غلط در سال 2024 شدت گیرد. چند کشور با مجموع جمعیت بیش از چهار میلیارد شامل آمریکا، بریتانیا، هند، اندونزی، مکزیک و تایوان خود را برای رایگیری آماده میکنند. شهروندان این کشورها تا چه اندازه باید نگران باشند؟
لازم است دقیقاً تعیین شود که ابزارهای هوش مصنوعی زایشی از قبیل چت جیپیتی قادر به انجام چه کارهایی هستند. تا قبل از پیدایش این ابزارها هم اطلاعات غلط یکی از مشکلات در دموکراسیها بود. نظریه غلط تقلب در انتخابات ریاستجمهوری سال 2020 آمریکا در 6 ژانویه معترضان را به ساختمان مجلس کشاند اما این نظریه را دونالد ترامپ، بزرگان جمهوریخواه و رسانههای عمومی محافظهکار با استفاده از ابزارهای متعارف نشر دادند. کنشگران حزب بهاراتیا جاناتا در هند شایعات را از طریق واتساپ پخش میکردند. تبلیغاتچیهای حزب کمونیست چین هم با استفاده از ابزارهای رسانهای جدید و ظاهراً مشروع اخبار مورد نظرشان را به تایوان میرساندند. تمام این امور بدون ابزارهای هوش مصنوعی زایشی انجام میگرفت.
الگوهای زبانی بزرگ در سال 2024 چه تغییراتی ایجاد میکنند؟ یک موضوع به کمیت اطلاعات غلط مربوط میشود. اگر حجم این اطلاعات هزار یا 100 هزار برابر شود ممکن است مردم را ترغیب کنند تا به گونهای دیگر رای دهند. نگرانی دوم به کیفیت بازمیگردد. جعلیات عمیق (دیپ فیک) که ظاهری بسیار واقعی دارند میتوانند قبل از افشای ماهیت صوت، تصویر و عکسهای جعلی بر رایدهندگان تاثیر بگذارند. هدفگیری ریز عامل سوم نگرانی است. با وجود هوش مصنوعی ممکن است رایدهندگان در معرض انبوهی از تبلیغات شخصیشده قرار گیرند. تشخیص و شناسایی شبکههای تبلیغاتی روباتی مشکلتر از شناسایی شبکههای کنونی پخش اطلاعات غلط خواهد بود. اعتماد رایدهندگان به همشهریانشان که در آمریکا چند دهه روبه کاهش گذاشته است باز هم بیشتر آسیب میبیند چون مردم نسبت به همه چیز تردید خواهند داشت.
ابزارهایی که متون و تصاویر جعلی باورپذیر میسازند از چند دهه قبل در دسترس بودهاند. هوش مصنوعی زایشی میتواند در نیروی کار لازم صرفهجویی کند اما فقدان آن محدودیتی برای تولید اطلاعات غلط ایجاد نمیکند. الگوریتمهای نوین تصویرسازی بسیار کاربردی هستند اما بدون دخالت انسان ممکن است تصاویری از افرادی با شش انگشت در دستان خلق کنند. این بدان معناست که امکان شخصیسازی جعلیات عمیق در زمان حال بعید است. حتی اگر این تاکتیکهای مبتنی بر هوش مصنوعی موفق عمل کنند احزاب و گروههای مختلف به آنها روی میآورند و مجموع تلاشهای آنها باعث میشود تا شبکههای اجتماعی پرازدحام و غیرقابل بهرهبرداری شوند. افزایش بیاعتمادیها به نفع هیچکدام از طرفها نخواهد بود.
سکوهای رسانههای اجتماعی و بنگاههای هوش مصنوعی ادعا میکنند که به این موضوع توجه دارند. اوپنایآی شرکت ادارهکننده چت جیپیتی میگوید، کاربریها را رصد میکند تا فعالیتهای تاثیرگذار بر سیاست را شناسایی کند. سکوهای فناوریهای بزرگ که به خاطر نشر تبلیغات غلط در انتخابات 2016 و 2020 مورد نکوهش قرار گرفتند اکنون بهتر میتوانند حسابهای مشکوک را شناسایی کنند. آلفابت و بتا استفاده از رسانههای دستکاریشده را در تبلیغات سیاسی ممنوع کردهاند و میگویند به سرعت در برابر جعلیات عمیق واکنش نشان خواهند داد. دیگر شرکتها تلاش میکنند یک استاندارد فنی برای اثبات واقعی بودن تصاویر و ویدئوها بسازند.
اما نظارت داوطلبانه محدودیت و نظارت غیرداوطلبانه خطراتی دارند. الگوهای دارای منبع باز مثل لاما (Llama)، تولیدکننده متن، را میتوان بدون نظارت به کار برد. همچنین تمام سکوها شرایط یکسانی ندارند. شرکت رسانه اجتماعی و پخش ویدئویی تیکتاک به دولت چین وابسته است و به گونهای طراحی شده که پخش گسترده محتوا از هر منبع از جمله حسابهای جدید را امکانپذیر میکند. توئیتر (ایکس کنونی) پس از مالکیت ایلان ماسک بر آن تیم نظارتی خود را کوچکتر کرد و اکنون بهشتی برای روباتها بهشمار میرود. آژانس ناظر بر انتخابات آمریکا الزام افشاگری برای کارزارهایی را که از تصاویر ترکیبی استفاده میکنند بررسی میکند. این کاری منطقی است هرچند شاید بازیگران شرور از آن پیروی نکنند. برخی در آمریکا خواستار سیستم نظارت شدید بر سبک چین هستند که در آن الگوریتمهای هوش مصنوعی باید در یک سازمان دولتی به ثبت برسند و ارزشهای تخصصی اصلی را رعایت کنند. اما این نوع کنترل شدید جلوی برتری آمریکا در نوآوریهای هوش مصنوعی را میگیرد.
سیاست هیچگاه خالص نیست
جبرگرایی فنی که تمام نقاط ضعف افراد را به ابزارهای مورد استفاده آنها ربط میدهد مفهومی وسوسهکننده اما غلط است. باید به توان بالقوه هوش مصنوعی زایشی در اخلال در دموکراسیها توجه کرد اما نیازی به ترس و اضطراب نیست. تا قبل از پیشرفتهای فناوری دو سال اخیر، افراد میتوانستند انواع دیدگاههای مخرب و وحشتناک را به یکدیگر انتقال دهند. کارزار ریاستجمهوری 2024 آمریکا تحت تاثیر اطلاعات غلط مربوط به حاکمیت قانون و یکپارچگی انتخابات قرار خواهد گرفت اما بانی آن ابزار جدیدی مانند چت جیپیتی نیست، بلکه فردی مانند دونالد ترامپ خواهد بود.