اقتصادآنلاین-آرش نصیری؛ سیاست هنر متقاعد کردن است؛ اما همواره تحت الشعاع پروپاگاندا قرار داشته است. کمپینهای تبلیغاتی تحریف، بزرگنمایی یا فریب را در دستور کار خود قرار میدهند. آنها در مورد هرچیزی و به هر وسیلهای دروغپراکنی میکنند. زمانی تئوریهای توطئۀ ضدواکسن به جای پادکست از طریق نشریهها تبلیغ میشد. یک قرن پیش از کووید-۱۹، مخالفین استفاده از ماسک در دوران آنفولانزای اسپانیایی یک کمپین انتشار اطلاعات نادرست به راه انداختند. آنها از طریق تلگرام (سیمها، نه اپلیکیشن معروف گوشیهای هوشمند) پیام های جعلی از طرف یک جراح عمومی ارسال میکردند. از آنجایی که مردم فرشته نیستند، انتخابات هیچگاه عاری از شایعات دروغ و باورهای غلط نبوده است.
اما از آنجایی که جهان در سال ۲۰۲۴ چندین انتخابات را پیش رو دارد، موضوعی جدید باعث نگرانی بسیاری شده است. در گذشته اطلاعات نادرست همیشه توسط انسانها پخش میشد. پیشرفتها در هوش مصنوعی مولد (ai) – با مدلهایی که میتوانند مقالات پیچیده را منتشر و تصاویر واقعی را از پیامهای متنی ایجاد کنند – پروپاگاندای مصنوعی را ممکن میسازد. این نگرانی وجود دارد که کمپینهای نشر اطلاعات نادرست در سال ۲۰۲۴ افزایش یابد، درست زمانی که کشورهایی با مجموع جمعیت حدود ۴ میلیارد نفر – از جمله آمریکا، بریتانیا، هند، اندونزی، مکزیک و تایوان- برای رای دادن آماده میشوند. اما شهروندان چقدر باید نگران باشند؟
مهم است که در مورد آنچه که ابزارهای هوش مصنوعی مولد مانند Chatgpt قادر به تأثیرگذاری بر آن هستند، دقیق باشیم. قبل از آمدن آنها، اطلاعات نادرست در دموکراسیها یک معضل بود. ایدۀ مخربی مبنی بر تقلب در انتخابات ریاست جمهوری آمریکا در سال ۲۰۲۰، آشوبگران را در ۶ ژانویه به ساختمان کنگره آورد – اما این ایده توسط دونالد ترامپ، نخبگان جمهوریخواه و رسانههای گروهی محافظهکار با استفاده از ابزارهای متعارف منتشر شد. فعالان حزب مردم هند (bjp) در این کشور شایعاتی را از طریق واتساپ ثدرز منتشر کردند. مبلغان حزب کمونیست چین از طریق رسانههای خبری به ظاهر قانونی، موارد لازم را به تایوان منتقل میکنند. همۀ اینها بدون استفاده از ابزارهای هوش مصنوعی مولد انجام میشود.
اما مدلهای زبانی بزرگ (LLM) در سال ۲۰۲۴ چه چیزی را میتوانند تغییر دهند؟ یک مورد حجم اطلاعات نادرست است: اگر حجم مطالب بیهوده در ۱۰۰۰ یا ۱۰۰۰۰۰ ضرب شود، ممکن است مردم را متقاعد کند که رأی متفاوتی را به صندوق بیندازند. مورد دوم مربوط به کیفیت است. دیپفیکهای بیش از حد واقعی میتوانند رأیدهندگان را قبل از اینکه نادرستی صدا، عکسها و ویدیوهای نادرست افشا شود، تحت تأثیر قرار دهد. سومین مورد، هدفگذاری خُرد است. با ai، رای دهندگان ممکن است غرق در تبلیغات شخصیسازی شده گردند.
شناسایی شبکههای رباتهای تبلیغاتی سختتر از تلاشهای موجود برای شناسایی اطلاعات نادرست است. از آنجایی که در این شرایط مردم به همه چیز شک میکنند، ممکن است اعتماد رأیدهندگان به هموطنان خود که در آمریکا برای دههها رو به کاهش بوده است بیش از پیش آسیب ببیند.
این نگرانکننده است، اما دلایلی وجود دارد که باور کنیم هوش مصنوعی قرار نیست تجربه ۲۵۰۰ ساله بشریت از دموکراسی را از بین ببرد. بسیاری از مردم فکر میکنند که دیگران از خودشان ساده لوحترند. در واقع رایدهندگان را به سختی میتوان متقاعد کرد، به خصوص در مورد موضوعات برجسته سیاسی مانند اینکه کاندید مطلوبشان برای ریاست جمهوری چه کسی است (از خود بپرسید دیپفیک چه چیزی را در خصوص انتخاب شما بین جو بایدن و دونالد ترامپ میتواند تغییر دهد). صنعت مبارزات انتخاباتی چند میلیارد دلاری در آمریکا که از انسانها برای متقاعد کردن رأی دهندگان استفاده میکند، تنها میتواند تغییرات جزئی در رفتار آنها ایجاد کند.
ابزارهایی برای تولید تصاویر و متن جعلی باورپذیر برای چندین دهه وجود داشته است. اگرچه هوش مصنوعی ممکن است یک فناوری مناسب برای صرفهجویی در هزینۀ نیروی انسانی برای ساخت و انتشار ترولهای اینترنتی باشد، اما مشخص نیست که چنین تلاشی محدودیت الزامآوری در زمینه تولید اطلاعات نادرست باشد. الگوریتمهای جدید تولید تصویر چشمگیر هستند، اما بدون تنظیم و قضاوت انسان، همچنان مستعد تولید تصاویری از افراد با شش انگشت در هر دست هستند و امکان ساخت دیپفیکهای شخصیسازی شده را فعلاً از راه دور فراهم میسازند.
چنانچه این تاکتیکهای تقویتشده توسط هوش مصنوعی اثربخشی خود را ثابت کنند، به زودی توسط بسیاری از طرفهای ذینفع پذیرفته میشوند: اثر تجمعی این عملیات نفوذ این است که شبکههای اجتماعی را به مراتب ناهنجارتر و غیرقابل استفادهتر میکند. اثبات اینکه بیاعتمادی به یک مزیت سیستماتیک برای یک حزب نسبت به حزب دیگر تبدیل میشود دشوار است.
پلتفرمهای رسانههای اجتماعی که در آنها اطلاعات نادرست منتشر میشود، و همچنین شرکتهای هوش مصنوعی میگویند که بر روی خطرات متمرکز شدهاند. Openai، شرکت پشتیبان Chatgpt میگوید که نحوه استفاده از آن را برای شناسایی عملیاتهای نفوذ سیاسی نظارت خواهد کرد. پلتفرمهای فناوری بزرگ که هم به دلیل انتشار اطلاعات نادرست در انتخابات ۲۰۱۶ و هم حذف بیش از حد در سال ۲۰۲۰ مورد انتقاد قرار میگیرند، در شناسایی حسابهای مشکوک بهتر شدهاند (اگرچه آنها برای داوری در مورد صحت محتوای تولید شده توسط افراد واقعی سستی میکنند). آلفابت و متا استفاده از رسانههای دستکاری شده در تبلیغات سیاسی را ممنوع کرده و میگویند که به سرعت به دیپفیکها پاسخ میدهند. شرکتهای دیگر در تلاش هستند تا استانداردی تکنولوژیکی ایجاد کنند که منشأ تصاویر و ویدیوهای واقعی را تعیین کند.
با این حال نظارت داوطلبانه محدودیتهایی دارد و نوع غیرداوطلبانه آن نیز خطراتی را به همراه دارد. مدلهای منبع باز مانند Meta’s Llama که متن تولید میکند و Stable Diffusion که تصاویر را میسازد، میتوانند بدون نظارت مورد استفاده قرار گیرند. TikTok، رسانه اجتماعی اشتراکگذاری ویدیو، با دولت چین ارتباط دارد و این برنامه برای نشر ویروسپذیری از هر منبعی، از جمله حسابهای جدید، طراحی شده است. توییتر (که اکنون X نامیده می شود) پس از خرید توسط ایلان ماسک، تیم نظارتی خود را کاهش داد تا این پلتفرم بهشتی برای رباتها شود.
نهاد نظارتی انتخابات در آمریکا در حال بررسی یک قانون برای افشای کمپینهایی است که از تصاویر تولید شده مصنوعی استفاده میکنند. این معقول است، اگرچه بازیگران بدخواه از آن پیروی نمیکنند. برخی در آمریکا خواستار یک سیستم مقررات افراطی به سبک چینی هستند. در آنجا الگوریتمهای هوش مصنوعی باید در یک نهاد دولتی ثبت شوند و به نوعی ارزشهای بنیادین سوسیالیستی را به تصویر بکشند. چنین کنترل سنگینی مزیت آمریکا در نوآوری هوش مصنوعی را از بین میبرد.
سیاست هرگز خالص نبوده است
اگرچه مهم است که به پتانسیل هوش مصنوعی مولد برای برهم زدن دموکراسیها توجه داشته باشیم اما هراس بیش از حد بیمورد است. قبل از پیشرفتهای تکنولوژیکی در دو سال گذشته مردم کاملاً قادر به انتقال هر گونه ایدههای مخرب و وحشتناک به یکدیگر بودند. مبارزات انتخاباتی ریاست جمهوری آمریکا در سال ۲۰۲۴ با اطلاعات نادرست در مورد حاکمیت قانون و یکپارچگی انتخابات مخدوش خواهد شد. اما مولد آن چیزی جدید مانند Chatgpt نخواهد بود، ترامپ خواهد بود.
- نویسنده: اقتصاد آنلاین