انتخابات دیپ‌فیک

ریشی آیینگار | خبرنگار فارین پالیسی در حوزه ژئوپلیتیک و سردبیر اسبق سی‌ان‌ان‌بیزینس

ترجمه: فاطمه لطفی

هفته‌نامه صدا

پیش از اینکه آخرین انتخابات ملی هند در سال 2019 برگزار شود، در توییتر شایعه‌ای پخش شد که می‌گفت جوهر پاک‌نشدنی که مقامات انتخاباتی هند با آن ناخن‌های رای‌دهندگان را برچسب‌گذاری می‌کند حاوی خون خوک است.

یوئل راث، رئیس وقت یکپارچگی انتخاباتی این پلت فرم رسانه اجتماعی، در مصاحبه‌ای یادآور شد: « در درجه اول این تاکتیک انتشار اطلاعات غلط بود با هدف سلب حق رای مسلمانان و منصرف کردن آنها از رای دادن؛ درحالی که این شایعه واقعیت نداشت. بنابراین توییتر سیاست‌های خود را به گونه‌ای تنظیم کرد که بیان کند که پیشبرد آن نوع روایت نادرستِ سرکوب رای‌دهندگان، نقض قوانین سایت است و از این رو پست‌ها حذف می‌شوند و کاربران تحریم.»

راث حالا از این موضوع نگران است که اگر چنین اتفاقی امروزه رخ دد، پاسخی که [از گردانندگان] این پلتفرم خواهیم شنیید کاملا متفاوت باشد یا بدتر از آن، اصلا پاسخی وجود نداشته باشد.

«توئیتر» دیگر واقعا وجود ندارد. این پلتفرم اکنون X نامیده می‌شود که توسط میلیاردر آمریکایی، ایلان ماسک، و پس از پرداخت 44 میلیارد دلار در سال 2022، خریداری و نام آن تغییر یافت. ماسک بلافاصله نیمی از کارکنان شرکت، از جمله اکثر تیم‌های اعتماد و ایمنی را که تحت رهبری راث بودند و محتوای گمراه کننده و مضر را حذف می‌کردند، اخراج کرد. خارج از این سکوی نرم‌افزاری، خود راث در نوامبر 2022، کمتر از یک ماه پس از روی کار آمدن ماسک، از توییتر استعفا داد. سیاست ماسک برای آزادی بیان بی‌قید و شرط، همراه با بازنگری در سیستم راستی‌آزمایی که قبلا به کاربران کمک می‌کرد حساب‌های معتبر را شناسایی کنند، منجر به پخش سیل اطلاعات نادرست و سخنان نفرت‌انگیز در این پلتفرم شده است. (خود راث با بسیاری از آن مواجه شده است.)

درخواست‌های بسیاری از تیم مطبوعاتی X ثبت شده که می‌خواهند در مورد چگونگی آماده‌سازی این پلتفرم برای انتخابات در سال 2024 توضحاتی ارائه دهد اما پاسخی خودکار برای این درخواست‌ها ارسال شده است: «[پلتفرم] اکنون مشغول است، لطفا بعدا بررسی کنید». البته خود این دو جمله هم نسبت به پاسخی که کاربران پیشتر دریافت می‌کردند بهبود مختصری یافته است؛ پیشتر در پاسخ به این سوال صرفا یک ایموجی نمایش داده می‌شد.

X تنها پلتفرم اصلی رسانه اجتماعی نیست که تعداد ناظران محتوای آن بسیار کم است. متا که مالک فیس‌بوک، اینستاگرام و واتس‌اپ است، از نوامبر 2022 بیش از 20000 کارمند را اخراج کرده است؛ که تعدادی از این کارمندان برای بخش اعتماد و ایمنی کار می‌کردند؛ و از سویی بسیاری از کارمندان یوتیوب که روی سیاست‌های اطلاعات نادرست کار می‌کردند تحت تاثیر اخراج کارکنان شرکت مادر گوگل قرار گرفتند.

به ندرت می‌توان تصور کرد [که سالی بدتر از سال 2024] هم برای مبارزه با محتوای مضر آنلاین در شبکه‌های اجتماعی وجود داشته باشد. امسال در بیش از 50 کشور جهان از جمله سه دموکراسی بزرگ جهان و نیز تایوان، که یک نقطه داغ ژئوپلیتیکی است که به طور فزاینده‌ای مخاطره‌آمیز هم شده است، انتخابات ملی برگزار می‌کنند. هفت کشور از 10 کشور پرجمعیت جهان یعنی بنگلادش، هند، اندونزی، مکزیک، پاکستان روسیه و ایالات متحده به طور جمعی یک سوم جمعیت جهان را پای صندوق‌های رای خواهند فرستاد.

انتخابات، با پویایی‌های هیجانی و اغلب قبیله‌ای‌اش، همان نقطه‌ایی است که گام‌های نادرست برداشتن اطلاعات نادرست را راهی وطن می‌کنند. اگر اطلاعات نادرست رسانه‌های اجتماعی را معادل فریاد «آتش» در یک سالن شلوغ در نظر بگیریم، اطلاعات غلط انتخاباتی به مثابه آن است که فریاد «آتش» در زمانی طنین‌انداز شود که یک فیلم ترسناک در همان سالن پخش می‌شود و همه مردم از پیش هم عصبی و تحریک شده بوده‌اند.

کیتی هاربث [مشاور سیاستمداران و دولت‌ها برای استفاده از رسانه‌های اجتماعی] قیاس متفاوتی را ترجیح می‌دهد، قیاسی که نشان می‌دهد مسائل تا چه حد مبهم و مشکل‌زا هستند و عدم اطمینان محض پیرامون آنها بسیار بالاست. او در مصاحبه‌ای در ماه اکتبر گفت: «استعاره‌ای که من همیشه از آن استفاده می‌کنم کالیدوسکوپ [زیبابین] است، زیرا جنبه‌های مختلفی در این مورد وجود دارد، اما بسته به اینکه چگونه کالیدوسکوپ را بچرخانید، الگوی شکل ظاهری آن تغییر می کند. و این همان احساسی است که من در مورد زندگی پس از 2024 دارم. … نمی‌دانم کجای کالیدوسکوپ قرار است فرود بیاید.»

کار هاربث به نوعی مربی‌گری در صنعت تکنولوژی است و از سال 2011 یک دهه را در فیس‌بوک گذرانده است و در جهت تلاش برای [آموزش] یکپارچگی انتخاباتی این شرکت را پایه‌گذاری کرده است. او در سال 2021 شرکت Anchor Change را تأسیس کرد، که یک شرکت مشاوره سیاست عمومی است که به دیگر پلتفرم‌ها در مبارزه با اطلاعات نادرست کمک کرده و آمادگی آنها را برای انتخابات بیشتر می‌کند.

هاربث می‌گوید که اگر او در شغل قبلی خود بود، تیم او ارزیابی خطرات انتخابات جهانی را تا اواخر سال 2022 یا اوایل سال 2023 تکمیل می‌کرد و بعد بقیه سال را صرف این می‌کرد محصولات متا را برای آنها طراحی کند و نیز هر جایی که لازم بود «اتاق‌های جنگ» انتخاباتی راه‌اندازی کند. او می‌گوید «در حال حاضر ما حرکت به سمت حالت اجرا را شورع خواهیم کرد.» هاربث هشدار می‌دهد که به منابعی که شرکت‌ها برای یکپارچگی انتخابات به کار می‌برند به چشم بازی اعداد نگاه نکنیم «وقتی برخی از آن ابزارها را ایجاد می‌کنید، نگهداری از آنها به افراد زیادی نیاز ندارد» اما اذعان می‌کند که تخصیص منابع نشان دهنده اولویت‌های رهبری شرکت است.

این شرکت‌ها اصرار دارند که به یکپارچگی انتخابات متعهد می‌مانند. آیوی چوی، سخنگوی یوتیوب در بیانیه‌ای گفت: «یوتیوب به شدت روی سیاست‌ها و سیستم‌هایی سرمایه‌گذاری کرده است که به ما کمک می‌کنند با موفقیت از انتخابات در سراسر جهان حمایت کنیم.» تیک‌تاک گفته در مجموع  40هزار متخصص ایمنی دارد و با 16 سازمان حقیقت‌سنج با 50 زبان جهانی همکاری می‌کند. متا از اظهار نظر در مورد این موضوع خودداری کرد، اما یکی از نمایندگان شرکت فارن پالیسی را به پست وبلاگ اخیر نیک کلگ، معاون سابق نخست وزیر بریتانیا، ارجاع داده که اکنون به عنوان رئیس امور جهانی متا شناخته می‌شود. کلگ در این پست نوشته: ما حدود 40 هزار نفر را داریم که در زمینه ایمنی و امنیت کار می‌کنند، و از سال 2016 بیش از 20 میلیارد دلار سرمایه گذاری در تیم‌ها و فناوری‌هایی انجام داده‌ایم که در این زمینه متخصص هستند.

اما علائم نگران کننده دیگری نیز وجود دارد. یوتیوب ژوئن گذشته اعلام کرد که حذف محتواهایی را که ادعاهای نادرست در مورد انتخابات ۲۰۲۰ ایالات متحده یا انتخابات گذشته منتشر می‌کنند متوقف می‌کند و متا بی‌سر و صدا سیاست مشابهی را در قوانین تبلیغات سیاسی خود در سال ۲۰۲۲ در پیش گرفت. و همانطور که سوابق پیشین نشان داده است، این پلتفرم‌ها تمایل دارند پوشش کمتری در خارج از غرب داشته باشند، درحالی که با نقاط کور بزرگی که در زمینه زبان‌ها و بسترهای محلی دارند، پخش اطلاعات نادرست و سخنان نفرت‌انگیز نه تنها فراگیرتر، بلکه خطرناک‌تر نیز می‌شوند.

نیت داد، مدافع پاکستانی حقوق دیجیتال که در هیئت نظارت متا نیز عضویت دارد، در مورد تصمیمات تعدیل محتوا می‌گوید: «افرادی که روی حقوق دیجیتال در این منطقه کار می‌کنند، مدت‌های طولانی‌ست که این موضوع را مطرح کرده‌اند. به نحوی که این شرکت‌ها به انتخابات در دموکراسی‌های غربی اهمیت می‌دهند، [اما درباره دیگر نقاط دنیا] چنین توجهی جلب نمی‌‌شود.»

نیت داد می‌گوید «اینطور نیست که آنها کاری انجام نمی‌دهند… فکر می‌کنم این شرکت‌ها به اندازه کافی تلاش نمی‌کنند» و او در این احساس تنها نیست: راث نیز پیش‌بینی بدی دارد.

او می‌گوید: «من فکر می‌کنم چشم‌انداز تهدیدات پیش روی پلتفرم‌های رسانه‌های اجتماعی و رأی‌دهندگانی که از آن‌ها استفاده می‌کنند چندان تغییر نکرده است، اما سطح آمادگی در پلتفرم‌های رسانه‌های اجتماعی بزرگ تغییر کرده است. در سطوح بالا، من نگران این هستم که پلتفرم‌های بزرگ در برابر تهدیدات امنیتی انتخاباتی در سال 2024 نسبت به هر چرخه اصلی انتخابات جهانی از سال 2016 آمادگی کمتری داشته باشند.»

و این همه حتی بدون اشاره به هوش مصنوعی است. این فناوری سال‌ها است که به اشکال مختلف وجود داشته است، اما در ماه نوامبر 2022، زمانی که اوپن‌ای‌آی مستقر در کالیفرنیا چت‌جی‌پی‌تی را راه‌اندازی کرد، به نقطه عطفی رسید. چت بات و ارتقاهای بعدی آن، که قادر به تولید نوشته‌جات متنی دستوری در عرض چند ثانیه بود، چرخه تبلیغات فناوری را برای اعصار [آینده] آغاز و تلاش‌ها برای برتری در بین شرکت‌ها در سراسر جهان را بیشتر کرد. متا، گوگل و مایکروسافت (که میلیاردها دلار هم در اوپن‌ای‌آی سرمایه گذاری کرده است) چت ربات‌های خود را راه‌اندازی کردند، شرکت‌های جدیدتر هوش‌مصنوعی مانند آنتی‌تروپیک، اینفلکشن و Cohere و شرکت‌های بزرگ فناوری چینی بایدو، تنسنت و علی‌بابا هم از این قافله عقب نماندند.

البته تولیدات آنها فقط متن نیست. اوپن ای‌آی همچنین مالک DALL-E است، یکی از بسیاری از تولیدکنندگان تصویری هوش مصنوعی موجود در بازار، و درنتیجه تنظیم صدا و تصویر را بر اساس نیازهای فرد با به اصطلاح ابزارهای هوش مصنوعی بی‌نهایت آسان شده است. این ابزارها به این دلیل که توانایی آنها در تولید طیف گسترده‌ای از محتوای آنلاین در رسانه‌های مختلف در پاسخ به درخواست‌های کاربر بالاست، متأسفانه این پتانسیل را دارند که اطلاعات نادرست رسانه‌های اجتماعی را به گونه‌ای افزایش دهند که قبلا چنین سابقه‌ای دیده نشده است.

رامن چاودری، یکی از همکاران مسئول دانشگاه هاروارد در مرکز اینترنت و جامعه برکمن کلاین دانشگاه هاروارد و یکی از بنیانگذاران شرکت غیرانتفاعی ایمنی هوش مصنوعی، هیومن ایتلیجنت، می‌گوید: «تولید و انتشار دیپ‌فیک‌های بسیار واقعی و واقعیت‌های به ظاهر دیپ‌فیک‌های بسیار بسیار آسان‌تر می‌شود. چاودری نسبت به بسیاری از افراد دیدگاه آگاهانه‌تری در مورد نقطه تقاطع هوش مصنوعی، اطلاعات نادرست و رسانه‌های اجتماعی دارد و قبلا تیم اخلاقی هوش مصنوعی توییتر را رهبری می‌کرد و یکی دیگر از قربانیان حمله ماسک به نیروی کار ایمنی شرکت بوده است. او از زمان خروج اجباری خود در ماه نوامبر 2022، مدت زمانی را صرف سازماندهی تمرینات «تیم قرمز» کرده است، از جمله آنها تمریناتی ست که کاخ سفید هم از آنها حمایت کرده است، در این تمرینات شرکت کنندگان سعی می‌کنند محدودیت‌های مدل‌های هوش مصنوعی را افزایش دهند تا ببینند در یک محیط کنترل شده چه آسیب‌هایی می‌توانند ایجاد کنند. چاودری با اشاره به تحقیقات اخیر خود با یونسکو در مورد خشونت مبتنی بر جنسیت در بستر هوش مصنوعی و تمرین گروهی قرمز با دانشمندان آب و هوا، گفت که پیامدهای انتشار ممکن است به خصوص نگران کننده باشد. مدل‌های Al Generative می‌توانند به بازیگران بد کمک کنند تا اطلاعات نادرست را برای مخاطبانی ارسال کنند که به احتمال زیاد با آن پیام تغییر نظر می‌دهند: برای مثال، مادران کودکان خردسال، یا افرادی که به دلایل خاصی دلسوزی بسیار دارند. بعد می‌توانند کمپین‌هایی طراحی کنند که نه‌تنها استراتژی می‌دهند که چه پست‌هایی را برای چه کسی ارسال کنند، بلکه کدی را نیز بنویسند تا برای آنها ارسال شود.

چاودری می‌گوید «و باز هم، همه اینها کاملا قابل انجام است. ما به معنای واقعی کلمه این کار را انجام داده‌ایم، این کار را برای تکمیل این گزارش انجام دادیم.»

شرکت‌ها و دولت‌ها در تلاش برای نصب تجهیزات محافظتی هستند. متا، تیک تاک، مایکروسافت و یوتیوب همگی برخی از الزامات را بر سازندگان و تبلیغ‌کنندگان سیاسی تحمیل کرده‌اند تا زمانی که محتوایشان با استفاده از هوش مصنوعی ایجاد شده است، حتما آن را اعلام کنند. ابتکارات دولتی و چندجانبه برای تعیین چارچوب‌های نظارتی در مورد فناوری در دستور اجرایی اخیر دولت بایدن در مورد هوش مصنوعی گنجانده شده است. اجلاس ایمنی هوش مصنوعی که نوامبر گذشته در بریتانیا برگزار شد؛ هیئت مشورتی جدید هوش مصنوعی در سازمان ملل؛ و قانون اتحادیه اروپا که انتظار می‌رود تا سال 2025 لازم الاجرا شود.

آلوندرا نلسون، یکی از بازیگران کلیدی در حداقل سه مورد از این ابتکارات، نسبت به این تلاش‌ها خوش‌بینی محتاطانه‌ای دارد. نلسون به‌عنوان مدیر سابق دفتر سیاست‌گذاری علوم و فناوری کاخ سفید و دستیار معاون جو بایدن، «طرح 2022» دولت بایدن برای منشور حقوق هوش مصنوعی را رهبری کرده و چند روز پس از شرکت در اجلاس بریتانیا و انتصاب به عنوان هیئت مشورتی سازمان ملل، در این اجلاس سخنرانی داشت. او گفت: «در میان بسیاری از سیاستگذاران جهانی در مورد فقدان اقدامات نظارتی پیرامون هوش مصنوعی، یک احساس ناامیدی به وجود آمده. اما به نظر می‌رسد که سد شکسته شده، اما هنوز در مراحل اولیه است».

سوال مطرح نه تنها در میان سیاستگذاران، بلکه در میان مدیران صنایع و جامعه مدنی این است که آیا می‌توان آن نرده‌های محافظ را به اندازه کافی سریع در [پلتفرم‌های انتشار دهنده اطلاعات غلط] قرار داد، آن هم در صورتی که همه توافق کنند که [قرار است از چه چیز] در برابر چه چیزی محافظت کنند؟

اوپن‌ای‌آی در خط مقدم هشدارهایی بوده است که نشان می‌دادند ابزارهای این سیستم چقدر مضر هستند و در عین حال به توربوشارژ کردن قابلیت‌های آن ابزارها ادامه می‌دهد. در ژوئیه 2023، این شرکت شراکتی به نام فروم مدل فرونتایر با آنتروپیک، گوگل و مایکروسافت تشکیل داد تا با یکدیگر در زمینه ایمنی هوش مصنوعی همکاری کنند، و سام آلتمنِ اوپن‌ای‌آی، رهبر قدیمی این حوزه و سردسته آنها در راس این فراخوان برای تنظیم مقررات دولتی صنایع اوپن‌ای‌آی بود.

آلتمن تنها چند روز پس از میزبانی اولین کنفرانس توسعه دهندگان اوپن‌ای‌آی، که در آن این شرکت از چت ربات جدید خود و همچنین توانایی ایجاد جی‌پی‌تی‌های سفارشی برای اهداف خاص رونمایی کرد، در اجلاس مدیران عامل شرکت‌های همکاری اقتصادی آسیا و اقیانوسیه در سانفرانسیسکو هشدار شدیدی در مورد هوش مصنوعی و انتخابات مننتشر کرد. او در 16 نوامبر در سخنرانی در یک پانل گفت: «مسئله خطرناک آن چیزی نیست که ما قبلا درک کرده‌ایم. بلکه همه آن چیزهای جدید است، مجهولات شناخته شده، مجهولات ناشناخته. مسائل بسیاری است که ما نمی‌دانیم، زیرا همه چیز را که ندیده‌ایم، نمی‌دانیم چه ویدئوی مولدی یا هر چیز دیگری چه کاری می‌تواند انجام دهد، و این در طول سال انتخاباتی پیش رو، بسیار سریع و خشمگین به سمت ما خواهد آمد».

در ماه سپتامبر اوپن‌ای‌آی شاید برای اینکه سوء استفاده احتمالی از آن را تشخیص دهد بکی ویت، یکی از مدیران سابق متا را به عنوان رئیس انتخابات جهانی خود منصوب کرد. با این حال، مأموریت ویت و استراتژی انتخابات اوپن‌ای‌آی هوز هم نامشخص است. (وایت به چند بار درخواست ما برای اظهار نظر پاسخ نداد و اوپن‌ای‌آی برای او یا هر مدیر اجرایی دیگری درباره پاسخ به این سوالات ممنوعیت قائل شده است.)

کمتر از یک روز پس از هشدار انتخاباتی آلتمن در آن سخنرانی، اوپن‌ای‌آی در نوعی هرج و مرج فرو رفت، هرج‌ومرجی که همه نگران بودند نکند حاصلش راه بر دموکراسی پیدا کند. در 17 نوامبر، هیئت مدیره شرکت اعلام کرد که آلتمن اخراج شده است، و بلافاصله این حکم اجرایی شد، زیرا «او به طور مداوم در ارتباطات خود با هیئت مدیره صادق نبود.» گرگ براکمن، رئیس اوپن‌ای‌آی، اندکی پس از آن در اعتراض به این اخراج استعفا داد و ظاهرا برکناری این دو، شورش گسترده‌ای را در میان کارمندان شرکت ایجاد کرد. آلتمن و براکمن پنج روز بعد با هیئت مدیره جدید و دو مدیر عامل موقت به اوپن‌ای‌آی بازگشتند و در حال حاضر یکی از آشفته‌ترین چرخه‌های خبری سیلیکون ولی در سال‌های اخیر را در بستر خود پرورش دادند.

تحولات اوپن‌ای‌آی شاید یادآور حقیقت ناخوشایند دیگری بود: هر چه فناوری تاثیرگذارتر باشد، به همان اندازه هوش مصنوعی، خوب یا بد، تا حد زیادی به هوس‌های هیئت مدیره شرکت‌ها یا میلیاردرهای عجیب و غریب بستگی دارد. نلسون می‌گوید: «عدم تقارن اطلاعاتی در مورد مدل‌های هوش مصنوعی، داده‌های هوش‌ مصنوعی که شرکت‌ها در اختیار دارند، وجود دارد و بنابراین حتی اگر دولت‌ها نمی‌خواهند با شرکت‌ها شراکت داشته باشند، حداقل باید با بازیگران بزرگ صنعت همکاری کنند. از سوی دیگر، مشارکت از نظر طراحی باید تا حدودی خصمانه باشد، به ویژه در لحظه‌ای که محصولات بدون مراقبت‌هایی در دسترس عموم قرار می‌گیرند که فکر می‌کنم بسیاری موافق هستند که باید چنین باشد.»

در حالی که به نظر می‌رسد اقدامات دولت در مورد هوش مصنوعی تا حدودی سریع‌تر از فناوری‌های قبلی پیش می‌رود، میلیاردرهایی که این نمایش را اداره می‌کنند هنوز هم قدرت نامتناسبی دارند.

چاودری می‌گوید «ما قطعا شاهد بوده‌ایم که دولت‌ها سعی می‌کنند مخالفان را با استفاده از قوانینی خفه کنند که این قوانین خود قرار است از ما در برابر افراط گرایی آنلاین محافظت کند، بنابراین این سوال پیش می‌آید که داور حقیقت کیست؟ چه کسانی قادرند تصمیم بگیرند که چه چیز درست است و چه چیز درست نیست؟ و در حال حاضر، همین اشخاص هستند که شرکت‌های رسانه‌های اجتماعی را اداره می‌کنند».

برای کسانی که می‌خواهند طرفداران شیطان برای رستاخیز هوش مصنوعی باشند، سه استدلال تا حدی قانع‌کننده وجود دارد.

اولین مورد، نقش هوش مصنوعی در ارائه راه حل بالقوه است. شرکت‌های رسانه‌های اجتماعی بیشتر به ابزارهای تشخیص خودکار به عنوان یک سیستم هشدار زودهنگام متکی هستند تا بتوانند فیلتری برای اطلاعات نادرست و سخنان مشوق عداوت و تنفر باشند و میزان محتوایی را که بازبین‌های انسانی باید به آن نگاه کنند را تعین نمایند. بر اساس گزارش شفافیت یوتیوب از آوریل تا ژوئن 2023، این ابزارها 93 درصد از ویدیوهایی را شناسایی کردند که در نهایت به دلیل نقض خط‌مشی‌های پلتفرم حذف شدند. در تیک‌تاک، این عدد حدود 62 درصد بود. متا از سال 2020 استفاده از ابزارهای هوش مصنوعی را برای تعدیل محتوا افزایش داده است و همچنین می‌گوید فناوری آن بیش از 90 درصد از محتوایی‌هایی را که شرایط و خط‌مشی‌های متا را نقض می‌کنند، قبل از گزارش کاربران تشخیص می‌دهد. کریس کاکس، مدیر ارشد تولید متا گفت: «هوش‌مصنوعی هم شمشیر است هم سپر».

اما تکیه بیش از حد به هوش مصنوعی نیز خطر قابل‌توجهی دارد، خواه به صورت تصادفی گفتار مشروع را از بین ببرد یا بسترهای زبانی و محلی کلیدی را از دست بدهد. هاربث، گرداننده سابق بخش انتخابات فیس‌بوک، می‌گوید: «من فکر می‌کنم این نقطه همان جایی است که بسیاری از پلتفرم‌ها بر این باورند که تعدیل محتوا به آنجا ختم می‌شود، یا حداقل امیدشان این است که هوش مصنوعی بتوانند با هوش مصنوعی مبارزه کنند. هیچ یک از طرف‌های مبارزه با هوش مصنوعی در چنان سطحی از پیچیدگی قرار ندارند، اما شما فقط به آنها اجازه می‌دهید با آن مبارزه کنند.»

بحث دوم این است که اطلاعات نادرست تولید شده از سوی هوش مصنوعی ممکن است به شکلی که بازیگران بد قصد آن را داشته باشند، در مسیر دلخواه آنها قرار نگیرد. این تا حدی به این دلیل است که هشدارهای مکرر در مورد تصاویر اصلاح‌شده و ویدیوهای دیپ‌فیک، کاربران رسانه‌های اجتماعی را بسیار بدبین و هوشیار کرده است (آنچه آلتمن از آن به عنوان «آنتی‌بادی‌های اجتماعی» یاد می‌کند) و نیز به این دلیل که بسیاری از محتواها هنوز آنقدرها قانع‌کننده نیستند. تصاویر تولید شده توسط هوش مصنوعی اغلب با انگشتان یا اندام‌های اضافی نشان داده می‌شوند و ویدیوهای دیپ‌فیک هنوز هم نکات قابل توجهی دارند. راث، رئیس سابق اعتماد و ایمنی توییتر می‌گوید «ما هنوز سناریوی روز قیامت را که همه به آن فکر می‌کنند ندیده‌ایم، سناریوی که چنین تصور می‌شود: یک ویدیو پخش می‌شود، هیچ‌کس نمی‌تواند درست یا نادرست بودن آن را بفهمد، بعد این ویدئو انتخابات را تغییر می‌دهد. [اما] مردم هنوز قادرند در برابر چنین چیزی واکنش نشان دهند و این نوع محتوا را رد کنند.» او اضافه کرد که جنبه نگران‌کننده این است که به اشتباه ادعا می‌شود که ویدیوهای معتبر جعلی هستند و در نتیجه آب را بیشتر گل‌آلود می‌کنند، اما پلتفرم‌ها باید سیستم‌های مناسبی برای مقابله با محتوای گمراه‌کننده‌ داشته باشند بدون اینکه به این نکته توجه کنند که این محتوی چگونه تولید می‌شود. راث می‌گوید «مهم نیست که هوش مصنوعی باشد یا نه، شما باید با محتوی گمراه کننده مقابله کنید».

این مسئله به استدلال سوم منتهی می‌شود: اینکه بازیگران بد در بسیاری از کشورها برای تأثیرگذاری به هوش مصنوعی نیازی ندارند. به عنوان مثال، هند را در نظر بگیرید، در این کشور پلتفرم پیام‌رسانی رمزگذاری‌شده واتس‌اپ با بیش از نیم میلیارد کاربر، غالب‌ترین پلتفرم مورد استفاده هندی‌هاست. به گفته محققان هندی و صحت‌سنج‌ها، اطلاعات نادرستی که هم به‌صورت خصوصی و هم به صورت عمومی به اشتراک گذاشته می‌شود و بسیاری از آن‌ها توسط احزاب سیاسی و حامیان آن‌ها تولید و نشر می‌یابد، هنوز هم تصاویری هستند که با عجله ویرایش شده‌اند و در بستر مناسب خود نیستند. کیران گاریملا، استاد دانشگاه راتگرز که درباره اطلاعات نادرست آنلاین در جنوب جهانی تحقیق می‌کند، می‌گوید «شما می‌توانید یک میلیون توییت تولید کنید، اما اگر فقط دو نفر آن را ببینند، چه کسی اهمیت می‌دهد؟ باور من این است که تفاوتی که هوش مصنوعی ایجاد می‌کند قابل توجه نخواهد بود زیرا مشروط به مکانیسم‌های تحویل است.» به عبارت دیگر، اگر بازی فوروارد واتس‌اپ شما به اندازه کافی قوی نباشد، مهم نیست که از هوش مصنوعی یا فتوشاپ استفاده کرده‌اید یا نه.

برای تامین کنندگان اطلاعات نادرست انگیزه‌هایی وجود دارند تا خروجی خود را افزایش دهند. بر اساس آمارهای دولتی، در هند از زمان انتخابات 2019 تاکنون حدود 250 میلیون کاربر جدید اینترنت اضافه شده است. این افزایش با انفجار تلفن‌های هوشمند ارزان‌تر و داده‌های تلفن همراه ارزان‌تر امکان‌پذیر شد، اما این درحالی است که این اضافه شدن‌ها بدون سواد دیجیتالی زیادی به وجود آمد که برای کاربرانی که برای اولین بار اینترنت داشتند لازم بود. سومیترا بدریناتان، استاد دانشگاه آمریکایی که درباره اطلاعات غلط سیاسی در هند مطالعه می‌کند، معتقد است: «یک موردی که ما درباره آن تحقیق کرده‌ایم این بود که آیا شرکت‌های فناوری برای سیل اطلاعات نادرست آماده هستند یا خیر. حتی اگر قالب تغییر نکرده باشد، سبک تغییر نکرده است. فقط مقدار خالص [داده‌هایی] که در آنجا وجود دارد، یا تعاملی که به دلیل تعداد کاربران بسیار زیاد آنلاین حاصل می‌شود، یکی از مواردی است که باید به آن توجه کرد.»

افشاگری مبنی بر دخالت روسیه در انتخابات ریاست جمهوری 2016 آمریکا، به ویژه از طریق فیس‌بوک، به یک میزان زنگ خطر بزرگی برای پلتفرم‌های رسانه‌های اجتماعی و جامعه اطلاعاتی ایالات متحده بود و بُعد جدید نگران کننده‌ای به بحث‌ها و چارچوب‌بندی اطلاعات نادرست آنلاین و تاثیر بسیار آن و نحوه برخورد پلتفرم‌ها به یکپارچگی انتخابات به وجود آورد. بر اساس گزارشی که از حالت اطلاعات ملی طبقه بندی شده خارج شده، تلاش‌های روسیه برای اطلاع رسانی نادرست آنلاین در انتخابات 2020 ادامه یافته بود. دیگر یافته‌ کلیدی آن گزارش چه بود؟ ما ارزیابی می‌کنیم که چین تلاش‌های مداخله‌ای انجام نداده و تلاش‌هایی را برای تغییر نتیجه انتخابات در نظر گرفته، اما اعمال نفوذ نکرده است.

اما امسال چطور؟ و برای انتخابات ایالات متحده چطور؟ کاری نخواهد کرد؟ مقامات دولتی، کارشناسان امنیت سایبری و شرکت‌های فناوری هشدار می‌دهند که تمایل چین برای انجام جنگ اطلاعاتی [علیه ایالات متحده] به طور عمده تغییر کرده است. مرکز تعامل جهانی وزارت امور خارجه در گزارشی در سپتامبر گذشته نوشت: چین به طور فزاینده‌ای «تبلیغات، اطلاعات نادرست و سانسور» را در سراسر جهان به کار می‌ گیرد و «سالانه میلیاردها دلار در جهت دستکاری اطلاعات خارجی هزینه می‌کند». تحلیلگرانِ تهدید در مایکروسافت به نتیجه مشابهی رسیدند: آنها در گزارشی در ماه نوامبر نوشتند که از آنجایی که حزب کمونیست چین «توانمندی‌های تبلیغاتی و اطلاعات نادرست خود را افزایش داده است، این کشور برای نفوذ انتخاباتی در دیگر کشورها فعال‌تر شده است».

و در حالی که بیشتر نگاه‌ها به نظرسنجی‌های ایالات متحده در نوامبر امسال معطوف خواهد بود، یکی از اولین انتخابات سال می‌تواند نتیجه بخش‌ترین [انتخابات برای اعمال نفوذ] باشد. تایوان قرار است رئیس جمهور جدید خود را در 13 ژانویه انتخاب کند، تصمیمی که قطعا پیامدهای ژئوپلیتیک گسترده‌ای به دنبال خواهد داشت. در سال گذشته تنش‌ها در اطراف این جزیره در بحبوحه سیاست خارجی تهاجمی فزاینده چین افزایش یافت، جزیره‌ای که پکن آن را به عنوان یک استان دور از سرزمین اصلی می‌داند که باید به این سرزمین بازگردد. چین فشار اقتصادی و نظامی بر تایوان را تشدید کرده است و این فشار احتمالا خود را در تلاش برای ایجاد تفرقه در میان رای دهندگان تایوانی نشان خواهد داد، در این جزیره تمایل سیاسی عمده آنها برای تعامل با چین است.

کمیسیون مرکزی انتخابات تایوان (CEC) در پاسخی کتبی به نشریه فارن پالیس در مورد بزرگترین چالش‌هایی که با آن مواجه است، نوشت: «به‌ویژه هر چه به روز انتخابات نزدیک‌تر می‌وشم، حجم اطلاعات نادرست به حد انفجار می‌رسد و در هر گوشه‌ای نفوذ می‌کند. جستجوی فعال و بررسی اطلاعات نادرست، بار سنگینی بر دوش این کمیسیون است و حقایق و پاسخ‌های پاک‌شده ممکن است در حجم زیادی از اطلاعات نادرست کمرنگ شوند».

کمیسیون مرکزی انتخابات تایوان نقش خود را بیشتر به عنوان تلاشی مشترک، مشارکت با شرکت‌های بزرگ رسانه‌های اجتماعی و تعامل با همتایان خود در کشورهای دیگر از طریق عضویت در انجمن سازمان‌های جهانی انتخابات می‌داند. همچنین این کمیسیون میزبان هیئت‌های آمریکایی، بریتانیایی و اروپایی هم بوده است.

یکی از ظرافت‌های نجات‌دهنده، جمعیت فوق‌العاده آشنای تایوان با فن‌آوری اطلاعات است که سال‌ها با فشار [تلاش‌های منفی] آنلاین چین دست و پنجه نرم می‌کنند و و بسیار بیشتر از کمپین‌های اطلاعات نادرست با هم هماهنگ هستند. سیل اطلاعات نادرست در جریان آخرین انتخابات جزیره تایوان در سال 2020، باعث شکست رئیس جمهور فعلی تسای اینگ ون نشد، رئیس‌جمهوری که حزب دموکراتیک ترقی خواه آن به مراتب کمتر از اپوزیسیون اصلی که برنده انتخابات مجدد کومینتانگ است، طرفدار چین است. لو ناچمن، استاد دانشگاه ملی چنگچی در تایپه می‌گوید « در واقع بسیاری از این کمپین‌های اطلاعاتی [در تایوان] کارآمد نیستند، یا حداقل این کمپین‌ها به شکلی کار نمی‌کنند که چین آنها را در نظر داشته باشد. حداقل خودآگاهی بیش‌تری نسبت به سال‌های پیشین وجود دارد، به‌ویژه زمانی که در مورد چیزی مرتبط با چین بخواهیم نظر بگیریم.»

واشنگتن به دقت این مسائل را زیر نظر خواهد داشت. الیزابت آلن، معاون وزیر امور خارجه آمریکا در امور دیپلماسی عمومی و امور عمومی، در مصاحبه‌ای می‌گوید: «آنچه می‌توانم به شما بگویم این است که خود تایوانی‌ها برخی از برجسته‌ترین متخصصان را در مقابله با اطلاعات نادرست دارند، آنها مهمترین توانایی‌های تحلیلی را دارند و در واقع ما در حال گفت‌وگو با آنها درباره فضای اطلاعاتی آنها هستیم. این به نفع ماست که یک انتخابات آزاد و عادلانه در تایوان برگزار شود.»

هاربث هم هشدار می‌دهد که استفاده چین از اطلاعات نادرست به عنوان یک ابزار ژئوپلیتیکی پیامدهای بالقوه گسترده‌ای فراتر از تایوان یا ایالات متحده به دنبال خواهد داشت. او معتقد است «آنها به اندازه کافی برای تحریک مردم در ایالات متحده و اتحادیه اروپا تلاش خواهند کرد، اما تلاش واقعی آنها در آمریکای جنوبی و آفریقا خواهد بود.» در فضای پرتنش ژئوپلیتیک امروزی، با عمیق شدن شکاف بین دموکراسی و استبداد، خطر اطلاعات نادرست انتخاباتی هرگز بالاتر از این نبوده است. ایلین دوناهو، فرستاده ویژه وزارت امور خارجه و هماهنگ کننده آزادی دیجیتال، به فارن پالیسی گفت: «از بین رفتن اعتماد به یکپارچگی انتخابات، اعتماد به دموکراسی را از بین می‌برد. ما در بحبوحه یک پدیده جهانی رو به رشد هستیم که در آن اعتماد و اطمینان به هر سه حوزه اطلاعات، انتخابات، و حکومت‌های دموکراتیک  در حال تضعیف است. این یک چالش ذاتی فرامرزی و جهانی است.»

برچسب ها
مشاهده بیشتر

فاطمه لطفی

• فوق لیسانس مهندسی محیط زیست • خبرنگار تخصصی انرژی • مترجم کتابهای عطش بزرگ، تصفیه پسابهای صنعتی، تصفیه آب، استفاده مجدد از آبهای صنعتی، فرایندها و عملیات واحد در تصفیه آب و ساز و کار توسعه پاک

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
بستن
بستن