چطور «دیپ‌فیک‌ها» می‌توانند فاجعه آخرالزمانی را موجب شوند

چطور «دیپ‌فیک‌ها» می‌توانند فاجعه آخرالزمانی را موجب شوند

گسترش سریع فناوری‌های هوش مصنوعی، به‌ویژه دیپ‌فیک‌ها، خطر بروز خطاهای مرگبار در تصمیم‌گیری‌های هسته‌ای را افزایش داده و می‌تواند جهان را به‌سوی یک جنگ هسته‌ای ناخواسته سوق دهد.

به گزارش ایسنا، رسانه آمریکایی در مقاله‌ای تأکید می‌کند که گسترش سریع هوش مصنوعی، به‌ویژه فناوری «دیپ‌فِیک»، خطرات تازه و بسیار جدی‌ای را وارد فرآیند تصمیم‌گیری هسته‌ای کرده و می‌تواند احتمال وقوع جنگ هسته‌ای تصادفی را به‌طور چشمگیری افزایش دهد.

نشریه «فارن افرز» می‌نویسد گرچه کشورهای دارای سلاح هسته‌ای دهه‌هاست تلاش کرده‌اند از شلیک اشتباهی این سلاح‌ها جلوگیری کنند، اما خطر محاسبه غلط امروز به همان اندازه دوران جنگ سرد جدی است و حتی به‌دلیل اطلاعات نادرست مبتنی بر هوش مصنوعی می‌تواند شدیدتر هم باشد.

نشانه‌های تاریخی خطای هسته‌ای

رسانه آمریکایی با اشاره به یک نمونه تاریخی یادآوری می‌کند که جهان پیش‌تر نیز تا آستانه فاجعه هسته‌ای پیش رفته است. در سال ۱۹۸۳، سامانه هشدار زودهنگام اتحاد جماهیر شوروی به‌اشتباه اعلام کرد که آمریکا حمله هسته‌ای را آغاز کرده است. بنا به روایت مقاله، تنها به این دلیل که افسر شیفت، «استانیسلاو پتروف»، این هشدار را نادرست تشخیص داد، از یک ضدحمله ویرانگر جلوگیری شد. نویسنده تأکید می‌کند اگر تصمیم پتروف متفاوت بود، رهبران شوروی می‌توانستند مرگبارترین سلاح‌های جهان را علیه ایالات متحده شلیک کنند. این رویداد، به‌گفته مقاله، نشان می‌دهد ثبات هسته‌ای همواره تا چه اندازه شکننده بوده است.

به نوشته فارن افرز، گسترش هوش مصنوعی این خطرات دیرینه را تشدید کرده است. یکی از نگرانی‌ها، امکان واگذاری تصمیم استفاده از سلاح هسته‌ای به ماشین‌هاست. مقاله یادآور می‌شود که ایالات متحده رسماً با چنین رویکردی مخالفت کرده و طبق «راهبرد دفاع ملی ۲۰۲۲»، انسان همواره «در حلقه تصمیم‌گیری» درباره استفاده یا عدم استفاده از سلاح هسته‌ای باقی خواهد ماند. فارن افرز همچنین به توافق اعلامی میان «جو بایدن» رئیس‌جمهور سابق آمریکا و «شی جین‌پینگ» رئیس‌جمهور چین اشاره می‌کند که بر ضرورت کنترل انسانی بر تصمیم استفاده از سلاح هسته‌ای تأکید کرده‌اند. با این حال، مقاله هشدار می‌دهد که حتی بدون واگذاری مستقیم تصمیم به ماشین‌ها، هوش مصنوعی تهدیدهای غیرمستقیم و خطرناکی برای امنیت هسته‌ای ایجاد می‌کند.

دیپ‌فیک‌ها و خطر تصمیم‌گیری در شرایط خطا

این مقاله خطر اصلی را در رشد دیپ‌فیک‌ها می‌داند؛ ویدئوها، تصاویر یا فایل‌های صوتی بسیار باورپذیری که برای تولید اطلاعات نادرست به‌کار می‌روند. به نوشته مقاله، این فناوری‌ها پیش‌تر نیز در عرصه ژئوپلیتیک استفاده شده‌اند. از جمله، اندکی پس از آغاز جنگ اوکراین در سال ۲۰۲۲، یک دیپ‌فیک گسترده منتشر شد که در آن رئیس‌جمهور اوکراین ظاهراً از نیروهایش می‌خواست سلاح‌ها را زمین بگذارند. همچنین در سال ۲۰۲۳، یک دیپ‌فیک باعث شد عده‌ای تصور کنند رئیس‌جمهور روسیه بسیج عمومی اعلام کرده است. مقاله استدلال می‌کند که چنین جعل‌هایی در زمینه هسته‌ای می‌تواند به‌مراتب بی‌ثبات‌کننده‌تر باشد.

بر اساس این تحلیل، در بدترین سناریو، یک دیپ‌فیک می‌تواند رهبر یک کشور دارای سلاح هسته‌ای را متقاعد کند که دشمن حمله نخست را آغاز کرده یا در شرف آغاز آن است. همچنین سامانه‌های اطلاعاتی پشتیبانی‌شده با هوش مصنوعی ممکن است هشدارهای نادرستی درباره بسیج نظامی یا حتی حمله با بمب هسته‌ای صادر کنند. در چنین شرایطی، رهبران تنها چند دقیقه فرصت خواهند داشت تا درباره پاسخ هسته‌ای تصمیم بگیرند.

فارن افرز می‌نویسد دولت کنونی آمریکا به‌طور فعال در پی به‌کارگیری هوش مصنوعی در زیرساخت‌های امنیت ملی است، از جمله اقداماتی مانند انتشار یک برنامه عملیاتی برای استفاده «تهاجمی» از هوش مصنوعی در وزارت جنگ و راه‌اندازی یک پلتفرم جدید مبتنی بر هوش مصنوعی برای کارکنان این وزارتخانه. با این حال، نویسنده هشدار می‌دهد که ادغام هوش مصنوعی در مراحل اولیه تصمیم‌گیری هسته‌ای خطرات فوق‌العاده‌ای به همراه دارد.

ضرورت حفظ عامل انسانی

به گفته نشریه آمریکایی، سامانه‌های هوش مصنوعی مستعد پدیده‌هایی مانند «توهم» و «جعل» هستند؛ یعنی تولید پاسخ‌های نادرست اما با اعتمادبه‌نفس بالا. از آنجا که منطق درونی این سامانه‌ها اغلب شفاف نیست، کاربران انسانی ممکن است ندانند چرا یک سیستم به نتیجه‌ای خاص رسیده است. مقاله به پژوهش‌هایی اشاره می‌کند که نشان می‌دهد افراد با آشنایی متوسط با هوش مصنوعی، حتی در حوزه امنیت ملی، به خروجی هوض مصنوعی اعتماد دارند.

فارن افرز هشدار می‌دهد این وضعیت می‌تواند به بحران‌های زنجیره‌ای منجر شود. اگر سامانه‌های هوش مصنوعی برای تفسیر داده‌های هشدار زودهنگام به‌کار گرفته شوند، ممکن است حمله‌ای را تشخیص دهند که در واقع وجود ندارد؛ وضعیتی مشابه آنچه پتروف در سال ۱۹۸۳ با آن روبه‌رو شد، اما با زمان کمتر و ابهام بیشتر. بدون آموزش و سازوکارهای مناسب، مشاوران و تصمیم‌گیران ممکن است اطلاعات تولیدشده توسط هوش مصنوعی را معتبر فرض کنند.

این مقاله همچنین تأکید می‌کند دیپ‌فیک‌های منتشرشده در فضای مجازی نیز تقریباً به همان اندازه خطرناک‌اند. یک رهبر ممکن است پس از دیدن یک ویدئوی جعلی، آزمایش موشکی یا رزمایش نظامی را به‌اشتباه حمله تلقی کند. به‌گفته نشریه آمریکایی، دیپ‌فیک‌ها می‌توانند برای آغاز جنگ بهانه‌تراشی کنند، افکار عمومی را تحریک کنند یا در بحبوحه بحران، سردرگمی ایجاد کنند.

در عین حال، فارن افرز می‌پذیرد که هوش مصنوعی کاربردهای مشروعی در حوزه نظامی دارد؛ از لجستیک و نگهداری گرفته تا ترجمه و تحلیل تصاویر ماهواره‌ای. اما نویسنده تأکید می‌کند برخی حوزه‌ها، به‌ویژه سامانه‌های هشدار زودهنگام هسته‌ای و فرماندهی و کنترل هسته‌ای، باید کاملاً از دسترس هوش مصنوعی دور بمانند. به نوشته این مقاله، کمبود داده‌های واقعی درباره حملات هسته‌ای باعث می‌شود آموزش امن چنین سامانه‌هایی تقریباً ناممکن باشد و خطر خطا بسیار بالا برود.

فارن افرز هشدار می‌دهد که دیپ‌فیک‌ها و اطلاعات نادرست مبتنی بر هوش مصنوعی، خطرات بی‌سابقه‌ای برای سامانه‌های هسته‌ای ایجاد کرده‌اند؛ بنابراین سیاست‌ها باید به‌صراحت تضمین کنند که ماشین‌ها هرگز بدون کنترل انسانی تصمیم به شلیک هسته‌ای نخواهند گرفت و همه کشورهای دارای سلاح هسته‌ای باید به این اصل پایبند باشند. به‌گفته نویسنده، اگر چنین ملاحظاتی جدی گرفته نشود، هوش مصنوعی می‌تواند جهان را به سوی فاجعه‌ای برگشت‌ناپذیر سوق دهد.

انتهای پیام