هوش مصنوعی و جنگ هسته‌ای ؛ یک ویدئو تا آخرالزمان فاصله است!

پیشرفت سریع هوش مصنوعی، در کنار مزیت‌های آشکار آن برای ارتقای کارایی نظام‌های اطلاعاتی و دفاعی، یک تهدید پنهان اما بالقوه فاجعه‌بار را نیز وارد معادلات امنیت جهانی کرده است؛ خطر تصمیم‌گیری‌های هسته‌ای بر مبنای اطلاعات جعلی، تحریف‌شده یا نادرست. تجربه تاریخی جنگ سرد نشان می‌دهد که حتی یک خطای کوچک در سامانه‌های هشدار زودهنگام می‌تواند جهان را تا آستانه نابودی پیش ببرد.

به گزارش پایگاه خبری پیام خلیج فارس،  از نخستین روزهای ورود بشر به عصر تسلیحات هسته‌ای، یکی از اصلی‌ترین دغدغه‌های سیاست‌گذاران و استراتژیست‌ها، جلوگیری از استفاده اشتباهی از این سلاح‌ها بوده است. خاطره جنگ سرد و رقابت تسلیحاتی میان قدرت‌های بزرگ، مملو از لحظاتی است که تنها یک سوءبرداشت یا خطای فنی می‌توانست به جنگی ویرانگر منجر شود. نمونه مشهور آن، ماجرای هشدار اشتباه سامانه شوروی در سال ۱۹۸۳ است؛ زمانی که یک افسر، برخلاف داده‌های سیستم، تشخیص داد حمله‌ای در کار نیست و با همین تصمیم، از یک فاجعه جهانی جلوگیری شد. این رویداد تاریخی نشان داد که حتی پیشرفته‌ترین سامانه‌های هشدار نیز مصون از خطا نیستند و نقش قضاوت انسانی تا چه اندازه حیاتی است.

با گذشت چند دهه، اگرچه فناوری‌های هشدار و نظارت پیشرفته‌تر شده‌اند، اما اصل خطر همچنان پابرجاست. تفاوت امروز با گذشته در این است که عامل جدیدی به این معادله افزوده شده است؛ هوش مصنوعی که نه‌تنها احتمال خطا را از بین نمی‌برد، بلکه می‌تواند آن را پنهان‌تر و متقاعدکننده‌تر کند.

هوش مصنوعی و چهره جدید ناامنی هسته‌ای

گسترش سریع فناوری‌های مبتنی بر هوش مصنوعی، تهدیدهای تازه‌ای را برای ثبات هسته‌ای به همراه آورده است. یکی از نگرانی‌های کلاسیک، واگذاری تصمیم استفاده از سلاح هسته‌ای به ماشین‌ها بود؛ مسئله‌ای که برخی کشورها به‌طور رسمی تلاش کرده‌اند با تأکید بر کنترل انسانی آن را مهار کنند. اعلام این اصل که تصمیم نهایی برای استفاده یا عدم استفاده از سلاح هسته‌ای باید همواره در اختیار انسان باشد، پاسخی به همین نگرانی است.

با این حال، خطر اصلی در جایی پنهان شده که کمتر مورد توجه عمومی قرار گرفته است؛ نقش هوش مصنوعی در تولید، پردازش و انتشار اطلاعات. فناوری‌های جدید امکان تولید دیپ‌فیک‌ها، یعنی ویدئوها، صداها و تصاویر جعلی اما بسیار واقعی را فراهم کرده‌اند. این ابزارها می‌توانند روایت‌های کاملاً ساختگی را به شکلی ارائه دهند که تشخیص واقعیت از جعل، حتی برای تصمیم‌گیران ارشد، دشوار شود.

نمونه‌های عملی این خطر پیش‌تر نیز دیده شده است؛ از ویدئوهای جعلی منتسب به رهبران سیاسی در زمان جنگ گرفته تا پیام‌هایی که به‌طور موقت افکار عمومی و حتی نهادهای رسمی را دچار سردرگمی کرده‌اند. آنچه این پدیده را در حوزه هسته‌ای خطرناک‌تر می‌کند، سرعت بالای تصمیم‌گیری و حساسیت فوق‌العاده اطلاعات است. در چنین فضایی، حتی چند دقیقه باور به یک خبر جعلی می‌تواند پیامدهای جبران‌ناپذیری داشته باشد.

بحران‌های زنجیره‌ای در عصر اطلاعات جعلی

ساختار تصمیم‌گیری هسته‌ای در برخی کشورها به گونه‌ای طراحی شده که رهبر سیاسی، اختیار گسترده‌ای برای صدور دستور استفاده از این سلاح‌ها دارد. از لحظه تشخیص یک حمله احتمالی تا زمان واکنش، گاه تنها چند دقیقه فاصله است. سامانه‌های شلیک در صورت هشدار دقیقاً بر همین منطق بنا شده‌اند؛ واکنش سریع پیش از آنکه حمله دشمن به نتیجه برسد.

در چنین شرایطی، اگر اطلاعات ورودی به این چرخه تصمیم‌گیری آلوده به داده‌های جعلی یا تحلیل‌های نادرست مبتنی بر هوش مصنوعی شود، خطر بروز بحران‌های زنجیره‌ای به‌شدت افزایش می‌یابد. سامانه‌های مبتنی بر هوش مصنوعی ممکن است به دلایل مختلف، از جمله آموزش بر داده‌های ناقص یا شبیه‌سازی‌شده، دچار توهم شوند و حمله‌ای را تشخیص دهند که وجود خارجی ندارد. پیچیدگی این سیستم‌ها نیز باعث می‌شود که کاربران انسانی نتوانند به‌سادگی منطق درونی تصمیم ماشین را بررسی یا راستی‌آزمایی کنند.

از سوی دیگر، دیپ‌فیک‌های منتشرشده در رسانه‌های عمومی نیز می‌توانند به‌عنوان شواهد تکمیلی، فضای روانی تصمیم‌گیران را تحت تأثیر قرار دهند. یک ویدئوی جعلی از اعلام بسیج نظامی یا یک پیام صوتی ساختگی می‌تواند به‌اشتباه به‌عنوان نشانه‌ای از آغاز حمله تعبیر شود و زنجیره‌ای از تصمیمات شتاب‌زده را فعال کند.

مرزهای مجاز و غیرمجاز استفاده از هوش مصنوعی

در سال‌های اخیر، استفاده از هوش مصنوعی در ساختارهای نظامی و امنیتی به‌طور جدی در دستور کار قرار گرفته است. این فناوری توانسته در حوزه‌هایی مانند بهینه‌سازی لجستیک، نگهداری تجهیزات، ترجمه و تحلیل داده‌های اطلاعاتی، کارایی قابل‌توجهی ایجاد کند. با این حال، تعمیم بی‌محابای این ابزارها به حساس‌ترین لایه‌های تصمیم‌گیری، به‌ویژه در حوزه هسته‌ای، می‌تواند پرهزینه باشد.

پیاده‌سازی هوش مصنوعی نباید یک پروژه همه یا هیچ تلقی شود. برخی حوزه‌ها، مانند سامانه‌های هشدار زودهنگام هسته‌ای و فرماندهی و کنترل، به‌دلیل ماهیت خاص خود، باید عملاً خارج از دسترس هوش مصنوعی باقی بمانند. نبود داده‌های واقعی کافی، وابستگی به داده‌های شبیه‌سازی‌شده و خطر خطاهای اعتماد به نفس کاذب، استفاده از این فناوری‌ها را در این حوزه‌ها به‌شدت پرریسک می‌کند.

جایگزینی قضاوت انسانی با تحلیل ماشینی، به‌ویژه در شرایط بحرانی، می‌تواند به سوءبرداشت، تعصب الگوریتمی و خطاهای سیستماتیک منجر شود. به همین دلیل، حتی در صورت استفاده محدود از ابزارهای خودکار، باید استانداردهای سخت‌گیرانه‌تری برای کنترل انسانی، راستی‌آزمایی چندلایه و استفاده از داده‌های تأییدشده در نظر گرفته شود.

ضرورت بازاندیشی در سیاست‌های هسته‌ای

افزایش تنش‌های ژئوپلیتیکی، گسترش زرادخانه‌های هسته‌ای و تضعیف رژیم‌های کنترل تسلیحات، همگی نشان می‌دهند که خطر جنگ هسته‌ای در جهان امروز کمتر از گذشته نیست. در چنین فضایی، ورود هوش مصنوعی به زنجیره اطلاعاتی تصمیم‌گیری هسته‌ای، بدون بازنگری عمیق در سیاست‌ها و سازوکارهای موجود، می‌تواند این خطر را تشدید کند.

یکی از پیشنهادهای کلیدی مطرح‌شده، بهبود شفافیت درباره منشأ داده‌های مبتنی بر هوش مصنوعی است. تحلیل‌گران و سیاست‌گذاران باید بدانند که کدام بخش از اطلاعات ارائه‌شده، حاصل تحلیل انسانی و کدام بخش تولید یا تقویت‌شده توسط ماشین است. آموزش هدفمند برای افزایش حساسیت تصمیم‌گیران نسبت به محتوای غیرقابل‌راستی‌آزمایی نیز اهمیت ویژه‌ای دارد.

در کنار این موارد، بازنگری در قواعد تصمیم‌گیری سریع هسته‌ای نیز مطرح می‌شود. با توجه به توانایی‌های واکنش دوم، می‌توان استدلال کرد که دقت و صحت اطلاعات باید بر سرعت تصمیم‌گیری اولویت پیدا کند. الزام به مشورت‌های گسترده‌تر یا ایجاد وقفه برای تأیید اطلاعات، می‌تواند به‌عنوان سدهای نهادی در برابر تصمیمات شتاب‌زده عمل کند.

انسان، آخرین سد در برابر فاجعه

هوش مصنوعی، برخلاف تصور رایج، لزوماً عامل کاهش خطا در حوزه امنیت هسته‌ای نیست. این فناوری می‌تواند تصمیم‌گیران را به دیدن حمله‌ای متقاعد کند که وجود ندارد و با ایجاد قطعیت کاذب، زمینه‌ساز بدترین سناریوهای ممکن شود. تجربه تاریخی نشان داده است که گفت‌وگو، دیپلماسی و قضاوت انسانی، مهم‌ترین عوامل جلوگیری از سوءتفاهم‌های مرگبار بوده‌اند.

حفاظت از جهان در برابر فاجعه هسته‌ای، بیش از هر چیز، به حفظ نقش انسان در حساس‌ترین نقاط تصمیم‌گیری وابسته است. سیاست‌ها و رویه‌هایی که این اصل را تضعیف کنند، حتی اگر با نیت افزایش کارایی طراحی شده باشند، می‌توانند پیامدهایی بسیار فراتر از تصور به همراه داشته باشند.