
به گزارش روزپلاس، هوش مصنوعی نهتنها ماهیت سامانههای نظامی را دگرگون کرده، بلکه منطق تصمیمگیری و سرعت واکنش دولتها را نیز وارد مرحلهای بیسابقه کرده است.
ادغام مدلهای پیشرفته یادگیری ماشینی در سامانههای نظامی، فرماندهی و کنترل، تحلیل کلانداده، تسلیحات سایبری و حتی پلتفرمهای تسلیحات متعارف و هستهای، رقابتی چندلایه ایجاد کرده که پیامدهای آن بهمراتب فراتر از میدانهای نبرد سنتی است.
این تحول، در کنار افزایش سرعت پردازش و دامنه عملیات، سطح جدیدی از ریسک را وارد معادلات امنیت جهانی کرده است؛ ریسکی که نه فقط نیروهای نظامی، بلکه زیرساختهای حیاتی، شبکههای اقتصادی، محیطزیست و حتی امنیت انسانی را در ابعاد وجودی تهدید میکند.
این وضعیت بهتدریج معماری جدید رقابت فناورانه را شکل داده که در آن کشورها بهدنبال برتری عملیاتی، سرعت تصمیمگیری بیشتر و قابلیتهای هوشافزوده در محیطهای پیچیده هستند. اما همین مزیتهای عملیاتی، در غیاب قواعد مشترک و مکانیسمهای کنترلکننده، میتواند به اشتباهات فاجعهبار، سوءبرداشتهای راهبردی و چرخههای تشدید ناخواسته تنش منجر شود. از همین روی، ضرورت ایجاد چارچوبهای حکمرانی، بیش از هر زمان دیگر برجسته شده است.
این نوشتار کوتاه با اتکا به چارچوب تحلیلی ارائهشده در سند مشترک اندیشکده بروکینگز و دانشگاه تسینگهوا، تلاش میکند تصویری منسجم از ماهیت این خطرات، منطق شکلگیری بحرانهای مبتنی بر هوش مصنوعی و نیازهای فوری برای شکلدهی به یک رژیم حکمرانی مشترک میان ایالات متحده و چین ارائه دهد؛ رژیمی که بتواند از بروز بحران جلوگیری کند و در صورت وقوع، پیامدهای آن را مدیریتپذیر سازد.
اهمیت حکمرانی هوش مصنوعی نظامی
پیشرفتهای سریع در مدلها و معماریهای نوین هوش مصنوعی موجب شده است که کشورها سامانههای نظامی خود را با سرعتی بیسابقه خودکارسازی کنند. این خودکارسازی الزاماً به معنای افزایش دقت و کارایی نیست؛ بلکه احتمال بروز خطا، سوءبرداشت یا رفتارهای پیشبینیناپذیر را بالا میبرد.
از آنجا که ایالات متحده و چین نقش رهبری در توسعه و انتشار فناوری دارند، مسئولیت آنها برای جلوگیری از بروز بحرانهای نظامی مبتنی بر هوش مصنوعی، بهصورت ذاتی افزایش یافته است. در این چارچوب، دو نوع رژیم حکمرانی قابل تمایز است:
- رژیمهای حکمرانی که بر کاهش احتمال بروز بحران تمرکز دارند.
- رژیمهای آمادگی که با هدف کاهش پیامدهای بحران شکل میگیرند.
به باور کارشناسان، هر دو رژیم زمانی معنادار میشوند که مبتنی بر یک روش تحلیلی مشترک برای اولویتبندی تهدیدها و رفتارها باشند.
چرخه چهارمرحلهای بحرانهای نظامی مبتنی بر هوش مصنوعی
مدل ارائهشده از سوی اندیشکده بروگینگز، یک چارچوب چهارمرحلهای برای درک سازوکار شکلگیری بحرانها پیشنهاد میکند که «آغاز»، «کنش»، «اثر» و «پاسخ» را شامل میشود. این مدل، نقطه تلاقی تصمیمهای انسانی، خطاهای فنی و پویایی سامانههای هوشمند است.
مرحله آغاز: ریشه بحران
بر اساس برآوردهای صورت گرفته، منشأ بحران ممکن است ناشی از سه دسته خطای فنی باشد:
- خطاهای قابلشناسایی مانند نقص الگوریتمی یا دادههای معیوب
- خطاهای غیرقابلشناسایی مرتبط با ساختارهای جعبهسیاه یا رفتارهای خودآموز غیرقابلپیشبینی
- اختلال سیگنالها ناشی از عوامل طبیعی یا فضایی که باعث ورودیهای نادرست میشود
در کنار خطاهای فنی، تصمیمهای انسانی، اعم از اقدام عمدی یا غیرعمدی برای اخلال، تخریب، اختلال سایبری یا حمله توسط سامانههای هوش مصنوعی نیز میتوانند بحران را آغاز کنند.
مرحله کنش: رفتار سامانه
کشورها خطاها یا رفتارهای ناشی از تصمیمات را بهصورت «کنش سامانه» تفسیر میکنند. سامانههای مجهز به هوش مصنوعی ممکن است به دلیل سرعت پردازش بالا، واکنشهایی تولید کنند که از نظر انسانی غیرمنتظره باشد.
مرحله اثر: پیامدهای اولیه بحران
پیامدهای این کنشها از سطح آسیب به زیرساختهای غیرنظامی و نظامی تا تخریب محیطزیست یا تلفات انسانی گسترده متغیر است. در برخی موارد، پیامد به قدری شدید است که کشور هدف، رفتار سامانه را نه بهعنوان خطا، بلکه بهعنوان حمله ارزیابی میکند.
مرحله پاسخ: واکنش متقابل دولتها
پاسخها شامل اقدامات بازدارنده، حمله متقابل، بسیج نیروها یا ورود به یک چرخه تشدید تنش میشود. نکته کلیدی این است که استفاده مجدد از سامانههای هوش مصنوعی در مرحله پاسخ، احتمال خطاهای جدید یا تعبیر نادرست را چند برابر میکند و میتواند به یک مارپیچ تشدید درگیری خارج از کنترل منجر شود.
چالش اولویتبندی ریسکها در حکمرانی نظامی هوش مصنوعی
در چنین شرایطی، بدون یک روش مشترک برای تعیین اولویتها، هیچ توافق دوجانبه یا بینالمللی نمیتواند پایدار باشد. در همین راستا، کارشناسان حوزه هوش مصنوعی، سه روش برای ایجاد سلسلهمراتب خطر معرفی میکند:
-
رویکرد مبتنی بر ریسک (Probability × Seriousness): در این روش خطر تابعی از احتمال وقوع و شدت پیامد محسوب میشود اما چالش اصلی این است که احتمال وقوع خطاهای واقعی در حوزه نظامی هوش مصنوعی قابل اندازهگیری نیست، زیرا تجربه تاریخی کافی در این زمینه وجود ندارد.
-
رویکرد مبتنی بر حجم سناریوهای قابلپیشبینی: در این روش، شمار موقعیتهایی که در آن یک سامانه میتواند بحران ایجاد کند، معیار وزندهی است. با این حال، از آنجا که سناریوها همیشه محدود به تصور تحلیلگران میشود، این روش به صورت ذاتی ناقص میماند.
-
رویکرد مبتنی بر بلوغ فناوری: در این دیدگاه نیز سامانههایی که به زودی وارد چرخه عملیاتی میشوند، اولویت بیشتری دارند؛ اما پویایی پیشرفت فناوری بهقدری سریع است که پیشبینیهای آن ممکن است هر چند ماه نیاز به بازبینی داشته باشد.
بنابراین، به نظر میرسد که هیچیک از این روشها کامل نیست، اما میتواند نقطه شروعی برای گفتوگوی راهبردی میان قدرتهای بزرگ باشد.
موانع فنی و سیاسی برای حکمرانی مشترک
چنانکه کالین کال، عضو ارشد مدعو در نشریه فارین پالسی در تحلیل خود تأکید میکند، ایجاد سازوکارهای حکمرانی نه تنها با دشواریهای فنی، بلکه با چالشهای سیاسی به شرح زیر روبهرو است:
-
دوگانه بودن فناوریها: تمایز سامانههای غیرنظامی و نظامی در هوش مصنوعی تقریباً ناممکن است.
-
عدم شفافیت قابلمشاهده: حتی در حوزه نظامی، تشخیص اینکه یک پهپاد یا ماهواره از هوش مصنوعی بهره میبرد یا خیر، با دادههای علنی میسر نیست.
-
ریسکهای امنیتی ناشی از شفافیت: ایجاد شفافیت برای اعتمادسازی ممکن است به نشت اطلاعات حساس و افزایش تهدیدهای جاسوسی منجر شود.
با این حال، کال توصیه میکند که دو کشور شاخص در این حوزه، یعنی چین و آمریکا باید رویکرد مذکور را دنبال کنند؛ مسیرهایی که حتی با وجود رقابت، ضرری برای هیچیک از طرفین ندارد.
مسیرهای همکاری پیشنهادی برای کاهش بحرانهای مبتنی بر هوش مصنوعی
بر اساس تحلیل ارائهشده از سوی کارشناسان، چند مسیر عملی میتواند برای آغاز همکاری میان قدرتهای بزرگ در عرصه خودکارسازی نظامی دنبال شود:
- تدوین واژهنامه مشترک خطاهای فنی و سطحبندی حوادث
- تعریف مشترک اقدامات خطرناک در حوزه هوش مصنوعی نظامی
- تبادل اصول و فرآیندها برای سامانههای فرماندهی و کنترل
- اطلاعرسانی متقابل درباره رزمایشهای مبتنی بر هوش مصنوعی
- تدوین پروتکلهای ارتباط اضطراری برای سامانههای دارای خطا
- ایجاد تعهدات مشترک برای جلوگیری از جعل رسانهای در کانالهای نظامی
- تثبیت اصل «کنترل انسانی» در همه برخوردهای نظامی زمان صلح
- تعهد مشترک برای عدم استفاده از هوش مصنوعی در مداخله با سامانههای فرماندهی و کنترل هستهای
به عقیده متخصصان، این اقدامات نه یک توافق جامع، بلکه نقطه آغاز اعتمادسازی و کاهش احتمال سوءبرداشت به شمار میروند.
بحران امنیتی ناشی از تنش ساختاری میان آمریکا و چین
شیائو چیان، کارشناس برجسته مرکز امنیت و استراتژی بینالمللی دانشگاه تسینگهوا، حکمرانی هوش مصنوعی را در بستری عمیقتر، یعنی «معضل امنیتی» میان ایالات متحده و چین، قرار میدهد. او با استناد به نظریه جان هرتز، توضیح میدهد که چرا فضای بیاعتمادی ساختاری باعث شده هر اقدام دفاعی یکی از طرفین، از سوی دیگری تهدید تلقی شود.
به باور او، عواملی چون فقدان رژیمهای جهانی الزامآور در حوزه هوش مصنوعی، بیاعتمادی راهبردی عمیق میان چین و آمریکا، رقابت فناورانه، صنعتی و ژئوپلیتیک و محیط بینالملل آکنده از ناامنی و بحرانهای منطقهای، باعث شده حرکت به سمت حکمرانی مشترک بسیار دشوار باشد. او تأکید میکند که در چنین وضعیتی، تنها راه پیشرفت، آغاز بازسازی تدریجی اعتماد است. وی همچنین سه مسیر کلیدی را برای ایجاد یک فضای همکاریپذیر پیشنهاد میکند:
-
بازتعریف رقابت و شفافسازی خطوط قرمز: رقابت اجتنابناپذیر است، اما نباید به رقابت وجودی تبدیل شود. تعریف خطوط قرمز مشترک میتواند مانع از گسترش بیپایان حساسیتهای امنیتی شود.
-
همکاری در حوزه امنیت هوش مصنوعی: دو کشور باید در سه دسته خطر، شامل سوءاستفاده، خطا و ریسکهای سیستمی، استانداردهای مشترک توسعه دهند.
-
تقویت سازوکارهای چندجانبه: با پشتیبانی از نقش سازمان ملل متحد و توسعه سازوکارهای جدید، کشورها میتوانند مسیر ایجاد یک رژیم جهانی قابلقبول را هموار کنند.
جمعبندی
در نهایت، میتوان نتیجه گرفت که تحلیل ارائه شده از سوی کارشناسان، نه یک پیشبینی فناورانه و نه یک طرح جامع حکمرانی است؛ بلکه چارچوب تحلیلی برای آغاز گفتوگوی راهبردی محسوب میشود. این چارچوب بر ضرورت تفکیک مراحل بحران، شناسایی نقاط ابتدای زنجیره و ایجاد یک زبان مشترک برای تحلیل ریسک تأکید دارد. هرچند رقابت فناورانه میان ایالات متحده و چین ادامه خواهد یافت، اما تاریخ نشان داده است که حتی در اوج رقابتهای ژئوپلیتیک، امکان توافق بر سر موضوعات وجودی، مانند کنترل تسلیحات هستهای، وجود دارد.
در عصر هوش مصنوعی، جلوگیری از بحرانهای نظامی مبتنی بر خطا یا سوءبرداشت، یک مسئولیت اخلاقی و راهبردی است. در جهانی که سرعت تصمیمگیری سامانههای هوش مصنوعی میتواند از توان قضاوت انسانی پیشی گیرد، ایجاد ستونهای مشترک حکمرانی تنها راه تضمین ثبات و جلوگیری از فاجعه انسانی به شمار میرود.