در جهان امروز، هوش مصنوعی به یکی از عناصر بنیادین در بسیاری از حوزههای مرتبط با انسان تبدیل شده است. یکی از این حوزهها که نگرانیهای فراوانی برانگیخته، عرصه نظامی است. برخلاف فناوریهایی نظیر تسلیحات هستهای که در انحصار دولتها باقی ماندهاند، هوش مصنوعی به شکلی گسترده و عمومی در دسترس است؛ موضوعی که امکان بهرهگیری از آن را در عملیات تروریستی نیز فراهم میسازد. افزون بر آن، کاربردهای هوش مصنوعی صرفاً محدود به جنگهای فیزیکی نیست، بلکه میتوان از آن در حوزههایی چون جنگهای سایبری، روانی و شناختی نیز بهره برد. نمونهای روشن از این مسئله را میتوان در جنگ اوکراین دید؛ جایی که از هوش مصنوعی هم برای شناسایی اهداف نظامی استفاده میشود و هم در بسترهایی مانند شبکه اجتماعی تیکتاک، در شکلدهی به جنگ روایتها نقش ایفا میکند. نشریه The New Yorker در گزارشی با عنوان «تماشای نخستین جنگ تیکتاکی جهان» به تفصیل به این موضوع پرداخته است. در چنین شرایطی، این پرسش اساسی مطرح میشود: در برابر گسترش تسلیحاتی و شناختی هوش مصنوعی چه باید کرد؟
چالش حکمرانی جهانی در عصر تسلیحات هوش مصنوعی: سه هشدار مهم
با گسترش روزافزون کاربردهای نظامی هوش مصنوعی، این پرسش بهطور جدی مطرح شده است که در برابر چنین روندی چه باید کرد؟ دِنیز گارسیا، در کتاب «رقابت تسلیحاتی در حوزه هوش مصنوعی؛ حکمرانی بر پایه خیر عمومی در عصر هوش مصنوعی» (The AI Military Race: Common Good Governance in the Age of Artificial Intelligence)، پاسخ این پرسش را در اصلاح بنیادین شیوه حکمرانی جهانی میداند. به باور او، این مسئله صرفاً چالشی فنی یا ملی نیست، بلکه موضوعی بینالمللی است که مستلزم اقدام هماهنگ نهادهای جهانی است. گارسیا سه دلیل محوری را برای لزوم این تغییر در حکمرانی برمیشمارد:
- خطر تصمیمگیری زودهنگام و نادقیق توسط سامانههای هوش مصنوعی: با وجود پیشرفتهای چشمگیر، هنوز مشخص نیست که فرایند یادگیری در هوش مصنوعی دقیقاً چگونه عمل میکند. این عدم شفافیت، ریسک بروز خطاهای ویرانگر را در تصمیمهای نظامی افزایش میدهد.
- افزایش نابرابری ناشی از سرمایهگذاریهای کلان نظامی: قدرتهایی مانند ایالات متحده و چین سرمایهگذاریهای گستردهای در توسعه تسلیحات مبتنی بر هوش مصنوعی انجام دادهاند، در حالیکه بسیاری از کشورهای دیگر اساساً فاقد چنین ظرفیت مالی و فناورانهای هستند. از سوی دیگر، بحرانهایی نظیر پاندمی کرونا و فرسایش اعتماد عمومی موجب کاهش توان نظارتی جوامع بر دولتهایشان شده است؛ امری که میتواند زمینهساز تصمیمگیریهای غیرشفاف و گسترش فعالیتهای نظامی خارج از چارچوب پاسخگویی عمومی باشد.
- فروپاشی هنجارهای بینالمللی: با افزایش تنشهای ژئوپلیتیک، بسیاری از اصول و هنجارهایی که پس از جنگ جهانی دوم در قالب نظم بینالمللی شکل گرفتند، اکنون در حال زوالاند. توسعه نظامی هوش مصنوعی میتواند به نابودی کامل این چارچوبها منجر شود.
این سه هشدار نشان میدهد که بدون ایجاد چارچوبی نوین و چندجانبه برای حکمرانی، خطرات ناشی از تسلیح هوش مصنوعی نهتنها ملی، بلکه جهانی خواهد بود.
آنچه در اینجا بهعنوان مسئلهای اساسی مطرح میشود، نه صرفاً خودکار بودن عملکرد هوش مصنوعی، بلکه نبود یا محدود بودن نظارت انسانی بر تصمیمات این فناوری است. بهبیان دیگر، خودکار بودن سیستمهای هوش مصنوعی لزوماً بحرانی ایجاد نمیکند؛ آنچه که میتواند بحران ایجاد کند، فقدان کنترل انسانی بر فرآیند تصمیمگیری است، امری که میتواند پیامدهایی مرگبار بهدنبال داشته باشد. این نگرانی بهویژه در حوزه نظامی جدیتر میشود، جایی که از هوش مصنوعی برای شناسایی و هدفگیری استفاده میشود. چنانچه فرآیند انتخاب و حمله به اهداف بدون مداخله انسانی و بهصورت کاملاً خودکار صورت گیرد، احتمال بروز خطاهای فاجعهبار و نقض اصول اخلاقی و انسانی بهشدت افزایش خواهد یافت.
نقش فزاینده پهپادهای مجهز به هوش مصنوعی در جنگ اوکراین: هشداری برای آینده نبردهای نظامی
یکی از ملموسترین مصادیق استفاده از هوش مصنوعی در میدان جنگ را میتوان در نبرد میان روسیه و اوکراین مشاهده کرد. بر اساس گزارشی که در ژوئن ۲۰۲۵ توسط Euromaidan Press منتشر شده، بیش از ۷۰ درصد تلفات نیروهای نظامی در این جنگ ناشی از حملات پهپادی است؛ رقمی که بهروشنی نشاندهنده تغییر در الگوی درگیریهای نظامی است.
آنچه این تحول را نگرانکنندهتر میسازد، تجهیز بسیاری از این پهپادها به سامانههای هوش مصنوعی است. این سامانهها امکان شناسایی، هدفگیری و حتی اجرای حمله بدون مداخله مستقیم انسان را فراهم میکنند؛ بهویژه در شرایطی که زمان تصمیمگیری بسیار محدود و در حد چند ثانیه است. این توانایی برای انجام عملیات مستقل، اگرچه از نظر تاکتیکی کارآمد به نظر میرسد، اما در نبود نظارت و چارچوب اخلاقی، میتواند به فجایعی غیرقابل کنترل منجر شود.
این گزارش، زنگ خطری جدی برای جامعه بینالمللی است تا نسبت به روند تسلیح هوش مصنوعی و کاهش مداخله انسانی در تصمیمگیریهای نظامی بازاندیشی کند.
پنج پیششرط برای شکلگیری همکاری شبکهای فراملی جهت مقابله با تهدیدات هوش مصنوعی
در مواجهه با خطرات فزاینده ناشی از هوش مصنوعی در عرصه نظامی، این پرسش بهدرستی مطرح میشود که چگونه میتوان به پاسخی جهانی، هماهنگ و مؤثر دست یافت. گارسیا بر این باور است که شکلگیری همکاریهای شبکهای فراملی برای مقابله با این چالش، مستلزم تحقق پنج شرط اساسی است:
تولید دانش مبتنی بر گفتمان مشترک انسانی: نخستین گام، ایجاد فهمی مشترک از مسئله در چارچوبی است که بر بنیان ارزشهای انسانی جهانی استوار باشد و امکان گفتوگوی بینالمللی را فراهم آورد.
ایجاد چارچوبهای احتیاطی و مقررات پیشگیرانه: طراحی و استقرار سازوکارهای حکمرانی و تنظیمگری پیشگیرانه ضروری است تا پیش از آنکه این فناوریها به مرحله بحرانی برسند، امکان مداخله مؤثر وجود داشته باشد.
وجود دستکم یک Epistemic Community: جامعهای از متخصصان حوزههای مختلف که با اشتراک باورهای هنجاری و اصولی، اقدام جمعی را هدایت میکنند. این گروهها با ترکیب روششناسیها و صلاحیتهای حرفهای خود، هدفشان بهبود رفاه انسانی در سطح جهانی است.
نقشآفرینی شبکه کنشگری فراملی: شبکههایی از فعالان مدنی، سازمانهای غیردولتی و نهادهای حقوق بشری که با فعالیت مستمر و تلاش برای اقناع افکار عمومی، مطالبهگری سیاسی و اجتماعی را تقویت میکنند.
تقویت همکاری میان شبکهها برای ایجاد احساس فوریت در اقدام: همکاری میان این شبکهها باید بتواند احساس اضطرار را در سطح جهانی منتقل کرده و زمینه را برای کنش هماهنگ بینالمللی فراهم سازد.
گارسیا با اشاره به تجارب موفق در بحرانهایی مانند پاندمی کرونا—در تولید و توزیع واکسن—و همچنین تلاشهای جهانی برای مقابله با تغییرات اقلیمی، این الگوی همکاری فراملی را قابل تعمیم به دیگر حوزههای حکمرانی جهانی نیز میداند؛ از جمله برای مقابله با تهدیدات اخلاقی و امنیتی ناشی از تسلیح هوش مصنوعی.
جمعبندی
ورود هوش مصنوعی به عرصه نظامی، یکی از چالشبرانگیزترین تحولات عصر دیجیتال است. برخلاف فناوریهای کنترلشدهای چون تسلیحات هستهای، دسترسی عمومی و گسترده به هوش مصنوعی، خطر استفاده خودسرانه و بدون نظارت انسانی را بهشدت افزایش داده است. تجربه جنگ اوکراین نشان میدهد که این فناوری میتواند در عملیات مرگبار و بدون دخالت انسان بهکار رود، آنهم در بستری که چارچوبهای اخلاقی و حقوقی پاسخگو نیستند.
دنیز گارسیا تأکید میکند که این وضعیت، نیازمند بازاندیشی در حکمرانی جهانی است. او ضمن هشدار نسبت به پیامدهای تصمیمگیری نادقیق، نابرابری فناورانه و فروپاشی هنجارهای بینالمللی، پنج پیششرط برای ایجاد همکاری فراملی جهت مهار تسلیحات هوش مصنوعی مطرح میکند؛ از جمله تولید دانش مشترک، تنظیمگری پیشگیرانه و شبکههای کنشگری جهانی.
در نهایت، بدون اقدام هماهنگ و چندجانبه، تهدیدهای ناشی از هوش مصنوعی نهفقط نظامی، بلکه تمدنی خواهد بود.
منابع
- Ferguson, C. (2025, June 14). Drones rack up 70% of troop losses in the Ukraine war—and AI’s killing spree will make it worse. Euromaidan Press. https://euromaidanpress.com/2025/06/14/drones-rack-up-70-of-troop-losses-in-the-ukraine-war-and-ais-killing-spree-will-make-it-worse/
- Garcia, D. (2022). The AI Military Race: Common Good Governance in the Age of Artificial Intelligence. Palgrave Macmillan.
- Tolentino, J. (2022, March 14). Watching the world’s first TikTok war. The New Yorker. https://www.newyorker.com/culture/infinite-scroll/watching-the-worlds-first-tiktok-war