هوش مصنوعی، جنگ و حکمرانی

اندیشکده افرا
اندیشکده افرا

در جهان امروز، هوش مصنوعی به یکی از عناصر بنیادین در بسیاری از حوزه‌های مرتبط با انسان تبدیل شده است. یکی از این حوزه‌ها که نگرانی‌های فراوانی برانگیخته، عرصه نظامی است. برخلاف فناوری‌هایی نظیر تسلیحات هسته‌ای که در انحصار دولت‌ها باقی مانده‌اند، هوش مصنوعی به شکلی گسترده و عمومی در دسترس است؛ موضوعی که امکان بهره‌گیری از آن را در عملیات تروریستی نیز فراهم می‌سازد. افزون بر آن، کاربردهای هوش مصنوعی صرفاً محدود به جنگ‌های فیزیکی نیست، بلکه می‌توان از آن در حوزه‌هایی چون جنگ‌های سایبری، روانی و شناختی نیز بهره برد. نمونه‌ای روشن از این مسئله را می‌توان در جنگ اوکراین دید؛ جایی که از هوش مصنوعی هم برای شناسایی اهداف نظامی استفاده می‌شود و هم در بسترهایی مانند شبکه اجتماعی تیک‌تاک، در شکل‌دهی به جنگ روایت‌ها نقش ایفا می‌کند. نشریه The New Yorker در گزارشی با عنوان «تماشای نخستین جنگ تیک‌تاکی جهان» به تفصیل به این موضوع پرداخته است. در چنین شرایطی، این پرسش اساسی مطرح می‌شود: در برابر گسترش تسلیحاتی و شناختی هوش مصنوعی چه باید کرد؟

چالش حکمرانی جهانی در عصر تسلیحات هوش مصنوعی: سه هشدار مهم 

با گسترش روزافزون کاربردهای نظامی هوش مصنوعی، این پرسش به‌طور جدی مطرح شده است که در برابر چنین روندی چه باید کرد؟ دِنیز گارسیا، در کتاب «رقابت تسلیحاتی در حوزه هوش مصنوعی؛ حکمرانی بر پایه خیر عمومی در عصر هوش مصنوعی» (The AI Military Race: Common Good Governance in the Age of Artificial Intelligence)، پاسخ این پرسش را در اصلاح بنیادین شیوه حکمرانی جهانی می‌داند. به باور او، این مسئله صرفاً چالشی فنی یا ملی نیست، بلکه موضوعی بین‌المللی است که مستلزم اقدام هماهنگ نهادهای جهانی است. گارسیا سه دلیل محوری را برای لزوم این تغییر در حکمرانی برمی‌شمارد:

  1. خطر تصمیم‌گیری زودهنگام و نادقیق توسط سامانه‌های هوش مصنوعی: با وجود پیشرفت‌های چشمگیر، هنوز مشخص نیست که فرایند یادگیری در هوش مصنوعی دقیقاً چگونه عمل می‌کند. این عدم شفافیت، ریسک بروز خطاهای ویرانگر را در تصمیم‌های نظامی افزایش می‌دهد.
  2. افزایش نابرابری ناشی از سرمایه‌گذاری‌های کلان نظامی: قدرت‌هایی مانند ایالات متحده و چین سرمایه‌گذاری‌های گسترده‌ای در توسعه تسلیحات مبتنی بر هوش مصنوعی انجام داده‌اند، در حالی‌که بسیاری از کشورهای دیگر اساساً فاقد چنین ظرفیت مالی و فناورانه‌ای هستند. از سوی دیگر، بحران‌هایی نظیر پاندمی کرونا و فرسایش اعتماد عمومی موجب کاهش توان نظارتی جوامع بر دولت‌هایشان شده است؛ امری که می‌تواند زمینه‌ساز تصمیم‌گیری‌های غیرشفاف و گسترش فعالیت‌های نظامی خارج از چارچوب پاسخ‌گویی عمومی باشد.
  3. فروپاشی هنجارهای بین‌المللی: با افزایش تنش‌های ژئوپلیتیک، بسیاری از اصول و هنجارهایی که پس از جنگ جهانی دوم در قالب نظم بین‌المللی شکل گرفتند، اکنون در حال زوال‌اند. توسعه نظامی هوش مصنوعی می‌تواند به نابودی کامل این چارچوب‌ها منجر شود.

این سه هشدار نشان می‌دهد که بدون ایجاد چارچوبی نوین و چندجانبه برای حکمرانی، خطرات ناشی از تسلیح هوش مصنوعی نه‌تنها ملی، بلکه جهانی خواهد بود.

آنچه در اینجا به‌عنوان مسئله‌ای اساسی مطرح می‌شود، نه صرفاً خودکار بودن عملکرد هوش مصنوعی، بلکه نبود یا محدود بودن نظارت انسانی بر تصمیمات این فناوری است. به‌بیان دیگر، خودکار بودن سیستم‌های هوش مصنوعی لزوماً بحرانی ایجاد نمی‌کند؛ آنچه که می‌تواند بحران ایجاد کند، فقدان کنترل انسانی بر فرآیند تصمیم‌گیری است، امری که می‌تواند پیامدهایی مرگبار به‌دنبال داشته باشد. این نگرانی به‌ویژه در حوزه نظامی جدی‌تر می‌شود، جایی که از هوش مصنوعی برای شناسایی و هدف‌گیری استفاده می‌شود. چنانچه فرآیند انتخاب و حمله به اهداف بدون مداخله انسانی و به‌صورت کاملاً خودکار صورت گیرد، احتمال بروز خطاهای فاجعه‌بار و نقض اصول اخلاقی و انسانی به‌شدت افزایش خواهد یافت.

نقش فزاینده پهپادهای مجهز به هوش مصنوعی در جنگ اوکراین: هشداری برای آینده نبردهای نظامی

یکی از ملموس‌ترین مصادیق استفاده از هوش مصنوعی در میدان جنگ را می‌توان در نبرد میان روسیه و اوکراین مشاهده کرد. بر اساس گزارشی که در ژوئن ۲۰۲۵ توسط Euromaidan Press منتشر شده، بیش از ۷۰ درصد تلفات نیروهای نظامی در این جنگ ناشی از حملات پهپادی است؛ رقمی که به‌روشنی نشان‌دهنده تغییر در الگوی درگیری‌های نظامی است.

آنچه این تحول را نگران‌کننده‌تر می‌سازد، تجهیز بسیاری از این پهپادها به سامانه‌های هوش مصنوعی است. این سامانه‌ها امکان شناسایی، هدف‌گیری و حتی اجرای حمله بدون مداخله مستقیم انسان را فراهم می‌کنند؛ به‌ویژه در شرایطی که زمان تصمیم‌گیری بسیار محدود و در حد چند ثانیه است. این توانایی برای انجام عملیات مستقل، اگرچه از نظر تاکتیکی کارآمد به نظر می‌رسد، اما در نبود نظارت و چارچوب اخلاقی، می‌تواند به فجایعی غیرقابل کنترل منجر شود.

این گزارش، زنگ خطری جدی برای جامعه بین‌المللی است تا نسبت به روند تسلیح هوش مصنوعی و کاهش مداخله انسانی در تصمیم‌گیری‌های نظامی بازاندیشی کند.

پنج پیش‌شرط برای شکل‌گیری همکاری شبکه‌ای فراملی جهت مقابله با تهدیدات هوش مصنوعی

در مواجهه با خطرات فزاینده ناشی از هوش مصنوعی در عرصه نظامی، این پرسش به‌درستی مطرح می‌شود که چگونه می‌توان به پاسخی جهانی، هماهنگ و مؤثر دست یافت. گارسیا بر این باور است که شکل‌گیری همکاری‌های شبکه‌ای فراملی برای مقابله با این چالش، مستلزم تحقق پنج شرط اساسی است:

  1. تولید دانش مبتنی بر گفتمان مشترک انسانی: نخستین گام، ایجاد فهمی مشترک از مسئله در چارچوبی است که بر بنیان ارزش‌های انسانی جهانی استوار باشد و امکان گفت‌وگوی بین‌المللی را فراهم آورد.

  2. ایجاد چارچوب‌های احتیاطی و مقررات پیشگیرانه: طراحی و استقرار سازوکارهای حکمرانی و تنظیم‌گری پیشگیرانه ضروری است تا پیش از آنکه این فناوری‌ها به مرحله بحرانی برسند، امکان مداخله مؤثر وجود داشته باشد.

  3. وجود دست‌کم یک Epistemic Community: جامعه‌ای از متخصصان حوزه‌های مختلف که با اشتراک باورهای هنجاری و اصولی، اقدام جمعی را هدایت می‌کنند. این گروه‌ها با ترکیب روش‌شناسی‌ها و صلاحیت‌های حرفه‌ای خود، هدف‌شان بهبود رفاه انسانی در سطح جهانی است.

  4. نقش‌آفرینی شبکه کنشگری فراملی: شبکه‌هایی از فعالان مدنی، سازمان‌های غیردولتی و نهادهای حقوق بشری که با فعالیت مستمر و تلاش برای اقناع افکار عمومی، مطالبه‌گری سیاسی و اجتماعی را تقویت می‌کنند.

  5. تقویت همکاری میان شبکه‌ها برای ایجاد احساس فوریت در اقدام: همکاری میان این شبکه‌ها باید بتواند احساس اضطرار را در سطح جهانی منتقل کرده و زمینه را برای کنش هماهنگ بین‌المللی فراهم سازد.

گارسیا با اشاره به تجارب موفق در بحران‌هایی مانند پاندمی کرونا—در تولید و توزیع واکسن—و همچنین تلاش‌های جهانی برای مقابله با تغییرات اقلیمی، این الگوی همکاری فراملی را قابل تعمیم به دیگر حوزه‌های حکمرانی جهانی نیز می‌داند؛ از جمله برای مقابله با تهدیدات اخلاقی و امنیتی ناشی از تسلیح هوش مصنوعی.

جمع‌بندی

ورود هوش مصنوعی به عرصه نظامی، یکی از چالش‌برانگیزترین تحولات عصر دیجیتال است. برخلاف فناوری‌های کنترل‌شده‌ای چون تسلیحات هسته‌ای، دسترسی عمومی و گسترده به هوش مصنوعی، خطر استفاده خودسرانه و بدون نظارت انسانی را به‌شدت افزایش داده است. تجربه جنگ اوکراین نشان می‌دهد که این فناوری می‌تواند در عملیات مرگبار و بدون دخالت انسان به‌کار رود، آن‌هم در بستری که چارچوب‌های اخلاقی و حقوقی پاسخ‌گو نیستند.

دنیز گارسیا تأکید می‌کند که این وضعیت، نیازمند بازاندیشی در حکمرانی جهانی است. او ضمن هشدار نسبت به پیامدهای تصمیم‌گیری نادقیق، نابرابری فناورانه و فروپاشی هنجارهای بین‌المللی، پنج پیش‌شرط برای ایجاد همکاری فراملی جهت مهار تسلیحات هوش مصنوعی مطرح می‌کند؛ از جمله تولید دانش مشترک، تنظیم‌گری پیشگیرانه و شبکه‌های کنشگری جهانی.

در نهایت، بدون اقدام هماهنگ و چندجانبه، تهدیدهای ناشی از هوش مصنوعی نه‌فقط نظامی، بلکه تمدنی خواهد بود.

منابع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مقالات مرتبط