اصول حکمرانی هوش مصنوعی در حوزه نظامی ورود به عصر ارتش الگوریتم ها

اصول حکمرانی هوش مصنوعی در حوزه نظامی ورود به عصر ارتش الگوریتم ها

به گزارش دانلود فایل، تحول پرشتاب فناوری های مبتنی بر هوش مصنوعی در حوزه نظامی، یکی از عمیق ترین و ساختارشکن ترین تغییراتی است که نظم امنیت بین الملل در دهه اخیر تجربه کرده است.


به گزارش دانلود فایل به نقل از مهر؛ هوش مصنوعی نه تنها ماهیت سیستم های نظامی را دگرگون کرده، بلکه منطق تصمیم گیری و سرعت واکنش دولت ها را هم وارد مرحله ای بی سابقه کرده است. ادغام مدلهای پیشرفته یادگیری ماشینی در سیستم های نظامی، فرماندهی و کنترل، تحلیل کلان داده، تسلیحات سایبری و حتی پلت فرم های تسلیحات متعارف و هسته ای، رقابتی چندلایه به وجود آورده که دستاوردهای آن بمراتب فراتر از میدان های نبرد سنتی است. این تحول، در کنار افزایش سرعت پردازش و دامنه عملیات، سطح جدیدی از ریسک را وارد معادلات امنیت جهانی کرده است؛ ریسکی که نه فقط نیروهای نظامی، بلکه زیرساخت های حیاتی، شبکه های اقتصادی، محیط زیست و حتی امنیت انسانی را در ابعاد وجودی تهدید می کند. این وضعیت کم کم معماری جدید رقابت فناورانه را شکل داده که در آن کشورها بدنبال برتری عملیاتی، سرعت تصمیم گیری بیشتر و قابلیت های هوش افزوده در محیط های پیچیده هستند. اما همین مزیت های عملیاتی، در غیاب قواعد مشترک و مکانیسم های کنترل کننده، می تواند به اشتباهات فاجعه بار، سوءبرداشت های راهبردی و چرخه های تشدید ناخواسته تنش منجر شود. از همین روی، لزوم ایجاد چارچوب های حکمرانی، بالاتر از هر زمان دیگر برجسته شده است. این نوشتار کوتاه با اتکا به چارچوب تحلیلی عرضه شده در سند مشترک اندیشکده بروکینگز و دانشگاه تسینگهوا، تلاش می کند تصویری منسجم از ماهیت این خطرات، منطق تشکیل بحران های مبتنی بر هوش مصنوعی و نیازهای فوری برای شکل گیری به یک رژیم حکمرانی مشترک میان ایالات متحده و چین عرضه دهد؛ رژیمی که بتواند از بروز بحران جلوگیری نماید و در صورت وقوع، دستاوردهای آنرا مدیریت پذیر سازد.

اهمیت حکمرانی هوش مصنوعی نظامی

پیشرفت های سریع در مدلها و معماری های نوین هوش مصنوعی سبب شده است که کشورها سیستم های نظامی خودرا با سرعتی بی سابقه اتوماسیون کنند. این اتوماسیون الزاماً به مفهوم افزایش دقت و کارآیی نیست؛ بلکه احتمال بروز خطا، سوءبرداشت یا رفتارهای پیش بینی ناپذیر را بالا می برد. از آنجائیکه ایالات متحده و چین نقش رهبری در توسعه و انتشار فناوری دارند، مسئولیت آنها برای پیشگیری از بروز بحران های نظامی مبتنی بر هوش مصنوعی، بصورت ذاتی افزایش پیدا کرده است. در این چارچوب، دو نوع رژیم حکمرانی قابل تمایز است: رژیم های حکمرانی که بر کاهش احتمال بروز بحران تمرکز دارند. رژیم های آمادگی که با هدف کاهش دستاوردهای بحران شکل می گیرند. به باور کارشناسان، هر دو رژیم زمانی معنادار می شوند که مبتنی بر یک روش تحلیلی مشترک برای اولویت بندی تهدیدها و رفتارها باشند.

چرخه چهارمرحله ای بحران های نظامی مبتنی بر هوش مصنوعی

مدل عرضه شده از طرف اندیشکده بروگینگز، یک چارچوب چهارمرحله ای برای درک سازوکار تشکیل بحران ها پیشنهاد می دهد که «آغاز»، «کنش»، «اثر» و «پاسخ» را شامل می شود. این مدل، نقطه تلاقی تصمیم های انسانی، خطاهای فنی و پویایی سیستم های هوشمند است.

مرحله آغاز: ریشه بحران

برمبنای برآوردهای صورت گرفته، منشأ بحران امکان دارد ناشی از سه دسته خطای فنی باشد: خطاهای قابل شناسایی مانند نقص الگوریتمی یا داده های معیوب خطاهای غیرقابل شناسایی در رابطه با ساختارهای جعبه سیاه یا رفتارهای خودآموز غیرقابل پیش بینی اختلال سیگنال ها ناشی از عوامل طبیعی یا فضایی که سبب ورودی های ناصحیح می شود در کنار خطاهای فنی، تصمیم های انسانی، شامل اقدام عمدی یا غیرعمدی برای اخلال، تخریب، اختلال سایبری یا حمله توسط سیستم های هوش مصنوعی هم می توانند بحران را آغاز کنند.

مرحله کنش: رفتار سامانه

کشورها خطاها یا رفتارهای ناشی از تصمیمات را بصورت «کنش سامانه» تفسیر می کنند. سیستم های مجهز به هوش مصنوعی امکان دارد به سبب سرعت پردازش بالا، واکنش هایی تولید کنند که از نظر انسانی غیرمنتظره باشد.

مرحله اثر: دستاوردهای اولیه بحران

دستاوردهای این کنش ها از سطح صدمه به زیرساخت های غیرنظامی و نظامی تا تخریب محیط زیست یا تلفات انسانی گسترده متغیر است. در بعضی موارد، پیامد به قدری شدید می باشد که کشور هدف، رفتار سامانه را نه به عنوان خطا، بلکه به عنوان حمله ارزیابی می نماید.

مرحله پاسخ: واکنش متقابل دولت ها

پاسخ ها شامل اقدامات بازدارنده، حمله متقابل، بسیج نیروها یا ورود به یک چرخه تشدید تنش می شود. نکته کلیدی این است که استفاده مجدد از سیستم های هوش مصنوعی در مرحله پاسخ، احتمال خطاهای جدید یا تعبیر ناصحیح را چند برابر می کند و می تواند به یک مارپیچ تشدید درگیری خارج از کنترل منجر شود.

چالش اولویت بندی ریسک ها در حکمرانی نظامی هوش مصنوعی

در چنین شرایطی، بدون یک روش مشترک برای تعیین اولویت ها، هیچ توافق دوجانبه یا بین المللی نمی تواند پایدار باشد. در این راستا، کارشناسان حوزه هوش مصنوعی، سه روش برای ایجاد سلسله مراتب خطر معرفی می کند: رویکرد مبتنی بر ریسک (Probability × Seriousness): در این تکنیک خطر تابعی از امکان رخداد و شدت پیامد به حساب می آید اما چالش اصلی این است که امکان رخداد خطاهای واقعی در حوزه نظامی هوش مصنوعی قابل اندازه گیری نیست، چونکه تجربه تاریخی کافی در این مورد وجود ندارد. رویکرد مبتنی بر حجم سناریوهای قابل پیش بینی: در این شیوه، شمار موقعیت هایی که در آن یک سامانه می تواند بحران بوجود آورد، معیار وزن دهی است. در عین حال، از آنجائیکه سناریوها همیشه محدود به تصور تحلیل گران می شود، این تکنیک بصورت ذاتی ناقص می ماند. رویکرد مبتنی بر بلوغ فناوری: در این دیدگاه هم سامانه هائی که به زودی وارد چرخه عملیاتی می شوند، اولویت بیشتری دارند؛ اما پویایی پیشرفت فناوری به قدری سریع است که پیش بینی های آن امکان دارد هر چند ماه احتیاج به بازنگری داشته باشد. بنابراین، چنین پیداست که هیچ یک از این تکنیک ها کامل نیست، اما می تواند نقطه شروعی برای گفتگوی راهبردی میان قدرت های بزرگ باشد.

موانع فنی و سیاسی برای حکمرانی مشترک

چنان که کالین کال، عضو ارشد مدعو در نشریه فارین پالسی در تحلیل خود تاکید می کند، ایجاد سازوکارهای حکمرانی نه تنها با دشواری های فنی، بلکه با چالش های سیاسی به شرح زیر رو به رو است: دوگانه بودن فناوری ها: تمایز سیستم های غیرنظامی و نظامی در هوش مصنوعی حدودا ناممکن است. عدم شفافیت قابل مشاهده: حتی در حوزه نظامی، تشخیص این که یک پهپاد یا ماهواره از هوش مصنوعی بهره می برد یا خیر، با داده های علنی میسر نیست. ریسک های امنیتی ناشی از شفافیت: ایجاد شفافیت برای اعتمادسازی امکان دارد به نشت اطلاعات حساس و افزایش تهدیدهای جاسوسی منجر شود. در عین حال، کال سفارش می کند که دو کشور شاخص در این عرصه، یعنی چین و آمریکا باید رویکرد مذکور را دنبال کنند؛ مسیرهایی که حتی با وجود رقابت، ضرری برای هیچ یک از طرفین ندارد.

مسیرهای همکاری پیشنهادی برای کاهش بحران های مبتنی بر هوش مصنوعی

برمبنای تحلیل عرضه شده از طرف کارشناسان، چند مسیر عملی می تواند برای آغاز همکاری میان قدرت های بزرگ در زمینه اتوماسیون نظامی دنبال شود: تدوین واژه نامه مشترک خطاهای فنی و سطح بندی حوادث تعریف مشترک اقدامات خطرناک در حوزه هوش مصنوعی نظامی تبادل اصول و فرآیندها برای سیستم های فرماندهی و کنترل اطلاع رسانی متقابل درباره ی مانور های مبتنی بر هوش مصنوعی تدوین پروتکلهای ارتباط اضطراری برای سیستم های دارای خطا ایجاد تعهدات مشترک برای پیشگیری از جعل رسانه ای در کانال های نظامی تثبیت اصل «کنترل انسانی» در همه برخوردهای نظامی زمان صلح تعهد مشترک برای عدم استفاده از هوش مصنوعی در مداخله با سیستم های فرماندهی و کنترل هسته ای به اعتقاد متخصصان، این اقدامات نه یک توافق جامع، بلکه نقطه آغاز اعتمادسازی و کاهش احتمال سوءبرداشت به شمار می روند.

بحران امنیتی ناشی از تنش ساختاری میان آمریکا و چین

شیائو چیان، کارشناس برجسته مرکز امنیت و استراتژی بین المللی دانشگاه تسینگهوا، حکمرانی هوش مصنوعی را در بستری عمیق تر، یعنی «معضل امنیتی» میان ایالات متحده و چین، قرار می دهد. او با استناد به نظریه جان هرتز، توضیح می دهد که چرا فضای بی اعتمادی ساختاری سبب شده هر اقدام دفاعی یکی از طرفین، از طرف دیگری تهدید تلقی شود. به باور او، عواملی چون فقدان رژیم های جهانی اجبار آور در حوزه هوش مصنوعی، بی اعتمادی راهبردی عمیق میان چین و آمریکا، رقابت فناورانه، صنعتی و ژئوپلیتیک و محیط بین الملل آکنده از ناامنی و بحران های منطقه ای، سبب شده حرکت به سوی حکمرانی مشترک بسیار دشوار باشد. او تاکید می کند که در چنین وضعیتی، تنها راه پیشرفت، آغاز بازسازی تدریجی اعتماد است. او همینطور سه مسیر کلیدی را برای ایجاد یک فضای همکاری پذیر پیشنهاد می کند: بازتعریف رقابت و شفاف سازی خطوط قرمز: رقابت اجتناب ناپذیر است، اما نباید به رقابت وجودی تبدیل گردد. تعریف خطوط قرمز مشترک می تواند مانع از گسترش لایتناهی حساسیت های امنیتی شود. همکاری در حوزه امنیت هوش مصنوعی: دو کشور باید در سه دسته خطر، شامل سوءاستفاده، خطا و ریسک های سیستمی، معیارهای مشترک توسعه دهند. تقویت سازوکارهای چندجانبه: با پشتیبانی از نقش سازمان ملل متحد و توسعه سازوکارهای جدید، کشورها می توانند مسیر ایجاد یک رژیم جهانی قابل قبول را هموار کنند.

جمع بندی

سرانجام، میتوان نتیجه گرفت که تحلیل عرضه شده از طرف کارشناسان، نه یک پیش بینی فناورانه و نه یک طرح جامع حکمرانی است؛ بلکه چارچوب تحلیلی برای آغاز گفتگوی راهبردی بحساب می آید. این چارچوب بر لزوم تفکیک مراحل بحران، شناسایی نقاط ابتدای زنجیره و ایجاد یک زبان مشترک برای تحلیل ریسک تاکید دارد. هرچند رقابت فناورانه میان ایالات متحده و چین ادامه خواهد یافت، اما تاریخ نشان داده است که حتی در اوج رقابتهای ژئوپلیتیک، امکان توافق بر سر موضوعات وجودی، مانند کنترل تسلیحات هسته ای، وجود دارد. در عصر هوش مصنوعی، پیشگیری از بحران های نظامی مبتنی بر خطا یا سوءبرداشت، یک مسئولیت اخلاقی و راهبردی است. در جهانی که سرعت تصمیم گیری سیستم های هوش مصنوعی می تواند از توان قضاوت انسانی پیشی گیرد، ایجاد ستون های مشترک حکمرانی تنها راه تضمین ثبات و پیشگیری از فاجعه انسانی به حساب می آید.
حرف آخر اینکه در این راستا، کارشناسان حوزه هوش مصنوعی، سه روش برای ایجاد سلسله مراتب خطر معرفی می کند: رویکرد مبتنی بر ریسک (Probability × Seriousness): در این تکنیک خطر تابعی از امکان رخداد و شدت پیامد بشمار می رود اما چالش اصلی اینست که امکان رخداد خطاهای حقیقی در حوزه نظامی هوش مصنوعی قابل اندازه گیری نیست، چراکه تجربه تاریخی کافی در این مورد وجود ندارد. او با استناد به نظریه جان هرتز، توضیح می دهد که چرا فضای بی اعتمادی ساختاری سبب شده هر اقدام دفاعی یکی از طرفین، از سوی دیگری تهدید تلقی شود. او همچنین سه مسیر کلیدی را برای ایجاد یک فضای همکاری پذیر پیشنهاد می کند: تعریف مجدد رقابت و شفاف سازی خطوط قرمز: رقابت اجتناب ناپذیر است، اما نباید به رقابت وجودی تبدیل گردد.


1404/09/01
10:01:06
5.0 / 5
8
تگهای خبر: تولید , دانشگاه , فناوری , متخصص
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۸ بعلاوه ۳
IT File دانلود فایل
itfile.ir - حقوق مادی و معنوی سایت دانلود فایل محفوظ است

دانلود فایل

دانلود و اشتراک گذاری فایل
ارائه تلفیقی از خدمات ذخیره سازی ابری و محتوای مرتبط با فناوری اطلاعات