گزارش اچ پی؛

ردپای هوش مصنوعی در جنگ غزه

ردپای هوش مصنوعی در جنگ غزه به گزارش اچ پی، هوش مصنوعی در جامعه مدرن با حضور فزاینده این فناوری در جنگ های معاصر هم همراه شده است. روند تسلیحاتی سازی هوش مصنوعی، شباهت زیادی به رقابت تسلیحاتی هسته ای در دوران جنگ سرد دارد.



به گزارش اچ پی به نقل از مهر؛ تاثیر هوش مصنوعی حالا بر تمامی جنبه های زندگی بشر تسری یافته است. در طول دهه گذشته، استفاده از هوش مصنوعی به طرز قابل ملاحظه ای بالا رفته و کاربردهای این فناوری شامل نرم افزارهای تشخیص چهره، خودرو های خودران، موتورهای جستجو و نرم افزارهای ترجمه می شود. این استفاده های پذیرفته شده از هوش مصنوعی در جامعه مدرن با حضور فزاینده این فناوری در جنگ های معاصر هم همراه شده است. روند تسلیحاتی سازی هوش مصنوعی، شباهت زیادی به رقابت تسلیحاتی هسته ای در دوران جنگ سرد دارد.
تسلیحات هسته ای حالا جای خویش را به سیستم های تسلیحاتی خودکار مبتنی بر هوش مصنوعی داده اند. با این وجود، جامعه جهانی، سازمان ملل متحد و مقررات بین المللی همچنان در تلاش اند تا به روز شده و بر استفاده از این سیستم های خودکار نظارت و مقرراتی اعمال کنند؛ تلاشی که هنوز با سرعت بالای تغییرات در صحنه ی نبردهای امروزی همگام نیست. با وجود این، جامعه ی بین المللی از سال ۲۰۱۲ به تاثیر هوش مصنوعی بر جنگ های معاصر توجه نشان داده و مجموعه ای از اسناد در مورد استفاده از سیستم های تسلیحاتی خودکار انتشار یافته است.
پیشرفت و استفاده از تسلیحاتی که در طول درگیری نظامی، قابلیت انجام عملیات به شکل خودمختار را دارند، حالا به نقطه تمرکز دولت ها و شرکت های فناوری تبدیل گشته است. در سال ۲۰۱۷، نامه ای از مؤسسه غیرانتفاعی آینده زندگی (Future Life Institute) خطاب به سازمان ملل متحد و با امضای ۱۲۶ مدیرعامل و بنیان گذار شرکت های هوش مصنوعی و رباتیک از دولت ها خواست تا از رقابت تسلیحاتی برای توسعه سیستم های تسلیحاتی خودکار جلوگیری نمایند. با این وجود، چارچوب قانونی بین المللی مشخصی برای رسیدگی به این نگرانی ها در مورد استفاده از هوش مصنوعی بخصوص در زمینه درگیری های نظامی، وجود ندارد. تنها چارچوب قانونی فعلی در رابطه با هوش مصنوعی که در ماده ۲۶ میثاق بین المللی حقوق مدنی و سیاسی ذکر شده، صرفا استفاده از هوش مصنوعی را به حق حریم خصوصی مربوط می داند و چارچوبی برای فناوری های نظامی مبتنی بر هوش مصنوعی همچون سیستم های تسلیحاتی خودکار، حملات سایبری پیشرفته و پهپادها وجود ندارد.
تسلیحات خودکار چیست؟
تعاریف گوناگونی برای سیستم های تسلیحاتی خودکار وجود دارد، اما وزارت دفاع بریتانیا (MoD) و وزارت دفاع ایالات متحده (DoD) دو تعریف شاخص در رابطه با این ابزار که مبتنی بر هوش مصنوعی هستند، عرضه کرده اند. در سال ۲۰۱۱، وزارت دفاع بریتانیا، سیستم های تسلیحاتی خودکار را بعنوان «سیستم هایی قادر به درک اهداف و جهت گیری های سطح بالا، یعنی درک شرایطی مشابه انسان و اتخاذ اقدامات مناسب برای تحقق وضعیت مطلوب» تعریف کرد. در مقابل، وزارت دفاع آمریکا در سال ۲۰۲۳ رویکرد دیگری اتخاذ و این سیستم ها را بعنوان سیستم هایی تعریف کرد که «پس از فعال شدن، قادر به انتخاب و درگیر شدن با اهداف بدون احتیاج به دخالت بیشتر یک اپراتور انسانی هستند». گزارش ۲۰۱۲ دیده بان حقوق بشر و بخش بین المللی حقوق بشر دانشگاه هاروارد هم تعریف مشابهی برای جامعه بین المللی عرضه داد و سیستم های تسلیحاتی خودکار را بعنوان «تسلیحات کاملا خودکار که می توانند بدون مداخله انسانی، اهداف را انتخاب کنند و با آن درگیر شوند» توصیف کرد.
همچنین مرکز صلاحیت قدرت هوایی مشترک ناتو (JAPCC) هم مفهوم اتوماسیون را تا حد «آگاهی و خودمختاری» گسترش داده است. نمونه هایی از تسلیحات خودکار شامل سیستم های دفاعی مانند گنبد آهنین رژیم صهیونیستی و سیستم دفاع هوایی «MANTIS» آلمان و همینطور تجهیزات محافظ فعال مانند «LEDS-150» سوئدی می شوند که حاصل ادغام فناوری هوش مصنوعی با تسلیحات جنگی هستند.
با وجود همه تعاریف عرضه شده، به زعم برخی کارشناسان، یک تعریف جدید از سیستم های تسلیحاتی خودکار مبتنی بر هوش مصنوعی باید شامل تسلیحات خودکاری باشد که در شرایط غیرنظامی هم مورد استفاده قرار می گیرند؛ مانند سیستم «Super aEgis II» کره جنوبی که بعنوان یک دستگاه نظارتی در زمان صلح در مرز کره جنوبی و شمالی به کار می رود.
با این حال، چالش اصلی در اینست که تعاریف سیستم های تسلیحاتی خودکار باید از منظر تحولات آینده هم تطبیق یابند. این تعاریف باید نه تنها شامل سیستم هایی باشند که تابحال در تعاریف گنجانده نشده اند، بلکه باید به سیستم هایی که ممکنست در آینده ظهور کنند هم بپردازند. به ویژه، جامعه ی بین المللی باید بر سر تعریفی توافق کند که بتواند الگوریتم های ورودی شناختی شبیه انسان با توانایی تصمیم گیری مشابه انسان را در برگیرد.
با وجود این نیاز، جامعه بین المللی هنوز بر سر قوانین مربوط به سیستم های تسلیحاتی خودکار به توافق نرسیده است. کنوانسیون سازمان ملل متحد در رابطه با سلاح های متعارف (CCW) دارای پروتکل اصلاحی ویژه ای، مصوب ۱۹۸۶ است که توسط گروه کارشناسان دولتی (GGE) بر آن نظارت می شود و این گروه به شکل سالانه جهت بررسی اجرای پروتکلهای این کنوانسیون و مسائل در رابطه با تسلیحات جلسه می سازند. آخرین نشست گروه کارشناسان دولتی که در ماه می ۲۰۲۳ برگزار گردید، بدون پیشرفت ملموسی در مورد سیستم های تسلیحاتی خودکار به انتها رسید، چونکه اعضای کارگروه تخصصی نتوانستند بر سر هیچ نوع تدابیر قانونی به توافق برسند.
گزارش پیش نویس این جلسه هم نتوانست چارچوب حقوقی مشخصی دراین زمینه عرضه نماید. با این وجود، این گزارش بر احتیاج به کنترل انسانی در سیستم های تسلیحاتی خودکار تاکید دارد و همینطور به مقررات در رابطه با توسعه این تسلیحات هم اشاره می کند. ۵۲ کشور با صدور اطلاعیه ای از این پیش نویس حمایت کردند، اما تاکید کردند که این پیش نویس حداقل استاندارد بوده و به چارچوب حقوقی بسیار جامع تر و مؤثرتری در این زمینه نیاز است. در نشست می ۲۰۲۳، گروه کارشناسان دولتی تصمیم گرفت تا بحث های طولانی تری را در مورد فناوری های نوظهور چون سیستم های تسلیحاتی خودکار در ماه های مارس و اوت ۲۰۲۴ برگزار کند. با آنکه ممکنست تحولات معنادارتری در بحث های جدید این گروه رخ دهد، اما تابحال چارچوب حقوقی مشخصی برای تنظیم توسعه و استفاده از این ابزار فناورانه نوظهور به دست نیامده است.
رقابت کشورها برای توسعه ربات های قاتل
در حالی که نهادهای بین المللی در تکاپو برای تنظیم مقررات جهانی برای سیستم های تسلیحاتی خودکار به سر می برند، رقابت شدیدی برای توسعه این فناوری در بین قدرت های جهانی جریان دارد. ولادیمیر پوتین، رئیس جمهور روسیه، در این خصوص اظهار کرده است: «ملتی که در زمینه هوش مصنوعی پیشتاز باشد، فرمانروای جهان خواهد شد.»
کارشناسان اعتقاد دارند که پیشرفت هوش مصنوعی در جنگ های مدرن، روابط میان قدرت های بزرگ همچون ایالات متحده، چین و روسیه و همینطور صنعت فناوری خصوصی را به شکل قابل ملاحظه ای دگرگون خواهدنمود. در همین جهت، چین اعلام نموده که در نظر دارد با اختصاص ۱۵۰ میلیارد دلار بودجه به رهبر جهانی فناوری هوش مصنوعی تبدیل شود؛ این در حالیست که روسیه در بازه زمانی ۲۰۲۱ تا ۲۰۲۳ حدود ۱۸۱ میلیون دلار و ایالات متحده ۴.۶ میلیارد دلار دراین زمینه سرمایه گزاری نموده اند.
گزارش گروه تحلیلی «جینز» در سال ۲۰۱۹، نشان داد که طی دهه آینده، بیشتر از ۸۰ هزار پهپاد نظارتی و حدود ۲ هزار پهپاد تهاجمی در سرتاسر جهان فروخته خواهد شد. در این گزارش اعلام گردید که دولت بریتانیا پهپادهای مجهز به موشک را به کار گرفته و در نظر دارد تا سال ۲۰۲۴ مبلغی بالغ بر ۴۱۵ میلیون پوند برای توسعه پهپادهای حفاظتی هزینه کند. عربستان سعودی هم بعنوان یک بازیگر جدید در زمینه پهپادها، در سال ۲۰۲۳ حدود ۶۹ میلیارد دلار (معادل ۲۳ درصد از بودجه ی ملی خود) را به حوزه دفاعی مختص کرده است. این کشور همینطور برنامه دارد یک صندوق ۴۰ میلیارد دلاری برای سرمایه گذاری در حوزه هوش مصنوعی بوجود آورد که آنرا به بزرگ ترین سرمایه گذار جهانی دراین زمینه تبدیل خواهدنمود.
با افزایش چشم گیر سرمایه گذاری دولت ها در توسعه پهپادهای خودکار مبتنی بر تکنولوژی هوش مصنوعی، احتمال دارد این فناوری ها به جایی برسند که پهپادها بدون احتیاج به دخالت انسانی و به شکل کاملا خودکار در حین درگیری نظامی به اتخاذ تصمیم بپردازند؛ امری که به اعتقاد خیلی از منتقدان، می تواند راه های صلح آمیز حل درگیری های نظامی را تحت تاثیر قرار دهد. فناوری پهپادی از زمانی که در جنگ کوزوو در سال ۱۹۹۹ توسط ناتو برای شناسایی مواضع راهبردی پنهان صرب ها استفاده شد تا استفاده آمریکا از آن بلا فاصله بعد از حملات ۱۱ سپتامبر، به صورت قابل ملاحظه ای پیشرفت کرده است. پس از آن که اعلام گردید یک پهپاد «ISR» آمریکایی مکان اسامه بن لادن را شناسایی کرده، ارتش ایالات متحده به صورت فزاینده ای از پهپادها با قابلیت های تسلیحاتی متعدد بهره برد و از سال ۲۰۱۰ تا ۲۰۲۰ بیشتر از ۱۴ هزار عملیات پهپادی را فقط در افغانستان انجام داد.
بر اساس گزارش های آماری، ایالات متحده، بریتانیا و رژیم صهیونیستی همچنان بزرگ ترین استفاده کنندگان از پهپادها هستند و زرادخانه های آنان به شکل مداوم درحال گسترش است. ایالات متحده و بریتانیا بیشتر از یک دهه از پهپادهای مسلح مانند «Predator» و «Reaper»، متعلق به شرکت آمریکایی «General Atomics»، بهره برده اند. طبق اعلام پایگاه داده بریتانیایی «Drone Wars»، این کشور در طول چهار سال حضور نظامی در سوریه در خلال سالهای ۲۰۱۴ تا ۲۰۱۸، بیشتر از ۲۴۰۰ بار از پهپادهای «Reaper» در مأموریت های راهبردی بهره برده است؛ رقمی که معادل دو مأموریت در روز شمرده می شود. همینطور پنتاگون برآورد کرده که تا سال ۲۰۳۵، حدود ۷۰ درصد نیروی هوایی ایالات متحده از هواپیماهای هدایت شونده ازراه دور تشکیل خواهد شد. همزمان، رژیم اشغالگر قدس هم پهپادهای مسلح خویش را توسعه داده و آنها را در نوار غزه برای نظارت و حملات بی امان به شهروندان فلسطینی به کار گرفته است.
پنتاگون برآورد کرده که تا سال ۲۰۳۵، حدود ۷۰ درصد نیروی هوایی ایالات متحده از هواپیماهای هدایت شونده ازراه دور تشکیل خواهد شد
علاوه بر موارد ذکر شده، به صورت کلی فناوری پهپادی به سرعت در بین نیروهای نظامی در سرتاسر جهان درحال گسترش است. تقریبا همه کشورهای عضو ناتو حالا قابلیت استفاده از پهپادها را در درگیری های نظامی دارند. در پنج سال گذشته، ترکیه و پاکستان هم برنامه های تولید پهپاد خویش را تدوین و اجرا کرده اند. چین اکنون پهپادهای «Wing Loong» و سری «CH» خویش را به چندین کشور همچون امارات متحده عربی، مصر، عربستان سعودی، نیجریه و عراق عرضه می کند.
در چنین شرایطی حتی بعضی از گروههای غیردولتی هم از پهپادها بهره می گیرند. بعنوان مثال، در طول یک سال اخیر، حزب الله هم از پهپادهای شناسایی برای انجام برخی عملیات ضد اشغالگران صهیونیست بهره برده و مبارزان حماس هم از اکتبر ۲۰۲۳ و بعد از عملیات طوفان الاقصی از پهپادها ضد این رژیم بهره می گیرند.
بنابراین، میتوان نتیجه گرفت که استفاده از هوش مصنوعی در جنگ ها به سرعت درحال گسترش است. گزارش ها حاکی از آنست که اکراین پهپادهای دوربرد خویش را به هوش مصنوعی مجهز کرده است. این پهپادها می تواند به شکل خودکار بر زمین نظارت و اهداف نظامی را شناسایی کنند و ارتش اکراین در مواردی هم از آنها برای حملات موفق به اهدافی همچون پالایشگاه های روسیه بهره برده است.
بر اساس گزارش های پخش شده، رژیم صهیونیستی هم علاوه بر توسعه پهپادهای نظارتی و عملیاتی از یک سیستم هوش مصنوعی پیشرفته، موسوم به «لاوندر» در درگیری غزه استفاده کرده؛ ابزاری که موفق به شناسایی ۳۷ هزار هدف در نوار غزه شده است. کارشناسان اعتقاد دارند که بر همین اساس، میتوان تجاوز کنونی صهیونیست ها به نوار غزه و جنوب لبنان را اولین «جنگ هوش مصنوعی» توصیف کرد. با این وجود، هنوز هیچ شواهدی بر مبنای استفاده از سیستم های تسلیحاتی خودکار بدون کنترل و نظارت انسانی در درگیری های اخیر هم موجود نیست.
با افزایش نگرانی ها در مورد ظهور «ربات های قاتل»، استفاده از هوش مصنوعی در جنگ ها سوالات اخلاقی و حقوقی جدی تری را برای خیلی از متخصصان مطرح کرده است؛ چونکه ممکنست در خیلی از موارد پهپادها قادر به تمایز بین نیروهای نظامی و غیرنظامیان نباشند.
از همین روی، افزایش ادغام هوش مصنوعی در پهپادها و سایر سیستم های تسلیحاتی خودکار، خطرات بی شماری را در زمینه تصمیم گیری در درگیری ها نظامی بدون کنترل و نظارت انسانی به وجود می آورد. استفاده از خشونت در طول تقابل های نظامی، ممکنست بر مبنای واکنش های غریزی ماشین هایی تعیین شود که قادر به درک پیچیدگی های اخلاقی جنگ و تصمیم گیری درست نیستند. در چنین شرایطی پیش بینی این که قوانین تا چه حد می تواند با این پیشرفت های فناورانه همراه شوند یا حتی آنها را متوقف سازند، بسیار دشوار است، اما چارچوب حقوقی فعلی اساسا فاقد شفافیت و دوراندیشی لازم برای حل این معضل جهانی است.
تقویت توان جنگ سایبری با کمک هوش مصنوعی
در کنار سیستم های تسلیحاتی خودکار و پهپادها، استفاده از هوش مصنوعی برای تقویت توان جنگ سایبری هم در طول سالهای اخیر به یکی از ابعاد مهم درگیری های نظامی تبدیل گشته است. هوش مصنوعی در جنگ سایبری می تواند ابزارهایی را فراهم آورد که به کشورها اجازه می دهد بشکلی مؤثر و سریع به اهداف سایبری و زیرساخت های حیاتی و اطلاعاتی دشمنان دسترسی پیدا کنند و عملیات های پیچیده سایبری را با دقت بیشتری انجام دهند.
دانشگاه جورج تاون با انتشار مقاله ای در ماه جولای ۲۰۲۴ به بررسی یکی از موارد شاخص استفاده از هوش مصنوعی در حملات سایبری، یعنی حملات سایبری کره شمالی به زیرساخت های کره جنوبی پرداخت. بر مبنای متن این مقاله کره جنوبی در سالهای اخیر، با تهدیدات سایبری فزاینده ای از جانب کره شمالی مواجه بوده که در عملیات خود از فناوری های پیشرفته مبتنی بر هوش مصنوعی برای حملات پیچیده بهره برده است. در سال ۲۰۲۳، نهادهای عمومی کره جنوبی با افزایش بی سابقه ای در حملات سایبری مواجه گشتند، بطوریکه تعداد کوشش های روزانه به ۱.۶۲ میلیون مورد رسید. این حملات، بخش های مختلفی همچون نهادهای عمومی، صنایع دفاعی و شرکت های خصوصی را هدف قرار می دهند. سئول در جواب این تهدیدات، در سال ۲۰۲۴ استراتژی امنیت سایبری ملی خویش را بازنگری و تقویت کرد با افزایش همکاریهای بین المللی، بهره گیری از تکنولوژی های جدید و استقامت بخشی به دفاع سایبری خود، مقابله بهتری با تهدیدات داشته باشد.
این توانمندی ها در زمینه جنگ سایبری با قابلیت های پیشرفته ای همچون نفوذ به شبکه های حساس دشمن، شناسایی نقاط ضعف سایبری و ایجاد اختلال در سامانه های ارتباطی و اطلاعاتی دشمن هم راه است. از طرفی، این فناوری ها می توانند برای تقویت دفاع سایبری هم به کار روند و توانایی مقابله با حملات پیشرفته را بالا برند. این امر سبب می شود که جنگ سایبری مبتنی بر هوش مصنوعی به یک بخش حیاتی در امنیت ملی و راهبردهای دفاعی کشورهای قدرتمند تبدیل گردد.
بنابراین میتوان نتیجه گرفت که استفاده از هوش مصنوعی در جنگ سایبری نه تنها توان تهاجمی کشورها را در میدان نبرد دیجیتال افزایش داده، بلکه ساختارهای امنیتی آنها را هم متأثر ساخته است. فناوری های مبتنی بر هوش مصنوعی مانند یادگیری ماشین و شبکه های عصبی امکان تقویت قدرت حملات و از طرف دیگر شناسایی و خنثی سازی حملات سایبری پیچیده را با سرعت و دقت بالاتری فراهم می کنند. به این ترتیب، الگوریتم های پیشرفته می توانند شبکه های حساس دشمن را به صورت مستقل شناسایی کرده و به آنها نفوذ کنند. در جنگ های آینده، این فناوری بدون احتیاج به دخالت مستقیم انسانی، صدمه پذیری ها را تشخیص داده و از آنها برای تخریب سامانه های کلیدی یا به دست آوردن اطلاعات حیاتی بهره برداری می کند.
به عقیده خیلی از کارشناسان نظامی، این پیشرفت ها، تهدیدات سایبری را به شکلی از ابزار نظامی تبدیل نموده اند که بدون درگیری فیزیکی، می تواند ضربات جدی به زیرساخت های حیاتی و حتی توان دفاعی کشورها وارد کند. از همین روی، کشورهای پیشرو در زمینه هوش مصنوعی بدنبال ایجاد ابزارهای تهاجمی قدرتمندی هستند که با کمترین دخالت انسانی به تضعیف ساختارهای حیاتی دشمن بپردازند. بعنوان مثال، بعضی از کشورها سامانه های هوش مصنوعی ویژه ای را توسعه داده اند که می تواند به شکل بلادرنگ و با کمترین ردپای دیجیتال، به سیستم های ارتباطی دشمن نفوذ کند و اطلاعات حساس را رهگیری کند یا حتی پیام های جعلی را برای اختلال در فرماندهی و کنترل نیروهای دشمن ارسال نماید.
به عقیده خیلی از کارشناسان نظامی، این پیشرفت ها، تهدیدات سایبری را به شکلی از ابزار نظامی تبدیل نموده اند که بدون درگیری فیزیکی، می تواند ضربات جدی به زیرساخت های حیاتی و حتی توان دفاعی کشورها وارد کند با توجه به این مساله که هوش مصنوعی قادر به انطباق سریع با روش های جدید حمله و دفاع سایبری است، در طولانی مدت خطراتی مانند از دست رفتن کنترل بر عملیات های سایبری بیشتر می شود. بعنوان نمونه، هوش مصنوعی ممکنست در بعضی موقعیت های بحرانی به اشتباه سامانه های غیرنظامی را بعنوان هدف شناسایی کند یا در مواقع حساس، تصمیم گیری هایی انجام دهد که عواقب پیش بینی نشده و مخربی داشته باشد.
نگاهی به آینده هوش مصنوعی در جنگ
به زعم اغلب کارشناسان، هوش مصنوعی در جنگ های آینده، به یکی از ارکان اصلی درگیری های نظامی تبدیل خواهد شد و بدون شک درگیری های نظامی دیگر به روش های سنتی و جنگ های کلاسیک صورت نخواهد گرفت. ابزارهای مبتنی بر هوش مصنوعی، امکان هدایت ازراه دور را فراهم می کنند، به شکلی که سربازان بدون احتیاج به حضور فیزیکی در میدان نبرد، قادر به انجام عملیات نظامی خواهند بود. استفاده از پهپادهای خودکار، سیستم های تسلیحاتی هوشمند و مهارتهای جنگ سایبری، ابزارهایی هستند که در آینده ای نزدیک هوش مصنوعی را به یکی مهم ترین ارکان میادین نبرد تبدیل خواهند کرد.
هوش مصنوعی قادر می باشد با تحلیل سریع داده های میدان جنگ، توانایی تشخیص فوری اهداف و اتخاذ تصمیمات تاکتیکی بدون دخالت انسان، امکان پیروزی با کمترین تلفات انسانی و بیشترین دقت را فراهم سازد. با این وجود، این پیشرفت ها هرچند در آینده ای نزدیک باعث افزایش کار آمدی عملیات نظامی و تغییر شکل و ماهیت درگیری های این حوزه می شوند، اما به سبب کاهش احتیاج به حضور انسان در میدان نبرد، خطرات اخلاقی و حقوقی بسیاری را هم به همراه دارند.
در نهایت میتوان چنین نتیجه گرفت که ظهور هوش مصنوعی در زمینه های نظامی سبب می شود کشورها نه تنها در جنگ فیزیکی، بلکه در زمینه سایبری هم به رقابتی تهاجمی و بزرگ دست بزنند. هوش مصنوعی در جنگ های آینده به ابزار راهبردی بدل خواهد شد که می تواند بدون دخالت انسانی، عملیات های پیچیده و خطرناک را انجام دهد و این مساله به صورت کلی چهره جنگ را متحول خواهد ساخت.
دست خالی قوانین بین الملل در مقابل تکنولوژیهای جدید نظامی
پرسش های اخلاقی و انسانی پیرامون درگیری هایی که توسط الگوریتم ها و ماشین ها بدون دخالت انسانی هدایت می شوند، همچنان بی پاسخ هستند. استفاده از پهپادهای خودکاری که خود به تنهایی سلاح محسوب نمی شوند و پلت فرم هایی برای حمل سلاح هستند، به صورت مشخص تحت مقررات بین المللی تنظیم گری نشده است. باآنکه استفاده از پهپادها هم مشمول اصول کلی حقوق بین الملل در مورد تمامی تسلیحات، شامل قواعد تمایز، تناسب و ممنوعیت حملات کورکورانه است، اما فقدان قوانین خاص دراین زمینه، نظارت و تنظیم گری آنها را بسیار دشوار کرده است.
از همین روی، اغلب کارشناسان براین باورند که جامعه بین المللی باید یک چارچوب حقوقی بین المللی دراین زمینه بوجود آورد تا همواره کنترل و نظارت انسانی بر سیستم های تسلیحاتی خودکار را تضمین نماید و این سیستم ها به شکل مستقل اهداف نظامی را در طول درگیری هدف قرار ندهند.
آخرین گزارش گروه کارشناسان دولتی سازمان ملل دراین زمینه که در سال ۲۰۲۳ انتشار یافت، بر این نکته تاکید دارد که تدابیر قانونی برای محدود کردن استفاده از «سیستم های تسلیحاتی مبتنی بر تکنولوژی های نوظهور که بعد از فعال سازی قادر به شناسایی، انتخاب، ردیابی و انهدام اهداف، بدون دخالت بیشتر انسانی هستند»، امری ضرورت دارد. سیستم های مذکور بعنوان یک نوآوری بی سابقه در تسلیحات نظامی، نیازمند یک چارچوب حقوقی بین المللی جدید، قوی و در عین حال انعطاف پذیر است تا بتواند با سرعت خیره کننده پیشرفت های فناوری همراه باشد.
از سوی دیگر، همکاریهای بین المللی برای تنظیم مقررات و ایجاد سازوکارهای نظارتی مؤثر بر کاربردهای هوش مصنوعی در زمینه حملات سایبری هم امری ضرورت دارد. بی گمان بدون وجود چارچوب حقوقی و نظارتی مؤثر، استفاده از این فنآوری در حوزه جنگ سایبری ممکنست منجر به درگیری های گسترده تری در زمینه دیجیتال و افزایش صدمه پذیری زیرساخت های کلیدی کشورها شود. بنابراین، میتوان نتیجه گرفت که توان تخریبی بالا و امکان ایجاد اختلالات گسترده در زیرساخت های حیاتی، مؤلفه هایی هستند که اساسا حملات سایبری مبتنی بر هوش مصنوعی را در زمره فناوری های حساس و نیازمند تنظیم گری جهانی قرار می دهند.


منبع:

1403/08/08
10:39:44
5.0 / 5
14
تگهای خبر: استاندارد , بازی , تخصص , تكنولوژی
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۲ بعلاوه ۱
hp لپ تاپ
newhp.ir - حقوق مادی و معنوی سایت اچ پی محفوظ است

اچ پی

معرفی محصولات اچ پی