گزارش اچ پی؛

لحظه اوپنهایمر هوش مصنوعی

لحظه اوپنهایمر هوش مصنوعی به گزارش اچ پی، یکی از بحث برانگیزترین و در عین حال خطرناک ترین زمینه های کاربرد هوش مصنوعی، حوزه نظامی و استفاده از سلاح های خودکار و هوشمند به حساب می آید.


به گزارش اچ پی به نقل از مهر، انقلاب هوش مصنوعی به سرعت درحال تغییر چهره جهان است و تأثیرات عمیق آن در همه جوانب زندگی انسانی به وضوح مشاهده می شود. هوش مصنوعی از تحولات در صنعت و اقتصاد گرفته تا بهبود سیستم های بهداشتی و آموزشی، به یکی از عوامل کلیدی در توسعه و پیشرفت جوامع مدرن تبدیل گشته است. اما یکی از بحث برانگیزترین و در عین حال خطرناک ترین زمینه های کاربرد هوش مصنوعی، حوزه نظامی و استفاده از سلاح های خودکار و هوشمند به حساب می آید. در حالیکه هوش مصنوعی می تواند بشکلی قابل توجه کارآمدی و دقت عملیات نظامی را افزایش دهد، استفاده از آن در سلاح ها و سیستم های جنگی پرسش های جدی اخلاقی و انسانی گوناگونی را در این حوزه مطرح می کند. با گسترش روز افزون استفاده از این تکنولوژی در میدان های نبرد، نگرانی ها در رابطه با نتایج آن هم افزایش پیدا کرده است. حالا بیشتر از هر زمان دیگری، سوالاتی پیرامون ماهیت و اخلاق استفاده از هوش مصنوعی در جنگ ها مطرح می شود. آیا ماشین ها باید تصمیمات حیاتی وابسته به مرگ و زندگی را بدون دخالت انسان ها اتخاذ کنند؟ به کارگیری گسترده سلاح های هوش مصنوعی برای جامعه جهانی و امنیت بین المللی چه تبعاتی در بر دارد؟ این مسائل تنها گوشه ای از معضلاتی هستند که جهان امروز با آنها روبرو شده است. از یک سو، قدرت های بزرگ جهانی و شرکتهای فناوری درحال رقابت برای توسعه و استفاده از هوش مصنوعی در سیستم های نظامی هستند و از طرفی، جامعه بین المللی با چالشی بزرگ برای تنظیم و کنترل این فناوری روبرو است. مهر در این نوشتار کوتاه به بررسی ابعاد مختلف ادغام هوش مصنوعی در فعالیتهای نظامی پرداخته و تلاش می کند تا نگاهی جامع به نتایج اجتماعی، اخلاقی، حقوقی و سیاسی استفاده از هوش مصنوعی در جنگ ها عرضه نماید. وضعیت گسترش استفاده از سلاح های مجهز به هوش مصنوعی استفاده از هوش مصنوعی در سلاح های نظامی دیگر محدود به داستان ها و آثار سینمایی علمی تخیلی نیست، بلکه به واقعیتی در میدان نبرد تبدیل گشته است. بعنوان مثال، در طول سالهای اخیر، ارتش اکراین با استفاده از پهپادهای مجهز به فناوری هوش مصنوعی و مواد منفجره یک مجموعه عملیات نظامی را ضد تأسیسات نفتی روسیه ترتیب داده است. همچنین، سیستم های نظارتی مبتنی بر هوش مصنوعی آمریکا بسیاری از اهداف خویش را در سوریه و یمن شناسایی کرده و رژیم اشغالگر قدس هم از سامانه های هدف گیری مبتنی بر هوش مصنوعی برای شناسایی و به شهادت رساندن هزاران شهروند فلسطینی در نوار غزه بهره برده است. به عقیده کارشناسان و با گسترش استفاده از هوش مصنوعی در عملیات نظامی، تقاضا برای توسعه و استقرار این فناوری هم بشدت افزایش پیدا کرده است. بعنوان مثال، پنتاگون می خواهد برای شناسایی خودکار تهدیدات تا سال ۲۰۲۵ یک میلیارد دلار برای توسعه پهپادهای رزمی بدون سرنشین مبتنی بر هوش مصنوعی هزینه کند. این افزایش سرمایه گذاری سبب شده تا شرکتهای فناوری و دفاعی قراردادهای بزرگ تری برای توسعه پروژه های تسلیحاتی مختلف به دست آورند. بعنوان مثال، استارتاپ دفاعی «Anduril» طی روزهای اخیر موفق به جذب ۱.۵ میلیارد دلار سرمایه برای توسعه تسلیحات خودکار مبتنی بر هوش مصنوعی شده است. این سرمایه گذاری به «Anduril» کمک می نماید تا از یک شرکت نوپا در صنعت دفاعی به یک پیمانکار جدی برای وزارت دفاع ایالات متحده تبدیل گردد. این شرکت همینطور می خواهد کارخانه ای با نام «Arsenal-1» بسازد که به سبک کارخانه های پیشرفته شرکت هایی مانند تسلا و اپل طراحی شده و با استفاده از پلت فرم تولیدی مبتنی بر هوش مصنوعی، به تولید سریع تر پهپادها و تجهیزات نظامی کمک می نماید. متخصصان اعتقاد دارند که این حرکت «Anduril» در پاسخ به نیاز فزاینده ارتش آمریکا به سیستم های خودکار ارزانقیمت و قابل تولید در مقیاس بالا، بخصوص در رویارویی با چالش هایی مانند جنگ اکراین و تهدیدات احتمالی از جانب چین صورت گرفته است. این شرکت امیدوار است با این شیوه نوآورانه، توانایی تولید تسلیحات مبتنی بر هوش مصنوعی را در آمریکا بهبود بخشد. رقابت جهانی و افزایش نفوذ شرکتهای فناوری برآوردهای صورت گرفته از آن حکایت می کند که ارزش بازار هوش مصنوعی در صنایع نظامی با نرخ رشد مرکب سالانه ۳۳.۳ درصد از مبلغ ۹.۲ میلیارد دلار در سال ۲۰۲۳ به ۳۸.۸ میلیارد دلار در سال ۲۰۲۸ برسد. دراین میان، ایالات متحده آمریکا و منطقه آسیا و اقیانوسیه بیشترین سهم را از این رشد بازار خواهند داشت. این روند مبین افزایش روز افزون اقبال دولت های به استفاده از هوش مصنوعی در قسمت نظامی خود است.
بسیاری از شرکتهای فناوری نقش مهمی در توسعه سلاح های مجهز به هوش مصنوعی ایفا می کنند. شرکت هایی مانند «Anduril» و «Palantir» همچون پیشتازان در این حوزه هستند که قراردادهای بزرگی با دولت ها و ارتش های اقصی نقاط جهان منعقد کرده اند. طبق گزارش های انتشار یافته، این شرکت ها با عرضه فناوری های پیشرفته، به تسلیحاتی تر شدن ارتش ها و دولت ها کمک کرده و نقش کلیدی در شکل دهی به آینده جنگ های مدرن ایفا می کنند. از طرفی، با افزایش تقاضا برای سلاح های خطرناک مبتنی بر هوش مصنوعی، غول های فناوری همچون گوگل و آمازون هم تمایل بیشتری به همکاری با صنایع دفاعی نشان می دهند. بعنوان مثال، شرکت فناوری گوگل اخیراً با امضای قراردادی با دولت و ارتش رژیم صهیونیستی، خدمات محاسبات ابری و قابلیت های هوش مصنوعی را در اختیار اشغالگران قرار داده است. این همکاری ها با وجود اعتصابات گسترده و اعتراضات داخلی در این شرکت ها، نشان دهنده تغییر رویکرد این شرکتهای بزرگ نسبت به استفاده نظامی از هوش مصنوعی است. چالش های اخلاقی و حقوقی توسعه هوش مصنوعی نظامی یکی از بزرگ ترین چالش های مرتبط با استفاده از هوش مصنوعی در سلاح های نظامی، مسائل اخلاقی است. مفهوم «وجود انسان در حلقه تصمیم گیری» که به معنای حفظ نظارت انسانی بر تصمیمات حیاتی ناظر بر مرگ و زندگی در جنگ است، مورد توافق عمومی همه کشورها و کارشناسان قرار دارد، اما چگونگی اجرای آن به شکل عملی همچنان محل بحث است. بعضی از متخصصان معتقدند که حفظ نظارت انسانی می تواند به حضور حداقلی و فشرده انسانی در فرآیند منجر شود که در آن افراد تنها برای پذیرش مسئولیت اشتباهات سیستم های هوش مصنوعی در موقعیت های بحرانی حضور دارند. از طرفی، مساله عدم شفافیت و پاسخگویی چالش بزرگ دیگری است که سیستم های نظامی مبتنی بر هوش مصنوعی با آن مواجهند. استفاده از سیستم های هوش مصنوعی در حوزه نظامی به علت طبیعت محرمانه و انحصاری این فناوری ها با مشکلاتی همچون عدم شفافیت و پاسخگویی همراه می باشد. این مساله سبب شده تا نظارت عمومی و اطمینان از عملکرد صحیح و اخلاقی این سیستم ها از جانب ناظران و جامعه مدنی بسیار دشوار شود. بعنوان مثال، گزارشی در رابطه با عملیات نظامی اشغالگران صهیونیست نشان داده است که نظامیان این رژیم به رغم آگاهی از ضریب خطای ۱۰ درصدی سیستم های مبتنی بر هوش مصنوعی در شناسایی اهداف، همچنان از آن برای کشتار شهروندان فلسطینی استفاده می نمایند. چالش های حقوقی و بین المللی توسعه هوش مصنوعی نظامی همگام با گسترش استفاده از سلاح های مجهز به هوش مصنوعی، تلاشهای بین المللی برای تنظیم مقررات در این حوزه هم افزایش پیدا کرده است. بعنوان مثال، در جریان برگزاری کنفرانس سیستم های تسلیحاتی خودکار وین (The Vienna Conference on Autonomous Weapons Systems) در آوریل سال ۲۰۲۳، سازمان های بین المللی و دیپلمات هایی از ۱۴۳ کشور گرد هم آمدند تا در رابطه با تنظیم استفاده از هوش مصنوعی و سلاح های خودکار در جنگ بحث و تبادل نظر کنند؛ روندی که تا به امروز همچنان ادامه دارد. به عقیده کارشناسان، این تلاش ها نشان دهنده نگرانی های جهانی نسبت به تأثیرات بالقوه مخرب این تکنولوژی های جدید بر صلح و امنیت بین المللی است. از طرفی با وجود حمایت گسترده بین المللی برای تنظیم قوانین بین المللی در ارتباط با سلاح های خودکار، کشورهای بزرگ تولیدکننده و استفاده کننده از این تکنولوژی ها مانند آمریکا، رژیم صهیونیستی، روسیه، چین و کره جنوبی به صورت کلی مخالف وضع قوانین اجبار آور جدید در این حوزه هستند. این مخالفت ها نشان دهنده چالش های جدی در دستیابی به توافقات بین المللی برای کنترل و نظارت بر استفاده از هوش مصنوعی در جنگ به حساب می آید. پیامدهای اجتماعی و داخلی توسعه هوش مصنوعی نظامی تبعات توسعه تسلیحات خودکار تنها به مسائل اخلاقی و حقوقی محدود نمی گردد. با گسترش استفاده از سلاح های مبتنی بر هوش مصنوعی در جنگ ها، نگرانی هایی در رابطه با تأثیرات این فناوری ها بر جامعه و نیروهای پلیس داخلی کشورها هم مطرح گردیده است. خیلی از فعالان مدنی جهان به این امر معترض هستند. برخی متخصصان معتقدند که استفاده از این تکنولوژی ها در جنگ ها می تواند به تدریج به حوزه های دیگری مانند نظارت های داخلی و کنترل مرزها هم سرایت کند؛ امری که می تواند تهدیدی جدی برای آزادی های اجتماعی و حقوق مدنی باشد. همینطور با گسترش استفاده از سلاح های خودکار مبتنی بر هوش مصنوعی، مفهوم جنگ و صلح هم درحال تغییر است. باآنکه استفاده از این تکنولوژی ها می تواند به تغییر استراتژی های نظامی و کاهش احتیاج به نیروی انسانی در جنگ ها منجر شود؛ اما این تغییرات همینطور می تواند به تشدید تنش های بین المللی و افزایش احتمال درگیری های نظامی منجر شود و خسارات به جانی و مالی به بخش های غیرنظامی را به شکل محسوسی افزایش دهد. سخن پایانی شکی نیست که استفاده از هوش مصنوعی در عملیات نظامی به سرعت درحال گسترش است و تأثیرات گسترده و عمیقی بر جامعه، اقتصاد و سیاست جهانی خواهد داشت. این فناوری با تمام پتانسیل ها و نوآوری های خود، مسائل جدی و پیچیده ای را در زمینه اخلاق، حقوق بین الملل و امنیت به وجود آورده است. از یک سو، هوش مصنوعی می تواند با افزایش دقت و کارآمدی عملیات نظامی، به بهبود استراتژی های دفاعی کشورها کمک نماید. اما از طرفی، به کارگیری این فناوری در جنگ ها و عملیات نظامی بدون نظارت و کنترل مناسب، منجر به تشدید درگیری ها، افزایش خشونت و نقض حقوق بشر می شود. با عنایت به این تحولات، لازم است که جامعه بین المللی به جای تأخیر و واکنش بعد از وقوع بحران ها، از الان برای تنظیم مقررات و ایجاد چارچوب های مناسب برای مواجهه با این چالش اقدام نماید. تجربیات گذشته نشان داده است زمانیکه یک فناوری به صورت گسترده مورد استفاده قرار گیرد، کنترل و مهار آن بسیار دشوارتر از مراحل ابتدایی می شود. بنابراین، پیشگیری و مدیریت هوشمندانه این تحولات، می تواند از بروز بحران های جدی در آینده جلوگیری نماید. ازاین رو میتوان نتیجه گرفت که استفاده از هوش مصنوعی در سلاح های نظامی همانند یک شمشیر دو لبه عمل می کند. این فناوری می تواند هم به بهبود امنیت و هم به افزایش خطرات منجر گردد. از همین روی کاربردهای نظامی هوش مصنوعی نیازمند نظارت گسترده، تنظیم مقررات دقیق و مسئولیت پذیری از جانب تمامی بازیگران بین المللی است.


منبع:

1403/05/29
11:11:56
5.0 / 5
207
تگهای خبر: اپل , بازی , بهداشت , تخصص
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۱
hp لپ تاپ
newhp.ir - حقوق مادی و معنوی سایت اچ پی محفوظ است

اچ پی

معرفی محصولات اچ پی