افول حکمرانی سختگیرانه در هوش مصنوعی خیزش گفتمان خوش بینانه
اچ پی: جریان هشداردهنده درباره ی هوش مصنوعی طی سال اخیر به صورت چشم گیری به حاشیه رانده شده و گفتمانی تازه، با رنگ و بوی عمل گرایی و خوش بینی فناورانه عنوان شد.
به گزارش اچ پی به نقل از مهر؛ در سالیان اخیر، نگرانی ها درباره ی مخاطرات فاجعه بار هوش مصنوعی به صورت رو به ازدیادی در فضای عمومی و حوزه سیاستگذاری جهانی مطرح گردیده است. طیف وسیعی از محققان، فناوران، دانشگاهیان و کنشگران اجتماعی نسبت به روند شتابان توسعه مدلهای زبانی و سامانه های خودکار هشدار داده اند؛ روندی که به زعم آنان، در صورت ادامه بدون ضوابط ایمنی و اخلاقی، می تواند پیامدهایی مرگبار و برگشت ناپذیر برای آینده بشریت به دنبال داشته باشد. این گروه که در گفتمان عمومی گاه با عنوان «AI doomers» شناخته می شوند، معتقدند ظهور سامانه های هوش مصنوعی فوق پیشرفته ممکنست به تضعیف نهادهای دموکراتیک، تمرکز بی سابقه قدرت اطلاعاتی و کنترل در دست نخبگان فناور، دستکاری افکار عمومی و حتی بروز سناریوهایی منتهی به انقراض انسان منجر شود. اما در سال ۲۰۲۴، این جریان هشداردهنده که تا قبل از آن توانسته بود فضای سیاسی و رسانه ای را تا حدی تحت تأثیر قرار دهد، به صورت چشم گیری به حاشیه رانده شد و گفتمانی تازه، با رنگ و بوی عمل گرایی و خوش بینی فناورانه، جای آنرا گرفت؛ گفتمانی که در آن، هوش مصنوعی مولد نه به عنوان یک تهدید، بلکه به مثابه نیروی پیشران رشد اقتصادی، کارآیی نهادی و نوآوری فناورانه تصویر می شد. این چرخش پارادایم نه فقط در محافل سیاست گذاری، بلکه در رسانه ها، بازارهای سرمایه گذاری و گفتمان عمومی نیز بازتاب یافت و منافع آن، بالاتر از همه، متوجه شرکت های بزرگ فناوری و نهادهای سرمایه گذاری خطرپذیر بود. نقطه عطف در ۲۰۲۳ و تغییر گفتمانی در ۲۰۲۴ سال ۲۰۲۳ را می توان نقطه عطفی در ایجاد و گسترش جنبش ایمنی هوش مصنوعی دانست. در این سال، مجموعه ای از وقایع پر اهمیت سبب شد تا هشدارها نسبت به خطرات بنیادین فناوری های هوش مصنوعی از حاشیه محافل دانشگاهی و تحقیقاتی خارج شده و به اولویت هایی در سطح سیاستگذاری کلان تبدیل شوند. چهره هایی سرشناس مانند ایلان ماسک به همراه بالاتر از هزار پژوهشگر، استاد دانشگاه و مدیر فناوری، در اطلاعیه ای تاریخی خواهان توقف موقت توسعه مدلهای زبانی پیشرفته شدند تا فرصتی برای طراحی چارچوب های ایمنی و اخلاقی فراهم شود. در ادامه، نامه ای دیگر با امضای تعدادی از برجسته ترین دانشمندان فعال در شرکت هایی چون «OpenAI»، دیپ مایند و گوگل منتشر گردید که در آن تصریح شده بود خطر انقراض بشریت ناشی از هوش مصنوعی باید همچون تهدیدات هسته ای، زیستی و اقلیمی به رسمیت شناخته شود. دولت ایالات متحده به رهبری جو بایدن در واکنش به این فشارهای فزاینده، فرمان اجرائی جامعی صادر کرد که هدف آن صیانت از مردم آمریکا در مقابل آثار منفی سامانه های هوش مصنوعی، همچون سوگیری الگوریتمی، تهدیدات امنیتی و لطمه های اقتصادی بود. همچنین، در تحولی بی سابقه، هیات مدیره «OpenAI» تصمیم به برکناری مدیرعامل وقت، سم آلتمن گرفت و اعلام نمود که سطح اعتماد موردنیاز برای هدایت توسعه هوش مصنوعی جامع (AGI) از طرف وی تامین نمی گردد. این اقدام، هرچند موقتی، نشان دهنده حساسیت بی سابقه نسبت به مسئولیت پذیری در قبال فناوری های تحول آفرین بود. با این وجود، این جریان پرشتاب و پرطنین که در سال ۲۰۲۳ توانسته بود توجه جهانیان را به خود جلب نماید، در سال ۲۰۲۴ با موجی از مقاومت رو به رو شد و به تدریج از مرکز گفتمان سیاستگذاری کنار رفت. خیزش گفتمان خوش بینانه و ضد تنظیم گری در سال ۲۰۲۴، گفتمان خوش بینانه نسبت به آینده هوش مصنوعی با حمایت گسترده شرکت های بزرگ فناوری، صندوق های سرمایه گذاری خطرپذیر و کارآفرینان بانفوذ سیلیکون ولی به صورت گسترده تری رواج یافت. این جریان گفتمانی کوشش کرد تا روایتی مسلط از هوش مصنوعی به عنوان عامل نجات بخش اقتصاد، تضمین کننده برتری ملی و شتاب دهنده نوآوری شکل دهد؛ روایتی که در تقابل مستقیم با هشدارها بود. مارک اندریسن، بنیان گذار شرکت سرمایه گذاری «a16z»، در این سال، در مقاله ای پرسر و صدا با عنوان «چرا هوش مصنوعی جهان را نجات خواهد داد»، با لحنی قاطع و طعنه آمیز به رویکرد بدبینانه تاخت و آنرا فاقد بنیادهای عقلانی و علمی دانست. وی در این نوشتار، هوش مصنوعی را فرصتی تاریخی توصیف کرد که باید با تمام توان آنرا به کار گرفت، حتی اگر به قیمت عبور از ضوابط سنتی تنظیم گری باشد. اندریسن با استناد به منطق رقابت پذیری جهانی، خصوصاً در مقابل چین، از بازتولید ایده معروف «سریع حرکت کن و همه چیز را به هم بزن» دفاع کرد و آنرا چاره ای ضروری برای تضمین جایگاه رهبری آمریکا در عصر حاضر دانست. هم زمان با گسترش این گفتمان خوش بینانه، حمایت نهادهای سیاسی از رویکرد ایمنی نیز رو به افول گذاشت. بازگشت سم آلتمن به ریاست «OpenAI»، تنها چند روز بعد از برکناری جنجالی اش، نشانه ای از تثبیت مجدد نگاه تجاری و توسعه محور در رأس یکی از مهم ترین شرکت های هوش مصنوعی جهان بود. هم زمان، گروهی از محققان حوزه ایمنی که قبل تر در این شرکت فعال بودند، در اعتراض به تغییر اولویت های سازمانی و کمرنگ شدن ملاحظات اخلاقی، آنرا ترک کردند. افزون بر این، فرمان اجرائی جو بایدن که در سال ۲۰۲۳ با هدف تقویت ایمنی و شفافیت در توسعه هوش مصنوعی صادر شده بود، در سال ۲۰۲۴ در عمل بی اثر شد و با روی کار آمدن دونالد ترامپ در جایگاه رییس جمهور منتخب، رسماً کنسل شد. ترامپ و مشاوران نزدیکش که عمدتا از چهره های مخالف تنظیم گری محسوب می شوند، صراحتاً اعلام نمودند که رویکرد نظارتی دولت پیشین مانعی برای نوآوری و تهدیدی برای رقابت پذیری آمریکا بوده است. این مجموعه تحولات، چرخش آشکار فضای سیاستگذاری ایالات متحده را از نگرانی های ایمنی به طرف اولویت های اقتصادی و ژئوپلیتیکی نمایان ساخت. لایحه «SB 1047»؛ صحنه تقابل رویکردها مهم ترین میدان تقابل میان دو طرف در سال ۲۰۲۴، لایحه «SB 1047» در ایالت کالیفرنیا بود؛ لایحه ای که با حمایت پژوهشگرهایی چون جفری هینتون و یوشوا بنجیو و به ابتکار سناتور اسکات وینر تدوین شد. هدف این لایحه، ایجاد نظامی ایمنی محور برای مهار مخاطرات بالقوه سامانه های پیشرفته هوش مصنوعی بود؛ مخاطراتی همچون حملات سایبری در مقیاس ملی، نتایج اقتصادی فاجعه بار و حتی سناریوهای تهدیدآمیز برای بقای انسان. لایحه با تعیین الزامات خاصی برای توسعه دهندگان مدلهای هوش مصنوعی بسیار بزرگ، همچون تعهد به ارزیابی ایمنی و ارائه گزارش های منظم به دولت ایالتی، کوشید چارچوبی قانونی برای کاهش ریسک های طولانی مدت توسعه این فناوری فراهم آورد. لایحه مذکور با وجود مخالفت های گسترده، توانست از با موفقیت از مجلس قانون گذاری کالیفرنیا عبور کند، اما در مرحله نهایی، با وتوی فرماندار کالیفرنیا، گوین نیوسام روبرو شد. نیوسام در توضیح تصمیم خود، گفت: «نمی توان با این لایحه همه مشکلات را حل کرد» و با این جمله، نوعی واقع گرایی اجرائی را بازتاب داد که در بین خیلی از سیاست گذاران رواج یافته است: اذعان به پیچیدگی های فنی و اجرائی تنظیم گری در عرصه ای که با سرعت بی سابقه درحال تحول است و فاقد ابزارهای نظارتی آزموده شده و کارآمد به حساب می آید. در مقابل این لایحه، موجی از مخالفت سازمان یافته از طرف شرکت های سرمایه گذاری خطرپذیر، همچون «Y Combinator» و «a16z»، به راه افتاد. این نهادها با راه اندازی کمپین های تبلیغاتی گسترده، همچون انتشار نامه های سرگشاده و مصاحبه های رسانه ای، کوشیدند افکار عمومی و کارآفرینان جوان را نسبت به نتایج احتمالی این قانون نگران سازند. یکی از محوری ترین ادعاهای این کمپین، امکان تعقیب کیفری توسعه دهندگان به علت ارائه اطلاعات ناصحیح در گزارش های ایمنی بود. ادعایی که از طرف نهادهایی نظیر مؤسسه بروکینگز، تحریف واقعیت دانسته شد، چونکه لایحه فقط به قاعده ای عمومی اشاره کرده بود بر اساس این که درج اطلاعات ناصحیح در اسناد رسمی، می تواند مصداق شهادت دروغ تلقی شود؛ قاعده ای که قبل تر نیز در نظام حقوقی وجود داشته و کمتر سبب پیگرد قضائی شده است. با این وجود، فضای رسانه ای ایجادشده توسط مخالفان موجب شد تا لایحه در افکار عمومی به مثابه تهدیدی مقابل نوآوری و آزادی فناورانه جلوه کند. افول گفتمان ایمنی و نتایج اجتماعی سال ۲۰۲۴ نه فقط صحنه افول گفتمان فاجعه محور به هوش مصنوعی، بلکه دوره تثبیت و قدرت گیری روایتی فناورانه و اقتصادی بود که در آن مفاهیمی همچون رقابت راهبردی با چین، استفاده نظامی از ظرفیتهای هوش مصنوعی و تبدیل این فناوری به موتور محرک رشد اقتصادی، بطور کامل بر نگرانی های اخلاقی، انسانی و ایمنی غلبه یافتند. در این گفتمان غالب، هوش مصنوعی نه فقط تهدید تلقی نمی شد، بلکه فرصتی راهبردی برای برتری ژئوپلیتیک و تسلط فناورانه محسوب می شد. استفاده گسترده از واژگان توسعه محور در بیانیه ها، نشست ها و اسناد سیاستی نیز بیان کننده تغییر لحن و اولویت گذاری سیاست گذاران بود؛ تغییری که در آن، هشدارها درباره ی سناریوهای فاجعه بار بیشتر به چشم مانعی بر سر راه نوآوری تعبیر می شدند. با این وجود، جریان مدافع ایمنی، به رغم شکست های مقطعی، عقب ننشسته است. حامیان لایحه «SB 1047»، همچون نهادهایی مانند «Encode» و برخی سناتورهای ایالتی، اعلام نموده اند که در سال ۲۰۲۵ با نسخه ای اصلاح شده و احیانا هدفمندتر، بازخواهند گشت. هدف آنها ایجاد تعادلی میان پویایی فناورانه و ضرورت های اخلاقی و ایمنی در توسعه سامانه های پیشرفته هوش مصنوعی است. از طرف دیگر، سرمایه گذاران و کنشگران مخالف تنظیم گری نیز نشانه های روشنی از بسیج باردیگر منابع مالی، رسانه ای و سیاسی خود برای روبرو شدن با هرگونه مداخله قانونی بروز داده اند. چشم انداز این تقابل، از حالا نشانه هایی از یکی از جدی ترین رویارویی های سیاستگذاری در عرصه فناوری را در سال پیش رو ترسیم می کند. با وجود گفتمان غالب خوش بینانه، برخی رخدادها یادآور آن هستند که خطرات هوش مصنوعی، فقط مفاهیمی تخیلی یا آینده نگر نیستند. بنظر می رسد سال ۲۰۲۵ میدان جدیدی برای رویارویی گفتمان های متضاد درباره ی آینده هوش مصنوعی باشد؛ از یک سو کوشش برای طراحی نظام های ایمنی و پاسخ گویی و از طرف دیگر، مقاومت سازمان یافته در مقابل هرگونه تنظیم گری. اما واقعیت این است که نادیده گرفتن تهدیدات، خود می تواند خطرناک ترین انتخاب باشد.
منبع: newhp.ir
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب