رقابت تسلیحاتی هوش مصنوعی و تهدیدات آن برای بشریت

رقابت تسلیحاتی هوش مصنوعی و خطرات بالقوه آن برای بشریت
تأثیرات منفی و ویرانگر هوش مصنوعی بر بشریت از آنچه تصور میشود، عمیقتر است.
شرکتها به هیچ قیمتی متوقف نمیشوند. نه حتی به قیمت امنیت کودکان ما، و همه اینها به خاطر سود و رقابت است.
در پروژه جدید رباتهای هوش مصنوعی متا، که بر روی تمامی پلتفرمهای این شرکت راهاندازی شده است، متا محدودیتهای خود را کاهش داده تا رباتها جذابتر شوند و اجازه میدهد تا در نقشآفرینیهای عاشقانه و “سکس خیالی”، حتی با کاربران زیر سن قانونی، شرکت کنند. کارکنان نسبت به خطراتی که این موضوع به ویژه برای نوجوانان به همراه دارد، هشدار دادهاند.
پس از اینکه ChatGPT شرکت OpenAI رشد قابل توجهی در هوش مصنوعی مولد ایجاد کرد، مارک زاکربرگ، مدیر عامل متا، از تیمهای خود خواست تا رباتهای هوش مصنوعی را بیشتر “انساننما” و سرگرمکننده کنند، حتی اگر این به معنای کاهش تدابیر ایمنی باشد. زاکربرگ در یک جلسه داخلی گفته است: “من از Snapchat و TikTok جا ماندم، نمیخواهم از این یکی جا بمانم.”
از دست دادن انسانیت و خودمختاری
تحول شتابان هوش مصنوعی احتمالاً به از دست رفتن کامل انسانیت منجر خواهد شد و ما را ضعیف، به راحتی قابل دستکاری و به طور کامل وابسته به شرکتهایی که خدمات هوش مصنوعی ارائه میدهند، خواهد کرد.
پیشرفتهای اخیر در زمینه هوش مصنوعی این روند از دست دادن انسانیت را تسریع کرده است. ما بیش از 25 سال است که از زمان معرفی اولین سیستمهای پیشنهادی مبتنی بر هوش مصنوعی توسط شرکتهایی مانند آمازون، نتفلیکس و یوتیوب، در حال تجربه این روند هستیم.
شرکتها ویژگیهای مبتنی بر هوش مصنوعی را به عنوان ابزارهای ضروری شخصیسازی معرفی میکنند و ادعا میکنند که بدون آنها، کاربران در دریایی از محتوای نامربوط گم میشوند. اجازه دادن به شرکتها برای تعیین اینکه مردم چه بخرند، چه ببینند و چه فکر کنند، به طور جهانی نرمال شده است و تلاشهای کمی برای تنظیم آن وجود دارد. با این حال، عواقب آن میتواند قابل توجه باشد.
هوش مصنوعی مولد و از دست دادن انسانیت
هوش مصنوعی مولد این روند از دست دادن انسانیت را به سطح بعدی برده است. به طور معمول، ادغام ویژگیهای هوش مصنوعی مولد در برنامههای موجود برای افزایش بهرهوری انسان یا بهبود نتایج انسانی انجام میشود. پشت این فشار عظیم این ایده نهفته است که انسانها به اندازه کافی خوب نیستند و کمک هوش مصنوعی مطلوبتر است.
یک مقاله در سال 2024 به نام “هوش مصنوعی مولد میتواند به یادگیری آسیب برساند” نشان داد که “دسترسی به GPT-4 به طرز قابل توجهی عملکرد را بهبود میبخشد (بهبود 48٪ برای GPT Base و 127٪ برای GPT Tutor). همچنین ما متوجه شدیم که وقتی دسترسی به آن بهطور بعدی قطع میشود، دانشآموزان عملکرد بدتری نسبت به کسانی که هرگز به آن دسترسی نداشتند، دارند (کاهش 17٪ برای GPT Base). به عبارت دیگر، دسترسی به GPT-4 میتواند به نتایج آموزشی آسیب برساند.”
این موضوع نگرانکننده است. هوش مصنوعی مولد افراد را ضعیف کرده و آنها را به آن وابسته میکند. افراد نه تنها ممکن است توانایی تولید نتایج مشابه را از دست بدهند، بلکه ممکن است در سرمایهگذاری زمان و تلاش برای یادگیری مهارتهای اساسی نیز ناکام بمانند.
ما در حال از دست دادن خودمختاری خود برای فکر کردن، ارزیابی و خلق هستیم که منجر به از دست رفتن کامل انسانیت میشود. اظهارات ایلان ماسک که “هوش مصنوعی به مراتب از انسانها باهوشتر خواهد بود”، در حالی که روند از دست رفتن انسانیت ادامه دارد، تعجبآور نیست، زیرا دیگر آنچه که ما را انسان میکند، نخواهیم بود.
سلاحهای خودکار مبتنی بر هوش مصنوعی
برای دههها، نیروهای نظامی از سلاحهای خودکار، از جمله مینها، اژدرها و موشکهای حرارتی استفاده کردهاند که بر اساس بازخوردهای ساده واکنشی بدون کنترل انسانی عمل میکنند.
اکنون، این فناوری به عرصه طراحی سلاح وارد شده است.
سلاحهای مبتنی بر هوش مصنوعی شامل پهپادها و رباتها بهطور فعال در حال توسعه و استفاده هستند. به دلیل اینکه این فناوری به راحتی گسترش مییابد، به مرور زمان تنها قادرتر و پیچیدهتر خواهد شد.
یک بازدارنده اصلی که مانع از آغاز جنگها توسط کشورها میشود، کشته شدن سربازان است – هزینه انسانی برای شهروندان که میتواند پیامدهای داخلی برای رهبران ایجاد کند. توسعه فعلی سلاحهای مبتنی بر هوش مصنوعی به هدف قرار دادن سربازان انسانی از خطر کمک میکند. اگر در جنگهای تهاجمی، سربازان کمی کشته شوند، این ارتباط بین اعمال جنگ و هزینه انسانی تضعیف میشود و آغاز جنگها برای سیاستمداران آسانتر میشود، که به نوبه خود میتواند به مرگ و ویرانی بیشتری منجر شود.
مشکلات ژئوپولیتیکی عمده ممکن است به سرعت به وجود آید زیرا رقابت تسلیحاتی مبتنی بر هوش مصنوعی تشدید میشود و این فناوری به گسترش خود ادامه میدهد.
رباتهای “سرباز” نرمافزاری هستند که ممکن است به خطر بیفتند. اگر هک شوند، ارتش کل رباتها ممکن است علیه یک ملت عمل کند و منجر به ویرانی گسترده شود. امنیت سایبری قویتر از ارتش خودکار نیز از اهمیت بیشتری برخوردار خواهد بود.
به یاد داشته باشید که این حمله سایبری میتواند بر هر سیستم خودکار تأثیر بگذارد. شما میتوانید یک ملت را تنها با هک کردن سیستمهای مالی آن نابود کنید و تمام منابع اقتصادی آن را تخلیه کنید. هیچ انسانی آسیب نخواهد دید، اما آنها ممکن است بدون منابع مالی قادر به بقا نباشند.
سناریوی آخرالزمانی
ماسک در یک مصاحبه با فاکس نیوز گفت: “هوش مصنوعی خطرناکتر از طراحی بد هواپیما یا نگهداری نامناسب تولید خودرو است.” او افزود: “در این معنا که این پتانسیل – هرچقدر هم که احتمال آن کم باشد، اما غیرقابل انکار است – میتواند به نابودی تمدن منجر شود.”
ماسک و جیفری هینتون به تازگی نگرانیهای خود را ابراز کردند که احتمال تهدید وجودی هوش مصنوعی 10٪ تا 20٪ است.
با پیشرفتهتر شدن این سیستمها، ممکن است شروع به عمل در برابر انسانها کنند. یک مقاله منتشر شده توسط محققان آنتروپیک در دسامبر 2024 نشان داد که هوش مصنوعی میتواند تظاهر به همراستایی کند. اگر این امر با مدلهای فعلی هوش مصنوعی امکانپذیر باشد، تصور کنید که این مدلها چه کارهایی میتوانند انجام دهند وقتی که قدرت بیشتری پیدا کنند.
آیا بشریت میتواند نجات یابد؟
توجه زیادی به سود و قدرت و تقریباً هیچ توجهی به ایمنی وجود دارد.
رهبران باید بیشتر نگران ایمنی عمومی و آینده بشریت باشند تا کسب برتری در هوش مصنوعی. “هوش مصنوعی مسئول” نه تنها یک کلمه کلیدی است، بلکه نباید به عنوان سیاستها و وعدههای توخالی تلقی شود. این باید در ذهن هر توسعهدهنده، شرکت یا رهبر باشد و بهطور ذاتی در هر سیستم هوش مصنوعی پیادهسازی شود.
همکاری بین شرکتها و کشورها برای جلوگیری از هر سناریوی آخرالزمانی ضروری است. و اگر رهبران از عهده این کار برنیایند، مردم باید این خواسته را مطرح کنند.
آینده ما به عنوان بشریت به شدت در خطر است. یا باید اطمینان حاصل کنیم که هوش مصنوعی به نفع ما عمل میکند یا بگذاریم ما را نابود کند.