ایمنی هوش مصنوعی، قربانی قراردادهای نظامی: چرخش نگران‌کننده غول‌های AI

فهرست مطالب

در یک تغییر مسیر بحث‌برانگیز، غول‌های فناوری هوش مصنوعی که تا دیروز بر شعارهای ایمنی و توسعه اخلاقی تأکید می‌کردند، اکنون آشکارا به سمت همکاری با صنایع نظامی و دفاعی حرکت کرده‌اند. این شرکت‌ها که بیانیه‌های مأموریت خود را بر پایه توسعه امن AI برای بشریت بنا نهاده بودند، حالا در حال توسعه و فروش فناوری‌های پیشرفته برای کاربردهای نظامی هستند، چرخشی که نگرانی‌های جدی را در میان کارشناسان برانگیخته است.

شرکت OpenAI، خالق ChatGPT، یکی از برجسته‌ترین نمونه‌های این تغییر رویکرد است. این شرکت در سال ۲۰۲۴، بندی را که استفاده از فناوری‌هایش در «امور نظامی و جنگی» را ممنوع می‌کرد، بی‌سروصدا از شرایط خدمات خود حذف کرد. این اقدام راه را برای همکاری‌های بزرگ هموار ساخت؛ به‌طوری که OpenAI به سرعت قراردادی با شرکت سازنده سلاح‌های خودران Anduril امضا کرد و کمی بعد نیز یک قرارداد ۲۰۰ میلیون دلاری با وزارت دفاع ایالات متحده (پنتاگون) منعقد نمود.

این روند تنها به OpenAI محدود نمی‌شود. شرکت Anthropic که همواره خود را به‌عنوان یکی از ایمنی‌محورترین آزمایشگاه‌های هوش مصنوعی معرفی کرده، با همکاری شرکت Palantir، به مدل‌های خود اجازه داده تا برای اهداف دفاعی و اطلاعاتی آمریکا مورد استفاده قرار گیرند. Anthropic نیز مانند رقیب خود، یک قرارداد ۲۰۰ میلیون دلاری با پنتاگون به دست آورده است. در کنار این دو، بازیگران بزرگ فناوری مانند آمازون، گوگل و مایکروسافت که سابقه طولانی در همکاری با دولت دارند، اکنون با وجود انتقادات فزاینده و اعتراضات گروه‌های فعال کارمندی، محصولات هوش مصنوعی خود را برای مقاصد دفاعی و اطلاعاتی تبلیغ می‌کنند.

هایدی خلاف (Heidy Khlaaf)، دانشمند ارشد هوش مصنوعی در مؤسسه AI Now و یکی از کارشناسان برجسته در زمینه ایمنی سیستم‌های تسلیحاتی خودران، این تغییر جهت را بسیار نگران‌کننده می‌داند. او معتقد است شرکت‌های پیشرو هوش مصنوعی با سهل‌انگاری و بی‌ پروایی بیش از حد، در حال استقرار هوش مصنوعی مولد در سناریوهایی با ریسک بالا هستند. به گفته او، انگیزه‌های مالی باعث شده تا اصول ایمنی که زمانی سنگ بنای این شرکت‌ها بود، به حاشیه رانده شود.

این چرخش به سمت کاربردهای نظامی، تنها به میدان‌های نبرد محدود نمی‌شود و تهدیدی بزرگ‌تر را نیز به همراه دارد. کارشناسان هشدار می‌دهند که این پیشرفت‌ها می‌تواند راه را برای بازیگران مخرب هموار کند تا از سیستم‌های هوش مصنوعی برای توسعه سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای استفاده کنند. این ریسکی است که خود شرکت‌های هوش مصنوعی نیز به طور فزاینده‌ای نسبت به آن ابراز نگرانی کرده‌اند، اما به نظر می‌رسد جاذبه قراردادهای هنگفت نظامی، فعلاً بر این دغدغه‌های ایمنی چیره شده است.

پایان
اشتراک گذاری
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها