در یک تغییر مسیر بحثبرانگیز، غولهای فناوری هوش مصنوعی که تا دیروز بر شعارهای ایمنی و توسعه اخلاقی تأکید میکردند، اکنون آشکارا به سمت همکاری با صنایع نظامی و دفاعی حرکت کردهاند. این شرکتها که بیانیههای مأموریت خود را بر پایه توسعه امن AI برای بشریت بنا نهاده بودند، حالا در حال توسعه و فروش فناوریهای پیشرفته برای کاربردهای نظامی هستند، چرخشی که نگرانیهای جدی را در میان کارشناسان برانگیخته است.
شرکت OpenAI، خالق ChatGPT، یکی از برجستهترین نمونههای این تغییر رویکرد است. این شرکت در سال ۲۰۲۴، بندی را که استفاده از فناوریهایش در «امور نظامی و جنگی» را ممنوع میکرد، بیسروصدا از شرایط خدمات خود حذف کرد. این اقدام راه را برای همکاریهای بزرگ هموار ساخت؛ بهطوری که OpenAI به سرعت قراردادی با شرکت سازنده سلاحهای خودران Anduril امضا کرد و کمی بعد نیز یک قرارداد ۲۰۰ میلیون دلاری با وزارت دفاع ایالات متحده (پنتاگون) منعقد نمود.
این روند تنها به OpenAI محدود نمیشود. شرکت Anthropic که همواره خود را بهعنوان یکی از ایمنیمحورترین آزمایشگاههای هوش مصنوعی معرفی کرده، با همکاری شرکت Palantir، به مدلهای خود اجازه داده تا برای اهداف دفاعی و اطلاعاتی آمریکا مورد استفاده قرار گیرند. Anthropic نیز مانند رقیب خود، یک قرارداد ۲۰۰ میلیون دلاری با پنتاگون به دست آورده است. در کنار این دو، بازیگران بزرگ فناوری مانند آمازون، گوگل و مایکروسافت که سابقه طولانی در همکاری با دولت دارند، اکنون با وجود انتقادات فزاینده و اعتراضات گروههای فعال کارمندی، محصولات هوش مصنوعی خود را برای مقاصد دفاعی و اطلاعاتی تبلیغ میکنند.
هایدی خلاف (Heidy Khlaaf)، دانشمند ارشد هوش مصنوعی در مؤسسه AI Now و یکی از کارشناسان برجسته در زمینه ایمنی سیستمهای تسلیحاتی خودران، این تغییر جهت را بسیار نگرانکننده میداند. او معتقد است شرکتهای پیشرو هوش مصنوعی با سهلانگاری و بی پروایی بیش از حد، در حال استقرار هوش مصنوعی مولد در سناریوهایی با ریسک بالا هستند. به گفته او، انگیزههای مالی باعث شده تا اصول ایمنی که زمانی سنگ بنای این شرکتها بود، به حاشیه رانده شود.
این چرخش به سمت کاربردهای نظامی، تنها به میدانهای نبرد محدود نمیشود و تهدیدی بزرگتر را نیز به همراه دارد. کارشناسان هشدار میدهند که این پیشرفتها میتواند راه را برای بازیگران مخرب هموار کند تا از سیستمهای هوش مصنوعی برای توسعه سلاحهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای استفاده کنند. این ریسکی است که خود شرکتهای هوش مصنوعی نیز به طور فزایندهای نسبت به آن ابراز نگرانی کردهاند، اما به نظر میرسد جاذبه قراردادهای هنگفت نظامی، فعلاً بر این دغدغههای ایمنی چیره شده است.