۰۲۱-۷۷۹۸۲۸۰۸
info@jannatefakkeh.com
ردپای هوش مصنوعی «کلاد» در بمباران کاراکاس
ردپای هوش مصنوعی «کلاد» در بمباران کاراکاس

ردپای هوش مصنوعی «کلاد» در بمباران کاراکاس

جزئیات

وال‌استریت ژورنال فاش کرد مدل هوش مصنوعی کلاد در عملیات ارتش آمریکا برای ربودن نیکلاس مادورو استفاده شده است. این نخستین کاربرد عملیاتی یک مدل زبانی بزرگ در مأموریت نظامی ارتش آمریکا محسوب می‌شود.

27 بهمن 1404

گروه بین‌الملل دفاع‌پرس: روزنامه وال استریت ژورنال روز شنبه فاش کرد که مدل هوش مصنوعی «کلاد» که توسط شرکت «آنتروپیک» توسعه‌ یافته، در عملیات ارتش آمریکا برای ربودن «نیکلاس مادورو» رئیس‌جمهور ونزوئلا مورد استفاده قرار گرفته است. این رویداد، نمونه‌ای منحصر به فرد از چگونگی بهره‌برداری وزارت دفاع آمریکا از فناوری هوش مصنوعی در عملیات‌های نظامی به شمار می‌رود.

اساسنامه کلاد که توسط آنتروپیک تهیه شده، به صراحت کاربرد این ابزار را در اهداف خشونت‌آمیز، توسعه سلاح‌ها و جاسوسی ممنوع کرده است. با این حال در جریان عملیات آمریکایی‌ها کاراکاس به صورت گسترده بمباران شد و ۸۳ جان باختند. افشای چنین اطلاعاتی بحث‌های جهانی پیرامون نقش هوش مصنوعی در درگیری‌های مسلحانه را تشدید می‌کند.

آنتروپیک نخستین شرکت توسعه‌دهنده هوش مصنوعی است که ابزار آن در یک عملیات طبقه‌بندی‌شده توسط وزارت دفاع آمریکا به کار گرفته شده‌ است. با این حال جزئیات دقیق نحوه استفاده از کلاد که قابلیت‌هایی چون هدایت پهپاد‌های خودران را دارد، هنوز نامشخص باقی مانده است.

سخنگوی آنتروپیک از اظهارنظر مستقیم درباره استفاده از کلاد در این عملیات خودداری و در عین حال تأکید کرد که هرگونه بهره‌برداری از این ابزار باید با سیاست‌های استفاده شرکت همخوانی داشته باشد. وزارت دفاع آمریکا نیز در برابر این ادعا‌ها سکوت اختیار کرده است.

وال استریت ژورنال به نقل از منابع ناشناس گزارش داد که کلاد از طریق شراکت آنتروپیک با شرکت «پالانتیر تکنولوژیز» -پیمانکار وزارت دفاع و آژانس‌های اجرای قانون فدرال آمریکا- در اختیار ارتش قرار گرفته است. پالانتیر از اظهارنظر در این زمینه امتناع ورزید.

این رویداد در حالی رخ می‌دهد که ارتش‌های جهان از جمله آمریکا روز به‌ روز بیشتر به هوش مصنوعی تکیه می‌کنند. برای مثال ارتش رژیم صهیونیستی از پهپاد‌های مجهز به قابلیت‌های خودکار در غزه استفاده کرده و هوش مصنوعی را برای پر کردن بانک اهداف خود به کار گرفته است. ارتش آمریکا نیز در سال‌های اخیر از هوش مصنوعی برای رهگیری اهداف در حملات به عراق و سوریه بهره برده است.

منتقدان نسبت به کاربرد هوش مصنوعی در فناوری‌های تسلیحاتی و سیستم‌های سلاح‌های خودکار هشدار داده‌اند. آنها به اشتباهات ناشی از تصمیم‌گیری رایانه‌ها اشاره می‌کنند که می‌تواند منجر به کشته شدن افراد بی‌گناه شود. شرکت‌های هوش مصنوعی با چالش چگونگی تعامل فناوری‌های خود با بخش دفاع رو‌به‌رو هستند.

«داریو آمودی» مدیرعامل آنتروپیک، بر لزوم وضع قوانین و مقررات و تنظیم‌گری برای جلوگیری از آسیب‌های ناشی از کاربرد هوش مصنوعی تأکید کرده و نسبت به استفاده از آن در عملیات‌های مرگبار خودکار و نظارت در آمریکا ابراز نگرانی کرده است.

این رویکرد محتاطانه ظاهرا وزارت دفاع آمریکا را ناراضی کرده است. «پیت هگسث» وزیر جنگ آمریکا در ژانویه اعلام کرد که وزارتخانه از مدل‌های هوش مصنوعی که اجازه جنگیدن نمی‌دهند، استفاده نخواهد کرد. پنتاگون در همان ماه همکاری با شرکت xAI متعلق به ایلان ماسک را رسما اعلام کرد. علاوه بر این وزارت دفاع از نسخه‌های سفارشی هوش مصنوعی گوگل جمینی و سامانه‌های اوپن‌ای‌آی برای حمایت از تحقیقات استفاده می‌کند.

اخبار مرتبط