علم و فناوری

گزارش جنجالی از استفاده ارتش آمریکا از هوش مصنوعی Claude در عملیات دستگیری مادورو

طبق گزارش‌ها، مدل هوش مصنوعی Claude متعلق به شرکت آنتروپیک (Anthropic) در یک عملیات نظامی ایالات متحده با هدف بازداشت نیکلاس مادورو، رئیس‌جمهور ونزوئلا، مورد استفاده قرار گرفته است؛ موضوعی که بحث‌های گسترده‌ای درباره نقش فناوری‌های تجاری هوش مصنوعی در اقدامات نظامی به‌دنبال داشته است.

بر اساس اظهارات منابع آگاه، این عملیات که ماه گذشته انجام شده، شامل حملات هوایی به چندین نقطه در کاراکاس بوده و نیکلاس مادورو و همسرش را هدف قرار داده است. اگرچه جزئیات دقیق نقش Claude در این مأموریت همچنان نامشخص است، اما همین که یک مدل تجاری هوش مصنوعی وارد یک عملیات نظامی واقعی شده، نقطه عطفی مهم و بحث‌برانگیز محسوب می‌شود.

مدل Claude که عمدتاً برای کارهایی مانند نگارش ایمیل، تحلیل اسناد و پاسخ‌گویی به پرسش‌ها شناخته می‌شود، بنا بر این گزارش‌ها، در فرآیندهای مرتبط با این عملیات به کار گرفته شده است. سخنگوی شرکت آنتروپیک در گفت‌وگو با وال‌استریت ژورنال (WSJ) اعلام کرده که این شرکت نمی‌تواند تأیید یا تکذیب کند آیا Claude یا هر مدل هوش مصنوعی دیگری در یک عملیات خاص استفاده شده یا خیر و تأکید کرده است که تمامی کاربران، چه در بخش خصوصی و چه در نهادهای دولتی، ملزم به رعایت سیاست‌های استفاده این شرکت هستند.

image 246 edited

نکته قابل توجه، تضاد میان این گزارش‌ها و دستورالعمل‌های رسمی آنتروپیک است. طبق سیاست‌های منتشرشده، استفاده از Claude برای تسهیل خشونت، توسعه سلاح یا انجام فعالیت‌های نظارتی ممنوع اعلام شده است. با این حال، عملیات مورد بحث شامل بمباران چندین موقعیت در پایتخت ونزوئلا بوده و همین موضوع، سیاست‌های مکتوب شرکت را در برابر واقعیت‌های میدان نبرد قرار داده است.

گزارش‌ها حاکی از آن است که آنتروپیک نخستین توسعه‌دهنده مدل هوش مصنوعی بوده که سامانه آن در عملیات‌های طبقه‌بندی‌شده وزارت دفاع آمریکا مورد استفاده قرار گرفته است. در عین حال، احتمال می‌رود ابزارهای هوش مصنوعی دیگری نیز برای وظایف غیرطبقه‌بندی‌شده در این مأموریت به کار گرفته شده باشند؛ از جمله تحلیل حجم بالای اسناد، تولید گزارش‌های عملیاتی یا پشتیبانی اطلاعاتی.

در فضای رقابتی صنعت هوش مصنوعی، همکاری با نهادهای نظامی می‌تواند نشانه‌ای از اعتماد و توان فنی شرکت‌ها تلقی شود، اما هم‌زمان ریسک‌های جدی اعتباری و اخلاقی را نیز به همراه دارد. داریو آمودی (Dario Amodei)، مدیرعامل آنتروپیک، پیش‌تر به‌صورت علنی نسبت به خطرات استفاده از سامانه‌های پیشرفته هوش مصنوعی هشدار داده و خواستار مقررات‌گذاری سخت‌گیرانه‌تر و سازوکارهای حفاظتی قوی‌تر شده بود.

او به‌ویژه نگرانی خود را درباره به‌کارگیری هوش مصنوعی در عملیات‌های مرگبار خودمختار و نظارت داخلی ابراز کرده است؛ مسائلی که بنا بر گزارش‌ها، به نقاط اختلاف در مذاکرات قراردادی میان آنتروپیک و پنتاگون تبدیل شده‌اند. در همین راستا، قرارداد ۲۰۰ میلیون دلاری که تابستان گذشته به این شرکت اعطا شد، اکنون زیر ذره‌بین قرار گرفته و برخی گزارش‌ها از بررسی امکان لغو آن به‌دلیل نگرانی‌های داخلی درباره نحوه استفاده نظامیان از Claude خبر می‌دهند.

نوشته های مشابه

دکمه بازگشت به بالا