
طبق گزارشها، مدل هوش مصنوعی Claude متعلق به شرکت آنتروپیک (Anthropic) در یک عملیات نظامی ایالات متحده با هدف بازداشت نیکلاس مادورو، رئیسجمهور ونزوئلا، مورد استفاده قرار گرفته است؛ موضوعی که بحثهای گستردهای درباره نقش فناوریهای تجاری هوش مصنوعی در اقدامات نظامی بهدنبال داشته است.
بر اساس اظهارات منابع آگاه، این عملیات که ماه گذشته انجام شده، شامل حملات هوایی به چندین نقطه در کاراکاس بوده و نیکلاس مادورو و همسرش را هدف قرار داده است. اگرچه جزئیات دقیق نقش Claude در این مأموریت همچنان نامشخص است، اما همین که یک مدل تجاری هوش مصنوعی وارد یک عملیات نظامی واقعی شده، نقطه عطفی مهم و بحثبرانگیز محسوب میشود.
مدل Claude که عمدتاً برای کارهایی مانند نگارش ایمیل، تحلیل اسناد و پاسخگویی به پرسشها شناخته میشود، بنا بر این گزارشها، در فرآیندهای مرتبط با این عملیات به کار گرفته شده است. سخنگوی شرکت آنتروپیک در گفتوگو با والاستریت ژورنال (WSJ) اعلام کرده که این شرکت نمیتواند تأیید یا تکذیب کند آیا Claude یا هر مدل هوش مصنوعی دیگری در یک عملیات خاص استفاده شده یا خیر و تأکید کرده است که تمامی کاربران، چه در بخش خصوصی و چه در نهادهای دولتی، ملزم به رعایت سیاستهای استفاده این شرکت هستند.

نکته قابل توجه، تضاد میان این گزارشها و دستورالعملهای رسمی آنتروپیک است. طبق سیاستهای منتشرشده، استفاده از Claude برای تسهیل خشونت، توسعه سلاح یا انجام فعالیتهای نظارتی ممنوع اعلام شده است. با این حال، عملیات مورد بحث شامل بمباران چندین موقعیت در پایتخت ونزوئلا بوده و همین موضوع، سیاستهای مکتوب شرکت را در برابر واقعیتهای میدان نبرد قرار داده است.
گزارشها حاکی از آن است که آنتروپیک نخستین توسعهدهنده مدل هوش مصنوعی بوده که سامانه آن در عملیاتهای طبقهبندیشده وزارت دفاع آمریکا مورد استفاده قرار گرفته است. در عین حال، احتمال میرود ابزارهای هوش مصنوعی دیگری نیز برای وظایف غیرطبقهبندیشده در این مأموریت به کار گرفته شده باشند؛ از جمله تحلیل حجم بالای اسناد، تولید گزارشهای عملیاتی یا پشتیبانی اطلاعاتی.
در فضای رقابتی صنعت هوش مصنوعی، همکاری با نهادهای نظامی میتواند نشانهای از اعتماد و توان فنی شرکتها تلقی شود، اما همزمان ریسکهای جدی اعتباری و اخلاقی را نیز به همراه دارد. داریو آمودی (Dario Amodei)، مدیرعامل آنتروپیک، پیشتر بهصورت علنی نسبت به خطرات استفاده از سامانههای پیشرفته هوش مصنوعی هشدار داده و خواستار مقرراتگذاری سختگیرانهتر و سازوکارهای حفاظتی قویتر شده بود.
او بهویژه نگرانی خود را درباره بهکارگیری هوش مصنوعی در عملیاتهای مرگبار خودمختار و نظارت داخلی ابراز کرده است؛ مسائلی که بنا بر گزارشها، به نقاط اختلاف در مذاکرات قراردادی میان آنتروپیک و پنتاگون تبدیل شدهاند. در همین راستا، قرارداد ۲۰۰ میلیون دلاری که تابستان گذشته به این شرکت اعطا شد، اکنون زیر ذرهبین قرار گرفته و برخی گزارشها از بررسی امکان لغو آن بهدلیل نگرانیهای داخلی درباره نحوه استفاده نظامیان از Claude خبر میدهند.



