وزارت جنگ آمریکا شرکت‌های هوش مصنوعی را تحت فشار قرار داده است تا بتواند از ابراز‌های آنان بدون محدودیت استفاده کند.

باشگاه خبرنگاران جوان؛ مینا عظیمی - رویترز فاش کرده است که پنتاگون (وزارت جنگ آمریکا) شرکت‌های بزرگ هوش مصنوعی (AI)، از جمله OpenAI و Anthropic، را تحت فشار قرار داده است تا ابزار‌های هوش مصنوعی خود را بدون محدودیت‌های متعددی که این شرکت‌ها در حال حاضر بر کاربران اعمال می‌کنند، در شبکه‌های طبقه‌بندی‌شده در دسترس قرار دهند.

به گفته دو منبع آگاه، امیل مایکل، مدیر ارشد فناوری پنتاگون، در رویدادی در کاخ سفید در روز سه‌شنبه، به مدیران فناوری گفت که ارتش آمریکا قصد دارد مدل‌های هوش مصنوعی خود را برای شبکه‌های طبقه‌بندی‌شده و طبقه‌بندی‌نشده در دسترس قرار دهد.

یکی از مقامات که نخواست نامش فاش شود، در گفت‌و‌گو با رویترز گفت که پنتاگون «در حال حرکت به سمت استقرار قابلیت‌های پیشرفته هوش مصنوعی در تمام شبکه‌ها در سطوح مختلف امنیتی است.»

این آخرین تحول در مذاکرات جاری بین پنتاگون و شرکت‌های بزرگ هوش مصنوعی در مورد چگونگی استفاده آمریکا از هوش مصنوعی در میدان‌های نبرد آینده است که در حال حاضر تحت سلطه پهپادها، ربات‌ها و حملات سایبری هستند.

این در بحبوحه بحث‌های فزاینده در مورد محدودیت‌ها صورت می‌گیرد. اظهارات مایکل احتمالا بحث داغ فعلی در مورد تمایل ارتش به استفاده بدون محدودیت از هوش مصنوعی و توانایی شرکت‌های فناوری برای تعیین محدودیت در نحوه استقرار ابزارهایشان را تشدید خواهد کرد.

بسیاری از شرکت‌های هوش مصنوعی در حال توسعه ابزار‌هایی مخصوص ارتش آمریکا هستند که اکثر آنها فقط در شبکه‌های طبقه‌بندی نشده که معمولا برای مدیریت نظامی استفاده می‌شوند، در دسترس هستند.

تنها یک شرکت هوش مصنوعی، آنتروپیک، ابزار‌های خود را از طریق اشخاص ثالث در شبکه‌های طبقه‌بندی شده در دسترس قرار می‌دهد، اما دولت همچنان ملزم به رعایت سیاست‌های استفاده از این شرکت است. این شبکه‌های طبقه‌بندی شده برای انجام طیف وسیعی از وظایف بسیار حساس، از جمله برنامه‌ریزی ماموریت و استقرار سلاح‌ها، استفاده می‌شوند.

نگرانی‌ها در مورد خطا‌های مهلک

مقامات نظامی امیدوارند از قدرت هوش مصنوعی برای جمع‌آوری اطلاعات و کمک به تصمیم‌گیری استفاده کنند. با این حال، با وجود قدرت آنها، این ابزار‌ها می‌توانند اشتباه کنند یا اطلاعاتی را جعل کنند که در ابتدا ممکن است قابل قبول به نظر برسند.

محققان هوش مصنوعی می‌گویند چنین خطا‌هایی در شبکه‌های طبقه‌بندی شده می‌تواند عواقب مهلکی داشته باشد. OpenAI با پنتاگون به توافق رسید که به ارتش اجازه می‌دهد از ابزار‌های آن، از جمله ChatGBT، در یک شبکه طبقه‌بندی نشده استفاده کند و آنها را در اختیار بیش از ۳ میلیون کارمند وزارت دفاع آمریکا قرار داد.

به عنوان بخشی از این قرارداد، OpenAI موافقت کرد که بسیاری از محدودیت‌های معمول کاربران خود را حذف کند، اگرچه برخی از کنترل‌ها همچنان پابرجا هستند.

منبع: الجزیره

پیشنهادی باخبر