فناوری

حمایت کارکنان گوگل و OpenAI از موضع آنتروپیک در برابر درخواست‌های نظامی

بیش از ۳۶۰ کارمند گوگل و OpenAI با امضای نامه‌ای سرگشاده از محدودیت‌های اعمال‌شده توسط آنتروپیک درباره استفاده نظامی از هوش مصنوعی حمایت کرده و خواستار مخالفت شرکت‌ها با درخواست‌های دسترسی نامحدود United States Department of Defense به فناوری‌های این حوزه شدند.

به گزارش سرویس هوش مصنوعی مگ جوانک، در پی اختلاف میان Anthropic و United States Department of Defense بر سر دسترسی نامحدود ارتش آمریکا به فناوری‌های این شرکت، گروهی از کارکنان دو غول فناوری دیگر نیز وارد این بحث شده‌اند.

بیش از ۳۰۰ کارمند گوگل و بیش از ۶۰ کارمند OpenAI با امضای نامه‌ای سرگشاده از مدیران شرکت‌های خود خواسته‌اند از موضع آنتروپیک حمایت کرده و با استفاده یک‌جانبه از فناوری‌های هوش مصنوعی در کاربردهای نظامی خاص مخالفت کنند.

این نامه سرگشاده در شرایطی منتشر شده که مهلت تعیین‌شده توسط وزارت دفاع آمریکا برای پذیرش درخواست‌های این نهاد به پایان نزدیک می‌شود. در متن نامه، امضاکنندگان تأکید کرده‌اند که شرکت‌ها باید اختلافات تجاری و رقابتی خود را کنار بگذارند و در حمایت از محدودیت‌هایی که آنتروپیک در زمینه استفاده از هوش مصنوعی برای نظارت گسترده داخلی و توسعه سلاح‌های کاملاً خودمختار تعیین کرده است، متحد شوند.

مخالفت کارکنان گوگل و اوپن‌ای‌آی با کاربرد نظامی هوش مصنوعی

کارکنان معترض در این نامه مدعی شده‌اند که برخی تلاش‌ها برای ایجاد فشار میان شرکت‌ها از طریق ترس از تسلیم شدن رقیب انجام می‌شود و این راهبرد تنها در صورتی موفق خواهد بود که موضع طرف‌های دیگر ناشناخته بماند. آنان همچنین از مدیران اجرایی گوگل و اوپن‌ای‌آی خواسته‌اند خطوط قرمز اعلام‌شده درباره جلوگیری از نظارت جمعی و تسلیحات خودکار را حفظ کنند.

واکنش رسمی مدیران این شرکت‌ها هنوز منتشر نشده است، اما برخی اظهارنظرهای غیررسمی نشان می‌دهد که هر دو شرکت نسبت به موضع آنتروپیک همدلی دارند. به‌عنوان نمونه، Sam Altman، مدیرعامل اوپن‌ای‌آی، در مصاحبه‌ای اعلام کرد که به‌نظر او نباید وزارت دفاع آمریکا شرکت‌های فناوری را با ابزارهایی مانند قانون تولید دفاعی تحت فشار قرار دهد. همچنین سخنگوی اوپن‌ای‌آی تأیید کرده است که این شرکت با محدودیت‌های آنتروپیک درباره جلوگیری از توسعه سلاح‌های خودمختار و نظارت گسترده موافق است.

در سوی دیگر، بخش تحقیقاتی Google DeepMind نیز واکنش رسمی به این مناقشه نشان نداده است، اما Jeff Dean به‌عنوان موضع شخصی خود با نظارت گسترده دولتی مخالفت کرده و در شبکه اجتماعی X نوشته است که نظارت جمعی با متمم چهارم قانون اساسی آمریکا در تضاد بوده و می‌تواند آزادی بیان را محدود کند.

بر اساس گزارش‌ها، ارتش آمریکا در حال حاضر امکان استفاده از مدل‌های هوش مصنوعی شرکت‌های فناوری از جمله سرویس‌های متعلق به X Corp، Google Gemini و ChatGPT را برای برخی وظایف غیرمحرمانه دارد و در حال مذاکره با گوگل و اوپن‌ای‌آی برای توسعه کاربردهای نظامی طبقه‌بندی‌شده است.

تک کرانچ می نویسد که، با وجود همکاری‌های پیشین آنتروپیک با وزارت دفاع آمریکا، این شرکت همچنان بر این اصل تأکید دارد که فناوری‌های هوش مصنوعی آن نباید در نظارت داخلی گسترده یا توسعه سلاح‌های کاملاً خودکار مورد استفاده قرار گیرد. این موضع در شرایطی مطرح شده که مقامات نظامی آمریکا هشدار داده‌اند در صورت عدم همکاری، ممکن است این شرکت به‌عنوان «ریسک زنجیره تأمین» معرفی شود یا با استناد به قانون تولید دفاعی برای پذیرش درخواست‌های نظامی تحت فشار قرار گیرد.

این مناقشه جدید نشان‌دهنده افزایش حساسیت اخلاقی و سیاسی پیرامون استفاده نظامی از فناوری‌های هوش مصنوعی و نقش شرکت‌های بزرگ فناوری در تعیین مرزهای کاربرد این فناوری در حوزه امنیت ملی است.

Source link

تیم تحریریه مگ جوان

تیم تحریریه magjavan.ir با هدف ارائه محتوای به‌روز، جذاب و کاربردی در حوزه‌های مختلف خبری، فرهنگی و اجتماعی فعالیت می‌کند. این تیم با بهره‌گیری از نویسندگان و پژوهشگران حرفه‌ای تلاش دارد تا اطلاعات دقیق و مطالب ارزشمند را به خوانندگان ارائه دهد و تجربه‌ای متفاوت از مطالعه آنلاین ایجاد کند.

نوشته های مشابه

دکمه بازگشت به بالا