فناوری

ترامپ استفاده از هوش مصنوعی Anthropic را ممنوع کرد

دونالد ترامپ، رئیس‌جمهور ایالات متحده روز جمعه ۲۷ فوریه در پیامی در شبکه اجتماعی Truth Social اعلام کرد که تمام نهادهای فدرال باید به سرعت استفاده از فناوری‌های هوش مصنوعی شرکت Anthropic را متوقف کنند.

به گزارش سرویس هوش مصنوعی مگ جوان، این دستور حدود یک ساعت پیش از مهلت رسمی پنتاگون به Anthropic برای اجرای تعهدات خود منتشر شد.

ترامپ در این پست نوشت: «ایالات متحده هرگز اجازه نخواهد داد یک شرکت چپ‌گرای رادیکال مشخص کند که ارتش بزرگ ما چگونه می‌جنگد و پیروز می‌شود.» وی تصریح کرد که دستور داده است همه نهادهای فدرال «بلافاصله استفاده از فناوری شرکت Anthropic را متوقف کنند.»

اختلاف میان دولت و این شرکت از قراردادی به ارزش حداکثر ۲۰۰ میلیون دلار ریشه می‌گیرد که تابستان گذشته میان پنتاگون و Anthropic امضا شد. شرکت Anthropic خواستار تضمین کتبی بود تا مدل‌های Claude برای نظارت گسترده بر شهروندان آمریکایی یا کنترل سامانه‌های تسلیحاتی بدون دخالت انسان استفاده نشود. در مقابل، پنتاگون تأکید کرد که باید اختیار بهره‌گیری از این فناوری را برای «همه اهداف قانونی» داشته باشد و استثناگذاری‌های موردی را غیرعملی دانست.

استفاده از هوش مصنوعی Anthropic توسط ترامپ ممنوع شد

بر اساس گزارش Tom’s Hardware، پس از شکست ماه‌ها گفت‌وگو میان دو طرف، داریو آمودی، مدیرعامل Anthropic روز پنج‌شنبه اعلام کرد که شرکت او «از نظر اخلاقی نمی‌تواند شروط وزارت دفاع را بپذیرد». در پی این موضع‌گیری، پنتاگون تهدید کرد که با تکیه بر قانون تولید دفاعی مصوب دوران جنگ کره، Anthropic را به همکاری وادار کرده است و این شرکت را به‌ عنوان «ریسک زنجیره تأمین» طبقه‌بندی خواهد کرد؛ برچسبی که معمولاً به شرکت‌های مستقر در کشورهای رقیب مانند Huawei اطلاق می‌شود.

ترامپ شرکت Anthropic را متهم کرد که با «فشار بر وزارت جنگ» می‌خواهد شرایط خدمات خود را بر قانون اساسی آمریکا تحمیل کند. او هشدار داد که این اقدام جان شهروندان آمریکایی را به خطر می‌اندازد و به نهادهای دولتی شش ماه فرصت داد تا هرگونه همکاری با این شرکت را متوقف کنند. همچنین ترامپ تهدید کرد که در صورت ادامه سرپیچی Anthropic، از «تمام اختیارات ریاست‌جمهوری برای واداشتن آن به تبعیت» استفاده خواهد کرد؛ اقدامی که می‌تواند پیامدهای حقوقی و کیفری جدی در پی داشته باشد.

در حال حاضر، مدل Claude تنها سامانه هوش مصنوعی مورد تأیید برای استفاده در پروژه‌های طبقه‌بندی‌شده نظامی بود و شرکت نرم‌افزاری Palantir که از Claude در قراردادهای حساس دولتی خود بهره می‌برد، باید جایگزینی فوری بیابد. سم آلتمن، مدیرعامل OpenAI نیز اعلام کرده است دیدگاهی مشابه Anthropic در خصوص مرزهای اخلاقی تسلیحات خودکار دارد که جایگزینی مستقیم را دشوار می‌کند. در این میان، ایلان ماسک موافقت اولیه خود را با درخواست پنتاگون درباره «استفاده برای تمامی اهداف قانونی» اعلام کرده است و احتمال دارد مدل Grok جایگزین Claude شود.

Source link

تیم تحریریه مگ جوان

تیم تحریریه magjavan.ir با هدف ارائه محتوای به‌روز، جذاب و کاربردی در حوزه‌های مختلف خبری، فرهنگی و اجتماعی فعالیت می‌کند. این تیم با بهره‌گیری از نویسندگان و پژوهشگران حرفه‌ای تلاش دارد تا اطلاعات دقیق و مطالب ارزشمند را به خوانندگان ارائه دهد و تجربه‌ای متفاوت از مطالعه آنلاین ایجاد کند.

نوشته های مشابه

دکمه بازگشت به بالا