Lầu Năm Góc gắn nhãn Anthropic là rủi ro chuỗi cung ứng vì từ chối gỡ bỏ giới hạn an toàn AI
Lầu Năm Góc gắn nhãn Anthropic là rủi ro chuỗi cung ứng sau khi công ty từ chối gỡ giới hạn an toàn AI cho mục đích quân sự. OpenAI nhanh chóng ký deal thay thế.

Bộ Quốc phòng Mỹ vừa chính thức chỉ định Anthropic — công ty AI đứng sau chatbot Claude — là "rủi ro chuỗi cung ứng có hiệu lực ngay lập tức". Nguyên nhân là do hai bên bất đồng về việc Anthropic kiên quyết giữ nguyên các giới hạn an toàn: không cho phép Claude tham gia vào hệ thống vũ khí tự động và không hỗ trợ giám sát hàng loạt công dân Mỹ.
Bộ trưởng Quốc phòng Pete Hegseth cho rằng các ràng buộc này không thể chấp nhận được đối với nhu cầu quân sự. Ngay sau đó, OpenAI bước vào ký deal với Pentagon để lấp chỗ trống. CEO Dario Amodei của Anthropic phản bác rằng quyết định này không có cơ sở pháp lý và công ty sẽ khiếu nại ra tòa.





