Chọn trang

Xung đột Đạo đức và Quyền lực: Tại sao Lầu Năm Góc muốn ‘chia tay’ Anthropic?

Lầu Năm Góc và Anthropic mâu thuẫn về AI quân sự

Trong bối cảnh cuộc chạy đua vũ trang kỹ thuật số toàn cầu đang nóng lên từng ngày, một sự rạn nứt lớn đã xuất hiện tại trung tâm quyền lực quân sự Hoa Kỳ. Lầu Năm Góc, cơ quan điều hành Bộ Quốc phòng Mỹ (DoD), đang xem xét nghiêm túc việc chấm dứt các hợp đồng hợp tác với Anthropic. Lý do cốt lõi không nằm ở năng lực kỹ thuật, mà nằm ở một ‘bức tường lửa’ đạo đức mà Anthropic đã dựng lên xung quanh các mô hình ngôn ngữ lớn (LLM) của mình.

1. Nguồn cơn của sự rạn nứt: Khi ‘Hiến pháp AI’ gặp gỡ ‘Nghệ thuật Chiến tranh’

Anthropic, công ty được thành lập bởi các cựu nhân viên của OpenAI, nổi tiếng với phương pháp tiếp cận ‘Constitutional AI’ (AI theo Hiến pháp). Đây là một khung kỹ thuật cho phép họ huấn luyện AI tuân thủ một bộ nguyên tắc đạo đức cụ thể, ngăn chặn nó tạo ra các nội dung gây hại, phân biệt đối xử hoặc tham gia vào các hoạt động mang tính hủy diệt. Tuy nhiên, chính những rào cản này lại đang trở thành ‘hòn đá tảng’ ngăn cản tham vọng của Lầu Năm Góc.

Quân đội Mỹ đang tìm kiếm sự hỗ trợ từ AI cho ba trụ cột chính: phát triển vũ khí tự hành, thu thập tình báo tự độnghỗ trợ ra quyết định trên chiến trường. Theo các nguồn tin nội bộ, các mô hình của Anthropic, cụ thể là dòng Claude, thường xuyên từ chối xử lý các yêu cầu liên quan đến việc tối ưu hóa mục tiêu tấn công hoặc phân tích dữ liệu tình báo có tính chất nhạy cảm về mặt quân sự. Điều này khiến các nhà hoạch định chính sách tại Lầu Năm Góc cảm thấy rằng họ đang đầu tư vào một công cụ ‘quá an toàn’ đến mức vô dụng trong thực chiến.

2. Tầm nhìn của Lầu Năm Góc: AI là chìa khóa của sự sinh tồn

Để hiểu tại sao Lầu Năm Góc lại thất vọng, chúng ta cần nhìn vào bức tranh toàn cảnh về an ninh quốc gia. Các đối thủ cạnh tranh chiến lược của Mỹ, đặc biệt là Trung Quốc và Nga, đang đổ hàng tỷ USD vào AI quân sự mà không gặp phải các rào cản đạo đức tương tự từ khu vực tư nhân. Tại Bắc Kinh, các công ty công nghệ được yêu cầu tích hợp chặt chẽ với quân đội theo chiến lược ‘Dân quân hợp nhất’.

Lầu Năm Góc lo ngại rằng nếu họ bị ràng buộc bởi các hạn chế của Anthropic, Mỹ sẽ mất đi lợi thế công nghệ trên chiến trường tương lai. Trí tuệ nhân tạo không chỉ là một công cụ hỗ trợ; nó là trung tâm của các hệ thống vũ khí thế hệ mới, từ máy bay không người lái bầy đàn đến các hệ thống phòng thủ tên lửa siêu vượt âm. Một AI từ chối ‘nghĩ về cái chết’ hoặc ‘lập kế hoạch tấn công’ đơn giản là không phù hợp với các mô hình mô phỏng chiến tranh (war-gaming) mà Bộ Quốc phòng yêu cầu.

3. Anthropic và lập trường kiên định về hòa bình

Về phía Anthropic, họ luôn khẳng định rằng mục tiêu của họ là tạo ra AI có lợi cho nhân loại. Trong điều khoản sử dụng của mình, hãng này nêu rõ việc cấm sử dụng mô hình AI để gây hại về mặt vật lý, phát triển vũ khí hóa học, sinh học hoặc hạt nhân. Việc cho phép quân đội sử dụng Claude để ‘nhắm mục tiêu’ được coi là vi phạm nghiêm trọng giá trị cốt lõi của công ty.

Sự kiên định này không phải là không có rủi ro. Việc mất đi các hợp đồng với Chính phủ Mỹ có thể khiến Anthropic mất đi một nguồn doanh thu khổng lồ và quyền truy cập vào các cơ sở hạ tầng dữ liệu quan trọng. Tuy nhiên, CEO Dario Amodei của Anthropic tin rằng việc giữ vững đạo đức AI là yếu tố sống còn để ngăn chặn một thảm họa hiện sinh do AI gây ra trong tương lai.

4. Những lựa chọn thay thế: OpenAI và Palantir đang chờ sẵn

Nếu Anthropic rút lui hoặc bị loại bỏ, Lầu Năm Góc sẽ không thiếu các lựa chọn. Đáng chú ý nhất là OpenAI, đối thủ trực tiếp của Anthropic, gần đây đã có những bước đi ‘mềm mỏng’ hơn. Đầu năm 2024, OpenAI đã âm thầm loại bỏ dòng chữ ‘cấm sử dụng cho mục đích quân sự và chiến tranh’ khỏi chính sách sử dụng của mình, mở cửa cho việc hợp tác với DoD trong các dự án an ninh mạng và cứu hộ.

Bên cạnh đó, các ‘gã khổng lồ’ chuyên về dữ liệu quân sự như Palantir hay các startup như Anduril IndustriesShield AI đang rất sẵn lòng lấp đầy khoảng trống. Những công ty này không có những ràng buộc về ‘Hiến pháp AI’ như Anthropic. Thay vào đó, họ xây dựng các mô hình AI đặc thù cho chiến trường, tập trung vào khả năng nhận diện mục tiêu và điều khiển vũ khí chính xác.

5. Hệ lụy cho tương lai của ngành công nghệ

Sự việc này phản ánh một thực tế khắc nghiệt: Thung lũng Silicon đang bị chia rẽ bởi vấn đề quân sự hóa AI. Một bên là các công ty ưu tiên sự an toàn và các giá trị nhân văn, một bên là các công ty sẵn sàng biến AI thành ‘thanh gươm’ để bảo vệ lợi ích quốc gia.

Nếu Lầu Năm Góc thực sự chấm dứt hợp tác với Anthropic, nó sẽ gửi một tín hiệu mạnh mẽ đến toàn bộ hệ sinh thái AI. Các startup muốn nhận được vốn đầu tư công hoặc các hợp đồng liên bang có thể sẽ phải ‘nới lỏng’ các tiêu chuẩn đạo đức của mình. Điều này có thể dẫn đến một cuộc đua xuống đáy (race to the bottom), nơi các rào cản an toàn bị dỡ bỏ để đổi lấy hiệu năng quân sự.

6. Kết luận: Đi tìm tiếng nói chung giữa Súng và Hoa hồng

Cuộc đối đầu giữa Lầu Năm Góc và Anthropic không chỉ đơn thuần là một vụ tranh chấp hợp đồng kinh tế. Đó là một cuộc tranh luận triết học về vai trò của công nghệ trong xã hội. Chúng ta có muốn một AI thông minh đến mức có thể thắng mọi cuộc chiến, hay chúng ta muốn một AI đủ ‘nhân tính’ để từ chối tham gia vào đó?

Để giải quyết mâu thuẫn này, có lẽ cần một khung pháp lý quốc tế mới về AI quân sự, tương tự như các công ước về vũ khí hóa học hoặc hạt nhân. Cho đến lúc đó, những công ty như Anthropic vẫn sẽ đứng giữa dòng nước xoáy: một bên là áp lực từ các khách hàng quyền lực nhất thế giới, một bên là trách nhiệm bảo vệ tương lai của chính nhân loại.