2848 - Deepfake có thể dẫn đến ngày tận thế như thế nào?

Erin D. Dumbacher

Hệ thống cảnh báo hạt nhân của Mỹ chưa sẵn sàng cho trí tuệ nhân tạo

Tên lửa hạt nhân trong cuộc duyệt binh ở Bắc Kinh, tháng 9 năm 2025  Tingshu Wang / Reuters

Từ buổi bình minh của thời đại hạt nhân, các nhà hoạch định chính sách và chiến lược gia đã cố gắng ngăn chặn một quốc gia triển khai vũ khí hạt nhân do nhầm lẫn. Nhưng nguy cơ xảy ra tai nạn vẫn cao như thời Chiến tranh Lạnh. Năm 1983, một hệ thống cảnh báo sớm của Liên Xô đã báo động sai rằng một cuộc tấn công hạt nhân của Mỹ vào Liên Xô đang diễn ra; cảnh báo như vậy có thể đã kích hoạt một cuộc phản công thảm khốc từ phía Liên Xô. Số phận đó đã được tránh khỏi chỉ vì người giám sát trực ban, Stanislav Petrov, đã xác định rằng báo động đó là sai. Nếu không, giới lãnh đạo Liên Xô đã có lý do để phóng những vũ khí hủy diệt nhất thế giới vào Hoa Kỳ.

Sự phát triển nhanh chóng của trí tuệ nhân tạo đã làm trầm trọng thêm các mối đe dọa đối với sự ổn định hạt nhân. Một nỗi lo sợ là một quốc gia sở hữu vũ khí hạt nhân có thể giao quyết định sử dụng vũ khí hạt nhân cho máy móc. Tuy nhiên, Hoa Kỳ đã đưa ra các biện pháp bảo vệ để đảm bảo rằng con người vẫn tiếp tục đưa ra quyết định cuối cùng về việc có nên phát động một cuộc tấn công hay không. Theo Chiến lược Quốc phòng năm 2022, con người sẽ vẫn "tham gia vào quá trình ra quyết định" đối với bất kỳ quyết định nào về việc sử dụng hoặc ngừng sử dụng vũ khí hạt nhân. Và Tổng thống Mỹ Joe Biden và nhà lãnh đạo Trung Quốc Tập Cận Bình đã đồng ý trong hai tuyên bố riêng biệt rằng "cần phải có sự kiểm soát của con người đối với quyết định sử dụng vũ khí hạt nhân".

Tuy nhiên, AI đặt ra một rủi ro nguy hiểm khác đối với an ninh hạt nhân. Nó giúp việc tạo ra và lan truyền deepfake dễ dàng hơn – những video, hình ảnh hoặc âm thanh bị chỉnh sửa một cách thuyết phục được sử dụng để tạo ra thông tin sai lệch về con người hoặc sự kiện. Và những kỹ thuật này ngày càng trở nên tinh vi hơn. Vài tuần sau cuộc xâm lược Ukraine năm 2022 của Nga, một đoạn deepfake được chia sẻ rộng rãi cho thấy Tổng thống Ukraine Volodymyr Zelenskyy nói với người dân Ukraine hãy hạ vũ khí; năm 2023, một đoạn deepfake đã khiến mọi người tin nhầm rằng Tổng thống Nga Vladimir Putin đã gián đoạn truyền hình nhà nước để tuyên bố tổng động viên toàn diện. Trong một kịch bản cực đoan hơn, một đoạn deepfake có thể thuyết phục nhà lãnh đạo của một quốc gia sở hữu vũ khí hạt nhân rằng một cuộc tấn công phủ đầu từ kẻ thù đang diễn ra hoặc một nền tảng tình báo được hỗ trợ bởi AI có thể đưa ra cảnh báo sai về việc huy động lực lượng, hoặc thậm chí là một cuộc tấn công bằng bom bẩn, từ kẻ thù.

Chính quyền Trump muốn tận dụng AI cho an ninh quốc gia. Vào tháng 7, Bộ Quốc phòng Mỹ đã công bố một kế hoạch hành động kêu gọi sử dụng trí tuệ nhân tạo (AI) “một cách mạnh mẽ” trong toàn bộ Bộ. Vào tháng 12, Bộ đã ra mắt GenAI.mil, một nền tảng với các công cụ AI dành cho nhân viên. Nhưng khi chính quyền tích hợp AI vào cơ sở hạ tầng an ninh quốc gia, điều quan trọng là các nhà hoạch định chính sách và các nhà thiết kế hệ thống phải cẩn trọng về vai trò của máy móc trong các giai đoạn đầu của quá trình ra quyết định hạt nhân. Cho đến khi các kỹ sư có thể ngăn chặn các vấn đề vốn có của AI, chẳng hạn như ảo giác và giả mạo – trong đó các mô hình ngôn ngữ lớn dự đoán các mẫu hoặc sự kiện không chính xác – chính phủ Hoa Kỳ phải đảm bảo rằng con người tiếp tục kiểm soát các hệ thống cảnh báo sớm hạt nhân. Các quốc gia sở hữu vũ khí hạt nhân khác cũng nên làm như vậy.

Các cuộc khủng hoảng dây chuyền

Ngày nay, Tổng thống Donald Trump sử dụng điện thoại để truy cập các video giả mạo (deepfake); ông đôi khi đăng lại chúng trên mạng xã hội, cũng như nhiều cố vấn thân cận của ông. Khi ranh giới giữa thông tin thật và giả trở nên mờ nhạt, khả năng các video giả mạo như vậy có thể ảnh hưởng đến các quyết định an ninh quốc gia quan trọng, bao gồm cả vũ khí hạt nhân, ngày càng tăng.

Nếu thông tin sai lệch có thể đánh lừa tổng thống Mỹ dù chỉ trong vài phút, điều đó có thể gây ra thảm họa cho thế giới. Theo luật pháp Hoa Kỳ, tổng thống không cần phải tham khảo ý kiến ​​của bất kỳ ai để ra lệnh sử dụng vũ khí hạt nhân cho cả cuộc tấn công trả đũa hoặc tấn công phủ đầu. Các quan chức quân sự Hoa Kỳ luôn sẵn sàng triển khai các máy bay, tàu ngầm và tên lửa phóng từ mặt đất mang đầu đạn hạt nhân. Một tên lửa đạn đạo xuyên lục địa của Mỹ có thể đến mục tiêu trong vòng nửa giờ – và một khi tên lửa đó được phóng đi, không ai có thể thu hồi nó.

Công nghệ Deepfake có thể tạo ra cớ cho chiến tranh.

Cả lực lượng hạt nhân của Mỹ và Nga đều sẵn sàng "phóng tên lửa ngay khi có cảnh báo", nghĩa là chúng có thể được triển khai ngay khi phát hiện tên lửa của đối phương đang bay về phía mình. Điều đó chỉ cho phép các nhà lãnh đạo vài phút để đánh giá xem liệu cuộc tấn công hạt nhân của đối phương đã bắt đầu hay chưa. (Theo chính sách hiện tại của Mỹ, tổng thống có quyền trì hoãn quyết định cho đến sau khi vũ khí hạt nhân của đối phương tấn công Hoa Kỳ.) Nếu hệ thống cảnh báo sớm của Mỹ phát hiện mối đe dọa đối với Hoa Kỳ, các quan chức Mỹ sẽ cố gắng xác minh cuộc tấn công bằng cách sử dụng cả các nguồn thông tin mật và không mật. Họ có thể xem xét dữ liệu vệ tinh về hoạt động tại các cơ sở quân sự đã biết, theo dõi các tuyên bố gần đây từ các nhà lãnh đạo nước ngoài, và kiểm tra mạng xã hội và các nguồn tin tức nước ngoài để tìm bối cảnh và các thông tin tại chỗ. Các sĩ quan quân đội, công chức và các quan chức được bổ nhiệm chính trị sau đó phải quyết định thông tin nào cần được truyền đạt lên cấp trên và cách thức trình bày thông tin đó.

Thông tin sai lệch do AI tạo ra có thể gây ra các cuộc khủng hoảng dây chuyền. Nếu các hệ thống AI được sử dụng để diễn giải dữ liệu cảnh báo sớm, chúng có thể tạo ra ảo giác về một cuộc tấn công không có thật - đặt các quan chức Mỹ vào vị trí tương tự như Petrov bốn thập kỷ trước. Bởi vì logic nội bộ của các hệ thống AI rất khó hiểu, con người thường không biết lý do tại sao AI lại đưa ra một kết luận cụ thể. Nghiên cứu cho thấy những người có mức độ hiểu biết trung bình về AI có xu hướng tin tưởng vào kết quả đầu ra của máy móc hơn là kiểm tra sự thiên vị hoặc kết quả dương tính giả, ngay cả khi liên quan đến an ninh quốc gia. Nếu không có đào tạo, công cụ và quy trình hoạt động toàn diện để khắc phục những điểm yếu của AI, các cố vấn cho các nhà hoạch định chính sách của Nhà Trắng có thể mặc định cho rằng - hoặc ít nhất là xem xét - khả năng nội dung do AI tạo ra là chính xác.

Các video deepfake được truyền tải trên các phương tiện truyền thông mở cũng nguy hiểm không kém. Sau khi xem một video deepfake, một nhà lãnh đạo Mỹ có thể, ví dụ, hiểu nhầm các cuộc thử nghiệm tên lửa của Nga là sự khởi đầu của các cuộc tấn công hoặc nhầm lẫn các cuộc tập trận bắn đạn thật của Trung Quốc là một cuộc tấn công vào các đồng minh của Mỹ. Deepfake có thể giúp tạo ra cớ cho chiến tranh, kích động sự ủng hộ của công chúng cho một cuộc xung đột, hoặc gieo rắc sự nhầm lẫn.

Một cái nhìn phê phán

Vào tháng 7, chính quyền Trump đã công bố kế hoạch hành động về AI, kêu gọi triển khai mạnh mẽ các công cụ AI trên khắp Bộ Quốc phòng, cơ quan hành chính lớn nhất thế giới. AI đã chứng minh được sự hữu ích trong việc làm cho một số bộ phận của quân đội hiệu quả hơn. Học máy giúp việc lên lịch bảo trì tàu khu trục hải quân trở nên dễ dàng hơn. Công nghệ AI được tích hợp trong các loại vũ khí tự hành, chẳng hạn như máy bay không người lái, có thể cho phép binh lính đứng xa tiền tuyến. Và các công cụ dịch thuật AI giúp các sĩ quan tình báo phân tích dữ liệu về các quốc gia nước ngoài. AI thậm chí có thể hữu ích trong một số nhiệm vụ thu thập thông tin tình báo tiêu chuẩn khác, chẳng hạn như xác định sự khác biệt giữa hình ảnh máy bay ném bom đậu trên sân bay từ ngày này sang ngày khác.

Việc triển khai AI trên toàn bộ hệ thống quân sự không nhất thiết phải là tất cả hoặc không gì cả. Có những lĩnh vực nên được loại trừ khỏi AI, bao gồm hệ thống cảnh báo sớm hạt nhân và hệ thống chỉ huy và kiểm soát, trong đó rủi ro về ảo giác và giả mạo vượt trội hơn lợi ích mà phần mềm hỗ trợ AI có thể mang lại. Các hệ thống AI tốt nhất được xây dựng dựa trên các tập dữ liệu được kiểm tra chéo và toàn diện. Hệ thống cảnh báo sớm hạt nhân thiếu cả hai yếu tố này vì chưa có cuộc tấn công hạt nhân nào xảy ra kể từ các cuộc tấn công vào Hiroshima và Nagasaki. Bất kỳ hệ thống phát hiện hạt nhân nào dựa trên AI có thể sẽ phải được huấn luyện dựa trên dữ liệu thử nghiệm tên lửa và theo dõi không gian hiện có cộng với dữ liệu tổng hợp. Các kỹ sư sẽ cần lập trình các biện pháp phòng vệ chống lại ảo giác hoặc đánh giá độ tin cậy không chính xác—những trở ngại kỹ thuật đáng kể.

Có thể rất hấp dẫn khi thay thế việc kiểm tra từ các nhân viên được đào tạo bài bản bằng các công cụ AI hoặc sử dụng AI để kết hợp nhiều nguồn dữ liệu khác nhau nhằm tăng tốc độ phân tích, nhưng việc loại bỏ sự giám sát quan trọng của con người có thể dẫn đến lỗi, sai lệch và hiểu lầm. Giống như Bộ Quốc phòng yêu cầu con người kiểm soát có ý nghĩa đối với máy bay không người lái tự hành, họ cũng nên yêu cầu mỗi yếu tố của công nghệ cảnh báo sớm hạt nhân và tình báo phải đáp ứng tiêu chuẩn cao hơn nữa. Các công cụ tích hợp dữ liệu AI không nên thay thế các nhà điều hành con người báo cáo về tên lửa đạn đạo đang bay tới. Nỗ lực xác nhận cảnh báo sớm về một vụ phóng hạt nhân từ dữ liệu vệ tinh hoặc radar chỉ nên được tự động hóa một phần. Và những người tham gia các cuộc gọi hội nghị an ninh quốc gia quan trọng chỉ nên xem xét dữ liệu đã được xác minh và không bị thay đổi.

Vào tháng 7 năm 2025, Bộ Quốc phòng đã yêu cầu Quốc hội cấp ngân sách để bổ sung các công nghệ mới vào hệ thống chỉ huy, kiểm soát và liên lạc hạt nhân. Chính phủ Hoa Kỳ sẽ được lợi nhất nếu giới hạn việc tích hợp trí tuệ nhân tạo (AI) và tự động hóa vào an ninh mạng, quy trình kinh doanh và phân tích dữ liệu, cũng như các nhiệm vụ đơn giản, chẳng hạn như đảm bảo nguồn điện dự phòng được bật khi cần thiết.

Một chiến lược lỗi thời

Ngày nay, nguy cơ chiến tranh hạt nhân lớn hơn bao giờ hết trong nhiều thập kỷ. Nga đã đe dọa sử dụng vũ khí hạt nhân ở Ukraine, Trung Quốc đang nhanh chóng mở rộng kho vũ khí của mình, Triều Tiên hiện có khả năng phóng tên lửa đạn đạo liên lục địa (ICBM) đến Hoa Kỳ, và các chính sách ngăn chặn phổ biến vũ khí hạt nhân đang lung lay. Trong bối cảnh đó, việc đảm bảo rằng con người, chứ không phải máy móc được huấn luyện dựa trên dữ liệu kém chất lượng hoặc không đầy đủ, sẽ đánh giá hành động, ý định và mục tiêu của đối phương càng trở nên quan trọng hơn.

Các cơ quan tình báo cần phải cải thiện khả năng theo dõi nguồn gốc thông tin do AI tạo ra và chuẩn hóa cách thức truyền đạt cho các nhà hoạch định chính sách khi dữ liệu được bổ sung hoặc tổng hợp. Ví dụ, khi Cơ quan Tình báo Địa không gian Quốc gia sử dụng AI để tạo ra thông tin tình báo, họ sẽ thêm một tuyên bố vào báo cáo nếu nội dung đó do máy tạo ra. Các nhà phân tích tình báo, các nhà hoạch định chính sách và nhân viên của họ nên được đào tạo để có thêm sự hoài nghi và kiểm chứng thông tin đối với nội dung không thể xác minh ngay lập tức, giống như nhiều doanh nghiệp hiện nay đang cảnh giác với các cuộc tấn công lừa đảo qua mạng. Và các cơ quan tình báo cần sự tin tưởng của các nhà hoạch định chính sách, những người có thể dễ tin vào những gì mắt họ và thiết bị của họ cho thấy - dù đúng hay sai - hơn là những gì một đánh giá tình báo đưa ra.

Các chuyên gia và nhà công nghệ nên tiếp tục tìm cách gắn nhãn và làm chậm thông tin, hình ảnh và video giả mạo lan truyền trên mạng xã hội, vốn có thể ảnh hưởng đến các nhà hoạch định chính sách. Nhưng với sự khó khăn trong việc kiểm soát thông tin nguồn mở, việc đảm bảo thông tin mật chính xác càng trở nên quan trọng hơn.

AI đã có thể đánh lừa các nhà lãnh đạo khiến họ nhìn thấy một cuộc tấn công không hề tồn tại.

Những cập nhật của chính quyền Trump về lập trường hạt nhân của Hoa Kỳ trong Chiến lược Quốc phòng Quốc gia cần phải đề phòng những rủi ro thông tin AI có thể xảy ra và khó kiểm soát đối với vũ khí hạt nhân bằng cách khẳng định lại rằng máy móc sẽ không bao giờ đưa ra quyết định phóng vũ khí hạt nhân mà không có sự kiểm soát của con người. Bước đầu tiên, tất cả các quốc gia sở hữu vũ khí hạt nhân nên đồng ý rằng chỉ có con người mới đưa ra quyết định sử dụng vũ khí hạt nhân. Sau đó, họ nên cải thiện các kênh liên lạc trong khủng hoảng. Một đường dây nóng đối thoại tồn tại giữa Washington và Moscow nhưng không có giữa Washington và Bắc Kinh. Chính sách và lập trường hạt nhân của Mỹ hầu như không thay đổi kể từ những năm 1980, khi các nhà lãnh đạo lo ngại Liên Xô sẽ tấn công bất ngờ. Khi đó, các nhà hoạch định chính sách không thể hình dung được lượng thông tin sai lệch khổng lồ sẽ được truyền đến các thiết bị cá nhân của những người chịu trách nhiệm về vũ khí hạt nhân ngày nay. Cả nhánh lập pháp và hành pháp nên đánh giá lại các chính sách về vũ khí hạt nhân được xây dựng trong thời Chiến tranh Lạnh. Ví dụ, các nhà hoạch định chính sách có thể yêu cầu các tổng thống tương lai phải tham khảo ý kiến ​​của các nhà lãnh đạo Quốc hội trước khi tiến hành cuộc tấn công hạt nhân phủ đầu hoặc yêu cầu một khoảng thời gian nhất định để các chuyên gia tình báo xác thực thông tin làm cơ sở cho quyết định đó. Vì Hoa Kỳ có khả năng phản công hiệu quả, nên tính chính xác cần được ưu tiên hơn tốc độ.

Trí tuệ nhân tạo (AI) đã có tiềm năng đánh lừa những người ra quyết định chủ chốt và các thành viên trong chuỗi chỉ huy hạt nhân, khiến họ tin rằng có một cuộc tấn công đang diễn ra dù thực tế không phải vậy. Trong quá khứ, chỉ có đối thoại và ngoại giao chân thành mới có thể ngăn chặn những hiểu lầm giữa các quốc gia sở hữu vũ khí hạt nhân. Các chính sách và biện pháp cần được thiết lập để bảo vệ chống lại những rủi ro thông tin nguy hiểm có thể dẫn đến thảm họa diệt vong.

Erin D. Dumbacher là Nghiên cứu viên cao cấp về An ninh hạt nhân Stanton tại Hội đồng Quan hệ Đối ngoại.

https://www.foreignaffairs.com/united-states/how-deepfakes-could-lead-doomsday

***

How Deepfakes Could Lead to Doomsday

America’s Nuclear Warning Systems Aren’t Ready for AI

Nuclear missiles at a military parade in Beijing, September 2025  Tingshu Wang / Reuters

Since the dawn of the nuclear age, policymakers and strategists have tried to prevent a country from deploying nuclear weapons by mistake. But the potential for accidents remains as high as it was during the Cold War. In 1983, a Soviet early warning system erroneously indicated that a U.S. nuclear strike on the Soviet Union was underway; such a warning could have triggered a catastrophic Soviet counterattack. The fate was avoided only because the on-duty supervisor, Stanislav Petrov, determined that the alarm was false. Had he not, Soviet leadership would have had reason to fire the world’s most destructive weapons at the United States.

The rapid proliferation of artificial intelligence has exacerbated threats to nuclear stability. One fear is that a nuclear weapons state might delegate the decision to use nuclear weapons to machines. The United States, however, has introduced safeguards to ensure that humans continue to make the final call over whether to launch a strike. According to the 2022 National Defense Strategy, a human will remain “in the loop” for any decisions to use, or stop using, a nuclear weapon. And U.S. President Joe Biden and Chinese leader Xi Jinping agreed in twin statements that “there should be human control over the decision to use nuclear weapons.”

Yet AI poses another insidious risk to nuclear security. It makes it easier to create and spread deepfakes—convincingly altered videos, images, or audio that are used to generate false information about people or events. And these techniques are becoming ever more sophisticated. A few weeks after Russia’s 2022 invasion of Ukraine, a widely shared deepfake showed Ukrainian President Volodymyr Zelensky telling Ukrainians to set down their weapons; in 2023, a deepfake led people to falsely believe that Russian President Vladimir Putin interrupted state television to declare a full-scale mobilization. In a more extreme scenario, a deepfake could convince the leader of a nuclear weapons state that a first strike from an adversary was underway or an AI-supported intelligence platform could raise false alarms of a mobilization, or even a dirty bomb attack, by an adversary.

The Trump administration wants to harness AI for national security. In July, it released an action plan calling for AI to be used “aggressively” across the Department of Defense. In December, the department unveiled GenAI.mil, a platform with AI tools for employees. But as the administration embeds AI in national security infrastructure, it will be crucial for policymakers and systems designers to be careful about the role machines play in the early phases of nuclear decision-making. Until engineers can prevent problems inherent to AI, such as hallucinations and spoofing—in which large language models predict inaccurate patterns or facts—the U.S. government must ensure that humans continue to control nuclear early warning systems. Other nuclear weapons states should do the same.

Cascading crises

Today, President Donald Trump uses a phone to access deepfakes; he sometimes reposts them on social media, as do many of his close advisers. As the lines become blurred between real and fake information, there is a growing possibility that such deepfakes could infect high-stakes national security decisions, including on nuclear weapons.

If misinformation can deceive the U.S. president for even a few minutes, it could spell disaster for the world. According to U.S. law, a president does not need to confer with anyone to order the use of nuclear weapons for either a retaliatory attack or a first strike. U.S. military officials stand at the ready to deploy the planes, submarines, and ground-based missiles that carry nuclear warheads. A U.S. intercontinental ballistic missile can reach its target within a half hour—and once such a missile is launched, no one can recall it.


Deepfakes could help create pretexts for war.

Both U.S. and Russian nuclear forces are prepared to “launch on warning,” meaning that they can be deployed as soon as enemy missiles are detected heading their way. That leaves just minutes for a leader to evaluate whether an adversary’s nuclear attack has begun. (Under current U.S. policy, the president has the option to delay a decision until after an adversary’s nuclear weapon strikes the United States.) If the U.S. early warning system detects a threat to the United States, U.S. officials will try to verify the attack using both classified and unclassified sources. They might look at satellite data for activity at known military facilities, monitor recent statements from foreign leaders, and check social media and foreign news sources for context and on-the-ground accounts. Military officers, civil servants, and political appointees must then decide which information to communicate up the chain and how it is presented.

AI-driven misinformation could spur cascading crises. If AI systems are used to interpret early warning data, they could hallucinate an attack that isn’t real—putting U.S. officials in a similar position to the one Petrov was in four decades ago. Because the internal logic of AI systems is opaque, humans are often left in the dark as to why AI came to a particular conclusion. Research shows that people with an average level of familiarity with AI tend to defer to machine outputs rather than checking for bias or false positives, even when it comes to national security. Without extensive training, tools, and operating processes that account for AI’s weaknesses, advisers to White House decision-makers might default to assuming—or at least to entertaining—the possibility that AI-generated content is accurate.

Deepfakes that are transmitted on open-source media are nearly as dangerous. After watching a deepfake video, an American leader might, for example, misinterpret Russian missile tests as the beginning of offensive strikes or mistake Chinese live-fire exercises as an attack on U.S. allies. Deepfakes could help create pretexts for war, gin up public support for a conflict, or sow confusion.

A critical eye

In July, the Trump administration released an AI action plan that called for aggressive deployment of AI tools across the Department of Defense, the world’s largest bureaucracy. AI has proved useful in making parts of the military more efficient. Machine learning makes it easier to schedule maintenance of navy destroyers. AI technology embedded in autonomous munitions, such as drones, can allow soldiers to stand back from the frontlines. And AI translation tools help intelligence officers parse data on foreign countries. AI could even be helpful in some other standard intelligence collection tasks, such as identifying distinctions between pictures of bombers parked in airfields from one day to the next.

Implementing AI across military systems does not need to be all or nothing. There are areas that should be off-limits for AI, including nuclear early warning systems and command and control, in which the risks of hallucination and spoofing outweigh the benefits that AI-powered software could bring. The best AI systems are built on cross-checked and comprehensive datasets. Nuclear early warning systems lack both because there have not been any nuclear attacks since the ones on Hiroshima and Nagasaki. Any AI nuclear detection system would likely have to train on existing missile test and space tracking data plus synthetic data. Engineers would need to program defenses against hallucinations or inaccurate confidence assessments—significant technical hurdles.

It may be tempting to replace checks from highly trained staff with AI tools or to use AI to fuse various data sources to speed up analysis, but removing critical human eyes can lead to errors, bias, and misunderstandings. Just as the Department of Defense requires meaningful human control of autonomous drones, it should also require that each element of nuclear early warning and intelligence technology meet an even higher standard. AI data integration tools should not replace human operators who report on incoming ballistic missiles. Efforts to confirm early warning of a nuclear launch from satellite or radar data should remain only partially automated. And participants in critical national security conference calls should consider only verified and unaltered data.


In July 2025, the Department of Defense requested funds from Congress to add novel technologies to nuclear command, control, and communications. The U.S. government would be best served by limiting AI and automation integration to cybersecurity, business processes and analytics, and simple tasks, such as ensuring backup power turns on when needed.

A vintage strategy

Today, the danger of nuclear war is greater than it has been in decades. Russia has threatened to use nuclear weapons in Ukraine, China is rapidly expanding its arsenal, North Korea now has the ability to send ICBMs to the United States, and policies preventing proliferation are wavering. Against this backdrop, it is even more important to ensure that humans, not machines trained on poor or incomplete data, are judging the actions, intent, and aims of an adversary.

Intelligence agencies need to get better at tracking the provenance of AI-derived information and standardize how they relay to policymakers when data is augmented or synthetic. For example, when the National Geospatial-Intelligence Agency uses AI to generate intelligence, it adds a disclosure to the report if the content is machine-generated. Intelligence analysts, policymakers, and their staffs should be trained to bring additional skepticism and fact-checking to content that is not immediately verifiable, just as many businesses are now vigilant against cyber spear phishing. And intelligence agencies need the trust of policymakers, who might be more inclined to believe what their own eyes and devices tell them—true or false—than what an intelligence assessment renders.

Experts and technologists should keep working to find ways to label and slow fraudulent information, images, and videos flowing through social media, which can influence policymakers. But given the difficulty of policing open-source information, it is all the more important for classified information to be accurate.

AI can already deceive leaders into seeing an attack that isn’t there.

The Trump administration’s updates to U.S. nuclear posture in the National Defense Strategy ought to guard against the likely and unwieldy AI information risks to nuclear weapons by reaffirming that a machine will never make a nuclear launch decision without human control. As a first step, all nuclear weapons states should agree that only humans will make nuclear use decisions. Then they should improve channels for crisis communications. A hotline for dialogue exists between Washington and Moscow but not between Washington and Beijing.

U.S. nuclear policy and posture have changed little since the 1980s, when leaders worried the Soviet Union would attack out of the blue. Policymakers then could not have wrapped their heads around how much misinformation would be delivered to the personal devices of the people in charge of nuclear weapons today. Both the legislative and executive branches should reevaluate nuclear weapons posture policies built for the Cold War. Policymakers might, for example, require future presidents to confer with congressional leaders before they launch a nuclear first strike or require a period of time for intelligence professionals to validate the information on which the decision is being based. Because the United States has capable second-strike options, accuracy should take precedence over speed.


AI already has the potential to deceive key decision-makers and members of the nuclear chain of command into seeing an attack that isn’t there. In the past, only authentic dialogue and diplomacy averted misunderstandings among nuclear armed states. Policies and practices should protect against the pernicious information risks that could ultimately lead to doomsday.

    Erin D. Dumbacher is Stanton Nuclear Security Senior Fellow at the Council on Foreign Relations.

    Nhận xét

    Bài đăng phổ biến từ blog này

    2945 - Chi tiết 'Chiến dịch Mạng nhện' của Ukraine nhằm vào máy bay ném bom của Nga

    5433 - The Vietnam War và khi Đồng Minh tháo chạy

    1360 - Điều gì giúp LDP thống trị nền chính trị Nhật Bản?