3488 - Trí tuệ nhân tạo của Mỹ đang gặp nguy

Fred Heiding and Chris Inglis

Hệ thống phòng thủ mạng yếu kém đe dọa vị thế thống trị công nghệ của Hoa Kỳ như thế nào?

Tại một hội nghị thượng đỉnh về AI ở New Delhi, Ấn Độ, tháng 2 năm 2026. Ảnh: Bhawika Chhabra / Reuters

Vào tháng 9 năm 2025, công ty trí tuệ nhân tạo (AI) Anthropic của Hoa Kỳ đã thông báo rằng các tác nhân mạng Trung Quốc đã sử dụng các mô hình của họ để nhắm mục tiêu vào khoảng 30 công ty, cơ quan và tổ chức. Anthropic tuyên bố rằng đây là "trường hợp đầu tiên được ghi nhận về một cuộc tấn công mạng quy mô lớn được thực hiện mà không cần sự can thiệp đáng kể của con người." Cuộc tấn công vào cơ sở hạ tầng của Hoa Kỳ này mang tính đột phá nhờ việc sử dụng các mô hình AI tiên tiến nhất của chính nước Mỹ. Và mặc dù đây là lần đầu tiên, nhưng chắc chắn sẽ không phải là lần cuối cùng.

Cũng trong năm đó, OpenAI đã báo cáo về những nỗ lực của các tin tặc Iran nhằm sử dụng các mô hình ngôn ngữ lớn để hỗ trợ các chiến dịch lừa đảo (phishing), phát triển phần mềm độc hại và thực hiện các chiến dịch gây ảnh hưởng. Những nỗ lực của Tehran đã gia tăng cường độ sau các cuộc tấn công của Washington vào Iran, bắt đầu từ tháng 2 năm 2026. Ngay lúc này, Palo Alto Networks—một công ty an ninh mạng của Hoa Kỳ—đã báo cáo về sự huy động của hơn 60 nhóm tác nhân mạng có liên kết với Iran; trong đó, nhiều nhóm đang tận dụng các công cụ AI để khai thác cơ sở hạ tầng của phương Tây. Khi các cuộc xung đột vẫn tiếp diễn, các trung tâm dữ liệu, nhà cung cấp dịch vụ đám mây và mạng lưới tài chính của Hoa Kỳ nhiều khả năng sẽ trở thành mục tiêu của các cuộc tấn công mạng. Các cụm máy tính lớn dùng để huấn luyện AI và các kho lưu trữ trọng số mô hình tập trung một giá trị kinh tế và chiến lược khổng lồ, khiến chúng trở thành những mục tiêu đặc biệt hấp dẫn đối với các cơ quan tình báo nước ngoài đang tìm cách đánh cắp, phá hoại hoặc sao chép các hệ thống AI tiên tiến.

Hiện tại, Hoa Kỳ đang cực kỳ dễ bị tổn thương trước những cuộc tấn công như vậy. Hệ thống phòng thủ mạng của Hoa Kỳ còn chưa đầy đủ, trong khi AI lại đang nhanh chóng được tích hợp vào mọi khía cạnh của đời sống, hoạt động kinh tế và an ninh quốc gia Mỹ. Kết quả là, những thiệt hại tiềm tàng mà Bắc Kinh, Moscow và Tehran có thể gây ra đang gia tăng từng giờ. Nói cách khác, Washington đang rơi vào một thế tiến thoái lưỡng nan. Một mặt, các công ty Hoa Kỳ đang sản xuất ra chính những công nghệ làm động lực thúc đẩy cuộc cách mạng AI. Mặt khác, thành quả của cuộc cách mạng này lại đang bị đánh cắp bởi các đối thủ nước ngoài—những kẻ có khả năng triển khai AI để làm suy yếu Hoa Kỳ. Do đó, mỗi bước đột phá về AI đều mang lại những triển vọng to lớn, nhưng đồng thời cũng tạo ra những rủi ro ngày càng gia tăng. Hệ thống phòng thủ hiện còn yếu kém, và một chiến lược toàn diện nhằm bảo vệ công nghệ AI của Mỹ vẫn đang là điều còn thiếu sót. Washington cần nhanh chóng nhận thức rõ tình hình này, rút ​​ra bài học từ lịch sử ứng phó an ninh mạng quốc tế gần đây, và thay đổi hướng đi.

Một mục tiêu dễ dàng

Trong nhiều thập kỷ qua, các doanh nghiệp phương Tây đã chật vật trong việc bảo vệ các ngành công nghiệp của mình trước nạn trộm cắp và gián điệp trên không gian mạng—đặc biệt là những hành vi do các tác nhân Trung Quốc thực hiện. Dưới sự chỉ đạo của Bắc Kinh, nhiều công ty có nền tảng công nghệ tiên tiến nhất tại Hoa Kỳ cũng như tại các quốc gia đồng minh của Mỹ đã trở thành mục tiêu nhắm đến nhằm chiếm đoạt tài sản trí tuệ và bí mật kinh doanh. Đơn cử như vào năm 2004, Nortel Networks—công ty công nghệ lớn nhất Canada vào thời điểm đó—đã bị các tác nhân Trung Quốc tấn công mạng, chiếm đoạt toàn bộ các bằng sáng chế và bí quyết công nghệ (know-how). Nortel tuyên bố phá sản vào năm 2009, và ngay lập tức, tập đoàn viễn thông Trung Quốc Huawei đã lấp đầy khoảng trống thị trường mà sự sụp đổ của đối thủ này để lại. American Superconductor cũng trở thành nạn nhân của một chiến lược tương tự vào năm 2011. Phần mềm điều khiển tua-bin gió của công ty này đã bị Sinovel Wind Group (Trung Quốc) đánh cắp, khiến doanh nghiệp Mỹ này thiệt hại hàng trăm triệu đô la về doanh thu và giá trị cổ phiếu. Hàng trăm việc làm tại Mỹ đã bị cắt giảm, và trớ trêu thay, chính công ty Trung Quốc kia sau đó lại bán ngược những chiếc tua-bin gió có tích hợp phần mềm bị đánh cắp đó trở lại thị trường Hoa Kỳ.

Các nhà nghiên cứu tại Đại học Harvard và Đại học California, Berkeley, đã thống kê được hơn 300 vụ việc nghiêm trọng liên quan đến hoạt động gián điệp mạng và trộm cắp tài sản trí tuệ do phía Trung Quốc thực hiện trong giai đoạn từ năm 1995 đến 2024. Trong tất cả các vụ việc này, Hoa Kỳ đều đã thất bại trong việc bảo vệ các tài sản và công nghệ trọng yếu của mình—bao gồm cả các bản thiết kế sản xuất chất bán dẫn và các bản vẽ thiết kế hàng không vũ trụ. Các đối thủ nước ngoài đã lợi dụng những cuộc tấn công này để đẩy nhanh quá trình phát triển của chính họ; họ tiến bộ nhờ vào hành vi trộm cắp thay vì dựa trên sự đổi mới sáng tạo thực sự.

Ngày nay, các hệ thống AI mang lại một phần thưởng thậm chí còn lớn hơn đối với giới tin tặc; và do Thung lũng Silicon đã ưu tiên tốc độ hơn là bảo mật, các hệ thống tiên tiến nhất đã trở nên đặc biệt dễ bị tổn thương trước các cuộc tấn công mạng và hoạt động gián điệp. Sự phát triển và triển khai của AI phụ thuộc vào một cơ sở hạ tầng đa tầng, bao gồm phần cứng, dữ liệu, phần mềm và chuyên môn của con người, cũng như sự phân định rõ ràng về kỳ vọng, vai trò và trách nhiệm của các bên liên quan trong toàn bộ hệ sinh thái. Các tài nguyên tính toán (tức là những tài nguyên cho phép máy tính xử lý dữ liệu và chạy các ứng dụng) tạo thành nền tảng vững chắc của AI. Các chip chuyên dụng—chẳng hạn như GPU và TPU—hoạt động song hành cùng các bộ xử lý trung tâm và các bộ tăng tốc khác. Dữ liệu huấn luyện—nguyên liệu thô tạo nên "trí tuệ" của các mô hình ngôn ngữ—bao gồm mọi thứ, từ văn bản và hình ảnh cho đến video, âm thanh, mã nguồn và các bộ dữ liệu có cấu trúc. Các khung phần mềm (framework) như TensorFlow và PyTorch giúp các nhà phát triển truy cập và tùy chỉnh các công cụ ứng dụng AI—bao gồm cả các công cụ tạo văn bản hoặc hình ảnh đang được sử dụng rộng rãi. Các công cụ điều phối và quy trình vận hành giúp đảm bảo rằng dữ liệu và các mô hình di chuyển một cách suôn sẻ xuyên suốt vòng đời của chúng.

Mỗi tầng của cơ sở hạ tầng này đều phải hoạt động một cách tin cậy, mang lại những năng lực đúng như cam kết, vận hành đúng mục đích trong nhiều trường hợp sử dụng đa dạng, và đạt mức độ bảo mật hợp lý. Tại mỗi tầng, các nhân sự vận hành và hệ thống phòng thủ kỹ thuật phải có khả năng dự đoán, chống trả và nhanh chóng ngăn chặn các cuộc tấn công từ bên ngoài. Các hệ thống AI hiện đại đang gặp khó khăn trên tất cả các phương diện này do tính thiếu minh bạch, độ nhạy cảm cao và tính khó lường vốn có của chúng. Trong khi đó, sự phức tạp ngày càng gia tăng của các hệ thống này khiến cho việc đảm bảo an ninh cho chúng trở nên bất khả thi nếu thiếu đi sự can thiệp chủ động và có chủ đích từ phía chính phủ Hoa Kỳ.

Phần thưởng lớn nhất

Các kẻ tấn công nhắm vào cơ sở hạ tầng AI thường có ba mục tiêu chính. Thứ nhất, chúng nhằm mục đích đánh cắp hoặc làm sai lệch tài sản trí tuệ (chẳng hạn như dữ liệu huấn luyện hoặc các trọng số của mô hình) nhằm củng cố năng lực cho ngành công nghiệp của chính chúng, hoặc để tống tiền hay làm suy giảm năng lực của nạn nhân. Thứ hai, chúng tìm cách xâm phạm các công cụ sử dụng hệ thống AI, gây gián đoạn các dịch vụ bao gồm phát hiện gian lận, hậu cần và chẩn đoán y tế. Thứ ba, chúng muốn làm xói mòn niềm tin của người dùng vào bất kỳ hệ thống nào mà chúng tấn công. Đặc biệt, các kẻ tấn công rất muốn khiến các nhà lãnh đạo quốc gia đi đến kết luận rằng những hệ thống này sẽ không thể vận hành đúng như dự kiến ​​trong các tình huống khẩn cấp và khủng hoảng.

Các trọng số (weights) của mô hình AI là một vấn đề đặc biệt đáng lo ngại. Những trọng số này chính là "trí tuệ" cốt lõi của một mô hình; chúng là sản phẩm của quá trình đầu tư khổng lồ, hàng ngàn giờ huấn luyện và những kiến ​​thức chuyên môn được tích lũy một cách đầy gian nan. Việc đánh cắp các trọng số này sẽ cho phép một thế lực nước ngoài tái tạo lại toàn bộ trí tuệ của mô hình đó. Việc làm sai lệch các thành phần này sẽ làm suy giảm hiệu suất hệ thống cũng như niềm tin của người dùng. Chúng có thể bị đánh cắp thông qua các hoạt động trích xuất dữ liệu lợi dụng lỗi cấu hình đám mây, hành vi trộm cắp từ nội bộ, rò rỉ qua kênh phụ (side-channel), trích xuất qua API (giao diện lập trình ứng dụng), hoặc bằng cách xâm phạm chuỗi cung ứng. Một số kịch bản tấn công giả định rằng các trọng số mô hình có thể bị tuồn ra ngoài thông qua việc thăm dò có hệ thống, sử dụng các truy vấn mô hình hoặc lệnh gọi API được thiết kế tinh vi—vốn là phương thức tiêu chuẩn để các chương trình phần mềm giao tiếp và trao đổi dữ liệu. Một cuộc tấn công như vậy sẽ vô cùng khó thực hiện; tuy nhiên, nó hoàn toàn nằm trong phạm vi năng lực đã được chứng minh của các lực lượng tác chiến không gian mạng thuộc Bắc Kinh.

Quả thực, nhiều lỗ hổng nguy hiểm trong hệ thống phòng thủ không gian mạng đã được phát hiện. Vào năm 2025, các nhà nghiên cứu bảo mật từ công ty an ninh đám mây Wiz đã tiến hành điều tra Nvidia—công ty Hoa Kỳ chuyên thiết kế các chip AI được sử dụng rộng rãi nhất trên thế giới—và phát hiện một lỗ hổng cho phép kẻ tấn công thực thi mã độc trực tiếp trên một trong các máy chủ của hãng này. Nếu lỗ hổng đó bị khai thác, kẻ tấn công có thể đã đánh cắp các trọng số mô hình, thao túng kết quả đầu ra, làm rò rỉ dữ liệu nhạy cảm, hoặc thiết lập những chỗ đứng vững chắc hơn trong mạng lưới trước khi các bản vá được phát hành. Cũng trong năm đó, các nhà nghiên cứu từ Đại học Toronto đã trình diễn một cuộc tấn công phần cứng nhằm vào các chip AI của Nvidia, gây sai lệch các phép tính được sử dụng để huấn luyện các mô hình AI trên những con chip này. Nếu bị khai thác, cuộc tấn công như vậy sẽ khiến các mô hình trở nên thiếu chính xác và khó lường. Một diễn biến khác, các lỗ hổng trong những phần mềm mã nguồn mở được sử dụng rộng rãi đã cho phép các nhà nghiên cứu từ Horizon3.ai—một công ty an ninh mạng có trụ sở tại Hoa Kỳ—thực thi mã độc trên các hệ thống đang vận hành mô hình AI; nếu bị kẻ tấn công lợi dụng, lỗ hổng này có thể được dùng để đánh cắp thông tin xác thực của các tổ chức đang vận hành những hệ thống đó. Hiện chưa có bằng chứng nào cho thấy các điểm yếu này đã bị khai thác trước khi được các nhà nghiên cứu phát hiện, song chúng đã làm nổi bật sự mong manh, dễ tổn thương của cơ sở hạ tầng AI hiện nay.

Phần mềm được truy cập và sử dụng miễn phí đặc biệt dễ bị tấn công bởi tin tặc vì không cần xâm nhập để truy cập. Các thư viện phần mềm mã nguồn mở là nền tảng của phần lớn cơ sở hạ tầng kỹ thuật số hiện đại, và chúng cung cấp cho các nhà nghiên cứu mã cần thiết để xây dựng hệ thống của riêng họ. Do đó, các cuộc tấn công mạng có thể lây nhiễm vào phần mềm phổ biến được hàng triệu nhà phát triển sử dụng—và điều này đã xảy ra. Một số cuộc tấn công mạng lan rộng nhất trong lịch sử đã được thực hiện theo cách này. Một lỗ hổng duy nhất trong một thư viện mã nguồn mở phổ biến có thể làm lộ mọi hệ thống phụ thuộc vào nó, các nhà phát triển và tổ chức trên toàn cầu.

Ngoài các cuộc tấn công mạng tinh vi, các phòng thí nghiệm và nhà cung cấp AI là mục tiêu chính của các hình thức cưỡng chế truyền thống hơn. Các báo cáo gần đây từ các ấn phẩm bao gồm tờ The Times of London cho thấy các cơ quan tình báo Trung Quốc và Nga đang tống tiền các nhân viên công nghệ và thậm chí tham gia vào các hoạt động "bẫy mật"—hoặc tán tỉnh họ để đánh cắp thông tin. Các kế hoạch thường bắt đầu bằng một tin nhắn LinkedIn hoặc một cuộc gặp gỡ "tình cờ" tại một hội nghị. Các mối quan hệ phát sinh đôi khi thậm chí mở rộng đến hôn nhân và con cái, trong khi điệp viên âm thầm chuyển các bí mật thương mại về nước của họ. Bí mật thương mại cũng dễ bị đánh cắp nội bộ theo cách thông thường. Năm 2024, Linwei Ding, một kỹ sư phần mềm của Google, bị truy tố vì tội đánh cắp hơn 2.000 trang bí mật thương mại về trí tuệ nhân tạo, bao gồm cả chi tiết về chip và cơ sở hạ tầng độc quyền của Google, và chuyển chúng cho các công ty công nghệ Trung Quốc.

Tăng cường khả năng phòng thủ

Các nhà hoạch định chính sách của Hoa Kỳ phải lường trước việc các đối thủ sẽ thăm dò các hệ thống AI với cường độ và mức độ thành công tương tự như họ đã làm với các ngành công nghiệp chiến lược khác. Nếu không có khả năng phòng thủ được cải thiện, các chính sách răn đe rõ ràng và trách nhiệm giải trình có thể thực thi được trên khắp các phòng thí nghiệm AI, chuỗi cung ứng và các cơ quan chính phủ, Washington có nguy cơ nhường lại cho Bắc Kinh lợi thế cạnh tranh về công nghệ mà họ đã đầu tư hàng nghìn tỷ đô la để phát triển. Hoa Kỳ đang bắt đầu thực hiện một số bước đi đúng hướng. Chính quyền Trump vừa công bố một chiến lược an ninh mạng mới tập trung vào răn đe, tăng cường hợp tác công tư và phối hợp chính sách giữa các cơ quan liên bang. Nếu được duy trì, kế hoạch của ông sẽ tăng cường đáng kể khả năng phục hồi an ninh mạng của Hoa Kỳ. Nhưng nó vẫn chủ yếu là một bản kế hoạch chi tiết, và tác động của nó sẽ phụ thuộc vào việc thực hiện và triển khai.

Việc bảo vệ cơ sở hạ tầng AI đòi hỏi hành động phối hợp tập trung vào ba điểm trọng yếu chính: chip, dây dẫn và con người. Ở cấp độ chip, các nhà sản xuất và nhà cung cấp dịch vụ đám mây phải có khả năng theo dõi một cách đáng tin cậy phần cứng bị kiểm soát xuất khẩu và các hệ thống quan trọng về bảo mật mà nó cung cấp năng lượng, đảm bảo rằng việc tính toán bị hạn chế vẫn nằm dưới sự kiểm soát được ủy quyền. Các công ty, bao gồm cả Nvidia, đã và đang thử nghiệm các phương án xác minh vị trí để đảm bảo GPU và các phần cứng bị kiểm soát khác được giám sát và vẫn nằm dưới sự kiểm soát được ủy quyền. Các hệ thống này cho phép các cơ quan quản lý và nhà điều hành xác định, cách ly và tắt phần cứng hoạt động ngoài phạm vi đã thỏa thuận. Các nhà hoạch định chính sách của Hoa Kỳ phải tiếp tục khuyến khích các phương án như vậy bằng cách nghiên cứu các quy định bắt buộc theo dõi chip và thực thi kiểm soát xuất khẩu. Các chip đã được xác minh cần được kết hợp với các biện pháp bảo vệ đầu ra ở cấp độ trung tâm dữ liệu, đảm bảo rằng dữ liệu mô hình nhạy cảm không thể rời khỏi thông qua các kênh trái phép hoặc lưu lượng truy cập được ngụy trang.

Ở cấp độ đường truyền, các nhà điều hành mô hình phải giám sát và kiểm soát luồng dữ liệu để ngăn chặn việc rò rỉ hoặc làm sai lệch trọng số mô hình, dữ liệu huấn luyện và đầu ra nhạy cảm. Nghiên cứu được thực hiện tại Harvard và Stanford đưa ra những cách thức đầy hứa hẹn để ngăn chặn việc đánh cắp trọng số mô hình AI bằng cách làm cho việc giám sát đầu ra toàn diện và hiệu quả hơn. Các mô hình AI hiện đại hoạt động ở quy mô lớn, xử lý hàng triệu yêu cầu mỗi ngày, khiến cho việc kiểm tra bảo mật trở nên khó khăn. Tuy nhiên, các nhà bảo mật có thể kiểm tra các tập hợp con nhỏ của tương tác mô hình bằng cách chạy lại chúng trên các hệ thống độc lập, đáng tin cậy và so sánh kết quả với hành vi dự kiến. Khi phản hồi của mô hình lệch khỏi chuẩn mực, chúng cần được gắn cờ để xem xét thêm. Do đó, việc thao túng tinh vi có thể được phát hiện với chi phí tương đối thấp.

Ở cấp độ con người, các tổ chức phải giả định rằng những người nội bộ sẽ bị nhắm mục tiêu thông qua sự ép buộc, thỏa hiệp và sai sót. Để phòng chống các cuộc tấn công, các tổ chức nên yêu cầu xác minh nhiều bên nghiêm ngặt đối với dữ liệu nhạy cảm. Không một cá nhân nào được phép truy cập hoặc xóa các trọng số mô hình quan trọng. Ví dụ, Anthropic được cho là yêu cầu nhiều nhân viên được ủy quyền, mỗi người giữ một khóa hoặc thông tin xác thực riêng biệt, cùng nhau phê duyệt quyền truy cập vào các trọng số mô hình nhạy cảm nhất của họ. Hệ thống kiểm soát nhiều bên này tốn kém để thực thi và duy trì, nhưng nó đảm bảo rằng không một người nội bộ nào có thể hành động một mình. Các nhà hoạch định chính sách nên khuyến khích các kế hoạch này bằng cách biến chúng thành điều kiện của các hợp đồng liên bang và đặc quyền kiểm soát xuất khẩu, đồng thời giảm trách nhiệm pháp lý cho các công ty thực hiện chúng. Điều này sẽ bù đắp chi phí và những thách thức hoạt động của việc bắt buộc chúng.

Tăng cường khả năng phòng thủ mạng của Hoa Kỳ, Quốc hội nên chỉ định các hệ thống AI và chuỗi cung ứng của chúng là một lĩnh vực cơ sở hạ tầng quan trọng chính thức. Điều này sẽ cho phép Cơ quan An ninh mạng và Cơ sở hạ tầng (CISA) thiết lập và thực thi các yêu cầu an ninh cơ bản. Việc này cũng sẽ trao quyền cho cơ quan này điều phối ứng phó sự cố, nhận báo cáo sự cố mạng bắt buộc từ các phòng thí nghiệm AI, và ưu tiên cho các công ty AI tiếp cận các nguồn lực liên bang. Nhưng chỉ định thôi là chưa đủ. Biến vị thế pháp lý thành khả năng phục hồi thực sự đòi hỏi phải rút kinh nghiệm từ những bài học mà các chính phủ nước ngoài đã học được, thường là bằng những kinh nghiệm cay đắng, về việc bảo vệ tài sản của họ. Điều này bao gồm việc quyết định ai chịu trách nhiệm về điều gì, ngành công nghiệp và chính phủ hợp tác như thế nào, và làm thế nào để thực thi các mục tiêu an ninh mà không kìm hãm sự đổi mới.

Một nghiên cứu năm 2025 của Trung tâm Belfer về lịch sử các chiến lược an ninh mạng quốc gia cho thấy không có một khuôn mẫu chung nào phù hợp cho tất cả các trường hợp quản trị hiệu quả. Các phương pháp thành công phải được điều chỉnh phù hợp với sự kết hợp độc đáo của các mối đe dọa, hạn chế về nguồn lực và động lực chính trị khác biệt giữa mỗi quốc gia. Nhưng nghiên cứu đã nêu bật ba cách tiếp cận, được theo đuổi bởi các chính phủ khác nhau, mỗi cách đều có liên quan rõ ràng đến Washington khi các quan chức Hoa Kỳ xem xét các phương tiện hiệu quả nhất để bảo vệ cơ sở hạ tầng AI.

Thứ nhất, một số quốc gia đã thành công trong việc đưa các nhân vật trong ngành vào kế hoạch và ứng phó của chính phủ, tạo ra các chương trình công cộng bao gồm các chuyên gia tư nhân. Chương trình Industry 100 của Vương quốc Anh bao gồm việc mời các chuyên gia kinh doanh giàu kinh nghiệm tư vấn cho chính phủ Anh về các vấn đề an ninh mạng. Cần có những chương trình tương tự để chuyển đổi năng lực tư nhân của Hoa Kỳ thành năng lực công cộng trong việc quản lý trí tuệ nhân tạo, đặc biệt là khi quá trình phát triển của nó vẫn đang tiếp diễn. Việc chỉ đưa các cựu nhân viên và một số người phát ngôn chính sách được chọn lọc từ các phòng thí nghiệm AI đến Washington là chưa đủ. Cần phải có sự trao đổi thông tin liên tục giữa các nhân viên kỹ thuật hiện đang làm việc tại các phòng thí nghiệm AI và các cơ quan chính phủ Hoa Kỳ. Khi thích hợp, Washington thậm chí nên cấp giấy phép an ninh cho các nhân viên tư nhân. Họ nên thành lập một nhóm chung với các chuyên gia từ các phòng thí nghiệm mô hình AI, nhà cung cấp dịch vụ đám mây, nhà sản xuất chip và các lĩnh vực trọng yếu khác. Điều này sẽ xây dựng các mối quan hệ, kênh thông tin và kinh nghiệm thực tiễn cần thiết để xác định và thực hiện các biện pháp an ninh phù hợp, cả để ngăn chặn các sự cố khi chúng xảy ra và, lý tưởng nhất là, ngăn ngừa chúng hoàn toàn.

Thứ hai, một số chính phủ đã tách biệt các nhóm ứng phó sự cố khỏi cơ quan thực thi pháp luật để khuyến khích việc báo cáo sự cố sớm và thường xuyên. Các công ty thường ngại tiết lộ các vụ vi phạm vì sợ bị điều tra hình sự hoặc bị phạt theo quy định. Nhưng sự không sẵn lòng tiết lộ này làm suy yếu khả năng phòng thủ tập thể và chia sẻ thông tin, vì vậy Hoa Kỳ phải tìm cách xoa dịu nỗi sợ hãi của các công ty. Để làm được điều đó, họ có thể tham khảo Singapore, quốc gia đã cấu trúc các nhóm ứng phó của mình trong Bộ Phát triển Kỹ thuật số và Thông tin thay vì trong các bộ an ninh hoặc quốc phòng. Điều này cho phép các nhóm này tập trung vào phòng ngừa và ứng phó mà không phải đối mặt với áp lực pháp lý. Úc đã áp dụng cách tiếp cận tương tự, không trao quyền thực thi pháp luật cho Cục Tín hiệu và triển khai giao thức “Ứng phó sự cố mọi mối nguy hiểm” nhằm ngăn chặn các công ty cơ sở hạ tầng trọng yếu bị buộc chịu trách nhiệm về sự sơ suất của người tiêu dùng khi ứng phó với các sự cố. Điều này đã làm giảm rủi ro pháp lý và uy tín khi tiết lộ thông tin, khuyến khích các công ty báo cáo và hợp tác thay vì âm thầm ngăn chặn các cuộc tấn công để tránh trách nhiệm pháp lý. Các nhà hoạch định chính sách của Hoa Kỳ nên sử dụng cách tiếp cận tương tự để khuyến khích các công ty AI báo cáo rủi ro mà không để nỗi sợ bị trả thù làm suy yếu việc giao tiếp.

Cuối cùng, Washington nên sử dụng nhiều quyền lực hơn để phối hợp, thiết lập các tiêu chuẩn cơ bản và tăng cường nguồn lực trong thời kỳ khủng hoảng. Hiện nay, cơ sở hạ tầng kỹ thuật của phương Tây được đặc trưng bởi sự phân quyền và tính ẩn danh đi kèm, trong khi nhiều đối tác châu Á nhấn mạnh quyền sở hữu tập trung và dữ liệu có thể truy vết đầy đủ. Điều này cho phép nhóm các quốc gia sau này phản ứng với các cuộc tấn công một cách nhanh chóng và dứt khoát. Ví dụ, sau vụ vi phạm dữ liệu SingHealth năm 2018, Cơ quan An ninh mạng Singapore đã phối hợp một phản ứng tập trung, liên chính phủ và tăng cường nguồn lực kỹ thuật trên toàn ngành chăm sóc sức khỏe để ngăn chặn các cuộc tấn công trong tương lai. Hoa Kỳ có thể không muốn đi xa như các chính phủ châu Á; mô hình phương Tây lấy con người làm trung tâm và mang tính đổi mới. Nhưng sự kết hợp của hai cách tiếp cận sẽ là tối ưu.

Washington tiếp cận 

Một mô hình hợp tác mềm dẻo có thể phù hợp nhất với Hoa Kỳ. Theo cách tiếp cận này, các quan chức nhà nước sẽ được bố trí vào các phòng thí nghiệm AI lớn, thiết lập các hệ thống báo cáo sự cố chung và phối hợp dữ liệu về mối đe dọa không nhạy cảm. Cách tiếp cận này sẽ cho phép Hoa Kỳ duy trì sự phân quyền dân chủ trong khi vẫn nắm bắt được lợi ích an ninh của sự giám sát và khả năng truy vết mạch lạc. Một Văn phòng Hỗ trợ AI độc lập, có quyền hạn và năng lực có thể là điểm tựa cho sự cân bằng này, đảm bảo rằng sự hợp tác tăng cường khả năng phục hồi mà không vượt quá giới hạn của sự cưỡng chế. Một Lực lượng Đặc nhiệm về Kiện tụng AI, được đề xuất gần đây trong một Sắc lệnh Hành pháp của Nhà Trắng, sẽ củng cố cấu trúc này bằng cách khiến các cơ quan liên bang hợp tác với nhau trong việc thực thi an ninh AI, trách nhiệm pháp lý và ứng phó sự cố thay vì hoạt động trái ngược nhau. Trọng tâm nên là tạo ra sự tương tác hài hòa giữa các thể chế bán tự trị trong khi tránh những nguy hiểm của việc tập trung hóa, với lời hứa hão huyền về hiệu quả và tính hiệu lực.

Tuy nhiên, Hoa Kỳ nên tạo ra một bộ quy tắc kiểm soát an ninh tối thiểu ràng buộc duy nhất cho các phòng thí nghiệm AI tiên tiến thuộc khu vực tư nhân, bao gồm lưu trữ trọng lượng mô hình, quy trình đào tạo và quyền truy cập nội bộ, tương tự như cách an ninh hạt nhân và cơ sở hạ tầng thị trường tài chính cốt lõi được quy định. Khung pháp lý về mua sắm công và bảo hiểm mạng của liên bang nên thưởng cho các kiến trúc AI có khả năng phục hồi được chứng minh và nuôi dưỡng một hệ sinh thái mạnh mẽ gồm các công ty khởi nghiệp về an ninh AI có khả năng đổi mới nhanh hơn và với chuyên môn sâu rộng hơn so với khu vực công. Cuối cùng, Washington cần làm rõ—thông qua luật pháp và các tuyên bố chính sách hành pháp chính thức—rằng hành vi đánh cắp sở hữu trí tuệ AI quy mô lớn cấu thành một cuộc tấn công chiến lược, sẽ dẫn đến các biện pháp trừng phạt kinh tế, leo thang kiểm soát xuất khẩu, truy tố hình sự và nếu cần thiết, các biện pháp đối phó trên mạng bao gồm cả việc phá hoại cơ sở hạ tầng của đối phương.

Cơ sở hạ tầng AI đã trở thành lĩnh vực cơ sở hạ tầng trọng yếu mới nhất của Hoa Kỳ, và tốc độ xây dựng lĩnh vực này hiện đang vượt xa khả năng bảo vệ nó. Việc thử nghiệm nhanh chóng rất hữu ích cho sự đổi mới—vốn nên tiếp tục là ưu tiên hàng đầu đối với các phòng thí nghiệm AI cũng như các nhà hoạch định chính sách—nhưng quá trình này cần phải được song hành cùng sự kỷ luật, các tiêu chuẩn và trách nhiệm giải trình, những yếu tố vốn được kỳ vọng ở các lĩnh vực có tầm quan trọng sống còn về mặt an ninh khác. Như Michael Beckley đã nhận định trên tạp chí *Foreign Affairs*, bản chất của quyền lực đã thay đổi. Các nền kinh tế hiện đại không còn lưu giữ sự giàu có của mình dưới dạng các tài sản vật chất hữu hình—những thứ có thể bị tịch thu tại các bến cảng, nhà máy hay mỏ dầu. Gần 90% tài sản doanh nghiệp tại các nền kinh tế phát triển hiện nay là tài sản vô hình, chẳng hạn như phần mềm, bằng sáng chế và dữ liệu. Do đó, chiến lợi phẩm của những cuộc chinh phạt trong thời đại hiện đại chủ yếu mang tính kỹ thuật số. Theo đó, hành vi cướp bóc cũng đã chuyển dịch lên không gian mạng và tại đây, nó đang diễn ra một cách tràn lan.

Phản ứng còn hạn chế của Hoa Kỳ, cùng với sự thất bại trong chiến lược răn đe trên không gian mạng, đã tiếp tay cho những hành vi gây hấn tiếp diễn, cho phép các đối thủ cạnh tranh nước ngoài xây dựng nền công nghiệp của họ trên những nền tảng được tạo dựng từ tài sản đánh cắp. Sự thất bại này đã làm suy yếu cơ sở hạ tầng trọng yếu của Hoa Kỳ, đồng thời làm xói mòn năng lực cạnh tranh dài hạn của quốc gia này. Hoa Kỳ chỉ còn duy nhất một cơ hội để sửa chữa sai lầm đó, trước khi người chiến thắng trong cuộc đua AI chính thức lộ diện. Để đạt được thành công, Washington buộc phải hành động khẩn trương nhằm thiết lập các hệ thống phòng thủ đáng tin cậy, bao trùm cả ba trụ cột: chip bán dẫn, hệ thống đường truyền và con người. Nếu không làm được điều đó, Trung Quốc sẽ giành chiến thắng nhờ chính những phát minh do Hoa Kỳ tạo ra.

FRED HEIDING là Nghiên cứu viên sau tiến sĩ thuộc Chương trình Quốc phòng, Công nghệ mới nổi và Chiến lược (DETS) tại Trung tâm Belfer, thuộc Trường Harvard Kennedy.

CHRIS INGLIS là Giám đốc An ninh mạng Quốc gia đầu tiên của Hoa Kỳ.

https://www.foreignaffairs.com/united-states/americas-endangered-ai

***

America’s Endangered AI

How Weak Cyberdefenses Threaten U.S. Tech Dominance

At an AI summit in New Delhi, India, February 2026 Bhawika Chhabra / Reuters

In September 2025, the U.S. artificial intelligence company Anthropic announced that Chinese cyber-operators had used its models to target around 30 companies, agencies, and institutions. It was, Anthropic declared, “the first documented case of a large-scale cyberattack executed without substantial human intervention.” This assault on U.S. infrastructure was innovative in its use of cutting-edge American AI models. And although it was the first, it was not the last.

That same year, OpenAI reported attempts by Iranian hackers to use large language models to support phishing campaigns, malware development, and influence operations. Tehran’s efforts have intensified following Washington’s strikes on Iran that began in February 2026. Already, Palo Alto Networks, a U.S. cybersecurity company, has reported the mobilization of more than 60 Iranian-aligned cyber groups, many of which are leveraging AI tools to exploit Western infrastructure. As the fighting continues, U.S. data centers, cloud providers, and financial networks are likely to become targets for cyberattacks. Large AI training clusters and model-weight repositories concentrate enormous economic and strategic value, making them especially attractive targets for foreign intelligence services seeking to steal, sabotage, or replicate advanced AI systems.

Right now, the United States is extremely vulnerable to such attacks. U.S. cyberdefenses are inadequate, yet AI is rapidly being integrated into all aspects of American life, economic activity, and national security. As a result, the potential damage that Beijing, Moscow, and Tehran can cause is growing by the hour. Washington, in other words, is caught in a double bind. On the one hand, U.S. companies are producing the technology that is powering the AI revolution. On the other hand, the results of this revolution are being stolen by foreign adversaries capable of deploying AI to weaken the United States. Each AI breakthrough thus produces great promise and increasing risk. Defenses are weak, and a strategy for protecting American AI technology is wanting. Washington must quickly awaken to this situation, learn from the recent history of international cyber-responses, and change course.

An easy target

For decades, Western firms have struggled to protect their industries from cybertheft and espionage, particularly that perpetrated by Chinese actors. Under Beijing’s direction, many of the most technologically advanced companies in the United States and in U.S. allied countries have been targeted for their intellectual property and business secrets. For example, in 2004, Canada’s then largest technology company, Nortel Networks, was hacked by Chinese actors who made off with its patents and know-how. Nortel declared bankruptcy in 2009, and the Chinese telecommunications firm Huawei moved into the gap its competitor’s collapse had left. American Superconductor was the target of a similar strategy in 2011. Its wind-turbine control software was stolen by China’s Sinovel Wind Group, causing the U.S. company to lose hundreds of millions of dollars in revenue and stock value. Hundreds of U.S. jobs were cut, and the Chinese firm later sold wind turbines incorporating the stolen software back to the United States.

Researchers at Harvard University and the University of California, Berkeley, have cataloged more than 300 severe incidents of Chinese cyber-espionage and intellectual property theft from 1995 to 2024. In every one of these incidents, the United States failed to secure its assets and critical technologies, including semiconductor manufacturing plans and aerospace designs. Foreign adversaries used these attacks to accelerate their own development, progressing by theft rather than by innovation.

Today, AI systems present an even larger prize for these hackers, and since Silicon Valley has prioritized speed over security, cutting-edge systems have been left particularly vulnerable to cyberattacks and espionage. The progress and deployment of AI depend on a layered infrastructure comprising hardware, data, software, and human expertise, as well as clear assignments of expectations, roles, and responsibilities for the various stakeholders in the overall ecosystem. Compute resources (that is, the resources that allow computers to process data and run applications) form the bedrock of AI. Specialized chips, such as GPUs and TPUs, work alongside central processing units and other accelerators. Training data, the raw material for language models’ “intelligence,” includes everything from text and images to video, audio, code, and structured data sets. Software frameworks such as TensorFlow and PyTorch help developers access and modify AI-powered tools—including widely used text or image generation. Orchestration tools and operations pipelines ensure that data and models move smoothly through their life cycles.

Each layer of this infrastructure must function reliably, deliver the capabilities it promises, operate as intended under diverse use cases, and be reasonably secure. At each layer, human operators and technical defense systems must be able to anticipate, resist, and rapidly contain external attacks. Modern AI systems struggle across all these dimensions because of their opacity, sensitivity, and unpredictability. Meanwhile, the growing complexity of these systems makes it unlikely they can be secured without deliberate intervention from the U.S. government.

The biggest prize

Attackers targeting AI infrastructure have three principal objectives. First, they aim to steal or corrupt intellectual property (such as training data or model weights) to strengthen their own industries, or to ransom or degrade the victim’s capabilities. Second, they seek to compromise the tools that use AI systems, disrupting services including fraud detection, logistics, and health diagnostics. Third, they want to undermine users’ trust in whatever systems they strike. Attackers especially want national leaders to conclude that these systems won’t perform as intended during contingencies and crises.

AI model weights are a particular concern. These weights are the intelligence of a model, and they are the product of immense investment, training hours, and hard-won expertise. Stealing the weights would let a foreign actor replicate the model’s intelligence. Corrupting them would undermine system performance and user confidence. They could be stolen through exfiltration via cloud misconfigurations, insider theft, side-channel leaks, API (application programming interface) extraction, or by compromising supply chains. Some attack scenarios assume that model weights could be smuggled out via systematic probing through carefully crafted model queries or API calls, a standard way for software programs to communicate and exchange data. Such an attack would be difficult. But it is well within the demonstrated capabilities of Beijing’s cyber forces.

Indeed, multiple dangerous gaps in cyberdefenses have already been found. In 2025, security researchers from the cloud security company Wiz investigated Nvidia—the U.S. company that designs the world’s most widely used AI chips—and discovered a vulnerability that allowed attackers to execute malware directly on one of its servers. Had it been exploited, attackers could have stolen model weights, manipulated outputs, leaked sensitive data, or established deeper network footholds before patches were issued. That same year, researchers from the University of Toronto demonstrated a hardware attack on Nvidia’s AI chips that would distort the calculations used to train AI models on them. If exploited, such an attack would have rendered models inaccurate and unpredictable. Separately, vulnerabilities in widely used open-source software have allowed researchers from the U.S.-based cybersecurity firm Horizon3.ai to execute malware on systems running AI models, which, if exploited by an attacker, could have been used to steal the credentials of the organizations operating them. There is no evidence that these weaknesses were exploited before researchers identified them, but they underscore the fragility of today’s AI infrastructure.

Software that is free to access and use is particularly at risk from hackers because no infiltration is necessary to access it. Open-source software libraries underpin much of modern digital infrastructure, and they provide researchers with the code needed to build their own systems. As a result, cyberattacks can infect the popular software used by millions of developers—and they have. Some of the most widespread cyberattacks in history have been undertaken in this way. A single flaw in a popular open-source library can expose every system that depends on it, developers and organizations, around the planet.

In addition to sophisticated cyberattacks, AI labs and vendors are prime targets for more traditional forms of coercion. Recent reports from publications including The Times of London suggest that Chinese and Russian intelligence services are blackmailing tech employees and even engaging in honeypot operations—or romancing them to steal their information. The schemes often start with a LinkedIn message or a “chance” meeting at a conference. The resulting relationships sometimes extend even to marriage and children, all while the intelligence asset quietly relays trade secrets back to their home countries. Trade secrets are also vulnerable to conventional insider theft. In 2024, Linwei Ding, a Google software engineer, was indicted for stealing more than 2,000 pages of AI trade secrets, including details of Google’s proprietary chips and infrastructure, and passing them to Chinese technology companies.

Strengthening defenses

U.S. policymakers must expect adversaries to probe AI systems with the same intensity and success as they have done with other strategic industries. Without improved defenses, clear deterrence policies, and enforceable accountability across AI labs, supply chains, and government agencies, Washington risks ceding to Beijing the technical competitive advantage it has spent trillions of dollars developing. The United States is starting to take some steps in the right direction. The Trump Administration just released a new cyberstrategy focused on deterrence, strengthening public-private collaboration, and coordinating policy across federal agencies. If sustained, his plan would meaningfully strengthen U.S. cyber-resilience. But it is still mostly a blueprint, and its impact will depend on its implementation and execution.

Securing AI infrastructure requires coordinated action focusing on three primary pressure points: chips, wires, and humans. At the chip level, manufacturers and cloud providers must be able to reliably track export-controlled hardware and the security-critical systems it powers, ensuring that restricted compute remains under authorized control. Companies, including Nvidia, are already experimenting with location verification schemes to ensure GPUs and other regulated hardware are monitored and remain under authorized control. These systems allow regulators and operators to identify, isolate, and shut down hardware that operates outside agreed boundaries. U.S. policymakers must continue incentivizing such schemes by exploring chip-tracking mandates and export-control enforcement. Verified chips should be paired with outbound safeguards at the data center level, ensuring that sensitive model data cannot leave through unauthorized channels or disguised traffic.

At the wire level, model operators must monitor and police data flows to prevent the exfiltration or poisoning of model weights, training data, and sensitive outputs. Research conducted at Harvard and Stanford offers promising ways to prevent AI model weights from being stolen by making outbound monitoring more comprehensive and efficient. Modern AI models operate at a massive scale, handling millions of requests per day, leaving little room for security checks. But defenders can audit small subsets of model interactions by rerunning them on trusted, isolated systems and comparing the results against expected behavior. When a model’s responses deviate from the norm, they should be flagged for further review. Thus, subtle manipulation can be detected at a relatively low cost.

At the human level, institutions must assume that insiders will be targeted through coercion, compromise, and errors. To guard against attacks, organizations should require strict multipart verification for sensitive data. No single person should be able to access or remove critical model weights. Anthropic, for instance, reportedly requires multiple authorized employees, each holding a separate key or credential, to jointly approve access to its most sensitive model weights. This multiparty control system is expensive to enforce and maintain, but it ensures that no insider can act alone. Policymakers should incentivize these schemes by making them a condition of federal contracts and export-control privileges, and offering reduced regulatory liability to companies that implement them. This would offset the costs and operational challenges of mandating them.

Circling the wagons

To strengthen U.S. cyberdefenses, Congress should designate AI systems and their supply chains as a formal critical infrastructure sector. This would enable the Cybersecurity and Infrastructure Security Agency to set and enforce baseline security requirements. It would also empower the agency to coordinate incident response, receive mandatory cyber-incident reports from AI labs, and give AI firms priority access to federal resources. But designation is not enough. Turning legal status into real resilience requires drawing on lessons that foreign governments have already learned, often the hard way, about protecting their assets. This includes deciding who is responsible for what, how industry and government cooperate, and how security objectives can be enforced without stifling innovation.

A 2025 Belfer Center study of the history of national cyberstrategies shows that there is no one-size-fits-all blueprint for effective governance. Successful approaches must be tailored to the unique combination of threats, resource constraints, and political dynamics that distinguish each country. But the study did highlight three approaches, pursued by different governments, each of which has clear relevance to Washington as U.S. officials consider the most effective means of securing AI infrastructure.

First, some nations have successfully embedded industry figures in government planning and response, creating public programs that include private experts. The United Kingdom’s Industry 100 scheme entails having experienced business practitioners advise the British government on cybersecurity issues. Similar programs are needed to translate U.S. private competence into public capacity for governing artificial intelligence, especially as its development continues. Bringing former employees and selected policy spokespeople from AI labs into Washington is not enough. There must be a continuous information exchange between technical employees currently working at AI labs and U.S. government agencies. When appropriate, Washington should even provide security clearances to private employees. It should set up a joint group with experts from AI model labs, cloud providers, chipmakers, and other key sectors. This would build the relationships, information channels, and institutional muscle memory needed to define and implement appropriate security practices, both to contain incidents when they occur and, ideally, to prevent them altogether.

Second, some governments have kept incident response teams institutionally distinct from law enforcement to incentivize early and frequent incident reports. Companies are often reluctant to disclose breaches for fear of triggering criminal investigations or regulatory penalties. But this unwillingness to disclose undermines collective defenses and information sharing, and so the United States must find a way to ease its companies’ fears. To do so, it might look to Singapore, which has structured its response teams within its Ministry of Digital Development and Information rather than within the security or defense ministries. This allows these teams to focus on prevention and response without facing regulatory pressure. Australia has followed the same approach, giving its Signals Directorate no legal enforcement powers and implementing an “All Hazards Incident Response” protocol that prohibits critical infrastructure companies from being held liable for consumer negligence when responding to incidents. This has lowered the legal and reputational risk of disclosure, encouraging companies to report and collaborate rather than quietly containing attacks to avoid liability. U.S. policymakers should use the same approach to incentivize AI companies to report risks without letting fear of reprisal undermine communication.

Finally, Washington should use more of its authority to coordinate, set baselines, and surge resources during a crisis. Right now, Western technical infrastructure is characterized by decentralization and attendant anonymity, whereas many Asian counterparts emphasize centralized ownership and fully traceable data. This allows the latter set of countries to respond to attacks quickly and decisively. After the 2018 SingHealth breach, for example, Singapore’s Cyber Security Agency coordinated a centralized, cross-government response and surged technical resources across the health-care sector to prevent future attacks. The United States may not want to go quite as far as Asian governments; the Western model is human-centric and innovative. But a combination of the two approaches would be optimal.

Washington reaches out

A model of soft collaboration could be most suitable for the United States. Under this approach, public officials would be placed in major AI labs, establish shared incident-reporting systems, and coordinate nonsensitive threat data. This approach would allow the United States to preserve democratic decentralization while capturing the security benefits of coherent oversight and traceability. An independent, empowered, and capable AI Assistance Office could anchor this balance, ensuring that cooperation enhances resilience without crossing into coercion. An AI Litigation Task Force, recently recommended in a White House Executive Order, would reinforce this architecture by getting federal agencies to work together on AI security enforcement, liability, and incident response rather than at cross-purposes. The emphasis should be on creating a harmonious interaction between semiautonomous institutions while avoiding the perils of centralization, with its false promise of efficiency and effectiveness.

The United States, however, should create a single, binding set of minimum security controls for private-sector frontier AI labs that cover model-weight storage, training pipelines, and insider access, much as nuclear security and core financial-market infrastructure are regulated. Federal procurement and cyber-insurance frameworks should reward demonstrably resilient AI architectures and cultivate a robust ecosystem of AI security startups capable of innovating faster and with deeper domain expertise than the public sector can develop. Finally, Washington must clarify—through legislation and formal executive policy statements—that large-scale AI intellectual property theft constitutes a strategic attack that will trigger economic sanctions, export-control escalation, criminal prosecution, and if necessary, cyber-countermeasures including disruption of adversaries’ infrastructure.

AI infrastructure has become the latest U.S. critical infrastructure sector, and it is being built faster than it can be protected. Rapid experimentation is useful for innovation, which should remain a priority for AI labs and policymakers, but it must be paired with the discipline, standards, and accountability expected of other security-critical domains. As Michael Beckley has observed in Foreign Affairs, the nature of power has changed. Modern economies no longer hold their wealth in physical deposits that can be seized in ports, factories, or oil fields. Nearly 90 percent of corporate assets in advanced economies are intangibles, such as software, patents, and data. The spoils of modern conquest are therefore largely digital. Looting has accordingly moved online, where it has become rampant.

The United States’ limited response and failed cyber-deterrence have encouraged further aggression, allowing foreign competitors to build their industries on stolen foundations. This failure has weakened U.S. critical infrastructure and eroded long-term competitiveness. The United States has one final chance to correct that mistake, before the winner of the AI race is crowned. If it is to succeed, Washington must take prompt action to build credible defenses for chips, wires, and humans. Otherwise, China will triumph thanks to the United States’ own inventions.

FRED HEIDING is a Postdoctoral Research Fellow at the Belfer Center’s Defense, Emerging Technology, and Strategy (DETS) program at Harvard Kennedy School.

CHRIS INGLIS was the first U.S. National Cyber Director.

Nhận xét

Bài đăng phổ biến từ blog này

2945 - Chi tiết 'Chiến dịch Mạng nhện' của Ukraine nhằm vào máy bay ném bom của Nga

5433 - The Vietnam War và khi Đồng Minh tháo chạy

1360 - Điều gì giúp LDP thống trị nền chính trị Nhật Bản?