Chưa bao giờ trong lịch sử có một cường quốc
nào sợ đối thủ áp dụng công nghệ mới đe dọa đến sự tồn vong và an ninh của mình, mà lại không tự mình
phát triển công nghệ đó, ngay
cả các đồng minh thân cận của Mỹ như Anh và Pháp.
PHƯƠNG TÂY ĐÃ MẤT QUYỀN KIỂM SOÁT THẾ GIỚI
(Báo
“LE FIGARO - Pháp)
Để làm cho quan điểm “tập thể phương Tây đã mất quyền kiểm soát thế giới”
trở nên sáng rõ hơn, các chiến lược gia đã tạo ra từ viết tắt đầy mỉa mai MAD
(tiếng Anh có nghĩa là “điên rồ”, là viết tắt của “sự hủy diệt được đảm bảo lẫn nhau”), bản chất của
từ này đã được nêu trong bài viết thường xuyên của Reagan,cụm từ lặp đi lặp lại:
“Một cuộc chiến tranh hạt nhân không thể thắng và do đó không bao giờ nên sử dụng”.
Từ góc độ hoạt động, MAD có nghĩa là lỗ hổng
được đảm bảo lẫn nhau. Mặc dù cả Hoa Kỳ và Liên Xô đều tìm cách tránh tình trạng
này, nhưng cuối cùng họ nhận ra rằng họ không thể làm như vậy và về cơ bản phải
suy nghĩ lại các mối quan hệ cơ bản giữa họ. Năm 1955, Churchill đã lưu ý đến một
điều trớ trêu tột độ là “an ninh sẽ trở thành đứa con mạnh mẽ của khủng bố và sống
sót sẽ là anh em sinh đôi của sự hủy diệt”. Không phủ nhận sự khác biệt về giá
trị và không đe dọa đến lợi ích quốc gia sống còn, những kẻ thù không đội trời
chung phải phát triển các chiến lược để đánh bại đối thủ bằng mọi cách có thể,
ngoại trừ chiến tranh tổng lực.
Một trong những trụ cột của những chiến lược
này là một loạt các hạn chế ngầm và rõ ràng mà ngày nay được gọi là kiểm soát
vũ khí. Ngay cả trước khi chiến lược MAD ra đời, khi mỗi siêu cường làm mọi
cách có thể để đạt được ưu thế hạt nhân, họ đã khám phá ra những lĩnh vực có lợi
ích chung.
Để giảm nguy cơ mắc sai lầm, Hoa Kỳ và
Liên Xô đã đồng ý trong các cuộc thảo luận không chính thức là không can thiệp
vào việc giám sát lãnh thổ của phía ben kia. Để bảo vệ công dân của mình khỏi bụi
phóng xạ, cả hai bên đã cấm thử nghiệm hạt nhân trong khí quyển. Để tránh
"khủng hoảng bất ổn" - khi một bên cảm thấy cần phải tấn công trước
và tin rằng bên kia sắp làm như vậy - họ đã đồng ý trong Hiệp ước ABM năm 1972
hạn chế phòng thủ tên lửa.
Trong Hiệp ước về Lực lượng hạt nhân tầm
trung, tầm ngắn được ký năm 1987, Reagan và nhà lãnh đạo Liên Xô Mikhail
Gorbachev đã đồng ý loại bỏ lực lượng hạt nhân tầm trung. Các cuộc đàm phán về
hạn chế vũ khí chiến lược, dẫn đến các hiệp ước năm 1972 và 1979, đã hạn chế việc
gia tăng số lượng bệ phóng tên lửa, và sau đó là Hiệp ước cắt giảm vũ khí chiến
lược (START), ký năm 1991 và hiệp ước START mới, ký năm 2010, giảm về số lượng.
Có lẽ điểm quan trọng nhất đó là Hoa Kỳ và Liên Xô đi tới kết luận rằng việc phổ
biến vũ khí hạt nhân sang các quốc gia khác sẽ tạo thành mối đe dọa cho chính họ
và cuối cùng sẽ dẫn đến "tình trạng hỗn loạn hạt nhân". Điều này dẫn
đến việc thành lập cái gọi là chế độ không phổ biến vũ khí hạt nhân mà hạt nhân
của nó là Hiệp ước không phổ biến vũ khí hạt nhân năm 1968, theo đó 186 quốc
gia hiện đã cam kết kiềm chế phát triển kho vũ khí hạt nhân của riêng mình.
SỰ KIỂM SOÁT AI
Trong rất nhiều đề xuất vừa qua về việc
ngăn chặn AI có thể lắng nghe được những đồng vọng của quá khứ. Yêu cầu của tỷ
phú Elon Musk tạm dừng phát triển AI trong sáu tháng, đề xuất cấm nó của nhà
nghiên cứu trí tuệ nhân tạo Eliezer Yudkowsky và yêu cầu của nhà tâm lý học
Gary Marcus rằng nó phải được kiểm soát bởi một loại cơ quan quản lý toàn cầu
nào đó về cơ bản lặp lại những đề xuất thất bại trong thời đại hạt nhân.
Lý do là mỗi cơ chế này sẽ yêu cầu các quốc
gia hàng đầu phải đặt chủ quyền của mình phụ thuộc vào các cấu trúc siêu quốc
gia. Chưa bao giờ trong lịch sử có một cường quốc nào sợ đối thủ áp dụng công
nghệ mới đe dọa đến sự tồn vong và an ninh của mình, mà lại không tự mình
phát triển công nghệ đó. Ngay cả các đồng minh thân cận của Mỹ như Anh và Pháp
đã lựa chọn phát triển năng lực hạt nhân quốc gia của mình, bên cạnh việc dựa vào
chiếc ô hạt nhân của Mỹ.
Để điều chỉnh các bài học về lịch sử hạt
nhân nhằm giải quyết thách thức của trí tuệ nhân tạo hiện nay, điều quan trọng
là phải nhận ra sự khác biệt đáng kể giữa AI và vũ khí hạt nhân. Trước hết, nếu
việc phát triển công nghệ hạt nhân được chỉ đạo bởi chính phủ của từng quốc gia
thì việc tạo ra AI chủ yếu được thúc đẩy bởi các công ty tư nhân. Các nhà khoa
học làm việc tại Microsoft, Google, Amazon, Meta, OpenAI và một số công ty khởi
nghiệp nhỏ hơn đang vượt xa mọi nỗ lực tương tự của chính phủ Hoa Kỳ. Hơn nữa,
các công ty này hiện đang tham gia vào một cuộc chiến đấu “vì sĩ diện” giữa họ, điều này không nghi ngờ gì
chắc chắn sẽ kích thích sự đổi mới phải trả giá đắt. Vì những trò chơi tư nhân
này chủ yếu tìm kiếm sự thỏa hiệp giữa lợi nhuận và rủi ro nên họ thường đánh
giá thấp lợi ích quốc gia của từng nước cụ thể.
Thứ hai, AI ngày nay là kỹ thuật số. Vũ
khí hạt nhân rất khó sản xuất và cần có cơ sở hạ tầng phức tạp để thực hiện mọi
việc, từ làm giàu uranium đến phát triển vũ khí hạt nhân. Sản phẩm hạt nhân là
vật thể vật chất và do đó có thể đếm được. Nhưng ở nơi cần kiểm tra hành động của
kẻ thù thì ngay lập tức nảy sinh những hạn chế. AI đưa ra một thách thức hoàn
toàn khác. Sự tiến hóa chính của nó xảy ra trong tâm trí của mọi người. Nó được
phát triển trong phòng thí nghiệm và việc triển khai nó rất khó quan sát. Vũ
khí hạt nhân là hữu hình. Bản chất của trí tuệ nhân tạo là tính khái niệm và
tính suy đoán của nó.
Thứ ba, AI đang phát triển và lan rộng với
tốc độ khiến các cuộc đàm phán lâu dài không thể thực hiện được. Kiểm soát vũ
khí đã phát triển qua nhiều thập kỷ. Các giới hạn đối với AI phải được đặt ra
trước khi AI được tích hợp vào cấu trúc an ninh của mọi quốc gia, tức là trước
khi máy móc bắt đầu đặt ra các mục tiêu của riêng mình, điều mà một số chuyên
gia cho rằng có thể xảy ra trong vòng 5 năm tới. Điều này đòi hỏi phải thảo luận
và phân tích, trước tiên là ở cấp quốc gia và sau đó là cấp quốc tế. AI cũng
yêu cầu một kiến trúc mới cho mối quan hệ giữa chính phủ và khu vực tư nhân.
May mắn thay, các công ty lớn đã phát triển
trí tuệ nhân tạo cốt lõi và khiến Hoa Kỳ trở thành siêu cường AI hàng đầu nhận
ra rằng họ có trách nhiệm không chỉ với các cổ đông của mình mà còn với cả nước
Mỹ và nhân loại nói chung. Nhiều người đã phát triển các hướng dẫn riêng để
đánh giá rủi ro trước khi triển khai, giảm sai lệch trong đào tạo AI và hạn chế
việc sử dụng mô hình của họ một cách nguy hiểm. Những người khác đang tìm cách
hạn chế việc đào tạo AI và áp đặt các yêu cầu về hiểu biết khách hàng của bạn đối
với các nhà sản xuất hệ thống điện toán đám mây. Một bước quan trọng theo đúng
hướng là sáng kiến được chính quyền Biden công bố vào tháng 7 năm nay nhằm
đưa người đứng đầu bảy công ty trí tuệ nhân tạo lớn đến Nhà Trắng để cùng cam kết
phát triển các hướng dẫn nhằm đảm bảo “an toàn, an ninh và tin cậy”.
Một người trong chúng ta- Kissinger, trong cuốn
sách “Thời đại của trí tuệ nhân tạo” đã lưu ý việc tiến hành nghiên cứu có hệ thống
về tác động lâu dài của các phát minh và ứng dụng mới nổi của trí tuệ nhân tạo
là rất quan trọng. Với xã hội ở Hoa Kỳ hiện đang bị chia rẽ nhiều hơn cả thời Nội
chiến, quy mô rủi ro đặt ra những tiến bộ không giới hạn trong AI đòi hỏi các
nhà lãnh đạo trong cả chính phủ và doanh nghiệp phải hành động ngay lập tức. Mọi
công ty có khả năng tạo ra các mô hình AI mới và mọi công ty hoặc tổ chức
nghiên cứu đang phát triển các mô hình như vậy nên thành lập các nhóm để phân
tích các tác động đối với con người và địa chính trị trong hoạt động kinh doanh
AI của mình.
Vấn đề này mang tính chất liên đảng phái
và đòi hỏi sự phản ứng thống nhất của xã hội chúng ta. Theo tinh thần này,
Tổng thống và Quốc hội nên thành lập một ủy ban quốc gia bao gồm các chuyên gia
nổi tiếng,các cựu lãnh đạo độc lập về mặt chính trị của khu vực tư nhân,của Quốc
hội, quân đội và cộng đồng tình báo. Ủy ban phải đề xuất những bảo đảm bắt buộc
cụ thể. Những điều này cần bao gồm các yêu cầu rằng các mô hình AI mới như
GPT-4 có thể được đào tạo liên tục và các công ty phải kiểm tra chặt chẽ các rủi
ro cực độ trước khi phát hành một mô hình mới. Mặc dù nhiệm vụ phát triển các
quy tắc như vậy rất phức tạp nhưng ủy ban sẽ có một khuôn mẫu dưới dạng Ủy ban
An ninh Quốc gia về Trí tuệ Nhân tạo. Các khuyến nghị của nó, được ra đời vào
năm 2021, đã cung cấp động lực và định hướng cho các sáng kiến mà các cơ quan
quân sự và tình báo Hoa Kỳ đang được thực hiện như một phần của cuộc cạnh tranh
trong lĩnh vực trí tuệ nhân tạo với Trung Quốc.
HAI SIÊU CƯỜNG TRONG LĨNH VỰC AI
Ngay cả ở giai đoạn đầu này, trong khi Hoa
Kỳ vẫn đang xây dựng hệ thống quản trị AI của riêng mình ở trong nước, các cuộc
đối thoại nghiêm túc hẳn đã phải bắt đầu với một siêu cường AI duy nhất khác
trên thế giới. Mặc dù hệ thống chính trị của Trung Quốc đã tạo ra những thách
thức cho việc phát triển AI, các nhà lãnh đạo quốc gia của Trung Quốc trong
lĩnh vực công nghệ như Baidu (công cụ tìm kiếm hàng đầu của đất nước),
ByteDance (người tạo ra TikTok), Tencent (người tạo ra WeChat) và Alibaba (người
dẫn đầu về thương mại điện tử) đang xây dựng hệ thống của riêng họ bằng tiếng
Trung - tương tự trò
chuyện ChatGPT. Và mặc dù Trung Quốc vẫn còn tụt hậu về công nghệ bán dẫn tiên
tiến nhưng nước này có đủ điều kiện để tiến bộ trong tương lai gần.
Để đạt được mục tiêu này, Biden và Tập nên
gặp nhau càng sớm càng tốt để có một cuộc trò chuyện cởi mở về việc kiểm soát
việc sử dụng AI cho quân đội. Cuộc họp Hợp tác Kinh tế Châu Á-Thái Bình Dương
vào tháng 11 tại San Francisco mang đến cho họ cơ hội đó. Các nhà lãnh đạo Mỹ
và Trung Quốc nên thảo luận về cách cá nhân họ nhìn nhận những rủi ro do AI gây
ra, đất nước của họ đang làm gì để ngăn chặn những hoạt động sử dụng tạo ra rủi
ro thảm khốc và cách đất nước của họ đảm bảo rằng các công ty trong nước được đảm
bảo an toàn sẽ không xuất khẩu các rủi ro liên quan.
Để cung cấp thông tin cho vòng thảo luận
tiếp theo, họ nên thành lập một nhóm cố vấn bao gồm các nhà khoa học trí tuệ
nhân tạo của Mỹ và Trung Quốc cũng như những người khác đang xem xét tác động của
những diễn biến này. Cách tiếp cận ấy có thể được mô hình hóa theo đường lối
ngoại giao thứ hai hiện có trong các lĩnh vực khác, trong đó các nhóm gồm những
người được lựa chọn dựa trên đánh giá khách quan của họ, mặc dù không được chính
phủ của họ chính thức phê duyệt. Căn cứ vào những cuộc trò chuyện của chúng tôi
với các nhà khoa học hàng đầu ở cả hai nước, chúng tôi tin tưởng rằng cuộc thảo
luận này có thể rất hiệu quả.
Các cuộc thảo luận và hành động của Mỹ và
Trung Quốc trong chương trình nghị sự này sẽ chỉ là một phần của cuộc đối thoại
toàn cầu mới nổi về AI, bao gồm Hội nghị thượng đỉnh An ninh AI mà Vương quốc
Anh sẽ tổ chức vào tháng 11 và cuộc đối thoại đang diễn ra về vấn đề này tại
Liên Hợp Quốc. Vì mọi quốc gia đều cố gắng sử dụng trí tuệ nhân tạo để cải thiện
cuộc sống của người dân đồng thời đảm bảo an toàn cho họ nên về lâu dài sẽ cần
có một khuôn khổ toàn cầu cho sự phát triển của nó. Công việc này phải bắt đầu
bằng nỗ lực quốc gia nhằm ngăn chặn những hậu quả nguy hiểm nhất và có khả năng
thảm khốc nhất của trí tuệ nhân tạo.
Những sáng kiến này cần được bổ sung bằng
đối thoại giữa các nhà khoa học ở các quốc gia khác nhau đang phát triển các mô
hình AI quy mô lớn và các thành viên của ủy ban quốc gia như những ủy ban được
đề xuất ở đây. Các cuộc đàm phán chính phủ chính thức, ban đầu là giữa các quốc
gia có chương trình trí tuệ nhân tạo tiên tiến, nên nhằm mục đích tạo ra một cơ
cấu quốc tế cũng như một cơ quan quốc tế có thể so sánh với Cơ quan Năng lượng
Nguyên tử Quốc tế.
Nếu Biden, Tập Cận Bình và các nhà lãnh đạo
thế giới khác hành động ngay bây giờ để đối đầu với những thách thức do AI đặt
ra một cách dứt khoát- như những người tiền nhiệm của họ đã làm để chống lại
các mối đe dọa hạt nhân trong những thập kỷ trước- liệu họ có thành công không?
Nhìn vào bức tranh lịch sử rộng lớn hơn và sự phân cực ngày càng tăng của cộng
đồng toàn cầu ngày nay, thật khó có thể lạc quan. Tuy nhiên, có một thực tế nổi
bật rằng chúng ta đã kỷ niệm 78 năm hòa bình giữa các cường quốc hạt nhân và
cái mốc này sẽ truyền cảm hứng cho mọi người đáp ứng những thách thức mang tính
cách mạng và không thể tránh khỏi trong tương lai thuộc lĩnh vực trí tuệ nhân tạo.
Bài viết có Tham
khảo ý kiến của hai tác giả:
-Henry Kissinger là Chủ tịch Hội đồng quản
trị Kissinger Associates. Ông từng là Cố vấn An ninh Quốc gia cho Tổng thống
Hoa Kỳ từ năm 1969 đến năm 1975 và Bộ trưởng Ngoại giao từ năm 1973 đến năm
1977.
-Graham Allison là giáo sư về điều hành
nhà nước tại Đại học Harvard. Cựu Trợ lý Bộ trưởng Bộ Quốc phòng Hoa Kỳ về
Chính sách và Kế hoạch.
TÔ HOÀNG (chuyển ngữ)