AI có thể được thiết kế sai lệch hoặc được “huấn luyện”
(training) thông qua cơ chế học máy (machine learning) không đúng cách, từ đó dẫn
đến những hành động không mong muốn, gây thiệt hại cho con người và môi trường.
Hiểm họa mang tên AI: Không chỉ còn là những
kịch bản phim
ĐỖ TIẾN
Tháng 3 năm nay, tỷ phú Elon Musk cùng hơn 1.000 chuyên
gia công nghệ hàng đầu thế giới đã ký một bức thư ngỏ gửi Liên hợp quốc, nhằm cảnh
báo về nguy cơ trí tuệ nhân tạo (AI) phát triển không kiểm soát. Thế nhưng,
ngăn chặn một đoàn tàu đã chuyển bánh luôn là điều cực kỳ khó khăn.
Giảm tốc độ cuộc đua
Ngày ra mắt thử nghiệm công khai vào tháng 11 năm
ngoái, “bom tấn” ChatGPT của OpenAI đã thực sự gây ra một cơn địa chấn, theo cả
nghĩa tích cực và tiêu cực. Chatbot này bắt đầu vượt qua các kỳ thi về cấp phép
y tế, thậm chí hướng dẫn người dùng cách… chế tạo bom. Trên thực tế, những gì
ChatGPT đang làm cho thấy: Ở một chừng mực nào đó, AI đã và đang trở nên nguy
hiểm hơn rất nhiều so với những gì con người từng mường tượng.
Càng sử dụng AI nhiều hơn - đặc biệt là các công cụ tổng
quát như ChatGPT - những nguy cơ càng trở nên rõ rệt. Theo Hasan Chowdhury, cây
viết của Insider: “AI có thể đẩy nhanh tốc độ lan truyền lỗi, khai thác sâu cả
những điều tích cực và tiêu cực nhất của con người, sau khi được tích hợp vào
cuộc sống”.
Vào tháng 3 năm nay, Steve Wozniak (người đồng sáng lập
Apple), Elon Musk cùng hơn 1.000 nhà lãnh đạo doanh nghiệp vừa ký một bức thư
yêu cầu các biện pháp bảo mật và tạm dừng phát triển các mô hình AI, trong bối
cảnh công nghệ trí tuệ nhân tạo bùng nổ. Họ lập luận: Các mô hình AI mạnh mẽ
như GPT-4 của OpenAI chỉ nên phát triển, nếu giành được sự tin tưởng, đồng thời
kiểm soát được toàn bộ rủi ro.
James Grimmelmann, giáo sư về kỹ thuật số chia sẻ: “Đó
là một ý tưởng rất hay để làm chậm quá trình phát triển mô hình mới. Bởi vì, nếu
AI thực sự tốt, việc chờ đợi hàng tháng hoặc hàng năm cũng chẳng có hại gì, dù
sao chúng ta cũng sẽ đi đến đích. Nếu nó có hại, chúng ta sẽ có thêm thời gian
để hoạch định cách đối phó”.
Những hiểm họa tiềm tàng
Trí tuệ nhân tạo có thể trở thành mối nguy đối với an
ninh quốc gia và an toàn cá nhân. Nếu một quốc gia phát triển được một hệ thống
trí tuệ nhân tạo vượt trội, họ hoàn toàn có thể sử dụng nó để tấn công các quốc
gia khác. Giáo sư khoa học máy tính Stuart Russell tại Đại học California - người
từng dành hàng chục năm nghiên cứu về trí tuệ nhân tạo - cảnh báo: Hiện nay,
loài người đã có thể sản xuất vũ khí tấn công tự động, bằng cách tích hợp và
thu nhỏ những công nghệ sẵn có.
Thí nghiệm được Giáo sư Stuart Russell cùng Viện
nghiên cứu Cuộc sống tương lai (FLI) tiến hành, sử dụng một robot sát thủ
(slaughterbot) là thiết bị bay siêu nhỏ, trang bị camera, cảm biến, phần mềm xử
lý hình ảnh, nhận diện khuôn mặt, một khối thuốc nổ nặng 3gr, và một bộ vi xử
lý tốc độ cao, cho phép phân tích dữ liệu và phản ứng nhanh hơn 100 lần tốc độ
bộ não con người. Theo thông số lập trình, robot sát thủ truy cập liên tục vào
dữ liệu đám mây để tìm kiếm thông tin về mục tiêu và tìm cách tiếp cận. Khi đã
tìm được, nó sẽ lao thẳng vào mục tiêu với vận tốc lớn, kích hoạt khối thuốc nổ,
khoan sâu vào bên trong hộp sọ, giết chết nạn nhân trong nháy mắt.
Mặt khác, khi được sử dụng để thu thập thông tin cá
nhân, công nghệ AI có thể bị sử dụng để vi phạm quyền riêng tư, thực hiện các
hoạt động truyền thông thất thiệt, tuyên truyền thông tin sai lệch ảnh hưởng tới
tình hình xã hội và ổn định chính trị. Vụ việc hệ thống mạng của Văn phòng Quản
lý nhân sự (OPM) Chính phủ Mỹ bị tấn công bởi tin tặc rất đáng lưu tâm đối với
bất cứ quốc gia hay tổ chức nào, khi dữ liệu cá nhân chi tiết và rất nhạy cảm của
21,5 triệu quan chức tại chức cũng như đã nghỉ hưu của Mỹ, thông tin về vợ - chồng
của họ, dữ liệu về những người từng nộp đơn xin việc vào cơ quan chính phủ (như
tình trạng sức khỏe, nơi cư trú, công việc, vân tay và thông tin tài chính…) đều
lọt vào tay tin tặc.
Thế nhưng, có một thực tế còn đáng sợ hơn khi CIA phát
hiện ra rằng đối tượng đánh cắp dữ liệu OPM đã sử dụng công nghệ trí tuệ nhân tạo
để rà soát, fake (làm giả) thông tin cá nhân, tạo lập các điệp viên ảo để đánh
cắp dữ liệu. Thông tin sau khi bị đánh cắp sẽ được phân tích, phân loại, và
khai thác cho các mục đích sử dụng cụ thể. Công nghệ trí tuệ nhân tạo giúp bên
đánh cắp thông tin rút ngắn được thời gian khai thác thông tin, bởi con người
không đủ khả năng xử lý một khối lượng thông tin khổng lồ trong một thời gian
ngắn như vậy.
Bên cạnh những mối nguy hiện hữu nói trên, công nghệ
AI cũng tạo ra những nguy cơ khác như: Phụ thuộc quá mức vào nó, dẫn đến hậu quả
con người mất kiểm soát tình hình và suy giảm khả năng đưa ra quyết định. Trí
tuệ nhân tạo cũng sẽ khiến hàng triệu, thậm chí hàng trăm triệu người mất việc
làm, đặc biệt là đối với những công việc lao động chân tay thuần túy, ít hàm lượng
tri thức. Hậu quả là những vấn đề xã hội nghiêm trọng như thất nghiệp, tội phạm,
khoảng cách giàu - nghèo... sẽ càng trở nên sâu sắc hơn.
Thêm vào đó, độ tin cậy cũng là vấn đề cần nhắc đến. Độ
tin cậy của các quyết định trong các lĩnh vực chuyên môn hóa cao như y tế, hình
sự... là vô cùng quan trọng. Khi sử dụng AI để trợ giúp đưa ra các quyết định
trong những lĩnh vực mà công nghệ không đủ tin cậy, vận hành dựa trên các dữ liệu
có xu hướng thiên vị một hoặc một nhóm người, hoặc bị bóp méo có chủ đích,
đương nhiên, những quyết định đi theo có khả năng gây hậu quả nghiêm trọng.
AI có thể được thiết kế sai lệch hoặc được “huấn luyện”
(training) thông qua cơ chế học máy (machine learning) không đúng cách, từ đó dẫn
đến những hành động không mong muốn, gây thiệt hại cho con người và môi trường.
Thí dụ, với cơ chế học máy, AI ngày càng trở nên thông minh hơn. Khi trí tuệ
nhân tạo đạt mức độ thông minh, từ chỗ hỗ trợ các hệ thống quan trọng như điện
lực, giao thông, y tế, tài chính..., nó có thể tiến tới làm chủ và kiểm soát
toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong
các tình huống khẩn cấp.
Khi AI được “trang bị” thêm các mục đích mang tính “dã
tâm” có chủ đích (thiết kế sai lệch), nó có thể gây ra nhiều hậu quả nghiêm trọng
như làm rối loạn hệ thống giao thông khi vô hiệu hóa hệ thống đèn giao thông;
hoặc ngắt điện hệ thống vận hành tàu điện đô thị, gây tai nạn liên hoàn, làm mất
điện trên diện rộng...
Cần những biện pháp
Để AI không tiến triển thành nguy cơ, mà chuyển biến
thành sự hứng khởi trong nghiên cứu, đồng thời có thể được ứng dụng một cách an
toàn với những giá trị vượt trội về năng suất lao động, trải nghiệm khách hàng
hay quản trị vận hành… các nhà khoa học cho rằng cần phải có những hiệp ước hay
khung pháp lý mang tính toàn cầu về phát triển AI.
Giám đốc điều hành OpenAI, Sam Altman cho rằng: “Quy định
của chính phủ về AI là rất quan trọng, khi các hệ thống này đang phát triển mạnh
mẽ và có nhiều đột phá”. Các chuyên gia công nghệ cũng cảnh báo: Nếu giới chức
các quốc gia không nhanh chóng xây dựng hành lang pháp lý phù hợp và triển khai
những biện pháp bảo vệ cần thiết thì nguy cơ AI có thể ảnh hưởng xấu đến quyền
riêng tư, quyền tự do cá nhân hoặc thúc đẩy sự bất bình đẳng… là rất rõ ràng.
Xu thế sử dụng AI đang nở rộ nhanh chóng và thu hút
chú ý rộng rãi của người sử dụng trong năm 2022, do vậy các doanh nghiệp đều muốn
kết hợp công nghệ này vào sản phẩm nhằm thu hút khách hàng. Theo báo cáo của Ủy
ban AI thuộc Phòng Thương mại Mỹ hồi đầu năm, hầu như mọi doanh nghiệp và cơ
quan Chính phủ Mỹ sẽ sử dụng AI trong vòng 10 đến 20 năm tới.
Vì vậy, trong báo cáo này, Ủy ban AI của Mỹ cũng đã gấp
rút kêu gọi Quốc hội và chính quyền đặt ưu tiên hàng đầu là xây dựng quy định
kiểm soát các công cụ AI. Cơ quan này khuyến nghị các nhà lãnh đạo cần xây dựng
luật và quy định chặt chẽ, nhằm phát triển AI có trách nhiệm và sử dụng công cụ
này một cách có đạo đức. Ủy ban AI cho rằng các nhà hoạch định chính sách nên tập
trung vào việc khắc phục những lỗ hổng trong luật, cũng như thúc đẩy đổi mới,
sáng tạo và chuẩn bị lực lượng lao động cho môi trường lấy AI làm trung tâm.
Nếu không nhanh chóng có những hành động cấp thiết,
tương lai con người bị đe dọa bởi trí tuệ nhân tạo - vốn từ lâu đã được khắc họa
trong những bộ phim Hollywood - có lẽ sẽ không còn là chuyện viễn tưởng xa vời…
Nguồn: Văn Nghệ Công An