Giáo sư John Vu: Học cách quản trị và đặt ràng buộc lên AI trước khi quá muộn
Thứ bảy, 11/10/2025 - 06:21 (GMT+7)
TCVM - Chuyên gia người Mỹ gốc Việt cảnh báo: “Nếu AI làm sai thì ai sẽ chịu trách nhiệm? Làm sao có thể dạy cho máy móc biết thế nào là nhân tính?”
Trong bức thư mới nhất gửi từ Hoa Kỳ, Giáo sư John Vu – Nguyên Phong đã một lần nữa lên tiếng cảnh báo về tương lai của nhân loại, khi trí tuệ nhân tạo (AI) đang bước sang ngưỡng cửa có thể tự huấn luyện, tự điều chỉnh và tự tiến hóa mà không cần sự can thiệp của con người.

Giáo sư John Vu – Nguyên Phong, chuyên gia công nghệ và tác giả nổi tiếng người Mỹ gốc Việt, kêu gọi nhân loại “học cách quản trị và đặt ràng buộc lên AI trước khi quá muộn”.
Mở đầu bức thư, Giáo sư John Vu nhắc lại lời cảnh báo của nhà vật lý Stephen Hawking, người từng dự đoán rằng sự phát triển của AI có thể đào sâu khoảng cách giữa các quốc gia giàu và nghèo. Theo Hawking, các nước phát triển sẽ tận dụng sức mạnh công nghệ để mở rộng lợi thế kinh tế, trong khi những quốc gia chậm hơn sẽ bị bỏ lại phía sau.
Không chỉ vậy, làn sóng tự động hóa do AI dẫn dắt có thể khiến hàng triệu người lao động mất việc, còn sinh viên mới tốt nghiệp đối diện thị trường lao động bị thu hẹp chưa từng có. Song, điều khiến cả Hawking lẫn John Vu lo ngại nhất không phải là con người làm gì với AI, mà là AI sẽ làm gì với con người.
“Sự phát triển của trí thông minh nhân tạo sẽ vượt khỏi tầm kiểm soát khi máy móc có thể tự điều chỉnh sự hiểu biết của nó, tự thiết kế lấy mà không cần con người can dự vào. Khi đó, máy móc sẽ tự định hình số phận – và chi phối loài người”, Hawking từng nói trong cuộc phỏng vấn với BBC năm 2014.
Giáo sư John Vu đồng tình với nhận định này và đặt ra câu hỏi đầy ám ảnh: “Nếu AI làm sai thì ai sẽ chịu trách nhiệm – người hay máy? Làm sao có thể dạy cho máy móc biết thế nào là nhân tính, thế nào là giá trị của đời sống con người?” Theo ông, hầu hết các nhà nghiên cứu vẫn tin rằng AI chưa thể vượt qua con người trong vài năm tới, nhưng những tiến bộ gần đây cho thấy khoảng cách đó đang thu hẹp nhanh hơn bao giờ hết.
Giáo sư John Vu dẫn lại nghiên cứu mới được Viện Công nghệ Massachusetts (MIT) công bố, về một mô hình ngôn ngữ tự thích ứng có tên SEAL – được xem là bước ngoặt trong lịch sử phát triển AI. Khác với các hệ thống hiện tại vốn cần dữ liệu từ con người, SEAL có khả năng tự tạo dữ liệu huấn luyện, tự viết lại mã nguồn và tự điều chỉnh quy trình nội bộ để tối ưu hiệu suất.
Một chuyên gia tại MIT khẳng định, SEAL chính là “bước đầu tiên tạo ra hệ thống có thể tự nâng cao trí tuệ, định nghĩa lại giới hạn của máy móc và tự giải quyết vấn đề mà không cần mệnh lệnh của con người”. Về mặt khoa học, đây là thành tựu lớn. Nhưng theo John Vu, nó cũng đồng nghĩa với việc khả năng kiểm soát của con người dần bị thu hẹp. Khi một hệ thống biết tự cải thiện, ai sẽ là người giám sát nó – và bằng công cụ gì?
Ông cảnh báo: “Khi chúng ta chỉ dạy AI cách đạt hiệu quả, liệu một ngày nào đó, nó có kết luận rằng con người chính là phần tử kém hiệu quả nhất trong hệ thống mà nó đang vận hành không?”
Giáo sư John Vu cho rằng, nguy cơ thật sự không nằm ở AI, mà nằm ở cách con người sử dụng và buông lỏng kiểm soát nó. “Máy móc không ác ý. Điều khiến chúng gây hại là lòng tham, sự thiếu kiềm chế và chủ nghĩa vị lợi của con người – khi chúng ta đặt hiệu quả và lợi nhuận lên trên nhân tính,” ông viết.
Trích dẫn lời Stephen Hawking trong “Brief Answers to the Big Questions”, John Vu kết lại: “Nếu AI gây hại cho con người, đó không phải vì ác ý của máy, mà vì con người đã quá chú trọng vào hiệu quả và lợi ích tài chính, mà quên mất những giá trị nhân bản cần được bảo vệ.”
Giáo sư John Vu cho rằng, thay vì hoảng loạn hay phủ nhận công nghệ, nhân loại cần học cách quản trị AI, đặt ràng buộc đạo đức và pháp lý lên nó – trước khi quá muộn. “AI không phải là kẻ thù. Nhưng nếu chúng ta không định hướng cho nó bằng giá trị nhân tính, thì sớm muộn, nó sẽ định hướng lại chúng ta,” ông cảnh báo.
Ngọc Hân
Tag (S):