Những cảnh báo về mối nguy AI có thể bị "vũ khí hóa"
Đây là phát biểu của Chủ tịch Microsoft - Brad Smith trong một cuộc trả lời phỏng vấn với CNBC vào cuối tháng 8 vừa qua.
Microsoft là một trong những công ty dẫn đầu về trí tuệ nhân tạo và đầu tư sớm vào OpenAI. Hãng cũng đưa AI vào công cụ tìm kiếm Bing, đồng thời chi hàng tỷ USD để nghiên cứu các ứng dụng về trí tuệ nhân tạo khác.
Smith cho biết Microsoft nhận thức được rủi ro tiềm ẩn liên quan đến việc sử dụng AI, đồng thời vận động các công ty khác "làm điều đúng đắn". Ông cũng ủng hộ các quốc gia ra luật và quy định mới nhằm đảm bảo các giao thức an toàn được tuân thủ.
"Hãy tưởng tượng, nguồn điện phụ thuộc vào cầu dao, xe bus có phanh khẩn cấp", ông ví von. "Chúng ta đã có cách kiểm soát tương tự với các công nghệ khác. Bây giờ cũng nên áp dụng cho AI".
Một siêu máy tính trí tuệ nhân tạo ở California, Mỹ. (Ảnh: Reuters) |
Trước Smith, nhiều lãnh đạo công nghệ, chính khách cũng bày tỏ lo ngại AI có thể bị biến thành vũ khí hủy diệt.
Tại buổi lễ tốt nghiệp của Học viện Không quân Mỹ vào đầu tháng 8/2023, Tổng thống Mỹ Joe Biden cảnh báo về sức mạnh của trí tuệ nhân tạo (AI), dự đoán công nghệ này có thể "vượt qua suy nghĩ của con người" trong một tương lai không xa. "Sẽ không dễ dàng gì. Đây là cơ hội đáng kinh ngạc, nhưng chúng ta có rất nhiều việc phải giải quyết", ông Biden phát biểu.
Hồi tháng 5/2023, Geoffrey Hinton, một trong những người tiên phong về AI rời Google để cảnh báo những mối nguy từ công nghệ này. Sam Altman, CEO OpenAI - công ty đứng sau ChatGPT, cũng nói nỗi sợ lớn nhất với AI là nó có thể gây hại cho thế giới nếu không kiểm soát. Elon Musk cũng cho rằng AI có thể trở thành vũ khí gây nên "sự kết thúc của nhân loại".
Kiểm soát thế nào?
Tháng 3/2023, hơn 1.100 chuyên gia công nghệ và nhà nghiên cứu nổi tiếng đã ký vào thư ngỏ kêu gọi Liên hợp quốc và các tổ chức quốc tế kiểm soát chặt chẽ, đảm bảo an toàn và đạo đức trong phát triển AI. Đồng thời tăng cường hợp tác quốc tế để đảm bảo công nghệ AI được sử dụng có ích cho con người và xã hội. Thư có sự tham gia của Elon Musk, nhà đồng sáng lập Apple Steve Wozniak, CEO Stability AI Emad Mostaque và người được mệnh danh là "bố già AI" Yoshua Bengio.
Trong thư, các chuyên gia công nghệ đã đề xuất một số biện pháp cụ thể để kiểm soát AI, bao gồm:
Kiểm soát độ tin cậy của hệ thống: AI cần được thiết kế và phát triển để đảm bảo tính an toàn và độ tin cậy thông qua các phương pháp kiểm tra chất lượng, kiểm soát, và giám sát chặt chẽ, thường xuyên, liên tục để đảm bảo hệ thống AI hoạt động theo mong muốn của con người và tránh những tác động không mong muốn từ độ thiếu tin cậy của nó.
Công nghệ trí tuệ nhân tạo cần phải được lập trình để hoạt động theo các giá trị đạo đức và chuẩn mực xã hội. Các quy định và tiêu chuẩn đó cần phải được thiết lập một cách rõ ràng và phải được giám sát thực hiện để đảm bảo rằng chúng không làm bất kỳ việc gì xấu hay có hại cho con người hoặc tổ chức. Quy trình phân tích, đánh giá tác động và giám sát hoạt động của hệ thống AI cũng phải được thường xuyên thực hiện để đảm bảo hoạt động chuẩn mực, không vi phạm và làm xói mòn các giá trị chung của toàn xã hội, không gây ra tác động tiêu cực và đảm bảo truyền tải kiến thức và giá trị đúng đắn.
Tạm dừng “huấn luyện” trong ít nhất 6 tháng đối với các hệ thống trí tuệ nhân tạo để đánh giá lại toàn bộ vấn đề. Việc tạm dừng này phải được công khai, có kiểm soát và tất cả các nhân tố chính liên quan đến việc đào tạo này đều phải thực hiện. Nếu cần thiết, các chính phủ cần ban hành lệnh cấm tạm thời. Điều này không có nghĩa là dừng phát triển AI hoàn toàn mà chỉ đơn thuần là một lần tạm dừng trong cuộc đua nguy hiểm để chuyển sang các mô hình phát triển khác, làm cho các hệ thống AI trở nên chính xác, an toàn, dễ hiểu, minh bạch, phù hợp, đáng tin cậy và trung thành hơn. Đây là một giải pháp tổng thể mà Elon Musk và các đồng nghiệp kêu gọi trong thư ngỏ nhưng tính khả thi là không cao. Rất khó để tất cả các phòng thí nghiệm độc lập tuân thủ một kêu gọi không có tính ràng buộc mà lại có tính xuyên quốc gia như vậy.
Tăng cường hợp tác và chia sẻ thông tin giữa các quốc gia, tổ chức nghiên cứu AI độc lập để đảm bảo rằng AI được phát triển và sử dụng một cách an toàn trong tương lai. Hợp tác và chia sẻ thông tin cũng là biện pháp để kịp thời cảnh báo và ngăn chặn bất kỳ nguy cơ nào nổi lên trong tương lai.