Trí tuệ nhân tạo có thể xâm phạm quyền con người?
Ý kiến trên được ông Pichai đưa ra trong cuộc trả lời phỏng vấn báo Washington Post của Mỹ ngày 12/12. Theo đó, đại diện của Google nhấn mạnh: Các công ty công nghệ xây dựng AI nên tính tới khía cạnh đạo đức ngay từ ban đầu khi bắt tay vào tiến trình này, để chắc chắn rằng AI với "công dụng của riêng mình" không làm tổn hại tới con người.
Trước đó, hồi tháng 6 năm nay, Google đã công bố một bộ quy tắc AI nội bộ. Trong đó, quy tắc đầu tiên là AI cần có ích cho xã hội. Google cam kết không thiết kế hoặc phát triển AI sử dụng làm vũ khí, giám sát vượt ngoài các quy tắc quốc tế, hoặc liên quan tới công nghệ nhằm xâm phạm quyền con người.
Trong nỗ lực phát triển công nghệ AI, Google cũng lên kế hoạch tiếp tục phối hợp với quân đội và các chính phủ trong các lĩnh vực an ninh mạng, đào tạo, tuyển dụng nhân sự, chăm sóc sức khỏe, cũng như tìm kiếm, cứu nạn.
Giám đốc Google, ông Sundar Pichai. Ảnh: BBC.
Google hiện đi đầu thế giới về phát triển AI và đang cạnh tranh trong lĩnh vực phần mềm thông minh với các "ông lớn công nghệ" khác như Amazon, Apple, Microsoft, IBM và Facebook.
Hiện nay, AI đang được sử dụng để nhận diện người trong các bức ảnh, lọc những nội dung không phù hợp khỏi các nền tảng mạng trực tuyến và kích hoạt các phương tiện ô tô tự lái. Tiến bộ của AI là không thể phủ nhận, tuy nhiên những năng lực ngày càng gia tăng của AI đang gây nhiều tranh cãi về những tác động đến xã hội và đạo đức...
Trong quá khứ, nhà khoa học nổi tiếng Stephen Hawking từng nhận định việc tạo ra AI thành công có thể là sự kiện tuyệt vời nhất trong lịch sử nền văn minh, nhưng nếu xã hội không tìm cách kiểm soát sự phát triển của nó, AI cũng có thể là "sự kiện tồi tệ nhất".
Nhà khoa học người Mỹ khi đó đưa ra cảnh báo giật mình: Khi vượt ngoài tầm kiểm soát, AI có thể thành một loại vũ khí tự trị mạnh mẽ hoặc biến đổi thành công cụ mới để người áp bức người nhiều hơn, gây ra sự gián đoạn lớn đối với nền kinh tế.
Hoàng Nam