'Bố già AI' rời khỏi Google - rủi ro của AI ngày càng hiện hữu?

Vụ việc ông Geoffrey Hinton (được mệnh danh là 'Bố già AI') mới đây tuyên bố nghỉ việc tại bộ phận AI của Google được coi là dấu hiện lớn báo hiệu những lo ngại về nguy cơ AI phát triển quá nhanh.

Biểu tượng công cụ ChatGPT do công ty OpenAI phát triển. Ảnh: AFP/ TTXVN

Tạp chí The Financial Review (Australia) nhận định, sự thay đổi nhanh chóng của trí tuệ nhân tạo (AI) khiến con người khó theo kịp. Một báo cáo về tác động của cuộc chạy đua các sản phẩm AI vừa công bố cho biết ứng dụng nhắn tin bằng hình ảnh Snapchat sẵn sàng thử nghiệm AI đối với nền tảng người dùng trẻ tuổi – lứa tuổi rất dễ bị tổn thương. Điều này thực sự gây sốc. Nhưng thực tế là công nghệ AI sáng tạo (Generative AI) đã và đang tồn tại, do vậy việc tạm dừng tốc độ phát triển của những công nghệ này là điều không thể.

Vụ việc ông Geoffrey Hinton (được mệnh danh là "Bố già AI") mới đây tuyên bố nghỉ việc tại bộ phận AI của Google được coi là dấu hiện lớn báo hiệu những lo ngại về nguy cơ AI phát triển quá nhanh. Ông Hinton, một trong những người đi tiên phong trong công nghệ AI hiện đại, đã tuyên bố nghỉ việc để có thể tự do lên tiếng về những mối nguy hiểm mà công nghệ này có thể đem tới cho nhân loại.

Vào năm 2019, ông Hinton cùng hai nhà khoa học khác là Yann LeCun (nhà khoa học AI chính của Meta) và Yoshua Benigo (Giáo sư tại Đại học Montreal) đã giành giải thưởng Turing, giải Nobel về khoa học máy tính danh giá.

Mặc dù cả ba nhà khoa học này đã từng thống nhất về quan điểm phát triển AI, nhưng giờ đây dường như họ đang đi trên con đường riêng. Quan điểm khác biệt giữa họ hiện đóng vai trò rất quan trọng đối với xã hội nói chung, trong khi đó chúng ta đang cố gắng tìm ra cách làm thế nào để cân bằng giữa các quan điểm này.

Ông Yoshua Benigo là người ký vào một bức thư mới đây của các nhà lãnh đạo ngành công nghệ, trong đó có ông Steve Wozniak (người đồng sáng lập Apple cùng với ông Steve Jobs và ông Ronald Wayne) và tỷ phú Elon Musk. Bức thư kêu gọi tạm dừng phát triển các mô hình AI mạnh mẽ, đồng thời đặt ra câu hỏi "Liệu chúng ta có nên phát triển những bộ óc ‘không phải con người’ mà cuối cùng có thể vượt trội hơn, thông minh hơn và thay thế chúng ta không?". Ông cho rằng điều này không chỉ có thể xảy ra mà còn sắp xảy ra.

Cả ông Hinton và ông LeCun đều không ký vào bức thư trên. Trong một cuộc phỏng vấn trên truyền hình CNN hôm 3/5, ông Hinton cho rằng ông không ký tên vào thỉnh nguyện thư "bởi vì nếu người Mỹ dừng lại thì người Trung Quốc vẫn sẽ không dừng".

Ông Hinton gần đây cho biết ban đầu ông bị thôi thúc phát triển "mạng lưới thần kinh nhân tạo" bởi câu nói cửa miệng "nếu tôi không làm thì người khác sẽ làm". Một trong những vấn đề nổi bật trong ngành phát triển công nghệ, đó là tồn tại quan điểm cho rằng mối quan tâm về đạo đức không liên quan đến những phát minh và các nhà phát triển được miễn trừ trách nhiệm giải trình.

Ông LeCun dường như đang tin rằng các chuyên gia phát triển AI chỉ phụ trách việc phát triển công nghệ và trách nhiệm còn lại thuộc về những người khác. Đây là vấn đề dẫn đến cuộc tranh cãi trên Twitter hồi tuần trước.

Trong một chủ đề trên Twitter, ông LeCun cho rằng: "Những lời tiên tri về sự diệt vong mà AI gây ra không khác gì chủ nghĩa mị dân kiểu mới". Đồng thời, ông tin rằng trách nhiệm của các chính trị gia là đảm bảo công nghệ mang lại lợi ích cho mọi người.

Một trong số những phát ngôn đầu tiên của ông Hinton sau khi rời Google là đề cập đến những lo ngại về khả năng AI có thể tạo ra các sản phẩm deepfake (công nghệ mô phỏng hình ảnh khuôn mặt con người) thực sự quá thuyết phục, nguy cơ gián đoạn thị trường việc làm và một cuộc chạy đua toàn cầu mới về "vũ khí tấn công tự động" (autonomous weapon). Trong một cuộc phỏng vấn trên truyền hình, ông Hinton cảnh báo rằng "những thứ này ngày càng trở nên thông minh và chiếm ưu thế hơn."

Những lo ngại trên khiến ông Hinton cảm thấy "hiện hữu" hơn so với những lo lắng của hai nhà sáng lập bộ phận Ethical AI của Google là Timnit Gebru và Meg Mitchell, những người bị sa thải vào năm 2020 vì đã lên tiếng phê phán các thuật toán mà Google sử dụng khiến AI có nguy cơ năng đánh lừa mọi người, gia tăng thông tin sai lệch và duy trì những thành kiến "độc hại".

AI vượt trội

Ông Hinton lo ngại cho rằng Generative AI đại diện cho một loại trí thông minh mới, một ngày nào đó có thể đe dọa ưu thế của loài người. Trong một cuộc phỏng vấn ở Mỹ, ông Hinton gọi đó là một dạng "trí thông minh hoàn toàn mới và ưu việt hơn".

Mặc dù điều này nghe có vẻ giống như cốt truyện của một bộ phim viễn tưởng, nhưng điều quan trọng cần nhớ là các mô hình AI thế hệ mới hiện nay, như công cụ trò chuyện ChatGPT, đang thể hiện những gì "giống như một trí thông minh".

Nếu nói theo khái niệm Thuyết tâm trí (Theory of Mind) trong triết học và khoa học nhận thức, loại trí thông minh này có thể hiểu được lý do đang thực hiện những việc mà nó đang làm, khác với việc một hệ thống chỉ thực hiện các nhiệm vụ một cách thông minh.

Trong một bài viết kết hợp với tác giả Jacob Browning, nhà triết học chuyên nghiên cứu về AI, vào năm ngoái, ông LeCun cho rằng con người vẫn đang an toàn. Hai tác giả trên có viết: "Rõ ràng là những hệ thống AI này sẽ đi đến sự hiểu biết nông cạn, điều này sẽ không bao giờ ngang bằng với suy nghĩ toàn diện mà chúng ta thấy ở con người".

Hiện nổ ra các cuộc tranh luận sôi nổi xoay quanh việc AI chính xác là đang sở hữu những gì: Sự hiểu biết, tâm trí và thậm chí cả khả năng suy luận theo lẽ thường (common-sense reasoning) giống như con người. Điều này cho thấy con người còn nhiều điều phải làm để xác định rõ hơn các khái niệm này khi AI tiến bộ hơn.

Điều cần thay đổi

Đây là công việc đòi hỏi các chuyên gia trong nhiều lĩnh vực, không chỉ riêng lĩnh vực khoa học máy tính và lĩnh vực Machine Learning (Học máy).

Cách con người thử nghiệm các mô hình AI tồn tại rất nhiều vấn đề. Hiện nay, các bài kiểm tra - chủ yếu do những người làm trong ngành công nghệ thiết kế ra – tập trung đánh giá về khả năng hiểu và suy luận của các mô hình AI.

Mặc dù các nhà phát triển sử dụng các bài kiểm tra này để đánh giá tính phù hợp với con người, chẳng hạn như đáp ứng chuẩn mực về đạo đức, khả năng đưa ra các kết quả sai lệch ở mức độ nào đó bị cho là "độc hại" và khả năng AI tạo ra các phản ứng có ý nghĩa tích cực, song trên thực tế các cuộc kiểm tra này thực sự không được các cơ quan, tổ chức bên ngoài quản lý hoặc giám sát chặt chẽ.

Các nhà phát triển AI đang thiết kế ra các bài kiểm tra, sau đó họ sử dụng các bài kiểm tra này để làm cơ sở công bố tính an toàn và hiệu quả của công nghệ mà họ tạo ra.

Việc cải thiện cách thức đánh giá AI sẽ là yếu tố "thay đổi mang tính bước ngoặt" trong cách hiểu của con người về AI, đồng thời giúp xác định được thời điểm và lĩnh vực ứng dụng công nghệ này.

Tại Australia, rất cần một vài phương pháp đánh giá được tiêu chuẩn hóa và được phê duyệt ở cấp liên bang. Những bài kiểm tra cần được thiết kế dưới sự hợp tác của những chuyên gia ngoài ngành AI.

Chúng ta không yêu cầu các nhà sản xuất ô tô và thợ cơ khí đặt ra luật giao thông đường bộ, vì vậy tại sao chúng ta lại phải tìm đến một kỹ sư máy tính để cân nhắc xem AI đã an toàn hay chưa? Do đó, bài viết khuyến nghị, cần nhiều người tham gia vào công cuộc đánh giá AI hơn, đồng thời đặt trách nhiệm giải trình vào những người tham gia vào quá trình này, thay vì đổ lỗi cho AI – một chương trình cơ bản chỉ hiển thị ngôn ngữ, âm thanh và hình ảnh dưới dạng số hóa./.

Lê Đạt (P/v TTXVN tại Sydney)

Nguồn Bnews: https://bnews.vn/bo-gia-ai-roi-khoi-google-rui-ro-cua-ai-ngay-cang-hien-huu/290331.html