Phát triển trí tuệ nhân tạo an toàn và lấy con người làm trung tâm

Trong bối cảnh trí tuệ nhân tạo (AI) phát triển nhanh chóng kéo theo cả những tác động tiêu cực, cộng đồng thế giới và các nước đang nỗ lực tìm kiếm giải pháp thực tiễn để ngăn mọi thứ đi quá xa.

Kiểm soát trí tuệ nhân tạo (AI) đã trở thành vấn đề cấp bách toàn cầu

Mối nguy với an ninh quốc gia và an toàn cá nhân

Tại phiên họp toàn thể của Nghị viện châu Âu (EP) vừa diễn ra tuần trước ở thành phố Strasbourg của Pháp, dự luật về AI do Ủy ban châu Âu (EC) đề xuất, còn gọi là Đạo luật AI, đã được phê chuẩn với sự ủng hộ mạnh mẽ từ 523 nghị sĩ. Đây là lần đầu tiên thế giới có một quy định vạch ra lộ trình rõ ràng hướng tới sự phát triển AI an toàn và lấy con người làm trung tâm.

Cuộc cách mạng AI có thể gợi lên cảm giác ngạc nhiên và thú vị với con người giống như thời kỳ bùng nổ của Internet và mạng xã hội. Là sự mô phỏng các quá trình thông minh của con người bằng máy móc, đặc biệt là hệ thống máy tính, AI có thể xem là bước tiến đột phá của công nghệ và có tác động tích cực, rộng rãi tới cuộc sống con người, đặc biệt là trong cuộc sống hàng ngày.

Người dân bình thường, không phải là chuyên gia công nghệ, đều có khả năng và cơ hội tiếp cận, vận dụng AI thông qua những ứng dụng sinh hoạt đơn giản như chụp ảnh trên điện thoại thông minh, phần mềm nhận diện khuôn mặt, các trợ lý ảo, các gợi ý về tin tức, các đoạn video, những trải nghiệm mua sắm trực tuyến và trong nhiều lĩnh vực khác của đời sống như báo chí, y khoa, kinh tế…

Ngay từ năm 2019, một nhóm nghiên cứu cho biết họ đã xây dựng một hệ thống AI có thể tự động chẩn đoán những căn bệnh thường gặp ở trẻ em từ cúm, hen suyễn đơn giản cho đến bệnh nguy hiểm tính mạng như viêm phổi và viêm màng não. Còn mới đây, một bác sĩ giải phẫu thần kinh hàng đầu đến từ Anh cho hay, các ca phẫu thuật não - được biết đến với độ khó bậc nhất, cần sự tỉ mỉ và chính xác tuyệt đối - với sự hỗ trợ của AI có thể thực hiện được trong hai năm tới.

Báo cáo của Ngân hàng Goldman Sachs (Mỹ) cho rằng trí tuệ nhân tạo thúc đẩy GDP toàn cầu tăng 7% trong vòng 10 năm tới và 300 triệu việc làm toàn thời gian sẽ được tự động hóa, đồng thời gia tăng những công việc mới. Với địa hạt báo chí, ảnh hưởng của AI, đặc biệt gần đây là ChatGPT đã không còn xa lạ. Với AI nói chung và ChatGPT nói riêng, cách thức sản xuất, tổ chức, phân loại, xuất bản cũng như phân phối nội dung tin tức đang được thay đổi đáng kể. Thực tế cho tới nay, những cơ quan báo chí truyền thông như Axel Springer, BuzzFeed, Daily Mirror và Daily Express xuất bản những bài báo do trí tuệ nhân tạo viết ra đã không còn là việc hiếm.

Nhưng tấm huy chương nào cũng có hai mặt. Giờ đây, AI làm được như con người đã xưa rồi. Rất nhanh, chúng đã thông minh hơn con người, làm được những điều mà con người chưa làm được. Điều đó mang lại nhiều tích cực nhưng cũng có thể được sử dụng với mục đích xấu. ChatGPT có thể giúp nhiều tòa soạn cắt giảm nhân sự, tiết kiệm chi phí nhưng đồng thời cũng tạo ra những hiểm họa, đơn cử như các nội dung, hình ảnh bị coi là bôi nhọ hoặc sai lệch do AI viết ra. ChatGPT cũng đặt ra nhiều vấn đề như vi phạm quyền riêng tư, vấn đề bản quyền…

Nguy hiểm hơn, AI có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân. Tỷ phú Elon Musk đã cảnh báo rằng AI có thể trở thành một công cụ đáng sợ trong chiến tranh. Nếu một quốc gia có thể phát triển một hệ thống trí tuệ nhân tạo vượt trội, quốc gia đó có thể sử dụng nó để tấn công các quốc gia khác. Còn Giáo sư khoa học máy tính Stuart Russell tại Đại học

California, người từng dành hàng chục năm nghiên cứu về trí tuệ nhân tạo, cho rằng hiện nay người ta đã có thể sản xuất vũ khí tấn công tự động như các robot sát thủ bằng cách tích hợp và thu nhỏ những công nghệ sẵn có.

“Vòng kim cô” siết chặt AI

Kiểm soát AI, sử dụng “vòng kim cô” để siết chặt AI trong vùng an toàn đã trở thành vấn đề cấp bách toàn cầu. Kiểm soát AI có thể được định nghĩa là cách làm thế nào để nhân loại được đảm bảo an toàn trong khi vẫn hưởng lợi từ một dạng trí tuệ vượt trội. Đây là vấn đề cơ bản trong lĩnh vực an toàn bảo mật AI, với mục tiêu đảm bảo an ninh và bảo mật các hệ thống thông minh cho tất cả các bên liên quan.

Theo hướng đó, dự luật vừa được EP thông qua đặt ra những quy định với các hệ thống AI dựa trên 4 mức độ rủi ro, từ thấp, hạn chế, đến cao và cuối cùng là không thể chấp nhận. Những mô hình AI có mức độ rủi ro càng cao thì phải tuân thủ các quy định càng nghiêm ngặt. Dự luật cấm những mô hình AI có nguy cơ đe dọa quyền công dân các nước thành viên Liên minh châu Âu (EU) như hệ thống chấm điểm xã hội, ứng dụng có khả năng thao túng nhận thức, hành vi của người dùng hay thu thập hình ảnh để tạo cơ sở dữ liệu nhận dạng khuôn mặt. Việc sử dụng hệ thống nhận dạng sinh trắc học cũng sẽ bị cấm, ngoại trừ một số trường hợp cụ thể.

Để được cấp phép, các hệ thống AI mang rủi ro cao có nghĩa vụ tuân theo những quy định, như trải qua đánh giá trước khi được đưa ra thị trường EU hay các bước nhằm giảm tác động tiêu cực. Bảo đảm tính minh bạch cũng là một yêu cầu được nhấn mạnh trong dự luật AI. Những trường hợp không tuân thủ có thể bị phạt từ 7,5 triệu euro hoặc 1,5% doanh thu lên tới 35 triệu euro hoặc 7% doanh thu toàn cầu, tùy thuộc hành vi vi phạm và quy mô của các công ty.

Không riêng gì EU, nhiều tổ chức quốc tế cũng như các nước cũng đã có những động thái quyết liệt, trong đó tập trung vào việc thiết lập hành lang pháp lý chặt chẽ để siết AI vào khuôn khổ, kiểm soát tác động tiêu cực tiềm tàng của AI mà không ảnh hưởng đến quá trình phát triển và đổi mới nhờ công nghệ. Cuối năm ngoái, Hội nghị thượng đỉnh toàn cầu đầu tiên về trí tuệ nhân tạo đã được tổ chức ở Bretchley, Anh, nơi các nhà lãnh đạo đã thông qua Tuyên bố Bletchley về việc bảo đảm an toàn khi sử dụng trí tuệ nhân tạo. Ngay trước hội nghị, Anh và sau đó là Mỹ đã thông báo thành lập Viện An toàn trí tuệ nhân tạo để đánh giá rủi ro, xem xét mức độ an toàn của các mô hình trí tuệ nhân tạo. 8 công ty công nghệ hàng đầu gồm Amazon Web Services, Anthropic, Google, Google DeepMind, Inflection AI, Meta, Microsoft, Mistral AI và Open AI đã đồng ý tăng cường quyền truy cập cho Lực lượng đặc nhiệm AI của Anh.

Mỗi quốc gia, mỗi khu vực có thái độ ứng xử khác nhau với trí tuệ nhân tạo. Tuy nhiên, chung nhất vẫn là sự quyết liệt hướng tới giảm thiểu những hiểm họa, hệ lụy tiêu cực đồng thời tạo hành lang pháp lý để AI “chạy” một cách an toàn. Tháng 10-2023, Tổng thống Mỹ Joe Biden đã ký sắc lệnh hành pháp để kiểm soát AI thông qua quy định, một phần trong nỗ lực giảm thiểu rủi ro mà công nghệ gây ra cho người tiêu dùng, người lao động, các nhóm thiểu số lẫn vấn đề an ninh quốc gia. Quy định mới yêu cầu các nhà phát triển hệ thống AI có tiềm ẩn rủi ro cho an ninh quốc gia, nền kinh tế và sức khỏe cộng đồng, phải trình bày kết quả kiểm tra an toàn với chính phủ Mỹ, phù hợp với Đạo luật sản xuất quốc phòng. Ông Biden cũng chỉ đạo các cơ quan đặt ra tiêu chuẩn chặt chẽ cho cuộc thử nghiệm đó và giải quyết các rủi ro liên quan hóa học, sinh học, phóng xạ, hạt nhân và an ninh mạng. Liên quan đến Trung Quốc, tháng 7 năm ngoái, Cục Quản lý Không gian mạng của Trung Quốc (CAC) phối hợp với Ủy ban cải cách và phát triển quốc gia cùng Bộ Khoa học và Công nghệ đã ban hành quy định tạm thời về quản lý các dịch vụ AI tạo sinh.

Nguồn ANTĐ: https://anninhthudo.vn/phat-trien-tri-tue-nhan-tao-an-toan-va-lay-con-nguoi-lam-trung-tam-post570229.antd