Elon Musk và hơn 100 chuyên gia AI kêu gọi cấm robot giết người

Elon Musk và những nhà lãnh đạo, chuyên gia về trí tuệ nhân tạo đã yêu cầu Liên hợp quốc ngăn chặn 'cuộc cách mạng thứ ba trong chiến tranh' bằng cách cấm phát triển robot giết người.

Trí tuệ nhân tạo đang phát triển mạnh hơn bao giờ hết và gần dây công nghệ robot giết người đang làm dấy lên những mối lo ngại về sự an toàn của nhân loại. Chính vì thế, Elon Musk và những nhà lãnh đạo, chuyên gia về trí tuệ nhân tạo đã cùng nhau kêu gọi Liên hợp quốc cam kết thực hiện lệnh cấm hoàn toàn đối với công nghệ robot giết người.

Bức thư ngỏ có chữ kí của tỉ phú Musk, Mustafa Suleyman - Trưởng bộ phận AI của Google Deepmind, và 114 chuyên gia về trí thông minh nhân tạo và robot đã được gửi đến Liên hợp quốc. Họ yêu cầu tổ chức này ngăn chặn "cuộc cách mạng thứ ba trong chiến tranh" bằng cách cấm phát triển tất cả hệ thống vũ khí có thể tự động gây chết người.

Bức thư được đưa ra ra trùng với thời điểm diễn ra hội nghị lớn nhất thế giới về trí tuệ nhân tạo - IJCAI 2017 tại Melbourne, Australia. Bức thư cảnh báo về một tương lai gần – thời điểm mà máy móc độc lập có thể lựa chọn và giành lấy các mục tiêu của chúng, trong đó có cả những con người vô tội.

Lá thư có đoạn: "Một khi được phát triển, robot sẽ được phép tham gia vào các cuộc xung đột vũ trang. Chúng có thể chiến đấu ở quy mô lớn hơn bao giờ hết, với thời gian nhanh đến mức con người không thể tưởng tượng được. Vũ khí nguy hiểm này có thể được sử dụng cho mục đích khủng bố. Những kẻ độc tài và những tên khủng bố sẽ sử dụng chúng để tấn công những người dân vô tội, và thứ nguy hại này sẽ hành xử theo những cách tàn bạo nhất".

Công nghệ AI giết người đang được phát triển (Ảnh: Warner Bros).

Đây không phải lần đầu tiên Musk và những người trong giới công nghệ tập hợp lại để thu hút sự chú ý của mọi người đến những vũ khí tự động nguy hiểm này. Người đứng đầu SpaceX và Tesla cũng đã thực hiện dự án OpenAI – đây là một tổ chức phi lợi nhuận nhằm mục đích thúc đẩy những nghiên cứu đạo đức về trí tuệ nhân tạo.

Tuy nhiên, bất chấp những mối quan tâm của các chuyên gia về trí tuệ nhân tạo, việc ban hành một lệnh cấm có hiệu quả đối với vũ khí giết người tự động vẫn đang được tiến hành chậm chạp. Sự chậm trễ này khiến một số người lo ngại rằng mối nguy cơ từ AI có thể vượt quá những quy định - đặc biệt là khi AI đang phát triển với một tốc độ chóng mặt như hiện nay.

"Chúng ta không có nhiều thời gian để chờ đợi. Một khi chiếc hộp Pandora đã mở ra sẽ rất khó để đóng lại”, lá thư viết.

Cuộc cách mạng thứ ba mà những “nhà vận động” mong muốn đó là robot giết người có một vị trí quan trọng trong cuộc sống của chúng ta. Nó sẽ là công nghệ thành công kế tiếp sự phát triển của thuốc súng và vũ khí hạt nhân – những cải tiến thật sự không đem lại điều gì tốt đẹp cho thế giới chúng ta đang sống.

Đây không phải là trường hợp đầu tiên các chuyên gia tận dụng hội nghị IJCAI để đưa ra quan điểm của họ, nhưng đây là lần đầu tiên đại diện của các công ty AI và robot đến từ 26 quốc gia đã cùng nhau lên tiếng về vấn đề này. Họ gia nhập vào hàng ngũ các nhà nghiên cứu độc lập như Stephen Hawking, Noam Chomsky và đồng sáng lập Apple - Steve Wozniak.

Người sáng lập của Clearpath Robotics, ông Ryan Gariepy cho biết: "Số lượng các công ty và cá nhân nổi bật đã ký vào bức thư này đã củng cố thêm cảnh báo của chúng tôi. Mối nguy hại của AI giết người không phải là một viễn cảnh giả thuyết mà là một mối quan ngại rất thực tế, rất cần thiết mà chúng ta cần hành động ngay lập tức”.

"Chúng ta không nên quên một sự thật rằng, không giống như những hoạt động khác của AI vẫn còn tồn tại trong lãnh địa khoa học viễn tưởng, các hệ thống vũ khí tự động đang ở trên đỉnh của sự phát triển - ngay thời điểm này", ông cho biết thêm.

Mặc dù cơn ác mộng của hệ thống vũ khí tự trị có thể không lập tức xuất hiện trong tương lai gần, nhưng việc tồn tại những cỗ máy giết người dựa trên AI là một điều gì đó thật sự kinh khủng.

Khả năng tự trị hoặc bán tự trị ngày càng được tận dụng để xây dựng thành vũ khí như khẩu pháo SGR-A1 Samsung, phi thuyền BAE Systems Taranis và tàu ngầm Sea Hunter của DARPA.

Nói cách khác, trong khi các hạt giống công nghệ của robot đã và đang được gieo trồng khắp nơi trên đất liền, trên đại dương, và cả trong không khí thì những luật lệ nhằm điều chỉnh hành vi của những cỗ máy chết chóc và ngành công nghiệp chế tạo ra chúng vẫn chưa được soạn thảo.

Nhà khoa học Toby Walsh thuộc tổ chức UNSW của Úc, một trong những nhà tổ chức của IJCAI 2017 nói: "Gần như mọi công nghệ đều có thể được sử dụng cho mục đích tốt và xấu, trí thông minh nhân tạo cũng không ngoại lệ.

Nó có thể giải quyết được nhiều vấn đề cấp bách mà xã hội đang phải đối mặt. Tuy nhiên, cùng một công nghệ đó cũng có thể được sử dụng cho vũ khí tự động để tiến hành chiến tranh. Chúng ta cần đưa ra quyết định để lựa chọn tương lai mà chúng ta mong muốn".

Bích Trâm (Sciencealert)

Nguồn Khám Phá: http://khampha.vn/khoa-hoc-cong-nghe/elon-musk-va-hon-100-chuyen-gia-ai-keu-goi-cam-robot-giet-nguoi-c7a562078.html