Thung lũng Silicon: Một bên lạc quan và một bên tin vào ngày tận thế trong cuộc tranh luận về AI

Hơn một năm sau khi ChatGPT xuất hiện, AI hiện là tâm điểm của cuộc tranh cãi giữa những người theo kịp và kiểm soát được tốc độ đổi mới nhanh chóng của công nghệ này và những người muốn công nghệ này chậm lại vì tiềm ẩn nhiều rủi ro…

Thung lũng Silicon: Một bên lạc quan và một bên tin vào ngày tận thế trong cuộc tranh luận về AI

Kể từ năm 2021, cuộc tranh luận về công nghệ bắt đầu bùng nổ mạnh mẽ tại Thung lũng Silicon với hai luồng ý kiến xoay quanh hai chủ nghĩa e/acc (lạc quan về công nghệ) và decels (lo lắng về sự phát triển của công nghệ).

E/ACC VÀ SỰ LẠC QUAN VỀ CÔNG NGHỆ

Thuật ngữ “e/acc” là viết tắt của chủ nghĩa tăng tốc hiệu quả (Effective accelerationism). Nói tóm lại, những người ủng hộ e/acc muốn công nghệ và sự đổi mới phát triển nhanh nhất có thể.

Cho đến thời điểm hiện tại, AGI được coi là thang phát triển cao nhất của trí tuệ nhân tạo. AGI là khái niệm giả thuyết về một AI siêu thông minh đến mức nó có thể làm được nhiều việc tương đương hoặc thậm chí tốt hơn con người. AGI cũng có thể tự cải thiện, tạo ra một vòng phản hồi vô tận với khả năng vô hạn.

Vì vậy, một số người cho rằng AGI có khả năng sẽ gây ra ngày tận thế vì chúng có thể trở nên thông minh đến mức tìm ra cách tiêu diệt loài người. Trong khi đó, Nhưng những người ủng hộ e/acc chọn tập trung vào những lợi ích mà AGI có thể mang lại.

Trước đây, không ai biết những người sáng lập phong trào e/acc là ai. Nhưng cho đến gần đây, danh tính của người đằng sau đã bị giới truyền thông vạch trần. Đó là Guillaume Verdon, người trước đây từng làm việc cho Alphabet, X và Google. Guillaume Verdon cũng là người sáng lập Extropic, một công ty khởi nghiệp công nghệ được mô tả là “xây dựng nền tảng tối ưu cho Generative AI trong thế giới vật chất bằng cách khai thác vật lý nhiệt động lực học”.

“TUYÊN NGÔN” ỦNG HỘ AI CỦA MỘT VC HÀNG ĐẦU

Một trong những người ủng hộ e/acc nổi bật nhất là nhà đầu tư mạo hiểm Marc Andreessen của Andreessen Horowitz.

Những người lạc quan về công nghệ tin tưởng công nghệ ngày càng tiên tiến sẽ khiến thế giới trở nên tốt đẹp hơn. Một trong những người ủng hộ e/acc nổi bật nhất là nhà đầu tư mạo hiểm Marc Andreessen của Andreessen Horowitz. Ông đã viết Tuyên ngôn lạc quan về công nghệ, dài hơn 5.000 từ giải thích cách công nghệ sẽ trao quyền cho nhân loại và giải quyết tất cả các vấn đề vật chất của nhân loại.

Một tác phẩm lạc quan về công nghệ khác mà ông viết có tên “Tại sao AI sẽ cứu thế giới”. Tác phẩm này đã được đăng lại bởi Yann LeCun, Nhà khoa học AI trưởng tại Meta, người được biết đến như một trong những “bố già của AI” sau khi giành được Giải thưởng Turing danh giá cho những đột phá của mình trong AI.

Theo CNBC, ông “nghi ngờ các thể chế kinh tế và chính trị hiện tại cũng như toàn thể nhân loại, sẽ sử dụng AI mãi mãi”.

Việc Meta ra mắt AI nguồn mở, sẽ thúc đẩy các mô hình AI tổng quát có thể tiếp cận rộng rãi với nhiều nhà phát triển, phản ánh niềm tin của LeCun rằng công nghệ này sẽ mang lại nhiều tiềm năng hơn là có hại.

DECELS – GIẢM TỐC AI

Những người ủng hộ việc giảm tốc AI, thuộc nhóm Decels muốn tiến độ phát triển của AI chậm lại vì lo lắng về một tương lai đầy rủi ro và khó đoán.

Vào tháng 3, Viện Tương lai Cuộc sống đã viết một bức thư kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng hoạt động đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 tháng”. Bức thư đã ngay lập túc nhận được sự đồng tình của các nhân vật nổi tiếng trong lĩnh vực công nghệ, như Elon Musk và đồng sáng lập Apple Steve Wozniak.

Vào tháng 4, tại một sự kiện, Giám đốc điều hành OpenAI Sam Altman cho biết: “Tôi nghĩ việc hành động thận trọng và quản lý chặt chẽ hơn thực sự quan trọng. Tuy nhiên, tôi không nghĩ lá thư là cách tối ưu để giải quyết vấn đề này”.

Malo Bourgon, Giám đốc điều hành của Viện nghiên cứu trí tuệ máy (MIRI) cho biết: “Rủi ro cốt lõi là tạo ra các thực thể thông minh hơn chúng ta với các mục tiêu sai lệch mà hành động của chúng không thể đoán trước và không thể kiểm soát được”. Chính vì vậy, theo ông, những nỗ lực mà MIRI đang làm, nhằm mục đích đào tạo các hệ thống AI để “điều chỉnh” chúng phù hợp với mục tiêu và đạo đức của con người, sẽ ngăn chặn mọi rủi ro hiện hữu đối với nhân loại.

Christine Parthemore, Giám đốc điều hành của Hội đồng Rủi ro Chiến lược và là cựu quan chức Lầu Năm Góc, gần đây đã chia sẻ với CNBC rằng AI có thể gây ra "cái chết hàng loạt" nếu được sử dụng để giám sát vũ khí hạt nhân. được coi là vấn đề cần được quan tâm ngay lập tức.

“Toàn bộ vấn đề là giải quyết các rủi ro và tìm ra các bộ giải pháp hiệu quả nhất”, bà giải thích thêm, “Trong khi các mô hình ngôn ngữ lớn có thể trở thành trợ lý phòng thí nghiệm ảo và tăng tốc y học, chúng cũng có thể giúp những kẻ bất chính xác định các mầm bệnh tốt nhất và dễ lây truyền nhất để sử dụng để tấn công. Đây là một trong những lý do không thể dừng lại AI. Và cũng vì vậy Chậm lại không phải là một phần của giải pháp”.

Đầu năm nay, Bộ Quốc phòng Hoa Kỳ, cho biết sẽ luôn có con người tham gia vào quá trình sử dụng hệ thống AI. Đó là một giao thức mà Christine Parthemore tin rằng nên được áp dụng ở mọi nơi.

“Bản thân AI không thể là người có thẩm quyền. chúng ta cần phải có đủ sự hiểu biết chung về bộ công cụ này thay vì quá tự tin và phụ thuộc quá mức”, bà nói.

QUYẾT ĐỊNH CỦA CÁC NHÀ LẬP PHÁP QUỐC TẾ

Vào tháng 7, chính phủ Mỹ thông báo họ đã đạt được các cam kết tự nguyện từ các gã khổng lồ AI Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI để “hướng tới sự phát triển an toàn, bảo mật và minh bạch của công nghệ AI”.

Chỉ vài tuần trước, Tổng thống Biden đã ban hành một mệnh lệnh hành pháp nhằm thiết lập thêm các tiêu chuẩn mới về an toàn và bảo mật AI. Tương tự, chính phủ Vương quốc Anh đã giới thiệu Viện An toàn AI vào đầu tháng 11, đây là tổ chức đầu tiên được nhà nước hậu thuẫn tập trung vào việc điều hướng AI.

Bên cạnh đó, Trung Quốc cũng đang triển khai bộ rào chắn AI của riêng mình.

Trong khi đó, một trong những công ty dẫn đầu thị trường AI, OpenAI hiện đang nghiên cứu Superalignment, nhằm mục đích “giải quyết những thách thức kỹ thuật cốt lõi của việc liên kết siêu trí tuệ trong bốn năm”. Tại hội nghị Amazon Web Services re:Invent 2023 gần đây của Amazon, Amazon đã công bố triển khai các biện pháp bảo vệ AI có trách nhiệm trong toàn tổ chức.

Theo một nghiên cứu do AWS ủy quyền và Morning Consult thực hiện, AI có trách nhiệm là ưu tiên kinh doanh ngày càng tăng của 59% lãnh đạo doanh nghiệp, với khoảng một nửa (47%) có kế hoạch đầu tư nhiều hơn vào AI có trách nhiệm vào năm 2024 so với năm 2023.

Malo Bourgon, Giám đốc điều hành của Viện nghiên cứu trí tuệ máy cho rằng những hành động được chính phủ các nước công bố gần đây “còn xa so với những gì có thể ngăn chặn tương lai thảm khốc”. Ông dự đoán rằng các hệ thống AI sẽ gây ra một tương lai thảm khốc vào đầu năm 2030 và các chính phủ cần chuẩn bị dừng vô thời hạn các hệ thống AI cho đến khi các nhà phát triển AI hàng đầu có thể “chứng minh sự an toàn của hệ thống của họ”.

Ngô Huyền

Nguồn VnEconomy: https://vneconomy.vn/thung-lung-silicon-mot-ben-lac-quan-va-mot-ben-tin-vao-ngay-tan-the-trong-cuoc-tranh-luan-ve-ai.htm