Mỹ nhấn mạnh AI là rủi ro đối với hệ thống tài chính

Trong báo cáo thường niên mới nhất của mình, Hội đồng Giám sát Ổn định Tài chính (FSOC) cho biết việc sử dụng AI ngày càng tăng trong các dịch vụ tài chính là một 'điểm yếu' cần được theo dõi.

FSOC cho biết trong báo cáo thường niên, mặc dù AI hứa hẹn đem đến nhiều tính năng ưu việt như: giảm chi phí, nâng cao hiệu quả, xác định các mối quan hệ phức tạp cũng như cải thiện hiệu suất, độ chính xác, nhưng nó cũng có thể “gây ra một số rủi ro nhất định, bao gồm rủi ro về an toàn, an ninh mạng và mô hình”.

FSOC được thành lập sau cuộc khủng hoảng tài chính năm 2008 để xác định những rủi ro quá mức trong hệ thống tài chính, cho biết sự phát triển của AI cần được giám sát để đảm bảo rằng các cơ chế giám sát “xử lý các rủi ro mới nổi” đồng thời tạo điều kiện cho “hiệu quả và đổi mới”.

 Đây là lần đầu tiên cơ quan tài chính này coi trí tuệ nhân tạo (AI) là rủi ro đối với hệ thống tài chính. Ảnh minh họa: Internet.

Đây là lần đầu tiên cơ quan tài chính này coi trí tuệ nhân tạo (AI) là rủi ro đối với hệ thống tài chính. Ảnh minh họa: Internet.

FSOC cho biết các nhà chức trách cũng phải “tăng cường chuyên môn và năng lực” để giám sát lĩnh vực này.

Bộ trưởng Tài chính Mỹ Janet Yellen, đồng thời là chủ tịch FSOC, cho biết việc sử dụng AI có thể tăng lên khi ngành tài chính áp dụng các công nghệ mới nổi và hội đồng sẽ đóng vai trò giám sát “các rủi ro phát sinh”.

Hồi tháng 10, Tổng thống Mỹ Joe Biden đã ban hành một mệnh lệnh hành pháp sâu rộng về AI, tập trung chủ yếu vào những tác động tiềm ẩn của công nghệ này đối với an ninh quốc gia và sự phân biệt đối xử.

Các chính phủ và học giả trên toàn thế giới đã bày tỏ lo ngại về tốc độ phát triển AI chóng mặt, trong bối cảnh các vấn đề đạo đức bao gồm quyền riêng tư cá nhân, an ninh quốc gia và vi phạm bản quyền.

Trong một cuộc khảo sát gần đây được thực hiện bởi các nhà nghiên cứu của Đại học Stanford, các nhân viên công nghệ tham gia nghiên cứu AI đã cảnh báo rằng người sử dụng lao động của họ đã không đưa ra các biện pháp bảo vệ đạo đức dù trước đó đã cam kết ưu tiên an toàn.

Tuần trước, các nhà hoạch định chính sách của Liên minh châu Âu đã đồng ý về một đạo luật mang tính bước ngoặt sẽ yêu cầu các nhà phát triển AI tiết lộ dữ liệu được sử dụng để đào tạo hệ thống của họ và tiến hành thử nghiệm các sản phẩm có rủi ro cao.

Khánh Vy (Theo Al Jazareea)

Nguồn Công Luận: https://congluan.vn/my-nhan-manh-ai-la-rui-ro-doi-voi-he-thong-tai-chinh-post276792.html