CỤC BẢO TỒN THIÊN NHIÊN VÀ ĐA DẠNG SINH HỌC
TRUNG TÂM ĐIỀU TRA, THÔNG TIN VÀ DỮ LIỆU VỀ MÔI TRƯỜNG, ĐA DẠNG SINH HỌC
CEBID

ASEAN khuyến nghị 7 nguyên tắc sử dụng và triển khai AI có trách nhiệm

0

Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng phát triển và tác động sâu rộng đến mọi lĩnh vực, việc sử dụng và triển khai AI một cách có trách nhiệm là yêu cầu cấp thiết.

Hiểu rõ điều này, ASEAN đã công bố “Hướng dẫn về quản trị và đạo đức AI” (ASEAN Guide on AI Governance and Ethics) nhằm khuyến khích các tổ chức sử dụng và triển khai công nghệ này một cách có trách nhiệm hiệu quả và bền vững.

Những nguyên tắc này không chỉ giúp tối ưu hóa lợi ích của AI mà còn đảm bảo an toàn, minh bạch và tôn trọng quyền lợi của con người trong quá trình sử dụng công nghệ. Theo công ty tư vấn công nghệ Access Partnership, việc áp dụng AI tại các thị trường trọng điểm Đông Nam Á có thể mang lại lợi ích kinh tế lên đến 835 tỷ USD vào năm 2030, chiếm 28% cơ hội toàn khu vực.

Hiệp hội các quốc gia Đông Nam Á (ASEAN) nhận thấy rằng các doanh nghiệp và tổ chức đang áp dụng AI và tự động hóa vì tiềm năng đột phá và khả năng mở ra những cơ hội mới thông qua việc thay đổi các mô hình truyền thống.

“Hướng dẫn về quản trị và đạo đức AI” do ASEAN ban hành nhằm hướng đến các tổ chức trong khu vực muốn thiết kế, phát triển và triển khai các công nghệ AI truyền thống một cách có trách nhiệm trong các ứng dụng thương mại và phi quân sự hoặc sử dụng kép. Hướng dẫn này cũng nhằm tăng cường niềm tin của người dùng vào AI.

Hướng dẫn nêu rõ: “Do tác động sâu rộng mà AI có thể mang lại cho các tổ chức và cá nhân trong ASEAN, các quyết định do AI đưa ra phải phù hợp với các giá trị quốc gia và doanh nghiệp, cũng như các chuẩn mực đạo đức và xã hội rộng lớn”.

Hướng dẫn này tập trung vào việc khuyến khích sự nhất quán và khả năng tương thích của các khuôn khổ AI trên toàn khu vực, đồng thời đưa ra những khuyến nghị cụ thể về các sáng kiến cấp quốc gia và cấp khu vực mà chính phủ các nước có thể cân nhắc triển khai cho các hệ thống AI của mình.

Trong những năm gần đây, nhiều chính phủ và tổ chức quốc tế đã ban hành các nguyên tắc, khung và khuyến nghị về đạo đức và quản trị AI, chẳng hạn như “Khung Quản trị AI mẫu” của Singapore và “Khuyến nghị của Hội đồng OECD về AI”. Tuy nhiên, ASEAN vẫn chưa thiết lập được một tiêu chuẩn liên chính phủ chung để xác định các nguyên tắc quản trị AI, nhằm cung cấp hướng dẫn cho các nhà hoạch định chính sách trong khu vực về việc sử dụng AI một cách có trách nhiệm và đạo đức.

Bảy nguyên tắc triển khai AI

Hướng dẫn của ASEAN đưa ra 7 nguyên tắc nhằm đảm bảo niềm tin vào AI, cũng như thiết kế, phát triển và triển khai các hệ thống AI có đạo đức.

Minh bạch và khả năng giải thích: Minh bạch yêu cầu phải công khai khi một hệ thống AI đang được sử dụng, vai trò của nó trong việc ra quyết định, loại dữ liệu mà nó sử dụng và mục đích của hệ thống. Việc này giúp công chúng nhận biết và đưa ra lựa chọn sáng suốt về việc có nên sử dụng hệ thống được hỗ trợ bởi AI hay không.

Ngoài ra, những nhà triển khai các sản phẩm và dịch vụ AI cũng cần có khả năng giải thích một cách dễ hiểu lý do đằng sau các quyết định của hệ thống AI, bởi không phải lúc nào cách thức hoạt động của AI cũng rõ ràng.

Công bằng và bình đẳng: Hướng dẫn khuyến nghị các nhà triển khai AI nên có các biện pháp bảo vệ để đảm bảo rằng các quyết định thuật toán không làm trầm trọng thêm hoặc khuếch đại các hành vi phân biệt đối xử hiện có hay bất công đối với các nhóm nhân khẩu học khác nhau.

Quá trình thiết kế, phát triển và triển khai hệ thống AI cần tránh gây ra thiên vị hoặc phân biệt đối xử không công bằng. Các nhà triển khai hệ thống AI nên thường xuyên kiểm tra để phát hiện thiên vị và thực hiện các điều chỉnh cần thiết nhằm đảm bảo tính công bằng.

Bảo mật và an toàn: Các nhà triển khai AI phải đảm bảo hệ thống an toàn và đủ bảo mật trước các cuộc tấn công độc hại.

Điều này là yếu tố cốt lõi để xây dựng niềm tin của công chúng vào AI. Các nhà triển khai AI cần thực hiện đánh giá tác động và rủi ro, đồng thời xác định và giảm thiểu các rủi ro đã biết. Cách tiếp cận ngăn ngừa rủi ro phải được áp dụng, cùng với các biện pháp phòng ngừa để con người có thể can thiệp khi cần thiết, nhằm ngăn chặn thiệt hại. Hệ thống AI cũng cần có khả năng tự ngắt kết nối an toàn trong trường hợp đưa ra các quyết định không an toàn.

Lấy con người làm trung tâm: Các hệ thống AI phải tôn trọng các giá trị lấy con người làm trung tâm và theo đuổi các lợi ích cho xã hội, bao gồm phúc lợi, dinh dưỡng và hạnh phúc của con người. Đây là chìa khóa để đảm bảo rằng mọi người đều được hưởng lợi từ quá trình thiết kế, phát triển và triển khai AI, đồng thời được bảo vệ khỏi các tác hại tiềm ẩn.

Đặc biệt, trong những trường hợp hệ thống AI được sử dụng để đưa ra quyết định về con người hoặc hỗ trợ con người, các hệ thống này phải được thiết kế nhằm mang lại lợi ích cho con người, không lợi dụng những người dễ bị tổn thương.

Quyền riêng tư và quản trị dữ liệu: Để đảm bảo quyền riêng tư và bảo vệ dữ liệu, hệ thống AI cần có các cơ chế duy trì và bảo vệ chất lượng, tính toàn vẹn của dữ liệu.

Các giao thức dữ liệu cần quy định rõ ai có thể truy cập và khi nào có thể truy cập dữ liệu. Quyền riêng tư và bảo vệ dữ liệu phải được tôn trọng và tuân thủ trong suốt quá trình thiết kế, phát triển và triển khai AI. Việc thu thập, lưu trữ, tạo ra và xóa dữ liệu trong vòng đời của hệ thống AI phải tuân thủ các luật bảo vệ dữ liệu, quản trị dữ liệu hiện hành và các nguyên tắc đạo đức.

Trách nhiệm giải trình và tính chính trực: Các nhà triển khai phải chịu trách nhiệm về quyết định của hệ thống AI, cũng như tuân thủ luật pháp và tôn trọng các nguyên tắc đạo đức. Trong quá trình thiết kế, phát triển và triển khai hệ thống AI, tất cả các bên liên quan cần hành động với sự chính trực trong suốt vòng đời của hệ thống.

Người triển khai phải đảm bảo hệ thống hoạt động đúng cách, tuân thủ luật pháp hiện hành, chính sách quản trị AI nội bộ và các nguyên tắc đạo đức. Nếu hệ thống AI gặp sự cố hoặc bị lạm dụng dẫn đến hậu quả tiêu cực, những người có trách nhiệm phải hành động một cách chính trực và thực hiện biện pháp khắc phục để ngăn chặn sự cố tương tự trong tương lai.

Khả năng xử lý lỗi trong quá trình thực hiện: Hệ thống AI cần có khả năng xử lý lỗi trong quá trình thực hiện, đối phó với đầu vào bất ngờ hoặc sai sót, cũng như các điều kiện môi trường căng thẳng.

Hệ thống phải hoạt động nhất quán và ổn định, cung cấp kết quả đáng nhất quán với nhiều loại đầu vào và tình huống khác nhau. Để ngăn ngừa tác hại, hệ thống AI cần có khả năng phục hồi trước các đầu vào không mong muốn, không biểu hiện hành vi nguy hiểm và tiếp tục hoạt động theo mục đích ban đầu.

Một số ví dụ ứng dụng điển hình

Hướng dẫn đã cũng đã nêu ra một số ứng dụng minh họa cách các tổ chức tại ASEAN thực hiện các biện pháp quản trị AI trong thiết kế, phát triển và triển khai công nghệ này.

Một ví dụ nổi bật là Gojek của Indonesia. Gojek ứng dụng AI trong nhiều lĩnh vực như ghép đôi tài xế – đơn hàng, lập bản đồ và phát hiện gian lận. Trước khi triển khai các mô hình học máy, công ty kiểm tra hiệu suất của mô hình so với một loạt các chuẩn mực ngoại tuyến được xác định trước.

Những chuẩn mực này giúp đánh giá hiệu suất trong của mô hình AI trong môi trường được kiểm soát với tập dữ liệu cố định, từ đó đo lường sự thay đổi trong đầu ra qua các lần lặp lại trong cùng điều kiện vận hành. Việc áp dụng chuẩn mực ngoại tuyến cũng giúp Gojek kiểm tra hiệu suất của mô hình mà không gây ra bất kỳ rủi ro hay tổn hại nào trong thế giới thực đối với người dùng cuối.

Trong khi đó, Tập đoàn Aboitiz của Philippines cũng được đề cập trong hướng dẫn nhờ thiết lập thành công các cấu trúc và biện pháp quản trị AI nội bộ. Tập đoàn sử dụng AI để hỗ trợ các hoạt động hàng ngày của nhiều đơn vị kinh doanh, bao gồm năng lượng, ngân hàng, dịch vụ tài chính, thực phẩm, đất đai, xây dựng, đóng tàu, cơ sở hạ tầng và khoa học dữ liệu.

Quản trị AI hiệu quả giúp tập đoàn cải thiện quy trình và quyết định dựa trên AI, đồng thời giảm thiểu rủi ro và thách thức tiềm ẩn. Tập đoàn đã xác định trách nhiệm rõ ràng cho tất cả các chương trình liên quan đến AI và thiết lập giao thức đánh giá rủi ro cho các quyết định dựa trên AI, cùng các biện pháp phù hợp để giải quyết mức độ rủi ro khác nhau. Công ty cũng thường xuyên xem xét các giá trị tổ chức và tích hợp nguyên tắc đạo đức vào việc sử dụng AI.

Hướng dẫn của ASEAN cũng đề cập đến một ví dụ điển hình khác đó là Bộ Giáo dục Singapore đã tương tác hiệu quả với các bên liên quan và cộng đồng. Trong quá trình phát triển hệ thống tích hợp AI để cung cấp lộ trình học tập cá nhân hóa cho từng học sinh, Bộ đã chủ động lắng nghe ý kiến của các bên liên quan trong suốt quá trình thiết kế và phát triển. Các ý tưởng và phản hồi từ nhà hoạch định chính sách, chuyên gia về chương trình giảng dạy và kỹ thuật, cũng như người dùng (giáo viên và học sinh) đã được tích hợp vào các giai đoạn lập kế hoạch, xây dựng và thử nghiệm./.

Theo ictvietnam

Chi sẻ.

Đã đóng bình luận.