Trên cơ sở hỗ trợ của Chương trình Đối tác Đổi mới sáng tạo Australia - Việt Nam (Aus4Innovation), ngày 5/7/2024, Trường Đại học Luật, Đại học Quốc gia (ĐHQG) Hà Nội tổ chức Hội thảo quốc tế “Kinh nghiệm quốc tế về xây dựng bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của trí tuệ nhân tạo có trách nhiệm”. Mục tiêu của Hội thảo nhằm thảo luận kinh nghiệm quốc tế về xây dựng bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng AI có trách nhiệm, tổng hợp khuynh hướng, mô hình điển hình trên thế giới và bước đầu rút ra một số hàm ý chính sách về phát triển AI có trách nhiệm ở Việt Nam.
Toàn cảnh Hội thảo.
Công nghệ vì lợi ích cộng đồng
Tại Hội thảo, các chuyên gia cho rằng, để phát triển AI có trách nhiệm, cần hệ thống thể chế, chính sách, nguyên tắc điều chỉnh, với sự kết hợp chặt chẽ giữa các quy định pháp luật “cứng” mang tính ràng buộc với các quy tắc "mềm" như đạo đức, hướng dẫn, khuyến nghị. Pháp luật thường đi sau sự phát triển công nghệ, đối với các công nghệ mới nổi, cách tiếp cận kết hợp giữa luật cứng và luật mềm là sự lựa chọn phù hợp nhất.
Trong khuôn khổ nhiệm vụ xây dựng bộ nguyên tắc và một số hướng dẫn phát triển AI có trách nhiệm ở Việt Nam, PGS.TS Nguyễn Thị Quế Anh, Hiệu trưởng Trường Đại học Luật, ĐHQG Hà Nội cho biết, AI ngày càng phát triển nhanh chóng và tác động tới mọi mặt kinh tế, giáo dục, xã hội của các quốc gia. Tuy nhiên, bên cạnh những lợi ích to lớn, sự phát triển của AI đang làm dấy lên những quan ngại về các rủi ro tiềm ẩn như: vi phạm chuẩn mực đạo đức và pháp lý; các thuật toán có thể gây ra sự thiên vị, phân biệt đối xử, bất bình đẳng; xâm phạm quyền riêng tư và dữ liệu cá nhân…
PGS.TS Nguyễn Thị Quế Anh chia sẻ tại Hội thảo.
Theo TS. Đỗ Giang Nam, đại diện nhóm nghiên cứu Trường Đại học Luật, ĐHQG Hà Nội, việc xây dựng AI cần tuân thủ nguyên tắc chung và nguyên tắc điều chỉnh cho từng lĩnh vực cụ thể. Bên cạnh đó, cách tiếp cận "mềm hóa" đề cao các giá trị đạo đức, độ tin cậy và trách nhiệm là chìa khóa để phát triển AI một cách bền vững.
“Chúng tôi cho rằng, niềm tin là nền tảng cho sự phát triển của AI. Để đạt được điều này, cần có những công cụ đủ mạnh để đảm bảo AI được sử dụng một cách có trách nhiệm. Bên cạnh đó, cần tập trung vào các trụ cột lõi bao gồm tính hợp pháp, đạo đức và bền vững công nghệ, cách tiếp cận "vị nhân sinh" lấy con người làm trung tâm, là kim chỉ nam cho mọi hoạt động phát triển AI”, TS. Đỗ Giang Nam cho biết thêm.
Đồng tình với quan điểm trên, TS. Kim Wimbush, Tham tán Tổ chức Nghiên cứu khoa học và công nghiệp Khối thịnh vượng chung Australia (CSIRO), Giám đốc Chương trình Aus4Innovation cho biết: nguyên tắc đạo đức sử dụng AI trở thành vấn đề nổi cộm, nhất là trong vấn đề quyền riêng tư với mỗi cá nhân. Do vậy bộ nguyên tắc và các hướng dẫn về AI có trách nhiệm cần mang tính linh hoạt, thích ứng, thường xuyên được đánh giá, cập nhật, bổ sung để theo kịp với sự phát triển của AI.
TS. Kim Wimbush, Giám đốc Chương trình Aus4Innovation phát biểu tại Hội thảo.
GS.TS Andy Hall, nghiên cứu viên cao cấp CSIRO nhấn mạnh, phát triển AI có trách nhiệm không chỉ đơn thuần là "làm được hay không" mà còn là "làm như thế nào" trong đó đòi hỏi sự cân nhắc kỹ lưỡng về việc lựa chọn công nghệ phù hợp với giá trị xã hội và đạo đức.
“Niềm tin là yếu tố then chốt bên cạnh việc đảm bảo sử dụng AI an toàn và có trách nhiệm. Tuy nhiên, AI cũng tiềm ẩn những tác động và rủi ro không thể lường trước, bao gồm gián đoạn, tác động tiêu cực đến môi trường, rủi ro đạo đức, sử dụng công nghệ sai mục đích và tội phạm công nghệ”, GS.TS Andy Hall cho hay.
TS. Jonathan Wallace Baker, Trưởng đại diện UNESCO tại Việt Nam cũng khẳng định, không thể phủ nhận vai trò của AI nhưng làm sao để có khung pháp lý hiệu quả cho lĩnh vực này. Năm 2021, UNESCO đã ban hành "khuyến nghị về các khía cạnh đạo đức của AI", nhằm hướng dẫn các quốc gia giải quyết một cách có trách nhiệm những tác động của AI đối với con người, xã hội, môi trường và hệ sinh thái. Các nguyên tắc đã có từ nhiều năm nhưng cần đi vào chi tiết và có các hành động cụ thể", TS. Jonathan Wallace Baker khẳng định.
TS. Jonathan Wallace Baker, Trưởng đại diện UNESCO tại Việt Nam mong muốn có khung pháp lý hiệu quả cho lĩnh vực AI.
Phát triển “AI có trách nhiệm” từ kinh nghiệm quốc tế
Trong giai đoạn từ 2019 - 2024, các tổ chức quốc tế, các quốc gia và khu vực đã có những động thái tích cực, khẩn trương trong việc xây dựng thể chế, chính sách và các nguyên tắc để các đơn vị phát triển AI nhưng vẫn còn hạn chế rủi ro hay các tác động tiêu cực do AI mang lại.
Hiện nhiều quốc gia có bộ nguyên tắc chung như: EU, UNESCO, Trung Quốc, Mỹ, Nhật Bản, bên cạnh đó còn có bộ nguyên tắc ở từng lĩnh vực như: giáo dục, y tế. Những nội dung cốt lõi về bộ nguyên tắc đảm bảo tính tự chủ và giám sát con người, an toàn, quyền riêng tư và quản trị dữ liệu, tính minh bạch, đa dạng và bao trùm, không phân biệt đối xử và công bằng, cùng tính trách nhiệm giải trình.
Điểm chung của các bộ nguyên tắc AI có trách nhiệm là các nguyên tắc nền tảng: vị nhân sinh, vì lợi ích của con người; tôn trọng tính tự chủ và sự giám sát của con người; bền vững và an toàn; bảo đảm quyền riêng tư và quản trị dữ liệu; minh bạch và có thể giải thích được; đa dạng, bao trùm; bình đẳng, không phân biệt đối xử; trách nhiệm và trách nhiệm giải trình… Đó là những kinh nghiệm có giá trị tham khảo đối với Việt Nam, tuy nhiên khi áp dụng cần xem xét đến những đặc thù kinh tế - xã hội để có quy định phù hợp.
Năm 2021, 193 quốc gia thành viên UNESCO đã thông qua Khuyến nghị về Đạo đức AI. Đồng thời xây dựng bộ công cụ thực hành Khuyến nghị đạo đức AI đánh giá mức độ sẵn sàng của các quốc gia - RAM (Readiness Assessment Methodology) bao gồm 5 lĩnh vực chứa chỉ số chính khác nhau gồm: pháp lý, xã hội, khoa học giáo dục, kinh tế và bao trùm công nghệ. Tới nay đã có 50 quốc gia áp dụng bộ công cụ, phân tích liên tục tính đa dạng nhằm đưa ra hoạch định riêng cho từng quốc gia, dự đoán cụ thể tác động AI đến môi trường, văn hoá, những tác động hữu hình bởi AI.
Tại Việt Nam, năm 2021, Thủ tướng Chính phủ đã ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030, trong đó nêu rõ định hướng "Phát triển và ứng dụng AI lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của tổ chức cá nhân". Đây là định hướng quan trọng và xuyên suốt phải bảo đảm trong việc hoàn thiện, xây dựng hệ thống văn bản quy phạm pháp luật và hành lang pháp lý liên quan đến AI.
Trên cơ sở nghiên cứu kinh nghiệm quốc tế, ngày 11/6/2024 , Bộ Khoa học và Công nghệ (KH&CN) đã ban hành Quyết định số 1290/QĐ-BKHCN hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống AI có trách nhiệm. Ngoài ra, cơ quan, tổ chức KH&CN, tổ chức, doanh nghiệp, cá nhân có hoạt động nghiên cứu, thiết kế, phát triển, cung cấp các hệ thống AI được khuyến khích áp dụng các nội dung trong tài liệu hướng dẫn.
Theo ông Trần Anh Tú, Phó Vụ trưởng Vụ Công nghệ cao, Bộ KH&CN, cần thúc đẩy áp dụng, thực hành các nguyên tắc này vào thực tiễn. Tiếp tục nghiên cứu kinh nghiệm các nước, khuyến nghị của các tổ chức quốc tế về AI; hướng dẫn để phát triển AI có trách nhiệm trong các ngành/lĩnh vực, dựa trên đặc thù của từng lĩnh vực như y tế, giáo dục, nông nghiệp…
Hiện Bộ KH&CN đang làm việc với UNESCO để thử nghiệm bộ công cụ RAM tại Việt Nam. Đồng thời, tiếp tục hợp tác với Australia trong nghiên cứu, đề xuất các nguyên tắc phát triển AI có trách nhiệm.
Ngoài ra, Bộ KH&CN cũng tăng cường nghiên cứu, xây dựng hệ thống tiêu chuẩn, quy chuẩn kỹ thuật quốc gia để phục vụ phát triển AI tại Việt Nam; chủ động xác định các vấn đề khoa học, thực tiễn liên quan đến AI cần giải quyết và ưu tiên nguồn lực từ các Chương trình KH&CN trọng điểm cấp quốc gia giai đoạn đến năm 2030 để triển khai các nhiệm vụ, giải pháp cụ thể về AI…
Ông Trần Anh Tú, Phó Vụ trưởng Vụ Công nghệ cao phát biểu tại Hội thảo.