Ứng phó với những rủi ro mà AI tác động đến quyền con người

Bùi Văn Duy - Phan Thị Hồng Nhung - GS, TS. Vũ Công Giao Trường Đại học Luật, Đại học Quốc gia Hà Nội

Ảnh minh hoạ

Ảnh minh hoạ.

Khung pháp luật về AI có trách nhiệm

Trí tuệ nhân tạo có trách nhiệm (Responsible Artificial Intelligence - RAI) là một khái niệm rất mới trong lĩnh vực nghiên cứu về AI. Hiện chưa có định nghĩa chính thức về RAI trong các văn bản pháp lý mà chỉ mới có trong một số công trình nghiên cứu, bài báo khoa học.

Tác giả Ellen Glover trong bài viết What Is Responsible AI? (Thế nào là trí tuệ nhân tạo có trách nhiệm?) đăng trên trang công nghệ builtin.com, định nghĩa RAI “là một tập hợp các biện pháp được sử dụng để bảo đảm AI được phát triển và áp dụng một cách có đạo đức và hợp pháp. Nó liên quan đến việc xem xét các tác động tiềm tàng mà hệ thống AI có thể gây ra đối với người dùng, xã hội và môi trường, thực hiện các bước để giảm thiểu mọi tác hại và ưu tiên tính minh bạch và công bằng khi nói đến cách thức tạo ra và sử dụng AI”; hay theo Alexander S. Gillis, một cây viết về công nghệ cho rằng, RAI “là một cách tiếp cận để phát triển và triển khai AI (AI) từ cả quan điểm đạo đức và pháp lý. Mục tiêu của RAI là sử dụng AI theo cách an toàn, đáng tin cậy và có đạo đức”.

Hai định nghĩa nói trên cho thấy những thuộc tính cơ bản của RAI: (i) RAI là một cách thức, phương thức hay cách tiếp cận chứ không phải là một loại AI; (ii) Mục đích của RAI là nhằm bảo đảm AI được tạo ra và khai thác một cách phù hợp với pháp luật và đạo đức, nhằm giảm thiểu tác hại của nó.

Tóm lại, RAI có thể hiểu là quy trình, phương thức được đặt ra nhằm bảo đảm việc thiết kế và sử dụng AI không gây hại cho con người và cho các xã hội hay cộng đồng. RAI có ý nghĩa vô cùng quan trọng với việc bảo vệ QCN trong giai đoạn hiện nay, khi mà AI đang được ứng dụng rộng rãi trong hầu khắp các lĩnh vực, nhưng những quy tắc ràng buộc nó còn rất hạn chế. Sự hạn chế đó đã gây ra nhiều tác hại đến con người và QCN như gây thiệt hại về tính mạng, quyền riêng tư, quyền việc làm, tạo ra định kiến phân biệt đối xử về giới, chủng tộc, dân tộc hay tôn giáo, tín ngưỡng…

Đặc biệt là những vấn đề mới nổi lên như sự phát triển những vũ khí tự hành toàn diện (fully autonomous weapons), có khả năng tự tìm kiếm và tiêu diệt mục tiêu, bao gồm cả con người, mà không cần sự điều khiển trực tiếp của binh lính. Hậu quả là có thể xảy ra những vụ sát thương hàng loạt, không phân biệt giữa chiến binh và thường dân, giữa chiến binh đã hạ vũ khí hay đã bị thương không còn khả năng chiến đấu với các chiến binh đang chiến đấu… Pháp luật quốc tế hiện vẫn chưa có quy định đầy đủ và cụ thể điều chỉnh các trường hợp sử dụng vũ khí tự hành toàn diện trong chiến tranh.

Xét tổng quát, RAI là một trong những nền tảng quan trọng để mỗi quốc gia, khu vực có thể tận dụng tối đa lợi ích và giới hạn đến mức tối thiểu tác động tiêu cực của AI vào sự phát triển trên mọi lĩnh vực. Điều này đã được các tổ chức quốc tế và nhiều quốc gia nhận thức rõ, dẫn đến sự ra đời của nhiều văn kiện pháp lý về RAI cả ở tầm quốc gia và khu vực trong thời gian gần đây. Những văn kiện này đều nhằm mục đích tạo ra khung pháp lý để điều chỉnh các hoạt động liên quan đến AI, bảo đảm chúng được thực hiện một cách hợp pháp và có đạo đức, giảm thiểu, ngăn chặn những tác động tiêu cực tiềm tàng mà AI có thể gây ra. Tuy nhiên, mức độ phát triển của khung pháp lý về RAI ở mỗi quốc gia, khu vực hiện rất khác nhau.

Vương quốc Anh hiện chưa có đạo luật chính thức điều chỉnh riêng biệt về AI nhưng đã có những định hướng về mặt chính sách cho vấn đề này. Ngày 29-3-2023, Chính phủ Anh đã ban hành “Sách Trắng về trí tuệ nhân tạo”, trong đó đề xuất 5 nguyên tắc cho khung quy định về AI, bao gồm: an toàn, bảo mật, bền vững; tính minh bạch và giải thích phù hợp; công bằng; trách nhiệm giải trình và quản trị; khả năng cạnh tranh và khắc phục. Có thể thấy, 5 nguyên tắc này chính là sự cụ thể hóa, chi tiết hóa của RAI.

Liên minh châu Âu (EU) hiện đang trong tiến trình làm việc để thông qua Đạo luật Trí tuệ nhân tạo (Artificial Intelligence Act), với mục tiêu là nhằm bảo đảm các hệ thống AI (AI Systems) được sử dụng tại EU phải an toàn, tôn trọng các quyền cơ bản của con người và các giá trị của EU.

Hiện Hội đồng châu Âu và Nghị viện châu Âu đã đạt được thỏa thuận về dự luật này, sẽ sớm được thông qua và có hiệu lực trong tương lai gần. Nội dung đáng chú ý của dự luật này chính là việc phân loại các hệ thống AI dựa trên rủi ro bao gồm: rủi ro không thể chấp nhận được (unacceptable risk), rủi ro cao (high risk), rủi ro hạn chế (limited risk), rủi ro tối thiểu (minimal risk).

Mỗi loại rủi ro sẽ phải chịu những biện pháp giới hạn, kiểm soát khác nhau, mức độ rủi ro càng cao thì biện pháp giới hạn, kiểm soát càng nghiêm ngặt. Để bảo vệ hiệu quả các QCN, dự luật này còn đặt ra nghĩa vụ cho người sử dụng AI phải thực hiện một cuộc đánh giá tác động đến QCN cơ bản trước khi sử dụng nó.

Tại Hàn Quốc, Ủy ban Khoa học, Công nghệ thông tin, Phát thanh và Truyền thông của Quốc hội đã đề xuất ban hành “Đạo luật thúc đẩy ngành công nghiệp AI và khuôn khổ thiết lập AI đáng tin cậy” (gọi tắc là Đạo luật AI). Hiện nay, Đạo luật AI chỉ còn vài thủ tục nữa là đến bước bỏ phiếu cuối cùng của Quốc hội Hàn quốc. Nếu được thông qua, đạo luật này sẽ là nền tảng pháp lý chi phối và quản lý toàn diện ngành công nghiệp AI ở Hàn Quốc. Đạo luật AI được thiết kế không chỉ để hỗ trợ, thúc đẩy sự phát triển của ngành AI và công nghệ liên quan mà còn để bảo vệ người dùng các dịch vụ dựa trên AI bằng cách bảo đảm độ tin cậy của hệ thống AI thông qua các yêu cầu thông báo nghiêm ngặt hơn đối với các dịch vụ AI có rủi ro cao và thiết lập hệ thống chứng nhận cho độ tin cậy của AI. Đạo luật này còn cung cấp cơ sở pháp lý để thiết lập “Các chỉ dẫn đạo đức cho AI”. Đây chính là các nội dung nhằm bảo đảm thực hiện RAI.

Trung Quốc là quốc gia đầu tiên có một đạo luật điều chỉnh riêng về AI, có hiệu lực thi hành (từ ngày 15-8-2023). Đạo luật này được xây dựng để quản lý AI sáng tạo (Generative AI), trong đó đặt những hạn chế mới cho các công ty cung cấp dịch vụ AI sáng tạo, cả về cả dữ liệu đầu vào và sản phẩm đầu ra. Dữ liệu cung cấp cho ứng dụng AI phải được thu thập một cách hợp pháp, không vi phạm quyền riêng tư, quyền sở hữu trí tuệ. Dữ liệu đầu ra phải đảm bảo tính lành mạnh, chính xác và một số yêu cầu khác. Có thể thấy, đạo luật này chính là một khung pháp lý về RAI, tuy nhiên nó mới chỉ điều chỉnh AI sáng tạo chứ chưa bao quát được toàn bộ các loại AI.

Từ những phân tích trên, có thể thấy khung pháp luật về RAI đang ngày càng phát triển trên phạm vi toàn thế giới. Từ những văn kiện mang tính chỉ dẫn, định hướng như sách trắng về AI ở Anh cho đến các dự luật như ở Hàn Quốc và EU, đến một đạo luật hoàn chỉnh và có hiệu lực như ở Trung Quốc. Dự kiến trong tương lai, các đạo luật về RAI sẽ xuất hiện ở nhiều quốc gia hơn và ngày càng hoàn thiện để bắt kịp với sự phát triển nhanh chóng của AI.

Xây dựng khung pháp luật về AI có trách nhiệm để bảo vệ QCN ở Việt Nam

Hiện nay, trong hệ thống pháp luật Việt Nam chưa có văn bản quy phạm pháp luật dành riêng cho AI mà chỉ mới trong giai đoạn nghiên cứu, đề xuất. Việc thực hiện RAI chỉ có thể dựa vào các quy định chuyên ngành về một số lĩnh vực khoa học, thông tin truyền thông, phần mềm.

Có thể thấy tại khoản 2 Điều 22 Nghị định 13/2023/NĐ-CP ngày 17-4-2023 về bảo vệ dữ liệu cá nhân quy định: “Việc thiết lập các hệ thống phần mềm, biện pháp kỹ thuật hoặc tổ chức các hoạt động thu thập, chuyển giao, mua, bán dữ liệu cá nhân không có sự đồng ý của chủ thể dữ liệu là vi phạm pháp luật”. Quy định này có thể được sử dụng để ngăn chặn việc sử dụng AI để lấy cắp dữ liệu cá nhân, xâm phạm quyền riêng tư bởi có thể coi AI là một phần mềm, biện pháp kỹ thuật dưới các góc độ nhất định. Tuy nhiên, điều này khó thực hiện trong thực tế bởi nó không được thiết kế để dành cho AI, đặc biệt là cho các hệ thống AI có nhiều đặc tính riêng biệt, có khả năng tự tư duy và hành động mà không cần sự điều khiển, thao tác trực tiếp của con người.  

Nhận thức được thực trạng kể trên, Đảng, Nhà nước Việt Nam đã có chủ trương, chính sách hướng đến xây dựng khung pháp lý cho AI nói chung và đảm bảo thực hiện RAI nói riêng.

Ngày 26-1-2021, Thủ tướng Chính phủ đã ban hành Quyết định 127/QĐ-TTg về Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030, trong đó quy định: “Xây dựng, hoàn thiện chính sách, pháp luật tạo hành lang pháp lý thông thoáng đáp ứng yêu cầu thúc đẩy nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo vào cuộc sống; Phát triển và ứng dụng trí tuệ nhân tạo lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân”. Quyết định này đã giao Bộ Công an: “Xây dựng và hoàn thiện bổ sung các văn bản pháp luật về bảo vệ quyền riêng tư, QCN, về an ninh trật tự có liên quan đến hoạt động phát triển và ứng dụng trí tuệ nhân tạo và về đảm bảo an toàn an ninh mạng cho các hoạt động lên quan tới trí tuệ nhân tạo”.

Có thể thấy những định hướng nêu trên của Đảng, Nhà nước Việt Nam là phù hợp với xu hướng chung trên thế giới. Đây chính là cơ sở chính trị, pháp lý để phát triển khung pháp lý về RAI của Việt Nam trong tương lai gần, qua đó khai thác tối đa lợi ích và kiểm soát hiệu quả những rủi ro của AI với sự phát triển mọi mặt của đất nước nói chung và với QCN nói riêng.

TÀI LIỆU THAM KHẢO

1. Nghị định 13/2023/NĐ-CP ngày 17-4-2023 của Chính phủ về bảo vệ dữ liệu cá nhân.

2. Quyết định 127/QĐ-TTg ngày 26-1-2021 của Thủ tướng chính phủ về Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030.

3. Ellen Glover, What Is Responsible AI?, đăng ngày 31-10-2023 trên trang Builtin.com.

Link truy cập: https://builtin.com/artificial-intelligence/what-is-responsible-ai (truy cập ngày 8-12-2023).

4. https://www.techtarget.com/searchenterpriseai/definition/responsible-AI (truy cập ngày 8-12-2023).

5. https://tuoitre.vn/robot-cong-nghiep-de-chet-cong-nhan-vi-nhan-lam-20231109095747688.htm (truy cập ngày 9-12-2023).

6. https://www.hrw.org/topic/arms/killer-robots  (truy cập ngày 9-12-2023).

7. https://www.airuniversity.af.edu/JIPA/Display/Article/3533453/laws-on-laws-regulating-the-lethal-autonomous-weapon-systems/  (truy cập ngày 9-12-2023).

Phản hồi

Các tin khác

Mới nhất

Xem nhiều nhất