Tổng quan về Chỉ số HHI và Phân tích từ Báo cáo Thường niên của Cục Quản lý Cạnh tranh (2021-2023)
1. Hiểu về HHI và Vai trò của nó trong Luật Cạnh tranh tại Việt Nam Chỉ số Herfindahl-Hirschman (HHI)
Quy định về AI dù đang phát triển nhanh chóng, tuy nhiên ở hầu hết các quốc gia vẫn đang ở giai đoạn đầu. Nhìn chung, các cơ quan quản lý ở châu Á tập trung vào hướng dẫn “mềm” dưới dạng nguyên tắc đạo đức, hướng dẫn hoặc quy tắc ứng xử trong việc sử dụng và phát triển công nghệ AI. Hồng Kông và Singapore là những ví dụ về các quốc gia áp dụng cách tiếp cận dựa trên nguyên tắc và ủng hộ đổi mới. Một ngoại lệ đáng chú ý là Trung Quốc, quốc gia này đã áp dụng cách tiếp cận mang tính quy định và đưa ra ba quy định dành riêng cho AI để điều chỉnh các công nghệ AI cụ thể (bao gồm gần đây nhất là AI tạo sinh). Mặc dù các quốc gia khác ở châu Á đã bắt đầu thảo luận về việc có nên ban hành luật dành riêng cho AI hay không (bao gồm Ấn Độ, Nhật Bản, Hàn Quốc và Đài Loan), nhưng các cuộc thảo luận này vẫn chưa kết tinh thành luật hoặc quy định mang tính ràng buộc.
Một số dấu hiệu về quy định trong tương lai có thể như thế nào đến từ Đạo luật AI do Liên minh Châu Âu đề xuất, một trong những luật toàn diện đầu tiên về vấn đề này trên thế giới[7]. Đạo luật AI được đề xuất tuân theo cách tiếp cận dựa trên rủi ro.
Các hệ thống AI đi ngược lại các giá trị của Liên minh Châu Âu, chẳng hạn như vi phạm các quyền cơ bản, sẽ bị coi là “rủi ro không thể chấp nhận” và bị cấm. Những hành vi có khả năng gây tổn hại đáng kể đến sức khỏe, an toàn, các quyền cơ bản, môi trường, dân chủ và pháp quyền sẽ được phân loại là “rủi ro cao” và phải tuân thủ các yêu cầu tuân thủ bổ sung. Các mô hình AI có mục đích chung sẽ phải tuân thủ các yêu cầu về tính minh bạch và các yêu cầu bổ sung sẽ áp dụng cho các mô hình AI có mục đích chung có rủi ro hệ thống.
Mặc dù chính sách AI vẫn đang trong giai đoạn phát triển ban đầu ở nhiều quốc gia nhưng một số nguyên tắc chung quan trọng đang nổi lên, phù hợp chặt chẽ với các nguyên tắc AI của Microsoft được mô tả trong Phần 4 ở trên. Kế hoạch chi tiết về quản trị AI của Microsoft trình bày các đề xuất của chúng tôi về khung pháp lý AI mà chúng tôi tin rằng nên dựa trên rủi ro và tập trung vào kết quả, tập trung các biện pháp bảo vệ vào các ứng dụng có rủi ro cao nhất và sử dụng các đánh giá tác động cũng như thử nghiệm hệ thống để xác định và giải quyết rủi ro cũng như đảm bảo hệ thống đang hoạt động thích hợp.
[7] Nghị viện Châu Âu, Nghị viện Châu Âu, Đạo luật Trí tuệ Nhân tạo: giải quyết các quy tắc toàn diện cho AI đáng tin cậy (9/12/2023)
Mặc dù chính sách AI vẫn đang trong giai đoạn đầu phát triển ở nhiều quốc gia, nhưng một số nguyên tắc chung quan trọng đang nổi lên, phù hợp chặt chẽ với các nguyên tắc AI của Microsoft được mô tả trong Phần 4 ở trên. Bản thiết kế của Microsoft về quản trị AI trình bày các đề xuất của chúng tôi đối với khuôn khổ quy định AI, mà chúng tôi tin rằng nên dựa trên rủi ro và tập trung vào kết quả, tập trung các biện pháp bảo vệ vào các ứng dụng rủi ro cao nhất và sử dụng đánh giá tác động và kiểm thử hệ thống để xác định và giải quyết các rủi ro và đảm bảo hệ thống hoạt động phù hợp.
Vậy tương lai thì sao? Điều gì sẽ xảy ra? Hãy cùng đón đọc bài viết tiếp theo của chúng tôi