Tổng quan về Chỉ số HHI và Phân tích từ Báo cáo Thường niên của Cục Quản lý Cạnh tranh (2021-2023)
1. Hiểu về HHI và Vai trò của nó trong Luật Cạnh tranh tại Việt Nam Chỉ số Herfindahl-Hirschman (HHI)
Ngày 13 tháng 3 năm 2024, Nghị viện Châu Âu đã phê duyệt Đạo luật Trí tuệ nhân tạo (“Đạo Luật AI” hoặc “Đạo Luật”), đánh dấu một cột mốc quan trọng trong lĩnh vực Trí tuệ nhân tạo (“AI”). Đạo Luật này là một nỗ lực mang tính đổi mới nhằm cung cấp cơ cấu pháp lý cho việc sử dụng AI trong Liên minh Châu Âu (“EU”) và nhấn mạnh vào việc phát triển và thực thi có trách nhiệm, đặc biệt chú ý đến các yếu tố đáng tin cậy, an toàn và đạo đức trong lĩnh vực AI. Mặc dù Đạo Luật AI phải trải qua một vài bước nữa trước khi có hiệu lực, dự kiến vào tháng 4 hoặc tháng 5 năm nay và sau thời gian hạn 24 tháng sẽ có hiệu lực hoàn toàn vào khoảng tháng 6 năm 2026.
Với việc EU đưa ra một ví dụ toàn cầu về các quy định về AI, liệu Việt Nam có thể áp dụng những cách tiếp cận gì để tạo ra các quy định về AI hiệu quả cho mình khi sự phát triển của AI đang bùng nổ?
Đạo Luật AI của EU đã đưa ra được định nghĩa về hệ thống AI. Theo đó, hệ thống AI được hiểu là một hệ thống dựa trên máy móc được thiết kế để hoạt động với các cấp độ tự chủ khác nhau, có khả năng thích ứng sau khi triển khai và, vì các mục tiêu rõ ràng hoặc ngầm định, có thể suy luận từ đầu vào nhận được để tạo ra đầu ra như dự đoán, nội dung, đề xuất hoặc quyết định có thể ảnh hưởng đến môi trường vật lý hoặc ảo.
Bên cạnh đó, Đạo Luật AI cũng thiết lập cách tiếp cận dựa trên rủi ro và phân loại các hệ thống AI thành bốn cấp độ rủi ro, bao gồm rủi ro không chấp nhận, rủi ro cao, rủi ro hạn chế và rủi ro thấp.
Theo Đạo Luật AI, các hệ thống AI được coi là có rủi ro không chấp nhận sẽ bị cấm. Điều này bao gồm các ứng dụng AI xâm phạm quyền cơ bản của con người, chẳng hạn như hệ thống phân loại sinh trắc học dựa trên các đặc điểm nhạy cảm và việc thu thập dữ liệu hình ảnh khuôn mặt không mục tiêu từ internet hoặc camera giám sát (CCTV) để tạo hoặc mở rộng cơ sở dữ liệu nhận dạng khuôn mặt. Đạo luật AI cũng cũng nghiêm cấm việc nhận dạng cảm xúc trong môi trường làm việc và các cơ sở giáo dục; chấm điểm xã hội, dự đoán tội phạm. Thay vào đó, chỉ dựa vào việc lập hồ sơ hoặc đánh giá các đặc điểm tính cách của cá nhân; và AI can thiệp vào hành vi của con người hoặc khai thác điểm yếu của con người.
Một điều đáng chú ý, mặc dù được phân loại là “Rủi ro không chấp nhận”, hệ thống nhận dạng sinh trắc học từ xa vẫn có thể được các cơ quan thực thi pháp luật sử dụng để tìm kiếm người mất tích, xác định nghi phạm đối với các tội nghiêm trọng hoặc ngăn chặn khủng bố. Tuy nhiên, việc sử dụng này cần có sự chấp thuận trước của thẩm phán và bị giới hạn đối với các tội nghiêm trọng trong danh sách cụ thể.
Đối với các hệ thống AI có rủi ro cao, có khả năng gây ra tác động tiêu cực đến sức khỏe, sự an toàn hoặc các quyền cơ bản của con người, các nghĩa vụ nghiêm ngặt sẽ được áp dụng. Điều này bao gồm các quy tắc bắt buộc về: Đánh giá Tác động đến Quyền Cơ bản, Đánh giá Sự phù hợp, yêu cầu quản trị dữ liệu, đăng ký trong cơ sở dữ liệu của EU, hệ thống quản lý chất lượng và rủi ro, minh bạch, giám sát của con người, tính chính xác, tính mạnh mẽ và an ninh mạng.
Ví dụ về việc sử dụng AI rủi ro cao bao gồm: cơ sở hạ tầng quan trọng, giáo dục và đào tạo nghề, việc làm, dịch vụ tư nhân và công cộng thiết yếu (ví dụ: chăm sóc sức khỏe, ngân hàng), một số hệ thống trong thực thi pháp luật, quản lý di cư và biên giới, tư pháp và các quá trình dân chủ. Công dân có quyền gửi khiếu nại về các hệ thống AI và nhận giải thích về các quyết định dựa trên hệ thống AI rủi ro cao ảnh hưởng đến quyền của họ.
Rủi ro hạn chế đề cập đến những rủi ro liên quan đến việc thiếu minh bạch trong việc sử dụng AI. Đạo Luật AI đưa ra các nghĩa vụ minh bạch cụ thể để đảm bảo con người được thông báo khi cần thiết, nhằm tăng cường lòng tin. Ví dụ, khi sử dụng các hệ thống AI như chatbot, con người nên được thông báo rằng họ đang tương tác với máy móc để họ có thể đưa ra quyết định sáng suốt về việc tiếp tục hoặc dừng lại.
Đạo luật AI cho phép sử dụng tự do các hệ thống AI rủi ro thấp. Các hệ thống có rủi ro thấp đối với con người (ví dụ: bộ lọc thư rác) sẽ không phải tuân thủ thêm các nghĩa vụ nào khác ngoài các quy định hiện hành.
Áp dụng cách tiếp cận dựa trên rủi ro đối với các hệ thống AI, Đạo Luật AI của EU đưa ra các mức phạt và tiền phạt, sử dụng hệ thống phân loại riêng của mình về các hệ thống AI và mức độ rủi ro liên quan.
Mức phạt cao nhất áp dụng cho việc sử dụng các hệ thống bị cấm theo Đạo Luật AI do mức độ rủi ro không chấp nhận được mà chúng gây ra. Các trường hợp này có thể bị phạt tới 35 triệu EUR hoặc lên tới 7% doanh thu toàn cầu hàng năm của doanh nghiệp.
Mức phạt tiếp theo áp dụng cho việc không tuân thủ các nghĩa vụ cụ thể đối với nhà cung cấp, đại diện, nhà nhập khẩu, nhà phân phối, người triển khai, tổ chức thông báo và người dùng, có thể bị phạt tới 15 triệu EUR hoặc lên tới 3% doanh thu toàn cầu hàng năm của doanh nghiệp.
Mức phạt khác áp dụng cho trường hợp cung cấp thông tin không chính xác, không đầy đủ hoặc gây hiểu lầm cho các cơ quan chức năng, có thể bị phạt tới 7,5 triệu EUR hoặc 1,5% tổng doanh thu toàn cầu của doanh nghiệp.
Đạo luật AI của EU được khen ngợi là có tính lịch sử. Đây là quy định toàn diện quản lý trí tuệ nhân tạo đầu tiên. Tuy nhiên, một số chính trị gia và các ông lớn trong ngành công nghệ tỏ ra khá lo ngại rằng Đạo Luật này có thể làm tổn hại đến khả năng cạnh tranh của khối và thúc đẩy làn sóng đầu tư rút lui. Việc áp đặt “các nghĩa vụ nghiêm ngặt” với những đơn vị tiên phong trong lĩnh vực công nghệ làm nền tảng cho nhiều hệ thống hạ nguồn. Điều này có thể cản sự đổi mới ở châu Âu, dẫn tới “chảy máu chất xám” trong lĩnh vực này.
Dù vấp phải nhiều ý kiến trái chiều, đạo luật này đang dần được thực thi. Không thể phủ nhận tầm ảnh hưởng to lớn của AI đối với nền kinh tế và xã hội toàn cầu, khiến việc luật hóa AI trở nên cấp thiết.
Trong tình hình đó, Việt Nam, cũng như các nước trên thế giới cũng, chưa có khung pháp lý cụ thể điều chỉnh và quản lý trí tuệ nhân tạo, các chuyên gia pháp lý của Việt Nam đã theo dõi chặt chẽ việc thực hiện Đạo Luật AI và những tác động tiềm năng trong tương lai để đánh giá cách và đưa ra cách tiếp cận phù hợp như với các mục tiêu phát triển trí tuệ nhân tạo của Việt Nam. Đạo Luật AI có thể khuyến khích Việt Nam áp dụng một hệ thống phân loại tương tự, khuyến khích nghiên cứu, phát triển và khởi nghiệp về AI, đồng thời đảm bảo phát triển AI có trách nhiệm, ưu tiên các cân nhắc về đạo đức song song với lợi ích kinh tế.
Ngoài ra, khi có hiệu lực từng phần và sẽ có hiệu lực toàn phần năm 2026, các doanh nghiệp Việt Nam đã, đang và sẽ tham gia vào thị trường EU bằng AI. Dù bằng cách phát triển các mô hình AI hay tiếp thị hệ thống AI cho các tập đoàn EU, đều phải tuân thủ khung pháp lý của Đạo Luật AI sắp tới. Các doanh nghiệp cần chủ động theo dõi, tìm kiếm tư vấn pháp lý từ các tổ chức hành nghề luật sư và đưa ra kế hoạch hoạt động cho doanh nghiệp mình.
Bằng cách chủ động thích ứng với các yêu cầu của Đạo Luật AI của EU, các doanh nghiệp Việt Nam có thể đảm bảo duy trì khả năng cạnh tranh trên thị trường châu Âu đồng thời thúc đẩy các hoạt động phát triển AI có trách nhiệm và đáng tin cậy.
Đạo Luật AI của EU là một bước ngoặt quan trọng hướng tới việc định hình quản trị AI có trách nhiệm trên toàn cầu. Bằng cách giải quyết việc đánh giá rủi ro, các cân nhắc về đạo đức và đổi mới, Đạo Luật AI cung cấp một khuôn khổ toàn diện cho việc quản lý AI. Khi châu Âu đi đầu, các khu vực khác, bao gồm Việt Nam, có thể rút ra những bài học kinh nghiệm quý báu từ quy định pháp luật quan trọng này.