Ngày 30/9/2024, Thống đốc Ngân hàng Nhà nước Việt Nam (“NHNN”) ban hành một số Thông tư nhằm điều chỉnh mức lãi suất tiền gửi ngân hàng áp dụng đối với tổ chức tín dụng (“TCTD”), chi nhánh ngân hàng nước ngoài.
Tính đến tháng 10 năm 2024, Hoa Kỳ đã đầu tư vào Việt Nam khoảng 1.400 dự án, với tổng vốn đăng ký gần 12 tỷ USD. Trong 10 tháng đầu năm 2024, các nhà đầu tư Hoa Kỳ đã triển khai 92 dự án mới, với tổng vốn gần 139 triệu USD, tập trung vào công nghệ và năng lượng.
Quyền khởi kiện phái sinh là một cơ chế pháp lý quan trọng cho phép cổ đông hoặc thành viên góp vốn khởi kiện nhân danh công ty khi người quản lý hoặc cá nhân có liên quan vi phạm nghĩa vụ, gây thiệt hại cho doanh nghiệp.
Quy định về AI dù đang phát triển nhanh chóng, tuy nhiên ở hầu hết các quốc gia vẫn đang ở giai đoạn đầu. Nhìn chung, các cơ quan quản lý ở châu Á tập trung vào hướng dẫn “mềm” dưới dạng nguyên tắc đạo đức, hướng dẫn hoặc quy tắc ứng xử trong việc sử dụng và phát triển công nghệ AI. Hồng Kông và Singapore là những ví dụ về các quốc gia áp dụng cách tiếp cận dựa trên nguyên tắc và ủng hộ đổi mới. Một ngoại lệ đáng chú ý là Trung Quốc, quốc gia này đã áp dụng cách tiếp cận mang tính quy định và đưa ra ba quy định dành riêng cho AI để điều chỉnh các công nghệ AI cụ thể (bao gồm gần đây nhất là AI tạo sinh). Mặc dù các quốc gia khác ở châu Á đã bắt đầu thảo luận về việc có nên ban hành luật dành riêng cho AI hay không (bao gồm Ấn Độ, Nhật Bản,Hàn Quốc và Đài Loan), nhưng các cuộc thảo luận này vẫn chưa kết tinh thành luật hoặc quy định mang tính ràng buộc.
Một số dấu hiệu về quy định trong tương lai có thể như thế nào đến từ Đạo luật AI do Liên minh Châu Âu đề xuất, một trong những luật toàn diện đầu tiên về vấn đề này trên thế giới[7]. Đạo luật AI được đề xuất tuân theo cách tiếp cận dựa trên rủi ro.
Các hệ thống AI đi ngược lại các giá trị của Liên minh Châu Âu, chẳng hạn như vi phạm các quyền cơ bản, sẽ bị coi là “rủi ro không thể chấp nhận” và bị cấm. Những hành vi có khả năng gây tổn hại đáng kể đến sức khỏe, an toàn, các quyền cơ bản, môi trường, dân chủ và pháp quyền sẽ được phân loại là “rủi ro cao” và phải tuân thủ các yêu cầu tuân thủ bổ sung. Các mô hình AI có mục đích chung sẽ phải tuân thủ các yêu cầu về tính minh bạch và các yêu cầu bổ sung sẽ áp dụng cho các mô hình AI có mục đích chung có rủi ro hệ thống.
Các hệ thống AI đi ngược lại các giá trị của Liên minh Châu Âu, chẳng hạn như vi phạm các quyền cơ bản, sẽ bị coi là “rủi ro không thể chấp nhận” và bị cấm.
Mặc dù chính sách AI vẫn đang trong giai đoạn phát triển ban đầu ở nhiều quốc gia nhưng một số nguyên tắc chung quan trọng đang nổi lên, phù hợp chặt chẽ với các nguyên tắc AI của Microsoft được mô tả trong Phần 4 ở trên. Kế hoạch chi tiết về quản trị AI của Microsoft trình bày các đề xuất của chúng tôi về khung pháp lý AI mà chúng tôi tin rằng nên dựa trên rủi ro và tập trung vào kết quả, tập trung các biện pháp bảo vệ vào các ứng dụng có rủi ro cao nhất và sử dụng các đánh giá tác động cũng như thử nghiệm hệ thống để xác định và giải quyết rủi ro cũng như đảm bảo hệ thống đang hoạt động thích hợp.
Mặc dù chính sách AI vẫn đang trong giai đoạn đầu phát triển ở nhiều quốc gia, nhưng một số nguyên tắc chung quan trọng đang nổi lên, phù hợp chặt chẽ với các nguyên tắc AI của Microsoft được mô tả trong Phần 4 ở trên. Bản thiết kế của Microsoft về quản trị AI trình bày các đề xuất của chúng tôi đối với khuôn khổ quy định AI, mà chúng tôi tin rằng nên dựa trên rủi ro và tập trung vào kết quả, tập trung các biện pháp bảo vệ vào các ứng dụng rủi ro cao nhất và sử dụng đánh giá tác động và kiểm thử hệ thống để xác định và giải quyết các rủi ro và đảm bảo hệ thống hoạt động phù hợp.
Vậy tương lai thì sao? Điều gì sẽ xảy ra? Hãy cùng đón đọc bài viết tiếp theo của chúng tôi