Quy định về trí tuệ nhân tạo (AI) đang trải qua một sự chuyển đổi mạnh mẽ vào năm 2025, đặc biệt tập trung vào các ứng dụng hướng đến người tiêu dùng. Các công ty sử dụng chatbot AI, hệ thống ra quyết định tự động và công nghệ tạo sinh phải chuẩn bị cho bối cảnh quy định ngày càng phức tạp và nghiêm ngặt.
Năm 2025 đánh dấu sự kết thúc của kỷ nguyên "Miền Tây Hoang dã" trong phát triển AI. Đạo luật AI Châu Âu có hiệu lực từ ngày 1 tháng 8 năm 2024, với các điều khoản chính có hiệu lực trong năm 2025: Các yêu cầu về kiến thức AI có hiệu lực từ ngày 2 tháng 2 năm 2025, trong khi các quy tắc và yêu cầu quản trị đối với các mô hình GPAI có hiệu lực từ ngày 2 tháng 8 năm 2025.
Các quy định mới nổi tuân theo cách tiếp cận có cấu trúc dựa trên ba cấp độ rủi ro:
1. Hệ thống AI quan trọng đối với cơ sở hạ tầng: Các ứng dụng trong lĩnh vực chăm sóc sức khỏe, giao thông vận tải, năng lượng và thị trường tài chính hiện nay yêu cầu chứng nhận trước khi triển khai, giám sát liên tục và sự giám sát chặt chẽ của con người.
2. AI hướng tới người tiêu dùng: Các ứng dụng tương tác trực tiếp với người tiêu dùng phải cung cấp thông tin rõ ràng về việc sử dụng AI, duy trì quá trình kiểm toán toàn diện và triển khai các giao thức phát hiện sai lệch.
3. AI mục đích chung: Các hệ thống mục đích chung cũng yêu cầu đăng ký, kiểm tra bảo mật cơ bản và tiết lộ phương pháp đào tạo.
Dự luật số 243 của Thượng viện California, do Thượng nghị sĩ Steve Padilla đề xuất, ra đời nhằm ứng phó với vụ tự tử thương tâm của Sewell Setzer, một cậu bé 14 tuổi ở Florida đã tự tử sau khi phát triển mối quan hệ tình cảm với một chatbot.
Các yêu cầu chính của SB 243:
Luật này quy định về vụ kiện riêng với mức bồi thường thiệt hại thực tế hoặc theo luật định là 1.000 đô la cho mỗi lần vi phạm, tùy theo mức nào lớn hơn.
Dự luật SB 420 nhằm mục đích cung cấp một khuôn khổ pháp lý để đảm bảo các hệ thống AI tôn trọng nhân quyền và thúc đẩy sự công bằng, minh bạch và trách nhiệm giải trình. Luật này quy định việc phát triển và triển khai "các hệ thống ra quyết định tự động có rủi ro cao" bằng cách yêu cầu đánh giá tác động để đánh giá mục đích, việc sử dụng dữ liệu và khả năng sai lệch của chúng.
Yêu cầu thông báo cho người tiêu dùng: Theo SB 420, các cá nhân chịu sự điều chỉnh của hệ thống ra quyết định tự động phải biết khi nào công cụ được sử dụng để đưa ra quyết định về họ, được cung cấp thông tin chi tiết về hệ thống và, nếu khả thi về mặt kỹ thuật, có cơ hội kháng cáo các quyết định đó để được xem xét của con người.
Alabama, Hawaii, Illinois, Maine và Massachusetts đều đã ban hành các quy định vào năm 2025, theo đó việc không thông báo cho người tiêu dùng khi họ tương tác với chatbot AI sẽ bị coi là vi phạm Đạo luật về Hành vi hoặc Thực hành Không công bằng hoặc Lừa đảo (UDAP), khiến các công ty phải chịu sự điều tra của tổng chưởng lý và có khả năng bị kiện tụng tư nhân.
Hawaii (HB 639): Sẽ phân loại việc sử dụng chatbot AI có khả năng bắt chước hành vi của con người mà không thông báo rõ ràng và minh bạch cho người tiêu dùng là không công bằng hoặc lừa đảo. Các doanh nghiệp nhỏ vô tình sử dụng chatbot AI sẽ được miễn trừ trừ khi có thông báo rõ ràng.
Illinois (HB 3021): Sẽ sửa đổi Đạo luật chống gian lận người tiêu dùng và hành vi kinh doanh lừa đảo để yêu cầu thông báo rõ ràng khi người tiêu dùng giao tiếp với chatbot, tác nhân AI hoặc hình đại diện có thể khiến người tiêu dùng hiểu lầm rằng họ đang giao tiếp với con người.
California đã ban hành luật tiết lộ thông tin về bot đầu tiên (Cal. Bus. & Prof. Code § 17940-17942), yêu cầu phải tiết lộ khi bot được sử dụng để "cố ý lừa dối" một người cho các giao dịch thương mại hoặc gây ảnh hưởng đến bầu cử.
Đạo luật Chính sách Trí tuệ nhân tạo của Utah, có hiệu lực từ ngày 1 tháng 5 năm 2024, yêu cầu các bot hướng đến người tiêu dùng phải tiết lộ "khi được yêu cầu" rằng người tiêu dùng đang tương tác với "AI tạo ra chứ không phải con người".
Năm 2022, khách hàng của ứng dụng giảm cân Noom đã kiện công ty này vì cáo buộc vi phạm luật tiết lộ bot của California, cáo buộc Noom đã khai man rằng các thành viên sẽ nhận được các kế hoạch cá nhân hóa từ huấn luyện viên con người trong khi thực chất chúng là bot tự động. Các bên đã đạt được thỏa thuận dàn xếp trị giá 56 triệu đô la.
FTC đã ban hành hướng dẫn yêu cầu các công ty "phải minh bạch về bản chất của công cụ mà người dùng đang tương tác" và cảnh báo không nên sử dụng các công cụ tự động để lừa dối mọi người.
Theo Đạo luật AI của EU, bắt đầu từ tháng 8 năm 2026, các nhà cung cấp AI phải thông báo cho người dùng khi họ tương tác với AI, trừ khi điều đó quá rõ ràng. Nội dung do AI tạo ra phải được gắn nhãn rõ ràng theo cách máy có thể đọc được, ngoại trừ những chỉnh sửa nhỏ.
Ngay cả những công ty không tự coi mình là công ty AI cũng có thể sử dụng chatbot được quản lý. Chatbot rất phổ biến trong dịch vụ khách hàng, chăm sóc sức khỏe, ngân hàng, giáo dục, tiếp thị và giải trí.
Các công ty phải thích nghi với bối cảnh pháp lý phân mảnh với các yêu cầu khác nhau giữa các khu vực pháp lý. Việc thiếu quyền ưu tiên của liên bang đồng nghĩa với việc các công ty phải tuân thủ các yêu cầu khác nhau ở các tiểu bang khác nhau.
Các nhà lập pháp tiểu bang đang xem xét nhiều luật AI khác nhau, với hàng trăm quy định được đưa ra cho đến năm 2025, bao gồm luật bảo vệ người tiêu dùng toàn diện, quy định dành riêng cho ngành và quy định về chatbot.
Các tổ chức ưu tiên quản trị AI sẽ đạt được lợi thế cạnh tranh vì việc tuân thủ chủ động là chìa khóa để khai thác hết tiềm năng của AI đồng thời tránh được những rủi ro pháp lý.
Bối cảnh pháp lý đối với các ứng dụng AI hướng đến người tiêu dùng đang phát triển nhanh chóng, với việc California dẫn đầu trong việc thông qua luật toàn diện giải quyết cả vấn đề an toàn chatbot (SB 243) và tính minh bạch trong quyết định AI rộng hơn (SB 420).
Sự chắp vá của các quy định cấp tiểu bang này tạo ra những thách thức về tuân thủ cho các công ty hoạt động ở nhiều khu vực pháp lý, trong khi việc thiếu quyền ưu tiên của liên bang có nghĩa là các công ty phải điều chỉnh các yêu cầu khác nhau.
Việc nhấn mạnh vào tính minh bạch, quyền giám sát của con người và bảo vệ các nhóm dân số dễ bị tổn thương báo hiệu sự chuyển dịch sang quản trị AI mang tính quy định hơn, ưu tiên bảo vệ người tiêu dùng hơn là tính linh hoạt trong đổi mới.
Các ứng dụng AI hướng đến người tiêu dùng là các hệ thống trí tuệ nhân tạo tương tác trực tiếp với người tiêu dùng, bao gồm chatbot dịch vụ khách hàng, trợ lý ảo, hệ thống đề xuất và AI đàm thoại được sử dụng trong các ngành như thương mại điện tử, chăm sóc sức khỏe, dịch vụ tài chính và giải trí.
Các yêu cầu chính bao gồm:
Không, SB 243 áp dụng cụ thể cho "chatbot đồng hành" - các hệ thống AI với giao diện ngôn ngữ tự nhiên, cung cấp phản hồi thích ứng, giống con người và có khả năng đáp ứng nhu cầu xã hội của người dùng. Không phải tất cả chatbot dịch vụ khách hàng đều thuộc định nghĩa này.
Hình phạt thay đổi tùy theo tiểu bang nhưng có thể bao gồm:
Các công ty nên:
Có, Đạo luật AI áp dụng cho bất kỳ hệ thống AI nào phục vụ người dùng tại EU, bất kể công ty đặt trụ sở ở đâu. Bắt đầu từ tháng 8 năm 2026, các nhà cung cấp sẽ được yêu cầu thông báo cho người dùng khi tương tác với AI, trừ khi điều đó quá rõ ràng.
Các công ty phải tuân thủ luật pháp của mọi tiểu bang nơi họ hoạt động. Hiện tại, không có quyền ưu tiên của liên bang, vì vậy cần phải xây dựng các chiến lược tuân thủ đa tiểu bang đáp ứng các yêu cầu nghiêm ngặt nhất.
Một số luật cung cấp các miễn trừ hoặc giảm bớt yêu cầu cho các doanh nghiệp nhỏ. Ví dụ, Đạo luật HB 639 của Hawaii miễn trừ cho các doanh nghiệp nhỏ vô tình sử dụng chatbot AI, miễn là họ tuân thủ sau khi nhận được thông báo chính thức.
Nguồn và liên kết tham khảo: