Khi các tổ chức ngày càng áp dụng các giải pháp AI để thúc đẩy hiệu quả và đổi mới, các mối quan tâm về bảo mật dữ liệu và quyền riêng tư đã trở thành ưu tiên hàng đầu. Như đã nêu trong bản tóm tắt của sách trắng Stanford về Quyền riêng tư và Bảo vệ Dữ liệu trong Kỷ nguyên AI (2023), "dữ liệu là nền tảng của tất cả các hệ thống AI" và "sự phát triển của AI sẽ tiếp tục làm tăng nhu cầu dữ liệu đào tạo của các nhà phát triển, thúc đẩy cuộc đua thu thập dữ liệu thậm chí còn lớn hơn so với những thập kỷ trước." Mặc dù AI mang đến những cơ hội to lớn, nhưng nó cũng đặt ra những thách thức riêng biệt đòi hỏi chúng ta phải xem xét lại một cách cơ bản các phương pháp tiếp cận bảo vệ dữ liệu. Bài viết này xem xét các cân nhắc chính về bảo mật và quyền riêng tư cho các tổ chức triển khai hệ thống AI và cung cấp hướng dẫn thực tế để bảo vệ dữ liệu nhạy cảm trong suốt vòng đời của AI.
Như đã nêu bật trong Chương 2 của sách trắng Stanford, "Bảo vệ Dữ liệu và Quyền riêng tư: Các Khái niệm Chính và Bối cảnh Quy định", việc quản lý dữ liệu trong kỷ nguyên AI đòi hỏi một phương pháp tiếp cận xem xét các khía cạnh liên kết với nhau, vượt ra ngoài phạm vi bảo mật kỹ thuật đơn thuần. Theo bản tóm tắt, có ba khuyến nghị chính để giảm thiểu rủi ro về quyền riêng tư dữ liệu do sự phát triển và ứng dụng AI gây ra:
Những khía cạnh này đòi hỏi những cách tiếp cận cụ thể vượt ra ngoài các hoạt động an ninh mạng truyền thống.
Như sách trắng của Stanford đã nêu rõ, "việc thu thập dữ liệu phần lớn không bị hạn chế gây ra những rủi ro riêng tư vượt ra ngoài phạm vi cá nhân—chúng tích tụ lại gây ra những tác hại cho xã hội mà không thể giải quyết chỉ thông qua việc thực hiện các quyền dữ liệu cá nhân". Đây là một trong những quan sát quan trọng nhất của bản tóm tắt và kêu gọi chúng ta phải xem xét lại một cách cơ bản các chiến lược bảo vệ dữ liệu của mình.
Trích dẫn trực tiếp từ gợi ý đầu tiên trong bản tóm tắt của Stanford:
Đề xuất triển khai : Triển khai hệ thống phân loại dữ liệu tự động dán nhãn các mục nhạy cảm và áp dụng các biện pháp kiểm soát phù hợp dựa trên mức độ nhạy cảm, với cài đặt mặc định là không thu thập.
.png)
Theo khuyến nghị thứ hai trong bản tóm tắt của Stanford, tính minh bạch và trách nhiệm giải trình trong toàn bộ chuỗi cung ứng dữ liệu là điều cần thiết đối với bất kỳ hệ thống quản lý nào giải quyết vấn đề quyền riêng tư dữ liệu.
Sách trắng nêu rõ rằng cần phải "tập trung vào chuỗi cung ứng dữ liệu AI để cải thiện quyền riêng tư và bảo vệ dữ liệu. Đảm bảo tính minh bạch và trách nhiệm giải trình của các tập dữ liệu trong suốt vòng đời của chúng phải là mục tiêu của bất kỳ hệ thống quản lý nào giải quyết vấn đề quyền riêng tư dữ liệu". Điều này bao gồm:
Đề xuất triển khai : Triển khai hệ thống xuất xứ dữ liệu ghi lại toàn bộ vòng đời của dữ liệu được sử dụng trong đào tạo và vận hành hệ thống AI.
Khuyến nghị thứ ba trong bản tóm tắt của Stanford nêu rõ rằng "cần phải thay đổi cách tiếp cận trong việc tạo và quản lý dữ liệu cá nhân". Theo tài liệu, "Các nhà hoạch định chính sách nên hỗ trợ việc phát triển các cơ chế quản trị và cơ sở hạ tầng kỹ thuật mới (ví dụ: trung gian dữ liệu và cơ sở hạ tầng ủy quyền dữ liệu) để hỗ trợ và tự động hóa việc thực hiện các quyền và sở thích dữ liệu cá nhân."
Đề xuất triển khai : Áp dụng hoặc đóng góp vào việc phát triển các tiêu chuẩn mở cho việc cấp phép dữ liệu, cho phép khả năng tương tác giữa các hệ thống và dịch vụ khác nhau.
Bản thân các mô hình AI cần có biện pháp bảo vệ cụ thể:
Đề xuất triển khai : Thiết lập “cổng bảo mật” trong quy trình phát triển yêu cầu xác thực bảo mật và quyền riêng tư trước khi đưa mô hình vào sản xuất.
Hệ thống AI phải đối mặt với các hướng tấn công độc đáo:
Đề xuất triển khai : Triển khai các kỹ thuật đào tạo đối kháng đặc biệt để phơi bày các mô hình trước các vectơ tấn công tiềm ẩn trong quá trình phát triển.
Nhu cầu về quyền riêng tư và bảo mật khác nhau đáng kể giữa các ngành:
Để triển khai phương pháp tiếp cận toàn diện về quyền riêng tư và bảo mật dữ liệu trong AI cần:
.png)
Một tổ chức tài chính toàn cầu đã triển khai hệ thống phát hiện gian lận dựa trên AI với phương pháp tiếp cận nhiều lớp:
Như đã nêu rõ trong phần tóm tắt của sách trắng Stanford, "mặc dù các luật về quyền riêng tư hiện hành và được đề xuất, dựa trên các Thực hành Thông tin Công bằng (FIP) được chấp nhận trên toàn cầu, ngầm điều chỉnh sự phát triển của AI, nhưng chúng vẫn chưa đủ để giải quyết vấn nạn thu thập dữ liệu và những tác hại đối với quyền riêng tư của cá nhân và hệ thống do đó gây ra." Hơn nữa, "ngay cả luật có chứa các điều khoản rõ ràng về việc ra quyết định theo thuật toán và các hình thức AI khác cũng không cung cấp các biện pháp quản trị dữ liệu cần thiết để điều chỉnh một cách có ý nghĩa dữ liệu được sử dụng trong các hệ thống AI."
Trong thời đại AI, việc bảo vệ dữ liệu và quyền riêng tư không còn bị coi nhẹ. Các tổ chức phải tuân thủ ba khuyến nghị chính của sách trắng:
Việc triển khai các khuyến nghị này đại diện cho một sự chuyển đổi căn bản trong cách chúng ta suy nghĩ và quản lý dữ liệu trong hệ sinh thái AI. Như phân tích trong sách trắng của Stanford cho thấy, các hoạt động thu thập và sử dụng dữ liệu hiện tại là không bền vững và có nguy cơ làm suy yếu niềm tin của công chúng vào các hệ thống AI, đồng thời tạo ra các lỗ hổng hệ thống vượt xa phạm vi cá nhân.
Bối cảnh pháp lý đã và đang thay đổi để ứng phó với những thách thức này, bằng chứng là các cuộc thảo luận quốc tế ngày càng gia tăng về nhu cầu quản lý không chỉ đầu ra AI mà còn cả quy trình thu thập dữ liệu hỗ trợ các hệ thống này. Tuy nhiên, chỉ tuân thủ quy định thôi là chưa đủ.
Các tổ chức áp dụng phương pháp tiếp cận quản lý dữ liệu một cách đạo đức và minh bạch sẽ có vị thế tốt hơn trong môi trường mới này, đạt được lợi thế cạnh tranh thông qua niềm tin của người dùng và khả năng phục hồi hoạt động tốt hơn. Thách thức đặt ra là cân bằng giữa đổi mới công nghệ với trách nhiệm xã hội, nhận thức rằng tính bền vững thực sự của AI phụ thuộc vào khả năng tôn trọng và bảo vệ các quyền cơ bản của những người mà nó phục vụ.