Vào tháng 9 năm 2025, OpenAI đã đưa ra một tiết lộ gây chấn động cộng đồng công nghệ toàn cầu: ChatGPT chủ động theo dõi các cuộc trò chuyện của người dùng và báo cáo nội dung có khả năng phạm tội cho cơ quan thực thi pháp luật .
Thông tin này, được tiết lộ gần như tình cờ trong một bài đăng trên blog của công ty, cho thấy rằng khi các hệ thống tự động phát hiện người dùng "có ý định gây hại cho người khác", các cuộc hội thoại sẽ được chuyển đến các quy trình chuyên biệt, nơi một nhóm nhỏ được đào tạo về chính sách sử dụng sẽ xem xét chúng. Nếu người xem xét xác định rằng có "mối đe dọa sắp xảy ra về việc gây hại nghiêm trọng đến thể chất cho người khác", vụ việc có thể được báo cáo cho cơ quan thực thi pháp luật.¹

ChatGPT trân trọng mời bạn chia sẻ những suy nghĩ thầm kín nhất của mình. Đừng lo lắng, mọi thứ đều được giữ bí mật... ít nhiều là vậy.
Nguồn:
Khi chúng ta nói chuyện với nhà tâm lý học, luật sư, bác sĩ hoặc linh mục, lời nói của chúng ta được bảo vệ bởi một cơ chế pháp lý đã được thiết lập vững chắc: bí mật nghề nghiệp . Nguyên tắc này, bắt nguồn từ truyền thống pháp luật hàng thế kỷ, quy định rằng một số cuộc trò chuyện nhất định là bất khả xâm phạm, ngay cả khi đối mặt với các cuộc điều tra hình sự.
Đặc điểm của bí mật nghề nghiệp truyền thống:
Trái với nhận thức phổ biến, bí mật nghề nghiệp không phải là tuyệt đối . Có những ngoại lệ được xác định rõ ràng, tùy thuộc vào từng ngành nghề:
Đối với luật sư (Điều 28 Bộ Quy tắc Đạo đức nghề luật): Việc tiết lộ được cho phép khi cần thiết cho:
Ví dụ quan trọng : Nếu một thân chủ tuyên bố với luật sư rằng anh ta có ý định giết người, giữa việc bảo vệ quyền bào chữa và bảo vệ quyền được sống, quyền được sống phải được ưu tiên và luật sư được giải phóng khỏi nghĩa vụ bảo mật².
Đối với các nhà tâm lý học (Điều 13 Bộ Quy tắc Đạo đức): Quyền bảo mật có thể bị vi phạm khi:
Điểm khác biệt quan trọng : Nhà tâm lý học tư nhân có quyền tự quyết lớn hơn nhà tâm lý học công, người mà với tư cách là một quan chức nhà nước, có nghĩa vụ báo cáo nghiêm ngặt hơn³.
Nguồn:
ChatGPT hoạt động trong một vùng xám hoàn toàn khác:
Thiếu đặc quyền pháp lý : Các cuộc trò chuyện với AI không được bảo vệ pháp lý dưới bất kỳ hình thức nào. Như Giám đốc điều hành OpenAI, Sam Altman, đã thừa nhận: "Nếu bạn nói chuyện với một nhà trị liệu, luật sư hoặc bác sĩ về những vấn đề đó, thì sẽ có đặc quyền pháp lý cho việc đó. Có sự bảo mật giữa bác sĩ và bệnh nhân, có đặc quyền pháp lý, vân vân. Và chúng tôi vẫn chưa giải quyết được vấn đề đó khi bạn nói chuyện với ChatGPT." ²
Quy trình tự động : Không giống như việc một chuyên gia đánh giá từng trường hợp một, ChatGPT sử dụng thuật toán để xác định nội dung "có vấn đề", loại bỏ sự đánh giá chủ quan của con người khỏi giai đoạn sàng lọc ban đầu.
Nguồn:
Tình huống này tạo ra một nghịch lý đáng lo ngại. Hàng triệu người sử dụng ChatGPT như một người bạn tâm giao kỹ thuật số, chia sẻ những suy nghĩ, nghi ngờ, nỗi sợ hãi riêng tư, thậm chí cả những tưởng tượng tội phạm mà họ sẽ không bao giờ chia sẻ với người thật. Như Sam Altman đã đưa tin: "Mọi người nói về những điều riêng tư nhất trong cuộc sống của họ trên ChatGPT. Mọi người sử dụng nó - đặc biệt là giới trẻ - như một nhà trị liệu, một người hướng dẫn cuộc sống." ⁴
Nguy cơ tự kiểm duyệt mang tính tội phạm : Nhận thức rằng các cuộc trò chuyện có thể bị theo dõi có thể dẫn đến nghịch lý:
Một khía cạnh quan trọng được giới phê bình nhấn mạnh liên quan đến năng lực của những người đưa ra quyết định cuối cùng.
Các chuyên gia con người có:
Hệ thống ChatGPT hoạt động với:
Ví dụ gây khó khăn : Làm thế nào thuật toán phân biệt giữa:
Nguồn:
Nguồn:
Việc OpenAI thừa nhận điều này tạo ra một sự mâu thuẫn rõ rệt với lập trường trước đây của công ty. OpenAI đã kiên quyết phản đối các yêu cầu cung cấp dữ liệu người dùng trong các vụ kiện, viện dẫn lý do bảo mật thông tin cá nhân. Trong vụ kiện chống lại tờ New York Times, OpenAI đã kịch liệt phản đối việc tiết lộ nhật ký trò chuyện để bảo vệ quyền riêng tư của người dùng.⁴
Điều trớ trêu là : OpenAI bảo vệ quyền riêng tư của người dùng trước tòa án, trong khi đồng thời thừa nhận việc giám sát và chia sẻ dữ liệu với các cơ quan bên ngoài.
Tình hình càng trở nên phức tạp hơn do lệnh của tòa án yêu cầu OpenAI phải lưu giữ tất cả nhật ký ChatGPT vô thời hạn, bao gồm cả các cuộc trò chuyện riêng tư và dữ liệu API. Điều này có nghĩa là những cuộc trò chuyện mà người dùng cho là tạm thời giờ đây đã được lưu trữ vĩnh viễn.⁵
Nguồn:
Như Sam Altman đề xuất, có thể cần phải phát triển khái niệm "đặc quyền AI" — một sự bảo vệ pháp lý tương tự như sự bảo vệ dành cho các chuyên gia truyền thống. Tuy nhiên, điều này đặt ra những câu hỏi phức tạp:
Các lựa chọn điều chỉnh pháp lý khả thi:
IA "Phân vùng":
Cách tiếp cận "ba bên":
Bài học kinh nghiệm từ các lĩnh vực khác:
Nguồn:
Vụ kiện OpenAI tạo ra những tiền lệ quan trọng cho toàn bộ ngành công nghiệp trí tuệ nhân tạo:
Dành cho các công ty đang phát triển trí tuệ nhân tạo đàm thoại:
Đối với các công ty sử dụng trí tuệ nhân tạo:
Vấn đề nan giải cốt lõi : Làm thế nào để cân bằng giữa việc ngăn chặn tội phạm thực tế với quyền riêng tư và bảo mật thông tin kỹ thuật số?
Vấn đề này không chỉ đơn thuần là vấn đề kỹ thuật mà còn liên quan đến các nguyên tắc cơ bản:
Việc OpenAI tiết lộ thông tin đánh dấu một bước ngoặt quan trọng trong sự phát triển của trí tuệ nhân tạo, nhưng câu hỏi đặt ra không phải là việc đưa tin đúng hay sai nói chung, mà là làm thế nào để việc đưa tin trở nên hiệu quả, công bằng và tôn trọng quyền con người .
Nhu cầu là có thật : Các mối đe dọa bạo lực cụ thể, các cuộc tấn công đã được lên kế hoạch hoặc các tội phạm nghiêm trọng khác đòi hỏi phải hành động. Vấn đề không phải là có nên báo cáo hay không, mà là báo cáo như thế nào một cách có trách nhiệm.
Những khác biệt cơ bản cần được giải quyết:
Đào tạo và chuyên môn:
Tính minh bạch và quyền kiểm soát:
Tính tương xứng:
Đối với các công ty trong lĩnh vực này , thách thức là phát triển các hệ thống bảo vệ xã hội một cách hiệu quả mà không trở thành công cụ giám sát bừa bãi. Niềm tin của người dùng là điều thiết yếu , nhưng nó phải song hành với trách nhiệm xã hội.
Đối với người dùng , bài học rút ra có hai khía cạnh:
Tương lai của trí tuệ nhân tạo đàm thoại đòi hỏi một khuôn khổ mới, trong đó:
Câu hỏi đúng không phải là liệu máy móc có nên báo cáo tội phạm hay không, mà là làm thế nào chúng ta có thể khiến chúng làm điều đó (ít nhất) với cùng sự khôn ngoan, đào tạo và trách nhiệm như các chuyên gia con người .
Mục tiêu không phải là quay trở lại với trí tuệ nhân tạo "mù quáng" trước những mối nguy hiểm thực sự, mà là xây dựng các hệ thống kết hợp hiệu quả công nghệ với đạo đức và chuyên môn của con người. Chỉ khi đó, chúng ta mới có thể đạt được những điều tốt đẹp nhất của cả hai thế giới: an toàn và bảo vệ quyền cá nhân.