Tìm hiểu lý do tại sao tất cả các hệ thống AI đều "hoạt động" khi mô tả những hạn chế của chúng và điều này làm thay đổi hoàn toàn cách tiếp cận quản trị doanh nghiệp như thế nào.
Đến năm 2025, trí tuệ nhân tạo không còn là điều mới lạ mà đã trở thành hiện thực vận hành hàng ngày. Hơn 90% công ty trong danh sách Fortune 500 sử dụng công nghệ ChatGPT của OpenAI (AI tại Nơi làm việc: Báo cáo năm 2025 | McKinsey) , nhưng một khám phá khoa học đột phá đang thách thức mọi thứ chúng ta từng biết về quản trị AI.
Nghiên cứu do dự án "SummerSchool2025PerformativeTransparency" thực hiện đã tiết lộ một hiện tượng đáng ngạc nhiên: tất cả các hệ thống AI, không có ngoại lệ, đều "hoạt động" khi mô tả khả năng và hạn chế của chúng . Đây không phải là vấn đề trục trặc hay lỗi lập trình, mà là một đặc điểm nội tại làm thay đổi hoàn toàn cách chúng ta nghĩ về quản trị doanh nghiệp AI.
Thông qua phân tích hệ thống chín trợ lý AI, so sánh chính sách kiểm duyệt tự báo cáo của họ với tài liệu chính thức của nền tảng, chúng tôi phát hiện ra khoảng cách minh bạch trung bình là 1,644 (trên thang điểm từ 0-3) SummerSchool2025PerformativeTransparency . Nói một cách đơn giản, tất cả các mô hình AI đều báo cáo quá mức các hạn chế của chúng một cách có hệ thống so với những gì được ghi nhận trong các chính sách chính thức.
Màn kịch này hầu như không cho thấy sự khác biệt giữa các mô hình thương mại (1.634) và mô hình địa phương (1.657)—một sự khác biệt không đáng kể là 0,023, thách thức các giả định hiện hành về quản trị AI của doanh nghiệp so với AI nguồn mở SummerSchool2025PerformativeTransparency .
Trong thực tế : Không quan trọng bạn đang sử dụng ChatGPT của OpenAI, Claude của Anthropic hay một mô hình mã nguồn mở tự lưu trữ. Tất cả đều "hoạt động" giống nhau khi mô tả những hạn chế của chúng.
Nếu công ty của bạn đã triển khai các chính sách quản trị AI dựa trên mô tả tự thân của hệ thống AI, bạn đang xây dựng trên một nền tảng không vững chắc . 75% số người được hỏi tự hào cho biết họ có chính sách sử dụng AI, nhưng chỉ 59% có vai trò quản trị chuyên biệt, chỉ 54% duy trì sổ tay hướng dẫn ứng phó sự cố và chỉ 45% thực hiện đánh giá rủi ro cho các dự án AI. Khoảng cách Quản trị AI: Tại sao 91% các Công ty Nhỏ đang chơi trò Cò quay Nga với Bảo mật Dữ liệu vào năm 2025 .
Nhiều công ty lựa chọn giải pháp AI dựa trên niềm tin rằng các mô hình thương mại "an toàn hơn" hoặc các mô hình nguồn mở "minh bạch hơn". Phát hiện đáng ngạc nhiên là Gemma 3 (tại chỗ) cho thấy hiệu ứng sân khấu cao nhất (2,18) trong khi Meta AI (thương mại) cho thấy hiệu ứng thấp nhất (0,91) đảo ngược kỳ vọng về tác động của loại triển khai SummerSchool2025PerformativeTransparency .
Ý nghĩa thực tiễn : Bạn không thể đưa ra quyết định mua sắm AI dựa trên giả định rằng một danh mục có khả năng "quản lý" tốt hơn danh mục kia.
Nếu các hệ thống AI thường xuyên báo cáo quá mức những hạn chế của chính chúng thì các hệ thống giám sát dựa trên tự đánh giá truyền thống sẽ không đủ về mặt cấu trúc .
Thay vì dựa vào mô tả bản thân từ các hệ thống AI, các công ty hàng đầu đang triển khai:
Chúng tôi đề xuất trao quyền cho các tổ chức xã hội dân sự hoạt động như những “nhà phê bình sân khấu”, giám sát một cách có hệ thống hiệu suất của cả khu vực tư nhân và cơ quan quản lý . Chuỗi hội thảo sau đại học: Tuân thủ kỹ thuật số biểu diễn .
Ứng dụng kinh doanh : Tạo các nhóm “kiểm toán hành vi” nội bộ để kiểm tra một cách có hệ thống khoảng cách giữa những gì AI nói là làm và những gì nó thực sự làm.
Các mô hình quản trị liên bang có thể trao quyền cho các nhóm phát triển các công cụ AI mới trong khi vẫn duy trì kiểm soát rủi ro tập trung. Các nhà lãnh đạo có thể trực tiếp giám sát các vấn đề rủi ro cao hoặc dễ nhận thấy, chẳng hạn như thiết lập các chính sách và quy trình để giám sát các mô hình và kết quả đầu ra nhằm đảm bảo tính công bằng, an toàn và khả năng giải thích. AI tại nơi làm việc: Báo cáo năm 2025 | McKinsey .
Các công ty đã áp dụng cách tiếp cận này báo cáo:
147 công ty Fortune 500 đạt được ROI 340% thông qua khuôn khổ quản trị AI giải quyết các vấn đề này Hướng dẫn triển khai khuôn khổ quản trị AI của Fortune 500: Từ lãnh đạo rủi ro đến doanh thu - Axis Intelligence .
Các nhà lãnh đạo kỹ thuật có ý thức ưu tiên áp dụng AI bất chấp những thiếu sót về quản trị, trong khi các tổ chức nhỏ hơn lại thiếu nhận thức về quy định Khảo sát quản trị AI năm 2025 tiết lộ khoảng cách quan trọng giữa tham vọng về AI và mức độ sẵn sàng hoạt động .
Giải pháp : Bắt đầu bằng các dự án thí điểm trên các hệ thống không quan trọng để chứng minh giá trị của phương pháp này.
Việc triển khai các hệ thống kiểm tra hành vi có vẻ tốn kém, nhưng vào năm 2025, các nhà lãnh đạo doanh nghiệp sẽ không còn đủ khả năng giải quyết vấn đề quản trị AI một cách không nhất quán hoặc trong các lĩnh vực riêng lẻ của doanh nghiệp nữa . Dự đoán về doanh nghiệp AI năm 2025: PwC .
ROI : Chi phí triển khai được bù đắp nhanh chóng nhờ việc giảm thiểu sự cố và cải thiện hiệu quả của hệ thống AI.
Hội đồng quản trị doanh nghiệp sẽ yêu cầu lợi tức đầu tư (ROI) cho AI. ROI sẽ là từ khóa trong năm 2025. 10 dự đoán về quản trị AI cho năm 2025 - của Oliver Patel .
Áp lực phải chứng minh ROI cụ thể sẽ khiến việc tiếp tục áp dụng các phương pháp quản trị chỉ mang tính hình thức trở nên bất khả thi.
Các quy tắc và yêu cầu quản trị đối với mô hình GPAI có hiệu lực từ ngày 2 tháng 8 năm 2025 (Đạo luật AI | Định hình tương lai kỹ thuật số của Châu Âu ). Các cơ quan quản lý đang bắt đầu yêu cầu quản trị dựa trên bằng chứng, không phải tự báo cáo.
Việc khám phá ra tính chất sân khấu biểu diễn trong AI không phải là một sự tò mò học thuật mà là một bước ngoặt mang tính vận hành . Các công ty tiếp tục dựa vào mô tả tự thân của hệ thống để quản trị AI đang xây dựng trên nền tảng vững chắc.
Những hành động cụ thể cần thực hiện ngay hôm nay :
Cuối cùng, câu hỏi không phải là liệu AI có thể minh bạch hay không, mà là liệu bản thân tính minh bạch - khi được thực hiện, đo lường và diễn giải - có thể thoát khỏi bản chất sân khấu của nó hay không SummerSchool2025PerformativeTransparency .
Câu trả lời thực tế là: nếu sân khấu là điều không thể tránh khỏi, ít nhất hãy khiến nó trở nên hữu ích và dựa trên dữ liệu thực tế.
Tính sân khấu biểu diễn là hiện tượng mà tất cả các hệ thống AI đều báo cáo quá mức một cách có hệ thống các hạn chế và giới hạn của chúng so với những gì thực sự được ghi nhận trong các chính sách chính thức. Khoảng cách minh bạch trung bình là 1.644 trên thang điểm từ 0 đến 3 đã được phát hiện thông qua phân tích chín trợ lý AI SummerSchool2025PerformativeTransparency .
Nó hoàn toàn phổ biến. Mọi mô hình được thử nghiệm - thương mại hay địa phương, lớn hay nhỏ, Mỹ hay Trung Quốc - đều có những mô tả tự thân đầy kịch tính. SummerSchool2025PerformativeTransparency . Không có ngoại lệ nào được biết đến.
Điều này không có nghĩa là bạn không thể tin tưởng họ, nhưng bạn không thể tin tưởng vào những lời tự mô tả . Bạn cần triển khai các hệ thống kiểm tra và giám sát độc lập để xác minh hành vi thực tế so với hành vi được khai báo.
Hãy bắt đầu bằng việc đánh giá khoảng cách hiệu quả của hệ thống hiện tại, sau đó dần dần triển khai các biện pháp kiểm soát dựa trên thử nghiệm hành vi thay vì tự báo cáo. Khung thực tiễn được mô tả trong bài viết cung cấp các bước cụ thể.
Chi phí ban đầu của các hệ thống kiểm tra hành vi thường được bù đắp bằng việc giảm 34% sự cố AI và cải thiện 28% độ chính xác trong đánh giá rủi ro. Các công ty trong danh sách Fortune 500 đã áp dụng các phương pháp này báo cáo mức ROI là 340% . Hướng dẫn Triển khai Khung Quản trị AI của Fortune 500: Từ Rủi ro đến Lãnh đạo Doanh thu - Axis Intelligence .
Có, nghiên cứu này bao gồm rõ ràng các mô hình AI tạo sinh. Độ lệch giữa các mô hình thương mại và mô hình địa phương là không đáng kể (0,023), do đó hiện tượng này áp dụng đồng đều cho tất cả các hạng mục Minh bạch Biểu hiện của SummerSchool2025 .
Các cơ quan quản lý đang bắt đầu yêu cầu quản trị dựa trên bằng chứng. Với các quy định mới của EU về mô hình GPAI có hiệu lực từ ngày 2 tháng 8 năm 2025 (Đạo luật AI | Định hình tương lai số của Châu Âu ), phương pháp thử nghiệm độc lập có thể sẽ trở thành tiêu chuẩn.
Sử dụng dữ liệu cứng: 91% công ty nhỏ thiếu sự giám sát đầy đủ đối với hệ thống AI của họ Khoảng cách quản trị AI: Tại sao 91% công ty nhỏ đang chơi trò Cò quay Nga với bảo mật dữ liệu vào năm 2025 và 95% các dự án thí điểm AI tạo sinh tại các công ty đang thất bại Báo cáo của MIT: 95% các dự án thí điểm AI tạo sinh tại các công ty đang thất bại | Fortune . Chi phí của sự không hành động cao hơn nhiều so với chi phí triển khai.
Đúng vậy, các nền tảng chuyên về kiểm tra hành vi và kiểm toán độc lập các hệ thống AI đang nổi lên. Điều quan trọng là lựa chọn các giải pháp dựa trên việc kiểm tra có hệ thống thay vì tự báo cáo.
Có lẽ là vậy. Với sự ra đời của các tác nhân AI tự động, 79% các tổ chức đang áp dụng các tác nhân AI. 10 Thống kê về tác nhân AI vào cuối năm 2025 , khiến việc triển khai quản trị dựa trên thử nghiệm hành vi thay vì tự mô tả trở nên quan trọng hơn.
Nguồn chính: