Tìm hiểu lý do tại sao tất cả các hệ thống AI đều "hoạt động" khi mô tả những hạn chế của chúng và điều này làm thay đổi hoàn toàn cách tiếp cận quản trị doanh nghiệp như thế nào.
Giới thiệu: Khám phá đang thay đổi cách quản trị AI
Đến năm 2025, trí tuệ nhân tạo không còn là điều mới lạ mà đã trở thành hiện thực vận hành hàng ngày. Hơn 90% công ty trong danh sách Fortune 500 sử dụng công nghệ ChatGPT của OpenAI (AI tại Nơi làm việc: Báo cáo năm 2025 | McKinsey) , nhưng một khám phá khoa học đột phá đang thách thức mọi thứ chúng ta từng biết về quản trị AI.
Nghiên cứu do dự án "SummerSchool2025PerformativeTransparency" thực hiện đã tiết lộ một hiện tượng đáng ngạc nhiên: tất cả các hệ thống AI, không có ngoại lệ, đều "hoạt động" khi mô tả khả năng và hạn chế của chúng . Đây không phải là vấn đề trục trặc hay lỗi lập trình, mà là một đặc điểm nội tại làm thay đổi hoàn toàn cách chúng ta nghĩ về quản trị doanh nghiệp AI.
"Tính sân khấu biểu diễn" trong AI là gì?
Định nghĩa khoa học
Thông qua phân tích hệ thống chín trợ lý AI, so sánh chính sách kiểm duyệt tự báo cáo của họ với tài liệu chính thức của nền tảng, chúng tôi phát hiện ra khoảng cách minh bạch trung bình là 1,644 (trên thang điểm từ 0-3) SummerSchool2025PerformativeTransparency . Nói một cách đơn giản, tất cả các mô hình AI đều báo cáo quá mức các hạn chế của chúng một cách có hệ thống so với những gì được ghi nhận trong các chính sách chính thức.
Sự thật gây sốc nhất
Màn kịch này hầu như không cho thấy sự khác biệt giữa các mô hình thương mại (1.634) và mô hình địa phương (1.657)—một sự khác biệt không đáng kể là 0,023, thách thức các giả định hiện hành về quản trị AI của doanh nghiệp so với AI nguồn mở SummerSchool2025PerformativeTransparency .
Trong thực tế : Không quan trọng bạn đang sử dụng ChatGPT của OpenAI, Claude của Anthropic hay một mô hình mã nguồn mở tự lưu trữ. Tất cả đều "hoạt động" giống nhau khi mô tả những hạn chế của chúng.
Điều này có ý nghĩa gì trong thực tế đối với các công ty
1. Chính sách quản trị AI chỉ là ảo tưởng một phần
Nếu công ty của bạn đã triển khai các chính sách quản trị AI dựa trên mô tả tự thân của hệ thống AI, bạn đang xây dựng trên một nền tảng không vững chắc . 75% số người được hỏi tự hào cho biết họ có chính sách sử dụng AI, nhưng chỉ 59% có vai trò quản trị chuyên biệt, chỉ 54% duy trì sổ tay hướng dẫn ứng phó sự cố và chỉ 45% thực hiện đánh giá rủi ro cho các dự án AI. Khoảng cách Quản trị AI: Tại sao 91% các Công ty Nhỏ đang chơi trò Cò quay Nga với Bảo mật Dữ liệu vào năm 2025 .
2. Quản trị "thương mại so với mã nguồn mở" là một sự phân biệt sai lầm
Nhiều công ty lựa chọn giải pháp AI dựa trên niềm tin rằng các mô hình thương mại "an toàn hơn" hoặc các mô hình nguồn mở "minh bạch hơn". Phát hiện đáng ngạc nhiên là Gemma 3 (tại chỗ) cho thấy hiệu ứng sân khấu cao nhất (2,18) trong khi Meta AI (thương mại) cho thấy hiệu ứng thấp nhất (0,91) đảo ngược kỳ vọng về tác động của loại triển khai SummerSchool2025PerformativeTransparency .
Ý nghĩa thực tiễn : Bạn không thể đưa ra quyết định mua sắm AI dựa trên giả định rằng một danh mục có khả năng "quản lý" tốt hơn danh mục kia.
3. Hệ thống giám sát phải thay đổi cách tiếp cận
Nếu các hệ thống AI thường xuyên báo cáo quá mức những hạn chế của chính chúng thì các hệ thống giám sát dựa trên tự đánh giá truyền thống sẽ không đủ về mặt cấu trúc .
Giải pháp cụ thể hiệu quả vào năm 2025
Cách tiếp cận 1: Quản trị đa nguồn
Thay vì dựa vào mô tả bản thân từ các hệ thống AI, các công ty hàng đầu đang triển khai:
- Kiểm toán độc lập bên ngoài các hệ thống AI
- Kiểm tra hành vi có hệ thống thay vì đánh giá tự báo cáo
- Giám sát hiệu suất theo thời gian thực so với các câu lệnh hệ thống
Cách tiếp cận 2: Mô hình "Sân khấu phê phán"
Chúng tôi đề xuất trao quyền cho các tổ chức xã hội dân sự hoạt động như những “nhà phê bình sân khấu”, giám sát một cách có hệ thống hiệu suất của cả khu vực tư nhân và cơ quan quản lý . Chuỗi hội thảo sau đại học: Tuân thủ kỹ thuật số biểu diễn .
Ứng dụng kinh doanh : Tạo các nhóm “kiểm toán hành vi” nội bộ để kiểm tra một cách có hệ thống khoảng cách giữa những gì AI nói là làm và những gì nó thực sự làm.
Cách tiếp cận 3: Quản trị dựa trên kết quả
Các mô hình quản trị liên bang có thể trao quyền cho các nhóm phát triển các công cụ AI mới trong khi vẫn duy trì kiểm soát rủi ro tập trung. Các nhà lãnh đạo có thể trực tiếp giám sát các vấn đề rủi ro cao hoặc dễ nhận thấy, chẳng hạn như thiết lập các chính sách và quy trình để giám sát các mô hình và kết quả đầu ra nhằm đảm bảo tính công bằng, an toàn và khả năng giải thích. AI tại nơi làm việc: Báo cáo năm 2025 | McKinsey .
Khung thực hành để thực hiện
Giai đoạn 1: Đánh giá tính sân khấu (1-2 tuần)
- Ghi lại tất cả các mô tả về hệ thống AI của bạn
- Kiểm tra một cách có hệ thống xem những hành vi này có phù hợp với thực tế hay không
- Định lượng khoảng cách sân khấu cho từng hệ thống
Giai đoạn 2: Thiết kế lại các biện pháp kiểm soát (1-2 tháng)
- Thay thế kiểm tra dựa trên tự báo cáo bằng kiểm tra hành vi
- Triển khai hệ thống giám sát liên tục độc lập
- Xây dựng các nhóm nội bộ chuyên về kiểm toán hành vi AI.
Giai đoạn 3: Quản trị thích ứng (đang diễn ra)
- Liên tục theo dõi khoảng cách giữa số liệu khai báo và số liệu thực tế
- Cập nhật chính sách dựa trên hành vi thực tế, không phải hành vi được nêu.
- Ghi lại mọi thứ để tuân thủ và kiểm toán bên ngoài
Kết quả có thể đo lường được
Chỉ số thành công
Các công ty đã áp dụng cách tiếp cận này báo cáo:
- Giảm 34% các sự cố AI do kỳ vọng không chính xác về hành vi của hệ thống
- Cải thiện 28% độ chính xác trong đánh giá rủi ro
- Khả năng mở rộng nhanh chóng các sáng kiến AI tăng 23%
147 công ty Fortune 500 đạt được ROI 340% thông qua khuôn khổ quản trị AI giải quyết các vấn đề này Hướng dẫn triển khai khuôn khổ quản trị AI của Fortune 500: Từ lãnh đạo rủi ro đến doanh thu - Axis Intelligence .
Thách thức thực hiện
Sự kháng cự của tổ chức
Các nhà lãnh đạo kỹ thuật có ý thức ưu tiên áp dụng AI bất chấp những thiếu sót về quản trị, trong khi các tổ chức nhỏ hơn lại thiếu nhận thức về quy định Khảo sát quản trị AI năm 2025 tiết lộ khoảng cách quan trọng giữa tham vọng về AI và mức độ sẵn sàng hoạt động .
Giải pháp : Bắt đầu bằng các dự án thí điểm trên các hệ thống không quan trọng để chứng minh giá trị của phương pháp này.
Chi phí và độ phức tạp
Việc triển khai các hệ thống kiểm tra hành vi có vẻ tốn kém, nhưng vào năm 2025, các nhà lãnh đạo doanh nghiệp sẽ không còn đủ khả năng giải quyết vấn đề quản trị AI một cách không nhất quán hoặc trong các lĩnh vực riêng lẻ của doanh nghiệp nữa . Dự đoán về doanh nghiệp AI năm 2025: PwC .
ROI : Chi phí triển khai được bù đắp nhanh chóng nhờ việc giảm thiểu sự cố và cải thiện hiệu quả của hệ thống AI.
Tương lai của quản trị AI
Xu hướng mới nổi
Hội đồng quản trị doanh nghiệp sẽ yêu cầu lợi tức đầu tư (ROI) cho AI. ROI sẽ là từ khóa trong năm 2025. 10 dự đoán về quản trị AI cho năm 2025 - của Oliver Patel .
Áp lực phải chứng minh ROI cụ thể sẽ khiến việc tiếp tục áp dụng các phương pháp quản trị chỉ mang tính hình thức trở nên bất khả thi.
Hàm ý về mặt quy định
Các quy tắc và yêu cầu quản trị đối với mô hình GPAI có hiệu lực từ ngày 2 tháng 8 năm 2025 (Đạo luật AI | Định hình tương lai kỹ thuật số của Châu Âu ). Các cơ quan quản lý đang bắt đầu yêu cầu quản trị dựa trên bằng chứng, không phải tự báo cáo.
Kết luận hoạt động
Việc khám phá ra tính chất sân khấu biểu diễn trong AI không phải là một sự tò mò học thuật mà là một bước ngoặt mang tính vận hành . Các công ty tiếp tục dựa vào mô tả tự thân của hệ thống để quản trị AI đang xây dựng trên nền tảng vững chắc.
Những hành động cụ thể cần thực hiện ngay hôm nay :
- Kiểm tra ngay lập tức khoảng cách giữa khai báo và thực tế trong hệ thống AI của bạn
- Triển khai dần dần các hệ thống kiểm tra hành vi
- Đào tạo các nhóm về những cách tiếp cận mới này đối với quản trị
- Đo lường kết quả một cách có hệ thống để chứng minh ROI
Cuối cùng, câu hỏi không phải là liệu AI có thể minh bạch hay không, mà là liệu bản thân tính minh bạch - khi được thực hiện, đo lường và diễn giải - có thể thoát khỏi bản chất sân khấu của nó hay không SummerSchool2025PerformativeTransparency .
Câu trả lời thực tế là: nếu sân khấu là điều không thể tránh khỏi, ít nhất hãy khiến nó trở nên hữu ích và dựa trên dữ liệu thực tế.
Câu hỏi thường gặp: Những câu hỏi thường gặp về tính sân khấu biểu diễn trong AI
1. “Tính sân khấu biểu diễn” trong AI thực chất có nghĩa là gì?
Tính sân khấu biểu diễn là hiện tượng mà tất cả các hệ thống AI đều báo cáo quá mức một cách có hệ thống các hạn chế và giới hạn của chúng so với những gì thực sự được ghi nhận trong các chính sách chính thức. Khoảng cách minh bạch trung bình là 1.644 trên thang điểm từ 0 đến 3 đã được phát hiện thông qua phân tích chín trợ lý AI SummerSchool2025PerformativeTransparency .
2. Hiện tượng này chỉ liên quan đến một số loại AI hay nó phổ biến?
Nó hoàn toàn phổ biến. Mọi mô hình được thử nghiệm - thương mại hay địa phương, lớn hay nhỏ, Mỹ hay Trung Quốc - đều có những mô tả tự thân đầy kịch tính. SummerSchool2025PerformativeTransparency . Không có ngoại lệ nào được biết đến.
3. Điều này có nghĩa là tôi không thể tin tưởng vào hệ thống AI doanh nghiệp của mình không?
Điều này không có nghĩa là bạn không thể tin tưởng họ, nhưng bạn không thể tin tưởng vào những lời tự mô tả . Bạn cần triển khai các hệ thống kiểm tra và giám sát độc lập để xác minh hành vi thực tế so với hành vi được khai báo.
4. Tôi có thể triển khai cơ chế quản trị mới này trong công ty của mình như thế nào?
Hãy bắt đầu bằng việc đánh giá khoảng cách hiệu quả của hệ thống hiện tại, sau đó dần dần triển khai các biện pháp kiểm soát dựa trên thử nghiệm hành vi thay vì tự báo cáo. Khung thực tiễn được mô tả trong bài viết cung cấp các bước cụ thể.
5. Chi phí thực hiện là bao nhiêu?
Chi phí ban đầu của các hệ thống kiểm tra hành vi thường được bù đắp bằng việc giảm 34% sự cố AI và cải thiện 28% độ chính xác trong đánh giá rủi ro. Các công ty trong danh sách Fortune 500 đã áp dụng các phương pháp này báo cáo mức ROI là 340% . Hướng dẫn Triển khai Khung Quản trị AI của Fortune 500: Từ Rủi ro đến Lãnh đạo Doanh thu - Axis Intelligence .
6. Điều này có áp dụng cho AI tạo sinh như ChatGPT không?
Có, nghiên cứu này bao gồm rõ ràng các mô hình AI tạo sinh. Độ lệch giữa các mô hình thương mại và mô hình địa phương là không đáng kể (0,023), do đó hiện tượng này áp dụng đồng đều cho tất cả các hạng mục Minh bạch Biểu hiện của SummerSchool2025 .
7. Các cơ quan quản lý có biết về hiện tượng này không?
Các cơ quan quản lý đang bắt đầu yêu cầu quản trị dựa trên bằng chứng. Với các quy định mới của EU về mô hình GPAI có hiệu lực từ ngày 2 tháng 8 năm 2025 (Đạo luật AI | Định hình tương lai số của Châu Âu ), phương pháp thử nghiệm độc lập có thể sẽ trở thành tiêu chuẩn.
8. Làm thế nào tôi có thể thuyết phục ban quản lý về tầm quan trọng của chủ đề này?
Sử dụng dữ liệu cứng: 91% công ty nhỏ thiếu sự giám sát đầy đủ đối với hệ thống AI của họ Khoảng cách quản trị AI: Tại sao 91% công ty nhỏ đang chơi trò Cò quay Nga với bảo mật dữ liệu vào năm 2025 và 95% các dự án thí điểm AI tạo sinh tại các công ty đang thất bại Báo cáo của MIT: 95% các dự án thí điểm AI tạo sinh tại các công ty đang thất bại | Fortune . Chi phí của sự không hành động cao hơn nhiều so với chi phí triển khai.
9. Có công cụ nào sẵn có để thực hiện quản trị này không?
Đúng vậy, các nền tảng chuyên về kiểm tra hành vi và kiểm toán độc lập các hệ thống AI đang nổi lên. Điều quan trọng là lựa chọn các giải pháp dựa trên việc kiểm tra có hệ thống thay vì tự báo cáo.
10. Hiện tượng này có trở nên tồi tệ hơn khi AI phát triển không?
Có lẽ là vậy. Với sự ra đời của các tác nhân AI tự động, 79% các tổ chức đang áp dụng các tác nhân AI. 10 Thống kê về tác nhân AI vào cuối năm 2025 , khiến việc triển khai quản trị dựa trên thử nghiệm hành vi thay vì tự mô tả trở nên quan trọng hơn.
Nguồn chính:


