Ngành công nghiệp AI đang tự điều chỉnh để đi trước các quy định của chính phủ và xây dựng một tương lai công nghệ có trách nhiệm.
Năm 2025 đánh dấu một bước ngoặt trong quản trị AI. Trong khi các chính phủ trên toàn thế giới đang chật vật theo kịp những tiến bộ công nghệ, ngành công nghiệp AI đã dẫn đầu bằng cách tạo ra các cơ chế tự điều chỉnh sáng tạo. Đây không phải là một sự trốn tránh trách nhiệm, mà là một chiến lược chủ động nhằm xây dựng một hệ sinh thái AI an toàn, có đạo đức và bền vững.
Chỉ có 35% công ty hiện có khuôn khổ quản trị AI, nhưng 87% lãnh đạo doanh nghiệp có kế hoạch triển khai chính sách đạo đức AI vào năm 2025, cho thấy tính cấp thiết của ngành trong việc thu hẹp khoảng cách này thông qua tự điều chỉnh.
Việc tự điều chỉnh trong AI không phải là nỗ lực trốn tránh trách nhiệm, mà là phản ứng hiệu quả nhất đối với những thách thức đặc biệt của công nghệ này:
Tốc độ thích ứng : Các hệ thống AI tự quản đòi hỏi cả sự kiểm soát về mặt tổ chức và kỹ thuật trước những hoạt động quản lý mới và liên tục thay đổi . Quản trị trong thời đại AI tạo sinh: Phương pháp tiếp cận 360° cho chính sách và quy định linh hoạt 2024 | Diễn đàn Kinh tế Thế giới . Các công ty có thể nhanh chóng điều chỉnh khuôn khổ của mình để phù hợp với những đổi mới công nghệ.
Chuyên môn kỹ thuật : Ai có thể hiểu rõ hơn các nhà phát triển và nhà nghiên cứu AI về những tác động về mặt đạo đức và bảo mật của công nghệ của họ?
Đổi mới có trách nhiệm : Nhiều tổ chức lựa chọn áp dụng các phương pháp tự quản để thúc đẩy hơn nữa sự phù hợp với các giá trị tổ chức của họ và xây dựng uy tín Cổng thông tin quan sát chính sách AI của OECD .
Điều quan trọng là phải làm rõ một hiểu lầm phổ biến. AI của OECD không tương đương với W3C về trí tuệ nhân tạo. Trong khi W3C phát triển các tiêu chuẩn kỹ thuật thông qua các chuyên gia trong ngành, thì Nguyên tắc AI của OECD là tiêu chuẩn liên chính phủ đầu tiên về AI, được 47 thành viên của OECD thông qua, đóng vai trò điều phối giữa các chính phủ chứ không phải là sự phát triển các tiêu chuẩn kỹ thuật do ngành công nghiệp dẫn dắt.
OECD có Nhóm công tác về Quản trị AI có nhiệm vụ xem xét Khuyến nghị về AI để đảm bảo khuyến nghị này vẫn phù hợp và cập nhật với sự đổi mới AI nhanh chóng . Quan hệ đối tác về AI - Trang chủ - Quan hệ đối tác về AI .
Quan hệ Đối tác về AI (PAI) là một quan hệ đối tác phi lợi nhuận giữa các tổ chức học thuật, xã hội dân sự, ngành công nghiệp và truyền thông, cùng nhau tạo ra các giải pháp AI nhằm thúc đẩy những kết quả tích cực cho con người và xã hội . Các công ty cam kết với AI có trách nhiệm: Từ nguyên tắc đến triển khai và quy định? | Triết lý & Công nghệ .
Tiến hóa chiến lược : Quan hệ đối tác bắt đầu như một hoạt động tự điều chỉnh trên toàn ngành, nhưng chẳng bao lâu sau, các bên liên quan khác đã được mời và tham gia với tư cách là đối tác, biến sáng kiến này thành một thỏa thuận 'đồng điều chỉnh tư nhân' Quan hệ đối tác về phản ứng của AI đối với… .
Kết quả cụ thể :
Liên minh Quản trị AI quy tụ hơn 250 thành viên từ hơn 200 tổ chức, được cấu trúc xung quanh ba nhóm làm việc trung tâm : Thiết kế các hệ thống AI minh bạch và toàn diện - Liên minh Quản trị AI
Phiên họp kết thúc với sự nhấn mạnh mạnh mẽ vào nhu cầu tự quản của các ngành công nghiệp trong bối cảnh công nghệ ngày càng phát triển và môi trường pháp lý thay đổi . 3 đặc điểm thiết yếu của quản trị AI tạo ra toàn cầu | Diễn đàn Kinh tế Thế giới .
Vào ngày 21 tháng 7 năm 2023, bảy công ty AI hàng đầu—Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI—đã cam kết với Nhà Trắng trong tám cam kết tự nguyện trên Cổng thông tin quan sát chính sách AI của OECD về phát triển AI an toàn.
Kết quả có thể đo lường :
Ủy ban đã khởi động Hiệp ước AI, một sáng kiến tự nguyện nhằm hỗ trợ việc triển khai trong tương lai và kêu gọi các nhà cung cấp và triển khai AI từ Châu Âu và các nơi khác tuân thủ các nghĩa vụ chính của Đạo luật AI trước thời hạn Quy định về AI trên toàn thế giới - năm 2025 .
Việc tự điều chỉnh chủ động có thể ngăn chặn việc chính phủ quản lý quá mức, vốn có thể kìm hãm sự đổi mới. Hoa Kỳ đã khởi động Dự án Stargate, một sáng kiến cơ sở hạ tầng AI trị giá 500 tỷ đô la . Các công ty AI đã hứa sẽ tự điều chỉnh một năm trước. Điều gì đã thay đổi? | MIT Technology Review , báo cáo về một cách tiếp cận thân thiện với ngành.
88% các công ty tầm trung sử dụng AI tạo ra cho biết công nghệ này có tác động tích cực hơn đến tổ chức của họ so với mong đợi AI tại nơi làm việc: Báo cáo năm 2025 | McKinsey , chứng minh cách tự điều chỉnh có trách nhiệm xây dựng lòng tin.
Các công ty AI lớn đã phản đối mạnh mẽ các nỗ lực quản lý toàn diện ở phương Tây, nhưng lại nhận được sự chào đón nồng nhiệt từ các nhà lãnh đạo ở nhiều quốc gia khác Luật AI tại Hoa Kỳ: Tổng quan năm 2025 - SIG .
Các tổ chức có thể lập bản đồ các trường hợp sử dụng AI và đánh giá mức độ rủi ro liên quan, thành lập các ủy ban đánh giá nội bộ cho các mô hình có tác động cao bằng cách sử dụng Khung quản lý rủi ro AI | NIST .
Các tổ chức có thể lựa chọn tận dụng các phương pháp và khuôn khổ tự nguyện như Khuôn khổ quản lý rủi ro AI NIST của Hoa Kỳ, khuôn khổ AI Verify của Singapore và Cổng thông tin quan sát chính sách AI của OECD thuộc Viện kiểm tra an toàn AI của Vương quốc Anh.
Khung này nhấn mạnh nhu cầu phát triển tính minh bạch, phù hợp với các giá trị nhân văn, tính trung thực có thể kiểm chứng và kiểm toán hậu sự kiện. Suy ngẫm về tương lai của AI của Liên minh Quản trị AI | Diễn đàn Kinh tế Thế giới .
Việc tự quản lý các hệ thống AI sẽ bao gồm cả các biện pháp kiểm soát về mặt tổ chức và ngày càng tự động hóa về mặt kỹ thuật . Quản trị trong Kỷ nguyên AI Tạo sinh: Phương pháp tiếp cận 360° cho Chính sách và Quy định Linh hoạt 2024 | Diễn đàn Kinh tế Thế giới . Tự động hóa sẽ là điều cần thiết khi công nghệ đạt đến tốc độ và trí tuệ đòi hỏi khả năng kiểm soát theo thời gian thực.
Liên minh Quản trị AI đang kêu gọi sự hợp tác giữa các chính phủ, khu vực tư nhân và cộng đồng địa phương để đảm bảo tương lai của AI mang lại lợi ích cho tất cả mọi người . Diễn đàn Kinh tế Thế giới thành lập Liên minh Quản trị AI để Đảm bảo An toàn trong Việc sử dụng Trí tuệ Nhân tạo - Lexology .
Tự điều chỉnh của AI vào năm 2025 đại diện cho một mô hình quản trị công nghệ sáng tạo kết hợp:
Bằng cách thúc đẩy hợp tác liên ngành, đảm bảo sự sẵn sàng cho những thay đổi công nghệ trong tương lai và thúc đẩy hợp tác quốc tế, chúng ta có thể xây dựng một cấu trúc quản trị vừa kiên cường vừa thích ứng . Diễn đàn Kinh tế Thế giới ra mắt Liên minh Quản trị AI tập trung vào AI tạo ra có trách nhiệm > Thông cáo báo chí | Diễn đàn Kinh tế Thế giới .
Tự điều chỉnh AI là một cách tiếp cận chủ động trong đó các công ty và tổ chức ngành tự nguyện phát triển các tiêu chuẩn, nguyên tắc và thực hành để đảm bảo phát triển và triển khai trí tuệ nhân tạo một cách có trách nhiệm, dự đoán và ngăn chặn nhu cầu về quy định nghiêm ngặt của chính phủ.
Tự điều chỉnh mang lại sự linh hoạt cao hơn, khả năng thích ứng nhanh hơn với các đổi mới công nghệ và tận dụng chuyên môn kỹ thuật của các nhà phát triển. Nó cũng ngăn chặn tình trạng quản lý quá mức có thể kìm hãm sự đổi mới và duy trì khả năng cạnh tranh toàn cầu của ngành.
Những cái chính bao gồm:
Không, bằng chứng cho thấy những kết quả cụ thể: việc tạo ra Cơ sở dữ liệu Sự cố AI, phát triển các khuôn khổ truyền thông tổng hợp, triển khai các hoạt động nhóm đỏ và đầu tư đáng kể vào an ninh mạng. Đây là những hành động cụ thể, không chỉ là những tuyên bố suông.
Bắt đầu với:
Đúng vậy, các tiêu chuẩn do các tổ chức như OECD và Đối tác về AI phát triển đang được áp dụng trên toàn cầu. Tuy nhiên, vẫn có những khác biệt giữa các khu vực: trong khi EU ủng hộ quy định chính thức, các quốc gia như Ấn Độ đang áp dụng các phương pháp tự điều chỉnh hợp tác với ngành công nghiệp.
Những rủi ro chính bao gồm:
Tương lai sẽ hình dung các biện pháp kiểm soát kỹ thuật ngày càng tự động hóa, sự hợp tác chặt chẽ hơn giữa nhiều bên liên quan, các tiêu chuẩn toàn cầu được hài hòa và sự cân bằng năng động giữa việc tự điều chỉnh chủ động và quy định hỗ trợ của chính phủ.
Nguồn và liên kết hữu ích:
Bài viết này dựa trên nghiên cứu chuyên sâu và các nguồn đáng tin cậy tính đến năm 2025.