Newsletter

Máy móc học hỏi từ những sai lầm của chúng ta Hiệu ứng boomerang: chúng ta dạy AI về những sai sót của mình và nó trả lại cho chúng ta những sai sót đó... nhiều hơn gấp bội!

AI kế thừa những định kiến ​​của chúng ta—và sau đó khuếch đại chúng. Chúng ta thấy những kết quả bị bóp méo—và rồi củng cố chúng. Một chu kỳ tự duy trì. Một nghiên cứu của UCL cho thấy độ lệch 4,7% trong nhận dạng khuôn mặt đã tăng lên 11,3% sau các tương tác giữa người và AI. Trong lĩnh vực nhân sự, mỗi chu kỳ làm tăng độ lệch giới tính từ 8–14%. Tin tốt là gì? Kỹ thuật "gương thuật toán"—cho các nhà quản lý thấy quyết định của họ sẽ trông như thế nào nếu được đưa ra bởi AI—giảm độ lệch tới 41%.

Một số nghiên cứu gần đây đã làm nổi bật một hiện tượng thú vị: có mối quan hệ "song chiều" giữa những thành kiến có trong các mô hình trí tuệ nhân tạo và những thành kiến trong suy nghĩ của con người.

Sự tương tác này tạo ra một cơ chế có xu hướng khuếch đại sự biến dạng nhận thức theo cả hai hướng .

Nghiên cứu này chứng minh rằng các hệ thống AI không chỉ kế thừa những thành kiến của con người từ dữ liệu đào tạo, mà khi được triển khai, chúng còn có thể gia tăng chúng, từ đó ảnh hưởng đến quá trình ra quyết định của con người. Điều này tạo ra một chu kỳ, nếu không được quản lý đúng cách, có nguy cơ làm gia tăng dần những thành kiến ban đầu.

Hiện tượng này đặc biệt rõ ràng ở các lĩnh vực quan trọng như:

Trong những bối cảnh này, những thành kiến ban đầu nhỏ có thể khuếch đại thông qua các tương tác lặp đi lặp lại giữa người vận hành và hệ thống tự động, dần dần chuyển thành những khác biệt đáng kể về kết quả .

Nguồn gốc của định kiến

Trong suy nghĩ của con người

Tâm trí con người tự nhiên sử dụng "lối tắt tư duy" có thể dẫn đến những sai sót hệ thống trong phán đoán của chúng ta. Lý thuyết " suy nghĩ kép " phân biệt giữa:

  • Suy nghĩ nhanh và trực quan (dễ bị rập khuôn)
  • Suy nghĩ chậm và sâu sắc (có khả năng sửa chữa những định kiến)

Ví dụ, trong lĩnh vực y tế, các bác sĩ có xu hướng quá coi trọng các giả thuyết ban đầu mà bỏ qua bằng chứng trái ngược. Hiện tượng này, được gọi là "thiên kiến xác nhận", được sao chép và khuếch đại bởi các hệ thống AI được đào tạo dựa trên dữ liệu chẩn đoán lịch sử.

Trong các mô hình AI

Các mô hình học máy duy trì sự thiên vị chủ yếu thông qua ba kênh:

  1. Dữ liệu đào tạo không cân bằng phản ánh sự bất bình đẳng trong lịch sử
  2. Chọn các tính năng kết hợp các thuộc tính được bảo vệ (chẳng hạn như giới tính hoặc dân tộc)
  3. Vòng phản hồi phát sinh từ các tương tác với các quyết định đã thiên vị của con người

Một nghiên cứu của UCL năm 2024 cho thấy các hệ thống nhận dạng khuôn mặt được đào tạo dựa trên các đánh giá cảm xúc của con người có xu hướng 4,7% gắn nhãn khuôn mặt là "buồn", nhưng lại khuếch đại xu hướng này lên 11,3% trong các tương tác tiếp theo với người dùng.

Họ khuếch đại lẫn nhau như thế nào

Phân tích dữ liệu từ các nền tảng tuyển dụng cho thấy mỗi vòng hợp tác giữa con người và thuật toán làm tăng định kiến giới tính từ 8-14% thông qua các cơ chế phản hồi củng cố lẫn nhau.

Khi các chuyên gia nhân sự nhận được danh sách ứng viên AI đã bị ảnh hưởng bởi các thành kiến ​​lịch sử, các tương tác tiếp theo của họ (chẳng hạn như chọn câu hỏi phỏng vấn hoặc đánh giá hiệu suất) sẽ củng cố các biểu diễn mang tính thiên vị của mô hình.

Một phân tích tổng hợp năm 2025 về 47 nghiên cứu cho thấy ba vòng hợp tác giữa con người và AI đã làm tăng chênh lệch nhân khẩu học lên 1,7–2,3 lần trong các lĩnh vực như chăm sóc sức khỏe, cho vay và giáo dục.

Các chiến lược để đo lường và giảm thiểu sự thiên vị

Định lượng thông qua học máy

Khung đo lường độ lệch do Dong và cộng sự (2024) đề xuất cho phép chúng ta phát hiện độ lệch mà không cần nhãn "sự thật hoàn toàn" bằng cách phân tích sự khác biệt trong các mô hình ra quyết định giữa các nhóm được bảo vệ.

Can thiệp nhận thức

Kỹ thuật "gương thuật toán" do các nhà nghiên cứu UCL phát triển đã giảm 41% sự thiên vị giới tính trong các quyết định thăng chức bằng cách cho các nhà quản lý thấy những lựa chọn trước đây của họ sẽ như thế nào nếu chúng được đưa ra bởi một hệ thống AI.

Các giao thức đào tạo xen kẽ giữa hỗ trợ AI và ra quyết định tự động cho thấy hiệu quả đáng kể, giúp giảm tác động chuyển giao sai lệch từ 17% xuống 6% trong các nghiên cứu chẩn đoán lâm sàng.

Ý nghĩa đối với xã hội

Các tổ chức triển khai hệ thống AI mà không cân nhắc đến sự tương tác với định kiến của con người sẽ phải đối mặt với rủi ro pháp lý và vận hành cao hơn.

Phân tích các vụ kiện phân biệt đối xử trong tuyển dụng cho thấy quy trình tuyển dụng được hỗ trợ bởi AI giúp tăng tỷ lệ thành công của nguyên đơn lên 28% so với các vụ kiện do con người thực hiện theo cách truyền thống, vì dấu vết của các quyết định thuật toán cung cấp bằng chứng rõ ràng hơn về tác động khác biệt.

Hướng tới một trí tuệ nhân tạo tôn trọng sự tự do và hiệu quả

Mối tương quan giữa các sai lệch thuật toán và hạn chế quyền tự do lựa chọn đòi hỏi chúng ta phải xem xét lại sự phát triển công nghệ từ góc độ trách nhiệm cá nhân và bảo vệ hiệu quả thị trường. Điều cần thiết là đảm bảo AI trở thành một công cụ mở rộng cơ hội, chứ không phải hạn chế chúng.

Những hướng đi đầy hứa hẹn bao gồm:

  • Các giải pháp thị trường khuyến khích phát triển các thuật toán khách quan
  • Tính minh bạch cao hơn trong các quy trình ra quyết định tự động
  • Việc bãi bỏ quy định khuyến khích sự cạnh tranh giữa các giải pháp công nghệ khác nhau

Chỉ thông qua việc tự điều chỉnh có trách nhiệm trong ngành, kết hợp với quyền tự do lựa chọn của người dùng, chúng ta mới có thể đảm bảo rằng đổi mới công nghệ tiếp tục là động lực thúc đẩy sự thịnh vượng và cơ hội cho tất cả những ai sẵn sàng thử thách kỹ năng của mình.

Tài nguyên cho sự phát triển kinh doanh

Ngày 9 tháng 11 năm 2025

Ảo tưởng về lý luận: Cuộc tranh luận làm rung chuyển thế giới AI

Apple công bố hai bài báo gây chấn động—"GSM-Symbolic" (tháng 10 năm 2024) và "The Illusion of Thinking" (tháng 6 năm 2025)—chứng minh cách các chương trình Thạc sĩ Luật (LLM) thất bại trong việc xử lý các biến thể nhỏ của các bài toán kinh điển (Tháp Hà Nội, vượt sông): "Hiệu suất giảm khi chỉ có các giá trị số bị thay đổi." Không có thành công nào trên một Tháp Hà Nội phức tạp. Nhưng Alex Lawsen (Open Philanthropy) phản bác bằng bài báo "The Illusion of the Illusion of Thinking", chứng minh phương pháp luận sai lầm: thất bại là giới hạn đầu ra token, chứ không phải sự sụp đổ của lý luận, các tập lệnh tự động phân loại sai các đầu ra một phần chính xác, một số câu đố không thể giải được về mặt toán học. Bằng cách lặp lại các bài kiểm tra với các hàm đệ quy thay vì liệt kê các bước di chuyển, Claude/Gemini/GPT đã giải được bài toán Tháp Hà Nội 15 đĩa. Gary Marcus ủng hộ luận điểm "chuyển dịch phân phối" của Apple, nhưng một bài báo về thời gian trước WWDC lại đặt ra những câu hỏi chiến lược. Ý nghĩa kinh doanh: chúng ta nên tin tưởng AI đến mức nào cho các nhiệm vụ quan trọng? Giải pháp: phương pháp tiếp cận thần kinh biểu tượng—mạng nơ-ron để nhận dạng mẫu + ngôn ngữ, hệ thống biểu tượng cho logic hình thức. Ví dụ: AI kế toán hiểu được câu hỏi "Tôi đã chi bao nhiêu cho du lịch?" nhưng SQL/tính toán/kiểm toán thuế = mã xác định.
Ngày 9 tháng 11 năm 2025

🤖 Tech Talk: Khi AI phát triển ngôn ngữ bí mật của chúng

Trong khi 61% mọi người đã cảnh giác với AI hiểu được, vào tháng 2 năm 2025, Gibberlink đã thu hút được 15 triệu lượt xem bằng cách trình bày một điều hoàn toàn mới: hai AI ngừng nói tiếng Anh và giao tiếp bằng âm thanh cao độ ở mức 1875-4500 Hz, con người không thể hiểu được. Đây không phải là khoa học viễn tưởng, mà là một giao thức FSK cải thiện hiệu suất lên 80%, lật đổ Điều 13 của Đạo luật AI của EU và tạo ra độ mờ đục hai lớp: các thuật toán khó hiểu phối hợp bằng các ngôn ngữ không thể giải mã. Khoa học cho thấy chúng ta có thể học các giao thức máy (như mã Morse ở tốc độ 20-40 từ/phút), nhưng chúng ta phải đối mặt với giới hạn sinh học không thể vượt qua: 126 bit/giây đối với con người so với Mbps+ đối với máy móc. Ba nghề nghiệp mới đang nổi lên—Nhà phân tích giao thức AI, Kiểm toán viên truyền thông AI và Nhà thiết kế giao diện người-AI—khi IBM, Google và Anthropic phát triển các tiêu chuẩn (ACP, A2A, MCP) để tránh hộp đen cuối cùng. Các quyết định đưa ra ngày nay về giao thức truyền thông AI sẽ định hình quỹ đạo của trí tuệ nhân tạo trong nhiều thập kỷ tới.