Newsletter

Máy móc học hỏi từ những sai lầm của chúng ta Hiệu ứng boomerang: chúng ta dạy AI về những sai sót của mình và nó trả lại cho chúng ta những sai sót đó... nhiều hơn gấp bội!

AI kế thừa những định kiến ​​của chúng ta—và sau đó khuếch đại chúng. Chúng ta thấy những kết quả bị bóp méo—và rồi củng cố chúng. Một chu kỳ tự duy trì. Một nghiên cứu của UCL cho thấy độ lệch 4,7% trong nhận dạng khuôn mặt đã tăng lên 11,3% sau các tương tác giữa người và AI. Trong lĩnh vực nhân sự, mỗi chu kỳ làm tăng độ lệch giới tính từ 8–14%. Tin tốt là gì? Kỹ thuật "gương thuật toán"—cho các nhà quản lý thấy quyết định của họ sẽ trông như thế nào nếu được đưa ra bởi AI—giảm độ lệch tới 41%.

Một số nghiên cứu gần đây đã làm nổi bật một hiện tượng thú vị: có mối quan hệ "song chiều" giữa những thành kiến có trong các mô hình trí tuệ nhân tạo và những thành kiến trong suy nghĩ của con người.

Sự tương tác này tạo ra một cơ chế có xu hướng khuếch đại sự biến dạng nhận thức theo cả hai hướng .

Nghiên cứu này chứng minh rằng các hệ thống AI không chỉ kế thừa những thành kiến của con người từ dữ liệu đào tạo, mà khi được triển khai, chúng còn có thể gia tăng chúng, từ đó ảnh hưởng đến quá trình ra quyết định của con người. Điều này tạo ra một chu kỳ, nếu không được quản lý đúng cách, có nguy cơ làm gia tăng dần những thành kiến ban đầu.

Hiện tượng này đặc biệt rõ ràng ở các lĩnh vực quan trọng như:

Trong những bối cảnh này, những thành kiến ban đầu nhỏ có thể khuếch đại thông qua các tương tác lặp đi lặp lại giữa người vận hành và hệ thống tự động, dần dần chuyển thành những khác biệt đáng kể về kết quả .

Nguồn gốc của định kiến

Trong suy nghĩ của con người

Tâm trí con người tự nhiên sử dụng "lối tắt tư duy" có thể dẫn đến những sai sót hệ thống trong phán đoán của chúng ta. Lý thuyết " suy nghĩ kép " phân biệt giữa:

  • Suy nghĩ nhanh và trực quan (dễ bị rập khuôn)
  • Suy nghĩ chậm và sâu sắc (có khả năng sửa chữa những định kiến)

Ví dụ, trong lĩnh vực y tế, các bác sĩ có xu hướng quá coi trọng các giả thuyết ban đầu mà bỏ qua bằng chứng trái ngược. Hiện tượng này, được gọi là "thiên kiến xác nhận", được sao chép và khuếch đại bởi các hệ thống AI được đào tạo dựa trên dữ liệu chẩn đoán lịch sử.

Trong các mô hình AI

Các mô hình học máy duy trì sự thiên vị chủ yếu thông qua ba kênh:

  1. Dữ liệu đào tạo không cân bằng phản ánh sự bất bình đẳng trong lịch sử
  2. Chọn các tính năng kết hợp các thuộc tính được bảo vệ (chẳng hạn như giới tính hoặc dân tộc)
  3. Vòng phản hồi phát sinh từ các tương tác với các quyết định đã thiên vị của con người

Một nghiên cứu của UCL năm 2024 cho thấy các hệ thống nhận dạng khuôn mặt được đào tạo dựa trên các đánh giá cảm xúc của con người có xu hướng 4,7% gắn nhãn khuôn mặt là "buồn", nhưng lại khuếch đại xu hướng này lên 11,3% trong các tương tác tiếp theo với người dùng.

Họ khuếch đại lẫn nhau như thế nào

Phân tích dữ liệu từ các nền tảng tuyển dụng cho thấy mỗi vòng hợp tác giữa con người và thuật toán làm tăng định kiến giới tính từ 8-14% thông qua các cơ chế phản hồi củng cố lẫn nhau.

Khi các chuyên gia nhân sự nhận được danh sách ứng viên AI đã bị ảnh hưởng bởi các thành kiến ​​lịch sử, các tương tác tiếp theo của họ (chẳng hạn như chọn câu hỏi phỏng vấn hoặc đánh giá hiệu suất) sẽ củng cố các biểu diễn mang tính thiên vị của mô hình.

Một phân tích tổng hợp năm 2025 về 47 nghiên cứu cho thấy ba vòng hợp tác giữa con người và AI đã làm tăng chênh lệch nhân khẩu học lên 1,7–2,3 lần trong các lĩnh vực như chăm sóc sức khỏe, cho vay và giáo dục.

Các chiến lược để đo lường và giảm thiểu sự thiên vị

Định lượng thông qua học máy

Khung đo lường độ lệch do Dong và cộng sự (2024) đề xuất cho phép chúng ta phát hiện độ lệch mà không cần nhãn "sự thật hoàn toàn" bằng cách phân tích sự khác biệt trong các mô hình ra quyết định giữa các nhóm được bảo vệ.

Can thiệp nhận thức

Kỹ thuật "gương thuật toán" do các nhà nghiên cứu UCL phát triển đã giảm 41% sự thiên vị giới tính trong các quyết định thăng chức bằng cách cho các nhà quản lý thấy những lựa chọn trước đây của họ sẽ như thế nào nếu chúng được đưa ra bởi một hệ thống AI.

Các giao thức đào tạo xen kẽ giữa hỗ trợ AI và ra quyết định tự động cho thấy hiệu quả đáng kể, giúp giảm tác động chuyển giao sai lệch từ 17% xuống 6% trong các nghiên cứu chẩn đoán lâm sàng.

Ý nghĩa đối với xã hội

Các tổ chức triển khai hệ thống AI mà không cân nhắc đến sự tương tác với định kiến của con người sẽ phải đối mặt với rủi ro pháp lý và vận hành cao hơn.

Phân tích các vụ kiện phân biệt đối xử trong tuyển dụng cho thấy quy trình tuyển dụng được hỗ trợ bởi AI giúp tăng tỷ lệ thành công của nguyên đơn lên 28% so với các vụ kiện do con người thực hiện theo cách truyền thống, vì dấu vết của các quyết định thuật toán cung cấp bằng chứng rõ ràng hơn về tác động khác biệt.

Hướng tới một trí tuệ nhân tạo tôn trọng sự tự do và hiệu quả

Mối tương quan giữa các sai lệch thuật toán và hạn chế quyền tự do lựa chọn đòi hỏi chúng ta phải xem xét lại sự phát triển công nghệ từ góc độ trách nhiệm cá nhân và bảo vệ hiệu quả thị trường. Điều cần thiết là đảm bảo AI trở thành một công cụ mở rộng cơ hội, chứ không phải hạn chế chúng.

Những hướng đi đầy hứa hẹn bao gồm:

  • Các giải pháp thị trường khuyến khích phát triển các thuật toán khách quan
  • Tính minh bạch cao hơn trong các quy trình ra quyết định tự động
  • Việc bãi bỏ quy định khuyến khích sự cạnh tranh giữa các giải pháp công nghệ khác nhau

Chỉ thông qua việc tự điều chỉnh có trách nhiệm trong ngành, kết hợp với quyền tự do lựa chọn của người dùng, chúng ta mới có thể đảm bảo rằng đổi mới công nghệ tiếp tục là động lực thúc đẩy sự thịnh vượng và cơ hội cho tất cả những ai sẵn sàng thử thách kỹ năng của mình.

Tài nguyên cho sự phát triển kinh doanh

Ngày 9 tháng 11 năm 2025

Hướng dẫn đầy đủ về phần mềm Business Intelligence dành cho doanh nghiệp vừa và nhỏ

Sáu mươi phần trăm các doanh nghiệp vừa và nhỏ của Ý thừa nhận những lỗ hổng nghiêm trọng trong đào tạo dữ liệu, 29% thậm chí không có con số chuyên dụng—trong khi thị trường BI của Ý bùng nổ từ 36,79 tỷ đô la lên 69,45 tỷ đô la vào năm 2034 (Tốc độ tăng trưởng kép hàng năm (CAGR) là 8,56%). Vấn đề không phải là công nghệ, mà là cách tiếp cận: Các doanh nghiệp vừa và nhỏ đang chìm trong dữ liệu nằm rải rác trên các CRM, ERP và bảng tính Excel mà không biến chúng thành quyết định. Điều này áp dụng cho cả những người bắt đầu từ con số 0 và những người muốn tối ưu hóa. Các tiêu chí lựa chọn chính: khả năng sử dụng kéo và thả mà không cần nhiều tháng đào tạo, khả năng mở rộng phát triển cùng bạn, tích hợp gốc với các hệ thống hiện có, TCO hoàn chỉnh (triển khai + đào tạo + bảo trì) so với chỉ giá cấp phép. Lộ trình bốn giai đoạn—các mục tiêu SMART có thể đo lường được (giảm tỷ lệ khách hàng rời bỏ dịch vụ 15% trong 6 tháng), lập bản đồ các nguồn dữ liệu sạch (đầu vào rác = đầu ra rác), đào tạo nhóm về văn hóa dữ liệu, các dự án thí điểm với vòng phản hồi liên tục. AI thay đổi mọi thứ: từ BI mô tả (những gì đã xảy ra) đến phân tích tăng cường giúp khám phá các mô hình ẩn, phân tích dự đoán ước tính nhu cầu trong tương lai và phân tích theo quy định gợi ý các hành động cụ thể. Electe dân chủ hóa quyền lực này cho các doanh nghiệp vừa và nhỏ.
Ngày 9 tháng 11 năm 2025

Hệ thống làm mát AI của Google DeepMind: Trí tuệ nhân tạo cách mạng hóa hiệu quả năng lượng của trung tâm dữ liệu như thế nào

Google DeepMind đạt được mức tiết kiệm năng lượng làm mát trung tâm dữ liệu là -40% (nhưng chỉ -4% tổng mức tiêu thụ, vì làm mát chiếm 10% tổng mức tiêu thụ)—độ chính xác 99,6% với lỗi 0,4% trên PUE 1.1 bằng cách sử dụng học sâu 5 lớp, 50 nút, 19 biến đầu vào trên 184.435 mẫu đào tạo (2 năm dữ liệu). Đã xác nhận tại 3 cơ sở: Singapore (triển khai lần đầu năm 2016), Eemshaven, Council Bluffs (đầu tư 5 tỷ đô la). PUE trên toàn đội xe của Google là 1,09 so với mức trung bình của ngành là 1,56-1,58. Kiểm soát dự đoán mô hình dự đoán nhiệt độ/áp suất cho giờ tiếp theo đồng thời quản lý tải CNTT, thời tiết và trạng thái thiết bị. Bảo mật được đảm bảo: xác minh hai cấp, người vận hành luôn có thể vô hiệu hóa AI. Hạn chế quan trọng: không có xác minh độc lập từ các công ty kiểm toán/phòng thí nghiệm quốc gia, mỗi trung tâm dữ liệu yêu cầu một mô hình tùy chỉnh (8 năm, không bao giờ được thương mại hóa). Triển khai: 6-18 tháng, yêu cầu một nhóm đa ngành (khoa học dữ liệu, HVAC, quản lý cơ sở). Áp dụng ngoài các trung tâm dữ liệu: nhà máy công nghiệp, bệnh viện, trung tâm mua sắm, văn phòng công ty. 2024-2025: Google chuyển sang làm mát bằng chất lỏng trực tiếp cho TPU v5p, cho thấy những hạn chế thực tế của việc tối ưu hóa AI.
Ngày 9 tháng 11 năm 2025

Tại sao Toán học lại khó (Ngay cả khi bạn là AI)

Các mô hình ngôn ngữ không thể nhân—chúng ghi nhớ kết quả giống như chúng ta ghi nhớ số pi, nhưng điều đó không làm cho chúng có năng lực toán học. Vấn đề nằm ở cấu trúc: chúng học thông qua sự tương đồng về mặt thống kê, chứ không phải sự hiểu biết về thuật toán. Ngay cả những "mô hình suy luận" mới như o1 cũng thất bại trong các nhiệm vụ tầm thường: nó đếm đúng chữ 'r' trong "strawberry" sau vài giây xử lý, nhưng lại thất bại khi phải viết một đoạn văn mà chữ cái thứ hai của mỗi câu lại viết thành một từ. Phiên bản cao cấp 200 đô la một tháng mất bốn phút để giải quyết những gì một đứa trẻ có thể làm ngay lập tức. DeepSeek và Mistral vẫn đếm sai chữ cái vào năm 2025. Giải pháp mới nổi? Một phương pháp tiếp cận kết hợp—các mô hình thông minh nhất đã tìm ra thời điểm cần gọi một máy tính thực sự thay vì tự mình thực hiện phép tính. Chuyển đổi mô hình: AI không cần phải biết cách làm mọi thứ, nhưng phải sắp xếp các công cụ phù hợp. Nghịch lý cuối cùng: GPT-4 có thể giải thích lý thuyết giới hạn một cách xuất sắc, nhưng lại thất bại trong các bài toán nhân mà máy tính bỏ túi luôn giải đúng. Chúng rất tuyệt vời cho việc học toán - chúng giải thích với sự kiên nhẫn vô hạn, đưa ra ví dụ và phân tích lập luận phức tạp. Để tính toán chính xác? Hãy tin vào máy tính, chứ không phải trí tuệ nhân tạo.