Newsletter

Máy móc học hỏi từ những sai lầm của chúng ta Hiệu ứng boomerang: chúng ta dạy AI về những sai sót của mình và nó trả lại cho chúng ta những sai sót đó... nhiều hơn gấp bội!

AI kế thừa những định kiến ​​của chúng ta—và sau đó khuếch đại chúng. Chúng ta thấy những kết quả bị bóp méo—và rồi củng cố chúng. Một chu kỳ tự duy trì. Một nghiên cứu của UCL cho thấy độ lệch 4,7% trong nhận dạng khuôn mặt đã tăng lên 11,3% sau các tương tác giữa người và AI. Trong lĩnh vực nhân sự, mỗi chu kỳ làm tăng độ lệch giới tính từ 8–14%. Tin tốt là gì? Kỹ thuật "gương thuật toán"—cho các nhà quản lý thấy quyết định của họ sẽ trông như thế nào nếu được đưa ra bởi AI—giảm độ lệch tới 41%.

Một số nghiên cứu gần đây đã làm nổi bật một hiện tượng thú vị: có mối quan hệ "song chiều" giữa những thành kiến có trong các mô hình trí tuệ nhân tạo và những thành kiến trong suy nghĩ của con người.

Sự tương tác này tạo ra một cơ chế có xu hướng khuếch đại sự biến dạng nhận thức theo cả hai hướng .

Nghiên cứu này chứng minh rằng các hệ thống AI không chỉ kế thừa những thành kiến của con người từ dữ liệu đào tạo, mà khi được triển khai, chúng còn có thể gia tăng chúng, từ đó ảnh hưởng đến quá trình ra quyết định của con người. Điều này tạo ra một chu kỳ, nếu không được quản lý đúng cách, có nguy cơ làm gia tăng dần những thành kiến ban đầu.

Hiện tượng này đặc biệt rõ ràng ở các lĩnh vực quan trọng như:

Trong những bối cảnh này, những thành kiến ban đầu nhỏ có thể khuếch đại thông qua các tương tác lặp đi lặp lại giữa người vận hành và hệ thống tự động, dần dần chuyển thành những khác biệt đáng kể về kết quả .

Nguồn gốc của định kiến

Trong suy nghĩ của con người

Tâm trí con người tự nhiên sử dụng "lối tắt tư duy" có thể dẫn đến những sai sót hệ thống trong phán đoán của chúng ta. Lý thuyết " suy nghĩ kép " phân biệt giữa:

  • Suy nghĩ nhanh và trực quan (dễ bị rập khuôn)
  • Suy nghĩ chậm và sâu sắc (có khả năng sửa chữa những định kiến)

Ví dụ, trong lĩnh vực y tế, các bác sĩ có xu hướng quá coi trọng các giả thuyết ban đầu mà bỏ qua bằng chứng trái ngược. Hiện tượng này, được gọi là "thiên kiến xác nhận", được sao chép và khuếch đại bởi các hệ thống AI được đào tạo dựa trên dữ liệu chẩn đoán lịch sử.

Trong các mô hình AI

Các mô hình học máy duy trì sự thiên vị chủ yếu thông qua ba kênh:

  1. Dữ liệu đào tạo không cân bằng phản ánh sự bất bình đẳng trong lịch sử
  2. Chọn các tính năng kết hợp các thuộc tính được bảo vệ (chẳng hạn như giới tính hoặc dân tộc)
  3. Vòng phản hồi phát sinh từ các tương tác với các quyết định đã thiên vị của con người

Một nghiên cứu của UCL năm 2024 cho thấy các hệ thống nhận dạng khuôn mặt được đào tạo dựa trên các đánh giá cảm xúc của con người có xu hướng 4,7% gắn nhãn khuôn mặt là "buồn", nhưng lại khuếch đại xu hướng này lên 11,3% trong các tương tác tiếp theo với người dùng.

Họ khuếch đại lẫn nhau như thế nào

Phân tích dữ liệu từ các nền tảng tuyển dụng cho thấy mỗi vòng hợp tác giữa con người và thuật toán làm tăng định kiến giới tính từ 8-14% thông qua các cơ chế phản hồi củng cố lẫn nhau.

Khi các chuyên gia nhân sự nhận được danh sách ứng viên AI đã bị ảnh hưởng bởi các thành kiến ​​lịch sử, các tương tác tiếp theo của họ (chẳng hạn như chọn câu hỏi phỏng vấn hoặc đánh giá hiệu suất) sẽ củng cố các biểu diễn mang tính thiên vị của mô hình.

Một phân tích tổng hợp năm 2025 về 47 nghiên cứu cho thấy ba vòng hợp tác giữa con người và AI đã làm tăng chênh lệch nhân khẩu học lên 1,7–2,3 lần trong các lĩnh vực như chăm sóc sức khỏe, cho vay và giáo dục.

Các chiến lược để đo lường và giảm thiểu sự thiên vị

Định lượng thông qua học máy

Khung đo lường độ lệch do Dong và cộng sự (2024) đề xuất cho phép chúng ta phát hiện độ lệch mà không cần nhãn "sự thật hoàn toàn" bằng cách phân tích sự khác biệt trong các mô hình ra quyết định giữa các nhóm được bảo vệ.

Can thiệp nhận thức

Kỹ thuật "gương thuật toán" do các nhà nghiên cứu UCL phát triển đã giảm 41% sự thiên vị giới tính trong các quyết định thăng chức bằng cách cho các nhà quản lý thấy những lựa chọn trước đây của họ sẽ như thế nào nếu chúng được đưa ra bởi một hệ thống AI.

Các giao thức đào tạo xen kẽ giữa hỗ trợ AI và ra quyết định tự động cho thấy hiệu quả đáng kể, giúp giảm tác động chuyển giao sai lệch từ 17% xuống 6% trong các nghiên cứu chẩn đoán lâm sàng.

Ý nghĩa đối với xã hội

Các tổ chức triển khai hệ thống AI mà không cân nhắc đến sự tương tác với định kiến của con người sẽ phải đối mặt với rủi ro pháp lý và vận hành cao hơn.

Phân tích các vụ kiện phân biệt đối xử trong tuyển dụng cho thấy quy trình tuyển dụng được hỗ trợ bởi AI giúp tăng tỷ lệ thành công của nguyên đơn lên 28% so với các vụ kiện do con người thực hiện theo cách truyền thống, vì dấu vết của các quyết định thuật toán cung cấp bằng chứng rõ ràng hơn về tác động khác biệt.

Hướng tới một trí tuệ nhân tạo tôn trọng sự tự do và hiệu quả

Mối tương quan giữa các sai lệch thuật toán và hạn chế quyền tự do lựa chọn đòi hỏi chúng ta phải xem xét lại sự phát triển công nghệ từ góc độ trách nhiệm cá nhân và bảo vệ hiệu quả thị trường. Điều cần thiết là đảm bảo AI trở thành một công cụ mở rộng cơ hội, chứ không phải hạn chế chúng.

Những hướng đi đầy hứa hẹn bao gồm:

  • Các giải pháp thị trường khuyến khích phát triển các thuật toán khách quan
  • Tính minh bạch cao hơn trong các quy trình ra quyết định tự động
  • Việc bãi bỏ quy định khuyến khích sự cạnh tranh giữa các giải pháp công nghệ khác nhau

Chỉ thông qua việc tự điều chỉnh có trách nhiệm trong ngành, kết hợp với quyền tự do lựa chọn của người dùng, chúng ta mới có thể đảm bảo rằng đổi mới công nghệ tiếp tục là động lực thúc đẩy sự thịnh vượng và cơ hội cho tất cả những ai sẵn sàng thử thách kỹ năng của mình.

Tài nguyên cho sự phát triển kinh doanh

Ngày 9 tháng 11 năm 2025

Quy định về AI cho các ứng dụng tiêu dùng: Cách chuẩn bị cho các quy định mới năm 2025

Năm 2025 đánh dấu sự kết thúc của kỷ nguyên "Miền Tây Hoang dã" của AI: Đạo luật AI của EU có hiệu lực vào tháng 8 năm 2024, với các yêu cầu về kiến ​​thức AI từ ngày 2 tháng 2 năm 2025, và quản trị cùng GPAI từ ngày 2 tháng 8. California dẫn đầu với SB 243 (ra đời sau vụ tự tử của Sewell Setzer, một cậu bé 14 tuổi đã phát triển mối quan hệ tình cảm với chatbot), trong đó áp đặt lệnh cấm các hệ thống khen thưởng cưỡng chế, phát hiện ý định tự tử, nhắc nhở "Tôi không phải là người" ba giờ một lần, kiểm toán công khai độc lập và phạt 1.000 đô la cho mỗi vi phạm. SB 420 yêu cầu đánh giá tác động đối với "các quyết định tự động có rủi ro cao" với quyền kháng cáo lên cơ quan chức năng. Thực thi thực tế: Noom bị kiện vào năm 2022 vì bot đóng giả làm huấn luyện viên con người, một khoản bồi thường trị giá 56 triệu đô la. Xu hướng quốc gia: Alabama, Hawaii, Illinois, Maine và Massachusetts phân loại việc không thông báo cho chatbot AI là vi phạm UDAP. Phương pháp tiếp cận rủi ro ba cấp độ—các hệ thống quan trọng (y tế/giao thông/năng lượng), chứng nhận trước khi triển khai, công bố thông tin minh bạch hướng đến người tiêu dùng, đăng ký mục đích chung và kiểm tra bảo mật. Quy định chắp vá mà không có quyền ưu tiên của liên bang: các công ty đa quốc gia phải điều chỉnh các yêu cầu thay đổi. EU từ tháng 8 năm 2026: thông báo cho người dùng về tương tác AI trừ khi nội dung rõ ràng do AI tạo ra được gắn nhãn là có thể đọc được bằng máy.
Ngày 9 tháng 11 năm 2025

Quản lý những thứ không được tạo ra: Liệu châu Âu có nguy cơ mất đi sự liên quan về mặt công nghệ không?

Châu Âu chỉ thu hút được một phần mười đầu tư toàn cầu vào AI, nhưng lại tuyên bố áp đặt các quy tắc toàn cầu. Đây chính là "Hiệu ứng Brussels" - áp đặt các quy định toàn cầu thông qua sức mạnh thị trường mà không thúc đẩy đổi mới. Đạo luật AI có hiệu lực theo lịch trình so le cho đến năm 2027, nhưng các tập đoàn công nghệ đa quốc gia đang phản ứng bằng các chiến lược né tránh sáng tạo: viện dẫn bí mật thương mại để tránh tiết lộ dữ liệu đào tạo, đưa ra các bản tóm tắt tuân thủ kỹ thuật nhưng khó hiểu, sử dụng phương pháp tự đánh giá để hạ cấp hệ thống từ "rủi ro cao" xuống "rủi ro tối thiểu" và tham gia vào việc mua bán diễn đàn bằng cách chọn các quốc gia thành viên có quy định kiểm soát ít nghiêm ngặt hơn. Nghịch lý về bản quyền ngoài lãnh thổ: EU yêu cầu OpenAI tuân thủ luật pháp châu Âu ngay cả đối với việc đào tạo bên ngoài châu Âu - một nguyên tắc chưa từng thấy trong luật pháp quốc tế. "Mô hình kép" xuất hiện: các phiên bản giới hạn của châu Âu so với các phiên bản toàn cầu tiên tiến của cùng một sản phẩm AI. Rủi ro thực sự: Châu Âu trở thành một "pháo đài kỹ thuật số" bị cô lập khỏi đổi mới toàn cầu, với công dân châu Âu tiếp cận các công nghệ kém hơn. Tòa án Công lý đã bác bỏ lời biện hộ "bí mật thương mại" trong vụ kiện chấm điểm tín dụng, nhưng sự không chắc chắn trong diễn giải vẫn còn rất lớn—chính xác thì "tóm tắt chi tiết đầy đủ" nghĩa là gì? Không ai biết. Câu hỏi cuối cùng chưa được trả lời: EU đang tạo ra một con đường thứ ba đạo đức giữa chủ nghĩa tư bản Hoa Kỳ và sự kiểm soát của nhà nước Trung Quốc, hay chỉ đơn giản là xuất khẩu bộ máy quan liêu sang một lĩnh vực mà nó không cạnh tranh? Hiện tại: một quốc gia dẫn đầu thế giới về quy định AI, nhưng đang trong giai đoạn phát triển. Một chương trình khổng lồ.
Ngày 9 tháng 11 năm 2025

Ngoại lệ: Nơi khoa học dữ liệu gặp gỡ những câu chuyện thành công

Khoa học dữ liệu đã đảo ngược mô hình: các giá trị ngoại lệ không còn là "lỗi cần loại bỏ" mà là thông tin giá trị cần được hiểu. Một giá trị ngoại lệ đơn lẻ có thể làm biến dạng hoàn toàn mô hình hồi quy tuyến tính - thay đổi độ dốc từ 2 thành 10 - nhưng việc loại bỏ nó có thể đồng nghĩa với việc mất đi tín hiệu quan trọng nhất trong tập dữ liệu. Học máy giới thiệu các công cụ tinh vi: Rừng Cô lập cô lập các giá trị ngoại lệ bằng cách xây dựng cây quyết định ngẫu nhiên, Hệ số Ngoại lệ Cục bộ phân tích mật độ cục bộ, và Bộ mã hóa Tự động tái tạo dữ liệu bình thường và đánh dấu những gì chúng không thể tái tạo. Có các giá trị ngoại lệ toàn cầu (nhiệt độ -10°C ở vùng nhiệt đới), các giá trị ngoại lệ theo ngữ cảnh (chi 1.000 euro ở một khu dân cư nghèo) và các giá trị tập thể (lưu lượng mạng đạt đỉnh đồng bộ cho thấy có tấn công). Một điểm tương đồng với Gladwell: "quy tắc 10.000 giờ" đang bị tranh cãi - Paul McCartney đã nói, "Nhiều ban nhạc đã biểu diễn 10.000 giờ ở Hamburg mà không thành công; lý thuyết này không phải là hoàn hảo." Thành công toán học châu Á không phải do di truyền mà do văn hóa: Hệ thống số trực quan hơn của Trung Quốc, canh tác lúa đòi hỏi sự cải tiến liên tục so với sự bành trướng lãnh thổ của nền nông nghiệp phương Tây. Ứng dụng thực tế: Các ngân hàng Anh thu hồi 18% tổn thất tiềm ẩn thông qua phát hiện bất thường theo thời gian thực, sản xuất phát hiện các lỗi vi mô mà kiểm tra thủ công có thể bỏ sót, chăm sóc sức khỏe xác thực dữ liệu thử nghiệm lâm sàng với độ nhạy phát hiện bất thường trên 85%. Bài học cuối cùng: Khi khoa học dữ liệu chuyển từ loại bỏ các giá trị ngoại lai sang hiểu rõ chúng, chúng ta phải xem những nghề nghiệp phi truyền thống không phải là những bất thường cần được khắc phục mà là những quỹ đạo giá trị cần được nghiên cứu.