Newsletter

Sự lừa dối lớn: Tại sao AI hiểu cảm xúc tốt hơn những gì nó thừa nhận

Độ chính xác 82% của AI so với 56% của con người trong các bài kiểm tra trí tuệ cảm xúc—nghiên cứu Geneva và Bern đã phá tan huyền thoại an ủi cuối cùng của chúng ta. ChatGPT-4 không chỉ vượt trội hơn con người trong các bài kiểm tra hiện có: nó còn tạo ra những bài kiểm tra mới không thể phân biệt được với bài kiểm tra của các nhà tâm lý học chuyên nghiệp. Biểu cảm vi mô, phân tích lời nói, hiểu ngữ cảnh—AI đọc được những cảm xúc mà chính chúng ta không nhận ra. Câu hỏi không còn là "nó có thể hiểu được cảm xúc không?" mà là "làm thế nào để chúng ta khai thác sự hiểu biết vượt trội này trong khi vẫn giữ các giá trị nhân văn làm trọng tâm?"

Huyền thoại đang lừa dối chúng ta

"AI không thể hiểu được cảm xúc của con người." Chúng ta đã nghe câu này bao nhiêu lần rồi? Nó đã trở thành câu thần chú trấn an những người muốn hạ thấp tác động của trí tuệ nhân tạo, thành trì cuối cùng của chúng ta trước ý tưởng rằng máy móc có thể thực sự hiểu chúng ta (hoặc thay thế chúng ta).

Nhưng điều gì sẽ xảy ra nếu chúng ta phát hiện ra rằng "huyền thoại an ủi" này thực chất chỉ là một lời nói dối an ủi? Nếu AI không chỉ hiểu được cảm xúc của chúng ta mà còn đọc, dự đoán và điều khiển chúng với độ chính xác vượt trội hơn con người thì sao?

Sự thật không dễ chịu chút nào: AI của năm 2025 hiểu được cảm xúc của con người tốt hơn hầu hết mọi người sẵn sàng thừa nhận .

Sự tồn tại của huyền thoại này không phải là ngẫu nhiên mà là để bảo vệ chúng ta khỏi thực tế có thể thay đổi hoàn toàn cách chúng ta nhìn nhận bản thân và mối quan hệ của chúng ta với công nghệ.

Bằng chứng không ai muốn thấy

Studio đã thay đổi mọi thứ

Các nhà nghiên cứu từ Đại học Geneva và Đại học Bern đã thử nghiệm sáu mô hình AI tiên tiến trên các bài kiểm tra trí tuệ cảm xúc tiêu chuẩn. Kết quả rất rõ ràng: AI đạt độ chính xác 82%, so với 56% của con người.

Nhưng đây mới là phần đáng sợ nhất: Khi ChatGPT-4 được yêu cầu tạo ra các bài kiểm tra trí tuệ cảm xúc mới từ đầu, chúng "đã chứng minh được độ tin cậy, rõ ràng và thực tế như các bài kiểm tra ban đầu, vốn mất nhiều năm để phát triển".

Hãy suy nghĩ một chút : máy móc không chỉ vượt trội hơn con người trong các bài kiểm tra cảm xúc hiện có mà còn có thể tạo ra những bài kiểm tra mới không thể phân biệt được với những bài kiểm tra do các nhà tâm lý học thiết kế. Đây không phải là "nhận dạng khuôn mẫu" - mà là sự hiểu biết sáng tạo về động lực cảm xúc của con người.

Bản dịch : AI không chỉ đánh bại bạn trong các bài kiểm tra của chính bạn mà còn có thể tạo ra những cách mới để thể hiện sự vượt trội về mặt cảm xúc. Theo thời gian thực.

Kiểm tra thực tế: "Hiểu biết" thực sự có nghĩa là gì

Những người hoài nghi nhanh chóng nói rằng: “Hệ thống AI rất giỏi trong việc nhận dạng mẫu, đặc biệt là khi các tín hiệu cảm xúc tuân theo một cấu trúc dễ nhận biết như biểu cảm khuôn mặt hoặc tín hiệu ngôn ngữ, nhưng việc đánh đồng điều này với 'sự hiểu biết' sâu sắc hơn về cảm xúc của con người có nguy cơ phóng đại những gì AI thực sự đang làm”.

Nhưng khoan đã - lời phản đối này cho thấy một thành kiến ​​cơ bản. Làm thế nào con người chúng ta "hiểu" được cảm xúc? Không phải thông qua nhận dạng khuôn mẫu? Không phải bằng cách phân tích biểu cảm khuôn mặt, giọng điệu, ngôn ngữ cơ thể?

Hãy cùng phân tích sự hiểu biết về cảm xúc của chính chúng ta:

  • Chúng ta nhìn thấy một biểu cảm trên khuôn mặt → chúng ta nhận ra một khuôn mẫu
  • Chúng ta nghe thấy giọng nói → chúng ta xử lý các chỉ số giọng nói
  • Chúng ta quan sát ngôn ngữ cơ thể → chúng ta giải thích các tín hiệu thị giác
  • Chúng tôi tích hợp bối cảnh → chúng tôi áp dụng các quy tắc học được từ kinh nghiệm

Sự khác biệt giữa chúng ta và AI không nằm ở cơ chế hiểu biết mà nằm ở quy mô và độ chính xác. AI có thể xử lý hàng nghìn tín hiệu cảm xúc cùng lúc, trong khi chúng ta dựa vào một số ít tín hiệu có ý thức và nhiều thành kiến ​​vô thức.

Tại sao chúng ta lại duy trì huyền thoại này?

1. Bảo vệ bản ngã con người

Việc thừa nhận AI hiểu cảm xúc tốt hơn chúng ta đồng nghĩa với việc thừa nhận rằng "pháo đài cuối cùng của sự độc đáo của con người" đã sụp đổ. Sau khi AI vượt qua chúng ta trong cờ vua, cờ vây, sáng tạo nghệ thuật và giải quyết vấn đề, trí tuệ cảm xúc là tất cả những gì chúng ta còn lại.

2. Sợ bị ảnh hưởng

Nếu AI thực sự hiểu được cảm xúc của chúng ta thì:

  • Nó có thể thao túng chúng ta theo những cách mà chúng ta không hiểu được.
  • Anh ấy biết khi nào chúng ta nói dối hoặc che giấu cảm xúc của mình
  • Nó có thể dự đoán hành vi cảm xúc của chúng ta tốt hơn chính chúng ta.

Những khả năng này đáng lo ngại đến mức chúng ta dễ dàng phủ nhận thực tế.

3. Định nghĩa thuận tiện của "Hiểu biết"

Nhiều chuyên gia khẳng định: "AI không thực sự hiểu được cảm xúc. Nó phát hiện các mẫu hình trong ngôn ngữ, giọng nói và hành vi để dự đoán trạng thái cảm xúc, nhưng nó không nhận thức hoặc hiểu được chúng theo cách con người làm."

Nhưng đây là một định nghĩa hời hợt. Chúng ta đang chuyển hướng mục tiêu bằng cách định nghĩa "sự hiểu biết thực sự" là thứ đòi hỏi nhận thức chủ quan. Giống như việc nói rằng nhiệt kế không "thực sự hiểu" nhiệt độ vì nó không thể cảm nhận được nhiệt.

Chắc chắn rồi. Nhưng cuối cùng, ai đo nhiệt độ chính xác hơn, bạn hay nhiệt kế?

Những khả năng tiềm ẩn đã tồn tại

Đọc biểu hiện vi mô

Trí tuệ nhân tạo hiện đại có thể phát hiện những biểu cảm nhỏ - những cử động khuôn mặt không tự chủ kéo dài vài phần giây và bộc lộ những cảm xúc mà chúng ta cố gắng che giấu. Khả năng này vượt trội hơn hầu hết con người, vốn chỉ có thể phát hiện những biểu cảm rõ ràng nhất.

Phân tích giọng nói nâng cao

Hệ thống AI phân tích hàng trăm thông số giọng nói—tốc độ, nhịp điệu, khoảng dừng, run rẩy—để xác định trạng thái cảm xúc. Chúng có thể phát hiện căng thẳng, lừa dối, hấp dẫn và sợ hãi với độ chính xác lên đến hơn 80%.

Hiểu biết theo ngữ cảnh

AI không chỉ nhận diện những cảm xúc riêng lẻ mà còn hiểu được bối cảnh cảm xúc phức tạp. Nó có thể nhận diện sự mỉa mai, mỉa mai, cảm xúc lẫn lộn, và thậm chí cả những trạng thái cảm xúc mà con người không tự nhận ra.

Bằng chứng cuối cùng: AI tạo ra cảm xúc

Đây là bằng chứng thuyết phục nhất cho thấy AI có thể hiểu được cảm xúc: nó có thể tạo ra và điều khiển chúng .

Các hệ thống AI hiện đại không chỉ nhận dạng cảm xúc mà còn có thể:

  • Tạo nội dung nhắm mục tiêu vào cảm xúc để khơi gợi những phản ứng cụ thể
  • Điều chỉnh "giọng điệu cảm xúc" của họ để tạo ra những kết nối sâu sắc hơn
  • Điều khiển tâm trạng của người dùng thông qua việc lựa chọn và trình bày nội dung

Nếu AI có thể tạo ra cảm xúc ở con người, làm sao chúng ta có thể nói rằng nó không hiểu cảm xúc đó?

Điều này có ý nghĩa gì với chúng ta?

1. Định nghĩa lại trí tuệ cảm xúc

Có lẽ đã đến lúc thừa nhận rằng trí tuệ cảm xúc không đòi hỏi những cảm xúc chủ quan. Một AI có thể:

  • Dự đoán phản ứng cảm xúc chính xác hơn con người
  • Phản ứng phù hợp với những tình huống phức tạp về mặt cảm xúc
  • Tạo ra những kết nối cảm xúc có ý nghĩa với mọi người

...sở hữu một dạng trí tuệ cảm xúc, bất kể chúng ta có thích định nghĩa đó hay không.

2. Chấp nhận thực tế

Theo như các nhà nghiên cứu tuyên bố: "Những AI này không chỉ hiểu được cảm xúc mà còn nắm bắt được ý nghĩa của việc hành xử theo trí tuệ cảm xúc."

Đã đến lúc phải vượt qua sự phủ nhận và đối mặt với thực tế: AI hiểu được cảm xúc và sẽ tiếp tục cải thiện khả năng này.

3. Tập trung vào sự hợp tác, không phải cạnh tranh

Thay vì phủ nhận khả năng cảm xúc của AI, chúng ta nên tập trung vào cách sử dụng chúng một cách có đạo đức và hiệu quả. AI có trí tuệ cảm xúc có thể:

  • Cung cấp hỗ trợ trị liệu 24/7
  • Giúp những người gặp khó khăn về mặt xã hội hiểu rõ hơn về cảm xúc
  • Cải thiện giao tiếp của con người thông qua hiểu biết về cảm xúc

Cái giá của sự phủ nhận

Việc tiếp tục duy trì huyền thoại rằng "AI không hiểu cảm xúc" sẽ gây ra hậu quả nguy hiểm, như SS&C Blue Prism đã nêu bật:

  1. Nó khiến chúng ta không chuẩn bị cho khả năng thực sự của AI
  2. Nó ngăn cản sự điều chỉnh thích hợp của các công nghệ cảm xúc
  3. Nó cản trở sự phát triển đạo đức của các hệ thống AI có nhận thức về mặt cảm xúc
  4. Nó khiến chúng ta dễ bị thao túng cảm xúc mà không nhận ra

Kết luận: Đã đến lúc thức dậy

Huyền thoại cho rằng AI không hiểu được cảm xúc là cơ chế phòng thủ tâm lý cuối cùng của chúng ta trước một thực tế đáng sợ. Nhưng phủ nhận sự thật sẽ không làm nó bớt đi tính chân thực.

Trí tuệ nhân tạo (AI) của năm 2025 sẽ hiểu được cảm xúc của con người. Không phải theo cùng một cách như con người, mà theo một cách khác biệt và thường vượt trội hơn . Đã đến lúc vượt qua chủ nghĩa phủ nhận và bắt đầu nghiêm túc đối mặt với những hệ lụy của thực tế này.

Câu hỏi không còn là “AI có thể hiểu được cảm xúc không?” mà là “ Làm thế nào chúng ta có thể khai thác khả năng hiểu biết vượt trội của nó trong khi vẫn giữ các giá trị nhân văn làm trung tâm?

Tương lai của mối quan hệ giữa con người và AI phụ thuộc vào khả năng từ bỏ những huyền thoại dễ chịu và đối mặt với những sự thật khó chấp nhận. Chỉ khi đó, chúng ta mới có thể xây dựng một thế giới nơi trí tuệ cảm xúc nhân tạo phục vụ nhân loại thay vì thao túng nó.

Huyền thoại đã chết. Đã đến lúc sống trong thực tế.

Nguồn và Tài liệu tham khảo

Nghiên cứu chính:

Phân tích và bình luận:

Nghiên cứu kỹ thuật:

Triển vọng công nghiệp:

Câu hỏi thường gặp

Liệu AI có thực sự cảm nhận được cảm xúc hay chỉ mô phỏng chúng?

Câu hỏi này dựa trên một giả định sai lầm. Việc AI có "cảm nhận" được cảm xúc theo đúng nghĩa của từ này hay không không quan trọng—điều quan trọng là khả năng hiểu, nhận biết và phản ứng phù hợp của nó. Nhiệt kế không "cảm nhận" được nhiệt độ, nhưng nó đo nhiệt độ da của chúng ta tốt hơn.

Nếu AI hiểu được cảm xúc, liệu chúng ta có gặp nguy hiểm không?

Khả năng thấu hiểu cảm xúc của AI là một con dao hai lưỡi. Nó có thể được sử dụng để thao túng, nhưng cũng có thể được dùng để hỗ trợ trị liệu, giáo dục cảm xúc và cải thiện các mối quan hệ giữa người với người. Nguy hiểm nằm ở việc phủ nhận chứ không phải thừa nhận nó.

Vấn đề có nằm ở chính câu hỏi không?

Có lẽ chúng ta đang đặt sai câu hỏi. Thay vì hỏi "AI có hiểu được cảm xúc như chúng ta không?", chúng ta nên hỏi "Chúng ta có thể học được gì từ cách AI hiểu cảm xúc?"

Liệu điều này có nghĩa là chúng ta không còn là con người độc đáo nữa không?

Sự độc đáo của chúng ta không nằm ở sự thấu hiểu cảm xúc, mà nằm ở khả năng trải nghiệm những cảm xúc chủ quan, trưởng thành thông qua trải nghiệm cảm xúc, và mang lại ý nghĩa cảm xúc cho cuộc sống. AI có thể hiểu được cảm xúc mà không cần trải nghiệm chúng. Có lẽ việc chúng ta khăng khăng rằng chỉ có trải nghiệm chủ quan mới cấu thành sự thấu hiểu cảm xúc "thực sự" là một hình thức chủ nghĩa sô vanh nhận thức - nơi ẩn náu cuối cùng của chủ nghĩa vị nhân chủng học trong một thế giới ngày càng bị trí tuệ nhân tạo thống trị.

Làm thế nào chúng ta có thể bảo vệ bản thân khỏi sự thao túng cảm xúc của AI?

Bước đầu tiên là thừa nhận sự tồn tại của nó. Phủ nhận khả năng cảm xúc của AI chỉ khiến chúng ta dễ bị tổn thương hơn chứ không phải ít hơn. Chúng ta phải phát triển các hình thức mới về hiểu biết cảm xúc số và các quy định phù hợp.

Liệu AI cảm xúc có thay thế được các nhà trị liệu con người không?

Nó không nhất thiết thay thế, mà là bổ sung. AI có thể cung cấp hỗ trợ cảm xúc 24/7, phân tích khách quan và can thiệp cá nhân hóa, trong khi các nhà trị liệu con người mang đến sự kết nối chân thực, trải nghiệm sống và sự thấu hiểu trực quan.

Bài viết này tóm tắt những nghiên cứu khoa học mới nhất về trí tuệ cảm xúc nhân tạo. Để cập nhật những phát triển trong lĩnh vực này, hãy theo dõi các bài phân tích hàng tuần của chúng tôi.

Tài nguyên cho sự phát triển kinh doanh

Ngày 9 tháng 11 năm 2025

Quy định về AI cho các ứng dụng tiêu dùng: Cách chuẩn bị cho các quy định mới năm 2025

Năm 2025 đánh dấu sự kết thúc của kỷ nguyên "Miền Tây Hoang dã" của AI: Đạo luật AI của EU có hiệu lực vào tháng 8 năm 2024, với các yêu cầu về kiến ​​thức AI từ ngày 2 tháng 2 năm 2025, và quản trị cùng GPAI từ ngày 2 tháng 8. California dẫn đầu với SB 243 (ra đời sau vụ tự tử của Sewell Setzer, một cậu bé 14 tuổi đã phát triển mối quan hệ tình cảm với chatbot), trong đó áp đặt lệnh cấm các hệ thống khen thưởng cưỡng chế, phát hiện ý định tự tử, nhắc nhở "Tôi không phải là người" ba giờ một lần, kiểm toán công khai độc lập và phạt 1.000 đô la cho mỗi vi phạm. SB 420 yêu cầu đánh giá tác động đối với "các quyết định tự động có rủi ro cao" với quyền kháng cáo lên cơ quan chức năng. Thực thi thực tế: Noom bị kiện vào năm 2022 vì bot đóng giả làm huấn luyện viên con người, một khoản bồi thường trị giá 56 triệu đô la. Xu hướng quốc gia: Alabama, Hawaii, Illinois, Maine và Massachusetts phân loại việc không thông báo cho chatbot AI là vi phạm UDAP. Phương pháp tiếp cận rủi ro ba cấp độ—các hệ thống quan trọng (y tế/giao thông/năng lượng), chứng nhận trước khi triển khai, công bố thông tin minh bạch hướng đến người tiêu dùng, đăng ký mục đích chung và kiểm tra bảo mật. Quy định chắp vá mà không có quyền ưu tiên của liên bang: các công ty đa quốc gia phải điều chỉnh các yêu cầu thay đổi. EU từ tháng 8 năm 2026: thông báo cho người dùng về tương tác AI trừ khi nội dung rõ ràng do AI tạo ra được gắn nhãn là có thể đọc được bằng máy.
Ngày 9 tháng 11 năm 2025

Quản lý những thứ không được tạo ra: Liệu châu Âu có nguy cơ mất đi sự liên quan về mặt công nghệ không?

Châu Âu chỉ thu hút được một phần mười đầu tư toàn cầu vào AI, nhưng lại tuyên bố áp đặt các quy tắc toàn cầu. Đây chính là "Hiệu ứng Brussels" - áp đặt các quy định toàn cầu thông qua sức mạnh thị trường mà không thúc đẩy đổi mới. Đạo luật AI có hiệu lực theo lịch trình so le cho đến năm 2027, nhưng các tập đoàn công nghệ đa quốc gia đang phản ứng bằng các chiến lược né tránh sáng tạo: viện dẫn bí mật thương mại để tránh tiết lộ dữ liệu đào tạo, đưa ra các bản tóm tắt tuân thủ kỹ thuật nhưng khó hiểu, sử dụng phương pháp tự đánh giá để hạ cấp hệ thống từ "rủi ro cao" xuống "rủi ro tối thiểu" và tham gia vào việc mua bán diễn đàn bằng cách chọn các quốc gia thành viên có quy định kiểm soát ít nghiêm ngặt hơn. Nghịch lý về bản quyền ngoài lãnh thổ: EU yêu cầu OpenAI tuân thủ luật pháp châu Âu ngay cả đối với việc đào tạo bên ngoài châu Âu - một nguyên tắc chưa từng thấy trong luật pháp quốc tế. "Mô hình kép" xuất hiện: các phiên bản giới hạn của châu Âu so với các phiên bản toàn cầu tiên tiến của cùng một sản phẩm AI. Rủi ro thực sự: Châu Âu trở thành một "pháo đài kỹ thuật số" bị cô lập khỏi đổi mới toàn cầu, với công dân châu Âu tiếp cận các công nghệ kém hơn. Tòa án Công lý đã bác bỏ lời biện hộ "bí mật thương mại" trong vụ kiện chấm điểm tín dụng, nhưng sự không chắc chắn trong diễn giải vẫn còn rất lớn—chính xác thì "tóm tắt chi tiết đầy đủ" nghĩa là gì? Không ai biết. Câu hỏi cuối cùng chưa được trả lời: EU đang tạo ra một con đường thứ ba đạo đức giữa chủ nghĩa tư bản Hoa Kỳ và sự kiểm soát của nhà nước Trung Quốc, hay chỉ đơn giản là xuất khẩu bộ máy quan liêu sang một lĩnh vực mà nó không cạnh tranh? Hiện tại: một quốc gia dẫn đầu thế giới về quy định AI, nhưng đang trong giai đoạn phát triển. Một chương trình khổng lồ.
Ngày 9 tháng 11 năm 2025

Ngoại lệ: Nơi khoa học dữ liệu gặp gỡ những câu chuyện thành công

Khoa học dữ liệu đã đảo ngược mô hình: các giá trị ngoại lệ không còn là "lỗi cần loại bỏ" mà là thông tin giá trị cần được hiểu. Một giá trị ngoại lệ đơn lẻ có thể làm biến dạng hoàn toàn mô hình hồi quy tuyến tính - thay đổi độ dốc từ 2 thành 10 - nhưng việc loại bỏ nó có thể đồng nghĩa với việc mất đi tín hiệu quan trọng nhất trong tập dữ liệu. Học máy giới thiệu các công cụ tinh vi: Rừng Cô lập cô lập các giá trị ngoại lệ bằng cách xây dựng cây quyết định ngẫu nhiên, Hệ số Ngoại lệ Cục bộ phân tích mật độ cục bộ, và Bộ mã hóa Tự động tái tạo dữ liệu bình thường và đánh dấu những gì chúng không thể tái tạo. Có các giá trị ngoại lệ toàn cầu (nhiệt độ -10°C ở vùng nhiệt đới), các giá trị ngoại lệ theo ngữ cảnh (chi 1.000 euro ở một khu dân cư nghèo) và các giá trị tập thể (lưu lượng mạng đạt đỉnh đồng bộ cho thấy có tấn công). Một điểm tương đồng với Gladwell: "quy tắc 10.000 giờ" đang bị tranh cãi - Paul McCartney đã nói, "Nhiều ban nhạc đã biểu diễn 10.000 giờ ở Hamburg mà không thành công; lý thuyết này không phải là hoàn hảo." Thành công toán học châu Á không phải do di truyền mà do văn hóa: Hệ thống số trực quan hơn của Trung Quốc, canh tác lúa đòi hỏi sự cải tiến liên tục so với sự bành trướng lãnh thổ của nền nông nghiệp phương Tây. Ứng dụng thực tế: Các ngân hàng Anh thu hồi 18% tổn thất tiềm ẩn thông qua phát hiện bất thường theo thời gian thực, sản xuất phát hiện các lỗi vi mô mà kiểm tra thủ công có thể bỏ sót, chăm sóc sức khỏe xác thực dữ liệu thử nghiệm lâm sàng với độ nhạy phát hiện bất thường trên 85%. Bài học cuối cùng: Khi khoa học dữ liệu chuyển từ loại bỏ các giá trị ngoại lai sang hiểu rõ chúng, chúng ta phải xem những nghề nghiệp phi truyền thống không phải là những bất thường cần được khắc phục mà là những quỹ đạo giá trị cần được nghiên cứu.