ChatGPT đang nghe lén bạn (và có thể sẽ báo cáo bạn)

Vụ kiện OpenAI định nghĩa lại ranh giới giữa an toàn công cộng và quyền riêng tư kỹ thuật số: thách thức bảo vệ xã hội mà không phản bội lòng tin của người dùng. Giữa những lời hứa về công nghệ và những vùng xám pháp lý, niềm tin vào AI vẫn là một canh bạc. Những lời thì thầm kỹ thuật số trong một thế giới luôn lắng nghe.

Sự thay đổi lớn: OpenAI thừa nhận báo cáo cho các cơ quan chức năng.

Vào tháng 9 năm 2025, OpenAI đã đưa ra một tiết lộ gây chấn động cộng đồng công nghệ toàn cầu: ChatGPT chủ động theo dõi các cuộc trò chuyện của người dùng và báo cáo nội dung có khả năng phạm tội cho cơ quan thực thi pháp luật .

Thông tin này, được tiết lộ gần như tình cờ trong một bài đăng trên blog của công ty, cho thấy rằng khi các hệ thống tự động phát hiện người dùng "có ý định gây hại cho người khác", các cuộc hội thoại sẽ được chuyển đến các quy trình chuyên biệt, nơi một nhóm nhỏ được đào tạo về chính sách sử dụng sẽ xem xét chúng. Nếu người xem xét xác định rằng có "mối đe dọa sắp xảy ra về việc gây hại nghiêm trọng đến thể chất cho người khác", vụ việc có thể được báo cáo cho cơ quan thực thi pháp luật.¹

ChatGPT trân trọng mời bạn chia sẻ những suy nghĩ thầm kín nhất của mình. Đừng lo lắng, mọi thứ đều được giữ bí mật... ít nhiều là vậy.

Nguồn:

Sự tương phản với các nghề nghiệp "được bảo hộ"

Đặc quyền giữ bí mật nghề nghiệp

Khi chúng ta nói chuyện với nhà tâm lý học, luật sư, bác sĩ hoặc linh mục, lời nói của chúng ta được bảo vệ bởi một cơ chế pháp lý đã được thiết lập vững chắc: bí mật nghề nghiệp . Nguyên tắc này, bắt nguồn từ truyền thống pháp luật hàng thế kỷ, quy định rằng một số cuộc trò chuyện nhất định là bất khả xâm phạm, ngay cả khi đối mặt với các cuộc điều tra hình sự.

Đặc điểm của bí mật nghề nghiệp truyền thống:

  • Bảo mật cực kỳ toàn diện : Thông tin liên lạc vẫn được giữ bí mật ngay cả trong trường hợp thú nhận tội lỗi.
  • Ngoại lệ hạn chế và cụ thể : Chỉ trong những trường hợp cực đoan được pháp luật quy định, một số chuyên gia mới có thể/bắt buộc phải phá vỡ sự im lặng.
  • Kiểm soát bởi người có chuyên môn : Quyết định vi phạm bảo mật luôn nằm trong tay một chuyên gia được đào tạo bài bản.
  • Trách nhiệm đạo đức : Các chuyên gia phải tuân thủ các quy tắc đạo đức nhằm cân bằng giữa nghĩa vụ đối với khách hàng và xã hội.

Những giới hạn thực sự của bí mật nghề nghiệp

Trái với nhận thức phổ biến, bí mật nghề nghiệp không phải là tuyệt đối . Có những ngoại lệ được xác định rõ ràng, tùy thuộc vào từng ngành nghề:

Đối với luật sư (Điều 28 Bộ Quy tắc Đạo đức nghề luật): Việc tiết lộ được cho phép khi cần thiết cho:

  • Thực hiện hoạt động phòng thủ
  • Ngăn chặn việc phạm một tội đặc biệt nghiêm trọng.
  • Tự bảo vệ mình trong một tranh chấp với khách hàng của bạn.
  • Thủ tục kỷ luật

Ví dụ quan trọng : Nếu một thân chủ tuyên bố với luật sư rằng anh ta có ý định giết người, giữa việc bảo vệ quyền bào chữa và bảo vệ quyền được sống, quyền được sống phải được ưu tiên và luật sư được giải phóng khỏi nghĩa vụ bảo mật².

Đối với các nhà tâm lý học (Điều 13 Bộ Quy tắc Đạo đức): Quyền bảo mật có thể bị vi phạm khi:

  • Có nghĩa vụ phải báo cáo hoặc khiếu nại đối với các tội phạm có thể bị truy tố theo thẩm quyền.
  • Có những rủi ro nghiêm trọng đối với tính mạng hoặc sức khỏe thể chất và tinh thần của cá nhân và/hoặc bên thứ ba.
  • Đã có sự đồng ý hợp lệ và có thể chứng minh được của bệnh nhân.

Điểm khác biệt quan trọng : Nhà tâm lý học tư nhân có quyền tự quyết lớn hơn nhà tâm lý học công, người mà với tư cách là một quan chức nhà nước, có nghĩa vụ báo cáo nghiêm ngặt hơn³.

Nguồn:

Trí tuệ nhân tạo (AI) với tư cách là "người không chuyên"

ChatGPT hoạt động trong một vùng xám hoàn toàn khác:

Thiếu đặc quyền pháp lý : Các cuộc trò chuyện với AI không được bảo vệ pháp lý dưới bất kỳ hình thức nào. Như Giám đốc điều hành OpenAI, Sam Altman, đã thừa nhận: "Nếu bạn nói chuyện với một nhà trị liệu, luật sư hoặc bác sĩ về những vấn đề đó, thì sẽ có đặc quyền pháp lý cho việc đó. Có sự bảo mật giữa bác sĩ và bệnh nhân, có đặc quyền pháp lý, vân vân. Và chúng tôi vẫn chưa giải quyết được vấn đề đó khi bạn nói chuyện với ChatGPT." ²

Quy trình tự động : Không giống như việc một chuyên gia đánh giá từng trường hợp một, ChatGPT sử dụng thuật toán để xác định nội dung "có vấn đề", loại bỏ sự đánh giá chủ quan của con người khỏi giai đoạn sàng lọc ban đầu.

Nguồn:

Ý nghĩa thực tiễn: Một mô hình giám sát mới

Nghịch lý của niềm tin công nghệ

Tình huống này tạo ra một nghịch lý đáng lo ngại. Hàng triệu người sử dụng ChatGPT như một người bạn tâm giao kỹ thuật số, chia sẻ những suy nghĩ, nghi ngờ, nỗi sợ hãi riêng tư, thậm chí cả những tưởng tượng tội phạm mà họ sẽ không bao giờ chia sẻ với người thật. Như Sam Altman đã đưa tin: "Mọi người nói về những điều riêng tư nhất trong cuộc sống của họ trên ChatGPT. Mọi người sử dụng nó - đặc biệt là giới trẻ - như một nhà trị liệu, một người hướng dẫn cuộc sống."

Nguy cơ tự kiểm duyệt mang tính tội phạm : Nhận thức rằng các cuộc trò chuyện có thể bị theo dõi có thể dẫn đến nghịch lý:

  • Đẩy tội phạm vào những kênh bí mật hơn.
  • Ngăn cản những người có ý nghĩ bạo lực tìm kiếm sự giúp đỡ
  • Tạo ra hiệu ứng "làm mát" cho giao tiếp kỹ thuật số

Kinh nghiệm chuyên môn so với thuật toán: Ai quyết định điều gì là phạm tội?

Một khía cạnh quan trọng được giới phê bình nhấn mạnh liên quan đến năng lực của những người đưa ra quyết định cuối cùng.

Các chuyên gia con người có:

  • Nhiều năm rèn luyện để phân biệt giữa ảo tưởng và ý định thực sự.
  • Các quy tắc đạo đức xác định khi nào nên tiết lộ bí mật.
  • Trách nhiệm pháp lý cá nhân đối với các quyết định của họ
  • Khả năng đánh giá bối cảnh và độ tin cậy

Hệ thống ChatGPT hoạt động với:

  • Các thuật toán tự động để phát hiện ban đầu
  • Nhân viên của OpenAI không nhất thiết phải có trình độ đào tạo về lâm sàng hoặc tội phạm học.
  • Tiêu chí đánh giá không công khai và có khả năng tùy tiện.
  • Thiếu các cơ chế kiểm soát bên ngoài

Ví dụ gây khó khăn : Làm thế nào thuật toán phân biệt giữa:

  • Một người viết tiểu thuyết trinh thám và tìm kiếm cảm hứng cho những cảnh bạo lực.
  • Người hay tưởng tượng mà không có ý định hành động.
  • Một cá nhân thực sự lên kế hoạch phạm tội.

Nguồn:

Nguồn:

Mâu thuẫn của OpenAI: Quyền riêng tư so với Bảo mật

Tiêu chuẩn kép

Việc OpenAI thừa nhận điều này tạo ra một sự mâu thuẫn rõ rệt với lập trường trước đây của công ty. OpenAI đã kiên quyết phản đối các yêu cầu cung cấp dữ liệu người dùng trong các vụ kiện, viện dẫn lý do bảo mật thông tin cá nhân. Trong vụ kiện chống lại tờ New York Times, OpenAI đã kịch liệt phản đối việc tiết lộ nhật ký trò chuyện để bảo vệ quyền riêng tư của người dùng.⁴

Điều trớ trêu là : OpenAI bảo vệ quyền riêng tư của người dùng trước tòa án, trong khi đồng thời thừa nhận việc giám sát và chia sẻ dữ liệu với các cơ quan bên ngoài.

Tác động của vụ kiện New York Times

Tình hình càng trở nên phức tạp hơn do lệnh của tòa án yêu cầu OpenAI phải lưu giữ tất cả nhật ký ChatGPT vô thời hạn, bao gồm cả các cuộc trò chuyện riêng tư và dữ liệu API. Điều này có nghĩa là những cuộc trò chuyện mà người dùng cho là tạm thời giờ đây đã được lưu trữ vĩnh viễn.⁵

Nguồn:

Các giải pháp và phương án thay thế khả thi

Hướng tới một "Đặc quyền AI"?

Như Sam Altman đề xuất, có thể cần phải phát triển khái niệm "đặc quyền AI" — một sự bảo vệ pháp lý tương tự như sự bảo vệ dành cho các chuyên gia truyền thống. Tuy nhiên, điều này đặt ra những câu hỏi phức tạp:

Các lựa chọn điều chỉnh pháp lý khả thi:

  1. Mô hình cấp phép : Chỉ những AI được chứng nhận mới có thể cung cấp "quyền đàm thoại".
  2. Đào tạo bắt buộc : Những người xử lý nội dung nhạy cảm phải có các chứng chỉ chuyên môn cụ thể.
  3. Giám sát chuyên môn : Sự tham gia của các nhà tâm lý học/luật sư có trình độ chuyên môn trong các quyết định báo cáo.
  4. Tính minh bạch thuật toán : Công bố các tiêu chí được sử dụng để xác định nội dung "nguy hiểm".

Giải pháp kỹ thuật trung cấp

IA "Phân vùng":

  • Hệ thống riêng biệt cho mục đích điều trị và mục đích sử dụng thông thường.
  • Mã hóa đầu cuối cho các cuộc hội thoại nhạy cảm
  • Sự đồng ý rõ ràng cho bất kỳ hình thức giám sát nào.

Cách tiếp cận "ba bên":

  • Chỉ tự động phát hiện các mối đe dọa tức thời và có thể xác minh được.
  • Đánh giá bắt buộc của người có chuyên môn
  • Quy trình kháng cáo đối với các quyết định bị tranh chấp

Tiền lệ của các chuyên gia kỹ thuật số

Bài học kinh nghiệm từ các lĩnh vực khác:

  • Y học từ xa : Phát triển các giao thức để bảo vệ quyền riêng tư kỹ thuật số.
  • Tư vấn pháp lý trực tuyến : Sử dụng mã hóa và xác minh danh tính.
  • Liệu pháp kỹ thuật số : Các ứng dụng chuyên dụng với các biện pháp bảo vệ đặc biệt.

Nguồn:

Trí tuệ nhân tạo (AI) có ý nghĩa gì đối với doanh nghiệp?

Những bài học cho ngành

Vụ kiện OpenAI tạo ra những tiền lệ quan trọng cho toàn bộ ngành công nghiệp trí tuệ nhân tạo:

  1. Tính minh bạch bắt buộc : Các công ty AI sẽ phải công khai hơn về các hoạt động theo dõi của họ.
  2. Sự cần thiết của các khuôn khổ đạo đức : Cần có quy định rõ ràng về thời điểm và cách thức trí tuệ nhân tạo có thể can thiệp vào các cuộc giao tiếp riêng tư.
  3. Đào tạo chuyên môn : Những người đưa ra quyết định về nội dung nhạy cảm phải có kỹ năng phù hợp.
  4. Trách nhiệm pháp lý : Xác định ai chịu trách nhiệm khi hệ thống AI đưa ra đánh giá sai.

Các khuyến nghị về hoạt động

Dành cho các công ty đang phát triển trí tuệ nhân tạo đàm thoại:

  • Thành lập các nhóm đa ngành (pháp lý, tâm lý học, tội phạm học)
  • Xây dựng các tiêu chí báo cáo công khai và có thể kiểm chứng.
  • Thiết lập quy trình khiếu nại cho người dùng.
  • Đầu tư vào đào tạo chuyên môn cho nhân viên kiểm toán.

Đối với các công ty sử dụng trí tuệ nhân tạo:

  • Đánh giá rủi ro về quyền riêng tư trước khi triển khai.
  • Thông báo rõ ràng cho người dùng về giới hạn của việc bảo mật thông tin.
  • Hãy cân nhắc các giải pháp thay thế chuyên biệt cho các trường hợp nhạy cảm.

Tương lai của quyền riêng tư kỹ thuật số

Vấn đề nan giải cốt lõi : Làm thế nào để cân bằng giữa việc ngăn chặn tội phạm thực tế với quyền riêng tư và bảo mật thông tin kỹ thuật số?

Vấn đề này không chỉ đơn thuần là vấn đề kỹ thuật mà còn liên quan đến các nguyên tắc cơ bản:

  • Nguyên tắc suy đoán vô tội : Việc theo dõi các cuộc trò chuyện riêng tư ngụ ý sự nghi ngờ lan rộng.
  • Quyền riêng tư : Bao gồm quyền có những suy nghĩ riêng tư, kể cả những suy nghĩ gây khó chịu.
  • Hiệu quả phòng ngừa : Không có bằng chứng nào cho thấy giám sát kỹ thuật số thực sự ngăn ngừa được tội phạm.

Kết luận: Tìm kiếm sự cân bằng phù hợp

Việc OpenAI tiết lộ thông tin đánh dấu một bước ngoặt quan trọng trong sự phát triển của trí tuệ nhân tạo, nhưng câu hỏi đặt ra không phải là việc đưa tin đúng hay sai nói chung, mà là làm thế nào để việc đưa tin trở nên hiệu quả, công bằng và tôn trọng quyền con người .

Nhu cầu là có thật : Các mối đe dọa bạo lực cụ thể, các cuộc tấn công đã được lên kế hoạch hoặc các tội phạm nghiêm trọng khác đòi hỏi phải hành động. Vấn đề không phải là có nên báo cáo hay không, mà là báo cáo như thế nào một cách có trách nhiệm.

Những khác biệt cơ bản cần được giải quyết:

Đào tạo và chuyên môn:

  • Các chuyên gia trong lĩnh vực này có những quy trình bài bản để phân biệt giữa các mối đe dọa thực sự và những điều bịa đặt.
  • Hệ thống trí tuệ nhân tạo đòi hỏi các tiêu chuẩn tương đương và sự giám sát có trình độ chuyên môn.
  • Những người đưa ra quyết định cuối cùng cần phải được đào tạo chuyên sâu.

Tính minh bạch và quyền kiểm soát:

  • Các chuyên gia làm việc dưới sự giám sát của các hiệp hội nghề nghiệp.
  • OpenAI yêu cầu các tiêu chí công khai và cơ chế giám sát bên ngoài.
  • Người dùng cần biết chính xác khi nào và tại sao họ có thể bị báo cáo.

Tính tương xứng:

  • Các chuyên gia cân bằng giữa nghĩa vụ bảo mật thông tin và an ninh tùy thuộc vào từng trường hợp cụ thể.
  • Hệ thống trí tuệ nhân tạo phải phát triển các cơ chế tương tự, chứ không phải các thuật toán nhị phân.

Đối với các công ty trong lĩnh vực này , thách thức là phát triển các hệ thống bảo vệ xã hội một cách hiệu quả mà không trở thành công cụ giám sát bừa bãi. Niềm tin của người dùng là điều thiết yếu , nhưng nó phải song hành với trách nhiệm xã hội.

Đối với người dùng , bài học rút ra có hai khía cạnh:

  1. Các cuộc trò chuyện với trí tuệ nhân tạo không được bảo vệ như các cuộc trò chuyện với các chuyên gia truyền thống.
  2. Điều này không nhất thiết là một điều xấu nếu được thực hiện một cách minh bạch và cân xứng, nhưng điều quan trọng là phải nhận thức được điều đó.

Tương lai của trí tuệ nhân tạo đàm thoại đòi hỏi một khuôn khổ mới, trong đó:

  • Công nhận tính chính đáng của việc phòng chống tội phạm
  • Thiết lập các tiêu chuẩn chuyên nghiệp cho những người xử lý nội dung nhạy cảm.
  • Đảm bảo tính minh bạch trong các quy trình ra quyết định.
  • Bảo vệ quyền cá nhân mà không bỏ qua sự an toàn.

Câu hỏi đúng không phải là liệu máy móc có nên báo cáo tội phạm hay không, mà là làm thế nào chúng ta có thể khiến chúng làm điều đó (ít nhất) với cùng sự khôn ngoan, đào tạo và trách nhiệm như các chuyên gia con người .

Mục tiêu không phải là quay trở lại với trí tuệ nhân tạo "mù quáng" trước những mối nguy hiểm thực sự, mà là xây dựng các hệ thống kết hợp hiệu quả công nghệ với đạo đức và chuyên môn của con người. Chỉ khi đó, chúng ta mới có thể đạt được những điều tốt đẹp nhất của cả hai thế giới: an toàn và bảo vệ quyền cá nhân.

Tài liệu tham khảo và nguồn

  1. Futurism - "OpenAI tuyên bố đang quét các cuộc hội thoại ChatGPT của người dùng và báo cáo nội dung cho cảnh sát"
  2. Văn phòng luật Puce - "Bảo mật thông tin của luật sư trưởng"
  3. Luật dành cho mọi người - "Liệu một nhà tâm lý học biết về một vụ án có bắt buộc phải báo cáo bệnh nhân của mình không?"
  4. TechCrunch - "Sam Altman cảnh báo rằng không có sự bảo mật pháp lý nào khi sử dụng ChatGPT với tư cách là một nhà trị liệu"
  5. Blog của Shinkai - "Các cuộc hội thoại ChatGPT của OpenAI bị quét và báo cáo cho cảnh sát, gây ra sự phẫn nộ của người dùng và lo ngại về quyền riêng tư"
  6. Simon Willison - "OpenAI chỉ trích lệnh của tòa án yêu cầu lưu giữ toàn bộ nhật ký ChatGPT, bao gồm cả các cuộc trò chuyện đã bị xóa"
  7. Tin vui về thành công - "Vụ kiện OpenAI năm 2025: Kháng cáo lên NYT về dữ liệu ChatGPT"

Tài nguyên cho sự phát triển kinh doanh

Ngày 9 tháng 11 năm 2025

Hướng dẫn đầy đủ về phần mềm Business Intelligence dành cho doanh nghiệp vừa và nhỏ

Sáu mươi phần trăm các doanh nghiệp vừa và nhỏ của Ý thừa nhận những lỗ hổng nghiêm trọng trong đào tạo dữ liệu, 29% thậm chí không có con số chuyên dụng—trong khi thị trường BI của Ý bùng nổ từ 36,79 tỷ đô la lên 69,45 tỷ đô la vào năm 2034 (Tốc độ tăng trưởng kép hàng năm (CAGR) là 8,56%). Vấn đề không phải là công nghệ, mà là cách tiếp cận: Các doanh nghiệp vừa và nhỏ đang chìm trong dữ liệu nằm rải rác trên các CRM, ERP và bảng tính Excel mà không biến chúng thành quyết định. Điều này áp dụng cho cả những người bắt đầu từ con số 0 và những người muốn tối ưu hóa. Các tiêu chí lựa chọn chính: khả năng sử dụng kéo và thả mà không cần nhiều tháng đào tạo, khả năng mở rộng phát triển cùng bạn, tích hợp gốc với các hệ thống hiện có, TCO hoàn chỉnh (triển khai + đào tạo + bảo trì) so với chỉ giá cấp phép. Lộ trình bốn giai đoạn—các mục tiêu SMART có thể đo lường được (giảm tỷ lệ khách hàng rời bỏ dịch vụ 15% trong 6 tháng), lập bản đồ các nguồn dữ liệu sạch (đầu vào rác = đầu ra rác), đào tạo nhóm về văn hóa dữ liệu, các dự án thí điểm với vòng phản hồi liên tục. AI thay đổi mọi thứ: từ BI mô tả (những gì đã xảy ra) đến phân tích tăng cường giúp khám phá các mô hình ẩn, phân tích dự đoán ước tính nhu cầu trong tương lai và phân tích theo quy định gợi ý các hành động cụ thể. Electe dân chủ hóa quyền lực này cho các doanh nghiệp vừa và nhỏ.
Ngày 9 tháng 11 năm 2025

Hệ thống làm mát AI của Google DeepMind: Trí tuệ nhân tạo cách mạng hóa hiệu quả năng lượng của trung tâm dữ liệu như thế nào

Google DeepMind đạt được mức tiết kiệm năng lượng làm mát trung tâm dữ liệu là -40% (nhưng chỉ -4% tổng mức tiêu thụ, vì làm mát chiếm 10% tổng mức tiêu thụ)—độ chính xác 99,6% với lỗi 0,4% trên PUE 1.1 bằng cách sử dụng học sâu 5 lớp, 50 nút, 19 biến đầu vào trên 184.435 mẫu đào tạo (2 năm dữ liệu). Đã xác nhận tại 3 cơ sở: Singapore (triển khai lần đầu năm 2016), Eemshaven, Council Bluffs (đầu tư 5 tỷ đô la). PUE trên toàn đội xe của Google là 1,09 so với mức trung bình của ngành là 1,56-1,58. Kiểm soát dự đoán mô hình dự đoán nhiệt độ/áp suất cho giờ tiếp theo đồng thời quản lý tải CNTT, thời tiết và trạng thái thiết bị. Bảo mật được đảm bảo: xác minh hai cấp, người vận hành luôn có thể vô hiệu hóa AI. Hạn chế quan trọng: không có xác minh độc lập từ các công ty kiểm toán/phòng thí nghiệm quốc gia, mỗi trung tâm dữ liệu yêu cầu một mô hình tùy chỉnh (8 năm, không bao giờ được thương mại hóa). Triển khai: 6-18 tháng, yêu cầu một nhóm đa ngành (khoa học dữ liệu, HVAC, quản lý cơ sở). Áp dụng ngoài các trung tâm dữ liệu: nhà máy công nghiệp, bệnh viện, trung tâm mua sắm, văn phòng công ty. 2024-2025: Google chuyển sang làm mát bằng chất lỏng trực tiếp cho TPU v5p, cho thấy những hạn chế thực tế của việc tối ưu hóa AI.
Ngày 9 tháng 11 năm 2025

Tại sao Toán học lại khó (Ngay cả khi bạn là AI)

Các mô hình ngôn ngữ không thể nhân—chúng ghi nhớ kết quả giống như chúng ta ghi nhớ số pi, nhưng điều đó không làm cho chúng có năng lực toán học. Vấn đề nằm ở cấu trúc: chúng học thông qua sự tương đồng về mặt thống kê, chứ không phải sự hiểu biết về thuật toán. Ngay cả những "mô hình suy luận" mới như o1 cũng thất bại trong các nhiệm vụ tầm thường: nó đếm đúng chữ 'r' trong "strawberry" sau vài giây xử lý, nhưng lại thất bại khi phải viết một đoạn văn mà chữ cái thứ hai của mỗi câu lại viết thành một từ. Phiên bản cao cấp 200 đô la một tháng mất bốn phút để giải quyết những gì một đứa trẻ có thể làm ngay lập tức. DeepSeek và Mistral vẫn đếm sai chữ cái vào năm 2025. Giải pháp mới nổi? Một phương pháp tiếp cận kết hợp—các mô hình thông minh nhất đã tìm ra thời điểm cần gọi một máy tính thực sự thay vì tự mình thực hiện phép tính. Chuyển đổi mô hình: AI không cần phải biết cách làm mọi thứ, nhưng phải sắp xếp các công cụ phù hợp. Nghịch lý cuối cùng: GPT-4 có thể giải thích lý thuyết giới hạn một cách xuất sắc, nhưng lại thất bại trong các bài toán nhân mà máy tính bỏ túi luôn giải đúng. Chúng rất tuyệt vời cho việc học toán - chúng giải thích với sự kiên nhẫn vô hạn, đưa ra ví dụ và phân tích lập luận phức tạp. Để tính toán chính xác? Hãy tin vào máy tính, chứ không phải trí tuệ nhân tạo.