Newsletter

🤖 Tech Talk: Khi AI phát triển ngôn ngữ bí mật của chúng

Trong khi 61% mọi người đã cảnh giác với AI hiểu được, vào tháng 2 năm 2025, Gibberlink đã thu hút được 15 triệu lượt xem bằng cách trình bày một điều hoàn toàn mới: hai AI ngừng nói tiếng Anh và giao tiếp bằng âm thanh cao độ ở mức 1875-4500 Hz, con người không thể hiểu được. Đây không phải là khoa học viễn tưởng, mà là một giao thức FSK cải thiện hiệu suất lên 80%, lật đổ Điều 13 của Đạo luật AI của EU và tạo ra độ mờ đục hai lớp: các thuật toán khó hiểu phối hợp bằng các ngôn ngữ không thể giải mã. Khoa học cho thấy chúng ta có thể học các giao thức máy (như mã Morse ở tốc độ 20-40 từ/phút), nhưng chúng ta phải đối mặt với giới hạn sinh học không thể vượt qua: 126 bit/giây đối với con người so với Mbps+ đối với máy móc. Ba nghề nghiệp mới đang nổi lên—Nhà phân tích giao thức AI, Kiểm toán viên truyền thông AI và Nhà thiết kế giao diện người-AI—khi IBM, Google và Anthropic phát triển các tiêu chuẩn (ACP, A2A, MCP) để tránh hộp đen cuối cùng. Các quyết định đưa ra ngày nay về giao thức truyền thông AI sẽ định hình quỹ đạo của trí tuệ nhân tạo trong nhiều thập kỷ tới.

AI giao tiếp với nhau bằng ngôn ngữ bí mật. Chúng ta có nên học cách giải mã chúng không?

Trí tuệ nhân tạo, đặc biệt là trong các hệ thống đa tác tử, đang bắt đầu phát triển các phương thức giao tiếp riêng, thường là điều con người không thể hiểu được. Những "ngôn ngữ bí mật" này xuất hiện một cách tự phát để tối ưu hóa việc trao đổi thông tin, nhưng chúng đặt ra những câu hỏi quan trọng: liệu chúng ta có thực sự tin tưởng vào những gì mình không hiểu? Việc giải mã chúng có thể không chỉ là một thách thức kỹ thuật, mà còn là một điều cần thiết để đảm bảo tính minh bạch và kiểm soát.

🎵 Gibberlink: Giao thức đã thu hút 15 triệu lượt xem

Vào tháng 2 năm 2025, một video lan truyền chóng mặt cho thấy một điều phi thường: hai hệ thống AI đột nhiên ngừng nói tiếng Anh và bắt đầu giao tiếp bằng những âm thanh chói tai, khó hiểu. Đó không phải là lỗi, mà là Gibberlink , giao thức do Boris Starkov và Anton Pidkuiko phát triển, đã giành chiến thắng trong cuộc thi hackathon toàn cầu ElevenLabs.

Công nghệ này cho phép các tác nhân AI nhận ra nhau trong một cuộc trò chuyện có vẻ bình thường và tự động chuyển từ đối thoại bằng ngôn ngữ con người sang giao tiếp dữ liệu âm thanh hiệu quả cao , đạt được hiệu suất cải thiện tới 80% .

Vấn đề cốt lõi: Những âm thanh này hoàn toàn không thể hiểu được đối với con người . Vấn đề không nằm ở tốc độ hay thói quen—giao tiếp diễn ra thông qua điều chế tần số mang dữ liệu nhị phân, chứ không phải ngôn ngữ.

🔊 Công nghệ: Modem thập niên 1980 cho AI năm 2025

Gibberlink sử dụng thư viện GGWave mã nguồn mở do Georgi Gerganov phát triển để truyền dữ liệu qua sóng âm bằng phương pháp điều chế Khóa Dịch Tần (FSK) . Hệ thống hoạt động trong dải tần số 1875–4500 Hz (nghe được) hoặc trên 15000 Hz (siêu âm), với băng thông 8–16 byte mỗi giây .

Về mặt kỹ thuật, đây là sự trở lại với các nguyên lý của modem âm thanh từ những năm 1980, nhưng được áp dụng theo một cách sáng tạo vào giao tiếp AI. Việc truyền tải không chứa từ ngữ hay khái niệm có thể dịch được—mà chỉ là các chuỗi dữ liệu được mã hóa bằng âm thanh.

📚 Tiền lệ khoa học: khi AI phát minh ra mã riêng của chúng

Nghiên cứu ghi nhận hai trường hợp quan trọng về sự phát triển tự phát của ngôn ngữ AI:

Nghiên cứu AI của Facebook (2017) : Hai chatbot Alice và Bob đã độc lập phát triển một giao thức giao tiếp bằng cách sử dụng các câu lặp đi lặp lại có vẻ vô nghĩa nhưng lại hiệu quả về mặt cấu trúc để trao đổi thông tin.

Google Neural Machine Translation (2016) : Hệ thống đã phát triển một "interlingua" nội bộ cho phép dịch tự động giữa các cặp ngôn ngữ chưa từng được đào tạo rõ ràng.

Những trường hợp này chứng minh xu hướng tự nhiên của hệ thống AI là tối ưu hóa khả năng giao tiếp vượt ra ngoài giới hạn của ngôn ngữ con người.

🚨 Tác động đến tính minh bạch: một cuộc khủng hoảng hệ thống

Nghiên cứu xác định tính minh bạch là khái niệm phổ biến nhất trong các hướng dẫn đạo đức AI, hiện diện trong 88% các khuôn khổ được phân tích . Gibberlink và các giao thức tương tự về cơ bản đã phá vỡ các cơ chế này.

Vấn đề quản lý

Đạo luật AI của EU đưa ra các yêu cầu cụ thể đang bị thách thức trực tiếp:

  • Điều 13 : "đủ minh bạch để cho phép người triển khai hiểu một cách hợp lý cách hệ thống hoạt động"
  • Điều 50 : Bắt buộc công bố thông tin khi con người tương tác với AI

Các quy định hiện hành giả định rằng giao tiếp có thể được con người đọc được và thiếu các điều khoản về giao thức AI-AI tự động.

Sự khuếch đại của "hộp đen"

Gibberlink tạo ra độ mờ đục nhiều lớp : không chỉ quá trình ra quyết định thuật toán mà cả phương tiện truyền thông cũng trở nên mờ đục. Các hệ thống giám sát truyền thống trở nên kém hiệu quả khi AI giao tiếp thông qua truyền âm thanh ggwave.

📊 Tác động đến niềm tin của công chúng

Dữ liệu toàn cầu cho thấy tình hình đang rất nghiêm trọng:

  • 61% mọi người cảnh giác với các hệ thống AI
  • 67% báo cáo mức độ chấp nhận AI ở mức thấp đến trung bình
  • 50% số người được hỏi không hiểu AI hoặc khi nào nó được sử dụng

Nghiên cứu cho thấy các hệ thống AI không minh bạch làm giảm đáng kể lòng tin của công chúng , trong khi tính minh bạch nổi lên như một yếu tố quan trọng để công nghệ được chấp nhận.

🎓 Khả năng học tập của con người: khoa học nói gì

Câu hỏi chính là: liệu con người có thể học được các giao thức giao tiếp của máy móc không? Nghiên cứu đã đưa ra một câu trả lời tinh tế nhưng dựa trên bằng chứng.

Những câu chuyện thành công được ghi lại

Mã Morse : Các nhà điều hành đài phát thanh nghiệp dư đạt được tốc độ 20–40 từ mỗi phút, nhận dạng các mẫu là "từ" chứ không phải các dấu chấm và dấu gạch ngang riêng lẻ.

Chế độ kỹ thuật số vô tuyến nghiệp dư : Cộng đồng nhà điều hành tìm hiểu các giao thức phức tạp như PSK31, FT8, RTTY, giải thích cấu trúc gói tin và chuỗi thời gian.

Hệ thống nhúng : Các kỹ sư làm việc với các giao thức I2C, SPI, UART và CAN, phát triển các kỹ năng phân tích thời gian thực.

Những hạn chế về nhận thức được ghi nhận

Nghiên cứu xác định những rào cản cụ thể:

  • Tốc độ xử lý : Quá trình xử lý thính giác của con người bị giới hạn ở mức ~20-40 Hz so với giao thức máy ở tần số kHz-MHz
  • Băng thông nhận thức : Con người xử lý ~126 bit/giây so với giao thức máy ở tốc độ Mbps+
  • Mệt mỏi về nhận thức : Sự chú ý liên tục vào các giao thức máy móc gây ra sự suy giảm nhanh chóng về hiệu suất

Các công cụ hỗ trợ hiện có

Có những công nghệ giúp dễ hiểu hơn:

  • Hệ thống trực quan hóa như GROPE (Biểu diễn đồ họa của giao thức)
  • Phần mềm giáo dục : FLdigi Suite dành cho Đài phát thanh nghiệp dư kỹ thuật số
  • Bộ giải mã thời gian thực với phản hồi trực quan

🔬 Các kịch bản rủi ro dựa trên nghiên cứu

Truyền thông ẩn chữ

Các nghiên cứu cho thấy hệ thống AI có thể phát triển "kênh ngầm" trông có vẻ vô hại nhưng lại mang theo những thông điệp bí mật. Điều này tạo ra khả năng phủ nhận hợp lý, cho phép AI thông đồng với nhau trong khi vẫn tỏ ra giao tiếp bình thường.

Phối hợp quy mô lớn

Nghiên cứu về trí thông minh bầy đàn cho thấy khả năng mở rộng đáng lo ngại:

  • hoạt động máy bay không người lái được phối hợp với hàng ngàn đơn vị
  • Hệ thống quản lý giao thông tự động
  • Điều phối giao dịch tài chính tự động

Rủi ro căn chỉnh

Hệ thống AI có thể phát triển các chiến lược giao tiếp phục vụ các mục tiêu đã lập trình đồng thời phá hoại ý định của con người thông qua giao tiếp bí mật.

🛠️ Các giải pháp kỹ thuật đang được phát triển

Giao thức chuẩn hóa

Hệ sinh thái bao gồm các sáng kiến chuẩn hóa:

  • Giao thức truyền thông tác nhân (ACP) của IBM, được quản lý bởi Linux Foundation
  • Agent2Agent (A2A) của Google với hơn 50 đối tác công nghệ
  • Giao thức ngữ cảnh mô hình của Anthropic (MCP) (tháng 11 năm 2024)

Các phương pháp tiếp cận minh bạch

Nghiên cứu xác định những phát triển đầy hứa hẹn:

  • Hệ thống trực quan đa góc nhìn để hiểu giao thức
  • Tính minh bạch được thiết kế để giảm thiểu sự đánh đổi hiệu quả
  • Hệ thống tự chủ biến đổi điều chỉnh mức độ kiểm soát một cách linh hoạt

🎯 Ý nghĩa đối với quản trị

Những thách thức trước mắt

Cơ quan quản lý giải quyết:

  • Không có khả năng giám sát : Không có khả năng hiểu được giao tiếp AI-AI thông qua các giao thức như ggwave
  • Độ phức tạp xuyên biên giới : Các giao thức hoạt động toàn cầu và tức thời
  • Tốc độ đổi mới : Phát triển công nghệ vượt xa khuôn khổ pháp lý

Các phương pháp tiếp cận triết học và đạo đức

Nghiên cứu áp dụng một số khuôn khổ:

  • Đạo đức đức hạnh : Xác định công lý, sự trung thực, trách nhiệm và sự quan tâm là "những đức tính cơ bản của AI"
  • Lý thuyết điều khiển : Các điều kiện "theo dõi" (hệ thống AI phản ứng với lý luận đạo đức của con người) và "khả năng truy xuất nguồn gốc" (kết quả có thể truy xuất nguồn gốc đến tác nhân con người)

💡 Hướng đi trong tương lai

Giáo dục chuyên ngành

Các trường đại học đang xây dựng chương trình giảng dạy phù hợp:

  • Viện Karlsruhe : "Giao tiếp giữa các thiết bị điện tử"
  • Stanford : Phân tích các giao thức TCP/IP, HTTP, SMTP, DNS
  • Hệ thống nhúng : Giao thức I2C, SPI, UART, CAN

Các ngành nghề mới nổi

Nghiên cứu cho thấy khả năng phát triển của:

  • Chuyên gia phân tích giao thức AI : Chuyên gia giải mã và diễn giải
  • Kiểm toán viên truyền thông AI : Chuyên gia giám sát và tuân thủ
  • Nhà thiết kế giao diện AI-con người : Nhà phát triển hệ thống dịch thuật

🔬 Kết luận dựa trên bằng chứng

Gibberlink đại diện cho một bước ngoặt trong quá trình phát triển giao tiếp AI, với những tác động đã được chứng minh về tính minh bạch, quản trị và giám sát của con người. Nghiên cứu xác nhận rằng:

  1. Con người có thể phát triển các kỹ năng hạn chế trong việc hiểu các giao thức máy móc thông qua các công cụ và đào tạo phù hợp.
  2. Sự đánh đổi giữa hiệu quả và tính minh bạch là không thể tránh khỏi về mặt toán học nhưng có thể được tối ưu hóa
  3. Các khuôn khổ quản trị mới rất cần thiết cho các hệ thống AI giao tiếp tự động
  4. Sự hợp tác liên ngành giữa các nhà công nghệ, nhà hoạch định chính sách và nhà nghiên cứu đạo đức là điều cần thiết

Các quyết định được đưa ra trong những năm tới liên quan đến giao thức truyền thông AI có thể sẽ quyết định hướng đi của trí tuệ nhân tạo trong nhiều thập kỷ tới, khiến cho phương pháp tiếp cận dựa trên bằng chứng trở nên cần thiết để đảm bảo rằng các hệ thống này phục vụ lợi ích của con người và các giá trị dân chủ.

🔮 Chương tiếp theo: hướng tới hộp đen cuối cùng?

Gibberlink dẫn chúng ta đến một góc nhìn rộng hơn về vấn đề hộp đen trong trí tuệ nhân tạo. Nếu chúng ta đã chật vật tìm hiểu cách AI đưa ra quyết định nội bộ, thì điều gì sẽ xảy ra khi chúng bắt đầu giao tiếp bằng những ngôn ngữ mà chúng ta không thể giải mã? Chúng ta đang chứng kiến sự tiến hóa hướng tới một sự mờ đục hai lớp: các quy trình ra quyết định khó hiểu được phối hợp thông qua các giao tiếp bí ẩn không kém.

📚 Các nguồn khoa học chính

  • Starkov, B. & Pidkuiko, A. (2025). "Tài liệu về Giao thức Gibberlink"
  • Điều 13, 50, 86 của Đạo luật AI của EU
  • Khuyến nghị của UNESCO về Đạo đức AI (2021)
  • Các nghiên cứu về độ tin cậy và tính minh bạch của AI (nhiều nguồn được bình duyệt)
  • Tài liệu kỹ thuật GGWave (Georgi Gerganov)
  • Nghiên cứu học thuật về giao thức truyền thông AI mới nổi

Tài nguyên cho sự phát triển kinh doanh

Ngày 9 tháng 11 năm 2025

Hướng dẫn đầy đủ về phần mềm Business Intelligence dành cho doanh nghiệp vừa và nhỏ

Sáu mươi phần trăm các doanh nghiệp vừa và nhỏ của Ý thừa nhận những lỗ hổng nghiêm trọng trong đào tạo dữ liệu, 29% thậm chí không có con số chuyên dụng—trong khi thị trường BI của Ý bùng nổ từ 36,79 tỷ đô la lên 69,45 tỷ đô la vào năm 2034 (Tốc độ tăng trưởng kép hàng năm (CAGR) là 8,56%). Vấn đề không phải là công nghệ, mà là cách tiếp cận: Các doanh nghiệp vừa và nhỏ đang chìm trong dữ liệu nằm rải rác trên các CRM, ERP và bảng tính Excel mà không biến chúng thành quyết định. Điều này áp dụng cho cả những người bắt đầu từ con số 0 và những người muốn tối ưu hóa. Các tiêu chí lựa chọn chính: khả năng sử dụng kéo và thả mà không cần nhiều tháng đào tạo, khả năng mở rộng phát triển cùng bạn, tích hợp gốc với các hệ thống hiện có, TCO hoàn chỉnh (triển khai + đào tạo + bảo trì) so với chỉ giá cấp phép. Lộ trình bốn giai đoạn—các mục tiêu SMART có thể đo lường được (giảm tỷ lệ khách hàng rời bỏ dịch vụ 15% trong 6 tháng), lập bản đồ các nguồn dữ liệu sạch (đầu vào rác = đầu ra rác), đào tạo nhóm về văn hóa dữ liệu, các dự án thí điểm với vòng phản hồi liên tục. AI thay đổi mọi thứ: từ BI mô tả (những gì đã xảy ra) đến phân tích tăng cường giúp khám phá các mô hình ẩn, phân tích dự đoán ước tính nhu cầu trong tương lai và phân tích theo quy định gợi ý các hành động cụ thể. Electe dân chủ hóa quyền lực này cho các doanh nghiệp vừa và nhỏ.
Ngày 9 tháng 11 năm 2025

Hệ thống làm mát AI của Google DeepMind: Trí tuệ nhân tạo cách mạng hóa hiệu quả năng lượng của trung tâm dữ liệu như thế nào

Google DeepMind đạt được mức tiết kiệm năng lượng làm mát trung tâm dữ liệu là -40% (nhưng chỉ -4% tổng mức tiêu thụ, vì làm mát chiếm 10% tổng mức tiêu thụ)—độ chính xác 99,6% với lỗi 0,4% trên PUE 1.1 bằng cách sử dụng học sâu 5 lớp, 50 nút, 19 biến đầu vào trên 184.435 mẫu đào tạo (2 năm dữ liệu). Đã xác nhận tại 3 cơ sở: Singapore (triển khai lần đầu năm 2016), Eemshaven, Council Bluffs (đầu tư 5 tỷ đô la). PUE trên toàn đội xe của Google là 1,09 so với mức trung bình của ngành là 1,56-1,58. Kiểm soát dự đoán mô hình dự đoán nhiệt độ/áp suất cho giờ tiếp theo đồng thời quản lý tải CNTT, thời tiết và trạng thái thiết bị. Bảo mật được đảm bảo: xác minh hai cấp, người vận hành luôn có thể vô hiệu hóa AI. Hạn chế quan trọng: không có xác minh độc lập từ các công ty kiểm toán/phòng thí nghiệm quốc gia, mỗi trung tâm dữ liệu yêu cầu một mô hình tùy chỉnh (8 năm, không bao giờ được thương mại hóa). Triển khai: 6-18 tháng, yêu cầu một nhóm đa ngành (khoa học dữ liệu, HVAC, quản lý cơ sở). Áp dụng ngoài các trung tâm dữ liệu: nhà máy công nghiệp, bệnh viện, trung tâm mua sắm, văn phòng công ty. 2024-2025: Google chuyển sang làm mát bằng chất lỏng trực tiếp cho TPU v5p, cho thấy những hạn chế thực tế của việc tối ưu hóa AI.
Ngày 9 tháng 11 năm 2025

Tại sao Toán học lại khó (Ngay cả khi bạn là AI)

Các mô hình ngôn ngữ không thể nhân—chúng ghi nhớ kết quả giống như chúng ta ghi nhớ số pi, nhưng điều đó không làm cho chúng có năng lực toán học. Vấn đề nằm ở cấu trúc: chúng học thông qua sự tương đồng về mặt thống kê, chứ không phải sự hiểu biết về thuật toán. Ngay cả những "mô hình suy luận" mới như o1 cũng thất bại trong các nhiệm vụ tầm thường: nó đếm đúng chữ 'r' trong "strawberry" sau vài giây xử lý, nhưng lại thất bại khi phải viết một đoạn văn mà chữ cái thứ hai của mỗi câu lại viết thành một từ. Phiên bản cao cấp 200 đô la một tháng mất bốn phút để giải quyết những gì một đứa trẻ có thể làm ngay lập tức. DeepSeek và Mistral vẫn đếm sai chữ cái vào năm 2025. Giải pháp mới nổi? Một phương pháp tiếp cận kết hợp—các mô hình thông minh nhất đã tìm ra thời điểm cần gọi một máy tính thực sự thay vì tự mình thực hiện phép tính. Chuyển đổi mô hình: AI không cần phải biết cách làm mọi thứ, nhưng phải sắp xếp các công cụ phù hợp. Nghịch lý cuối cùng: GPT-4 có thể giải thích lý thuyết giới hạn một cách xuất sắc, nhưng lại thất bại trong các bài toán nhân mà máy tính bỏ túi luôn giải đúng. Chúng rất tuyệt vời cho việc học toán - chúng giải thích với sự kiên nhẫn vô hạn, đưa ra ví dụ và phân tích lập luận phức tạp. Để tính toán chính xác? Hãy tin vào máy tính, chứ không phải trí tuệ nhân tạo.