Newsletter

Ảo tưởng về sự tiến bộ: Mô phỏng trí tuệ nhân tạo tổng quát mà không đạt được nó

Chúng ta không xây dựng AGI—chúng ta đang xây dựng một ảo tưởng ngày càng thuyết phục. Vào năm 2025, trí tuệ tổng quát sẽ không xuất hiện từ một hệ thống duy nhất, mà từ một bức tranh khảm các AI chuyên biệt được phối hợp: LLM, trình tạo hình ảnh, AlphaFold. Điện toán lượng tử hứa hẹn sẽ vượt qua ngưỡng tính toán (mức tiêu thụ -99% theo IBM), trong khi Microsoft và Google cạnh tranh bằng những phương pháp hoàn toàn khác biệt. Sự khiêu khích ở đây là gì? Nếu ý thức con người tự nó là một ảo tưởng mới nổi, thì có lẽ AGI "do ủy nhiệm" giống chúng ta hơn chúng ta nghĩ.

Trí tuệ Nhân tạo Tổng quát (AGI) - một hệ thống có trí thông minh tương đương hoặc vượt trội hơn con người trong mọi lĩnh vực - vẫn tiếp tục được coi là mục tiêu tối thượng của công nghệ. Tuy nhiên, vào năm 2025, một con đường khác đang trở nên rõ ràng hơn: chúng ta không đạt được AGI như một hệ thống thống nhất, mà thông qua một ảo tưởng ngày càng thuyết phục được tạo ra bởi sự kết hợp của nhiều AI chuyên biệt hẹp.

Bức tranh khảm của trí tuệ nhân tạo

AI ngày nay vượt trội trong các nhiệm vụ cụ thể: Mô hình Ngôn ngữ Lớn (LLM) xử lý văn bản, các mô hình như Midjourney hoặc DALL-E tạo hình ảnh, AlphaFold phân tích protein. Mặc dù bị giới hạn riêng lẻ, nhưng khi được tích hợp vào một hệ sinh thái phối hợp, những AI hẹp này tạo ra vẻ ngoài của trí thông minh tổng quát - một "đại diện" của AGI.

Theo báo cáo AI Index 2025 của Đại học Stanford, mặc dù đã có những tiến bộ đáng kể, AI vẫn tiếp tục phải đối mặt với những thách thức trong suy luận phức tạp.

Các mô hình tiên tiến nhất có thể giải quyết các vấn đề có cấu trúc cao, nhưng lại có những hạn chế rõ rệt khi xét đến lập luận logic phức tạp, lập kế hoạch tuần tự và tư duy trừu tượng.

Phương pháp tiếp cận "Xã hội tâm trí" và hệ thống đa tác nhân

Vào năm 2025, trí tuệ nhân tạo đang phát triển nhanh chóng, chuyển đổi từ một công nghệ ngách thành một yếu tố chiến lược của bối cảnh công nghệ và xã hội, với những hàm ý sâu sắc về văn hóa và đạo đức.

Điều này đã dẫn đến sự xuất hiện của các hệ thống AI tác nhân đưa chúng ta đến gần hơn với chân trời trí tuệ nhân tạo tổng quát.

Trong hệ thống đa tác nhân, mỗi tác nhân hoạt động độc lập, sử dụng dữ liệu cục bộ và đưa ra quyết định tự chủ mà không phụ thuộc vào bộ điều khiển trung tâm.

Mỗi tác nhân có một góc nhìn cục bộ, nhưng không ai có góc nhìn toàn cục về toàn bộ hệ thống. Sự phân quyền này cho phép các tác nhân quản lý các tác vụ riêng lẻ, đồng thời đóng góp vào mục tiêu chung thông qua tương tác.

Đến năm 2025, các hệ thống đa tác nhân - nơi nhiều tác nhân AI hợp tác để đạt được các mục tiêu phức tạp - sẽ ngày càng phổ biến. Các hệ thống này có thể tối ưu hóa quy trình làm việc, tạo ra thông tin chi tiết và hỗ trợ ra quyết định trong nhiều ngành công nghiệp khác nhau.

Ví dụ, trong dịch vụ khách hàng, các tác nhân AI xử lý các yêu cầu phức tạp; trong sản xuất, họ giám sát dây chuyền sản xuất theo thời gian thực; và trong hậu cần, họ điều phối chuỗi cung ứng một cách linh hoạt.

Cao nguyên tính toán và rào cản vật lý

Mặc dù đã có những tiến bộ ấn tượng, chúng ta đang bắt đầu đạt đến ngưỡng bão hòa trong phát triển tính toán truyền thống. Từ năm 1959 đến năm 2012, lượng năng lượng cần thiết để huấn luyện các mô hình AI tăng gấp đôi sau mỗi hai năm, theo Định luật Moore. Tuy nhiên, dữ liệu gần đây hơn cho thấy sau năm 2012, tốc độ tăng gấp đôi này đã nhanh hơn đáng kể - cứ sau 3,4 tháng - khiến tốc độ hiện tại nhanh hơn bảy lần so với tốc độ trước đó.

Sự gia tăng đáng kể về sức mạnh tính toán cần thiết này nhấn mạnh mức độ thách thức về mặt kinh tế để đạt được những tiến bộ đáng kể trong AI.

Lời hứa của máy tính lượng tử

Điện toán lượng tử có thể vượt qua trở ngại này, mang đến một bước chuyển đổi mô hình về sức mạnh tính toán cần thiết cho các mô hình thậm chí còn phức tạp hơn. Vào năm 2025, điện toán lượng tử đang nổi lên như một công cụ quan trọng để giải quyết những thách thức này, khi các công ty công nghệ áp dụng các nguồn năng lượng thay thế để theo kịp mức tiêu thụ năng lượng ngày càng tăng của AI.

Theo dự đoán của Arvind Krishna, CEO của IBM, nhờ những tiến bộ nhanh chóng trong điện toán lượng tử, mức tiêu thụ năng lượng và nước của AI có thể giảm tới 99% trong năm năm tới.

Công nghệ này hứa hẹn sẽ mở ra những khả năng tính toán chưa từng có trước đây và mở ra những chân trời mới trong nghiên cứu khoa học.

Một tiến bộ lớn đã được D-Wave Quantum công bố vào tháng 3 năm 2025, khi công bố một bài báo được bình duyệt có tựa đề “Beyond-Classical Computation in Quantum Simulation”, chứng minh rằng máy tính lượng tử ủ của họ đã vượt trội hơn một trong những siêu máy tính cổ điển mạnh nhất thế giới trong việc giải quyết các vấn đề mô phỏng vật liệu từ tính phức tạp .

Năm 2025 đã chứng kiến những tiến bộ mang tính đột phá trong điện toán lượng tử, với những tiến bộ vượt bậc về phần cứng, sửa lỗi, tích hợp AI và mạng lượng tử. Những tiến bộ này đang định hình lại vai trò tiềm năng của điện toán lượng tử trong các lĩnh vực như chăm sóc sức khỏe, tài chính và hậu cần .

Tuy nhiên, theo Forrester, máy tính lượng tử vẫn đang trong giai đoạn thử nghiệm mặc dù đã có những tiến bộ vào năm 2025 và vẫn chưa chứng minh được lợi thế thực tế so với máy tính cổ điển trong hầu hết các ứng dụng.

Cuộc đua lượng tử: Microsoft so với Google?

Microsoft tuyên bố đã đạt được tiến bộ đáng kể trong điện toán lượng tử với chip Majorana 1, ra mắt vào đầu năm 2025. Bộ xử lý này có kiến ​​trúc Lõi Topological mới , được xây dựng với tám qubit topo để điều khiển các hạt Majorana, các hạt bán hoạt động giống như "nửa electron" được biết đến với khả năng chống lỗi mạnh.

Mặt khác, Google đã phát triển một phương pháp tiếp cận khác với chip lượng tử mang tính cách mạng có tên là Willow, giải quyết vấn đề truyền thống về tỷ lệ lỗi tăng khi số qubit tăng lên—Willow thực sự trở nên chính xác hơn khi có nhiều qubit hơn được thêm vào.

Hai chiến lược khác nhau này đại diện cho những cách tiếp cận cơ bản khác nhau đối với điện toán lượng tử, trong đó Microsoft tập trung vào cấu trúc mạng và Google tập trung vào tối ưu hóa lỗi.

Rào cản nhận thức vẫn tồn tại

Ngoài những hạn chế về phần cứng, AI tổng hợp còn phải đối mặt với những rào cản cơ bản khác:

Hiểu biết nhân quả : Các hệ thống tương quan các biến số nhưng không cô lập được mối quan hệ nhân quả thực sự. AI đã đạt được những tiến bộ đáng kể trong nhiều lĩnh vực, nhưng vẫn còn nhiều hạn chế trong việc hiểu và phản ứng với cảm xúc của con người, đưa ra quyết định trong các tình huống khủng hoảng và đánh giá các cân nhắc về đạo đức.

Học liên tục : Mạng nơ-ron mất đi độ chính xác khi được đào tạo tuần tự trên các nhiệm vụ khác nhau, thể hiện một loại "chứng mất trí nhớ thảm khốc".

Nhận thức siêu việt : AI thiếu mô hình nội bộ về nhận thức của chính chúng, hạn chế khả năng tự cải thiện thực sự.

Nhận thức và cảm xúc: AI vượt trội về khả năng lập luận tính toán nhưng vẫn tiếp tục gặp phải những hạn chế sâu sắc về khả năng hiểu cảm xúc và cân nhắc đạo đức. Ranh giới giữa trí tuệ nhân tạo và trí tuệ con người có thể nằm chính xác ở sự cân bằng giữa logic và cảm xúc.

Hướng tới AGI "bằng Proxy"

Cộng đồng khoa học dường như khá chia rẽ về các công nghệ và khung thời gian cần thiết để đạt được mục tiêu Trí tuệ nhân tạo tổng quát (AGI), nhưng cuộc tranh luận đang làm sáng tỏ một số ý tưởng mới thú vị, hiện đang được ứng dụng thực tế trong nghiên cứu các hệ thống AI mới.

Năm 2025 có thể là năm các hệ thống tác nhân đầu tiên được đưa vào sản xuất tại các doanh nghiệp.

Trong khi AGI đại diện cho mục tiêu đầy tham vọng nhất – các hệ thống có khả năng nhận thức tương đương hoặc vượt trội hơn con người, có khả năng hiểu, học và áp dụng kiến thức trên nhiều lĩnh vực.

Thay vì chờ đợi một AGI nguyên khối, tương lai có nhiều khả năng sẽ chứng kiến ​​sự xuất hiện của cái mà chúng ta có thể gọi là "AGI mặt tiền" – những hệ thống dường như sở hữu trí thông minh tổng quát thông qua:

  1. Phối hợp dịch vụ vi mô AI : Nhiều AI chuyên biệt được phối hợp thông qua một lớp trừu tượng chung.
  2. Giao diện đàm thoại hợp nhất : Một giao diện duy nhất ẩn đi tính phức tạp của nhiều hệ thống cơ bản.
  3. Học tập liên miền hạn chế : Chia sẻ kiến thức có chọn lọc trên các miền cụ thể.

Ý thức: Thực tế hay ảo tưởng chung?

Trong cuộc tranh luận về AGI, chúng ta thường cho rằng con người sở hữu một "ý thức" mà máy móc không thể sao chép. Nhưng có lẽ chúng ta nên đặt ra một câu hỏi cấp tiến hơn: liệu ý thức của con người có thực sự tồn tại, hay nó cũng chỉ là một ảo ảnh?

Một số nhà khoa học thần kinh và triết gia về tâm trí, chẳng hạn như Daniel Dennett, đã đề xuất rằng cái mà chúng ta gọi là "ý thức" có thể tự nó là một câu chuyện hậu sự - một cách diễn giải mà não bộ xây dựng để hiểu được các hoạt động của chính nó .

Nếu chúng ta nghĩ về ý thức không phải là một đặc tính bí ẩn, thống nhất, mà là một tập hợp các quá trình thần kinh có sự kết nối với nhau tạo ra ảo giác thuyết phục về một "cái tôi" thống nhất, thì ranh giới giữa con người và máy móc sẽ trở nên mờ nhạt.

Từ góc nhìn này, chúng ta có thể coi sự khác biệt giữa AGI mới nổi và trí thông minh của con người là sự khác biệt về mức độ chứ không phải bản chất. Ảo tưởng về sự hiểu biết mà chúng ta thấy trong các mô hình ngôn ngữ tiên tiến có thể không khác mấy so với ảo tưởng về sự hiểu biết mà chính chúng ta trải nghiệm - cả hai đều xuất phát từ các mạng lưới quy trình phức tạp, mặc dù được tổ chức theo những cách cơ bản khác nhau.

Quan điểm này đặt ra một câu hỏi đầy tính khiêu khích: nếu ý thức con người tự nó là một mô phỏng xuất hiện từ nhiều quá trình nhận thức có liên hệ với nhau, thì AGI “ủy nhiệm” mà chúng ta đang xây dựng - một bức tranh ghép các hệ thống chuyên biệt hợp tác để mô phỏng sự hiểu biết chung - có thể giống một cách đáng ngạc nhiên với kiến trúc tinh thần của chúng ta.

Chúng tôi sẽ không cố gắng sao chép một phẩm chất kỳ diệu, không thể diễn tả được, mà thay vào đó là tái tạo ảo ảnh hấp dẫn mà chính chúng ta trải nghiệm như là ý thức.

Sự phản ánh này không làm giảm đi chiều sâu của trải nghiệm con người, nhưng nó mời gọi chúng ta xem xét lại ý nghĩa thực sự của chúng ta khi nói về "ý thức" và liệu khái niệm này có thực sự là một trở ngại không thể vượt qua đối với trí tuệ nhân tạo hay chỉ đơn giản là một quá trình khác mà một ngày nào đó chúng ta có thể mô phỏng được.

Nhiều con đường dẫn đến AGI: hệ thống đa tác nhân, điện toán lượng tử, hay điều phối AI chuyên biệt? Trí thông minh tổng quát thực sự có thể xuất hiện từ sự kết hợp của tất cả những con đường này.

Kết luận: Suy nghĩ lại về vạch đích

Có lẽ chúng ta nên xem xét lại hoàn toàn định nghĩa của mình về AGI. Nếu bản thân ý thức con người có thể là một ảo ảnh mới nổi - một câu chuyện mà bộ não dựng lên để lý giải các hoạt động của nó - thì ranh giới rõ ràng giữa trí tuệ con người và trí tuệ nhân tạo sẽ trở nên mờ nhạt.

Các chuyên gia dự đoán năm 2027 có thể đánh dấu một bước ngoặt cho AI. Với tốc độ hiện tại, các mô hình có thể đạt được tính tổng quát về nhận thức - khả năng giải quyết mọi nhiệm vụ của con người - chỉ trong vòng vài năm.

Kịch bản này không nên chỉ được xem là sự sao chép trí thông minh của con người, mà là sự xuất hiện của một loại trí thông minh mới - không hoàn toàn giống con người cũng không hoàn toàn nhân tạo, mà là thứ gì đó khác biệt và có khả năng bổ sung cho nhau.

Cách tiếp cận này giải phóng chúng ta khỏi việc cố gắng sao chép thứ mà chúng ta có thể chưa hiểu hết - ý thức con người - và thay vào đó, cho phép chúng ta tập trung vào những gì AI có thể làm theo cách riêng của nó. Do đó, AGI mới nổi sẽ không phải là một hệ thống đơn lẻ "giả vờ" là con người, mà là một hệ sinh thái công nghệ tích hợp với những đặc điểm riêng đang nổi lên - một trí tuệ phân tán, nghịch lý thay, có thể phản ánh bản chất phân mảnh và kết nối của nhận thức của chúng ta nhiều hơn chúng ta nghĩ ban đầu.

Theo nghĩa này, việc theo đuổi AGI không phải là nỗ lực mô phỏng con người mà là hành trình khám phá bản chất thực sự của trí thông minh và ý thức, cả của con người và nhân tạo.

Nguồn

  1. https://www.justthink.ai/artificial-general-intelligence/understanding-agi-vs-narrow-ai-explaining-the-differences-and-implications
  2. https://www.rand.org/pubs/commentary/2024/02/why-artificial-general-intelligence-lies-beyond-deep.html
  3. https://futurism.com/glimmers-agi-illusion
  4. https://ai.stackexchange.com/questions/26007/are-there-any-approaches-to-agi-that-will-definitely-not-work
  5. https://qubic.org/blog-detail/the-path-to-agi-overcoming-the-computational-challenge
  6. https://www.linkedin.com/pulse/amplification-intelligence-recursive-self-improvement-gary-ramah-0wjpc
  7. https://www.investopedia.com/artificial-general-intelligence-7563858

Tài nguyên cho sự phát triển kinh doanh

Ngày 9 tháng 11 năm 2025

Quy định về AI cho các ứng dụng tiêu dùng: Cách chuẩn bị cho các quy định mới năm 2025

Năm 2025 đánh dấu sự kết thúc của kỷ nguyên "Miền Tây Hoang dã" của AI: Đạo luật AI của EU có hiệu lực vào tháng 8 năm 2024, với các yêu cầu về kiến ​​thức AI từ ngày 2 tháng 2 năm 2025, và quản trị cùng GPAI từ ngày 2 tháng 8. California dẫn đầu với SB 243 (ra đời sau vụ tự tử của Sewell Setzer, một cậu bé 14 tuổi đã phát triển mối quan hệ tình cảm với chatbot), trong đó áp đặt lệnh cấm các hệ thống khen thưởng cưỡng chế, phát hiện ý định tự tử, nhắc nhở "Tôi không phải là người" ba giờ một lần, kiểm toán công khai độc lập và phạt 1.000 đô la cho mỗi vi phạm. SB 420 yêu cầu đánh giá tác động đối với "các quyết định tự động có rủi ro cao" với quyền kháng cáo lên cơ quan chức năng. Thực thi thực tế: Noom bị kiện vào năm 2022 vì bot đóng giả làm huấn luyện viên con người, một khoản bồi thường trị giá 56 triệu đô la. Xu hướng quốc gia: Alabama, Hawaii, Illinois, Maine và Massachusetts phân loại việc không thông báo cho chatbot AI là vi phạm UDAP. Phương pháp tiếp cận rủi ro ba cấp độ—các hệ thống quan trọng (y tế/giao thông/năng lượng), chứng nhận trước khi triển khai, công bố thông tin minh bạch hướng đến người tiêu dùng, đăng ký mục đích chung và kiểm tra bảo mật. Quy định chắp vá mà không có quyền ưu tiên của liên bang: các công ty đa quốc gia phải điều chỉnh các yêu cầu thay đổi. EU từ tháng 8 năm 2026: thông báo cho người dùng về tương tác AI trừ khi nội dung rõ ràng do AI tạo ra được gắn nhãn là có thể đọc được bằng máy.
Ngày 9 tháng 11 năm 2025

Quản lý những thứ không được tạo ra: Liệu châu Âu có nguy cơ mất đi sự liên quan về mặt công nghệ không?

Châu Âu chỉ thu hút được một phần mười đầu tư toàn cầu vào AI, nhưng lại tuyên bố áp đặt các quy tắc toàn cầu. Đây chính là "Hiệu ứng Brussels" - áp đặt các quy định toàn cầu thông qua sức mạnh thị trường mà không thúc đẩy đổi mới. Đạo luật AI có hiệu lực theo lịch trình so le cho đến năm 2027, nhưng các tập đoàn công nghệ đa quốc gia đang phản ứng bằng các chiến lược né tránh sáng tạo: viện dẫn bí mật thương mại để tránh tiết lộ dữ liệu đào tạo, đưa ra các bản tóm tắt tuân thủ kỹ thuật nhưng khó hiểu, sử dụng phương pháp tự đánh giá để hạ cấp hệ thống từ "rủi ro cao" xuống "rủi ro tối thiểu" và tham gia vào việc mua bán diễn đàn bằng cách chọn các quốc gia thành viên có quy định kiểm soát ít nghiêm ngặt hơn. Nghịch lý về bản quyền ngoài lãnh thổ: EU yêu cầu OpenAI tuân thủ luật pháp châu Âu ngay cả đối với việc đào tạo bên ngoài châu Âu - một nguyên tắc chưa từng thấy trong luật pháp quốc tế. "Mô hình kép" xuất hiện: các phiên bản giới hạn của châu Âu so với các phiên bản toàn cầu tiên tiến của cùng một sản phẩm AI. Rủi ro thực sự: Châu Âu trở thành một "pháo đài kỹ thuật số" bị cô lập khỏi đổi mới toàn cầu, với công dân châu Âu tiếp cận các công nghệ kém hơn. Tòa án Công lý đã bác bỏ lời biện hộ "bí mật thương mại" trong vụ kiện chấm điểm tín dụng, nhưng sự không chắc chắn trong diễn giải vẫn còn rất lớn—chính xác thì "tóm tắt chi tiết đầy đủ" nghĩa là gì? Không ai biết. Câu hỏi cuối cùng chưa được trả lời: EU đang tạo ra một con đường thứ ba đạo đức giữa chủ nghĩa tư bản Hoa Kỳ và sự kiểm soát của nhà nước Trung Quốc, hay chỉ đơn giản là xuất khẩu bộ máy quan liêu sang một lĩnh vực mà nó không cạnh tranh? Hiện tại: một quốc gia dẫn đầu thế giới về quy định AI, nhưng đang trong giai đoạn phát triển. Một chương trình khổng lồ.
Ngày 9 tháng 11 năm 2025

Ngoại lệ: Nơi khoa học dữ liệu gặp gỡ những câu chuyện thành công

Khoa học dữ liệu đã đảo ngược mô hình: các giá trị ngoại lệ không còn là "lỗi cần loại bỏ" mà là thông tin giá trị cần được hiểu. Một giá trị ngoại lệ đơn lẻ có thể làm biến dạng hoàn toàn mô hình hồi quy tuyến tính - thay đổi độ dốc từ 2 thành 10 - nhưng việc loại bỏ nó có thể đồng nghĩa với việc mất đi tín hiệu quan trọng nhất trong tập dữ liệu. Học máy giới thiệu các công cụ tinh vi: Rừng Cô lập cô lập các giá trị ngoại lệ bằng cách xây dựng cây quyết định ngẫu nhiên, Hệ số Ngoại lệ Cục bộ phân tích mật độ cục bộ, và Bộ mã hóa Tự động tái tạo dữ liệu bình thường và đánh dấu những gì chúng không thể tái tạo. Có các giá trị ngoại lệ toàn cầu (nhiệt độ -10°C ở vùng nhiệt đới), các giá trị ngoại lệ theo ngữ cảnh (chi 1.000 euro ở một khu dân cư nghèo) và các giá trị tập thể (lưu lượng mạng đạt đỉnh đồng bộ cho thấy có tấn công). Một điểm tương đồng với Gladwell: "quy tắc 10.000 giờ" đang bị tranh cãi - Paul McCartney đã nói, "Nhiều ban nhạc đã biểu diễn 10.000 giờ ở Hamburg mà không thành công; lý thuyết này không phải là hoàn hảo." Thành công toán học châu Á không phải do di truyền mà do văn hóa: Hệ thống số trực quan hơn của Trung Quốc, canh tác lúa đòi hỏi sự cải tiến liên tục so với sự bành trướng lãnh thổ của nền nông nghiệp phương Tây. Ứng dụng thực tế: Các ngân hàng Anh thu hồi 18% tổn thất tiềm ẩn thông qua phát hiện bất thường theo thời gian thực, sản xuất phát hiện các lỗi vi mô mà kiểm tra thủ công có thể bỏ sót, chăm sóc sức khỏe xác thực dữ liệu thử nghiệm lâm sàng với độ nhạy phát hiện bất thường trên 85%. Bài học cuối cùng: Khi khoa học dữ liệu chuyển từ loại bỏ các giá trị ngoại lai sang hiểu rõ chúng, chúng ta phải xem những nghề nghiệp phi truyền thống không phải là những bất thường cần được khắc phục mà là những quỹ đạo giá trị cần được nghiên cứu.