Trong nhiều năm qua, Thung lũng Silicon đã không ngừng đưa ra những lời hứa đầy tham vọng về trí tuệ nhân tạo (AI). Những tuyên bố này bao gồm khả năng AI suy nghĩ như con người, tự ra quyết định, thay thế lao động trí óc và thậm chí tiến gần tới trí tuệ tổng quát.
Tuy nhiên, một nghiên cứu toán học sâu sắc do hai cha con Vishal Sikka và Varin Sikka thực hiện lại hé lộ một thực tế kém lạc quan hơn nhiều. Theo họ, những giới hạn căn bản trong cấu trúc của các mô hình AI hiện nay khiến phần lớn lời hứa đó khó có thể trở thành hiện thực.
Vishal Sikka không phải là cái tên xa lạ trong giới công nghệ. Ông từng là CTO của SAP, CEO Infosys và có bằng tiến sĩ về trí tuệ nhân tạo tại Đại học Stanford. Con trai ông, Varin Sikka, cũng đang theo học tại Stanford, tiếp nối truyền thống học thuật xuất sắc.
Công trình của họ không xuất phát từ góc nhìn hoài nghi cảm tính, mà dựa trên phân tích toán học chuyên sâu về cách các mô hình ngôn ngữ lớn (LLM) – nền tảng của AI hiện đại – thực sự vận hành. Nghiên cứu này mang đến một cái nhìn khách quan về năng lực và giới hạn cố hữu của công nghệ AI.

Ông Vishal Sikka
Giới hạn toán học của AI và nguồn gốc "ảo giác"
Trọng tâm nghiên cứu xoay quanh kiến trúc transformer, vốn là nền tảng của hầu hết các mô hình AI nổi tiếng hiện nay. Theo phân tích của hai tác giả, mỗi lần một mô hình AI tạo ra câu trả lời, lượng tính toán mà nó có thể thực hiện bị giới hạn chặt chẽ.
Giới hạn này phụ thuộc vào độ dài của câu hỏi và kích thước mô hình. Nói cách khác, AI chỉ có thể “suy nghĩ” trong một phạm vi nhất định, và phạm vi này không thay đổi dù câu hỏi đơn giản hay phức tạp, tạo ra một rào cản cố hữu.
Khi một bài toán hoặc nhiệm vụ đòi hỏi lượng tính toán vượt quá giới hạn đó, AI sẽ không thể xử lý chính xác. Thay vào đó, nó có xu hướng đưa ra câu trả lời nghe có vẻ hợp lý nhưng thực chất là sai. Hiện tượng này thường được gọi là “hallucination” (ảo giác).
Tuy nhiên, theo nghiên cứu, đây không phải lỗi ngẫu nhiên hay do dữ liệu huấn luyện kém, mà là hệ quả tất yếu của giới hạn cấu trúc toán học. Đây là một điểm khác biệt quan trọng trong cách nhìn nhận về lỗi của AI.
Bài toán "người bán hàng" và sự bùng nổ tổ hợp
Một ví dụ điển hình minh họa cho vấn đề này là bài toán “người bán hàng” trong toán học. Bài toán này yêu cầu tìm ra lộ trình ngắn nhất để đi qua nhiều địa điểm khác nhau, mỗi nơi chỉ ghé một lần.

Vấn đề nằm ở chỗ, khi số địa điểm tăng lên, số phương án cần xem xét không tăng tuyến tính mà tăng theo cấp số nhân. Điều này nhanh chóng vượt quá khả năng tính toán của bất kỳ hệ thống nào, kể cả những siêu máy tính mạnh nhất.
Với 5 thành phố: có khoảng 120 cách đi khác nhau.
Với 10 thành phố: số lượng đáp án tăng lên hơn 3,6 triệu cách đi.
Với 20 thành phố: số lượng đáp án lên tới 2,4 tỷ tỷ cách đi khác nhau.
Các con số này vượt xa khả năng tính toán của AI hiện tại. Nhưng dù không thể tìm ra câu trả lời đúng, AI vẫn buộc phải đưa ra một đáp án.
Điều này buộc AI sẽ phải đưa ra một giải pháp có vẻ hợp lý, nhưng nó lại không thể kiểm tra được xem lời giải đó đúng hay không. Đây chính là nguồn gốc trực tiếp của hiện tượng “ảo giác AI”, một hệ quả tất yếu từ giới hạn tính toán.
Hạn chế của "AI Agent"
Nghiên cứu cũng trực tiếp phân tích xu hướng “AI agent” – các hệ thống được quảng bá là có khả năng tự lập kế hoạch, tự hành động và phối hợp nhiều bước để hoàn thành nhiệm vụ lớn. Theo phân tích toán học, những hệ thống này vẫn dựa trên cùng một nền tảng LLM.
Do đó, chúng thừa hưởng toàn bộ giới hạn tính toán và cấu trúc đã nêu trên. Việc ghép nhiều AI lại với nhau, hay để một AI tự kiểm tra AI khác, không giải quyết được vấn đề cốt lõi.
Lý do là quá trình kiểm chứng thường còn phức tạp hơn cả nhiệm vụ ban đầu, đòi hỏi một lượng tính toán tương đương hoặc lớn hơn. Điều này tạo ra một vòng lặp không hiệu quả, không thể vượt qua giới hạn cơ bản.

Lời hứa của Thung lũng Silicon về AI: Phóng đại và Lệch pha
Điều quan trọng cần nhấn mạnh là nghiên cứu này không phủ nhận hoàn toàn giá trị của AI. Hai tác giả thừa nhận các mô hình hiện nay rất hiệu quả trong những nhiệm vụ có phạm vi hẹp.
Các ứng dụng thành công bao gồm xử lý văn bản, tóm tắt thông tin, hỗ trợ lập trình hay tự động hóa các quy trình lặp lại. Trong những lĩnh vực này, AI đã chứng minh được khả năng vượt trội và mang lại giá trị đáng kể.
Vấn đề cốt lõi nằm ở chỗ, những thành công đó đang bị phóng đại thành lời hứa về một trí tuệ gần giống con người, trong khi nền tảng toán học cho thấy khoảng cách giữa hai điều này vẫn còn rất xa. Sự kỳ vọng đang vượt quá thực tế khoa học.
Thông điệp chính của nghiên cứu không phải là “AI vô dụng” hay “AI là lừa đảo”, mà là lời cảnh báo về sự lệch pha nghiêm trọng giữa thực tế khoa học và kỳ vọng được quảng bá. Đây là một lời kêu gọi sự minh bạch và thận trọng.
Khi các công ty công nghệ mô tả AI như một hệ thống có thể suy nghĩ, lập luận và tự đưa ra quyết định phức tạp, họ đang bỏ qua những giới hạn căn bản mà toán học đã chỉ ra một cách rõ ràng. Việc nhận thức đúng đắn về các giới hạn này là rất cần thiết để định hướng phát triển AI bền vững và thực tế hơn.


