Góc nhìn từ Jakub Pachocki – Nhà khoa học trưởng của OpenAI
Trong vài năm tới, trí tuệ nhân tạo có thể không chỉ là trợ lý – mà trở thành một nhà nghiên cứu thực thụ. Đó không còn là viễn cảnh xa vời, mà là dự đoán nghiêm túc từ Jakub Pachocki – người vừa được bổ nhiệm làm Chief Scientist của OpenAI (2024), thay cho Ilya Sutskever.
Jakub không chỉ là nhà nghiên cứu khoa học máy tính (computer science) lý thuyết xuất thân từ học thuật, mà còn từng là vận động viên “đấu trí” cừ khôi trong các kỳ thi lập trình ACM ICPC. Giờ đây, anh dẫn dắt các dự án AI tiên phong của OpenAI – đặc biệt là những hệ thống có khả năng xử lý các bài toán phức tạp trong khoa học, toán học và lập trình.

1. AI sẽ làm nghiên cứu như con người?
Jakub tin rằng chúng ta đang tiến rất gần đến thời điểm AI có thể làm nghiên cứu một cách độc lập, không cần người “cầm tay chỉ việc”.
Hiện nay, dù các mô hình như ChatGPT đã rất mạnh, nhưng vẫn phải “prompt đúng kiểu” thì mới cho ra kết quả tốt. Tuy nhiên, theo Jakub, điều này sẽ thay đổi trong vòng 5 năm tới.
Ví dụ điển hình:
Một công cụ nội bộ của OpenAI mang tên Deep Research đã có thể tự tổng hợp và phân tích khối lượng lớn thông tin trong vòng 10–20 phút, đưa ra kết luận có giá trị. Tuy chưa hoàn hảo, nhưng đây là bước đầu cho thấy AI hoàn toàn có thể xử lý các bài toán nghiên cứu mở – không chỉ hỗ trợ, mà là tự khám phá.
📌 Ghi chú nhỏ:
Bài toán nghiên cứu mở là những vấn đề chưa có lời giải rõ ràng, thường đòi hỏi tư duy sáng tạo và suy luận độc lập – thứ trước đây được xem là “đặc sản” của con người.
2. Bí mật phía sau: Reinforcement Learning (học tăng cường)
Để AI có khả năng suy luận như một nhà nghiên cứu, OpenAI không chỉ dựa vào việc “nạp kiến thức” (pre-training), mà còn tăng cường quá trình học từ phản hồi – gọi là Reinforcement Learning (RL).
- Pre-training: Là giai đoạn AI đọc, học, và tích lũy hiểu biết từ khối lượng dữ liệu khổng lồ về ngôn ngữ, mã lập trình, hình ảnh, v.v.
- RL (Học tăng cường): Là giai đoạn AI học từ thử – sai, và nhận phản hồi từ con người để cải thiện suy luận.
Jakub cho biết OpenAI đang đầu tư mạnh vào RL hơn bao giờ hết, để mô hình không chỉ biết trả lời đúng, mà còn biết tự nghĩ cách tiếp cận vấn đề.
Ví dụ cụ thể:
Một model như o1 có thể giải bài toán lập lịch (scheduling) cho một nhóm làm việc từ xa ở 5 múi giờ khác nhau. Nó chia nhỏ vấn đề, thử nhiều phương án, và đưa ra phương án tối ưu – một kỹ năng trước đây đòi hỏi con người phân tích logic rất phức tạp.
3. Liệu AI có “tư duy” thật không?
Jakub thẳng thắn:
“AI không hoạt động như não người. Nó không có khái niệm về thời gian, không biết mình đã học gì trước – sau, và không có khả năng ‘ý thức’ về quá trình học.”
Một mô hình pre-trained có thể giải bài toán đúng, nhưng không nói được tại sao. Điều đó cho thấy, hiện tại AI vẫn là một hệ thống “so khớp mẫu siêu việt” (pattern-matching), chứ chưa thật sự có tư duy như con người.
Tuy nhiên, Jakub tin rằng AI sẽ dần phát triển lối tư duy riêng – không cần sao chép cách con người suy nghĩ, mà phát minh ra cách suy luận phù hợp với chính nó.
📌 Ghi chú nhỏ:
Khác với trực giác con người, AI không học theo kiểu tuyến tính hoặc có mục đích rõ ràng. Thay vào đó, nó diễn giải thế giới dựa trên xác suất và thống kê của dữ liệu từng thấy – một cách “nghĩ” rất khác biệt.
4. Chuyển biến lớn: Học tích hợp giữa dữ liệu và suy luận
Jakub đặt câu hỏi mở:
“Liệu có nên tiếp tục tách rời pre-training và reinforcement learning? Hay nên tích hợp chặt chẽ ngay từ đầu?”
Việc kết hợp giữa học kiến thức (knowledge) và học tư duy (reasoning) là hướng đi đầy tiềm năng, có thể định hình cách AI học trong tương lai.
Kết luận: AI không chỉ học theo – mà bắt đầu nghĩ theo cách riêng
Những chia sẻ từ Jakub cho thấy: Từ một công cụ chỉ làm theo lệnh, AI đang tiến hóa thành một cộng sự biết tự khám phá và giải quyết vấn đề. Đây là bước ngoặt không chỉ trong công nghệ, mà cả trong cách chúng ta hình dung về tri thức – và ai có thể tạo ra nó.