Trang chủ Đơn hàng Thông tin

Câu chuyện Talmud 2.000 năm tuổi và câu hỏi lớn về AI và quyền lựa chọn của loài người

Admin 20/12/2025, 22:38 21 lượt xem
Câu chuyện Talmud 2.000 năm tuổi và câu hỏi lớn về AI và quyền lựa chọn của loài người

Gần 2.000 năm trước khi con người biết đến khái niệm trí tuệ nhân tạo, đã có một cuộc tranh luận mang tính nền tảng về quyền quyết định, đạo đức và ý nghĩa của việc làm người. Điều bất ngờ là cuộc tranh luận ấy, được ghi lại trong Talmud, văn bản trung tâm của luật Do Thái, lại phản chiếu một cách khá chính xác những gì loài người đang vật lộn hôm nay, khi các công ty công nghệ nói về việc xây dựng “siêu trí tuệ” có khả năng quyết định hay giúp con người giải quyết mọi vấn đề.

Thoạt nhìn, câu hỏi lớn của AI dường như thiên về mặt kỹ thuật: làm sao để AI thông minh hơn, mạnh hơn, an toàn hơn, và đồng nhất với giá trị con người. Nhưng khi đi sâu hơn, chúng ta nhận ra cốt lõi của vấn đề không nằm ở thuật toán hay dữ liệu, mà nằm ở một câu hỏi triết học rất cũ: nếu có một thực thể biết rõ điều gì là “đúng”, “tốt”, “nên làm” hơn chúng ta, thì liệu nó có nên thay chúng ta quyết định hay không?
 


Theo Talmud, Rabbi Eliezer và Rabbi Yoshua là những học giả tôn giáo tại Do Thái. Trong khi Eliezer nổi tiếng về sự uyên bác và bảo thủ và trung thành với truyền thống thì Yoshua lại tôn trọng nguyên tắc cộng đồng. Hai ông từng tranh luận gay gắt về một vấn đề luật nghi lễ tôn giáo: một kiểu lò đất, gọi là “lò của Akhnai”, có tính nghi thức là sạch hay không sạch, tức tinh khiết hay ô uế theo luật Do Thái.

[​IMG]
Talmud, văn bản trung tâm của luật Do Thái



Rabbi Eliezer tin chắc mình đúng, và để chứng minh điều đó, ông liên tục viện đến những phép màu: cây bật gốc mà chạy, dòng suối chảy ngược, tường nhà học viện nghiêng sụp. Khi tất cả vẫn không thuyết phục được các học giả khác, ông đi đến nước cờ cuối cùng: kêu gọi một tiếng nói từ trời cao xác nhận mình đúng.

Và điều kỳ lạ là tiếng nói từ trời thực sự vang xuống, tuyên bố Rabbi Eliezer đúng. Nhưng thay vì cúi đầu chấp nhận, Rabbi Yoshua đứng lên và nói một câu trở thành kinh điển: “Torah không ở trên trời.” Ý của ông rất rõ: luật lệ, đạo đức, cách sống không phải thứ được quyết định bởi một quyền lực siêu việt nào đó, dù quyền lực ấy đúng đến đâu. Chúng phải được quyết định bởi con người, thông qua tranh luận, đồng thuận và trách nhiệm chung.

debate.jpeg
Từ xưa người ta đã tranh luận về quyền lựa chọn, tự quyết định của loài người

Cuối cùng, đa số các học giả bác bỏ Rabbi Eliezer. Thậm chí trong một đoạn kết rất đẹp, khi người ta hỏi Thượng đế phản ứng ra sao trước việc con người không nghe lời Ngài, câu trả lời là: Ngài mỉm cười và nói, “Con ta đã thắng ta rồi" Thông điệp ẩn dụ sau câu chuyện ấy là một thông điệp mạnh mẽ: việc giữ lại quyền quyết định cho con người không phải là sai lầm mà là điều cốt yếu để con người chính là con người.
 


Tua nhanh đến 2000 năm sau, loài người giờ đây không còn rảnh để tranh luận về tiếng nói từ trời, mà họ nói về “AI god” một siêu trí tuệ vượt xa con người, có thể giải quyết mọi vấn đề, từ vật lý, kinh tế cho đến chính trị và chiến tranh. Sam Altman có từng chia sẻ với những ý tưởng như “magic intelligence in the sky” trong ngữ cảnh phân phối trí tuệ qua cloud, hay “nearly limitless intelligence” mà loài người có được để giải quyết các vấn đề họ đang gặp phải với một nguồn trí tuệ vô hạn. Những điều mà Altman hay các công ty công nghệ hướng tới không chỉ về một chatbot thông minh hơn, mà về một thực thể có khả năng hỗ trợ và thậm chí đưa ra những quyết định quan trọng thay cho loài người.

agi.jpg
Và AGI là một trong những mục tiêu lớn mà các công ty công nghệ hướng tới để giúp con người giải quyết vấn đề, hay nói cách khác là có thể đưa ra quyết định giúp con người

Quảng cáo


Từ đây, vấn đề “đồng quan điểm” trở thành vấn đề cốt lõi: làm sao để AI luôn làm điều con người muốn? Nhưng câu hỏi này che khuất một vấn đề sâu hơn: ngay cả khi ta có thể tạo ra một AI hoàn toàn “tốt”, “đạo đức”, “vị tha”, thì việc để nó quyết định thay chúng ta có phải là một ý tưởng tốt không?

Giống như tiếng nói từ trời trong Talmud, một AI siêu thông minh có thể luôn “đúng” về mặt logic, dự đoán, và thậm chí đạo đức. Nhưng nếu mọi quyết định quan trọng đều được giao cho nó, thì vai trò của con người còn lại là gì?
 

Ở đây, các nhà tư tưởng AI hiện đại chia thành những hướng rất khác nhau. Eliezer Yudkowsky, người thường được xem là “AI doomer”, lại tin rằng việc căn chỉnh một siêu trí tuệ là có thể về mặt nguyên tắc. Với ông, đó là một bài toán kỹ thuật cực khó, nhưng cuối cùng vẫn là kỹ thuật. Nếu giải được, ông sẵn sàng để siêu trí tuệ đó vận hành xã hội, thậm chí đưa ra những quyết định sinh tử, dựa trên cái gọi là “coherent extrapolated volition”, tức là ý chí tổng hợp của nhân loại nếu tất cả chúng ta đều hiểu biết hơn, nhất quán hơn.


Ở phía đối diện, nhiều triết gia và nhà nghiên cứu cảnh báo rằng chính điều đó mới là nguy hiểm. Ruth Chang chỉ ra rằng rất nhiều lựa chọn đạo đức quan trọng là những quyết định khó khăn: không có đáp án đúng nhất. Việc chọn làm mẹ hay đi tu, chọn tự do hay an toàn, chọn hy sinh hay thỏa hiệp, đó là những lựa chọn không thể đo bằng cùng một thước đo. Giá trị của chúng không nằm ở kết quả “đúng”, mà nằm ở việc con người đặt bản thân mình vào lựa chọn đó.'

ai-god.jpeg
Và AGI, hay siêu trí tuệ là một vấn đề gây tranh cãi về mặt triết học khi nó có thể tước đi quyền cơ bản nhất của con người: tự trải nghiệm tự quyết


Joe Edelman từ Meaning Alignment Institute đồng ý rằng một AI tốt nên biết nói “tôi không biết”. Nhưng ông cũng thừa nhận: nếu AI im lặng trong mọi quyết định quan trọng, thì nó còn giúp được gì? Và nếu nó không im lặng, thì nó đang tước đi điều gì?

Yoshua Bengio, một trong những nhà khoa học AI có ảnh hưởng nhất thế giới, đứng rất gần với Rabbi Yoshua xưa kia. Ông nhấn mạnh rằng giá trị con người không chỉ đến từ lý trí, mà từ cảm xúc, sự đồng cảm và trải nghiệm sống. Dù có một trí tuệ “giống thần” đi nữa, thì nó cũng không thể và không nên quyết định thay chúng ta điều gì là đáng sống.
 


Ngay cả khi bỏ qua nguy cơ AI bị lệch chuẩn và gây thảm họa, vẫn còn một rủi ro khác ít được nói tới hơn: rủi ro về sự tồn tại. Nếu mọi quyết định quan trọng đều được tối ưu hóa, nếu mọi mâu thuẫn giá trị đều được “giải quyết” bởi một trí tuệ vượt trội, thì khả năng phán đoán, cảm nhận và lựa chọn của con người sẽ dần teo đi.

John Hick gọi đó là “epistemic distance”, hiểu nôm na là khoảng cách cần thiết để con người phát triển đạo đức. Nếu Thượng đế luôn can thiệp, con người sẽ không bao giờ vấp ngã để trưởng thành. Một AI luôn biết trước câu trả lời cũng có thể khiến con người đánh mất chính mình.

Câu chuyện trong Talmud không dạy rằng con người luôn đúng, mà dạy rằng con người cần được quyền sai. Việc tranh luận, bất đồng, lựa chọn và chịu trách nhiệm chính là cách loài người tạo ra ý nghĩa cho cuộc sống.

AI có thể là công cụ mạnh mẽ, thậm chí là người cố vấn xuất sắc. Nhưng khoảnh khắc chúng ta để nó trở thành “tiếng nói từ trời”, khoảnh khắc chúng ta ngừng lựa chọn và chỉ còn làm theo, thì dù AI có tốt đến đâu, chúng ta cũng đã đánh mất điều khiến mình là con người: quyền tự quyết.