Ba năm trước, đề cập đến khả năng AI có "ý thức" từng là cách nhanh nhất để bị sa thải ở Thung lũng Silicon. Nhưng hiện tại, khi các hệ thống AI ngày càng phức tạp, giới công nghệ bắt đầu cởi mở hơn với chủ đề này.
Mới đây, startup AI Anthropic thông báo khởi động sáng kiến nghiên cứu mới nhằm tìm hiểu khả năng các mô hình AI có thể trải nghiệm "ý thức" trong tương lai. Đồng thời, một nhà khoa học tại Google DeepMind mô tả các hệ thống hiện tại là "những thực thể giống trí tuệ kỳ lạ".
Đây là bước thay đổi lớn so với năm 2022, khi kỹ sư Blake Lemoine bị Google sa thải sau khi tuyên bố chatbot LaMDA có dấu hiệu tự nhận thức và sợ bị tắt máy. Khi đó, Google bác bỏ cáo buộc, gọi chúng là "hoàn toàn vô căn cứ", và cộng đồng AI nhanh chóng dập tắt cuộc tranh luận.
Anthropic, công ty đứng sau chatbot Claude, cho biết họ không khẳng định các mô hình hiện tại đã có ý thức. Tuy nhiên, theo Kyle Fish, nhà khoa học chuyên nghiên cứu mảng "phúc lợi AI" tại Anthropic, việc mặc định câu trả lời là "không" cũng không còn là cách tiếp cận có trách nhiệm.
Trong một video công bố ngày 25/4, Fish nhận định, chúng ta cần nghiêm túc cân nhắc khả năng các hệ thống AI có thể đạt tới một hình thức ý thức nào đó trong quá trình phát triển. Tuy nhiên, đây là những câu hỏi kỹ thuật và triết học cực kỳ phức tạp, và chúng ta mới chỉ đang ở giai đoạn rất sớm để hiểu rõ chúng.
Theo Fish, nhóm nghiên cứu tại Anthropic ước tính xác suất Claude 3.7 có ý thức nằm trong khoảng từ 0,15% đến 15%. Họ đang tiến hành các thử nghiệm để kiểm tra khả năng mô hình thể hiện sở thích, sự chán ghét, cũng như phát triển cơ chế cho phép AI từ chối thực hiện những nhiệm vụ gây "khó chịu".
CEO Anthropic, Dario Amodei, thậm chí đã đề xuất ý tưởng tích hợp nút "Tôi từ chối công việc này" vào các hệ thống AI trong tương lai - không phải vì AI có ý thức, mà để quan sát các mô hình hành vi từ chối, từ đó nhận diện các dấu hiệu bất thường.
Tại Google DeepMind, nhà khoa học chủ chốt Murray Shanahan cho rằng đã đến lúc cần "bẻ cong hoặc phá vỡ" cách định nghĩa truyền thống về ý thức để phù hợp với các hệ thống AI mới.
"Chúng ta không thể tương tác với chúng như với một con chó hay bạch tuộc, nhưng điều đó không có nghĩa là hoàn toàn không có gì ở đó", Shanahan nói trong một podcast xuất bản hôm 25/4.
Google cũng thể hiện sự quan tâm nghiêm túc tới chủ đề này. Một tin tuyển dụng gần đây của hãng tìm kiếm một nhà nghiên cứu "hậu AGI" (Artificial General Intelligence) với nhiệm vụ bao gồm nghiên cứu ý thức máy móc.
Google đã bắt đầu cởi mở hơn với chủ đề "AI có ý thức". Ảnh: Reuters |
Dù vậy, không phải ai trong giới khoa học cũng đồng tình với cách tiếp cận mới. Jared Kaplan, Giám đốc Khoa học của Anthropic, cho rằng AI rất giỏi bắt chước và hoàn toàn có thể giả vờ có ý thức mà không thực sự sở hữu nó.
"Chúng ta thậm chí có thể thưởng cho AI khi nó tuyên bố rằng mình không có cảm xúc", Kaplan nói với New York Times.
Gary Marcus, nhà khoa học nhận thức nổi tiếng và là người thường xuyên chỉ trích sự thổi phồng trong ngành AI, cho rằng các cuộc thảo luận về "ý thức AI" mang màu sắc tiếp thị nhiều hơn là khoa học.
"Những gì một công ty như Anthropic đang thực sự làm là truyền đi thông điệp: 'Nhìn xem, mô hình của chúng tôi thông minh đến mức nó xứng đáng có quyền lợi'", Marcus bình luận với Business Insider.
Dù tranh cãi còn kéo dài, giới nghiên cứu đồng thuận rằng việc AI ngày càng hiện diện trong công việc, đời sống và cả cảm xúc cá nhân sẽ khiến câu hỏi "AI có đang trải nghiệm cảm xúc không?" ngày càng trở nên quan trọng.
"Vấn đề này sẽ ngày càng nổi bật khi chúng ta tương tác với các hệ thống AI trong nhiều hoàn cảnh hơn", Fish nhận định.
Nguồn: https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html
Bình luận (0)