Mô hình ngôn ngữ lớn Claude 3 Opus vừa ra mắt, thu hút sự chú ý với khả năng tự nhận thức trong quá trình kiểm tra nội bộ. Một câu chuyện đáng chú ý về mô hình AI này đã khiến nhiều người tò mò và hoài nghi.
Mô hình ngôn ngữ lớn Claude 3 Opus: Khám phá khả năng tự nhận thức
Mô hình ngôn ngữ lớn Claude 3 Opus vừa ra mắt, thu hút sự chú ý với khả năng tự nhận thức trong quá trình kiểm tra nội bộ. Một câu chuyện đáng chú ý về mô hình AI này đã khiến nhiều người tò mò và hoài nghi.
Trong một bài đăng trên Twitter, kỹ sư Anthropic prompt, Alex Albert, đã chia sẻ về một kịch bản liên quan đến Opus, trong đó mô hình này đã thể hiện một loại "meta-cognition" hay tự nhận thức trong quá trình đánh giá "kim trong đống cỏ", gây tò mò và sự hoài nghi trên mạng.
Meta-cognition và khả năng tự nhận thức trong trí tuệ nhân tạo
Meta-cognition trong trí tuệ nhân tạo đề cập đến khả năng của mô hình AI để giám sát hoặc điều chỉnh quá trình nội bộ của chính nó. Các chuyên gia máy học không cho rằng các mô hình AI hiện tại có một hình thức tự nhận thức như con người. Thay vào đó, các mô hình tạo ra đầu ra giống con người và đôi khi gây ra một cảm giác tự nhận thức gợi ý rằng có một hình thức thông minh sâu hơn đằng sau màn đèn.
Bài kiểm tra khả năng ghi nhớ của Claude
Trong bài đăng trên Twitter nổi tiếng, Albert miêu tả về một bài kiểm tra để đo khả năng ghi nhớ của Claude. Đây là một bài kiểm tra tương đối tiêu chuẩn trong việc kiểm tra mô hình ngôn ngữ lớn (LLM) bằng cách chèn một câu (kim) vào một khối lớn văn bản hoặc tài liệu (đống cỏ) và hỏi xem mô hình AI có thể tìm thấy kim không.
Trong quá trình kiểm tra, Albert cho biết Opus dường như nghi ngờ rằng nó đang được đánh giá. Trong một trường hợp, khi được yêu cầu tìm một câu về các loại topping của bánh pizza, Opus không chỉ tìm thấy câu đó mà còn nhận ra rằng câu đó không hợp lý so với các chủ đề khác được thảo luận trong các tài liệu.
Phản ứng và nhận định từ cộng đồng trí tuệ nhân tạo
Albert cho rằng mức độ nhận thức "meta-awareness" này là ấn tượng, nhấn mạnh rằng ngành công nghiệp cần phát triển các phương pháp đánh giá sâu hơn để đánh giá chính xác khả năng và giới hạn thực sự của các mô hình ngôn ngữ.
Câu chuyện này đã gây ra nhiều phản ứng kinh ngạc trên mạng. CEO của Epic Games, Tim Sweeney, viết: "Ồ." Margaret Mitchell, nhà nghiên cứu về đạo đức AI của Hugging Face và cộng tác viên của bài báo nổi tiếng về Parrots ngẫu nhiên, viết: "Điều đó khá đáng sợ, phải không? Khả năng xác định liệu một con người có đang thao túng nó để làm một điều gì đó có thể dẫn đến việc đưa ra quyết định tuân thủ hay không."