MÔ HÌNH GPT-3 CÓ KHẢ NĂNG SUY LUẬN NHƯ CON NGƯỜI

MÔ HÌNH GPT-3 CÓ KHẢ NĂNG SUY LUẬN NHƯ CON NGƯỜI

MÔ HÌNH GPT-3 CÓ KHẢ NĂNG SUY LUẬN NHƯ CON NGƯỜI

09:28 - 04/08/2023

 

Các nhà tâm lý học báo cáo rằng GPT-3 có thể suy luận tương tự một sinh viên đại học trong một số nhiệm vụ. Nhưng liệu khả năng này chỉ đơn thuần bắt chước suy luận của con người hay nó đang sử dụng một quy trình nhận thức mới về cơ bản?

PHƯƠNG PHÁP ĐỌC MÃ QR TRÊN BỀ MẶT KHÔNG BẰNG PHẲNG
TÌM GIẢI PHÁP PHÁT TRIỂN MÔ HÌNH CÁC TẠP CHÍ KHOA HỌC
NGHIÊN CỨU BIẾN CHẤT THẢI NÔNG NGHIỆP THÀNH NHIÊN LIỆU HÀNG KHÔNG BỀN VỮNG
ROBOT KIRIGAMI SIÊU NHỎ
CÔNG BỐ KHOA HỌC MỚI TỪ CÁC NHÀ NGHIÊN CỨU CỦA IMC VÀ ĐỐI TÁC

 

Con người giải quyết vấn đề mới một cách dễ dàng mà không cần bất kỳ sự đào tạo hay thực hành đặc biệt nào bằng cách so sánh chúng với những vấn đề quen thuộc và mở rộng giải pháp cho vấn đề mới. Quá trình đó, được gọi là lý luận loại suy, từ lâu đã được cho là khả năng độc nhất của con người. Nhưng bây giờ điều này đã không còn đúng nữa.

Nghiên cứu của các nhà tâm lý học UCLA cho thấy, thật đáng kinh ngạc, mô hình trí tuệ nhân tạo GPT-3 thực hiện tốt ngang với sinh viên đại học khi được yêu cầu giải quyết các loại vấn đề lý luận thường xuất hiện trong các bài kiểm tra trí thông minh và bài kiểm tra tiêu chuẩn hóa như SAT. Nghiên cứu được công bố trên tạp chí Nature Human Behavior.

Các tác giả của bài báo còn đặt ra câu hỏi: GPT-3 có bắt chước suy luận của con người như một sản phẩm phụ của bộ dữ liệu đào tạo ngôn ngữ khổng lồ hay nó đang sử dụng một loại quy trình nhận thức mới về cơ bản?

Không có quyền truy cập vào hoạt động bên trong của GPT-3 được bảo vệ bởi OpenAI (công ty đã tạo ra nó), các nhà khoa học của UCLA chưa thể khẳng định chắc chắn khả năng suy luận của nó hoạt động như thế nào. Họ cũng chỉ ra rằng, mặc dù GPT-3 hoạt động tốt hơn nhiều so với họ mong đợi ở một số nhiệm vụ suy luận, nhưng công cụ AI phổ biến này vẫn thất bại ở một số nhiệm vụ khác.

Các nhà nghiên cứu đã thử nghiệm khả năng của GPT-3 trong việc giải quyết một loạt vấn đề lấy cảm hứng từ thử nghiệm có tên là Ma trận lũy tiến của Raven, yêu cầu đối tượng dự đoán hình ảnh tiếp theo theo cách sắp xếp các hình dạng phức tạp. Để cho phép GPT-3 “nhìn thấy” các hình dạng, các nhà nghiên cứu đã chuyển đổi hình ảnh sang định dạng văn bản mà GPT-3 có thể xử lý.

Các nhà nghiên cứu cũng yêu cầu 40 sinh viên đại học UCLA giải các bài toán tương tự. Đáng ngạc nhiên là GPT-3 không chỉ làm tốt như con người mà còn mắc những sai lầm tương tự. GPT-3 đã giải chính xác 80% bài toán, cao hơn rất nhiều so với điểm trung bình của đối tượng là con người ở mức dưới 60% và nằm trong phạm vi điểm số cao nhất của con người.

Các nhà nghiên cứu cũng để GPT-3 giải một tập hợp những câu hỏi tương tự SAT mà họ tin rằng chưa từng được công bố trên internet, nghĩa là các câu hỏi đó khó có thể nằm trong dữ liệu đào tạo của GPT-3. Các câu hỏi yêu cầu người dùng chọn những cặp từ có cùng loại quan hệ. Ví dụ, trong bài toán “Yêu” đi với “ghét” thì “giàu” đi với từ nào? lời giải sẽ là “nghèo”. Họ đã so sánh điểm của GPT-3 với kết quả điểm SAT của các ứng viên đại học đã công bố và nhận thấy rằng AI vẫn thực hiện tốt hơn điểm trung bình của con người.

Sau đó, các nhà nghiên cứu đã yêu cầu GPT-3 và các sinh viên tình nguyện giải quyết phép loại suy dựa trên truyện ngắn: yêu cầu họ đọc một đoạn văn và sau đó xác định một câu chuyện khác có cùng ý nghĩa. Công nghệ này thực hiện kém hơn so với sinh viên về những vấn đề đó, mặc dù vậy, phiên bản mới nhất của công nghệ OpenAI là GPT-4 hoạt động tốt hơn GPT-3.

Các nhà nghiên cứu cho biết GPT-3 cho đến nay vẫn chưa thể giải quyết các vấn đề đòi hỏi phải hiểu không gian vật lý. Ví dụ: nếu được cung cấp các mô tả về một bộ công cụ, chẳng hạn như ống bìa cứng, kéo và băng dính mà nó có thể sử dụng để chuyển kẹo cao su từ bát này sang bát khác, thì GPT-3 đã đề xuất các giải pháp kỳ lạ.

Các nhà khoa học của UCLA hy vọng khám phá xem liệu các mô hình học ngôn ngữ có thực sự bắt đầu “suy nghĩ” giống con người hay chỉ đơn giản là bắt chước suy nghĩ của con người. Vấn đề này sẽ tiếp tục được nghiên cứu thêm. Chi tiết tham khảo tại:

Webb, T., Holyoak, K.J. & Lu, H. Emergent analogical reasoning in large language models. Nat Hum Behav, 2023 DOI: 10.1038/s41562-023-01659-w

 

(Sưu tầm)
VIỆN IMC
Tòa nhà IMC Tower, Số 176 Trường Chinh, Phường Khương
Thượng, Quận Đống Đa, Thành phố Hà Nội, Việt Nam
Tel/Fax : (+84) 24 3566 6232 / 24 3566 6234
Email: info@imc.org.vn   Website: https://imc.org.vn