BƯỚC TIẾN MỚI TRONG NGHIÊN CỨU CHẾ ĐỘ BAY TỰ ĐỘNG

BƯỚC TIẾN MỚI TRONG NGHIÊN CỨU CHẾ ĐỘ BAY TỰ ĐỘNG

BƯỚC TIẾN MỚI TRONG NGHIÊN CỨU CHẾ ĐỘ BAY TỰ ĐỘNG

23:08 - 20/06/2023

Các nhà nghiên cứu đã phát triển một kỹ thuật học máy có thể tự lái ô tô hoặc máy bay vượt qua một kịch bản trong đó phương tiện phải ổn định quỹ đạo của nó và tránh các chướng ngại vật trong khu vực mục tiêu.

HỆ THỐNG NHẬN DẠNG GIỌNG NÓI TRỞ NÊN TOÀN DIỆN HƠN NHỜ MỘT NGHIÊN CỨU MỚI
AI tạo ra hình ảnh chất lượng cao nhanh hơn 30 lần chỉ trong một bước
CẤU TRÚC NANO METALENS CÓ THỂ THƯƠNG MẠI HÓA VỚI CHI PHÍ THẤP?
YOLO v9: Vượt qua ranh giới phát hiện đối tượng theo thời gian thực
Chip mới mở ra cánh cửa cho điện toán AI với tốc độ ánh sáng

Các nhà nghiên cứu của MIT đã phát triển một kỹ thuật mới có thể giải quyết vấn đề ổn định phương tiện và tránh chướng ngại vật phức tạp tốt hơn các phương pháp khác.

Có nhiều cách tiếp cận để giải quyết các vấn đề ổn định và tránh chướng ngại vật phức tạp bằng cách đơn giản hóa hệ thống để có thể giải quyết nó bằng phép toán thông thường, nhưng các kết quả được đơn giản hóa thường không phù hợp với động lực học trong thế giới thực.

Các kỹ thuật hiệu quả hơn sử dụng phương pháp học tăng cường, một phương pháp học máy trong đó phương tiện học bằng cách thử và sai với điểm thưởng cho hành vi giúp phương tiện đó tiến gần hơn đến mục tiêu. Nhưng thực sự có hai mục tiêu ở đây gồm: duy trì sự ổn định và tránh chướng ngại vật.

Các nhà nghiên cứu của MIT đã chia vấn đề thành hai bước. Đầu tiên, họ điều chỉnh lại bài toán ổn định-tránh chướng ngại vật như một bài toán tối ưu có ràng buộc. Trong thiết lập này, việc giải quyết bài toán tối ưu hóa cho phép phương tiện tiếp cận và ổn định trong khu vực mục tiêu của nó, nghĩa là nó nằm trong một khu vực nhất định. Bằng cách áp dụng các ràng buộc, họ đảm bảo phương tiện tránh được các trở ngại.

Sau đó, ở bước thứ hai, họ định dạng lại bài toán tối ưu hóa có ràng buộc đó thành một biểu diễn toán học được gọi là dạng biểu đồ và giải nó bằng thuật toán học tăng cường sâu. Tuy nhiên, học tăng cường sâu không được thiết kế để giải dạng biểu đồ của một vấn đề tối ưu hóa, vì vậy các nhà nghiên cứu không thể áp dụng ngay nó vào vấn đề của mình, mà phải rút ra các biểu thức toán học phù hợp. Khi có những dẫn xuất mới đó, các nhà nghiên cứu đã kết hợp chúng với một số kỹ thuật hiện có được sử dụng bởi các phương pháp khác.

Để kiểm tra cách tiếp cận của mình, họ đã thiết kế một số thí nghiệm kiểm soát với những điều kiện ban đầu khác nhau. Chẳng hạn, trong một số mô phỏng, phương tiện tự hành cần tiếp cận và ở trong khu vực mục tiêu trong khi thực hiện các thao tác tránh chướng ngại vật có khả năng va chạm với nó.

Khi so sánh với một số đường cơ sở, cách tiếp cận của họ là cách duy nhất có thể ổn định mọi quỹ đạo trong khi vẫn duy trì sự an toàn. Trong tương lai, kỹ thuật này có thể là điểm khởi đầu để thiết kế bộ điều khiển cho máy bay không người lái giao hàng tự động. Hoặc nó có thể được thực hiện như một phần của hệ thống lớn hơn.

Trong tương lai, các nhà nghiên cứu muốn thử nghiệm xem thuật toán hoạt động tốt như thế nào khi được triển khai trên phần cứng, vì sẽ có sự khác biệt đáng kể giữa động lực học của mô hình lý thuyết với mô hình trong thế giới thực. Chi tiết tham khảo tại:

Oswin So, Chuchu Fan. Solving Stabilize-Avoid Optimal Control via Epigraph Form and Deep Reinforcement Learning. submitted to arXiv, 2023 DOI: 10.48550/arXiv.2305.14154

 

(Sưu tầm)
VIỆN IMC
Tòa nhà IMC Tower, Số 176 Trường Chinh, Phường Khương
Thượng, Quận Đống Đa, Thành phố Hà Nội, Việt Nam
Tel/Fax : (+84) 24 3566 6232 / 24 3566 6234
Email: info@imc.org.vn   Website: https://imc.org.vn