Autonomus Multi Robot Drone Bergerak Tanpa Tabrakan

Sabtu, 25 Juli 2020 - 10:07 WIB
loading...
Autonomus Multi Robot Drone Bergerak Tanpa Tabrakan
Foto/dok
A A A
PARA insinyur di Universitas Teknologi California (Caltech), Amerika Serikat, telah merancang metode kontrol berbasis data baru untuk beberapa robot di ruang berantakan dan tidak terpetakan. Kontrol ini berfungsi menghindari tabrakan antara robot yang satu dengan yang lain.

Menyelaraskan gerakan multirobot merupakan masalah robotik mendasar dengan berbagai aplikasi, mulai dari pencarian, penyelamatan, hingga kontrol autonomus kendaraan. Berbagai perusahaan mobil dan pesawat juga sedang mengembangkan sistem autonomus pada kendaraan agar dapat menyesuaikan formasi di lingkungan yang tidak terpetakan.

Ada dua tantangan utama untuk menyelaraskan gerakan multirobot. Pertama adalah robot yang bergerak di lingkungan baru sehingga harus membuat keputusan sendiri tentang lintasan yang akan dilewati. Kedua adalah jumlah robot yang semakin banyak membuat interaksinya semakin kompleks dan lebih rentan terhadap benturan.

Untuk mengatasi tantangan tersebut, Profesor Aerospace Bren, Soon-Jo Chung dan Yisong Yue, profesor ilmu komputasi dan matematika, mengembangkan algoritma gerak multirobot. Mereka melakukan penelitian bersama Benjamin Riviere (mahasiswa pascasarjana Caltech), Wolfgang Honig (sarjana postdoctoral) dan Guanya Shi (mahasiswa pascasarjana). Mereka membuat algoritma perencanaan gerak multirobot yang disebut Global to Local SafeAutonomy Synthesis atau disingkat GLAS. Artinya, robot akan menerima seluruh rangkaian informasi secara lengkap tapi hanya bersifat lokal. (Baca: Stealth Cleaner, Robot Pembersih Jaring di Laut)

Selain itu, para peneliti mengembangkan Neural Swarm. Ini adalah kontrol pelacak multirobot yang ditambahkan untuk mempelajari interaksi aerodinamik kompleks dalam penerbangan jarak dekat. “Pekerjaan kami menunjukkan beberapa hasil yang menjanjikan dalam mengatasi masalah keamanan, ketahanan, dan skalabilitas dari kecerdasan buatan (AI) secara konvensional untuk perencanaan gerakan multirobot menggunakan GLAS dan kontrol jarak dekat pada beberapa drone,” kata Chung, dikutip dari Techxplore.

Saat menggunakan GLAS dan Neural Swarm, sebuah robot tidak membutuhkan gambaran lengkap dan komprehensif dari lingkungan yang dilaluinya. Ia juga tidak akan mengambil jalan yang akan dilalui robot lain. Justru sebaliknya, robot akan belajar bagaimana menavigasi area secara cepat (sepersekian detik) dan memasukkan informasi baru ke dalam model pembelajaran. (Baca juga: Kemegahan Hagia Sophia Kembali terpancar dengan Salat Jumat Pertama)

Setiap robot dalam satu kelompok hanya membutuhkan informasi tentang lingkungan lokalnya. Perhitungan desentralisasi setiap robot dapat membentuk pola pikirnya sendiri dan membuatnya lebih mudah untuk meningkatkan jumlah robot dalam satu kelompok.

“Proyek-proyek ini menunjukkan potensi untuk mengintegrasikan metode pembelajaran mesin modern ke dalam perencanaan dan kontrol multiagen, serta mengungkap arah baru yang menarik dalam penelitian tentang pembelajaran mesin,” kata Yue.

Chung dan Yue menerapkan GLAS dan Neural Swarm pada kelompok quadcopter hingga 16 drone ketika melakukan uji sistem baru. Mereka menerbangkan drone di area terbuka di Pusat Teknologi dan Sistem Autonomus (CAST) Caltech. (Baca juga: Usai Memesan Minuman, Seorang Pengunjung Warkop Tiba-tiba Meninggal)

Tim menemukan bahwa GLAS dapat mengungguli algoritma perencanaan gerak multirobot mutakhir sebesar 20% dalam berbagai kasus. Sementara itu, Neural Swarm secara signifikan mengungguli pengontrol komersial yang tidak dapat mempertimbangkan interaksi aerodinamik.

Interaksi aerodinamik meliputi kesalahan pelacakan, metrik kunci yang merupakan cara drone mengorientasi diri dan melacak posisi yang diinginkan dalam ruang tiga dimensi, serta penggunaan kontrol baru. Ini sangat diperlukan untuk mencegah benturan antar-drone saat terbang di udara. (Fandy)
(ysw)
Baca Berita Terkait Lainnya
Copyright ©2024 SINDOnews.com
All Rights Reserved
read/ rendering in 0.1644 seconds (0.1#10.140)