作品介紹 |
近年來無人機已逐漸地被應用搜救行動上,其不僅可以減少地形上的限制以提高搜尋上的效率,亦可以降低搜救時所耗費的人力資源,也可以讓救難人員減少負擔。但無人機被用在協助搜索時,就目前的技術面來看,不單是要花費時間在控制無人機的搜索上,還要後端人員再經過自身的經驗來做影像判斷的時間,且在夜間能見度不佳或是無人機遇到遮蔽物的問題,這些都會導致影像判斷上的缺失。為了解決無人機在搜尋時遇到的問題,這個作品提出一個異質機器人智慧搜救系統,將透過無人機群搭配地面上的多足機器人群進行搜救。我們將主要著重在核心系統的開發,並結合邊緣人工智慧技術,利用機器人進行自動化受困人員偵測,再將受困人員位置資訊傳送至搜救人員前往救援。為了提高偵測的正確率,我們結合卷積神經網路技術,並將熱像攝影機與可見光攝影機的影像通過融合來進行辨識。此外,我們的機器人核心系統將採用 FPGA實現,利用其硬體平行處理的特性與彈性的架構,提供高效能的資訊處理能力。為了精確地並即時偵測到生還者,深度學習處理器單元被整合至機器人系統設計中來實現 Tiny YOLO 的計算。為了能支援更精確且完整的決策機制,除了 RGB 影像外,熱像影像、人聲和人類活動等也被使用來協助生還者的偵測。就使用 Tiny YOLO 進行生還者偵測功能來看,實驗結果顯示相對於其它存在的設計,使用我們提出的機器人系統設計時,每秒幀數將可以加速1.7倍至2,078倍。再者,除了採用GPS外,將採用藍牙模組以三角定位的方式建立位置更精確的位置資訊,並於後端實現一個分層式系統架構進行機器人的任務分配,以提高搜救效率。 |