成果展示

智慧機器


第一名

分散式無向量地圖自動駕駛巡檢車

自駕高爾夫球車


目前有關於自駕系統的研究,大多目的為解決單一任務,並未使用多個傳感器(sensor),以系統的角度設計自駕系統。因此,現今自駕系統為了降低計算複雜度,皆高度仰賴高精向量地圖來規劃路徑。然而,高精向量地圖建立過程耗時、耗力,且格式尚未完全統一,阻礙了自駕系統的普及與推廣。 另外道路的保養與維修對國家的經濟相當重要,道路維護大部分仰賴中央政府所分配之汽車燃料使用費收入,以及直轄市及縣市等地方政府亦每年編制預算辦理市區道路年度鋪面養護作業,市面上有具有多感測器的道路檢測車進行道路檢測,通常使用LiDAR與其他ToF感測器分析道路品質,其優勢為可獲得高解析度與高品質的資料。但是這對預算有限的地方縣市是高額的負擔,因此需要開發低成本的道路巡檢系統。 我們團隊所設計之Vector Map Free自駕系統,不使用高精向量地圖,利用多感知傳感器與人工智慧(AI)模組自動產生高精向量地圖資訊,並結合Autoware自駕模組,整合成無高精向量地圖自駕系統,此外,本作品更進一步將此複雜的自駕系統運算移植至分散式嵌入式系統, 透過分散式系統成功降低系統功耗,有效提高系統運行時間,並讓自駕車更容易普及至各大街小巷的場域應用,且本作品結合自動道路巡檢系統,配置於我們的分散式Vector Map Free自駕系統上,以自駕車來完成自動道路巡檢,可行駛於各大街小巷中,自動巡查道路品質,並即時回報瑕疵道路之照片於雲端地圖上,方便到道路維修單位人員即時修復。 本系統支援Autoware自駕模組、物件偵測、紅綠燈偵測、車道維持、道路巡檢、自動緊急煞車(AEB)。本作品結合一個特殊自駕車應用,即以自駕車進行自動道路品質巡檢,並將檢驗出的道路瑕疵或坑洞照片自動上傳雲端地圖即時通報, 方便道路維修單位進行即時修復。

第二名

智捷拾荒機器人

蓋亞拾荒救援者


本作品鑽研於垃圾的分類及辨識,並整合機械手臂和輪型移動系統,實現移動到目標位置以及夾取目標等動作。 影像辨識使用一顆廣角鏡頭進行環境影像的擷取,並以Google開發的輕量級神經網路MobileNetV2作為辨識垃圾的主要方法,利用此方法將影像內容分割,並且標記為個別的對象及物件,如此還能夠針對特定的對象進行「選擇」及「追蹤」,最後為運算結果分配對應的標籤,使大數據處理影像辨識作業更加快捷, 除了電腦視覺,機器人的姿態及人工智慧也得以相互結合。機器人的機構部分,藉由3D CAD工程製圖與物理模擬軟體、3D列印及雷射切割技術設計製作「搖臂-轉向架系統(Rocker-bogie)」為輪型移動系統架構,使各輪胎在起伏的地形上都能夠著地,實現自動搜尋並撿拾垃圾的機器人,與一般掃地機器人相比,能帶走體積更大的廢棄物,且可視執行的任務需求更換夾爪功能,實現適應多樣性任務及地形環境的拾荒機器人。用戶可以簡單下載手機APP即可立即透過WebSocket與機器人做直接連線控制,功能包含可檢視串流影像、自動巡邏模式啟動開關,甚至也可以手動控制車體移動和精準控制機器手臂的各個關節,另外也可以直接透過手機APP基於REST架構的HTTP協定向資料庫進行資料的訪問,方便查看機器人的歷史記錄狀況。

水下AI輔助型機器人

AUV沒有U


台灣是海島國家,不論是水上水下活動皆相當盛行,而我們本次比賽所關注的議題為水肺潛水,潛水大致可以依據難度、危險性、用途分為三種類型,分別為休閒潛水、商業潛水以及技術潛水,而水肺潛水是有一項具有一定危險程度的運動。根據國際潛水安全協會DAN組織於2019 年度報告指出,2004-2017之間發生了955潛水的意外,其中死亡率高達73%,平均每年就有53件。而當中造成死亡的三大主因,分別為單獨潛水、環境因素、氧氣耗盡。 因此,為了解決以上三大造成潛水死亡的因素,我們針對單獨潛水的族群,我們想做出一套水下危險通報系統,使得岸上的人能夠及時得知潛水員的狀況;針對環境因素複雜,我們想要開發一台能在前方幫助潛水員探路的機器人,使得潛水員可以提前了解水下地形狀況;針對氧氣耗盡的狀況,我們希望開發出潛水助手,能夠幫助潛水員攜帶緊急救援物品並跟隨,例如: 氧氣瓶、工具等等。 整合上述的願景,我們成功開發出了一項產品: 水下AI輔助型機器人,他的宗旨是能夠保障潛水員的安全以及提升潛水品質。透過成熟的PID自動控制技術,使得機器人不需要透過人隨時實際操作也能自動穩定姿態以及深度;在面臨複雜陌生的水域,潛水員可操控機器人先下潛透過視覺取得影像,當水域沒有足夠的光線視野也能透過聲納取得地圖,便能事先規劃出潛水路線;當潛水員需要單獨潛水時,可透過深度學習的模型辨識出潛水員,藉以能夠攜帶氧氣瓶等重物自動跟隨潛水員;且也能透過手勢演算法辨別出先前定義出的告種手勢,使得潛水員能在水下透過手勢操作機器人,也能透過手勢向岸上傳遞安全或危險等訊息。

第三名

wifi連線之機械手指

人與人的距離


近年來工作型態逐漸改變,上班族與重度網路使用者對於3C產品的過度使用造成的手部肌肉及神經相關問題者,使得越來越多人開始正視手部疾病帶來的影響,針對手部疾病的局部患者,開發了以Wi-Fi連線為傳輸途徑的穿戴輔具與遠端控制機械手指,本論文以仿生手指為基礎,增加了動力輔助裝置之Ekso-GT(輔助行走骨架型機器人)的概念,製作出有別於市面上現有的機械手指,吾等研發接近人類真實拿取物品、日常動作之機械手指外骨骼,進而達到像一般人類手指的動作三節式之機械手指設計,主要以內部構造為兩組滑塊結構,搭配手掌平台達到類似四節之機械構造,以達到最大彎曲角度,確認機械手指能完成預期動作後,搭配操作輔具的調整來針對不同的需求。本作品設計一款以兩條韌帶、三節式指節的機械手指,利用傳動滑塊結構模擬滑車韌帶,利用馬達帶動兩組彈簧,將水平的力得以傳遞到機械手指內部成為彎曲與伸直的推拉力。三節式的設計使得機械手指在模擬人類的動作時能更為相近,藉由在機械手指與手掌平台之間多增加一個自由度,讓機械手指實際的彎曲角度達到135度。該設計突破以往採用螺桿或是拉線方式之一體式設計,使之能將人類手指動作模擬更為真實,且由於搭配彈簧拉伸,增加機構穩定性及大幅減低馬達轉動時之震動。在功能方面,利用Wi-Fi連線實現無線操控的便利性,選用大扭力馬達使機械手指做到抓取物品之功能,令使用者操作起來更為順手並恢復原來之生活水平。

自動導覽跟隨購物車

香煎小鹿


本作品以在大賣場內輕鬆購物為核心,設計一自動導行跟隨購物車, 它能夠跟隨使用者,協助搬運購買商品,還能幫助消費者,導航至欲購 買的商品位置。舉例來說,假設在大賣場中,急著想找某項商品,但卻 找不到服務員或是服務員都在忙時,便可使用「自動導航購物」功能, 此功能除了能節省消費者找商品的寶貴時間,也能精簡賣家對服務人員 的人事成本,更在疫情的流行下,能避免人與人之交談接觸。另外,在 我們購買許多商品後,不想推著沉重的購物車逛賣場時,可以將購物車 的UWB標籤放在身上,啟用三種場景之「自動跟隨」功能(MODE A、MODE B、Obstacle Avoidance Mode),此功能讓我們購物不再受手推車的束縛,享受雙手空空購物的快樂,並能在疫情下,避免大家輪流使用手推車造成感染。 自動導航部分使用Kinect V2,為RGB-D相機,相比雙目相機和單目相機有更好的準確度且在做SLAM的時候不易跟丟,搭配PCL (Point Cloud Library)庫,將ORBSLAM2掃出來的3D稀疏點雲,投影成二維地圖,並藉由計算相機的位姿來進行定位。為了將相機丟進ROS定位,我們利用ROS內的TF(座標變換),將不同的坐標系用樹狀的資料結構連結起來,讓內建於STAGE_ROS的機器人可以隨著我們的相機移動。電腦系統使用搭載於ubuntu18.04上的ROS,運用其虛擬機器人、STAGE_ROS和內建路線規劃包進行修改調整,避開障礙物並規劃出最短路徑。 自動跟隨部分考量到賣場多為室內空間,因此選擇定位精準、穿透性佳的UWB通訊技術進行定位。首先,UWB標籤和UWB基站間會透過TOF計算出距離,接著運用餘弦定理運算出標籤位置,最後算成角度並傳給底盤進行移動跟蹤。避障方面使用四顆超聲波感應器,搭配人工勢場法,進行跟蹤避障。 底盤的部分選擇了麥克納姆輪以適應賣場狹小的走道。操作部分利用乙太網路、序列阜傳輸和藍芽整合在Visual Studio的GUI,方便明瞭,另外本作品所有電源,皆為電池供電,以達成Stand Alone之目的。

輪胎模具瑕疵偵測系統

新鮮的肝


隨著台灣政府著重於生物科技、電子晶圓的領域發展,機械工程與傳統製造業已不再是畢業生就職的優先選擇,新進人員招募不易,焊接或手修技術之傳承斷層已開始產生。 由於鑄件在鑄造的過程當中,鋁水常常會因為溫度升高,對氣體的溶解度也會隨之提升,相反的,隨著溫度下降,氣體溶解度也會跟著下降。鑄件在降溫凝固成型的時間當中,氣泡不斷析出,但某些來不及排出鑄件便隨著鑄件凝固之氣泡,便在鑄件當中形成沙孔(模具之表面瑕疵),對後續鑄件的成品外觀造成複雜、產生位置不確定的表面瑕疵問題。 目前業界大多都是使用傳統 AOI(Automated Optical Inspection)的形式進行瑕疵偵測,僅能針對單一種類的物品進行偵測,並且為了確保產品有較低的不良率,大多都會使用較靈敏的參數設置,會產生許多偽陽性的錯誤判斷,這時就需要依靠人力再次複檢,不僅會增加人力成本,過程中也有可能產生人為失誤。 為了克服以上瓶頸,我們參考 U^2-Net 的架構針對模具影像做深度學習,在加深神經網路深度的同時,藉由其中提出的 ReSidual U-block(RSU)模組保留高辨識率的局部影像,以得到更詳細的影像特徵,取得更準確的辨識結果,以及降低計算的複雜度,加快資料訓練及目標偵測的速度,改善透過傳統方式進行目標偵測的缺點。 此次作品導入AI影像辨識系統,針對輪胎模具沙孔進行偵測,取代人力利用肉眼檢查,可以大幅減少人眼尋找沙孔的時間,未來將導入全自動焊接機械手臂,把模具沙孔偵測得到的座標數據傳輸到機械手臂接收端,使機械手臂能夠準確地焊接沙孔發生的座標位置,以解決長期依賴人眼判斷與手工修整模具表面瑕疵的問題, 為了使系統適用於各種模具,我們選用語意式分割(Semantic Segmentation)當作偵測主要的偵測架構,儘管偵測速度較緩慢,但是在克服多種樣式的模具上有更大的優勢。本作品利用深度學習 (Deep Learning) 在電腦上偵測各種樣式模具的輪廓,使系統在偵測時可以自動依照模具樣式變換偵測模式。將此作品用於模具沙孔定位,可使大幅降低檢測與修補模具的時間,能夠大幅提升生產的效率與品質,縮短模具生產時間與成本,將人工智慧帶入傳統產業,並達到工業4.0智慧型工廠的目標,提升台灣傳統產業競爭力。

以二維嵌入式平台實現光聲顯微鏡

顯微鏡下的世界


在目前已有的生物檢測技術中,在不同的條件下會對應到不同的檢測方式,如超音波檢測、光學檢測等。在眾多檢測方法中,光學檢測是較為常見的一種,其應用光學顯微鏡更是廣泛應用在日常生活當中。儘管純光學成像方式已經在包括光學相干斷層掃描、共聚焦顯微鏡和雙光子顯微鏡在內的幾種光學成像技術中取得了非常好的效果,但是當檢測組織深度超過1毫米時,這些技術容易因光在組織間的散射導致穿透力不足,而難以達到它們應有的成效。另一種常用的檢測方式超音波檢測,此檢測方式也能達到成像的效果,且有速度快、穿透能力較深等優點,但超音波成像會有斑點雜訊,解析度並不理想,常需搭配有經驗的操作者才能做出較準確的判斷。 光聲成像技術為一種使用雷射光源,激發組織產生超音波,組織吸收雷射所提供的能量產生光聲訊號,並將其分析之成像技術。光聲成像結合了純光成像和超音波成像的優點,能夠有大於1毫米的檢測深度,且可得到高解析度和高對比度的組織圖像,且因光聲訊號特殊的產生方式,甚至還能從訊號中獲取有關組織的功能信息。目前光聲成像技術已應用在許多生醫相關領域,包括監測腫瘤血管、乳腺癌檢查、功能性腦成像、小動物全身成像等等。這些是純光學成像難以達成的效果,且從光聲訊號中可以分析組織的結構與內涵物。 目前廣泛用於光聲成像的激發源體積龐大且價格昂貴,如Q-switched Nd:YAG雷射、Ti藍寶石雷射等。而且大多數光聲顯微鏡系統僅限於桌面形式,因使用昂貴且笨重的雷射、超聲換能器和復雜的幾何形狀來組合超聲和用於共焦光束聚焦的光學組件。因昂貴的成本及不易攜帶的缺點,導致了光聲顯微鏡普及化的難度。 本系統的目標在於能夠以負擔的起的價格,以技術與巧思實現市面上價格昂貴的光聲顯微鏡產品,讓一般民眾以能接收的價格,擁有一套光聲顯微鏡設備。本系統會透過Advanced RISC Machine (ARM)架構微處理器、可程式化邏輯晶片(FPGA)雙核心開發板為主軸,透過FPGA控制小型客製化雷射取代昂貴且複雜的桌面型雷射,並搭配ARM控制CD馬達建構的XY平台,收取檢測物完整的光聲訊號。透過壓電元件感測的訊號經由放大電路後,由FPGA控制類比數位轉換器,將類比訊號轉為數位的型式,並將數據彙整並傳輸至電腦端由LabView進行訊號分析及成像。透過以上的設計,改善光聲顯微鏡體積大、不易攜帶的缺點,並使其變成更經濟且輕量化的系統。

佳 作

椰子收割機

椰子收割機

為了收穫椰子而從椰子樹上掉下來可能會導致嚴重的傷害,甚至可能是致命的,而收穫椰子的高風險,使得椰子樹攀爬工作者的持續短缺成為一個壓倒性的問題。為了減低人員受傷的風險和缺工的問題而提出一種可攀爬並且可採摘的機器。本機器是一種受尺蟲啟發的靈活的爬樹機器,模仿生物的機制,把它用於爬樹機器的設計,並結合機器手臂,並加裝外骨骼和軌道以解決機器手臂自由度與重量分配不均的問題,使機器手臂可以在樹幹上旋轉,在以手持鍵盤從地面控制。用於結合攀爬椰子樹機器和收割機器,以取代人類椰子樹攀爬者。 跟採摘椰子有關的爬樹機器,國內外也有出現了許多各式各樣採摘椰 子的方式與設備,但大多都還是靠人類實際爬樹採摘椰子、訓練猴子爬樹採摘又或者是讓人類使用設備收集椰子。 不過上述的方式都有缺點,如果訓練訓練猴子爬樹採摘會被動保團體控訴虐待動物而不得不停止只使用這種方法,如果是人類爬樹又或者是人類使用設備上椰子樹又有掉下來受重傷的風險。我們所研發之椰子收割機,針對上述缺點去做改善,擁有介面遙控、採摘椰子等附加功能。 攀爬主體是站立式構造,以微控制器,電機驅動器,機構與通信接口組成,攀爬主體身體由三個部分組成,上部夾爪,伸縮桿與下部夾爪。 每個夾爪都配有兩個壓力感測器和四個微動開關,帶有八個驅動馬達,以及外部環繞骨骼和軌道以受控方式在任何方向上移動。 夾爪部的所有部分都有與彈簧機構連接在一起,該彈簧機構有助於在椰子樹樹幹上提供更好的牽引力。連接式夾爪機構便於快速的拆卸設備和安裝。

全3D雙眼視覺工件堆疊分類系統

我們要有一雙智慧眼睛

本作品使用六軸關節型機械手臂結合3D雙眼視覺系統(3D binocular vision system)來完成工件亂序擺放之自動化工件取放及堆疊分類系統。主要工件分為三大類:2、3、4公分三種相同截面積但不同高度、顏色(橘灰兩種不同顏色區分)之工件。經過本團隊多次的實驗及努力改良後,量測之高度值與實際高度值之誤差區間僅在(0.3 cm ~0.5cm),因此我們可以在系統高正確率的情況下,結合工業型Staubli機械手臂執行工件依高度差異做分類與堆疊三層擺放之任務。 確認左右原始影像均完整成像後,準備執行本作品全3D雙眼視覺系統中的深度學習校正系統,步驟一先設定需偵測點狀校正模板(x,y)軸之浮點數數量,對左右攝像頭進行雙眼影像校正,拍攝五張點狀校正模板擺設五種不同角度之學習視圖,以形態學中之濾波3*3遮罩計算左右影像的面積覆蓋率與結合雙影像之重投影畫面;步驟二將重投影畫面做灰階(SGL單精度灰階圖像)、影像去背影像處理,得以形成3D立體影像,再使用全域演算法中的影像處理功能去除3D立體影像中的雜訊,其中包括:斑點覆蓋(Speckle Range)、高頻率波型式(Filter Type)、視差值(Number of Disparity);步驟三使用3D立體影像量測不同高度工件之景深資訊,透過最大景深計算出工件高度值,工件的中心點(x,y)座標特徵以機器學習方式,藉由學習模板匹配影像中的工件,並計算工件位在法蘭面上的座標,可使機械手臂得知工件在平面中心點(x,y)座標及系統運算出工件之高度()座標,向下移動路徑距離及準確地夾取工件。經由以上步驟與多次的研究改良後,可成功且精確地量測2、3、4公分三種相同截面積但不同高度、顏色(橘灰兩種顏色區分)之工件高度值,因此我們可以在系統高精確性的情況下,整合機械手臂進行工件之自動化分類與堆疊實驗。 本作品以兩顆webcam完成全3D雙眼視覺,不只打破目前自動化工廠對機器視覺僅能顯示二維特徵影像,無法得知Z軸方向的認知外,也解決目前工業技術之立體視覺無法準確量測的問題。我們運用人工智慧及深度學習系統,將AI與3D視覺技術做整合,完成3D雙眼視覺之堆疊分類系統。

防疫無人送餐服務載具

看好了我們只示範一次

由於全台疫情升溫達到第三級疫情警戒,為了避免群聚及防疫,大家仰賴外送餐點服務的需求大幅提高,然而,在既有外送人力支援的情況下,承接大量訂單已影響外送的品質與時效,本專題主要利用自動駕駛系統技術,來發展一套能在校園內外自動送餐的服務智慧載具,在目前疫情環境下,避免人群接觸,協助學校師生能自主運送餐點,落實防疫工作。 本系統主要包含的次系統為3D光達定位系統、路徑規劃與跟隨系統、避障系統以及置物箱系統。自動送餐服務載具,會事先利用光達建立3D高精度地圖,然後利用光達進行送餐過程中自動導航定位使用,同時,自動送餐載具會依據路徑規劃的軌跡進行跟隨控制,遇有偏離軌跡時,能即時追回規劃的路徑上,當障礙物擋住規劃的路徑時,其中運用定位模組,通過結合 GNSS 和光達感測器的3D 地圖和 SLAM 演算 法,調整重要的定位參數來實現導航精密定位,在路徑追隨上,使用 Pure Persuit 演算法進行路徑追隨,遇到障礙物擋住路徑十,使用 hybrid A* 進行 避障路徑的重規劃,達到完成整個導航與避障的功能。最後到達目的後,自行設計的置物箱系統,能提供餐點平穩地制置放箱中,安穩地運送餐點至點餐者的手中。本專題實際運行的場域為校園內的餐廳到校園室外的走道以及教學大樓室內的研究室,能穿梭室內室外的無人送餐載具,開發一個能落地實用的無人送餐載具商品雛型。

無線之氣動式螺絲扭力控制系統

鎖向披靡

工業 4.0 的核心技術―物聯網,透過有線或無線的傳輸,整合製造過程中的許多參數,達成數據採集與生產製造大數據分析管理,建立一個具有資源效率的智慧製造環境。我們將發展出一套智慧化螺絲鎖固系統,包括: 扭力控制閘道器(Torque controller Gateway,TCG)、螺絲傳感器套筒(Torque Transducer Socket,TTS) 。在這個系統中,一般螺絲可以透過螺絲傳感器套筒感測扭力等狀態,透過非標準協定射頻(proprietary)之2.4GHz RF 和扭力控制閘道器聯結,提供鎖固訊息給扭力控制閘道器,透過此閘道器,將鎖固訊息送到雲端的伺服器。在這個系統中, (1) 一般螺絲可以透過螺絲傳感器套筒,使用非標準協定射頻之2.4GHz RF 和扭力控制閘道器聯結,提供鎖固訊息給扭力控制閘道器與雲端。 (2) 此系統,無須人工紀錄,自動化的留存數據,方便做大數據分析,可應用於工業自動化產業。 (3) 此套系統將生產線結合智慧鎖固系統,符合工業4.0 生產組裝之數據記錄監控之要求。 臺灣是全球前三大手工具產業出口國,2019年出口值達37億9,845萬美元,但面對全球競爭,尤其來自大陸低價搶單,須加速推動轉型升級,利用台灣半導體產業優勢,朝數位化發展。我國手工具產業為政府五大創新產業中「智慧機械」的產業之一,此系統可應用到智慧機械產業中,提高氣動螺絲起子之附加價值,建立產品技術門檻,強化產品優異性。

基於深度學習的多功能篩選產線

深度學習妳的脾氣

在傳統農業的後續處理中,大部分的農產品都會先經過人為的篩選再進一步到產品的包裝與運送,這樣的方式在過去人力資源充足的情況下可以完美的應付大量農產品的生產與製造。近年來,少子化以及農村人口減少等問題的加劇,越來越少人投入到農產品製造中,這讓本來可以簡單解決的小問題擴大成了影響農業生產的巨大問題。能夠久放的水稻及地瓜等農產品雖影響較不嚴重,但是對精緻農業中的小番茄與其他水果類來說,無法在時間內完成篩選會是一件十分嚴重的問題。台灣的氣候對於久放的水果十分的不友善,稍一不注意就會腐敗,更何況是在大量生產的農產業中,這樣的情況多如牛毛,因此為了解決這樣的問題我們提出 AIoT 自動化番茄檢測分類產線,透過AIoT 技術改善人力不足以及無法在時間內完成農產品篩選等問題,利用這樣的方式不僅幫農業加快產品產出的速度更是讓傳統農產業朝著科技化轉型跨出一大步! 為使小番茄的篩選過程更加順利且迅速,小番茄的運送過程中使用輸送帶運送,並在運送過程中進行 YOLOv4 深度學習的影像辨識以及非接觸式的甜度偵測,以分析小番茄的優劣。為此,我們將分類的基準分成:完美(有蒂頭)、良好(無蔕頭)、瑕疵、大中小顆、成熟度(3 等級)、甜度(3 等級),其中:完美(有蒂頭)、良好(無蔕頭)、瑕疵,會透過 YOLOv4 深度學習進行圖像採集與建檔,於影像辨識中智慧地判斷運送過來的小番茄是上述哪一種進行分類? 而另外三種分類:大中小顆、成熟度(3 等級)、甜度(3 等級),則會透過非接觸式紅外線偵測進行小番茄的甜度與成熟度量測進而完成高複雜度的判定與分類系統,並且在產線進行運轉時將產線上的資訊進行整合後傳遞至後台管理系統,讓產線管理人員能夠對目前產線的運作狀況一目瞭然,並透過產線整合 app 讓產線管理人員能夠對產線的突發狀況進行即時反應,達到資訊透明與及時處理的智慧化特性。

異質機器人智慧搜救系統

好滑好嫩

近年來無人機已逐漸地被應用搜救行動上,其不僅可以減少地形上的限制以提高搜尋上的效率,亦可以降低搜救時所耗費的人力資源,也可以讓救難人員減少負擔。但無人機被用在協助搜索時,就目前的技術面來看,不單是要花費時間在控制無人機的搜索上,還要後端人員再經過自身的經驗來做影像判斷的時間,且在夜間能見度不佳或是無人機遇到遮蔽物的問題,這些都會導致影像判斷上的缺失。為了解決無人機在搜尋時遇到的問題,這個作品提出一個異質機器人智慧搜救系統,將透過無人機群搭配地面上的多足機器人群進行搜救。我們將主要著重在核心系統的開發,並結合邊緣人工智慧技術,利用機器人進行自動化受困人員偵測,再將受困人員位置資訊傳送至搜救人員前往救援。為了提高偵測的正確率,我們結合卷積神經網路技術,並將熱像攝影機與可見光攝影機的影像通過融合來進行辨識。此外,我們的機器人核心系統將採用 FPGA實現,利用其硬體平行處理的特性與彈性的架構,提供高效能的資訊處理能力。為了精確地並即時偵測到生還者,深度學習處理器單元被整合至機器人系統設計中來實現 Tiny YOLO 的計算。為了能支援更精確且完整的決策機制,除了 RGB 影像外,熱像影像、人聲和人類活動等也被使用來協助生還者的偵測。就使用 Tiny YOLO 進行生還者偵測功能來看,實驗結果顯示相對於其它存在的設計,使用我們提出的機器人系統設計時,每秒幀數將可以加速1.7倍至2,078倍。再者,除了採用GPS外,將採用藍牙模組以三角定位的方式建立位置更精確的位置資訊,並於後端實現一個分層式系統架構進行機器人的任務分配,以提高搜救效率。

無線充電翻越地形之探勘機器人

當時就挺突然的

在地形探勘與災害救援兩個場合上,最危險的往往是現場的不確定性,像是崎嶇路面、高低落差或是充斥危險氣體等場合,2014年高雄氣爆事故,現場充斥著易燃氣體,再加上爆炸後易倒塌的房屋結構,大大增加人員救災的難度,坍方的土石或是倒塌房屋的高低落差,使怪手與運輸卡車有機會翻覆,以至於無法使用的可能性。為此研發一種特殊機構的探勘機器人,以微處理機做為控制核心,配置了溫溼度感測器、氣體感測器、陀螺儀感測器、無線攝影機,並將移動的機構設計成可360度全方位擺動,以此來達到適應崎嶇路面等功能,以及上下完全對稱的車體設計,能讓整台機器翻覆時,依然能繼續動作,達到克服全地形的功能。 機器人研發至今,國內外也出現了許多各式各樣 行駛形式的機器人,在無線式機器人的續航力上是很重要的問題,蓄電池因材料問題難以突破,但許多時候受限於環境因素所影響,在一些特殊的場合;不適合進行接觸式充電。以福島事件的救災為例,當發生核能相關意外導致輻射外洩,人員無法長期暴露在高輻射的環境下工作,以能夠抗輻射的機器人取代人類的工作就顯得格外重要,當需要利用機器人進入核電廠時,機器人需要能在不平坦的環境中行走、傳回即時畫面與偵測數據、簡易清除障礙物與電子零件能抵抗輻射外,另一個重要性就是續航力要夠久以應付長時間的任務。 傳統常見充電形式為直接以電線連接充電,以人工方式容易造成污染與人員接觸的安全問題,若是使用遠端控制連接充電,其充電接頭接觸面可能會發生氧化而產生鏽蝕,進而造成其金屬接觸面電阻上升,進而提高系統維護成本與安全疑慮。因此,以電磁感應為基礎的非接觸式電能傳輸技術可以解決前述問題,機器人可在下雨、下雪、水下等惡劣場域安全地進行供電,使機器人能夠運用在各種的工作場域,同時也可以將系統電路完全密封,避免潮溼鏽蝕、接點老化、接觸不良與操作安全等問題,因此其可靠性、安全性及便利性在應用於輻射場域之機器人或電動載具,不僅可以降低金屬直接接觸產生火花故障等風險,也可增加操作續航力和避免人員操作造成輻射汙染之疑慮。

跨域整合特別獎

水下AI輔助型機器人

AUV沒有U


台灣是海島國家,不論是水上水下活動皆相當盛行,而我們本次比賽所關注的議題為水肺潛水,潛水大致可以依據難度、危險性、用途分為三種類型,分別為休閒潛水、商業潛水以及技術潛水,而水肺潛水是有一項具有一定危險程度的運動。根據國際潛水安全協會DAN組織於2019 年度報告指出,2004-2017之間發生了955潛水的意外,其中死亡率高達73%,平均每年就有53件。而當中造成死亡的三大主因,分別為單獨潛水、環境因素、氧氣耗盡。 因此,為了解決以上三大造成潛水死亡的因素,我們針對單獨潛水的族群,我們想做出一套水下危險通報系統,使得岸上的人能夠及時得知潛水員的狀況;針對環境因素複雜,我們想要開發一台能在前方幫助潛水員探路的機器人,使得潛水員可以提前了解水下地形狀況;針對氧氣耗盡的狀況,我們希望開發出潛水助手,能夠幫助潛水員攜帶緊急救援物品並跟隨,例如: 氧氣瓶、工具等等。 整合上述的願景,我們成功開發出了一項產品: 水下AI輔助型機器人,他的宗旨是能夠保障潛水員的安全以及提升潛水品質。透過成熟的PID自動控制技術,使得機器人不需要透過人隨時實際操作也能自動穩定姿態以及深度;在面臨複雜陌生的水域,潛水員可操控機器人先下潛透過視覺取得影像,當水域沒有足夠的光線視野也能透過聲納取得地圖,便能事先規劃出潛水路線;當潛水員需要單獨潛水時,可透過深度學習的模型辨識出潛水員,藉以能夠攜帶氧氣瓶等重物自動跟隨潛水員;且也能透過手勢演算法辨別出先前定義出的告種手勢,使得潛水員能在水下透過手勢操作機器人,也能透過手勢向岸上傳遞安全或危險等訊息。