成果展示

智慧機器科技


第一名

雙後驅電車智慧電子差速控制系統

再快一點!!


本作品定名為「雙後驅電車智慧電子差速控制系統 (E-Diff Pro)」,核心目標是為雙馬達後驅電動車,開發一套高整合度的電子差速(E-Diff)系統,以取代傳統機械差速器。本系統透過精密的電子控制,即時調節左右後輪扭矩差,旨在大幅提升車輛在高速過彎或濕滑路面時的動態穩定性、循跡性與操控安全。 E-Diff Pro 的硬體架構由三大核心單元構成:「參考值產生器」整合 Xsens IMU 與 Briter 轉向角感測器,以獲取航向角速度與轉向意圖;系統大腦「上控制器 (ECU)」採用 STM32F103c8t6 負責高速運行演算法;「下控制器」動力單元則採用 VESC 馬達驅動器與 Maxon 馬達,確保扭矩響應即時。 本系統的控制策略建構於「直接橫擺力矩控制法 (DYC)」。上控制器 (STM32) 依據車輛模型、即時車速與轉向角,計算出「理想航向角速度」,並即時比較 IMU 回傳的「實際值」誤差。為高效消除此誤差,本作品創新引入「時間加權積分型 PI 控制器」,避免傳統積分器在持續轉彎時的飽和問題。演算法最終輸出的「橫擺力矩指令」,會連同電門命令,透過 CAN Bus 以 10 毫秒週期高速傳送至 VESC,精確命令馬達輸出。 在使用者介面(UI)設計上,本作品為滿足研發平台定位,開發了一套專屬圖形化軟體介面 (GUI)。此 GUI 具備三大核心功能:一、便捷的參數設定,研發團隊無需重新燒錄韌體,即可圖形化調整 KP、KI 等控制變數,並一鍵「Send」至 ECU。二、即時資料視覺化,能透過專屬面板監控左右輪轉速、電流與溫度。三、即時診斷與除錯,系統能回報如通訊異常、過溫或過流等關鍵錯誤狀態碼,協助人員迅速定位問題,大幅縮短調校週期。

第二名

無創血糖估測技術

最後一滴血

傳統的血糖量測方法,例如常見的手指穿刺採血法,或是醫療院所進行的靜脈抽血,主要依賴侵入性技術來直接取得血液樣本進行分析。這些方法雖然行之有年且被視為標準,但其侵入性的本質卻帶來了顯著的缺點。首當其衝的便是疼痛與不適感,每一次的採血都可能讓患者,特別是兒童或長期病患,產生恐懼或排斥心理。此外,頻繁地在皮膚上製造微小傷口,也無可避免地增加了傷口感染的風險,尤其對於免疫力較低的族群更是一大隱憂。 對於需要長期、甚至每日多次進行血糖監測的糖尿病患者而言,這種重複性的侵入式量測不僅造成生理上的負擔,更嚴重影響其生活品質。想像每天必須忍受數次的指尖刺痛,不僅麻煩,也可能在社交或工作場合造成不便。長此以往,這種不適感與操作的繁瑣性,往往會降低患者的依從性,導致血糖監測的頻率不足,進而影響血糖控制的效果,甚至可能錯失高、低血糖事件的即時處置時機。 基於以上種種限制,開發非侵入式血糖量測技術便成為了現代醫療科技研究的重要方向與迫切需求。目標是期望能開發出一種如同家中的血壓計、體溫計一般容易使用、保存且無痛的血糖監測設備,讓患者能更輕鬆、更頻繁地掌握自身的血糖狀況,從而顯著提高生活品質與自我照護的意願。 我們計畫打造一個非侵入式血糖量測儀,通過接收紅外光經血液反射後的信號強弱,估測出血糖濃度,結合溫溼度感測器量測體溫、電路溫度等環境參數修正血糖濃度,以提升量測準確率。所有數據皆在微控制器進行分析運算,最後將結果傳到螢幕上顯示,以利使用者及時讀取血糖值,實現及時的非侵入式血糖量測。

基於奈米銀的硫醇光學檢測系統

光變捕手

本作品開發了一套基於奈米銀與硫醇分子光學反應的便攜式檢測系統,採用創新的十字交叉式雙波段光學架構,結合 NodeMCU-32 微控制器、觸控螢幕與 WiFi 雲端同步功能,能夠即時進行數據顯示與本地、雲端資料儲存。系統以鹵素離子對三角奈米銀的蝕刻反應作為核心檢測機制,當硫醇分子與銀表面形成穩定化學鍵時,能有效減緩蝕刻速率,使得奈米銀的形態變化與局部表面電漿子共振(LSPR)峰位移之間呈現穩定且可重現的關聯。藉由監測蝕刻過程中吸收峰造成的光譜變化,後續可建立蝕刻程度與硫醇濃度之間的定量分析模型,達成高靈敏度與高準確度的濃度測定。 在設計過程中,我們特別著重於使用者體驗(UX)與人機互動介面(UI)的優化。透過觸控式操作介面,使用者能以圖像化方式即時觀察反應動態趨勢,同時可自訂反應時間,提升操作直覺性與靈活度。系統介面以模組化設計為核心,為後期優化帶來很大的可能性。此外,我將雲端資料同步功能整合至介面之中,透過 WiFi 連線即可即時上傳實驗結果至雲端資料庫,方便後續分析與資料共享。 本系統成功將傳統體積龐大、價格昂貴的光譜檢測設備小型化、智慧化與可攜化,在維持高精度檢測能力的同時,大幅降低製造與維護成本,並具備高度穩定性與重現性。整體架構兼顧光學性能、機構整合與操作便利性。此外,由於硫醇廣泛存在各類化合物中,且研究證實濃度變化與新鮮度密切相關。因此,此作品不僅展現了光學檢測技術由實驗室走向產業化應用的潛力,也提供一個可持續優化的開放平台,為食品安全檢測、環境監測與生物醫學分析領域提供低成本、高效能、易操作的創新解決方案,體現從研究構想到實際應用轉化的完整工程思維與創新精神。

第三名

具多種球路之智慧型羽球發球機

羽動未來

隨著智慧運動科技的興起,羽球訓練設備朝向自動化與個人化發展。傳統羽球發球機多受限於發球模式單一、調整不便及缺乏彈性,難以滿足現代運動員多元且精準的訓練需求。 本研究致力於開發一款智慧型羽球發球機,發球機的機構包含兩組發射羽球的裝置,並各自搭配一組升降的機構,形成雙發球機協作的發球機,並於底部整合麥克納姆輪,實現機體的全向移動旋轉,提升發球角度與軌跡的多樣性。在控制方面,使用STM32微控制器進行馬達的控制,不同的STM32控制單元通過CAN網絡進行通訊,實現多台發球機之間的協同工作。在人機介面,使用Android Studio 開發手機APP,使用者可透過手機的APP介面,控制兩台發球機的升降高度、飛輪轉速與差速參數,並結合麥克納姆輪的移動控制,使訓練更加靈活且多變。APP 內建六種經空氣動力學驗證之 球路,可代入球路後,再使用滑桿微調;同時支援單球測試與組合球的訓練模式,兩台發球機可依設定參數輪流發球,進一步提升訓練的多樣性與實用性。 本研究突破傳統羽球發球機之功能限制,透過雙發球機協作架構與麥克納姆輪整合設計,提升發球機在發球角度、高度、軌跡變化等方面的表現,有效的減少發球等待時間。Android APP介面使參數調整更加直觀且多元,並支援單球與組合球訓練模式,滿足現代運動員多樣化與個人化的訓練需求。

瑕疵智控系統

智檢特攻隊

我們所開發的「瑕疵智控系統」,是針對半導體與電子製造業中,傳統 IC 瑕疵檢測面臨的高成本、低效率困境 所提出的顛覆性解決方案 。這是一套深度整合了電腦視覺與嵌入式系統技術的工業 4.0 瑕疵檢測方案 。 本系統的核心優勢在於突破了傳統光學檢測(AOI)機台的限制 。相較於市售機台需依賴大量人力進行二次篩檢,且對複雜或定義外瑕疵適應性不足的狀況 ,我們的系統利用深度學習模型,能夠自行辨識複雜且多樣的瑕疵特徵,實現更高適應性的全自動化檢測 。 我們的技術核心在於一套創新的「粗篩再精檢」兩階段檢測流程 :首先,利用Micro UNet 模型精準定位IC晶片主體,過濾無關背景;接著,再由我們改良的YOLO11-GCD模型,在已鎖定的範圍內進行高效率的微小瑕疵檢測。 整套 AI 模型皆成功部署在輕巧、低耗能的 NVIDIA Jetson NX 嵌入式裝置上 ,實現本地端的邊緣運算,無需依賴昂貴的後端伺服器。為了達到最低延遲,我們更採用了 NVIDIA TensorRT 技術,將 PyTorch 模型轉換為加速推理且低延遲的系統 。 本系統不僅限於檢測,更建立了閉環式的「數據驅動品質管理系統」 ,提供全面的即時反饋: •視覺化標示:在即時影像監控頁面,兩階段模型偵測到的六種瑕疵類別會以不同顏色的邊界框在畫面上視覺化標示 。 •數據儲存與分析:每一次的辨識結果(包含瑕疵種類及對應影像)會被結構化地儲存至本地 SQLite 資料庫 。這些數據會即時同步至本團隊設計的網頁儀表板 ,透過良率趨勢圖、瑕疵分佈統計等視覺化圖表,讓使用者快速掌握產線表現,進行有效的瑕疵分析與問題追溯 。 •現場即時警示:系統會根據分析結果,直接驅動現場的三色信號燈(紅、黃、綠) ,提供最直觀的狀態反饋 。我們採用 WebRTC 技術實現低延遲點對點影像串流 ,確保管理者看到的是最即時的產線畫面 。 「瑕疵智控系統」徹底突破了傳統大型專用機台體積龐大、價格昂貴、功能由硬體決定且升級困難的限制 。本系統具備「軟體定義」的高度彈性 ,未來僅需透過軟體與模型更新即可應對新型態瑕疵 ,成為推動工廠智慧化升級的關鍵技術。其低成本、高彈性的特性,旨在賦予企業實踐智慧製造與數據化品質控管的能力。

基於強化學習無人機飛行控制設計

飛得更遠

在這個作品中,我們提出了基於強化學習無人機飛行控制設計,並且讓無人機做為AI代理人進行生還者偵測做為主要應用。相對於現有無人機搜救系統大多仰賴人工遙控或預設航線進行飛行的方式,其影像資料亦需傳回後端伺服器進行AI辨識分析。然而,當面對災區環境複雜、障礙物密集與通訊品質不穩等情況時,影像回傳與判斷結果往往存在時間差,無法即時應對現場狀況,嚴重影響搜救行動的即時性與準確性。為解決上述問題,本系統提出一套基於強化學習無人機飛行控制設計,其具有以下的優勢: (1) 自主避障: 無人機系統結合深度影像資訊並開發專有的強化學習技術,使無人機能自主避障且進行飛行路徑調整,其能於未知或複雜環境中穩定執行任務,提升系統智能化程度; (2) 邊緣人工智慧 (Edge AI): 取代傳統集中式智慧計算的方式,無人機避障與偵測人形物件會於無人機晶片系統上直接進行,不需要後端系統頻繁操作控制; (3) 數位孿生(Digital Twin): 採用結合AirSim模擬器數位孿生系統,除了能進行無人機任務前規劃策略評估外,無人機在進行任務時其即時位置、姿態、影像亦會同步至虛擬空間,讓後端人員能有清晰任務視覺化畫面,強化任務監控效率與操作性; (4) Neural Engine: 在無人機晶片系統採用FPGA實現,其內部具有Neural Engine可載入搜救任務判斷的生還者偵測AI模型,使無人機具備即時AI模型計算的能力,以符合Edge AI需求。

佳作

Coffee B&G

模豆DVS

許多咖啡愛好者嚮往在家中享受現烘現磨的香氣與風味,卻常因設備昂貴、操作繁瑣或技術門檻高而卻步。為了解決這樣的問題,我們研發了 Coffee B&G 家用烘烤研磨機,將「烘焙」與「研磨」功能整合於單一設備中,讓使用者能輕鬆從生豆開始,體驗一杯專屬於自己的香醇咖啡。本產品採用 智能溫控技術,以 ESP32 作為主控核心,透過 Raspberry Pi 4B 連接觸控螢幕實現視覺化操作介面,實現智能溫控與即時監測,可自訂烘焙時間、溫度與研磨粗細,打造專屬風味。內建智能複合模式,烘焙完成後自動切換至研磨流程,節省操作時間並提升效率。為提升使用便利性與產品耐用度,我們特別設計了 自動銀皮收集系統,在烘焙過程中自動分離並收集咖啡豆外層銀皮,有效避免苦澀雜味殘留並減少清潔負擔。此外,各主要零件如烘焙艙、研磨機構與LCD觸控模組均採 模組化設計,可獨立拆卸、維修與替換,不僅延長使用壽命,也讓後續升級與維護更為便利。Coffee B&G 家用烘烤研磨機可廣泛應用於 家庭、小型咖啡館、辦公室 等場域,結合智慧控制與人性化操作介面,讓使用者能以簡單步驟掌握專業級的咖啡製作過程。它不僅是一台家電,更是一項結合創新技術與生活美學的作品,致力於讓更多人能在日常生活中,輕鬆感受現烘現磨的極致風味。

吃完我來洗:智慧清潔與廚餘循環

不想洗碗

在校園餐廳、公司員工餐廳或美食廣場等公共用餐區,常可見食物殘渣未清理便丟棄餐具的情況,導致廚餘外漏、異味飄散,並吸引蚊蟲與鼠蟻,不僅影響環境衛生,也增加清潔人力負擔。為改善此現象,本研究開發出一套結合人工智慧與自動化控制的「DishCycle:自動餐碗處理與廚餘智慧堆肥系統」,以期在降低人力成本的同時,實現餐具回收、清潔與廚餘再利用的智慧化流程。 系統主要分為兩個模組:自動餐碗處理模組與智慧廚餘堆肥模組。 餐碗處理部分採用 Intel RealSense 深度鏡頭擷取場景影像,並使用 YOLOv8n-seg 進行物件分割,辨識餐碗的大小、形狀與位置。接著透過主控電腦計算碗面的平面位置與法向量,再以自製六軸機械手臂自動完成吸取、沖洗及堆疊分類。此流程不僅能減少人員接觸髒污餐具,也可避免回收區的堆積與異味問題。 廚餘處理部分則將清洗過程中的食物殘渣經攪碎後送入堆肥桶內,透過多組感測器即時監測溫度、濕度與 pH 值,並由模糊控制(Fuzzy Control)自動調節加熱、風扇與攪拌裝置,使堆肥環境維持於最佳發酵條件。為進一步提升智慧化程度,本研究導入 LSTM(Long Short-Term Memory)模型,利用時間序列的環境與控制參數預測堆肥成熟度,協助使用者判斷堆肥完成時機。 整體而言,本系統整合深度鏡頭、機械手臂、感測器與 AI 模型,實現「從餐具清潔到廚餘再生」的一體化自動化流程。其設計可有效改善回收區的異味與污染問題,並將廚餘轉化為可再利用的有機堆肥,落實聯合國永續發展目標第 12 項(SDGs 12)-「確保永續的消費與生產模式」。本作品展示了人工智慧與智慧製造技術在生活環境中的應用潛力,期望為校園與公共餐飲場域提供一種兼具便利與永續的創新解決方案。

多模態AI巡檢機器人

滅龍鬥士

本作品建置一套以RGB-T雙光譜影像為核心的多模態自走式巡檢機器人系統。系統整合自製雙光譜鏡頭、距離與深度量測,以及邊緣運算平台 NVIDIA Jetson Orin Nano Super,在裝置端完成影像理解、體溫量測、行為辨識、自主導航與即時通報,並提供瀏覽器式監控與LINE Bot事件通知。針對現場巡邏長期仰賴人力、固定監視器在低光與逆光及強反射下易失效且存在死角、溫度量測受環境與距離影響不易準確等痛點,系統特別強化對光線攻擊情境的韌性,例如手電筒直射、玻璃反光與燈具過曝,目標是在嚴苛光照與動態環境中,長時間維持穩定識別並能即時完成從偵測到通報的閉環。 方法部分,首先自製雙光譜鏡頭同步擷取可見光與熱影像,先行完成空間對位校準與時間、幀同步。而熱影像再經非均勻性與基準溫度校正,結合距離與視角資訊實施自動溫度補償,以抑制漂移與環境干擾。對齊後的雙模態影像輸入自改良型Pi-fast模型進行目標偵測,並以姿態估計擷取骨架關鍵點,形成人員與設備邊界、像素級溫度圖與骨架序列等特徵識別輸出。系統依據這些特徵與決策規則判定跌倒、肢體衝突與奔跑等行為,以及人體發燒與設備過熱等溫度異常。導航層整合超音波與光達建立環境模型以進行路徑規劃與動態避障,遇到高風險區域時可自動減速、停留或改道。事件成立後,端側立即觸發語音或聲光提示並由LINE推送告警,所有影像與遙測以標準化格式在端側落盤,以供歷史查詢與稽核。在校園走廊、實驗室與半開放空間的實測顯示,系統於夜間、逆光、強反射與局部煙霧等情境,可透過熱像儀特徵補強,而能穩定完成人員與設備偵測、姿態解析與體表或部件溫度量測。對於跌倒、衝突與可疑徘徊,可即時標註位置並完成通報。對於發燒人員與過熱機台,能提供可追溯的量測曲線與影像證據。整體巡檢流程由人工巡視提升為自動化任務,異常處置時效與覆蓋率明顯改善,且系統可不中斷長時間穩定運行任務。 綜合上述,本研究提出一個可落地的多模態巡檢機器人,以RGB-T為核心並以邊緣嵌入式系統進行即時推論,對光照極端變化與光線攻擊具經驗證的魯棒性,同時具備自動化巡檢、精準溫度量測與可追溯通報等作業能力。未來可銜接安全監控與企業資訊系統擴大營運場景,並依需求掛載協作手臂以支援輕量操作。在資料治理上持續累積去識別化樣本以支持模型迭代與跨場域擴張,進一步拓展至智慧工廠、人群分析、服務型與看護型機器人等應用。

智慧型合金壓鑄模具瑕疵檢測系統

Alpha Mold

智慧型鋁合金壓鑄模具瑕疵檢測系統,是一套整合人工智慧與機器視覺技術的智慧型瑕疵自動檢測平台。此系統運用深度學習模型分析壓鑄模具的表面影像,能夠快速且精確地判斷產品是否存在刮傷、凹痕、氣孔、毛邊、污漬等問題,協助工廠在生產過程中及早發現缺陷,避免品質不良的零件流入後續製程,達到提升良率與降低人力成本的目的。 在技術架構上,系統共包含三個人工智慧模組。模組一是一個兩階段的偵測與分類架構,首先透過YOLO模型偵測影像中的重點區域,再以CNN瑕疵分類器進行細部分類;模組二則根據零件類型選擇對應的分類器進行判斷,以確保準確率;模組三整合編碼器與分類特徵,使模型能夠學習到跨零件的通用表示,提升辨識效能。 系統除了AI偵測外,還具備資料儲存與視覺化分析功能。每次檢測影像皆自動保存至SQLite資料庫,包含原始照片、標註結果、信心值與判斷類型,並可生成熱點圖(heatmap)顯示缺陷分佈情況。此外,系統能透過Telegram即時發送警報訊息,通知使用者發現異常的情況。 整體而言,本系統實現了鋁合金壓鑄模具的智慧化檢測流程,結合高速攝影、人工智慧判斷與數據管理功能,提供即時、可靠且可追溯的檢測結果,達到產線自動化與品質管理數位化的目標。

豬界走秀辨體態

Look!豬豬駕到

古有選媳看臀寬,今有選豚看體態。豬隻體態及肥瘦不僅影響產業的競爭,且攸關養豬農民收益。在現行國內家畜市場毛豬拍賣模式,豬隻在限定時間、限定距離的通道上移動,即由拍賣專家依據觀察經驗決定售價,這樣的作法無法讓買賣雙方得以使用科學化數據決定豬肉品質與價錢。 隨著豬肉消費行為的改變,消費者偏好高瘦肉率的肉品,所以養豬產業也追求屠體瘦肉率,因此,本專案結合影像辨識與深度學習技術,運用特徵工程將豬隻曲線轉化成看的到的數據,將「老農民的智慧」轉化為AI模型,以建立出一套能夠即時分析豬隻活體體態的系統,不需要昂貴的測量儀器,透過這些分析資訊,養豬戶能在豬隻出售前掌握其生長狀況是否符合潛在市場價值,適時適量即時依據系統分析資料進而調整其飼養策略,使其提升整體經濟效益與管理效率。 本系統能夠在豬隻日常狀態下,準確計算其外部輪廓與面積,並避免因拍攝角度變化或距離不同而導致的誤差。此外,影像中的豬隻可能因拍攝條件不同而產生比例失真,如何進行有效的校正與一致化處理,是系統準確性與實用性的關鍵,最終目標為從飼養端,屠宰端、販售端各面向都可以科學化獲得豬隻的各種參數,從而決定豬價並對應可以精準飼養、豬肉分級、消費者可以買到CP值高的肉品、亦可達到企業ESG的要求。

視覺自主導航技術之智能街道清潔

404_Leaves

目前多數街道與公共區域的清潔作業仍以人工方式為主,不僅人力成本高昂,作業效率也受限於人員熟練度與工作時間,無法達到長時間穩定運作的需求。此外,在複雜或危險的環境中進行清掃,往往存在安全風險。因此,本作品以「智慧城市」與「自動化環境維護」為目標,導入 人工智慧、影像辨識、機電整合控制、自主導航(VSLAM) 與 物聯網等跨領域技術,開發出一套具視覺感知與自主導航功能的 智慧型街道清潔機器人系統,期望能在無人化環境下實現高效、安全且可持續運行的清掃作業。 本系統的核心架構採用 雙異質運算平台,由雙Jetson Orin協同運作。一者負責 深度學習模型推論、路徑規劃與任務決策,另一者則處理影像預處理、串流傳輸與感測數據同步。控制層則由Teensy 4.1微控制器,負責底層馬達控制、清掃模組控制,確保機器在多種地形下皆能穩定運作。 在感知層方面,機器人搭載D435i深度相機,可即時獲取 RGB-D 與 IMU 資訊,作為影像辨識與距離估測的基礎。系統採用 YOLOv10模型 搭配 TensorRT 加速推論,可即時辨識垃圾,達到每秒40幀以上。並結合Vslam、體素地圖、 Nav2 自主導航框架,能在複雜場域中實現路徑規劃、自主避障與目標追蹤,讓掃地車能夠獨立完成清掃任務。 此外,本作品整合 影像伺服控制技術(Visual Servoing),使機器人在清掃過程中能根據相機回傳影像進行即時位置微調,以提高清掃準確度與覆蓋率。當影像偵測到垃圾時,控制系統會即時生成伺服命令,使車體與清掃模組對準目標,提高清潔效率與穩定性。 在資訊整合與管理層面,本系統配備 Web 遠端監控平台,使用者可透過瀏覽器登入介面,即時監看影像畫面、查看機器運行路徑、設定清掃區域與任務排程,並可在發生異常時接收通知。介面以響應式設計打造,支援多裝置操作,可將感測數據上傳至雲端伺服器,進行統計與分析,進一步提升智慧化管理效率。 404 LEAVES 智慧清潔機器人透過AI影像辨識、機電控制整合、自主導航、影像伺服與雲端監控技術 的融合,實現了街道清掃作業的全自動化流程。系統能在無人干預下自動完成路徑規劃、垃圾辨識與清掃、狀態回報與監控操作,達到降低人力依賴、提升作業安全與效率的目標。此作品不僅展示了人工智慧在環境清潔領域的應用潛力,也為未來智慧城市的永續發展提供具前瞻性的技術示範。

跨域整合特別獎

雙後驅電車智慧電子差速控制系統

再快一點!!


本作品定名為「雙後驅電車智慧電子差速控制系統 (E-Diff Pro)」,核心目標是為雙馬達後驅電動車,開發一套高整合度的電子差速(E-Diff)系統,以取代傳統機械差速器。本系統透過精密的電子控制,即時調節左右後輪扭矩差,旨在大幅提升車輛在高速過彎或濕滑路面時的動態穩定性、循跡性與操控安全。 E-Diff Pro 的硬體架構由三大核心單元構成:「參考值產生器」整合 Xsens IMU 與 Briter 轉向角感測器,以獲取航向角速度與轉向意圖;系統大腦「上控制器 (ECU)」採用 STM32F103c8t6 負責高速運行演算法;「下控制器」動力單元則採用 VESC 馬達驅動器與 Maxon 馬達,確保扭矩響應即時。 本系統的控制策略建構於「直接橫擺力矩控制法 (DYC)」。上控制器 (STM32) 依據車輛模型、即時車速與轉向角,計算出「理想航向角速度」,並即時比較 IMU 回傳的「實際值」誤差。為高效消除此誤差,本作品創新引入「時間加權積分型 PI 控制器」,避免傳統積分器在持續轉彎時的飽和問題。演算法最終輸出的「橫擺力矩指令」,會連同電門命令,透過 CAN Bus 以 10 毫秒週期高速傳送至 VESC,精確命令馬達輸出。 在使用者介面(UI)設計上,本作品為滿足研發平台定位,開發了一套專屬圖形化軟體介面 (GUI)。此 GUI 具備三大核心功能:一、便捷的參數設定,研發團隊無需重新燒錄韌體,即可圖形化調整 KP、KI 等控制變數,並一鍵「Send」至 ECU。二、即時資料視覺化,能透過專屬面板監控左右輪轉速、電流與溫度。三、即時診斷與除錯,系統能回報如通訊異常、過溫或過流等關鍵錯誤狀態碼,協助人員迅速定位問題,大幅縮短調校週期。