來源:量子位
只需要400 塊不到,就能擁有一個可編程的 AI 小機器人,而且還能用手機控制?
這就是英特爾實驗室(Intel Lab)最新公布的研究成果OpenBot。
作為一個小型電動汽車,它可以被植入 AI目標檢測算法,實時跟蹤行人或者目標物體。
例如,跟著家里的小朋友出去遛彎:
不僅如此,還能自動導航。
像是在辦公室避開障礙物,甚至化身一個小小的攝像機,把拍攝到的東西記錄下來:
而這一切,只需要你自己的手機,再加上成本總共不到 400 元的 3D 打印零件!
下圖是小車需要所有零件,包括 3D 打印車身、速度傳感器、電池……
據了解,在這款機器人研發出來之前,傳感器性能較好、設備配置較先進的機器人,基本需要2000-5000 美元的配置;
即使是家用的小型手機可編程機器人,配置也需要250 美元左右,實時傳感的效果還不太好。
研究者們表示,其實全球超過 40% 的人都擁有智能手機,如果利用上手機的性能,這個成本 50 美元的小機器人的確不難實現。
況且,OpenBot 的所有程序開源,哪怕是想要自己動手配置一個,似乎也不是問題?
下面來「解剖」一下這個機器人。
軟件:兩大功能 1、跟蹤行人:目標檢測算法
事實上,跟蹤行人的設計,采用的是目標檢測 SSD 算法,配置 MobileNet 的神經網絡框架。
MobileNet-SSD 目標檢測算法框架的優勢在于,它真的非常小,加上整個網絡結構,算下來也就 30MB 不到。
△ SSD 算法的先驗框,根據目標形狀選框的形狀
無論是安裝在手機上,還是樹莓派上,這個算法都是移動設備進行 AI 目標檢測算法的好選擇。
當然,目標檢測畢竟只是圖像級,如果需要達成跟蹤效果,還需要一個小算法,使得程序能周期性運行,達到「實時檢測」的效果。
2、自動導航:只需要 1.3M 參數
事實上,此前能實現自動導航的軟件參數量達到了 9.1M,而英特爾實驗室的研究人員將這個程序的參數量進一步縮小到了1.3M,直接減少了 7 倍的參數量。
這個程序同樣是實時的,通過設計一個神經網絡,類似于命令行輸入變量的條件模仿學習,實現了這個「自動導航」的駕駛策略。
而且,只需要 30 分鐘,就能訓練好這個網絡。從整體軟件部分來看,設計是這樣的:
在手機端,采用游戲控制器的接口鏈接小車,這里包括車輛的控制、行駛模式等功能。
當然,呈現給用戶的會是一個圖像接口,更加容易上手。
此外,它也會以音頻的形式,將信息反饋給用戶。
至于 Arduino 端,則實現如下幾個功能:PWM 動力控制、負責執行指示信號、測量輪子速度、監控電池電量、以及與手機端的信號溝通。
如果對軟件部分感興趣的話,可以學習一下他們的開源算法(文末附項目鏈接)。
硬件:不是樹莓派
事實上,這個機器人最親民的地方在于,只需要通過手機,就能控制機器人。
不僅如此,由于配件簡單,基本上可以自己動手組裝。
當然,如果你想要自己制作一個更好看的車身,用 3D 打印就行:
而這個小車的整體硬件電路圖如下,結構非常簡單,連上 4 個車輪,2 個 LED 燈,2 個速度傳感器,而可編程器件則與手機相連。
也就是說,只要在可編程器件上植入相應的程序,小車就會按照你的意愿跑起來。
當然,作者表示,這個畢竟是更貼近于「家庭裝」的 AI 機器人,如果需要更高端的輕量級嵌入式設備,樹莓派是個非常不錯的選擇,但不一定能實現手機擁有的這么多功能。
如下圖所示,以手機配置的機器人除了 LiDAR,其他的功能如 WiFi、藍牙連接、相機都可以使用。
所以,實現這個機器人,最需要的是一部好手機?
OpenBot 的小限制
事實上,Intel Lab 從 2018 年起就開始研制低成本、高性能的小型移動 AI 機器人,而剛剛推出的這個小機器人,已經是第 3 代了。
從下圖來看,第 3 代的 AI 機器人,不僅支持 5G,而且相機也從 1200 萬像素增加到了最大 10800 萬像素(也與手機性能有關)。
嗯,似乎發現了什么華點:
沒錯,這個項目有個限制,目前只能應用于安卓端。
研發團隊表示,如果這個項目比較受歡迎,團隊將會考慮開發適配于 iPhone 的程序。
不過,由于這是開源項目,所以 iOS 的開發人員自己動手來一個,也未嘗不可(眼神暗示)。