Tuesday, Aug 04th

Last update05:13:34 PM GMT

主頁 機械人資訊 機械人新聞

機械人新聞

科學家打造可抓取透明物件機器人

E-mail Print PDF

科學家打造可抓取透明物件機器人
DIGITIMES
涂翠珊
2020-08-03

對使用深度攝影機的機器人而言,抓取透明及會反光的物件是一件相當困難的事。卡內基美隆大學(CMU)的機器人專家於是利用彩色攝影機,開發出一款能抓取透明及反光物件的機器人,進一步提升了機器人抓取功能的實用性。

據The Robot Report報導,卡內基美隆大學研究團隊宣布成功提升了機器人抓取透明及反光物件的能力。科學家並未使用複雜的感測器或訓練技巧,而是將原本機器人常用的深度攝影機,改成了同時具備彩色影像與深度影像能力的RGB-D攝影機。

一般深度攝影機是利用向物體發出紅外線,判斷物體的形狀,這在辨識不透明的物體時相當管用。然而紅外線會直接穿透透明的物體,碰到會反光的表面時還會散開,導致無法準確判斷這些物體的形狀。

彩色攝影機在辨識透明及反光物件時,則不會有深度攝影機所遇到的問題,於是科學家開發出了一套以色彩為辨識基礎的彩色攝影機系統。

由於標準攝影機辨識物件形狀的能力不及深度攝影機,因此研究團隊將不透明物件的深度與彩色影像結合,對新系統進行訓練,讓新系統能夠模仿深度攝影機,辨識並抓取物件。

接著,研究團隊將訓練過的彩色攝影機系統應運用到透明與反光物件上,再加上深度攝影機所提供的資訊,就可大幅提升機器人抓取透明及反光物件的成功率。

儘管新系統抓取透明及反光物件的效率,仍不如抓取不透明物件,但比起單靠深度攝影機已進步許多。此外,新系統抓取不透明物件的能力,也幾乎不輸深度攝影機系統。

影片連結
https://www.youtube.com/watch?time_continue=72&v=Gny7NfmqyOk&feature=emb_title

機器人4分鐘內單手解開「魔術方塊」 有助人類解決困難工作

E-mail Print PDF

機器人4分鐘內單手解開「魔術方塊」 有助人類解決困難工作
匯流新聞網
王 佐銘
2020-08-02

20200703

無論是機器人或AI先前已經有好幾次打敗人類的紀錄,難道現在就連魔術方塊的領域也要失守了嗎?

近日,美國人工智慧研究組織「OpenAI」成功研發一款機械手臂,可以單手完成魔術方塊的還原,展現了機器人技術的發展水準。研究團隊表示,他們希望可以藉由這個研究幫助人類來完成某些比較有危險性的工作。OpenAI系統運用了電腦模擬器來教導機械手臂解決問題,同時執行指令將魔術方塊還原;對於一般人而言,如果想要完成整個程序需要花上一萬年的時間。

研究團隊強調,機械手臂只要在被教導後,就可以確定魔術方塊哪一面正向上,進而在四分鐘內完成指令、復原魔術方塊。OpenAI認為,這次的實驗意義非常重大,有助於研發機械手臂幫助人類解決困難的任務。

事實上,先前也有美國加州大學研究人員,研發出一套名叫「DeepCubeA」的AI演算法,無論將魔術方塊如何弄亂,AI都能100%找到最快、最短的路徑快速復原;同時,這套系統還適用在類似的拼圖遊戲。

透過研究發現,AI比起人類可以少一半的步驟,就能完成魔術方塊,平均人類高手需要約50個步驟,但AI只要轉28次就能結束這回合。參與研究的加州大學電腦科學教授Prof Baldi表示,AI在解決問題的路徑上,跟人類完全不是在同一個層次上,因為它們完全是靠自己學習來找到正確方向,而不是透過人類指導步驟。

另外,在2018年時,麻省理工學院也有學生打造機器人,創造出0.38秒將魔術方塊復原的紀錄;不過差別在於,機器人是特別撰寫魔術方塊的專屬程式碼,同時運用視覺判斷,進而理出最快路徑的判斷,沒有特別導入神經網路;簡單來說,就是這款機器人內部其實沒有真正的思考,還是人類操控的範圍內。

參考來源:The Verge、WIRED
照片來源:OpenAI Youtube

外骨骼機器人 讓你變成大力士

E-mail Print PDF

中國時報
陳淑芬/台中報導
2020-07-30

中興大學機械系學生開發「外骨骼機器人」,穿戴後可讓你變成大力士!搬起40公斤重物,腰部負擔就像20公斤一樣輕鬆。指導老師機械系助理教授李聯旺29日表示,此款機器人可增強穿戴者的腰部力量,勞動更省力、搬運更持久,未來增強性能,人類可望「跑得比豹快,跳得比袋鼠高」。

外骨骼機器人29日在「科學家的祕密基地」科普展的展前記者會露臉,科普展由科技部指導、國家實驗研究院與中興大學主辦,自8月14日至18日在興大體育館登場,免費入場,號稱今年暑假規模最大的科普展。

由興大機械系學生團隊所研發的外骨骼機器人,也稱「可穿戴機器人」,由李聯旺指導4名學生開發。創意發想者是大四生尋敬華,他表示,課餘到大賣場打工,他負責搬運蔬果,搞得腰酸背痛,才發想研發輔助的省力裝置。

李聯旺指出,搬運工人需搬運約5至6公斤重的零件模組,每天重複約3000至4000次,易引起腰部職業傷害。外骨骼機器人透過氣壓肌肉驅動,可增強腰部力量,採人體工學設計,可增強穿戴者的搬運持久力、減輕腰部疲勞及預防職業傷害。

李聯旺表示,未來的發展空間還很大,再強化性能,可望輔助人類跑得比豹快、跳得比袋鼠高,甚至可抬起比自己重10幾倍的東西,且連續走一整天也不會累。

20200730a

蘋果碳中和實驗:拆解舊iPhone、回收稀土的機器人

E-mail Print PDF

蘋果碳中和實驗:拆解舊iPhone、回收稀土的機器人
環境資訊中心綜合外電
姜唯 編譯;
林大利 審校

2020-07-29

稀土元素是高科技產品不可或缺的原料,但是,開採時會消耗大量能源,而且在每件產品中的用量卻又往往少到無法經濟地回收再利用。最近宣示要在2030年實現碳中和的蘋果,為此已開發一系列機器人,要從產品中回收這些材料。

去年蘋果宣布首次將回收來的「鈷」用於新出廠的電池。蘋果透過換購方案收集舊iPhone,用自行開發的回收機器人「Daisy」拆解。

根據美國商業雜誌Fast Company的報導,這些機器人位於蘋果在奧斯汀的材料回收實驗室(Materials recovery lab)中。一個Daisy機器人就有一個房間那麼大,共有五個手臂,一年間拆解了成千上萬部iPhone。實驗室內還設置有世界各地電子垃圾回收廠的標準設備,讓研究人員和蘋果工程師研究如何改善傳統回收方法。

全世界大多數的鈷來自剛果民主共和國,礦工在危險的礦坑中人工開採,而這種物質具有毒性,採礦廢料更會污染當地的飲用水。雖然蘋果會對供應商進行稽核,以確保他們符合蘋果的供應商責任標準,並且在最近一份企業管理衝突礦物的調查報告中獲得最高分,但是要完全追蹤每個供應商的工作細節仍然很困難。

而且就算礦業公司能避免雇用童工之類的侵犯人權行為,用重型機械或炸藥從地下挖出材料、冶煉和精煉的過程都會造成環境成本。設法從已經存在地球上的10億多台iPhone中回收材料更有意義。

蘋果的Daisy是一個實驗計畫,目的是尋找從舊手機中撈出材料的方法。現在的電子垃圾回收廠中,舊的電子設備會經過切碎機切碎,接著分類再進入市場上出售。切碎的過程使得材料回收更加困難。例如,iPhone喇叭中的貴重稀土礦物可能會在切碎過程中與其他金屬混在一起。

Daisy在一小時內可拆卸多達200支iPhone,但工作起來更為小心謹慎,鈷這類的單一材料回收量增加了,使蘋果更能說服回收商使用其材料,以便再利用於新電池。蘋果花了多年的時間開發Daisy背後的技術,它的前一代是2016年開發的「Liam」。

根據蘋果的新聞稿,現在他們的回收機器人已經進化到「Dave」,可拆卸iPhone的觸覺引擎,也就是讓使用者在按下屏幕上的虛擬按鈕時,會產生觸覺回饋的硬體,讓人更有按下按鈕的感覺。新聞稿指出,「Dave」回收稀土元素和鎢等關鍵材料的技術更佳,還可以回收鋼材。

20200730b

Ford 在重新設計密西根工廠前找來 Spot 機器人幫忙掃描廠區

E-mail Print PDF

Ford 在重新設計密西根工廠前找來 Spot 機器人幫忙掃描廠區
Engadget中文版
Sanji Feng
2020-07-28

位於美國密西根的一間 Ford 工廠最近在開始重裝廠區之前,想到找來 Boston Dynamics 的 Spot 機器人為前期準備提供一些幫助。他們一共租借了兩台四足機器人,並將其分別稱為 Fluffy 和 Spot。從八月初開始,這兩位幫手將會各自搭載五台 360 度全景相機,按照定好的路線在廠區內進行掃描。面對不同的地面環境(比如階梯),兩者會自動調整不同的步態。假若在移動過程中不慎跌倒,它們也有辦法自己起身。

20200729a

按照 Ford 工程師的說法,在過去數年間這間工廠經歷了許多未被記錄的零星改造。在開始重新設計規劃以前,他們需要全面掃描廠區以獲得一套更為準確的新模型。這些工作如果是交給人來做的話,需要拿著三腳架走到不同位置,然後在每個點上花差不多五分鐘的時間才能完成雷射掃描。「掃完一間工廠差不多要花兩週,但在機器人的幫助下,只要一半的時間就能完工了。」Ford 數位工程經理 Mark Goderis 這麼說道。

不過目前在 Spot 運作的過程中,還需要安排一名操作者跟隨在側,而最終的目標是希望能實現徹底的遠端操控。如果在密西根這間工廠的嘗試取得成功的話,Ford 未來可能也會進一步將應用範圍擴大到整個美國。

影片連結
https://www.youtube.com/watch?v=05Zr-WQuHUU&feature=emb_title

Page 1 of 264

  • «
  •  Start 
  •  Prev 
  •  1 
  •  2 
  •  3 
  •  4 
  •  5 
  •  6 
  •  7 
  •  8 
  •  9 
  •  10 
  •  Next 
  •  End 
  • »