http://www.stdaily.com 2011年09月04日 來源: 科技日報 作者: 張夢然
本報記者 張夢然 綜合外電
當人工智能技術在機器人一詞前冠以“新一代”,而不是“新型”時,無論過往你是愛是怕,從此已再不能忽視它們了
卡耐基梅隆大學正在把機器人Actroid-DER優化得更女性化
①可以照顧老殘人士的機器人管家HERB。
②可以照顧老殘人士的機器人管家HERB。
③石黑浩(左)和他的硅膠替身。
.
④猶如嬰兒般大小的思科網真手機機器人Elfoid。
⑤有1500多個傳感器的Huggable機器.
⑥機器小海豹可能會讓老人與其他人逐漸疏遠。
讓我們愛恨交織的技術太多了。它們大部分是在幾十年間從世人完全陌生到耳熟能詳,勢頭快得讓人不敢掉以輕心,這里面,就包括曾經十分可愛的機器人。
但近幾年,人工智能(AI)前行的步伐把機器人研發帶到了一個嶄新的領域里——它們不但眼耳口鼻、連所思所行都開始越來越像我們人類。同時,研究者們也正以自己為模板,在極力完善機器人的情緒,似乎急著把它們也拉進貪嗔癡喜惡怒的苦海中。
那些科學與倫理的權衡之辭,早已在科幻和各種探討中被人們嚼爛了,亦或因此,至今在現實發展中,未見出現大面積過激的反對聲浪。但也有科學家認為,機器人技術當前之境地,其實已接近讓人們負面情緒崩潰的邊緣。
不過,這種改變是漸進式的,這讓人類似乎很難真的意識到正發生改變的機器人意味著什么,或者說,未必做好了應對這一切改變的防備。于是近日,美國《國家地理》在線版以《我們,與他們》為題,撰寫了一篇分析文章,試圖探索機器人和人類當前的關系及我們能看得見的未來發展。
只是,現在就叫“它們”為“他們”,是否言之過早?
從形到神的顛覆,機器人做到了嗎?
隨著控制人員在筆記本電腦里輸入了一條命令,Actroid-DER仿真女性機器人仿若剛睡醒般,帶著人類特有的喘息聲,活靈活現地站起了身。以壓縮空氣為動力,藏于有機硅膠皮膚下的傳動裝置,讓Actroid-DER輕輕抬起了手臂,甚至露出了一個有幾分恬淡味道的微笑,讓觀者驚嘆不已。
這款機器人的腳步被固定在展示平臺上,因為許多管線要從腳踝處貫入身體,但Actroid-DER依然能夠自在的移動頭部,拿眼睛掃視著整個演示間——這當然遠稱不上是顧盼若兮、眼波流轉,“她”的眼神依舊是機械缺乏生氣的,但“她”卻可以將眼光投定在一個觀眾身上,用不斷眨巴著眼睛的所謂俏皮姿態,向對方發出詢問:“我是個機器人,令你很驚奇么?我看起來就像個活生生的人,不是么?”
或許,第一次看到Actroid-DER的人,會為“她”逼真的表現而震驚,但不幸的是,這都是提前預設好的內容。科學家們反而會從對立面的角度,去關注這款機器人頗多的缺陷。
這款由日本機器人研發企業Kokoro公司開發的Actroid-DER機器人,此前已經多次被租借出去擔任商業活動的發言人。但該領域發展至今,此類簡單的任務已并不能描繪出一個仿真機器人所應追求的細致入微和部分性格體現。依美國《國家地理》那篇文章作者之見,這就是——花費了25萬美元的巨額投入,卻并不能讓Actroid-DER的一舉一動擺脫機器特有的死板生硬。
而作為人類最顯著特征的語言能力,Actroid-DER的模仿表現尤其令人失望。“她”的說話習慣是一邊說著一邊隨時準備睡著,仿佛“她”身上還有著比電更強大的力量來控制似的,這可不是“她”意圖模仿正常人該有的行徑。
但這款Actroid-DER機器人的待遇卻是特殊的。當越來越多更加先進的Actroid型機器人出現在各類技術展覽上時,“她”卻被運送到匹斯堡的卡耐基梅隆大學以獲取人類所應有的外貌特征。這正是該大學娛樂技術學院5名樂觀的研究生所期望的——或是不得不樂觀也說不定,因為他們之前已經耗費了長達15個星期的一個學期,來讓這位女性機器人更加具有女人味而不是更多機器的冰冷,且在一開始,他們就按照“她”日文名字Yume的含義,稱其為“夢”。
“Kokoro公司賦予了她逼真的仿真身體,但這還遠遠不夠。”參與項目的學生克里斯蒂安•巴恩斯說,“我們即將展開的工作是令‘夢’從逼真升級為真實可信。”
它們是不是家里的“田螺姑娘”?
盡管不見得讓人稱意,但Actroid型機器人其實是新一代機器人的代表。這一代機器人的設計初衷已經超越了簡單的程序輸入式的工業機器人,而致力于將機器人打造得愈益自主,使其能夠如真人一樣在學校、家庭、辦公室扮演角色,承擔任務。
該潮流的先鋒代表便是ROOMBA保潔型機器人。當圓頭圓腦的ROOMBA來到用戶家中后,就像一只初來乍到的電子寵物狗,看似沒頭沒腦地亂轉,其實自有套章法,如用電腦模擬出它走過的痕跡,就會發現能覆蓋到房間的角角落落。
比較妙的是,ROOMBA也能自己出動清理地面,在主人不在家的時間里把活干完——這一點倒真有點“田螺姑娘”的意思。而麻理人工智能實驗室的良好出身,以及美國iRobot公司多年為軍方提供戰地機器人的可貴經驗,讓ROOMBA的感應系統“耳聰目明”,即使無人看守,也從不會弄成一團糟,更不必擔心會一頭栽到樓梯下面去。待它任勞任怨地干完活,再自己摸著路回電站充電。
這款機器人不再是實驗室或小規模高端產物了,它作為一款在售產品,早已引發了大批量的模仿。其商業化之后優秀的反饋讓人們相信,更加復雜的服務型機器人或許不久之后就可以為我們準備飯菜,整理衣物,甚至照看孩子和老人的生活,而我們,像是無良監工,只需在幾英里外的辦公室得意的地過電腦進行操作和監督。
“在5年到10年的時間里,機器人將會在人類生活中發揮越來越重要的作用。”卡耐基梅隆大學機器人學教授里德•西蒙斯斷言。
這種前景當然也帶來了一系列的問題。
首先,你打算將日常生活內容的幾成交給機器人?這其實是個深遠的、對機器信任度的問題。
其次,服務型機器人應當具有怎樣的外表?ROOMBA看起來就是圓盤子,這也讓很多人誤認為它就是個機器而不是機器人;《星球大戰》里好人緣的C3PO雖僵硬但不失優雅……至少,許多人不會希望看到“夢”這樣有些女鬼氣質的機器人在家里晃蕩,而且恐怕也不會樂意在臥室墻上安裝一只粗壯的機械手臂。
再其次,我們的人際關系會因為機器人的加入而發生怎樣革命性的變化?日本一家養老院已經禁止老人們擁有一種用來娛樂的機器小海豹,因為擔心這會讓老人與其他人逐漸疏遠。相似的憂慮也開始針對起未來照看嬰兒的機器保姆。受此牽連,理想浪漫情人型機器人的嘗試,也進展緩慢。
總而言之,我們是否準備好迎接它們了?此問題反之亦有效。
機器人是否已為我們做好了準備?
在卡耐基梅隆大學娛樂技術中心外山上的一座山上建筑里,HERB安坐不動,仿佛陷入深思。HERB一詞是家庭探索機器人管家的簡稱,這是由卡耐基梅隆大學與英特爾匹斯堡實驗共同合作研制的,用于在未來照顧老殘人士的標準型服務機器人。
作為按家庭用品設計的機器人,HERB裝配了賽格威車輪的“腿腳”以及一大堆復雜的電腦設備組成的“身體”。但與“夢”有所不同的是,HERB更近似于具備精神能力的生命體。目前,這款機器人正在通過以每秒數以萬計個場景的速度對不同場景進行選擇并作出正確反應的方式,來不斷改進自身的性能。
“我將其稱作造夢。”HERB的制作者、卡耐基梅隆大學機器人學院教授悉達多•斯日尼瓦薩說。“這讓人們直觀地理解機器人事實上可以明白它們自己正在做的事。”
傳統的機器人,比如人們常見的汽車車間流水線上焊接車體的那種,能夠按照預先輸入的指令從事非常精確的工作,但是需要非常嚴格組織起來的環境。而HERB這樣的機器人,為了融入人類的生活空間,就必須感知、察覺并處理不同的陌生事物,并且移動的過程中不能與活動的人類相撞。HERB的感知系統包括安裝在頂部架桿上的一臺攝像機和一部激光導航設備不同于液壓驅動的工業機械臂,HERB的手臂通過壓強感知的電纜系統模仿了人類的肌腱功能。這種靈敏將使得HERB可以輕柔地將一位被照顧的老婦人送進浴室,而不至于發生大力把她扔出門外的事故。
在實驗室里,斯日尼瓦薩的一個學生按下了一個按鈕,發出了一條拿起放在附近桌上的果汁盒的指令。HERB的激光導航設備開始旋轉,制造出一幅3D的網格地圖,其中標注出了周圍人類和物體的坐標位置。同時,攝像機捕捉并鎖定了最為接近目標——果汁盒的候選物體。機器人緩慢地靠近并抓起了盒子,并始終保持水平。最后,依照命令,它將果汁輕輕地放下。
對于一般人來說,這種表現或許并不是那么搶眼,“當我展示這一切給我母親看時,她竟然不能理解HERB拿杯水為什么會費那么大勁。”斯日尼瓦薩說。
其實問題并不在于HERB本身,而在于事前輸入給它的場景案例。拿杯水對于人來說確實是簡單之極,我們的大腦經過幾百萬年的進化已經非常善于做這類事。對于那些專門從事某類事情的工業機器人同樣也精通此道,但HERB超越它們的地方在于,它知道自己所要拿取的是一盒果汁,而不是一杯牛奶或一個茶杯。這種理解能力來源于大量先進的數學與計算機技術,但用斯日尼瓦薩的話說,一切最終歸結為:“它能夠將輸入的信息,在自身預先存儲的關于外部世界的場景語境中進行智能分析。”
當HERB遇到新的物體時,先前學習的規則會指導具備壓力感應功能的手臂的行動。這個物體有把手嗎?會打碎么?斯日尼瓦薩按照人類的行為特征設計了HERB的手臂。比如在酒吧里,他觀察到酒保用一種違反直覺的神秘手法來進行調酒,便將其簡化為運算法則。如今HERB的指令系統里就有這一招。
當然,HERB正在探索的世界,是可控的實驗環境。讓它具備在真實的人類生活中發揮作用依然要面對許多困難挑戰。
而HERB還有一個車鈴鐺似的號角,以告知人們它在靠近。如果屋子實在太過于凌亂和擁擠,它就會選擇最安全的行為方式——站在那兒,對著所有人不停按喇叭。
若當我們都不能理解自己時……
以上之策略在實驗室里確實有效,但是換成辦公室里就不一定奏效。人類可以做出許多無法用詞匯來表達的無意識行動,比如我們會小心地繞過擋在前進路上的人,還能明白自己正在侵入他人的私人空間——而這種事無法用數字上的距離來表達。
卡耐基梅隆大學的研究者們知道大眾也希望機器人能夠做到這一點。它們如果做不到或做出傻事,人們通常不愿意去原諒。
卡耐基梅隆大學另一款研發中的零食機器人就是個例子。它被設計用來在計算機學院的人群中散發零食,但經常出現送錯貨或者找錯錢的事兒。
當然,如果機器人能夠提前告知人們它會出錯或者學會道歉的話,多數人們也是比較寬容的。但是問題在于人類自己有許多它們理解不了的奇怪舉止。“監控顯示,有時候人們會偷零食。”機器人的設計者說。
與其他社會機器人一樣,零食機器人也是個可愛的家伙。它四英尺半高,卡通風格容貌的腦袋讓它勉強還像個人。由于人們對它的期望值就沒放太高,這避免了它掉入所謂“詭異之谷”的困境。
而所謂“詭異之谷”,是日本機器人研發的先驅森昌弘于40多年前提出的概念,意思是一般說來,人們都會非常肯定地認為機器人應當具備人類的外觀面貌,但森昌弘觀察到,當機器人越來越栩栩如生的時候,這種“與人近似”的期望就會迅速轉變為排斥。
雖說,大部分的機器人學家并不愿走到那種極端的地步,但是依然有人提醒說,如果人們愿意接受機器人發展到和真人一樣的地步,“詭異之谷”則是一個必須經歷和度過的階段。
而推動“夢”這款機器人穿過“詭異之谷”的人,正是無畏的機器人專家石黑浩。他長期觀察機器人領域的改進創新,研究仿真機器人電子元件的相互作用。去年他就研制出了包括以一位留著山羊胡子和短發茬微笑的丹麥教授為原型的逼真機器人,以及一個和嬰兒般大小的思科網真手機機器人Elfoid。后者一旦經過改良,人們就能夠通過它來與同樣適用Elfoid的朋友聊天,在這個過程中,機器人會模仿你做的動作。
而石黑浩最“雷人”的作品,還當屬他最近研制出的以他自己為原型造的Geminoid型號。人們如果造訪他位于日本京都的ATR智能機器人和通訊研究所的實驗室時,他和他的復制品都一襲黑衣。機器人坐在制作者后面的椅子上,留著一模一樣的黑色頭發,同樣是擁有一張愁云密布的臉。
石黑浩打趣說,自己在兩小時車程外的大阪大學也擔任教職。有了這個硅膠替身,自己就可以同時出現在兩個地方。 通過安裝在機器人面部的動作捕捉感應器,石黑浩就可以一邊通過網絡操作機器人與京都研究所的同事們交流,自己則在大阪的教室里上課。
與其他機器人領域的先驅者一樣,石黑浩不僅樂于在技術層面推動機器人的進步,更意欲獲得哲學上的解釋。他的機器人像是測試風速的氣球或者不完美的鏡子,通過這些越來越逼真的作品折射出人類根本上的屬性為何,并觀察人們如何與機器人互動,來制造出更加可信的機器人。
“人們傾向相信我是真實的人,而那個東西不是。”石黑浩指著自己的替身說到,隨著技術的進步,這種特征上的差別實際上會越來越難以分辨。當最終真假難辨的時候,在意與之交流的是不是真人還有什么意義么?對于自己的替身,他表示最佳的用途,是送到自己遠方母親的身邊,因為自己很少回去探望。
“你母親會接受這么一個機器人?”人們這樣問他。
而石黑浩的回答是:“但這就是我自己呀。”
機器人能擁有道德反應嗎?
在前面這個可以與母親互動的機器兒子的夢想付諸實踐前,還有許多環節比單純模仿更需要加以研究。
在HERB通過導航設備融入簡單的人類物理環境之后,其他機器人則開始向神秘復雜的人類精神情緒領域進發。范德堡大學的薩卡與他的前同事、現就職于華盛頓大學的溫迪•斯通,開發一個可以與自閉癥患兒玩簡單球類游戲的原型機器人。通過測量每分鐘心率、出汗、注意力和其他身體特征的變化,來監視兒童的情緒。但監測到厭倦或者激怒的情緒時,它便改變游戲的內容直到這些指數恢復到正常的快樂。這套機器人系統在技術上并不是非常復雜,但面對復雜的語言和生理相互影響,卻具有實際的治療效果。當然,這僅僅只是機器人接近人性的第一步:知曉他人的思想和感受,調整自己的行為作出回應。
在2007年,一份報紙使用了“什么是一個人?”這樣的挑釁性標題。因為華盛頓大學的發展心理學家皮特•卡恩與石黑浩等同事,共同擬定了一套九等心理基準來衡量機器人是否在模仿人類方面成功與否。他們強調的重點并不在于機器人技術方面的功能,而在于人們如何觀察和對待它們。
比如這條“內在的道德價值”。不管我們是否認為機器人值得獲得基本道德對待,人類彼此之間是存在自然的相互尊重的。
卡恩的實驗說明了這一點,他讓青少年們與一部名為Robovie的機器人共同玩猜謎游戲。幾輪之后就有人在輪到機器人回答時出來打斷,并呵斥機器人回到壁櫥里去。Robovie會提出抗議,宣布不讓自己回答問題是不公平的。但打斷的人回答:“你只是個無關緊要的機器人。”盡管不斷地徒勞抗議,最終Robovie還是被扔進了壁櫥。當然,這并不是機器人為自己利益作出的反應,它背后是由人操作的。這是人的主觀反應。
“有超過一半的實驗參與者表示他們認為Robovie被扔進壁櫥是不公平的,這就是一種道德上的反應。”卡恩說。
人類,尤其是兒童,同情一個遭受不公平待遇的機器人或許并不令人驚奇,畢竟他們一直接觸玩具和各類玩偶。而讓一個機器人自己具有道德上的判斷能力還遙遠得多。機器人能夠被賦予良知這種最為獨特的人文屬性么?因為在戰場或實驗室這類人類道德備受考驗的場景里,這種思量或許更加有效。
在阿基莫夫三定律之后
描述機器人行為規則的阿基莫夫三定律,實在太老生常談了,且只能作為最基本要素存在。當代戰爭中機器人扮演的確是越來越復雜的角色,如遠程操控的無人機,和裝備機槍炸彈的地面車輛。各國政府都在發展具備敵我識別能力的機器人,盡管讓一個機器人為所犯下的錯誤決定負責有些荒唐,但人們已經篤信它們可以做出正確的決定。
在機器人道德領域研究中探索得最深遠的,要數亞特蘭大佐治亞技術研究所的研究員羅納德•阿爾金。他指出,并不是機器人在戰爭中的道德約束啟發他從事現在的研究,而是人類自己的道德界限。
他列舉了兩個在伊拉克發生的實例,一個是美軍直升機飛行員打死受傷的敵方人員,一個則是在哈迪塞遭伏擊后,海軍陸戰隊殺害平民。或許是承受著恐懼與憤怒的巨大壓力,這些士兵竟然先射擊然后再質詢,結果是婦女兒童慘遭殺害。
阿爾金相信機器人或許比人更能作出正確的倫理決策。在戰爭的喧囂中,機器人不會像人類一樣受動蕩不定的局勢和情感的起伏所擺布,因此它們在炮火下犯錯的幾率更小,同理也更不可能傷害到非戰斗人員。
在阿爾金的系統中,有一套內置到軟件里的“倫理控制程序”——當機器人鎖定目標時,控制程序會根據交戰規則和戰爭法則檢查一整套預先編程的制約條件;而當機器人甄別是否該開火時,又會受這套程序的指導。例如,按交戰規則,若程序給出的指令是開闊戰場上的一輛敵軍坦克,對此機器人極大可能開火;而對于有武裝敵人參加的墓地葬禮,則會被禁止開火。
第二個程序是“倫理適配程序”——目的是限制機器人選擇的武器。由于部分武器火力過猛,恐會導致無法預料的傷害,比如,程序可能禁止使用導彈,直到將系統調適為止。
最后的一個程序,則是“責任建議程序”——讓機器人可以接受人類評判,如果評判人都認為機器人過于猶豫或者過于“激動”了,那么該程序允許覆蓋保守設計的倫理控制程序。
但這整套程序的原創人卻也承認,該系統或許還不能適用于真實世界,但是他的努力卻是為了讓軍方乃至國際社會將目光多投注在一些倫理問題上。
我們與它們
10年前的影片《人工智能》(AI)中,被制造出來用于“去愛人類”的機器人大衛有了自己的感知,他只想成為養母真正的兒子,“他的愛是真的,可他自己不是”。那位人類母親呢,雖說沒當他是臺家電,但也只勉強平了寵物的地位。
此時讓我們重返卡耐基梅隆大學的“夢”改造項目,也到了與這個機器人有關的學期已經進入尾聲的時刻。課題組選擇向教師評審團展示經改良優化后的機器人,看其能否由“形似人類”邁向“神似人類”。
這段“進化之路”并不好走。課題組的計算機程序員嚴林(音)設計了一個用戶友好型軟件界面,用于十分流暢地去控制“夢”的動作了。但面部識別、更真實更服人的眼神互動,都只來得及嘗試了一半。
為了掩飾掉這幾處缺點,研究人員賦予了“她”假定的身份及與身份相符的服裝和舉止——有點哥特、朋克氣息的少女,所作所為皆是在吸引對方的注意。
現在,“夢”戴上了一副掩蓋僵硬指節的半指手套,擦著黑色唇膏來混淆別人對它嘴部無法快速閉合的注意,看人時總會先定定地望上一會——以掩蓋眼神內容的不足,再然后頭部機械地擺了兩下——以免暴露她的不靈活,課題組成員們假定“她”這樣的少女會有類似的傾向。
當然,朋克與哥特表象下,這還是那個原來的Actroid-DER型機器人。所幸,它自己至少現在明白了這一點。
“我并非人類。”她坦承。“我永遠都不會和你們一樣。可這也并不太糟,實話說,我才喜歡當一個機器人哩。”改良后的效果讓教師團動容,課題組因此拿到A成績。
接下來的那個月,生產商KOKORO公司的技術人員就要將這個Actroid-DER型機器人運回日本東京了。課題組成員之一克里斯汀•巴恩斯沒能通過游說將機器人留在這里。在日本人裝箱時她本想上前幫上一把忙,扶住“夢”耷下來的腦袋。但對方禮貌地回絕了。他們就那么隨意地把依舊穿著可愛服裝的“夢”,三兩下塞進板條箱,封裝打包走人。(科技日報)