2018年,人工智能在無人駕駛汽車領域“連續撞車”,多家公司出現了安全事故。人工智能技術在安全、隱私等諸多方面面臨挑戰,人們開始質疑,“人工”和“智能”究竟能否和諧相處?
在這種焦慮情緒的影響下,人們開始思考人工智能未來的走向。日前在北京召開的新興科技峰會上,這一話題受到專家的廣泛關注。
在互聯網時代,每個人都可能受到網絡流言的困擾,很多謠言集中在食品安全、健康等領域,有可能產生非常惡劣的影響。
以醫療信息為例,用戶在搜索信息時,由于認知不足,很難判斷這些信息是不是完整、準確以及信息源是什么,這導致了“魏則西事件”“權健火療”等悲劇的發生。
“醫療信息的檢索結果關乎人的生命,用戶必須整理這些信息,避免被有特殊目的的人推送錯誤信息而導致嚴重后果。”美國賓夕法尼亞大學計算機和信息科學系教授丹·羅斯說。
羅斯認為,人工智能中的自然語言處理技術可以幫助人們解決這一社會問題,它能夠幫助人們去了解信息源,了解語意背后的證據,擔起“謠言偵探”的重任。
信息源包括信息的來源、目的、內容等,而對于各種說法背后的證據,可以使用神經網絡進行分類,將大量的信息按支持度的強弱組織成證據鏈,了解不同說法的立場,檢查不同說法的真實性。
羅斯也坦言,目前自然語言處理技術還面臨很多挑戰,比如語意的模糊性,一詞多義或者一種意思有多種說法,在這些情況下的理解完全取決于具體的應用場景。但他仍然呼吁人們多關注這個領域,嚴堵謠言的擴散。
峰會上,也有專家認為,人工智要真正“適應”人類社會,還需要一段很長的路。
卡內基梅隆大學計算機科學學院機器人研究所教授凱迪婭·斯凱洛認為,機器人終將出現,會和人類一起工作、戰斗、照顧老人,但是在這一天來臨前,人們還需要在社會、心理方面做大量工作。
比如讓機器人從事照顧老人的工作,它需要知道在進入房間前敲門;如果老人突發疾病,它又要能夠直接闖入,并快速把老人送到醫院,需要超速時,它也要打破交通限速的規則。“這些決策都帶有很大的不確定性,需要人們提前規定優先級。”斯凱洛說。
有時機器人會干出一些“啼笑皆非”的事。有研究發現,在清理垃圾時,如果程序告訴機器人清理得越多,分數就越高,機器人會為了獲得高分,把已經清理好的垃圾倒掉,再重新清理一次。
斯凱洛認為,如果只讓機器人去工作,那么它們很好控制;一旦人類要與它們有更多互動,未來使用機器人會變得越來越有挑戰性。
“想讓機器人在社會中的被接受程度更高,它們必須要有社會性,它們的行為應該是我們可接受的,要符合社會行為的準則?!彼箘P洛說。
摘自《中國科學報》