作為主導(dǎo)現(xiàn)代人工智能技術(shù)發(fā)展,并首次提出深度學(xué)習(xí)概念的三大開山鼻祖之一,約書亞?本吉奧(Yoshua Bengio)并未緊隨另外兩大巨頭楊立昆(Yann LeCun)和喬弗里?辛頓一樣分別投入臉書(Facebook)和谷歌(Google)公司旗下,而是繼續(xù)在蒙特利爾大學(xué)擔任全職教授,2017年才同意兼任微軟公司的人工智能戰(zhàn)略顧問。
談及屢次拒絕科技巨頭的原因,本吉奧表示 希望像20世紀發(fā)明核武器的科學(xué)家們一樣“保持中立”。他深知人工智能和深度學(xué)習(xí)技術(shù)的巨大潛力,不支持“一兩家公司壟斷這一領(lǐng)域”。
近日,本吉奧接受了麻省理工技術(shù)評論網(wǎng)站人工智能資深編輯威爾?奈特的專訪,對于該技術(shù)的現(xiàn)狀及其未來發(fā)展發(fā)表了看法。
本吉奧表示并不欣賞各大國間在人工智能領(lǐng)域展開的激烈競賽,認為此舉并不明智。在他看來,人類“可以以整體形式參與人工智能的發(fā)展”,作為一名“以共同利益為出發(fā)點的科學(xué)家”,他建議將技術(shù)目標設(shè)定為“如何在研發(fā)更加智能的機器的同時,確保人工智能技術(shù)盡可能廣泛地為越來越多的人造福”。
本吉奧呼吁加強各國在人工智能技術(shù)領(lǐng)域的合作,特別是吸納來自非洲的科研人員。他認為歐美等發(fā)達國家以各種理由拒絕向非洲等發(fā)展中國家和地區(qū)的人工智能學(xué)者發(fā)放簽證是錯誤做法,這不但嚴重限制了自身的科研資源,而且使其在行業(yè)內(nèi)的視野日趨狹窄,而人工智能技術(shù)恰恰在這些國家具備最大的商業(yè)市場、最好的應(yīng)用前景和最多樣化的實際需求。為此,由他倡導(dǎo)的深度學(xué)習(xí)頂級峰會“國際學(xué)習(xí)表征會議”(ICLR)2020年年會將前往非洲舉行。
同時,他再次強調(diào)人工智能并不是某些公司的專利。這項研究本身會導(dǎo)致權(quán)利、資本和智力的高度集中,由此帶來數(shù)據(jù)和軟件的壟斷,從而危及整個行業(yè)的健康發(fā)展和有序運行。“最好的公司有最多的錢,因此總能吸引最優(yōu)秀的學(xué)生。這在公司層面無可厚非,但對行業(yè)而言隱患巨大”。
針對人工智能技術(shù)被用于軍事領(lǐng)域這一問題,本吉奧持“非常堅決的反對” 態(tài)度。他希望能夠使“擁有致命性人工智能武器”被判定為違背道義,但這需要在塑造和修正文化、法規(guī)及條約方面付出極大的努力、耗費漫長的時間。他坦承無法完全阻止人工智能武器的開發(fā),甚至“被部分流氓國家用于實戰(zhàn)”,解決方法是在對其進行譴責的同時加強自身的防御能力建設(shè)――“針對人類的進攻性人工智能武器和反制這些武器的防御性人工智能武器存在顯著差別”。
本吉奧認為,軍事機構(gòu)始終將命令與職責置于道義之上,因此即使人工智能武器具備正確的道德觀與價值觀,也難以實現(xiàn)可靠、可信的人機交互合作。
人工智能領(lǐng)域近期所取得的成果在本吉奧看來都屬于“短期的、漸進式的進步”,其長遠發(fā)展“需要考慮更復(fù)雜、更艱巨的挑戰(zhàn)”,深度延伸至歸因、推理,甚至通過探索外部環(huán)境來學(xué)習(xí)和獲取信息。實現(xiàn)人腦級別的人工智能水平則“完全是另一回事”,需要長期、持續(xù)、穩(wěn)定的投資和雄厚的學(xué)術(shù)支撐。
以因果模型為例,人類能夠?qū)⒆约和渡涞脚c日常體驗截然不同的情境中。,但機器由于缺乏類似的因果模型而無法實現(xiàn)這一能力。人工建模的因果模型并不能滿足需要,真正匱乏的是發(fā)現(xiàn)因果模型的機器,而這種模型必須不斷完善。與其相類似的是,人類也從未擁有足以適應(yīng)任何現(xiàn)實環(huán)境的因果模型,因此在犯錯與改正之間不斷反復(fù),但人類的優(yōu)勢在于吸取教訓(xùn)和積累經(jīng)驗,這也是人類占據(jù)生物鏈頂端的根本原因之一。
【來源:國防科技要聞】