在AlphaGo阿法狗第一局戰勝圍棋高手李世石后,英國《金融時報》中文版頭條文章為:互聯網終結,人工智能崛起。此時此刻,互聯網時代的領先者和弄潮兒不落窠臼,一場革命就要到來,他們似乎正在拋棄互聯網:
2015年和2016年,整個Google都在推動一件事——改名Alphabet,希望徹底脫掉互聯網公司的標簽,在原來的搜索引擎、YouTube和Android之外,將Calico(生命工程相關)、Google Ventures(創新投資部門)、GoogleX(研發自動駕駛汽車、智能隱形眼鏡和提供互聯網服務的熱氣球等)都歸到Alphabet旗下。Google似乎已經意識到“互聯網”時代正在終結。
同樣在此刻,全球最頂尖的精英也在拋棄互聯網——斯坦福、MIT(麻省理工)、CMU(卡內基梅?。?、伯克利四所名校人工智能專業的博士生第一份offer(工作合同)已經可以拿到200-300萬美金。掠奪這些人才的公司大體上在一個比較小的范圍內,Google(現更名Alphabet)、Facebook、IBM、蘋果、微軟、亞馬遜、特斯拉…一長串的金光閃閃的公司。
互聯網的精英人才在硅谷現在的起薪應該是20萬美金左右。10倍!還有什么比工資更敏感的價值判斷呢?這種人才軍備競賽情況在商業歷史上從來沒有發生過。
阿法狗和Atlas機器人的相繼出現,把即將到來的人工智能從幕后推送到幕前,谷歌在為這個全新的“人機智能時代”蓄勢,一如當年的美國集中西方最優秀的科學家開啟了震驚全球的“曼哈頓計劃”。
AlphaGo在短短幾個月實現性能的大幅提升,用五個月走完了IBM“深藍”4年的路,這樣驚人的學習能力是人類可望而不可及的。美國啟動了“腦研究計劃”(BRAIN Initiative)、歐盟啟動了“人類大腦工程”(Human Brain Project),目前全球人工智能企業已經超過了900家,總估值超過87億美元。
近年來,深度學習(deep learning)已經在圖像識別、語音識別等領域獲得了一些應用。目前深度學習技術應用最多的還是視覺領域,即對圖像和視頻的分析。在圖像分析方面,比如人們熟悉的人臉識別、文字識別和大規模圖像分類等,深度學習大幅提升了復雜任務分類的準確率,使得圖像識別、語音識別以及語義理解準確率大幅提升。
Google已經著手開發人工智能的實際應用,多次公開場合討論過深度學習技術,比如深度學習是如何幫助Android手機提高語音識別準確率;谷歌自動駕駛通過深度學習識別道路、交通信號燈、路標等。
據悉,谷歌與半導體新創企業Movidius展開合作,正在開發配備“深度學習(Deep Learning)”人工智能最新技術的智能手機。如果智能手機內置圖像識別功能,就可以即時本地處理圖像和識別被攝體。人臉識別支付、標識和招牌翻譯等手機的各種新用途將成為可能。
芯片商扎堆深度學習,高通打出驍龍820
然而,對于半導體產業來說,最重要或許也最實際的問題是:深度學習將會深入智能手機、可穿戴設備或是自動駕駛汽車中使用的微型芯片嗎?也就說,我們得讓更小的設備具備深度學習的能力,使其得以實現高性能與低功耗才是關鍵。
結合用于偵測運動和音頻信號的傳感器、快速的存儲器訪問,以及高功效的數據處理方法,這些系統可以擁有真正的“認知”能力,甚至在不遠的將來構成一個用于人工智能移動設備的平臺。同時,重要的是優化現有的架構來實現“智能視覺”功能,比如3D深度圖和感知、物體識別以及增強現實,還有一些核心的計算圖像學功能,比如圖像縮放、HDR、圖像再對焦,以及微光圖像增強。
現在已經有充份的證據顯示芯片供貨商對深度學習的興趣不斷增加,卷積神經網絡(CNN)正廣泛地應用在影像與視頻辨識領域。
“毫無疑問地,深度學習確實是改變游戲規則的一大突破,”嵌入式視覺聯盟(EVA)創辦人Jeff Bier以計算機視覺為例表示,深度學習具有強大的影響力,“必須說的是,目前它還只是一種經驗領域。人們正在嘗試不同的東西。”
高通去年推出了首款可‘模擬人腦’的Zeroth認知運算平臺——具有“計算機視覺、設備上深度學習、可辨識場景與對象的智能相機,以及閱讀文本與手寫”的能力,并宣稱驍龍820是一顆智能芯片。
Nvidia在去年三月的GPU技術大會上使用汽車和先進駕駛輔助系統(ADAS)作為應用重點,配合Elon Musk的意見和評論,希望表明自動駕駛汽車的挑戰幾乎已被完全克服了。另一方面,隨著時間的推移,加上一些著眼于降低功耗的調整與改良,無處不在的3D感知、3D跟蹤,以及圖像搜索等許多技術和應用正在快速進入智能手機,以及其他以電源或電池供電的嵌入式系統中。
DSP IP平臺授權廠商CEVA公司宣布推出實時神經網絡軟件框架CEVA深層神經網絡,以簡化低功耗嵌入式系統中的機器學習部署。包括用于圖像分類、定位和目標識別的實時示例模型,用于目標和場景識別、先進駕駛輔助系統(ADAS)、人工智能(AI)、視頻分析、增強現實(AR)、虛擬現實(VR)和類似的計算機視覺應用。
飛思卡爾收購計算機視覺IP供應商CogniVue。CogniVue總部位于加拿大渥太華,是一家從事影像認知IP開發的企業,過去4年是飛思卡爾最新駕駛輔助系統(ADAS)單芯片(SoC)解決方案主要視覺IP的供應商。
TI、Nvidia、英飛凌、高通、谷歌等大廠都在進行自動駕駛汽車中使用的微型計算機視覺芯片設計的研究,致力于開發針對神經網絡(CNN)優化的SoC架構。其中最厲害的是以色列公司——Mobileye——他們可以提供最完整解決方案。
為了實現視覺類芯片的深度學習應用,芯片供貨商用盡了從CPU、GPU到FPGA和DSP的一切,有關CNN的爭論才剛剛開始。
人工智能型移動芯片面世還要多久?
“你不需要做出決定,因為深度學習將會為你做決定。”在深度學習架構中,你可以將所有的步驟整合于一。
學習和訓練過程先在專用設施完成,例如利用數據中心的超級計算機。然后,將第一階段中的大量數據集轉為‘設定’和‘協同效率’應用到嵌入式系統中。
隨著許多圖像處理與增強功能也都使用計算機視覺技術,計算機視覺和圖像處理技術之間的區別正在變得越來越模糊。最直接的例子就是多幀圖像增強功能,比如HDR、圖像縮放與再對焦--拍攝多個連續的圖像,然后將它們融合在一起,得到更高質量的畫面。
雖然我們稱之為“圖像增強”,但這其實涉及大量的計算機視覺處理來“register”圖像,既完成兩幀或三幀畫面之間的匹配。現在,用戶認為這種基本功能是理所當然的,但其實它需要非常強大的處理能力,使得對于專門的、高性能的數字信號處理 (DSP)的需求將會增加。
高通公司(Qualcomm) 在Uplinq 2013上發布了文章,很好地描繪出用于各種不同處理功能的像素功率和時間關系。圖中展示了三個處理器,包括一個在1.2 GHz下運行的單核CPU、一個四核CPU,以及一個在690 MHz下運行的DSP。
圖:描繪不同處理器在處理每個像素時需要的處理能力和時間,表明了DSP結合CPU用于視覺處理的優勢。為了優化功耗和性能,結合CPU、DSP和GPU可能是總體來說最好的方法。
然而,隨著我們轉向在移動平臺上實現類似人類的視覺、人工智能和增強現實應用,可能需要重新思考所需的處理架構。結合傳感器融合和先進深度學習算法(比如CNN),這些非常先進的計算密集型應用將提供更具環境感知和情境感知的用戶體驗,但是在電池壽命方面卻要作出取舍。
設計人員面臨的挑戰,是一方面要實現具有智能感知能力的設備,同時在另一方面維持可接受的電池壽命。有幾種方法來實現這一點。例如,可以使用來自高通或Nvidia的GPU來支持CPU。這已經在許多智能手機中實現了。然而,降低功耗這一持續性的強制需求驅使我們將特定的處理密集型功能分散給針對視覺處理進行優化的DSP處理器。在處理物體識別和跟蹤時,對比當下最先進的GPU簇群,使用這種方法可以節省高達9倍的功耗。
然而,即使具備這種功耗水平,移動設備仍然不太可能很快地使用面部識別來進行人群搜索,因為此功能對于處理能力的要求還是太高了。不過,低功耗處理器和經過特定優化的處理器架構的面世帶來了希望,使得我們在這個領域內正在取得實質的進展。這類進展是MIT Technology Review將深度學習稱為2013年十項技術突破之一的原因所在。除了GTC上進行了相關演示,微軟、百度,以及Cognivue也展示了一些研究成果。此后,這個領域中還有其他長足發展。
此外,Aziana (澳大利亞)最近宣布與BrainChip(美國加州)合并,后者是專門以硬件方式實施人工智能的企業,并已經著眼于開發用于移動平臺的人工智能。雖然支持強大處理能力的架構和超低功耗處理是至關重要的,但隨著云連接變得更普及、更快捷,若我們將盡可能多的處理開銷分配到云中,也是合乎情理的。這將會走向智能的處理性能分配。在云做最適合在云中處理的工作,在移動設備做最適合移動設備處理的工作,盡可能高效地依據架構分配功能,比如使用CPU來分配GPU和DSP之間的負載。用高通公司的說法,就是使用合適的引擎來做合適的工作。
“寒武紀”芯片——中國AI的抗旗者
世界排行榜榜首中國圍棋抗旗者17歲的柯潔已向阿法狗約戰,捍衛人類尊嚴。美國通過人工智能再次展示其科技領域全球領先地位,在中國AI研究的抗旗者在哪?實力幾何?
在國內,大批科技公司也開始進入到這個市場。2014年科技部“863 計劃”啟動《基于大數據的類人智能關鍵技術與系統》項目,同時醞釀啟動“中國腦計劃”。在企業方面,阿里巴巴推出了國內首個可視化云計算智能平臺 “DTPAI”;騰訊則推出了撰稿機器人Dreamwriter;新秀科大訊飛則在語音和語言方面也擁有了核心技術積累和產業基礎。
而作為國內最早介入人工智能研發的企業之一,百度在人工智能研究方面的布局則遠非幾個獨立產品或是幾個垂直領域所能描述。2014年,百度在硅谷成立人工智能實驗室,側重于研究人工智能和深度學習的前沿技術,這使得百度在硅谷現有開發能力的基礎上進一步增強了研究能力。與此同時,百度挖角谷歌大腦之父吳恩達,隨即成立由吳恩達領銜的深度學習實驗室,主攻智能駕駛和語音識別兩個方向。
截止目前,百度人工智能實驗室搭建了作為百度人工智能核心的“百度大腦”,融合了深度學習算法、數據建模、大規模GPU并行化平臺等技術,實現了實時學習和成長,它擁有200億個參數,構成了一套巨大的深度神經網絡,是利用計算機技術模擬人的大腦的智慧,如學習、記憶、推理、搜索、分析、歸納、創新,甚至模擬和擁有人的情感、意識,使計算機或機器人能夠勝任一些通常需要人類智能才能完成的復雜工作。
在核心處理器領域,中國科學院計算技術研究所陳云霽、陳天石課題組提出的深度學習處理器指令集DianNaoYu被計算機體系結構領域頂級國際會議ISCA2016(International Symposium on Computer Architecture)所接收,其評分排名所有近300篇投稿的第一名。2014年,陳云霽入選《麻省理工科技評論》35歲以下的全球最佳35名創新人士。
一同問世的還有全球首個深度學習處理器架構寒武紀。陳云霽在接受采訪時表示,事實上,中國在智能這樣的新興領域和國外差距不大,甚至在智能芯片上是引領世界的。例如我們的寒武紀,美國的哈佛、斯坦福、MIT、哥倫比亞等高校都跟在我們后面做。谷歌甚至需要使用上萬個x86 CPU核運行7天來訓練一個識別貓臉的深度學習神經網絡。將來如果使用了帶有“DianNaoYu(電腦語)”指令集的“寒武紀”處理器,深度學習的運算速度會得到明顯提升。
陳云霽還表示,正在成立寒武紀公司,進行深度學習處理器的產業化,公司即將完成天使輪融資。相信我們的產品一旦流片,很多國內外公司都會非常感興趣。