?
從 2016 年的人“狗”圍棋之戰(zhàn)到《西部世界》,再到智能音箱,人工智能不再是科幻里的觸不可及,而是在身邊逐漸落地的真實?!叭绻慌_機器能夠與人類展開對話(通過電傳設(shè)備)而不能被辨別出其機器身份,那么稱這臺機器具有智能?!笔堑?,圖靈設(shè)想的人工智能來了。
近期,一張來自《紐約客》雜志的封面毫無征兆地在朋友圈里刷了屏。人類坐地行乞,機器人則扮演了施予者的角色,意指明顯——在未來社會,人類的工作機會被不斷進化的機器人剝奪,從而淪為了流落街頭的弱者。
?
再來看一份最可能被 AI 取代的 20 大崗位吧:
其實,這是一個老生常談的話題,當(dāng)機器人概念走紅的時候,人類被取代的話題就已經(jīng)被熱議,“AI 志向”不是單純的模仿人類,而是超越人類,因此催生“無用階層”是需要我們正面面對的問題,當(dāng)然也會創(chuàng)造新的崗位。有人說,人工智能被認為是引領(lǐng)第四次工業(yè)革命的先鋒,也有人說,AlphaGo 是引發(fā)第五次工業(yè)革命的標(biāo)志性機器。
?
作為小編的我,看到一份來自調(diào)研機構(gòu)的預(yù)測,記者也在高危失業(yè)人群中,頓時心塞了,趁著失業(yè)前在本期《發(fā)現(xiàn) AI》中好好和大家扒一扒“人工智能”。
現(xiàn)在張口不帶“人工智能”、“AI”都感覺自己跟不上時代。那么問題來了,人工智能有哪些類型呢?
人工智能的類型
弱人工智能:特定場景下角色型的任務(wù),如擅長于聊天的 Siri、擅長下棋的 AlphaGo;
通用人工智能:包含人類水平的任務(wù),可以替代大部分人類工作,涉及機器的持續(xù)學(xué)習(xí);
強人工智能:比人類更聰明的機器。
從弱到強,需要一個過程,那么就來看看人工智能的發(fā)展史吧。
?
?
?
人工智能發(fā)展史
人工智能的孕育期
1950 年,圖靈測試誕生,圖靈還預(yù)言在未來人類有創(chuàng)造出具有真正智能的機器的可能性。以圖靈為代表的科學(xué)家為 AI 提供了理論基礎(chǔ)和使用工具。
人工智能的早期發(fā)展(1956~1979)
1956 年的夏天,在美國舉行的達特矛斯學(xué)術(shù)會議,以馮·諾依曼、圖靈為首的科學(xué)家試圖通過符號化編程實現(xiàn)人工智能。之后的十幾年是 AI 的第一個黃金期,一臺叫做“STUDENT”的機器于 1964 年解除了應(yīng)用題,一臺叫做“ELIZA”的機器于 1966 年實現(xiàn)了簡單的人機對話。
?
人工智能的中期發(fā)展(1980~1990)
人工智能的中期推動者還要從日本說起,日本經(jīng)濟產(chǎn)業(yè)省撥款八億五千萬美元用以研發(fā)第五代計算機項目,而這個計算機就是可以與人對話、進行翻譯、進行推理的 AI 計算機。隨后英國、美國也開始向信息技術(shù)領(lǐng)域投入大量資金。
在這次的資金熱潮下,AI 程序“專家系統(tǒng)”問世,它是一個存儲加推理的能手,不過在經(jīng)過七年的“輝煌期”之后被 1987 年蘋果和 IBM 生產(chǎn)的臺式機打敗了。
?
人工智能的熱潮期(1990 年后)
這一階段的情況就不多介紹了,我們正在感受人工智能新一輪的爆發(fā)。人工智能已成為創(chuàng)業(yè)和投資的熱點。
關(guān)于 AI 簡史我們就不再用太多篇幅來介紹了,與非小編已經(jīng)按照大事件對此進行了梳理,可以查看《AI 技術(shù)簡史:從理論到應(yīng)用的質(zhì)變》。
?
人工智能如何為人所用?
“深度學(xué)習(xí)”是當(dāng)前我們所聽到的與人工智能相關(guān)最常用的一個詞,這源于:當(dāng)前人工智能主流應(yīng)用還是基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。從針對特定任務(wù)的標(biāo)記數(shù)據(jù)中學(xué)習(xí),而訓(xùn)練過程需要消耗大量人類標(biāo)注樣本。
天風(fēng)海外何翩翩認為在很多現(xiàn)實場景下,特定垂直領(lǐng)域的數(shù)據(jù)并不足以支持系統(tǒng)建構(gòu),那么嘗試解決對人類標(biāo)注樣本的依賴的強化學(xué)習(xí)很有機會成為下一個機器學(xué)習(xí)商業(yè)成功的驅(qū)動力。
下面透過幾張圖,來深度看一下 AI:
?
?
?
如果用一句話總結(jié) AI 如何為人所用,那就是它正在變革它能觸及到的各行各業(yè),從醫(yī)療保健到零售,廣告,金融,交通,教育,農(nóng)業(yè)等等。如今,快速發(fā)展的 AI 技術(shù)主要由大型企業(yè)通過機器學(xué)習(xí)和預(yù)測分析來使用。下面舉幾個簡單的例子:
1. 安全認證與風(fēng)險管理
數(shù)據(jù)、數(shù)據(jù)處理能力和商業(yè)變現(xiàn)場景是金融領(lǐng)域計算機面臨的三大要素,而人工智能恰恰能很好的因?qū)@三大元素帶來的挑戰(zhàn)?;蛟S金融行業(yè)是最適合 AI 施展“才華”的領(lǐng)域。如今,花旗等銀行開始利用人工智能為客戶定制服務(wù),開發(fā)理財產(chǎn)品;對于信息安全、投資風(fēng)控等,人工智能也逐漸被應(yīng)用。
2. 自動駕駛
對于 AI 與汽車電子的結(jié)合,被認為天作之合的無疑是“自動駕駛”。
3. 醫(yī)療及生命科學(xué)
Arterys 使用深度學(xué)習(xí)來加快醫(yī)學(xué)圖像分析,這項技術(shù)應(yīng)用于 GE Healthcare MRI 機器上,協(xié)助進行心臟疾病的診斷;Enlitic 運用深度學(xué)習(xí)來分析醫(yī)學(xué)圖像,以找出腫瘤、近乎看不到的破裂處和其他疾病。有了 AI 后,放射科醫(yī)生將更加高效的工作,將精力集中在困難病例上。
4. 零售行業(yè)
個性化推薦提高在線銷售銷量、精準(zhǔn)的市 場預(yù)測將降低庫存成 本,人工智能技術(shù)將帶來 4200 億人民幣的本與增益價值。
在日漸智能的算法下,機器可以學(xué)習(xí)、說話、做出明智的決策,并以一種越來越有效的方式執(zhí)行復(fù)雜的任務(wù)??吹?AI 可創(chuàng)造的價值,就不難理解為何企業(yè)蜂擁而至了:
那么,現(xiàn)在就不難回答誰在推動 AI 的發(fā)展這個問題了,快速增長背后不僅僅是科技巨頭在引領(lǐng)了這場競賽,更是技術(shù)、資本、企業(yè)。
?
?
AI 基礎(chǔ)層生態(tài)解讀
人工智能是一個大話題,由基礎(chǔ)層、技術(shù)層、應(yīng)用層組成?;A(chǔ)層主要是計算平臺和數(shù)據(jù)中心,屬于計算智能;技術(shù)層通過機器學(xué)習(xí)建模,開發(fā)面向不同領(lǐng)域的算法和技術(shù),包括感知智能和認知智能;應(yīng)用層主要實現(xiàn)人工智能在不同場景下的應(yīng)用。
我國與美國是 AI 浪潮中最強勁的兩股勢力。美國 AI 公司多聚焦于應(yīng)用層,對于技術(shù)層和基礎(chǔ)層企業(yè),實力強且企業(yè)相對集中。與此相比,應(yīng)用層實力接近,在基礎(chǔ)和技術(shù)層有差距,尤其是基礎(chǔ)層的實力較弱。美國有英偉達 GPU、英特爾 CPU 與 FPGA、賽靈思 FPGA、谷歌 TPU,我國有寒武紀(jì)與深鑒,但從產(chǎn)業(yè)規(guī)模來看,差距還較大。
下面我們就透過 AI 背后的 AI 芯實力。
?
神經(jīng)網(wǎng)絡(luò)的兩個主要階段是訓(xùn)練和推理。在深度學(xué)習(xí)上游訓(xùn)練端,GPU 毫無懸念是第一選擇,ASIC 包括谷歌 TPU、寒武紀(jì) NPU 也如雨后春筍為市場提供更多可能與選擇;下游推理端更接近終端應(yīng)用,需求更加細分,GPU 主流芯片之外,包括 CPU/FPGA/ASIC 也會在這個領(lǐng)域發(fā)揮各自的優(yōu)勢特點。那么就從訓(xùn)練端與推理端分別看看其特色:
訓(xùn)練端
GPU:多維計算及大規(guī)模并行計算架構(gòu),可實現(xiàn)通用、靈活、強大的特點,廣泛契合當(dāng)前 AI 監(jiān)督深度學(xué)習(xí)以及生成式對抗網(wǎng)絡(luò)(GAN)/ 強化學(xué)習(xí)所需要的密集數(shù)據(jù)和多維并算處理需求,在 3-5 年內(nèi) GPU 仍然是深度學(xué)習(xí)市場的第一選擇。這個市場英偉達有著至高無上的話語權(quán),而同樣擁有 GPU 產(chǎn)品的 AMD 卻只能看著眼饞,如今英特爾有望涉足此領(lǐng)域,不知道未來是何種局面。
ASIC:以谷歌 TPU 為代表,針對特定框架進行深度優(yōu)化定制,但開發(fā)周期長,通用性較低。比特幣價格瘋長刺激挖礦機的不斷升級,如今很多挖礦機從 GPU 轉(zhuǎn)向了 ASIC 專用礦機。
CPU:通用性強,但難以適應(yīng)于人工智能時代大數(shù)據(jù)并行計算工作。
推理端
GPU:英偉達 Volta GPU 也開始布局推理端,并且也將成為主導(dǎo)。英偉達依靠 Volta 構(gòu)架升級以及廣泛成熟的開發(fā)生態(tài)環(huán)境,自上而下的對訓(xùn)練、推理兼顧,擴張版圖。以 2016 年為例,全年服務(wù)器市場出貨量約在 1110 萬臺,在只有 7%用于人工智能 workload,其中約 3.4%配置 GPU,總量僅 2.6 萬臺。所以全球新增服務(wù)器中 GPU 的滲透率僅為 0.24%,據(jù)天風(fēng)海外預(yù)測 2020 年前全球服務(wù)器 GPU 滲透率將達 4 倍以上增長。
ASIC:下游推理端更接近終端應(yīng)用,需求更加細分,英偉達 DLA、寒武紀(jì) NPU 等將依靠特定優(yōu)化和效能優(yōu)勢,在此領(lǐng)域獲得一定市場份額。
?
FPGA:依靠電路級別的通用性,加上可編程性,適用于開發(fā)周期較短的 IoT 產(chǎn)品、傳感器數(shù)據(jù)預(yù)處理工作以及小型開發(fā)試錯升級迭代階段等。FPGA 廠商寥寥無幾,包括 Xilinx、Altera(英特爾)、Lattice 及 Microsemi。
?
?
GPU 主流趨勢下,ASIC 也將割據(jù)一地
都是通用芯片,為何 GPU 成為 AI 最強“收割機”
先要強調(diào)一點,機器學(xué)習(xí)得以普及的一個重要原因就是是計算能力的提升和 GPU 的出現(xiàn)。
由于 GPU 在執(zhí)行復(fù)雜的多維計算和幾何計算中十分有效,因此被廣泛地運用在圖像和圖形處理中。但 GPU 只作為圖形處理芯片還真的有點屈才,其并行特性大數(shù)據(jù)等多任務(wù)處理中表現(xiàn)突出,因此成為 AI 浪潮中的“收割者”。
都是通用芯片,GPU 比 CPU 擁有更多的運算器。在處理龐大的數(shù)據(jù)中,GPU 可以做得更高效。一個 CPU 核可以同時執(zhí)行 4 項 32 位指令(用 CPU 中的 128 位 SSE 指令集)或者通過 256 位高級矢量擴展指令集(AVX)執(zhí)行 8 個指令集。但 GPU 如 AMD 的 Radeon HD 5970,則可以執(zhí)行 3200 個 32 位的指令(通過其 3200 個運算器)。二者之間的運算效率的差距達到 800 倍(如果使用 AVX 則是 400 倍)之多。GPU 的高運算性能讓它能夠應(yīng)用在科學(xué)計算、密碼破解、數(shù)值分析、海量數(shù)據(jù)處理等方面。
2012 年,英偉達與谷歌的人工智能團隊合作,建造最大的人工神經(jīng)網(wǎng)絡(luò),并首次將人工智能用于分析 YouTube 的視頻內(nèi)容。2016 年 4 月,英偉達發(fā)布 Pascal 架構(gòu) GPU Tesla P100。黃仁勛表示,該款 GPU 較之以往產(chǎn)品可以讓深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的處理速度提高 12 倍。
谷歌 TPU
谷歌設(shè)計了一款為人工智能運算定制的硬件設(shè)備,張量處理單元 TPU 芯片。
TPU 的主要特點是:
1. 從硬件層面適配 TensorFlow 深度學(xué)習(xí)系統(tǒng),是一款定制的 ASIC 芯片,谷歌將 TPU 插放入其數(shù)據(jù)中心機柜的硬盤驅(qū)動器插槽里來使用;
2. 數(shù)據(jù)的本地化,減少了從存儲器中讀取指令與數(shù)據(jù)耗費的大量時間;
3. 芯片針對機器學(xué)習(xí)專門優(yōu)化,尤其對低運算精度的容忍度較高,這就使得每次運算所動用的晶體管數(shù)量更少,在同時間內(nèi)通過芯片完成的運算操作也會更多。研究人員就可以使用更為強大的機器學(xué)習(xí)模型來完成快速計算。
值得注意的是 TPU 雖然理論上支持所有深度學(xué)習(xí)開發(fā)框架,但目前只針對 TensorFlow 進行了深度優(yōu)化。而英偉達 GPU 支持包括 TensorFlow、Caffe 等在內(nèi)所有主流 AI 框架。
谷歌曾在論文中將 TPU 與英特爾、英偉達產(chǎn)品進行對比:
1. ?針對自身產(chǎn)品的人工智能負載,推理階段,TPU 處理速度比 CPU 和 GPU 快 15-30 倍;
2. TPU 的功耗效率(TOPS/Watt,萬億次運算 / 瓦特)也較傳統(tǒng)芯片提升了 30-80 倍;
3. 基于 TPU 和 TensorFlow 框架的神經(jīng)網(wǎng)絡(luò)應(yīng)用代碼僅需 100-1500 行。
TPU 的設(shè)計思路比 GPU 更接近一個浮點運算單元,是一個直接連接到服務(wù)器主板的簡單矩陣乘法協(xié)處理器。TPU 上的 DRAM 是作為一個獨立的并行單元,TPU 類似 CPU、GPU 一樣是可編程的,并不針對某一特定神經(jīng)網(wǎng)絡(luò)設(shè)計的,而能在包括 CNN、LSTM 和大規(guī)模全連接網(wǎng)絡(luò)上都執(zhí)行 CISC 指令。
作為與非網(wǎng)新的原創(chuàng)欄目《AI 發(fā)現(xiàn)》的第一期,我們就做了一個綜述,下期我們將重點講推動 AI 發(fā)展的巨頭們。
與非網(wǎng)原創(chuàng)內(nèi)容,未經(jīng)許可,不得轉(zhuǎn)載!