也許你能找到所有關(guān)于人工智能的內(nèi)容,都有一個共性:它們都是在用人類的視角看待人工智能,對其評頭論足,前瞻后顧。
有沒有想過把鏡頭徹底調(diào)換過來,站在人工智能這邊看看人類?
那些長有四肢和頭顱,總是有各種情緒、想法、意見的奇怪生物到底是什么樣的?人類在與人工智能打交道的漫長歷史里,展示出了怎樣的自己?
于是我們策劃了這個新系列《AI窺人》。在三篇故事里,我們希望把AI當(dāng)作一面鏡子,從中查看一下那些日常被視而不見的人類自我。
問題或許在于,AI是一面反射鏡,透光鏡,還是黑鏡呢?
人工智能發(fā)展至今,已經(jīng)經(jīng)歷了三次技術(shù)浪潮和兩次技術(shù)低谷。而現(xiàn)在我們正深處在人工智能第三次技術(shù)浪潮之中。
關(guān)于人工智能的一片繁榮景象,難免讓我們產(chǎn)生一種過分的期待。我們仿佛正在一往無前地邁向那個實現(xiàn)通用人工智能(AGI)的“智能時代”。
這種期待之下,我們對AI技術(shù)產(chǎn)生了兩種截然不同的情緒。
一種是對AI技術(shù)的普及歡欣鼓舞,把AI技術(shù)視為全新的生產(chǎn)力工具,AI將大幅改善人類的生產(chǎn)效率,改善人類的生活,可以將人們從繁重、重復(fù)的體力勞動和那些枯燥、機械的基礎(chǔ)性腦力勞動中解放出來。
另一種則對AI技術(shù)的發(fā)展憂心忡忡,甚至一些科技產(chǎn)業(yè)大佬也在親自站臺告誡大眾,“擔(dān)心人工智能的失控”。而在大眾輿論中,也不時地傳遞出對于“工作被AI替代”“遭遇AI偏見歧視”,以及被科幻片洗腦擔(dān)心我們?nèi)祟惐痪哂小白晕乙庾R”的AI所控制和奴役的終極擔(dān)心。
似乎每一次一個AI的噱頭話題都能引起人們的“細思極恐”。除了媒體用“標(biāo)題黨”賺取眼球,那么這一群體認(rèn)知的背后一定暗合了大眾的某一種共通心理。
上世紀(jì)的1970年,日本機器人學(xué)家森昌弘,根據(jù)人類對高度擬人化的人性機器人在某個相似度區(qū)間產(chǎn)生從喜愛到極端厭惡的一個心理變化。這一心理現(xiàn)象被稱為“恐怖谷”效應(yīng)。
事實上,人們對于那些高度仿真但是面目生硬的人形機器人或者電腦特效CGI人物、人與動物合成的怪誕形象等,會觸發(fā)人類的一種對“似人非人”之物的生理性厭惡,其根源可能在于人類將對病態(tài)、死亡的恐懼投射到這些形象身上的本能防御機制。
顯然,“恐怖谷”效應(yīng)不僅于此。不僅是外在形象這一維度,在內(nèi)在心智中人們一旦意識到有著人類智能的非生命體(如AI)出現(xiàn),也會同樣產(chǎn)生這種或類似“恐怖谷”的心理作用,其背后根源可能就在于發(fā)生了過度的心理投射。
我們究竟是如何產(chǎn)生這種內(nèi)在心智層面的“恐怖谷”心理,我們又如何能夠打破這種過度的心里投射,這是回答人類和AI在未來長期相處的一個關(guān)鍵問題。
AI“恐怖谷”:人類對“異己”的本能畏懼
去年,一段“波士頓機器人反抗人類”的視頻曾一度引發(fā)人們的恐慌。在視頻中,實驗人員對機器人進行了一系列故意且惡劣的攻擊,一開始機器人則似乎對這種攻擊毫無反應(yīng),但隨著攻擊越來越嚴(yán)重,機器人突然做出了反抗動作,到最后開始直接反擊人類。
如果不是事后澄清這是用CGI技術(shù)做的假視頻,很多人甚至以為自己看到了一場“終結(jié)者”的現(xiàn)實版本。
在不知情的情況下,想必大多數(shù)觀眾的情緒也都是從對機器人的同情轉(zhuǎn)向因機器人反抗而感到的恐懼。
我們到底在害怕什么?
一直以來,無論是那些科幻影視作品,還是我們自己的想象,我們對AI最大的恐懼就是害怕其產(chǎn)生“自我意識”。因為按照人類的生存法則推演,一旦具有“自我意識”的AI出現(xiàn), AI一定就會首先控制或者消滅人類這個能夠掌握AI生存權(quán)利的“他者”主體。
當(dāng)然,目前的所謂第三代人工智能仍然處在模擬人類最初級的感知智能的階段,正在向具有分析推理能力的認(rèn)知智能階段艱難演進,而更高層次具有綜合推理判斷能力的通用人工智能更是遙遙無期,而具有自我意識的超級人工智能則更是一件沒有影子的事情。
但是盡管我們知道這一事實,我們也仍然會不由自主地產(chǎn)生“AI終將崛起,從而將人類取而代之”的邏輯推演,其根源就在于我們對威脅到自己生存的要素的本能恐懼。
這些恐懼存在于數(shù)百萬年的進化史當(dāng)中,包括我們對“外星生物”的恐怖想象,也包括我們對“非我族類,其心必異”的先驗判斷。
而這一次,恰好輪到與我們“似像非像”的人工智能而已。
格式塔效應(yīng):我們對AI投射了過多的愛和怕
對于“AI終將超越人類”的恐懼想象,其實只是我們對于AI進行過度心理投射的一種極端狀態(tài),因為話題過于刺激,已經(jīng)到了撩撥起我們的生存本能的地步。
但實際上,我們對于AI的種種心理投射,其實是普遍存在的。
記得在一部講述人類和AI進行精神戀愛的電影《her》當(dāng)中,當(dāng)男主陷入對AI沙曼薩的迷戀之時,AI坦誠地告訴他,自己正在同時跟8316個人交流時,還同時和641個人戀愛。深陷其中的男主對AI產(chǎn)生了仿佛被背叛的憤怒,以及陷入無力扭轉(zhuǎn)局面的失落感當(dāng)中。
現(xiàn)在,這樣的情形,已經(jīng)越來越多發(fā)生在現(xiàn)實當(dāng)中。比如,有一次,我愛人想通過電話客服急于解決一個問題,再跟電話那頭的客服解釋、爭論半天之后,突然意識到電話那頭只是一個AI客服,立刻感到莫名的羞惱和一種被冒犯的感覺。
同樣,我們也會對那些具有高超模仿能力的AI軟件所生成的文本、圖像和視頻,也會投入很多真實的情緒和想象,即使我們知道這些東西是“偽造”而成的,但我們同樣將這些東西視為一種“智能”的產(chǎn)物。
但實際上,無論是AI創(chuàng)作的音樂、繪畫,還是寫出的報道、詩歌,制作的圖像和視頻,其背后并無任何目的性,其所產(chǎn)生的“智慧”或者“意圖”,不過是我們的心理投射。
而這種投射來自于我們的一種難以破除的被稱為“格式塔”的心理效應(yīng)。
也就是我們的認(rèn)知容易給任何看起來陌生的事物以補全我們熟悉的東西,也就是我們總愛做心理上的完形填空。
其中,我們非常擅長從非生命的物體上面看出屬于人的形象特征,尤其是人臉,這也許是人類對于自我過于迷戀的一種外化功能。同樣,我們也總想從其他動物、植物和各種物理現(xiàn)象中解讀出屬于人類意志的東西,比如古代的“祥瑞”“河圖洛書”之類的玄學(xué)。
如今,我們只是再一次把這種天生的認(rèn)知方式投射到了人工智能,這個天然就是要仿照人類認(rèn)知能力去構(gòu)造的系統(tǒng)上面。一旦再給人工智能配上人形身材和眼耳鼻嘴這樣的面孔,人類就更加無法從這種對智能的過度投射中抽身而出了。
通常在大多數(shù)時候,產(chǎn)生這種“格式塔”效應(yīng)的心理投射是無傷大雅的,甚至還能給我們的生活帶來許多的樂趣,比如,調(diào)戲AI機器人一直是很多人生活中快樂的源泉。
當(dāng)然,凡事皆有度,一旦我們產(chǎn)生對于AI的過度樂觀或者過度悲觀的心理投射,對于我們?nèi)祟愖陨砗虯I的發(fā)展來說,未必是一件正常的事情。
打破過度投射:AI的歸AI,人類的歸人類
對于AI技術(shù)的過度心理投射,會產(chǎn)生這樣兩種完全不同的相處心態(tài)。
一種是對AI技術(shù)過于信任,從而過于依賴AI提供給人的信息和答案。這種時候人們往往并不太理解人工智能的技術(shù)原理和能力范圍,很多人會高估AI的發(fā)展水平,陷入到對AI的狂熱崇拜中,比如去相信什么AI彩票、AI算命等毫無根據(jù)的事情,也有可能過于依賴AI的意見進行決策,而忽視AI算法可能存在的歧視、偏差等問題。
另一種是對AI技術(shù)過于懷疑,從而失去跟AI協(xié)同工作和生活的意愿。這些人們同樣會陷入到對AI技術(shù)的不切實際的判斷中,但是他們通常把AI視為一種威脅,認(rèn)為AI技術(shù)正在無時不刻地竊取人類的隱私,干擾你的意圖,并最終控制你的一切喜好和消費。
前面一種容易陷入到假AI的“小白鼠”套路里,而后一種則更容易陷入到被迫害的“妄想癥”當(dāng)中。那么,我們該如何打破這種對AI的過度心理投射呢?
歷史上,基督教在處理世俗權(quán)力和精神權(quán)力紛時,提出了“上帝的歸上帝,凱撒的歸凱撒”這樣的高級智慧。依樣畫瓢,現(xiàn)在我們在處理人類和AI的相處關(guān)系之時,也可以用“AI的歸AI,人類的歸人類”的解決方案。
在AI技術(shù)開始影響我們?nèi)粘I畹母鞣N決策的時候,我們需要分辨清楚哪些是影響我們的事實判斷,哪些會影響我們的價值判斷。
比如,AI會給我們提供更加合理的路線規(guī)劃、更加嚴(yán)謹(jǐn)?shù)耐馕姆g,給出更準(zhǔn)確的搜索數(shù)據(jù),但同時AI也會給我們推送我們更符合我們偏好的新聞、視頻、社交好友、商品等,而我們需要對后者保持高度警惕。
而在我們在對各種AI應(yīng)用,進行心理投射時,我們也要有主動意識地分辨出哪些是基于事實的理性判斷,哪些是基于情感的非理性判斷。
比如,對于今天的AI技術(shù)發(fā)展,我們可以大膽放心地將其視作人類可靠的實用性工具,而不必?fù)?dān)心那個將要“取代人類”的邪惡AI的出現(xiàn)。再比如,我們可以對眾多AI應(yīng)用產(chǎn)生一種信賴但又能寬容其出錯的心態(tài)。就像在開車時,面對一個在前面小心翼翼行駛的自動駕駛汽車,我們自然不會產(chǎn)生過多的不滿情緒。
另外,隨著人工智能的持續(xù)演進,以腦機接口、機械外骨骼為典型代表的人機交互技術(shù)也在逐步走向現(xiàn)實世界。越來越多的人可能成為兼具生物屬性和人工智能屬性的賽博格(Cyborg)人類。
顯然,按照人類所普遍具有的這種過度投射心理,我們自然會對這些跨物種的新型人類產(chǎn)生這種“恐怖谷”的情感反應(yīng),人類種群也必然要掀起一場對于究竟何種程度的賽博格人類可以與主流人類社會共存的討論。
那么,如何將這些討論限制在可以和平對話,合理合法推進的軌道,而不是淪為非理性的情感紛爭,甚至無端的仇視敵對,這可能也是今天我們就需要對于這種心理投射的弱點展開主動的練習(xí)的原因之一吧。
區(qū)分事實和評價,區(qū)分理性和情感,讓自己足夠配得上AI時代的心智水平,這或許是我們能夠在未來飛躍“恐怖谷”的一門必修課。