鈦媒體注:本文來源于微信公眾號量子位(ID:QbitAI),作者:岳排槐、安妮,鈦媒體經(jīng)授權(quán)發(fā)布。
上面那張圖,畫的是鴨子還是兔子?
自從1892年首次出現(xiàn)在一本德國雜志上之后,這張圖就一直持續(xù)引發(fā)爭議。有些人只能看到一只兔子,有些人只能看到一只鴨子,有些人兩個都能看出來。
心理學(xué)家用這張圖證明了一件事,視覺感知不僅僅是人們看到了什么,也是一種心理活動。但是,這張圖到底應(yīng)該是什么?
上周四,有位學(xué)者決定讓沒有心理活動的第三方看一下。然后就把這張圖片給了谷歌AI,結(jié)果AI認(rèn)為78%的概率是一只鳥,68%的概率是一只鴨子。
所以,百年爭論可以歇了?鴨子派勝出?
不不不,新的爭論剛剛開始。
這下難倒了谷歌AI
上面那個結(jié)論剛出,就有人跳出來“抬杠”。
只要把這張圖豎起來給AI看,它認(rèn)為是一只兔子,壓根就沒有鴨子的事兒。
咦?谷歌AI反水了?
為了搞清楚這件事,供職于BuzzFeed的數(shù)據(jù)科學(xué)家Max Woolf設(shè)計了一個更復(fù)雜的實驗,他干脆讓這張圖旋轉(zhuǎn)起來,倒是要看看,谷歌AI什么表現(xiàn)。
就是這么一轉(zhuǎn),成了推特上的熱門。
咱們以鴨子嘴(兔子耳朵)為參考,說下這個實驗的結(jié)果。過程如下所示。紅色代表兔子,藍色代表鴨子。
圖片順時針旋轉(zhuǎn)。谷歌AI最初認(rèn)為是鴨子,鴨子嘴指向9點方向。隨著鴨子嘴向上轉(zhuǎn)到10點方向,很快谷歌AI就認(rèn)為畫里面是兔子了,直到鴨子嘴轉(zhuǎn)到2點方向之后。此后一段時間,谷歌AI認(rèn)為既不是鴨子也不是兔子。一直到7點方向,谷歌AI再次肯定是一只鴨子。
有人說此刻谷歌AI的內(nèi)心,可能就像迪士尼動畫兔八哥里的這個場景。
還有人給了更多類似的挑戰(zhàn)圖片,想考驗一下谷歌AI的水平。
比如這種:
以及這種:
等等等等……據(jù)說能看出來鴨子,又能看出來兔子,說明一個人的想象力更好。
大家如果有興趣,可以自己去嘗試。
這里用到的谷歌AI,實際上是谷歌的Cloud Vision。這個服務(wù)提供了預(yù)訓(xùn)練的機器學(xué)習(xí)模型,可以用來理解圖片內(nèi)容。地址在此:
https://cloud.google.com/vision/
頁面上提供了Try the API,直接傳圖就行~
鴨兔幻覺
“鴨兔同圖”問題讓不少網(wǎng)友犯了難,這是一個比“雞兔同籠”更玄幻更有意思的問題。還有一大波人類,正常嘗試判斷AI的心理狀態(tài)……
網(wǎng)友sangnoir認(rèn)為,糾結(jié)圖中到底是什么完全沒有意義,圖像本身中既包含了兔子又包含了鴨子,人類尚且覺得兩者都在,何必非得讓AI去做“二選一”的定性呢?
下面這個數(shù)字大家都認(rèn)識,但是旋轉(zhuǎn)起來,到底是幾呢?
若旋轉(zhuǎn)起來,圖片是“6”還是“9”?
談到旋轉(zhuǎn),更進一步,之前有個“旋轉(zhuǎn)舞者”的問題更困難,下面這個小人到底是順時針還是逆時針旋轉(zhuǎn),人類的看法也兵分兩路↓↓↓
實際上,當(dāng)你視線以從左往右的方向掃過這張圖時,你看到的是逆時針轉(zhuǎn)圈,反之,當(dāng)你先看到的是右邊時,你眼中的她是順時針的。在計算機視覺上,還有一個專門的名詞解釋這個現(xiàn)象,即多穩(wěn)態(tài)/雙穩(wěn)態(tài)感知。
也有網(wǎng)友表示,這件事恰恰反映了AI識別物體的能力已經(jīng)高于人類了。
他認(rèn)為,之所以Google Cloud Vision會連續(xù)給出不同答案,是因為AI系統(tǒng)每隔一段時間就會基于旋轉(zhuǎn)的圖像重新判斷并實時更新。
而人類的大腦往往就卡在第一印象了,所以才會咬定一個物種不放松。
也有人表示,這件事也啟發(fā)了視覺從業(yè)者反思AI識別物體時的方向問題。
比如網(wǎng)友Sharlin就認(rèn)為,人類在判斷物體時對于空間的認(rèn)識具有先驗性,用這樣的標(biāo)注數(shù)據(jù)訓(xùn)練出的模型,在不知不覺中也將空間和方向等因素考慮在內(nèi)了。
但是,現(xiàn)在大多數(shù)視覺算法都想努力實現(xiàn)某種程度的旋轉(zhuǎn)不變性,還提出了“尺度不變特征轉(zhuǎn)化(SIFT)”等概念。“不變性”可能也反映了人類的局限性,輸入方向也是一個重要考慮因素。
膠囊網(wǎng)絡(luò)或許可行
同一張圖片,由于位置不同,AI就產(chǎn)生了不同的判斷。也有很多人想到了更多。
傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)CNN架構(gòu)中有個弊端,就是缺乏可用的空間信息。
一般來說,CNN提取、學(xué)習(xí)圖像特征來識別物體。拿面部識別任務(wù)來說,底層網(wǎng)絡(luò)學(xué)習(xí)一般性特征(比如面部輪廓等),隨著層數(shù)的加深,提取的特征就越復(fù)雜,特征也精細到眼睛、鼻子等器官。
問題來了,神經(jīng)網(wǎng)絡(luò)用它學(xué)習(xí)到的所有特征作出最后的輸出,但唯獨沒有考慮到可用的空間信息。人類可以識別出下面這張有些錯位的人臉,但CNN就不能。
其實,讓神經(jīng)網(wǎng)絡(luò)自己學(xué)會判斷空間的研究已經(jīng)有了。2017年,“深度學(xué)習(xí)”三巨頭之一的AI大牛Geoffrey Hitton就提出了一種“膠囊網(wǎng)絡(luò)”(Capsule Networks)的概念。
膠囊網(wǎng)絡(luò)的解決辦法是,實現(xiàn)對空間信息進行編碼,也就是計算物體的存在概率。這可以用向量來表示,向量的模代表特征存在的概率,向量方向表示特征姿態(tài)信息。
在論文Dynamic Routing Between Capsules中,Hinton和谷歌大腦的同事Sara Sabour、Nicholas Frosst詳細解釋了“膠囊網(wǎng)絡(luò)”的詳細情況。
Hinton等人表示,人類視覺系統(tǒng)中,有一個“注視點”的概念,能讓人類在視野范圍內(nèi)只對極小部分的圖像進行高分辨率處理。
這篇論文假設(shè)一個注視點帶給我們的信息不僅僅是一個識別對象及其屬性,還假設(shè)我們的多層視覺系統(tǒng)在每個注視點上都創(chuàng)建了一個類似分析樹的東西,并忽略這些分析樹在多個注視點之間如何協(xié)調(diào)。
分析樹通??縿討B(tài)分配內(nèi)存來構(gòu)建,但是這篇論文假設(shè)對于單個注視點來說,分析樹是從固定多層神經(jīng)網(wǎng)絡(luò)中“雕刻”出來的,就像用石頭刻出雕像一樣。
神經(jīng)網(wǎng)絡(luò)的每一層會被分成很多組神經(jīng)元,每一組稱為一個capsule,而分析樹的每個節(jié)點對應(yīng)著一個活躍的“膠囊”。
膠囊是輸出是一個向量,這篇論文中,在保持它方向不變的情況下應(yīng)用非線性縮小了它的量級,確保這個非線性輸出不大于1。
也正因為膠囊的輸出是一個向量,確保了能使用強大的動態(tài)路由機制,來確保這個輸出能夠發(fā)送到上層合適的parent處。
膠囊網(wǎng)絡(luò)現(xiàn)在的研究階段,就像本世紀(jì)初將RNN應(yīng)用于語音識別的階段。有非常具有代表性的理由相信這是一個更好的方法,但很多細節(jié)還需要接續(xù)觀察。
想看“膠囊網(wǎng)絡(luò)”的具體信息,請戳量子位此前報道:






快報
根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論
左轉(zhuǎn)右轉(zhuǎn),真的有趣,我已經(jīng)看半個小時了
標(biāo)題黨