觸屏版
全國服務(wù)熱線:0571-87205688
登錄
注冊
客戶中心
關(guān)注云客
過去一兩年,人工智能是最火的并且快速進入實用的技術(shù)。以前寫過人工智能將徹底改變SEO,也介紹過人工智能在搜索算法中的實際應(yīng)用,但需要說明的是,到目前為止,人工智能在搜索算法中的應(yīng)用并不廣泛。影響人工智能在搜索算法中大范圍使用的最主要因素可能是,搜索引擎工程師不知道人工智能系統(tǒng)到底是怎么做出判斷的,然后又導(dǎo)致另一個重要問題:很難debug。
人工智能是個黑盒子
用不太嚴(yán)格但容易理解的方式說,深度學(xué)習(xí)就是給現(xiàn)有數(shù)據(jù)(大量數(shù)據(jù))打標(biāo)簽,然后系統(tǒng)自己總結(jié)數(shù)據(jù)和結(jié)果(也就是所打的標(biāo)簽)之間的關(guān)系,面對新數(shù)據(jù)時,就能依據(jù)自己總結(jié)的規(guī)律給出判斷。對圍棋來說,無論歷史棋局還是自我對弈,AlphaGo知道盤面,也知道結(jié)局(也是一種標(biāo)簽),系統(tǒng)就會總結(jié)規(guī)律,面對新盤面時判斷贏棋的概率。但AI系統(tǒng)找到的是數(shù)據(jù)的哪些特征,與結(jié)果之間是怎樣的關(guān)系,連創(chuàng)造AI的工程師也不知道。
所以,現(xiàn)在的人工智能系統(tǒng)是個黑盒子。我們知道AI判斷的正確率高,但不知道為什么,不知道是怎么判斷的。
搜索算法中的AI也是如此。百度搜索工程師的說法很少見到,只是知道百度現(xiàn)在All In AI了。Google工程師明確表示過,他們對RankBrain到底是怎么工作的也不太清楚。在這種情況下,在算法中大量使用人工智能就比較麻煩了,一旦出現(xiàn)異常結(jié)果,不知道是什么原因,也無法debug。
寫這篇帖子是因為前些天看到一篇紐約時報的文章“AI能學(xué)會解釋它自己嗎?”,非常有意思。一位心理學(xué)家Michal Kosinski把 20 萬社交網(wǎng)絡(luò)賬號(是個約會網(wǎng)站)的照片及個人信息(包括很多內(nèi)容,如性向)輸入面部識別人工智能系統(tǒng),發(fā)現(xiàn)人工智能在只看到照片的情況下判斷性向準(zhǔn)確率很高。人工通過照片判斷一個人是否同性戀的準(zhǔn)確率是60%,比扔硬幣高一點,但人工智能判斷男性是否同性戀準(zhǔn)確率高達91%,判斷女性低一些,也有83%。
從照片里是看不到音色語調(diào)、體態(tài)、日常行為、人際關(guān)系之類幫助判斷的信息的。同性戀有純相貌方面的特征嗎?我個人的經(jīng)驗是,靠相貌判斷不大靠譜。我以前認(rèn)識一對男同,他們都是很man的那種,常年健身,待人彬彬有禮但絕沒有女氣,從外表是看不出來的。也可能是依靠某種服飾特點?表情?背景?人工智能從照片中到底看到了什么我們?nèi)祟惡芸赡芎雎粤说奶卣?,或者人類根本看不到的特征,并達到91%的準(zhǔn)確率呢?不得而知,反正只是知道AI看得挺準(zhǔn)。
不能解釋自己的AI無法被信任
這種黑箱特征有時候倒無關(guān)緊要,像是判斷一下性向。有時候就不能這么草率了,比如看病。雖然AI系統(tǒng)診斷某些癌癥的正確率已經(jīng)達到人類醫(yī)生的水平,但最后結(jié)論,目前還是要醫(yī)生做,尤其是AI不能告訴我們它診斷的理由是什么的時候。除非以后AI能解釋它為什么做出這個診斷,不然讓人類100%信任AI是有比較大心理障礙的。
前幾天剛剛看到新聞,新加坡政府開始測試無人駕駛公共汽車。這顯然是個正確的方向,我也相信不久的將來就會成為現(xiàn)實。雖然自動駕駛汽車事故率比人低,理性上我們都知道其實更安全,但過馬路時,停在旁邊的公共汽車沒有司機,我會不會有點提心吊膽,怕它突然啟動?開車時扭頭一看,旁邊的Bus沒有司機,我會不會嚇一跳,下意識地離它遠點?至少初期會的吧。和幾個朋友聊起這個事,都是理性上相信,感性上心虛。
以前的程序是依靠確定性和因果關(guān)系運行的,比如搜索算法中哪些頁面特征是排名因素,各占多少權(quán)重,這是工程師挑出來的、確定的,雖然挑的時候可能就是拍腦袋決定的,但經(jīng)過監(jiān)測效果、調(diào)整參數(shù),會達到一個比較滿意的平衡。人工智能系統(tǒng)并不依靠工程師給定的確定因果,而是更擅長于在概率和相關(guān)性中找到聯(lián)系。對人來說,以概率和相關(guān)為特征的判斷,經(jīng)常就不好解釋理由了,比如也許是看心情,也許是看好看不好看。
要求AI系統(tǒng)解釋自己的判斷,不僅是心理上的問題,也許以后會變成倫理和法律上的問題,像看病。再比如涉及用戶利益的事情,像貸款,人工智能根據(jù)一大堆數(shù)據(jù)做出拒絕貸款的決定,銀行卻不能解釋為什么拒絕,對用戶該怎么交代?今年歐盟可能就要頒布法規(guī),要求機器做出的決定必須有解釋。這對Google、Facebook等全球性的企業(yè)是個壓力。在很多領(lǐng)域,如軍事、法律、金融,所有決定都是要有人來承擔(dān)責(zé)任的,如果某個決定無法解釋原因,恐怕也沒有人敢承擔(dān)這個責(zé)任。
另一個需要AI解釋理由的原因是,前面提到,人工智能看的是概率和相關(guān)性,但看相關(guān)性做決定有時候會導(dǎo)致嚴(yán)重錯誤。紐約時報的文章舉了個例子。經(jīng)過數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng)輔助醫(yī)院急診室分診,總體上看效果不錯,但研究人員還是不敢真的拿來實用,因為數(shù)據(jù)中的相關(guān)性可能誤導(dǎo)人工智能做出錯誤判斷。比如數(shù)據(jù)表明,患有肺炎的氣喘病人最后病愈情況好于平均水平,這個相關(guān)性是真實存在的。如果AI系統(tǒng)因為這個數(shù)據(jù)就給有肺炎的氣喘病人比較低的處理等級,那可能就要出事了。因為這些病人之所以最后情況良好,是因為他們一來就被給予最高等級,得到最好最快的治療了。所以,有時候從相關(guān)性看不到真正的原因。
可解釋的人工智能
X.A.I.(Explainable AI)可解釋的人工智能,是剛剛興起的一個領(lǐng)域,目的就是讓AI對自己的判斷、決定和過程做出解釋。去年美國國防高級研究計劃局(Darpa )推出了David Gunning博士領(lǐng)導(dǎo)的XAI計劃。Google也依然是這個領(lǐng)域的領(lǐng)先者,Deep Dream好像就是這方面研究的一個副產(chǎn)品:
回到搜索算法及SEO,搜索引擎之所以還無法全面應(yīng)用人工智能,其中一個原因也許就是人工智能的判斷沒有解釋、無法理解,如果算法使用目前的人工智能,一旦出現(xiàn)排名異常,工程師們將無法知道原因是什么,就更無法知道該怎么調(diào)整。
我想自動駕駛是最先AI實用化的領(lǐng)域之一,和能否解釋也有一定關(guān)系。自動駕駛汽車的大部分決定是不大需要解釋的,或者說解釋是一目了然的,距離前車太近所以要減速或者剎車,這類判斷應(yīng)該不需要進一步解釋理由了。
SEO們大概都有過同樣的疑惑,某個競爭對手的頁面看著沒什么特殊的,內(nèi)容不怎么樣,視覺設(shè)計一般,外鏈普通,頁面優(yōu)化大家做的都一樣,為什么排名就那么好呢?現(xiàn)在的搜索算法還可以探究原因,搜索工程師們大概有內(nèi)部工具可以看到排名的合理性。如果搜索工程師看著一個挺爛的頁面就是排在前面,卻也不知道原因,還無從查起,他們的內(nèi)心可能就焦慮了。
XAI的研究才剛剛開始,這給了SEO們最后的緩沖期。從人工智能系統(tǒng)在其它領(lǐng)域碾壓人類的表現(xiàn)看,一旦大規(guī)模應(yīng)用于搜索,作弊和黑帽SEO恐怕將成為過去,現(xiàn)在的常規(guī)SEO工作也許變得無足輕重,SEO們需要回到網(wǎng)站的本質(zhì):提供有用的信息或產(chǎn)品,別無他法。
評論(0人參與,0條評論)
發(fā)布評論
最新評論