北京時間6月26日下午消息,Google X部門通過1.6萬片處理器構(gòu)建了一個龐大的系統(tǒng),用于模擬人類的大腦神經(jīng)網(wǎng)絡(luò)。借助“谷歌大腦”,無需接受人類的任何培訓和指令,就可以利用內(nèi)在算法從海量數(shù)據(jù)中自動提取信息,學會如何識別貓咪。
模擬人腦
無人駕駛汽車和增強現(xiàn)實眼鏡是Google X最著名的兩個項目,但作為谷歌最神秘的部門,這里的研究遠不止此——早在幾年前,他們就成立了專門的團隊,模擬人腦的運行方式。
為了研究機器學習,谷歌的科學家將1.6萬片電腦處理器連接起來,創(chuàng)造了全球最大的神經(jīng)網(wǎng)絡(luò)之一,讓它們在互聯(lián)網(wǎng)中“自學成才”。
面對從YouTube視頻中找到的1000萬張數(shù)字照片,這個“谷歌大腦”會干什么?答案是:與數(shù)以百萬普通YouTube用戶相同——找貓咪。
這個神經(jīng)網(wǎng)絡(luò)依靠自學認出了貓咪,這可不是無聊之舉。本周,研究人員就將在蘇格蘭愛丁堡的一次會議上展示他們的成果。谷歌的科學家和程序員指出,互聯(lián)網(wǎng)上充斥著貓咪視頻算不上什么新聞,但這種模擬的效果還是令他們大吃一驚。與之前的任何項目相比,該神經(jīng)網(wǎng)絡(luò)的效果都要好得多:面對2萬種截然不同的物體,它的辨識能力幾乎翻了一番。
這項研究是新一代計算機科學的代表,這類研究項目充分利用了計算資源的成本下滑,以及龐大數(shù)據(jù)中心的日益增多。該技術(shù)還大力推動了眾多領(lǐng)域的進步,包括機器視覺與感知、語音識別、語言翻譯等。
熱門課題
盡管研究人員所使用的計算機科學理念并不新穎,但有了如此大規(guī)模的軟件模擬,使得原本不可想象的學習系統(tǒng)成為了可能。谷歌研究人員并不孤獨,全球還有很多科學家都在研究這種“深度學習”模式。去年,微軟科學家就證明,利用同樣的技術(shù),也可以借助電腦系統(tǒng)很好地理解人類的語言。
“這是當今語言識別領(lǐng)域最熱門的課題。”紐約大學庫朗數(shù)學研究所計算機學家嚴恩·樂庫(Yann LeCun)說,他專門從事機器學習的研究。
當然,識別貓咪也具備同樣的意義。為了做到這一點,由斯坦福大學計算機學家安德魯·恩吉(Andrew Y. Ng)和谷歌院士杰夫·迪恩(Jeff Dean)領(lǐng)導(dǎo)的這支團隊,使用了1.6萬片處理器創(chuàng)造了一個擁有10億多條連接的神經(jīng)網(wǎng)絡(luò)。他們隨后為這個網(wǎng)絡(luò)隨機呈現(xiàn)出縮略圖,每一張都是從1000萬段YouTube視頻中抽取出來了。
由于這些視頻都是隨機選取的,所以這本身也反映出人們在互聯(lián)網(wǎng)時代的喜好。然而,研究成果卻很顯著。研究人員創(chuàng)造的這個以軟件為基礎(chǔ)的神經(jīng)網(wǎng)絡(luò),顯然準確地印證了生物學家的理論——單個神經(jīng)元通過在大腦內(nèi)接受的訓練,獲得識別物體的能力。
自學成才
目前有很多投入商用的機器視覺技術(shù),它們都可以根據(jù)人類的指令進行學習,從而識別出某些特性。但在谷歌的研究中,機器并未得到任何外在幫助,完全“自學成才”。
“我們的理念是:不需要借助大批研究人員找出事物之間的差異,只要為算法提供海量數(shù)據(jù),讓數(shù)據(jù)自己說話,讓軟件自動學習數(shù)據(jù)。”恩吉說。
“我們從沒在培訓過程中教它貓長什么摸樣。”迪恩說,“從本質(zhì)上講,它發(fā)明了‘貓’這個概念。我們的數(shù)據(jù)中很可能還有一些貓的側(cè)面照片。”迪恩幫助谷歌設(shè)計了這款軟件,使之可以輕易將程序分解成許多任務(wù),并實現(xiàn)同步計算。
在看過數(shù)百萬張圖片后,這個“谷歌大腦”構(gòu)建出一張理想的貓咪數(shù)碼圖片,利用不同層級的存儲單元成功提煉出貓的基本特性。然而,科學家認為,他們似乎是在控制論層面,模擬了人類大腦視覺皮層的運作方式。
神經(jīng)學家認為,可能存在一種名為“祖母神經(jīng)元”的東西。這是一種具有特定用途的腦細胞,一旦被反復(fù)“訓練”去識別某一張人臉時,這種細胞便會被激活。
“你需要通過重復(fù)才能認出一位朋友。”Industrial Perception公司的神經(jīng)學家加里·布拉德斯基(Gary Bradski)說。
應(yīng)用前景
貓咪照片、人臉和身體各個部位同時在電腦模型的特定記憶區(qū)域出現(xiàn),令科學家頗為振奮。盡管如此,恩吉教授表示,在拿這套軟件系統(tǒng)與生物大腦進行對比時,他仍然很謹慎。
“做個不太嚴謹?shù)膶Ρ龋覀兊臄?shù)字參數(shù)就相當于突觸。”恩吉說。但他指出,盡管科學家動用了龐大的計算能力,但與大腦中的連接數(shù)量相比,仍然相形見絀。
研究人員寫道:“值得注意的是,我們的網(wǎng)絡(luò)與人類的視覺皮層相比仍然很渺小,后者的神經(jīng)元和突觸數(shù)量比該網(wǎng)絡(luò)多100萬倍。”
盡管規(guī)模遠遜于生物大腦,但谷歌的研究仍然提供了全新的證據(jù),表明海量數(shù)據(jù)有助于大幅改進現(xiàn)有的機器學習算法。
“斯坦福/谷歌的論文通過遠超以往的數(shù)量級突破了神經(jīng)網(wǎng)絡(luò)研究的極限規(guī)模。”喬治亞理工學院高性能計算專家大衛(wèi)·巴德爾(David Bader)說。他表示,高速增長的計算機技術(shù)將在相對較短的時間內(nèi)縮小這一差距:“完全模擬人類的視覺皮層有望在2020年前實現(xiàn)。”
谷歌的科學家表示,該研究項目如今已經(jīng)走出Google X,受到搜索以及相關(guān)服務(wù)部門的追捧,有望被用于改善圖片搜索、語音識別、機器語言翻譯質(zhì)量。
盡管取得了成功,但谷歌研究人員仍對他們是否已經(jīng)掌握機器自學技術(shù)的要領(lǐng)保持謹慎。“如果我們只需要在現(xiàn)有算法的基礎(chǔ)上繼續(xù)增大規(guī)模,那就太好了。但我感覺,我們還沒有找到正確的算法。”恩吉說。
推薦閱讀
創(chuàng)新北京離不開知識產(chǎn)權(quán)
北京君策知識產(chǎn)權(quán)發(fā)展中心副主任、原新聞出版總署版權(quán)管理司巡視員許超表示,此次通過的《視聽表演北京條約》對北京有重要意義,與北京精神相契合。 “北京是一個文化、科技聚集的城市,毫不夸張地說,國內(nèi)甚至沒有第>>>詳細閱讀
地址:http://www.brh9h.cn/a/22/20120626/70920.html