人工智能的“虛假式繁榮”;表面繁榮之下,人工智能的發(fā)展已陷入困境

時間:2018-12-13

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:過去幾年,人工智能(AI)的火爆似乎掀起了新一波的互聯(lián)網(wǎng)技術(shù)浪潮,無數(shù)技術(shù)人轉(zhuǎn)移陣地、投身其中。但是隨之而來的,是各種有關(guān)人工智能和機(jī)器學(xué)習(xí)技術(shù)的夸夸其談。可以說,在計算機(jī)科學(xué)領(lǐng)域中,從來沒有出現(xiàn)過如此眾多且毫不專業(yè)的人對某一技術(shù)領(lǐng)域如此趨之若鶩——即便對于二十世紀(jì)八十年代從事尖端硬件的人來說,這也是匪夷所思的事情。

過去幾年,人工智能(AI)的火爆似乎掀起了新一波的互聯(lián)網(wǎng)技術(shù)浪潮,無數(shù)技術(shù)人轉(zhuǎn)移陣地、投身其中。但是隨之而來的,是各種有關(guān)人工智能和機(jī)器學(xué)習(xí)技術(shù)的夸夸其談??梢哉f,在計算機(jī)科學(xué)領(lǐng)域中,從來沒有出現(xiàn)過如此眾多且毫不專業(yè)的人對某一技術(shù)領(lǐng)域如此趨之若鶩——即便對于二十世紀(jì)八十年代從事尖端硬件的人來說,這也是匪夷所思的事情。

近期,備受矚目的暢銷書作家、《人類簡史》和《未來簡史》的作者尤瓦爾?赫拉利就講述了人工智能將對民主產(chǎn)生的影響。他的言論中充斥著對當(dāng)前人工智能技術(shù)能力的極大信心,他說與Google同宗的DeepMind所開發(fā)的國際象棋軟件具有“創(chuàng)造性”、“富有想象力”,甚至擁有“天才本能”。

此外,在英國廣播公司BBC的人工智能紀(jì)錄片中,吉姆·阿爾哈利利(JimAl-Khalili)和DeepMind的創(chuàng)始人丹米斯·哈薩比斯(DemisHassabis)講述了人工智能系統(tǒng)如何取得了“真正的發(fā)現(xiàn)”,而且還“真的提出了一個新的想法”,然后“憑自己的直覺”開發(fā)出了策略。

......

各種層出不窮的言論在使用夸張和擬人的手法來描述蠢笨機(jī)械化的系統(tǒng),不一枚舉?,F(xiàn)在,則是時候回頭仔細(xì)看看基礎(chǔ)硬件的現(xiàn)實了。

過去30多年,人工智能沒有任何重大進(jìn)步

人們喜歡通過神話、比喻和借助計算機(jī)屏幕等人為形式來討論有關(guān)計算機(jī)技術(shù),比如“直覺”、“創(chuàng)造力”和神奇的“策略”。AI專家從AI的行為中找出特定的模式并將其稱為“戰(zhàn)略”,但神經(jīng)網(wǎng)絡(luò)并不知道“戰(zhàn)略”是什么。如果真的有“創(chuàng)造力”,那也是DeepMind研究人員的創(chuàng)造力,他們設(shè)計、管理和訓(xùn)練了AI。

今天的AI系統(tǒng)是用大量的自動化試錯訓(xùn)練出來的,每個階段都需要通過一項稱為反向傳播的技術(shù)來反饋錯誤并調(diào)整系統(tǒng),以減少將來的錯誤,從而逐步提高AI在特定任務(wù)(如國際象棋)上的表現(xiàn)。

目前可以大幅提升AI(“機(jī)器學(xué)習(xí)”和所謂的“深度學(xué)習(xí)”)系統(tǒng)效率的方法主要以這種反向傳播技術(shù)為基礎(chǔ),而這項技術(shù)發(fā)明于二十世紀(jì)六十年代,并于二十世紀(jì)八十年代中期由GeoffreyHinton應(yīng)用到神經(jīng)網(wǎng)絡(luò)。

換句話說,在過去30多年中人工智能并沒有任何重大的概念進(jìn)步——目前我們在人工智能研究和媒體上看到的大部分內(nèi)容都是通過大量昂貴的計算硬件和復(fù)雜的公關(guān)活動渲染的一個古老的想法。

這并不是說DeepMind的工作沒有價值。協(xié)助開發(fā)者生成新策略和想法的機(jī)器非常有趣,特別是由于巨大的復(fù)雜性導(dǎo)致人們難以理解該機(jī)器的操作。在世俗文化中,技術(shù)的魔力和神秘非常誘人,而且在枯燥的工程領(lǐng)域出現(xiàn)一些非常神秘的東西是非常受歡迎的。

但遺憾的是,DeepMind的機(jī)器里并沒有靈魂。

一位上世紀(jì)九十年代的年輕程序員打破了傳統(tǒng)

所有圍繞DeepMind機(jī)器大做文章的行為都會讓人想起二十年前,一個非比尋常且意義深厚的“機(jī)器學(xué)習(xí)”系統(tǒng)給技術(shù)界所帶來的那種興奮感。

1997年11月,蘇塞克斯大學(xué)計算神經(jīng)科學(xué)與機(jī)器人中心的研究員阿德里安·湯普森登上了那一期“新科學(xué)家”的封面,其題目是:“原始硅打造的生物——讓達(dá)爾文主義迷失在電子試驗室,一睹新的造物主。高效精干的機(jī)器,無人能理解?!倍鴾丈艿巧戏饷娴脑蚴撬淖髌芬鹆撕艽蟮霓Z動。

湯普森打破了傳統(tǒng),在電子硬件上發(fā)展了機(jī)器學(xué)習(xí)系統(tǒng)——而不是使用傳統(tǒng)的軟件方法。他選擇這樣做是因為他意識到所有數(shù)字計算機(jī)軟件的功能都會受到計算機(jī)二進(jìn)制開關(guān)的限制。相比之下,人類大腦的神經(jīng)元得到了很好的進(jìn)化,可以思考各種微妙且不可思議的復(fù)雜物理和生化過程。湯普森假設(shè),通過自然選擇的自動化過程讓計算機(jī)硬件進(jìn)化,就可以模擬出硅介質(zhì)的所有實際物理屬性,而計算機(jī)的數(shù)字開關(guān)正是由這些硅介質(zhì)構(gòu)成,因此可能會產(chǎn)生某種東西有效模擬人類大腦的組成。

后來的事實也證明了他是正確的。

湯普森在他的實驗室中對FPGA(一種數(shù)字硅芯片,其數(shù)字開關(guān)之間的連接可以反復(fù)重新配置)的配置進(jìn)行了改進(jìn),以便區(qū)分兩種不同的音頻音調(diào)。然后當(dāng)湯普森在查看FPGA芯片內(nèi)部開關(guān)之間的連接是如何通過改進(jìn)過程配置的時候,他注意到一種令人印象深刻的高效電路設(shè)計——僅使用了37個元件。

不僅如此,該改進(jìn)電路已經(jīng)超出了數(shù)字工程師的理解范圍。37個組件中的一些沒有與其他組件電連接,但是一旦從設(shè)計中移除這些組件,整個系統(tǒng)就會停止工作。對于這種奇怪情況,唯一的解釋就是該系統(tǒng)在它所謂的數(shù)字組件之間利用了某種神秘的電磁連接。換句話說,該改進(jìn)過程為了執(zhí)行“計算”,已經(jīng)卷入了系統(tǒng)組件和材料模擬的真實世界的特征。

作為一位二十世紀(jì)九十年代的年輕研究員來說,湯普森的工作發(fā)現(xiàn)確實令人驚嘆。計算機(jī)不僅設(shè)法發(fā)明了一種全新的電子電路,而且超越了人類電子工程師的能力,更重要的是它還指向了開發(fā)計算機(jī)系統(tǒng)和AI的方法。

人工智能

獅頭工作室(現(xiàn)已解散)的經(jīng)典游戲Black&White,DeepMind創(chuàng)始人丹米斯·哈薩比斯最初擔(dān)任該工作室AI組組長

所以究竟是什么情況?為什么湯普森幾乎無人知曉,而后來的哈薩比斯卻為Google的母公司Alphabet贏得了滿堂彩,而且BBC還為之制作了謳歌的紀(jì)錄片?答案就在于時機(jī)。

人工智能還“時髦”嗎?

早在二十世紀(jì)九十年代,人工智能就已經(jīng)十分時髦了。

現(xiàn)在三十多年過來了,AI不僅承擔(dān)起了引發(fā)“第四次工業(yè)革命”的重任,還是行業(yè)重點投資的下一個方向。雖然DeepMind的數(shù)字AI系統(tǒng)不是很擅長針對復(fù)雜的真實世界(如天氣或人腦)進(jìn)行建模,但它們還是非常適合處理在線二進(jìn)制世界的鏈接、點擊、點贊、共享、播放列表和像素等問題。

除了市場契機(jī)已至,DeepMind還深諳吸引觀眾的技巧。DeepMind通過培養(yǎng)技術(shù)的神秘性來推銷技術(shù)和高級人員,但它的演示始終只是玩簡單的、有計算規(guī)則的游戲,因為游戲具有媒體和公眾的高度關(guān)注以及視覺趣味性的優(yōu)勢。實際上,該技術(shù)的大多數(shù)商業(yè)應(yīng)用都將是相當(dāng)平庸的后臺業(yè)務(wù)應(yīng)用程序,例如優(yōu)化Google數(shù)據(jù)中心(Google保存服務(wù)器的地方)的電源效率。

湯普森和哈薩比斯有一個共同點(除了他倆都是英國人以外),他們都擁有必要的技術(shù)和創(chuàng)造力,從而能夠有效地訓(xùn)練和改進(jìn)他們的系統(tǒng),但是這種對人類的技術(shù)和創(chuàng)造力的依賴性很顯然是所有“人工智能”或機(jī)器學(xué)習(xí)系統(tǒng)的弱點,它們各自的技術(shù)也非常脆弱。

例如,湯普森的系統(tǒng)不能在與訓(xùn)練環(huán)境不同的溫度條件下工作。同樣地,DeepMind擅長的一個視頻游戲(雅達(dá)利的Breakout)中,僅僅是改變擋板的大小就能讓AI的成績一落千丈。這種脆弱性是由于DeepMind的AI軟件不知道什么是擋板,甚至不知道什么是視頻游戲;它的開關(guān)只能處理二進(jìn)制數(shù)。

不可否認(rèn),近年來機(jī)器學(xué)習(xí)系統(tǒng)取得了很大的進(jìn)步,但這一進(jìn)步主要是通過大量投入傳統(tǒng)計算硬件來實現(xiàn)的,而不是通過激進(jìn)創(chuàng)新。在不久的將來,芯片集成技術(shù)將觸及極限,設(shè)計效率(即用更少的硬件進(jìn)行更多處理)將在商業(yè)上更加重要,也許在那一刻可進(jìn)化形式的硬件將流行起來。

人工智能會是下一個技術(shù)浪潮嗎?

技術(shù)是一個升級創(chuàng)新的過程,而不是通過“包裝”渲染的“虛假”式繁榮。而回顧每一次的技術(shù)浪潮,從最初的Web時代,到移動、云計算時代,然后是現(xiàn)在的人工智能、區(qū)塊鏈、物聯(lián)網(wǎng)浪潮,也并不是每一步都走得正確,也是經(jīng)過了反復(fù)的迭代和推陳出新。

Web和操作系統(tǒng)的年代

自從第一個RFC(RequestForComments)于1969年發(fā)布以來,互聯(lián)網(wǎng)協(xié)議就有了一個分散的開發(fā)過程,并且形成了獨特的標(biāo)準(zhǔn)。雖然定義協(xié)議是分散的,但使用這些協(xié)議的核心平臺(例如思科路由器)仍然是專有的并且是封閉的。而思科1990年的首次公開募股開啟了不可思議的Web時代。

由于主要的網(wǎng)絡(luò)供應(yīng)商都有自己的硬件,所以雖然局外人可以為協(xié)議規(guī)范做出貢獻(xiàn),但只有網(wǎng)絡(luò)公司的開發(fā)人員才能將這些協(xié)議添加到他們的平臺。思科創(chuàng)建了各種公司,然后經(jīng)歷各種收購或合并,直至互聯(lián)網(wǎng)泡沫破滅。

這之后的操作系統(tǒng)、桌面應(yīng)用程序也都經(jīng)歷了類似的戰(zhàn)斗。無論是20世紀(jì)90年代的Netscape和IE,還是今天的Chrome、IE和Firefox,瀏覽器一直是令人垂涎的應(yīng)用程序,因為它是網(wǎng)絡(luò)的前端。

移動開發(fā)導(dǎo)致消費升級,云端混戰(zhàn)開啟統(tǒng)治時代

當(dāng)蘋果公司推出AppStore后,與網(wǎng)頁類似但功能更豐富的移動應(yīng)用程序迎來了消費者能力升級的新時代。但是對于開發(fā)人員來說,有些人可能認(rèn)為移動開發(fā)進(jìn)入的門檻太低,這個對所有人開放的領(lǐng)地注定難以形成創(chuàng)新,才會導(dǎo)致現(xiàn)在的應(yīng)用商店遍布垃圾、充斥著復(fù)刻和模仿。不過事實證明,仍有一小部分人成功創(chuàng)建了出色的應(yīng)用程序,但絕大多數(shù)的人卻仍是無所作為。

而“得云者得天下”的云計算時代,在2006年開啟。彼時,谷歌推出了“Google101計劃”,并正式提出“云”的概念和理論。此后,亞馬遜、微軟、惠普、雅虎、英特爾、IBM等公司紛紛入局,云端混戰(zhàn)。其中亞馬遜在采用AWS的云計算功能和新時代的定價方面做得非常出色,Google和微軟緊隨其后。

在云計算模式下,用戶借助云服務(wù)提供商的計算資源、存儲空間和各種應(yīng)用軟件,就可以把連接“顯示器”和“主機(jī)”的電線變成網(wǎng)絡(luò),把“主機(jī)”變成云服務(wù)提供商的服務(wù)器集群。也因此,近年來一大批的企業(yè)為了追求低成本和高性能而借助云計算實現(xiàn)數(shù)字化轉(zhuǎn)型。

區(qū)塊鏈、物聯(lián)網(wǎng)、人工智能主導(dǎo)下一波技術(shù)浪潮

區(qū)塊鏈、物聯(lián)網(wǎng)和人工智能則最有望成為下一個技術(shù)浪潮。

區(qū)塊鏈以其獨特的技術(shù)計算方式獲得了企業(yè)和用戶的熱烈追捧,而2016年印發(fā)的《“十三五”國家信息化規(guī)劃》中提出的“加強(qiáng)區(qū)塊鏈等新技術(shù)的創(chuàng)新、試驗和應(yīng)用”更是為其加了一把火,在技術(shù)圈炒得火熱。2017年世界經(jīng)濟(jì)論壇發(fā)布的白皮書《實現(xiàn)區(qū)塊鏈的潛力》,則提到了區(qū)塊鏈技術(shù)能夠使信息互聯(lián)網(wǎng)向價值互聯(lián)網(wǎng)的新時代轉(zhuǎn)變,開創(chuàng)更具顛覆性和變革性的互聯(lián)網(wǎng)時代。從目前來看,區(qū)塊鏈的技術(shù)應(yīng)用雖不夠完善,但發(fā)展前景卻很值得期待。

物聯(lián)網(wǎng)(IoT)在過去的十年中經(jīng)歷了幾次起伏。就進(jìn)入門檻而言,構(gòu)建物聯(lián)網(wǎng)設(shè)備的大多數(shù)軟件(甚至硬件)構(gòu)建模塊都是常用的,但將商用物聯(lián)網(wǎng)設(shè)備推向市場是一項重大任務(wù)。物聯(lián)網(wǎng)已從一些標(biāo)準(zhǔn)化中受益,但它也是一個非常分散的空間,僅僅因為有“標(biāo)準(zhǔn)”并不意味著公司必須使用它們。因此,雖然未來的物聯(lián)網(wǎng)發(fā)展將會涉及到生活的各個領(lǐng)域,但是如何將其潛力發(fā)揮極致也是開發(fā)者和市場重要的一大命題。

而人工智能領(lǐng)域,正如前文所述,它是一個有著完備生態(tài)和豐富工具的技術(shù),但是現(xiàn)階段的人工智能還不成熟,仍是基于以往研究的“美化”和“包裝”。不過正如各大科技巨頭們爭相涌入的勢頭一般,也正像Gartner2017年成熟度曲線所呈現(xiàn)的那樣,有了創(chuàng)新和突破,“真正的”人工智能很快就會到來。

人工智能

Gartner公布的2017全球新興技術(shù)成熟度曲線

未來已來,但是會以何種姿勢呈現(xiàn),取決于技術(shù)市場和開發(fā)者們。

表面繁榮之下,人工智能的發(fā)展已陷入困境

來源:36氪

編輯:郝鵬程

編者按:《連線》雜志在其最近發(fā)布的12月刊上,以封面故事的形式報道了人工智能的發(fā)展?fàn)顩r?,F(xiàn)在,深度學(xué)習(xí)面臨著無法進(jìn)行推理的困境,這也就意味著,它無法讓機(jī)器具備像人一樣的智能。但是真正的推理在機(jī)器中是什么樣子的呢?如果深度學(xué)習(xí)不能幫助我們達(dá)到目的,那什么可以呢?文章作者為克萊夫·湯普森(@pomeranian99),原標(biāo)題為“HowtoTeachArtificialIntelligenceSomeCommonSense”。

五年前,總部位于倫敦的人工智能公司DeepMind的程序員,興奮地看著人工智能自學(xué)玩一款經(jīng)典的街機(jī)游戲。他們在一項看似“異想天開”的任務(wù)上使用了當(dāng)今最熱門的技術(shù)——深度學(xué)習(xí)——掌握了Breakout。

這是一款雅達(dá)利(Atari)開發(fā)的游戲,在游戲中,你需要用移動下方的平板,把球彈起,然后把上方的所有磚塊都打消失。

深度學(xué)習(xí),是機(jī)器進(jìn)行自我教育的一種方式;你給人工智能提供大量的數(shù)據(jù),它會自己識別模式。在這個游戲中,數(shù)據(jù)就是屏幕上的活動——代表磚塊、球和玩家平板的塊狀像素。

DeepMind的人工智能,一個由分層算法組成的神經(jīng)網(wǎng)絡(luò),并不知道任何關(guān)于Breakout的工作原理、規(guī)則、目標(biāo),甚至如何發(fā)揮它都不清楚。編碼器只是讓神經(jīng)網(wǎng)絡(luò)檢查每個動作的結(jié)果,每次球的彈起軌跡。這會導(dǎo)致什么?

事實證明,它會掌握一些令人印象深刻的技能。在最初的幾場游戲中,人工智能只是控制下方的平板四處亂晃。但是玩了幾百次之后,它已經(jīng)開始準(zhǔn)確地將球彈起了。到了第600場比賽時,神經(jīng)網(wǎng)絡(luò)使用了一種專業(yè)的人類Breakout游戲玩家使用的動作,鑿穿整排磚塊,讓球沿著墻頂不停跳躍。

“這對我們來說,是一個很大的驚喜,”DeepMind的首席執(zhí)行官德米斯·哈薩比斯(DemisHassabis)當(dāng)時說道?!斑@一策略完全來自底層系統(tǒng)。”

人工智能,已經(jīng)顯示出它能夠像人類一樣進(jìn)行異常微妙的思考,掌握Breakout背后的內(nèi)在概念。因為神經(jīng)網(wǎng)絡(luò)松散地反映了人腦的結(jié)構(gòu),所以從理論上說,它們應(yīng)該在某些方面模仿我們自己的認(rèn)知方式。這一刻似乎證明了這個理論是正確的。

去年,位于舊金山的一家人工智能公司Vicorance的計算機(jī)科學(xué)家,提供了一個有趣的現(xiàn)實檢驗。他們采用了一種類似DeepMind所用的人工智能,并在Breakout上進(jìn)行了訓(xùn)練。

結(jié)果很棒。但隨后,他們稍微調(diào)整了游戲的布局。在一次迭代中,他們將平板提得更高了;另一次迭代中,他們在上方增加了一個牢不可破的區(qū)域。

人類玩家可以快速適應(yīng)這些變化,但神經(jīng)網(wǎng)絡(luò)卻不能。這個看起來很聰明的人工智能,只能打出它花了數(shù)百場比賽掌握的Breakout的方法。它不能應(yīng)對新變化。

“我們?nèi)祟惒粌H僅是模式識別器,”Vicarious的共同創(chuàng)始人之一、計算機(jī)科學(xué)家迪利普·喬治(DileepGeorge)告訴我?!拔覀円苍跒槲覀兛吹降臇|西建立模型。這些是因果模型——有我們對因果關(guān)系的理解?!?/p>

人類能夠推理,也會對我們周圍的世界進(jìn)行邏輯推理,我們有大量的常識知識來幫助我們發(fā)現(xiàn)新的情況。當(dāng)我們看到一款與我們剛剛玩的游戲略有不同的Breakout游戲時,我們會意識到,它可能有著大致相同的規(guī)則和目標(biāo)。

但另一方面,神經(jīng)網(wǎng)絡(luò)對Breakout一無所知。它所能做的就是遵循這個模式。當(dāng)模式改變時,它無能為力。

深度學(xué)習(xí)是人工智能的主宰。在它成為主流以來的六年里,它已經(jīng)成為幫助機(jī)器感知和識別周圍世界的主要方式。

它為Alexa的語音識別、Waymo的自動駕駛汽車和谷歌的即時翻譯提供了動力。從某些方面來說,Uber的網(wǎng)絡(luò)也是一個巨大的優(yōu)化問題,它利用機(jī)器學(xué)習(xí)來找出乘客需要汽車的地方。中國科技巨頭百度,有2000多名工程師在神經(jīng)網(wǎng)絡(luò)人工智能上努力工作。

多年來,深度學(xué)習(xí)看上去越來越好,不可阻擋地讓機(jī)器擁有像人一樣流暢、靈活的智力。

但是一些人認(rèn)為,深度學(xué)習(xí)正在面臨困境。他們說,單憑這一點,它永遠(yuǎn)不會產(chǎn)生廣義上的智能,因為真正像人類一樣的智能,不僅僅是模式識別。

我們需要開始弄清楚如何讓人工智能具備常識。他們警告說,如果我們不這樣做,我們將會不斷地觸及深度學(xué)習(xí)的極限,就像視覺識別系統(tǒng),只要改變一些輸入,就會很容易被愚弄,比如,讓深度學(xué)習(xí)模型認(rèn)為烏龜就是一桿槍。

但他們說,如果我們成功了,我們將見證更安全、更有用的設(shè)備爆炸式增長——比如在雜亂的家中自由行動的醫(yī)療機(jī)器人、不會誤報的欺詐檢測系統(tǒng)等等。

但是,真正的推理在機(jī)器中是什么樣子的呢?如果深度學(xué)習(xí)不能幫助我們達(dá)到目的,那什么可以呢?

加里·馬庫斯(GaryMarcus)是紐約大學(xué)的心理學(xué)和神經(jīng)科學(xué)教授,現(xiàn)年48歲,戴著眼鏡,憂心忡忡。他可能是最著名的深度學(xué)習(xí)反對者。

馬庫斯第一次對人工智能感興趣,是在20世紀(jì)80年代和90年代,當(dāng)時神經(jīng)網(wǎng)絡(luò)還處于實驗階段,從那以后,他就一直在做同樣的論證。

“我不只是來晚了,而且還想在派對上撒尿,”當(dāng)我在紐約大學(xué)附近的公寓遇見他時,馬庫斯告訴我。(我們也是私人朋友。)“深度學(xué)習(xí)剛開始爆發(fā)的時候,我就說‘方向錯了,伙計們!’”

那時,深度學(xué)習(xí)背后的策略和現(xiàn)在是一樣的。比方說,你想要一臺機(jī)器來自己學(xué)習(xí)識別雛菊。首先,你需要編寫一些算法“神經(jīng)元”,像三明治一樣,將它們層層連接起來(當(dāng)你使用多層時,三明治會變得更厚或更深——因此是“深度”學(xué)習(xí))。

你在第一層輸入一個雛菊的圖像,它的神經(jīng)元會根據(jù)圖像是否像它以前看到的雛菊的例子而進(jìn)行判斷。然后,信號將移動到下一層,在那里循環(huán)這個過程。最終,這些層會得出一個結(jié)論。

起初,神經(jīng)網(wǎng)絡(luò)只是盲目猜測;它或多或少地讓生活從一張白紙開始。關(guān)鍵是建立一個有用的反饋回路。每當(dāng)人工智能沒有識別出雛菊時,那組神經(jīng)連接就會削弱導(dǎo)致錯誤猜測的鏈接;如果它成功了,它會加強(qiáng)。

給定足夠的時間和足夠多的雛菊樣本,神經(jīng)網(wǎng)絡(luò)會變得更加精確。它學(xué)會了通過直覺來識別一些雛菊的模式,讓它每次都能識別出雛菊(而不是向日葵或菊花)。

隨著時間的推移,這一核心理念——從一個簡單的網(wǎng)絡(luò)開始,通過重復(fù)訓(xùn)練——得到了改進(jìn),似乎可以應(yīng)用到幾乎任何地方。

但是馬庫斯從未被說服。對他來說,問題就在于一張白紙:它假設(shè)人類純粹通過觀察周圍的世界來建立他們的智力,機(jī)器也可以。

但是馬庫斯不認(rèn)為人類就是這樣工作的。他認(rèn)可諾姆·喬姆斯基(NoamChomsky)的智力發(fā)展理論,他認(rèn)為人類天生就有學(xué)習(xí)的天賦,能夠掌握語言和解釋物質(zhì)世界,而不是一張白紙。

他指出,盡管有很多人認(rèn)為神經(jīng)網(wǎng)絡(luò)是智能的,但它似乎不像人類大腦那樣工作。首先,它們太需要數(shù)據(jù)了。

在大多數(shù)情況下,每個神經(jīng)網(wǎng)絡(luò)都需要數(shù)千或數(shù)百萬個樣本來學(xué)習(xí)。更糟糕的是,每次你想讓神經(jīng)網(wǎng)絡(luò)識別一種新的項目,你都必須從頭開始訓(xùn)練。一個識別金絲雀的神經(jīng)網(wǎng)絡(luò)在識別鳥鳴或人類語言方面沒有任絲毫用處。

“我們不需要大量的數(shù)據(jù)來學(xué)習(xí),”馬庫斯說。他的孩子不需要看一百萬輛車就能認(rèn)出車輛來。更好的是,他們可以“抽象化”,當(dāng)他們第一次看到拖拉機(jī)時,他們會知道它有點像汽車。他們也可以進(jìn)行反事實的工作。

谷歌翻譯可以將法語翻譯成英語。但是它不知道這些話是什么意思。馬庫斯指出,人類不僅掌握語法模式,還掌握語法背后的邏輯。你可以給一個小孩一個假動詞,比如pilk,她很可能會推斷過去式是pilked。當(dāng)然,她以前沒見過這個詞。她沒有接受過這方面的“訓(xùn)練”。她只是憑直覺知道了語言運作的一些邏輯,并能將其應(yīng)用到一個新的情況中。

“這些深度學(xué)習(xí)系統(tǒng)不知道如何整合抽象知識,”馬庫斯說,他創(chuàng)立了一家公司,創(chuàng)造了用更少的數(shù)據(jù)進(jìn)行學(xué)習(xí)的人工智能(并在2016年將公司賣給了Uber)。

今年早些時候,馬庫斯發(fā)表了一份關(guān)于arXiv的白皮書,認(rèn)為如果沒有一些新的方法,深度學(xué)習(xí)可能永遠(yuǎn)不會突破目前的局限。它需要的是一種推動力——補充或內(nèi)置的規(guī)則,以幫助它對世界進(jìn)行推理。

奧倫·埃齊奧尼(OrenEtzioni)經(jīng)常面帶微笑。他是一位計算機(jī)科學(xué)家,在西雅圖經(jīng)營著艾倫人工智能研究所(AllenInstituteforArtificialIntelligence)。

在他明亮的辦公室里向我打招呼,領(lǐng)我走過一塊白板,上面潦草地寫著對機(jī)器智能的思考。(“定義成功”,“任務(wù)是什么?”)在外面,年輕的人工智能研究員戴著耳機(jī),敲擊著鍵盤。

埃茨奧尼和他的團(tuán)隊正在研究常識問題。他將此定義為兩個傳奇的人工智能時刻——1997年IBM的深藍(lán)(DeepBlue)擊敗象棋大師加里·卡斯帕羅夫(GarryKasparov),以及去年DeepMind的AlphaGo擊敗世界頂尖圍棋選手李世石。(谷歌在2014年收購了DeepMind。)

“有了深藍(lán),當(dāng)房間著火的時候,我們的程序可以做出超人一般的象棋棋步?!卑4膴W尼開玩笑說?!皩Π??完全缺乏背景。快進(jìn)20年,當(dāng)房間著火的時候,我們有了一臺電腦,可以下出超人一般的圍棋棋步?!?/p>

當(dāng)然,人類沒有這個限制。如果發(fā)生火災(zāi),人們會拉響警報,奔向大門。

換句話說,人類擁有關(guān)于這個世界的基本知識(火會燒東西),同時還有推理的能力(你應(yīng)該試著遠(yuǎn)離失控的火)。

為了讓人工智能真正像人類一樣思考,我們需要教它所有人都知道的東西,比如物理學(xué)(拋向空中的球會落下)或相對大小的東西(大象無法被放進(jìn)浴缸)。在人工智能擁有這些基本概念之前,埃茨奧尼認(rèn)為人工智能無法進(jìn)行推理。

隨著保羅·艾倫(PaulAllen)投入了數(shù)億美元,埃茨奧尼和他的團(tuán)隊正在努力開發(fā)一個常識推理層,以適應(yīng)現(xiàn)有的神經(jīng)網(wǎng)絡(luò)。(艾倫研究所是一個非營利組織,所以他們發(fā)現(xiàn)的一切都將被公開,任何人都可以使用。)

他們面臨的第一個問題,就是回答一個問題:什么是常識?

埃茨奧尼把它描述為我們認(rèn)為理所當(dāng)然,但很少大聲說出的關(guān)于世界的所有知識。他和他的同事創(chuàng)造了一系列基準(zhǔn)問題,一個真正理性的人工智能應(yīng)該能夠回答:如果我把襪子放在抽屜里,它們明天會在那里嗎?如果我踩了別人的腳趾,他們會生氣嗎?

獲取這種知識的一種方法,是從人類那里提取。埃茨奧尼的實驗室正在付費給亞馬遜土耳其機(jī)器人上的眾包人員,以幫助他們制作常識性的陳述。

然后,研究團(tuán)隊會使用各種機(jī)器學(xué)習(xí)技術(shù)——一些老式的統(tǒng)計分析,一些深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)——基于這些陳述進(jìn)行訓(xùn)練。如果他們做得對,埃茨奧尼相信他們可以生產(chǎn)出可重復(fù)使用的計算機(jī)推理“樂高積木”:一套能夠理解文字,一套能夠掌握物理知識,等等。

崔葉金(YejinChoi)是埃茨奧尼團(tuán)隊研究常識的科學(xué)家之一,她負(fù)責(zé)了幾次眾包工作。在一個項目中,她想開發(fā)一種人工智能,能夠理解一個人的行為,或陳述出來其隱含的意圖或情感。

她首先研究了成千上萬個Wiktionary中的在線故事、博客和習(xí)語條目,提取出“短語事件”,比如“杰夫(Jeff)把羅杰(Roger)打昏了”。然后,她會匿名記錄每個短語——“X把Y打昏”——并要求土耳其機(jī)器人平臺上的眾包人員描述X的意圖:他們?yōu)槭裁催@樣做?

當(dāng)她收集了25000個這樣的標(biāo)記句子后,她用它們訓(xùn)練一個機(jī)器學(xué)習(xí)系統(tǒng),來分析它從未見過的句子,并推斷出句子的情緒或意圖。

充其量,新系統(tǒng)運行的時候,只有一半時間是正常的。但是當(dāng)它正式運行的時候,它展示了一些非常人性化的感知:給它一句像“奧倫(Oren)做了感恩節(jié)晚餐”這樣的話,它預(yù)測奧倫試圖給家人留下深刻印象。

“我們也可以對其他人的反應(yīng)進(jìn)行推理,即使他們沒有被提及,”崔說?!八訶的家人可能會感到印象深刻和被愛。”

她的團(tuán)隊建立的另一個系統(tǒng)使用土耳其機(jī)器人平臺上的眾包人員在故事中標(biāo)記人們的心理狀態(tài);當(dāng)給定一個新的情況時,由此產(chǎn)生的系統(tǒng)也可以得出一些“尖銳”的推論。

例如,有人告訴我,一名音樂教練對他的樂隊糟糕的表演感到憤怒,并說“教練很生氣,把他的椅子扔了。人工智能會預(yù)測他們會“事后感到恐懼”,盡管這個故事沒有明確說明這一點。

崔葉金、埃茨奧尼和他們的同事并沒有放棄深度學(xué)習(xí)。事實上,他們認(rèn)為這是一個非常有用的工具。但是,他們不認(rèn)為有捷徑,可以說服人們明確陳述我們所有人都擁有的怪異、無形、隱含的知識。

深度學(xué)習(xí)是垃圾輸入,垃圾輸出。僅僅給一個神經(jīng)網(wǎng)絡(luò)提供大量新聞文章是不夠的,因為它不會吸取未陳述的知識,這是作家們不愿提及的顯而易見的事情。

正如崔葉金所說,“人們不會說‘我的房子比我大’?!睘榱藥椭鉀Q這個問題,她讓土耳其機(jī)器人平臺上的眾包人員分析了1100個常見動詞所隱含的物理關(guān)系,例如“X扔了Y”。這反過來又提供了一個簡單的統(tǒng)計模型,可以用“奧倫扔了一個球”這個句子來推斷球一定比奧倫小。

另一個挑戰(zhàn)是視覺推理。阿尼魯達(dá)·凱姆巴維(AniruddhaKembhavi)是埃茨奧尼團(tuán)隊中的另一位人工智能科學(xué)家,他向我展示了一個在屏幕上漫步的虛擬機(jī)器人。艾倫研究所的其他科學(xué)家建造了類似模擬人生的房子,里面裝滿了日常用品——廚房櫥柜里裝滿了碗碟,沙發(fā)可以隨意擺放,并符合現(xiàn)實世界中的物理定律。

然后他們設(shè)計了這個機(jī)器人,它看起來像是一個有手臂的深灰色垃圾筒,研究人員告訴它,讓它搜尋某些物品。在完成數(shù)千項任務(wù)后,這個神經(jīng)網(wǎng)絡(luò)獲得了在現(xiàn)實生活中生活的基礎(chǔ)。

“當(dāng)你問它‘我有西紅柿嗎?它不會打開所有的櫥柜。它更傾向去打開冰箱,”凱姆巴韋說。“或者,如果你說‘給我找我的鑰匙’,它不會試圖拿起電視。它會去看電視機(jī)后面。它已經(jīng)知道,電視機(jī)通常不會被拿走?!?/p>

埃茨奧尼和他的同事希望這些不同的組成部分——崔葉金的語言推理、視覺思維,以及他們正在做的讓人工智能掌握教科書科學(xué)信息的其他工作——最終能夠結(jié)合在一起。

但是需要多長時間,最終的產(chǎn)品會是什么樣子?他們不知道。他們正在建立的常識系統(tǒng)仍然會出錯,有時甚至超過一半的概率。

崔葉金估計,她將需要大約一百萬人工語言來訓(xùn)練她的各種語言解析器。建立常識似乎異乎尋常地困難。

制造機(jī)器還有其他合理的方式,但它們的勞動密集程度更高。例如,你可以坐下來,用手寫出所有要告訴機(jī)器世界如何運作的規(guī)則。這就是道格·萊納特(DougLenat)的Cyc項目的工作原理。

34年來,萊納特雇傭了一個工程師和哲學(xué)家團(tuán)隊,來編寫2500萬條常識性規(guī)則,比如"“水是濕的”或者“大多數(shù)人都知道他們朋友的名字”。這讓Cyc能夠推斷:“如果你的襯衫濕了,所以你可能是在雨中?!眱?yōu)勢在于,萊納特能夠精確地控制輸入Cyc數(shù)據(jù)庫的內(nèi)容;而眾包知識并非如此。

這種由粗暴的手動行為做出來的人工智能,在深度學(xué)習(xí)的世界中已經(jīng)變得不流行。這在一定程度上是因為它可能“脆弱”:如果沒有正確的世界規(guī)則,人工智能可能會陷入困境。這就是程式化的聊天機(jī)器人如此“智障”的原因;如果如果沒有明確告訴它們?nèi)绾位卮鹨粋€問題,它們沒有辦法推理出來。

Cyc的能力比聊天機(jī)器人更強(qiáng),并且已經(jīng)經(jīng)過批準(zhǔn),可以用于醫(yī)療保健系統(tǒng)、金融服務(wù)和軍事項目。但是這項工作進(jìn)展非常緩慢,而且耗資巨大。萊納特說開發(fā)Cyc花費了大約2億美元。

但是,一點一點地進(jìn)行手工編程可能只是復(fù)制一些固有的知識,根據(jù)喬姆斯基(Chomskyite)的觀點,這是人類大腦擁有的知識。

這就是迪利普·喬治和研究人員對Breakout所做的事情。為了創(chuàng)造一個不會面對游戲布局變化而變“智障”的人工智能,他們放棄了深入學(xué)習(xí),建立了一個包含硬編碼基本假設(shè)的系統(tǒng)。

喬治告訴我,他們的人工智能不費吹灰之力就學(xué)會了“物體是存在的,物體之間有相互作用,一個物體的運動與其和其他物體之間的碰撞有因果關(guān)系?!?/p>

在Breakout中,這套系統(tǒng)發(fā)展出了衡量不同行動過程及其可能結(jié)果的能力。但這也起到了相反的作用。如果人工智能想要打破屏幕最左上角的一個磚塊,它會理性地將平板放在最右邊的角落。

這意味著,當(dāng)Vicarious改變游戲的規(guī)則時——添加新磚塊或提升平板——系統(tǒng)會得到補償。它似乎抓住了一些關(guān)于Breakout本身的通用性理解。

顯然,這種人工智能在工程中存在權(quán)衡??梢哉f,精心設(shè)計和仔細(xì)規(guī)劃,以精確找出將什么預(yù)先設(shè)定的邏輯輸入到系統(tǒng)中,是一個更艱苦的工作。在設(shè)計一個新系統(tǒng)時,很難在速度和精度之間取得恰當(dāng)?shù)钠胶狻?/p>

喬治說,他尋找最小的數(shù)據(jù)集“放入模型,以便它能夠快速學(xué)習(xí)?!蹦阈枰募僭O(shè)越少,機(jī)器做決策的效率就越高。

一旦你訓(xùn)練了一個深度學(xué)習(xí)模型來識別貓,你就可以給它看一只它從未見過的俄羅斯藍(lán)貓,然后它就會立刻給出結(jié)論——這是一只貓。在處理了數(shù)百萬張照片之后,它不僅知道是什么讓一只貓變成了貓,還知道識別一只貓的最快方法。

相比之下,Vicarious的人工智能速度較慢,因為隨著時間的推移,它會主動地做出邏輯推論。

當(dāng)Vicarious的人工智能運行良好時,它可以從更少的數(shù)據(jù)中學(xué)習(xí)。喬治的團(tuán)隊通過識別扭曲的字體形象,創(chuàng)造一種人工智能來突破神經(jīng)網(wǎng)絡(luò)上“我不是機(jī)器人”的障礙。

就像Breakout系統(tǒng)一樣,他們預(yù)先給人工智能賦予了一些能力,比如幫助它識別字符的知識。隨著引導(dǎo)就位,他們只需要在人工智能學(xué)會以90.4%的準(zhǔn)確率破解驗證碼之前,在260張圖像上訓(xùn)練人工智能。相比之下,神經(jīng)網(wǎng)絡(luò)需要在超過230萬張圖像上訓(xùn)練,才能破解驗證碼。

其他人,正在以不同的方式將常識般的結(jié)構(gòu)構(gòu)建到神經(jīng)網(wǎng)絡(luò)中。例如,DeepMind的兩名研究人員最近創(chuàng)建了一個混合系統(tǒng):部分是深度學(xué)習(xí),部分是更傳統(tǒng)的技術(shù)。他們將這個系統(tǒng)稱為歸納邏輯編程。目標(biāo)是創(chuàng)造出能夠進(jìn)行數(shù)學(xué)推理的東西。

他們用兒童游戲“fizz-buzz”來訓(xùn)練它,在這個游戲中,你從1開始向上數(shù),如果一個數(shù)字可以被3整除,就說“fizz”,如果它可以被5整除,就說“buzz”。一個普通的神經(jīng)網(wǎng)絡(luò),只能處理它以前見過的數(shù)字;如果把它訓(xùn)練到100分鐘,它就會知道99時該“fizz”,100時“buzz”。

但它不知道如何處理105。相比之下,DeepMind的混合深度思維系統(tǒng)似乎理解了這個規(guī)則,并在數(shù)字超過100時沒有出現(xiàn)任何問題。愛德華·格雷芬斯特(EdwardGrefenstette)是開發(fā)這種混合系統(tǒng)的DeepMind程序員之一,他說,“你可以訓(xùn)練出一些系統(tǒng),這些系統(tǒng)會以一種深度學(xué)習(xí)網(wǎng)絡(luò)無法獨自完成的方式進(jìn)行推理?!?/p>

深度學(xué)習(xí)的先驅(qū)、Facebook人工智能研究部門的現(xiàn)任負(fù)責(zé)人楊立昆(Yann?LeCun)對許多針對這個領(lǐng)域的批評表示贊同。他承認(rèn),它需要太多的訓(xùn)練數(shù)據(jù),不能推理,也不具備常識。

“在過去的四年里,我基本上在一遍又一遍地重復(fù)這句話,”他提醒我。但是他仍然堅信,進(jìn)行正確的深入學(xué)習(xí),可以獲取答案。他不同意喬姆斯基對人類智力的看法。他認(rèn)為,人類大腦是通過互動而不是內(nèi)在的規(guī)則來發(fā)展出推理能力的。

“如果你思考一下動物和嬰兒是如何學(xué)習(xí)的,在生命的最初幾分鐘、幾小時、幾天里,學(xué)很多東西都學(xué)得很快,以至于看起來像是天生的,”他指出。“但事實上,他們不需要硬編碼,因為它們可以很快學(xué)會一些東西。”

從這個角度來看,為了了解世界的物理規(guī)律,一個嬰兒只需要四處移動它的頭,對傳入的圖像進(jìn)行數(shù)據(jù)處理,并得出結(jié)論,景深就是這么一回事。

盡管如此,楊立昆承認(rèn),目前還不清楚哪些途徑可以幫助深度學(xué)習(xí)走出低谷。有可能是“對抗性”神經(jīng)網(wǎng)絡(luò),一種相對新的技術(shù),其中一個神經(jīng)網(wǎng)絡(luò)試圖用虛假數(shù)據(jù)欺騙另一個神經(jīng)網(wǎng)絡(luò),迫使第二個神經(jīng)網(wǎng)絡(luò)發(fā)展出極其微妙的圖像、聲音和其他輸入的內(nèi)部表征。

它的優(yōu)勢是沒有“數(shù)據(jù)缺乏”的問題。你不需要收集數(shù)百萬個數(shù)據(jù)來訓(xùn)練神經(jīng)網(wǎng)絡(luò),因為它們是通過相互學(xué)習(xí)來學(xué)習(xí)的。(作者注:一種類似的方法正在被用來制作那些讓人深感不安的“深度偽造”(deepfake)視頻,在這些視頻中,有些人似乎在說或做一些他們沒有說或做的事情。)

我在Facebook位于紐約的人工智能實驗室的辦公室里遇見了楊立昆。馬克·扎克伯格(MarkZuckerberg)在2013年招募了他,承諾實驗室的目標(biāo)將是推動人工智能突破極限,而不僅僅是對Facebook的產(chǎn)品進(jìn)行微小的調(diào)整。像學(xué)術(shù)實驗室一樣,楊立昆和他的研究人員可以將他們的研究成果發(fā)表出來,供其他人參閱。

楊立昆仍然保留了他的法國本土口音,他站在白板前,精力充沛地勾畫出可能推動深入學(xué)習(xí)進(jìn)步的理論。對面的墻上掛著一套斯坦利·庫布里克(StanleyKubrick)《2001:太空漫游》(2001:ASpaceOdyssey)中的華麗畫作——漂浮在太空深處的主宇宙飛船,一艘繞地球運行的輪式飛船?!芭叮堑?,”當(dāng)我指出他們時,楊立昆說,他們重印了庫布里克為這部電影制作的藝術(shù)品。

借著周圍的圖片來討論類人人工智能,讓人感到莫名的不安,因為2001年的HAL9000,一個類人人工智能,是一個高效的殺手。

這指向了一個更深層次的哲學(xué)問題,超越了人工智能發(fā)展方向的爭論:制造更聰明的人工智能是一個好主意嗎?Vicarious的系統(tǒng)破解了驗證碼,但驗證碼的意義在于防止機(jī)器人模仿人類。

一些人工智能研究者擔(dān)心,與人類交談并理解人類心理的能力可能會使惡人工智能變得極其危險。牛津大學(xué)的尼克·博斯特龍(NickBostrom)敲響了創(chuàng)造"超級智能"(superintelligence)的警鐘。超級智能是一種自我改進(jìn)并快速超越人類的人工智能,能夠在各個方面超越我們。(他認(rèn)為積聚控制力的一種方式是通過操縱人們——擁有"心智理論"對此會非常有用。)

埃隆·馬斯克(ElonMusk)對這種危險深信不疑,他資助了致力于安全人工智能理念的組織OpenAI。

這樣的未來不會讓埃齊奧尼晚上失眠。他不擔(dān)心人工智能會變成惡意的超級智能?!拔覀儞?dān)心會有什么東西會接管這個世界,”他嘲笑道,“那甚至不能自已決定再下一盤棋?!蹦壳?,還不清楚人工智能會如何發(fā)展出這些意愿,也不清楚這種意愿軟件中會是什么樣子。深度學(xué)習(xí)可以征服國際象棋,但它沒有天生的下棋意愿。

令他擔(dān)憂的是,是目前的人工智能非常無能。因此,雖然我們可能不會創(chuàng)造出具有自我保護(hù)智能的HAL,但他說,“致命武器+無能的人工智能很容易殺人?!边@也是為什么埃齊奧尼如此堅決地要給人工智能灌輸一些常識的部分原因。他認(rèn)為,最終,這將使人工智能更加安全;不應(yīng)該大規(guī)模屠殺人類,也是一種常識。(艾倫研究所的一部分任務(wù)是使人工智能更加合理化,從而使其更加安全。)

埃齊奧尼指出,對人工智能的反烏托邦式的科幻愿景,其風(fēng)險要小于短期的經(jīng)濟(jì)轉(zhuǎn)移。如果人工智能在常識方面做得更好,它就能更快地完成那些目前僅僅是模式匹配深度學(xué)習(xí)所難以完成的工作:司機(jī)、出納員、經(jīng)理、各行各業(yè)的分析師,甚至是記者。

但真正有理性的人工智能造成的破壞甚至可能會超出經(jīng)濟(jì)范圍。想象一下,如果散布虛假政治信息的機(jī)器人能夠運用常識,在Twitter、Facebook或大量電話中顯得與人類毫無區(qū)別,那該會是什么樣子。

馬庫斯同意人工智能具備推理能力會有危險。但是,他說,這樣帶來的好處是巨大的。人工智能可以像人類一樣推理和感知,但卻能以計算機(jī)的速度運算,它可以徹底改變科學(xué),以我們?nèi)祟惒豢赡艿乃俣日页鲆蚬P(guān)系。

除了擁有大量的機(jī)器人知識之外,它可以像人類一樣進(jìn)行心理實驗,可以遵循“if-then”鏈條,思考反事實?!袄?,最終我們可能能夠治愈精神疾病,”馬庫斯補充道。“人工智能或許能夠理解這些復(fù)雜的蛋白質(zhì)生物級聯(lián),這些蛋白質(zhì)參與到了大腦的構(gòu)建中,會讓它們正常工作或不正常工作。”

坐在《2001:太空漫游》的照片下面,楊立昆自己提出了一個“異端”觀點。當(dāng)然,讓人工智能更加人性化有助于人工智能給我們的世界提供幫助。但是直接復(fù)制人類的思維方式呢?沒有人清楚這是否有用。我們已經(jīng)有了像人類一樣思考的人;也許智能機(jī)器的價值在于它們與我們完全不同。

“如果他們有我們沒有的能力,他們會更有用,”他告訴我。“那么他們將成為智力的放大器。所以在某種程度上,你希望他們擁有非人類形式的智力......你希望他們比人類更理性?!睋Q句話說,也許讓人工智能有點人工是值得的。

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.connectcrack.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點贊 0
取消 0