隨著人工智能越來越強大,智能機械正改善我們的生活,然而不僅是技術(shù)的快速發(fā)展,人類的想像早已延伸至更遠之處。著名科幻小說家以撒.艾西莫夫(IsaacAsimov)早在1942年就針對機器人技術(shù)的發(fā)展提出了三大定律,以探討未來人類對人工智能(AI,ArtificialIntelligence)的應用以及所面對的倫理道德問題。如今隨著想像越來越逼近現(xiàn)實,人工智能所引發(fā)的問題已不止如此而已。
失業(yè)與貧富差距
機器人技術(shù)的發(fā)展,首要面對的問題其實早已被廣泛認知,就算不是科學家或是哲學家,現(xiàn)代民眾也能清楚的理解此一問題必然會發(fā)生,那就是—失業(yè)。勞動的層次與自動化的程度有關(guān),在自動化作業(yè)之下,人類會逐漸轉(zhuǎn)往負責更復雜的戰(zhàn)略及認知活動。例如卡車司機,目前有數(shù)千萬人在從事這樣的工作,但如果正如特斯拉(Tesla)所承諾,未來十年內(nèi)自動駕駛車輛將會被廣泛使用,那么這些人將會如何?但從另外一個角度來看,自駕車的普及將會大幅減少交通事故傷亡率,那么自駕技術(shù)的應用就變成了一個道德的選擇,人命或者是失業(yè)?
或許有一天我們回頭看看現(xiàn)在的經(jīng)濟型態(tài)會認為,讓人類出售自己的時間僅為了活下去是一種很野蠻的行為。目前人類的工資大部分依賴于時薪,然而通過使用人工智能將大幅減少所需的勞動力,這也意味著失業(yè),但除了失業(yè)以外,還有另一個問題,機器人的勞動所得該由誰分享?在現(xiàn)今自動化還沒有真的那么普及時,貧富差距就已經(jīng)非常的大,宕機器人取代人類勞工之后,相信貧富差距將會更加嚴重,該如何建立一個公平的經(jīng)濟社會就是第二個問題。
互動、錯誤及偏見
人工智能引發(fā)的另一個層面問題出自于人類的社會性。在2015年,一架機器人名為EugeneGoostman成功通過了圖靈測試(TuringTest)。在這個測試中,測試人員必須分別跟真人與機器人對話,若機器人能成功瞞騙過測試人員,讓他們誤以為是真人便成功了,而EugeneGoostman成功的欺騙了一半以上的測試人員。這是一個時代的里程碑,機器人可以開始與人類互動并建立關(guān)系,甚至比人類更有效率去維持人際關(guān)系,因為其注意力并沒有限制,人工智能未來將成為人際關(guān)系中不可或缺的一部分,該如何與機器互動這是人類必須面臨的問題。
機器人在未來是如此重要,但實際上就算再怎么高效仍然會存在盲點,有可能會被有心人士愚弄甚至是利用,如何讓機器能夠發(fā)揮其應有的功能,而不是遭受或引發(fā)不必要的破壞便是重要的問題。例如機器其實并沒有想像中的那么中立,因為人工智能也是通過學習而建立起來的,所以人類一樣能夠帶給機器偏見并使其產(chǎn)生錯誤的判斷,例如Google曾發(fā)展一項技術(shù),將影像識別用于預測未來罪犯時,卻發(fā)現(xiàn)其擁有對于黑人的偏見,這就是一個嚴重的問題。
安全、威脅和控制
人工智能產(chǎn)生了錯誤與偏見時,可能會對人類造成安全上的威脅,如同電影一般。所以接下來的三個問題是有關(guān)于如何維持人工智能的資訊安全,以及若人工智能得出具有威脅人類安全的偏見時,該如何應對?又如何能保證繼續(xù)控制這些機器人?或許在技術(shù)上可以設(shè)計讓人工智能無法直接去威脅人類安全,如同機器人三定律,但盡管如此,這些科幻情節(jié)發(fā)生的機率可能比想像中還高,例如當人工智能在思考如何消滅癌癥時,經(jīng)過大量的計算后它可能會得到這樣的結(jié)論—盡可能減少地球人口。這可能真的是最有效的方法,但沒有人會期待,雖然聽起來像是一個玩笑,但如果未來人類真的必須依賴機器人來維持社會的運作,那么這個玩笑就一點也不好笑。在《機械公敵》(I,Robot)電影中,盡管出于善意,但機器人的確還是殺人了。
機器人權(quán)
經(jīng)過神經(jīng)科學家努力的研究后,令機器人也能擁有好惡的基本機制,就像人類對動物的訓練一樣,雖然目前的技術(shù)還不夠成熟,但正變得更加復雜,也使機器人更加栩栩如生,使其成為感知和行為的實體。當這項技術(shù)更加的先進以至于機器人也擁有情緒之后,人類是否應該要去考慮其感受,機器人是否也應受到法律的保障,擁有機器人的基本人權(quán)?
無庸置疑的,發(fā)展高度先進的人工智能將會有很大的風險,也會遇到很多的問題,但也必須要記得,這將會是使人類社會能夠繼續(xù)前進的動力,讓生活更加美好的途徑。人工智能的潛力與威脅,其實一直都取決于人類自己。
更多資訊請關(guān)注工業(yè)機器人頻道