機器學(xué)習(xí)研究者們已經(jīng)開始探索在AI中誘發(fā)“選擇性失憶”的方法,其目標(biāo)是在不影響模型性能的前提下,從機器學(xué)習(xí)中刪除特定人員或點的敏感數(shù)據(jù)。
目前,機器學(xué)習(xí)被視作最具智能特征的研究領(lǐng)域,但科學(xué)家提出了新的問題:機器會學(xué)習(xí),但它會遺忘嗎?
機器學(xué)習(xí)研究者們已經(jīng)開始探索在AI中誘發(fā)“選擇性失憶”的方法,其目標(biāo)是在不影響模型性能的前提下,從機器學(xué)習(xí)中刪除特定人員或點的敏感數(shù)據(jù)。
如果未來能夠?qū)崿F(xiàn),那么這一概念將幫助人們更好地控制數(shù)據(jù)。
機器學(xué)習(xí)的“遺忘”,對于有需求的用戶,也就是那些對他們在網(wǎng)上分享的內(nèi)容感到后悔的人來說,其實很直觀。
但從技術(shù)層面來講,消除特定數(shù)據(jù)點影響的傳統(tǒng)方法,是“從零開始”重建系統(tǒng),這是一項代價可能相當(dāng)高昂的工作,令企業(yè)幾乎難以承受。
具體來說,某些地區(qū)的用戶如果他們對披露的內(nèi)容改變了主意,其實是有權(quán)要求公司刪除他們的數(shù)據(jù)的。但徹底抹除這件事很難實現(xiàn),因為一旦經(jīng)過訓(xùn)練,機器學(xué)習(xí)系統(tǒng)就不會輕易改變,甚至就連訓(xùn)練者們自己,也不清楚系統(tǒng)是如何掌握這些能力的,因為他們并不能完全理解自己調(diào)試或訓(xùn)練出的算法。
人們對人工智能系統(tǒng)侵犯個人隱私的擔(dān)憂日益嚴(yán)重。如何讓AI學(xué)會“選擇性失憶”,從而可以在無需“從零開始”對系統(tǒng)進(jìn)行再培訓(xùn)的情況下刪除敏感數(shù)據(jù),成為時下研究的熱點問題。
賓夕法尼亞大學(xué)機器學(xué)習(xí)教授亞倫·羅斯表示,他們目前進(jìn)行的研究就是希望能找到一些“中間地帶”?;蛟S在不久的將來,有望找出一條既可以控制數(shù)據(jù)也可以保護(hù)由數(shù)據(jù)產(chǎn)生的價值的發(fā)展道路。