【財(cái)新網(wǎng)】(記者 葉展旗)在人工智能(AI)發(fā)展過(guò)程中,真正的風(fēng)險(xiǎn)并不是人們想象的超級(jí)智能,而是現(xiàn)已涌現(xiàn)的安全、倫理問題。10月31日,在2019北京智源大會(huì)上,中國(guó)科學(xué)院自動(dòng)化研究所研究員曾毅接受財(cái)新等采訪時(shí)表示,實(shí)際上很多企業(yè)對(duì)存在的風(fēng)險(xiǎn)視而不見,人工智能的健康發(fā)展,一定是治理和發(fā)展雙輪驅(qū)動(dòng),要保證它向著正確的方向發(fā)展。
曾毅舉例稱,當(dāng)用對(duì)抗神經(jīng)網(wǎng)絡(luò)生成一個(gè)烏龜?shù)?D模型,谷歌的分類系統(tǒng)就有80%的幾率,把這個(gè)烏龜?shù)哪P妥R(shí)別成來(lái)福槍,另外20%的幾率識(shí)別為其它的東西,但也絕對(duì)不會(huì)是烏龜。這也就是說(shuō),系統(tǒng)沒有一次能把3D烏龜模型成功識(shí)別出來(lái)。因?yàn)閷?duì)抗神經(jīng)網(wǎng)絡(luò)改變了3D烏龜模型的局部紋理,使得基于統(tǒng)計(jì)意義的分類系統(tǒng),沒有辦法把它識(shí)別出來(lái)。