【為人工智能糾錯(cuò)】隨著人工智能系統(tǒng)變得越來越普遍,一些小錯(cuò)誤造成危險(xiǎn)后果的幾率也在上升。比如,美國麻省理工學(xué)院的科學(xué)家最近就騙過了谷歌的一個(gè)人工智能程序,讓程序錯(cuò)把一只塑料玩具龜當(dāng)成一把來福槍。要是未來的機(jī)器人警察或者士兵犯下這種錯(cuò)誤,很可能將會(huì)引發(fā)悲劇。