據新華社消息 美國麻省理工學(xué)院和谷歌公司研究人員開(kāi)發(fā)出一種計算機新算法,能夠依據一個(gè)人的聲音繪制面容。
研究人員利用視頻共享網(wǎng)站YouTube涉及10萬(wàn)多人講話(huà)的視頻片段開(kāi)發(fā)出上述算法。這種算法能夠查找出人們說(shuō)話(huà)時(shí)相關(guān)的面部特征,憑借聽(tīng)“一個(gè)人講話(huà)的方式就能推斷出相貌”。
研究顯示,這種程序依據聲音重建的人物面容接近說(shuō)話(huà)者本人長(cháng)相,能準確捕捉年齡、性別和種族特征,還能顯現包括鼻子形狀在內的面部特征。研究人員說(shuō),鼻子形狀可能對發(fā)聲有影響。
生理和文化因素對人說(shuō)話(huà)的聲音同樣有影響。憑借其中關(guān)聯(lián),人工智能能夠聽(tīng)聲音繪制說(shuō)話(huà)者的相貌。這解釋了為什么與從來(lái)沒(méi)有謀面的人打電話(huà)時(shí),人們腦海中可能會(huì )形成關(guān)于對方長(cháng)相的圖像。
研究報告由阿奇夫論文預印本網(wǎng)站發(fā)布。研究人員說(shuō),這項技術(shù)或許可以應用于為來(lái)電者配圖等。一些分析師認為,它或有助警方借助錄音繪制嫌疑人容貌。