Sin Chew Daily - Metro Edition (Day)
AI聽聲音可判斷樣貌
(剑桥12日综合电)美国麻省理工学院的研究人员研发了一个相当惊人的人工智能应用程式,可以单凭聆听声音判断一个人的样貌。
据英国《每日邮报》报道,这批研究人员在最近发表的研究报告中详细说明了这人工智能软件如何在获得提供各种声音片段之后,能够重新拼凑出有关人士的样貌。
报告指出,为了做到这一点,研究人员向这人工神经网络输入了从YouTube网站取得的数百万个视频,而在这些视频中出现的总人数超过10万。
取得主要脸部特征
研究人员在这份发表于Arxiv网站的研究报告中说:“我们这项工作的目标是要研究我们在多大程度上能够从一个人说话的方式推断其长相。”
“明显的,面貌和声音之间并没有一对一匹配的情况。因此,我们的目标并不是预测一个实际面貌的可辨认图像,而是要取得与所输入声音相关的主要脸部特征。”
这人工智能系统会研究所提供的YouTube视频,并将说话者的声音和面貌互相配对,同时也会判断一些因素,如年龄、性别及种族。
研究人员表示,人工智能可在不需要任何人为干预之下这么做。
他们也指出,人工智能在未来可能有“一些有用的用途”,如“根据说话者的声音为手机的语音或视频通话配上代表性面貌”。
不过,他们提醒说,这人工神经网络不是为了准确描绘出某个人的样貌,而是只提供一个大略、近似的样子。
或出现道德隐私问题
在通过人工智能推断一个人样貌的构想上,研究人员说,他们不得不提出一些可能出现的道德及隐私问题。
举个例子,人工智能很难以判断某些身分的人。当研究人员输入说华语的亚裔美国人的片段,它正确判断那是亚裔男子。但是当同一人说英语时,它却误判为白人。
此外,人工智能也会把高亢的声音当成女人声,而低沉的声音则为男人声。
另一方面,一些人在发现他们的面貌被用在这项研究工作之后表达了不满。
研究人员并没有忽视这隐私问题。他们在研究报告中提出,这系统并非要打造出“一个人的真正身分”,而是要呈现出“一般的面貌”。