看港湾 - 两岸三地新鲜事

首页 > 科技 > 正文

人工智能滥用实例 假色情片及背后隐忧

2018-02-10 07:31:36

(中央社记者曾依璇巴黎9日专电)近几个月,网络上出现一些色情影片,以知名女星脸孔嫁接到色情影片演员身体上,制造女星演出的假象,而且制作门槛不高,只要普通应用程序就可完成。 去年底,网络上出现一些色情影片,其中的演员看似知名电影明星盖儿加朵(Gal Gadot)、艾玛华森(Emma Watson)等人,但并非她们亲自演出,而是借由数码再制技术,把女星们的脸孔嫁接到A片演员的身体上,效果相当接近真实。? 费加洛报(Le Figaro)报导,这类假色情片(fake porn),用一种名为FakeApp的免费应用程序就可做出来,这个程序运用人工智能,透过搜寻引擎找出最适合的图片或影片,进行3D再制。 最早出现这些假色情片的社群网站Reddit已于2月7日禁止这类影片,其他社群网站也多已禁止。 部分滥用女星肖像的影片或图片已被删除,但更令人担心的问题在于,人工智能可以越来越精细地再制人类特征,甚至仿造人类的声音和脸孔,这意味在网络上盗用他人身分更加容易,也更易取信于人。 报导举出一个例子,是美国华盛顿大学(University of Washington)研究员展示的影片剪接工具,可把任何声音档与一段影片重合,看起来就像某个人在影片中说了一段话,还可模仿他惯用的声音和语调。 这种技术若在媒体上遭到滥用,可能意味,未来即使观众眼见某人在影片中发言,也不能尽信那是本人说的话,若有人利用这种技术发布假消息,对社会将是一种灾难。 在法国,冒用他人身分发布言论或影像即触犯刑法,可处一年有期徒刑及1万5000欧元(约新台币54万元)罚金,但预防措施付之阙如,且影片一旦发布到网络上,就很难完全撤除。1070210