假婴儿横死加萨! 以哈战争出现大量AI「深度伪造」

  • 发表时间:
    , 文章来源:EtToday, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    *(photo:EtToday)
    *(photo:EtToday)

    ▲以哈冲突充斥大量假讯息,随着生成式AI的飞跃进展,如今距离真相恐怕更远了。(图/路透)

    记者张靖榕/综合外电报导

    巴勒斯坦激进组织哈玛斯10月7日大规模突袭以色列致爆发战争以来,加萨大量伤亡的平民中有许多是孩童和婴儿,如今却爆出,多张有数百万次浏览的婴儿横死血照,其实竟是深度伪造(Deepfakes)的假图片。

    美联社报导,这些利用AI进行深度伪造的假图片已经有数百万人次的浏览,然而只要仔细一看,就可观察出其中端倪,例如手指以怪异的方式蜷曲、眼睛有不自然的光线等,这些都是AI绘图的小破绽。

    以色列与哈玛斯的战争中,可以痛苦且清楚地看出AI作为政治、舆论宣传工具的强大潜力,AI被用来创造出逼真的大屠杀照片,自从10月爆发战争以来,这些凭空制造的图片在社群媒体上广传,并被用来误导舆论和作出不正当的指控。

    虽然目前在网路上被热议的不实指控多数不用靠AI,而是仍然仰赖传统的消息来源,但进步的科技来势汹汹,而且受到的监督更少。这让AI作为另一种形式的武器潜力变得显而易见,并且能让人一窥未来不只冲突,还有选举和其他大事件的样貌。

    美国商业情报公司「CREOpoint」CEO戈登斯坦(Jean-Claude Goldenstein)表示,「(一切)在变得更好之前,会先变得更糟,非常糟。」CREOpoint是一家在旧金山和巴黎都有据点的科技公司,他们同样利用AI技术,但是用来评估网路上各种言论的可信度。不只如此,该公司还建立了一个关于加萨战场上最受到关注的多个深度伪造事件的数据库,「照片、影片和录音档:在生成式AI的帮助下,情况会升级到你从未见过的地步。」

    在部分案件里,可见在其他冲突或灾难事件中被拍下的照片,会被移植到以哈战争中,伪装成新闻消息。在不同案例中,AI被用来「无中生有」制造出残忍景象,像是一张在冲突刚爆发时受到大量关注的照片 ─ 一名婴儿在爆炸残骸中大哭,就是假的。

    其他生成式AI绘制出的照片和影片,还包括以色列飞弹袭击后的现场、坦克车驶过已被炸成废墟的街区,以及人们在残砖断瓦中找寻失踪家人的画面。

    在许多案例中,这些深度伪造的画面里都会出现「婴儿、孩童或家眷的遗体」,它们被设计来尽可能在网路上触动人们的强烈情感。在以色列发动报复侵略初期最血腥的时候,以色列和哈玛斯的两派支持者都互相指控对方伤害婴儿和孩童,这时候经过深度伪造的照片一释出到网路上,瞬间被双方拿去当作「证据」,证明自己是对的,而对方是残忍的。

    非营利组织、打击数位仇恨中心CEO阿罕默德(Imran Ahmed)表示,创造这些深度伪造影像的「宣传工作者」,都拥有触及人们心底深处最强烈、最冲动的情感与焦虑情绪的技巧,他说不论是经过深度伪造的婴儿,或是在其他战事中真实存在的婴儿受害者,在观者眼里触发的情绪是一样的。

    AI造成的威胁极大,每当有一场新的冲突、战事,或是国际社会大事件、选举季节,都为利用生成式AI制造假讯息提供了崭新的机会,这让许多AI专家和政治科学家警告,明年诸如美国、印度、巴基斯坦、台湾、乌克兰、印尼和墨西哥等国家,在举行大选的时候也会受到这类威胁。

    随着生成式AI的「蓬勃发展」,许多新创科技公司都在针对如何识别深度伪造研发相关技术。挪威公司「Factiverse」联合创办人阿美利(Maria Amelie)指出,下一波AI浪潮将会是「我们如何核实这些流传的内容;你如何识别误导讯息;你如何分析内容去决定它是否可信。」

    「Factiverse」建立了一套AI程序,专门识别其他AI程序制造出的错误或具有偏见的讯息。

    类似的程序和计画很快就会是教育界、媒体界、金融分析界和其他领域感兴趣的东西,因为它们可以帮助识别错误、抄袭或是诈欺的内容。

    虽然已有不少人在研究如何反制和破解这些假消息,但利用AI散布谎言的人似乎总是超前一步。美国电脑科学家、水牛城大学教授都尔曼(David Doermann)表示,若想要有效地回应AI假讯息带来的政治与社会挑战,就必须仰赖更厉害的科技和更完善的监管制度。