泰勒·斯威夫特的深度伪造色情影片并不是新鲜事,但这并不代表我们不应该感到担忧。

.png?width=48&height=48&name=image%20(3).png)
](https://blog.avast.com/author/emma-mcgowan)
2024年1月30日

在泰勒·史威夫特(Taylor Swift)的AI生成色情图片在X(前称Twitter)上迅速走红之后,我们不禁思考:这对未来的AI意味著什么?

近期,有关AI生成的著名歌手泰勒·史威夫特的迅速在X平台上蔓延,揭示了AI能力的阴暗面。这些图片据信是使用MicrosoftDesigner创建的,引起了广泛关注,并突显了AI生成假色情内容日益增长的挑战。

随著这些图片在平台上迅速传播,此事件不仅引发了粉丝和隐私权倡导者的愤怒,而且也提出了有关AI在媒体创作中道德使用的重要问题。

Avast威胁情报主任米哈尔·萨拉特(MichalSalát)在这一重要讨论中提供了丰富的知识与专业见解。萨拉特的观察聚焦于技术、安全与伦理的交汇处,为AI生成内容的影响提供了深入的分析。

在接下来的部分,我们将深入探讨他的见解,回顾影像操纵的历史平行、AI能力带来的伦理困境,以及在日益增长的AI驱动世界中数位信任与安全的更广泛影响。

假色情并非新问题

萨拉特将当前AI生成栩栩如生的图片的能力与过去使用Photoshop进行的操纵相提并论。正如Photoshop几年前革命性地改变了图像处理一样,AI现在已经使得创建现实图片变得更加容易。但操纵图片的概念并不新鲜;AI只是这一持续
saga 的最新工具。

他解释道:「这某种程度上只是一种不同的照片编辑软件。」他强调,操纵图片的概念已经困扰社会十多年了。现在的关键区别在于,AI技术所带来的便利性和可及性使得创造现实图片变得比以往任何时候都要容易得多。这一转变引发了关于社会如何适应并规范这些新工具的重要问题,因为这些工具使得创造现实图片变得空前容易。

AI与色情内容的伦理困境

当前最迫切的问题之一是使用AI生成色情图片的伦理影响,特别是针对特定个体而未经其同意的情况。尽管生成普通裸体图片可能不会引发太多伦理问题,但当能够轻易地创建一个可识别的人物的明确图片时,真正的问题就出现了。

萨拉特表示:「AI生成的色情内容本身可能没有任何固有的错误或伦理问题。但对我来说,伦理问题是,你可以相对容易地生成一张带有已知或特定面孔的图片。」

这种能力不仅延伸到像泰勒·史威夫特这样的名人,还可能涉及任何人,强调了制定伦理指导方针和法律的必要性。虽然所谓的「报复色情」(或非自愿分享裸体图片)在48个州是,但AI生成的深伪色情内容目前

AI公司如何防止深伪色情内容的创造?

也许因为生成AI的使用相对较新,对于未经当事人同意的色情内容的创建几乎没有
guardrails。不过,萨拉特指出,实施这类防范措施对AI公司来说并不困难:例如,不允许生成特定人的图像,或不使用用户提交的图像作为素材,都可以为绝大多数人提供足够的障碍。

萨拉特说:「当然,有些人能够突破这些限制,强行使模型做一些它不该做的事情。对我来说,当前几乎无法避免这一点—只能让其变得更困难。我想表达的观点是,提供这些服务的公司应该更加努力地防止此类行为。」

还有可能有人创建自己的色情生成模型,没有任何限制。萨拉特指出,尽管这是可能的,但需要_大量的_技术知识和_大量的_计算能力才能实现。

他表示:「并不是有很多人能够自己创建生成裸体图像的AI。这更像是在使用Photoshop,需要具备一定的技能才能做到这一点。」

萨拉特将当前的AI发展状态与安全行业的演变进行了比较。他观察到,我们正在见证安全行业「从头开始使用AI」。这一比较凸显了将AI发展视为一个持续过程的重要性,在这一过程中,识别和修补漏洞对于技术的成熟至关重要。

泰勒·史威夫特在X上被生成的图片提醒我们负责任使用AI的重要性。随著AI的持续进步,在技术能力、伦理考量和安全措施之间取得平衡将至关重要。透过向像米哈尔·萨拉特这样的专家学习并反思过去的挑战,我们可以以更加知情和审慎的方式应对这一复杂的风景。

Leave a Reply

Your email address will not be published. Required fields are marked *