为了迎接人工智能生成的挑战,OpenAI推出了新工具

OP 推出 2023-10-20 16

摘要:Murati表示,OpenAI的新工具在确定图片是否是使用AI生成时拥有“99%的可靠性”。虽然该工具的发布日期仍处于保密状态,但它的发布引起了人们的极大兴趣,特别是考虑到OpenAI过去的努力。2022年1月,该公司推出了一款文本分类器,据称可以将人类书写与来自ChatGPT等模型的机器生成文本区分开来。...

在之前的工具出现不足之后,OpenAI 另一个已经推出 AI 该检测器致力于图像和不断增加的深度欺诈风险。

OpenAI 它是生成人工智能领域的先驱。随着误导性内容在社交媒体平台上的传播越来越普遍,它正面临着测试深度图像伪造的挑战。在最近在加州拉古纳海滩举行的《华尔街日报》技术直播会议上,公司首席技术官米拉·穆拉蒂 (Mira Murati) 推出了一款新的 Deepfake 探测仪。

Murati 表示,OpenAI 新工具正在确定照片是否使用 AI 生成时拥有“99%” 稳定性”。

人工智能生成的图像可以包括各种内容,从轻松创作(比如穿蓬松的衣服) Balenciaga 外套的教皇弗朗西斯)到可能导致严重财务破坏的欺骗性图像。人工智能的潜力和陷阱是显而易见的。随着这些工具变得越来越复杂,区分真实内容和人工智能产生的内容是一个挑战。

虽然该工具的发布日期仍处于保密状态,但它的发布引起了人们的极大兴趣,特别是考虑到 OpenAI 过去的努力。

2022 年 1 月,该企业推出了一款文本分类器,据悉可以将人类写作与来自 ChatGPT 等待模型机生成文本区别开来。但是到了。 7 月份,OpenAI 悄悄关闭工具,并发布更新,称其错误率高得不可接受。他们的分类器正在进行中。 9% 在这种情况下,真实的人类写作被错误地标记为人工智能生成。

如果穆拉蒂的说法是真的,这将是该行业的一个重要时刻,因为目前测试人工智能生成图像的方法通常不是自动化的。一般来说,粉丝们依靠直觉,专注于阻碍人工智能的生成,比如描绘手、牙齿和图案。人工智能生成的图像和人工智能编辑的图像之间的区别仍然模糊,特别是当人们试图使用人工智能来测试人工智能时。

OpenAI 它不仅致力于测试有害的人工智能图像,还设置了自己的模型护栏,甚至超出了内容指南中公开声明的范围。

如同Decrypt 发现的那样,OpenAI 的 Dall-E 该工具似乎配备了在没有通知的情况下进行修改和提醒,并被要求在生成特定的导出时悄悄地抛出错误,即使它们符合已发布的指南,并避免建立特定的名称、艺术家风格和种族。

检验深层假货不仅仅是检验深层假货 OpenAI 的事业。DeepMedia 是一家开发该功能的企业,专门与政府客户合作。

微软和 Adobe 等大企业也卷起袖子。他们推出了所谓的“人工智能水印”系统。该机制由内容来源和真实性联盟组成 (C2PA) 推动,在语音气泡中包含一个独特的“”cr符号,表示人工智能产生的内容。该符号旨在充当透明的灯塔,让用户能够识别内容的来源。

然而,就像任何技术一样,它都不是万无一失的。有一个漏洞可以删除携带此符号的元数据。然而,作为一种解决方案,Adobe 还推出了能够恢复丢失的元数据的云服务,以保证符号的出现。它也不难避免。

随着监管机构逐渐将深层欺诈视为犯罪,这些创新不仅是技术成就,也是社会必需品。OpenAI 以及微软和 Adobe 公司最近的措施强调了确保数字时代真实性的集体努力。虽然这些工具已经升级,以提供更高的真实性,但它们的有效实施取决于广泛的应用。这不仅涉及到科技巨头,还涉及到内容创作者、社交媒体平台和终端用户。

随着生成人工智能的快速发展,探测器仍然难以区分文本、图像和音频的真实性。目前,人类的判断和警惕是我们避免滥用人工智能的最佳防线。然而,人类并不是绝对正确的。长期的解决方案需要技术领导人、立法者和公众共同探索这个复杂的新领域。

小喵今天报道,感谢阅读,关注我们下次再见!

相关推荐