正如软件工程师使用人工智能来帮助编写代码和检查错误一样,黑客也使用这些工具来减少策划攻击所需的时间和精力,从而降低经验不足的攻击者尝试某些东西的障碍。
硅谷的一些人警告说,人工智能即将能够进行全自动攻击。但大多数安全研究人员反而认为,我们应该更加密切地关注人工智能带来的更直接的风险,因为人工智能已经在加速并增加诈骗数量。
犯罪分子越来越多地利用最新的深度造假技术来冒充他人并诈骗受害者大量金钱。我们需要为接下来发生的事情做好准备。 阅读完整的故事。
——雷安农·威廉姆斯
这个故事来自下一期印刷版 麻省理工科技评论 杂志,全是关于犯罪的。如果你还没有, 立即订阅 以便在未来的问题落地后收到。
安全的人工智能助手可能吗?
人工智能代理是一项有风险的业务。即使被困在聊天框窗口中,法学硕士也会犯错误并且表现不佳。一旦他们拥有了可用于与外界交互的工具(例如网络浏览器和电子邮件地址),这些错误的后果就会变得更加严重。
病毒式 AI 代理项目 OpenClaw 最近几周成为世界各地的头条新闻,它利用现有的法学硕士让用户创建自己的定制助手。对于某些用户来说,这意味着移交大量个人数据,从多年的电子邮件到硬盘的内容。这让安全专家彻底惊慌失措。
针对这些担忧,其创建者警告非技术人员不应使用该软件。但人们对 OpenClaw 所提供的服务有着明显的兴趣,任何希望进入个人助理业务的人工智能公司都需要弄清楚如何构建一个能够保证用户数据安全的系统。为此,他们需要借鉴代理安全研究的前沿方法。 阅读完整的故事。
——格蕾丝·哈金斯

