“在某些时候,你必须想知道这个错误是否是一个功能。”
—Alexios Mantzarlis,康奈尔科技公司安全、信任和安全计划主任,思考 xAI 和 Grok 倾向于暴露埃隆·马斯克友好和/或极右来源, 华盛顿邮报 报告。
还有一件事
人工智能实验室针对剥削性人工智能发动游击战
早在 2022 年,科技界就对图像生成 AI 模型热议不已,例如 Midjourney、Stable Diffusion 和 OpenAI 的 DALL-E 2,这些模型可以按照简单的文字提示来描绘幻想世界或由牛油果制成的异想天开的椅子。
但艺术家们将这一技术奇迹视为一种新的盗窃行为。他们认为这些模型实际上窃取并取代了他们的工作成果。
芝加哥大学计算机安全研究员本·赵正在听。他和他的同事们打造了可以说是艺术家武器库中最重要的武器,以对抗非自愿的人工智能抓取:两种名为 Glaze 和 Nightshade 的工具,它们会给图像的像素添加几乎难以察觉的扰动,从而使机器学习模型无法正确读取它们。
但赵认为这些工具是一场战斗的一部分,旨在慢慢地将权力平衡从大公司倾斜回个人创作者手中。 阅读完整的故事。
—梅丽莎·海基拉
我们仍然可以拥有美好的事物
一个舒适、有趣、分散注意力的地方,让您的一天充满活力。 (有什么想法吗? 给我留言 或者 双向飞碟瞄准我.)
+ 如果您曾经想尝试重新创建一个 杰克逊·波洛克绘画,也许你最好把它留给孩子们。
+ 科学家发现狮子不是一个,而是两个 不同类型的咆哮 🦁
+ 的不断崛起 四分之一拉链 必须停止!
+ 皱起眉头:这是一个简短的历史 接吻 💋

