随着人工智能像野火一样在商业世界中蔓延,人工智能所依赖的数据对于企业来说变得越来越重要。
从隐私和安全到道德问题和培训偏见,与数据相关的人工智能考虑因素的范围非常广泛,而且越来越广泛。 对于许多企业来说,这意味着重新思考政策和实践,即使他们尚未在组织内正式采用人工智能技术。
Check Point 首席技术官多里特·多尔 (Dorit Dor) 表示,公司并没有意识到其组织内已经将多少内部数据用于人工智能工具。 财富头脑风暴科技 本周在犹他州鹿谷举行的会议。 “他们的数据和信息已经在那里了,”她说。
Dor 加入 PagerDuty 的高管队伍, 销售队伍、和 Signal 在会议的小组小组讨论中分享他们对人工智能时代数据主题的观点和经验。
当员工尝试使用 ChatGPT 等工具时,他们会将内部数据输入人工智能工具。 这意味着公司面临严重的数据泄露问题,可能会损害专有竞争信息以及个人客户数据。 Salesforce 人工智能业务首席执行官 Clara Shih 在谈到各公司员工使用的一些人工智能工具时表示:“传统企业期望安全数据库并没有那么清晰的分离。”
Shih 解释了为生成式人工智能工具提供动力的大型语言模型如何需要用户提供尽可能多的上下文,以便产生最相关和最准确的响应。 “如果您不小心构建它,默认情况下,您提供给提示的上下文最终会被模型本身学习。”
PagerDuty 的首席产品开发官 Sean Scott 也表达了同样的担忧,但表示这一切都与遵循安全最佳实践有关。
“首先是你的政策是什么? 你的皇冠上的宝石是什么? 您想保护什么数据? 你想确保哪些数据受到超级保护?”然后对员工进行教育和监控以确保政策得到遵守,斯科特说。
防范神秘模型数据
虽然保护内部数据免遭泄露至关重要,但公司还必须努力解决其获取的外部数据的质量问题。 Signal 总裁梅雷迪思·惠特克 (Meredith Whittaker) 表示,大多数现成的人工智能大型语言模型都是黑匣子。 “他们知道数据是什么,但你不知道数据是什么,”她说。
由于神秘数据,想要将这些人工智能工具应用到运营中的公司面临着获得不正确或令人反感的结果的风险。
惠特克说:“我们能做的就是在此基础上进行微调,使用一些其他数据可能会将模型转变为适合某个领域的形状,或者更适合某些用途,或者不那么具有攻击性。” “但我认为我们需要清楚地认识到这些问题缺乏代理机构。”
身为美国联邦贸易委员会顾问的惠特克呼吁加强监管,切断有问题的数据流,并限制进入“血液”的数据。
Check Point 的多尔警告说,监管只是一个开始。 “监管只会提高最低要求,永远不会让你进入真正安全的空间,”多尔说。
与此同时,多尔表示,人工智能时代处理数据的大部分负担都落在了公司本已负担过重的首席信息安全官的肩上。
“CISO 之前已经筋疲力尽,现在他们突然承担了这项任务,其中有许多他们不太了解的要素,比如所有法律方面。”