您正在制作一杯冰沙供您的朋友享用。 您的朋友 Ruchir 已经与各种水果和酸奶混合在一起,带来了一个熟透的苹果,并将其交给您,以完成您的清爽杰作。 现在完成了,在倒饮料时你几乎还能闻到苹果的味道。 在你喝第一口之前,鲁奇尔说:“我改变了主意,我需要离开,并希望拿回我的苹果。” 你回答说:“啊,对不起,但那是不可能的。” 我们稍后会回到这个故事并解释它与 聊天GPT 和值得信赖的人工智能。
正如世界上 人工智能 (人工智能)不断发展,新工具如 开放人工智能 ChatGPT 因其对话功能而受到关注。 尽管如此,我也理解在我们的组织中直接采用它之前评估固有风险的重要性。 在本次讨论中,我探讨了企业环境中与 ChatGPT 相关的风险和挑战,因此需要采取谨慎的实施方法。 此外,我将强调采用 IBM 的重要性 沃森克斯 为了确保 值得信赖的人工智能 解决方案。 当有疑问时,我建议您使用在使用新的互联网服务时一直使用的相同常识。
人工智能工具的演变
ChatGPT 利用巨大的力量 GPT-3 和 GPT-4,属于一个 新班级 各种人工智能应用中使用的“庞大”且广泛流行的大型语言模型。 借助 ChatGPT,用户可以提出问题、生成文本、起草电子邮件、讨论不同编程语言的代码、将自然语言翻译为代码等等。 它是一个高质量的会话聊天机器人,旨在提供连贯且上下文感知的响应。
ChatGPT 是探索创意写作、产生想法以及与人工智能互动的绝佳工具。 它免费供所有人使用,并提供更高级的版本 聊天GPT Plus 订户。 聊天机器人记住以前对话的能力增加了其互动和引人入胜的体验。
虽然 ChatGPT 获得了极大的关注和普及,但它面临着来自其他人工智能聊天机器人和 自然语言处理 (自然语言处理)系统。 以谷歌为例,它开发了 诗人,其人工智能聊天机器人,由其自己的语言引擎(称为 帕LM 2。 同样,Meta 最近发布了令人印象深刻的 LLaMA2模型。 随着人工智能聊天机器人领域的不断发展,竞争肯定会加剧,新玩家也会出现。 必须及时了解该领域的最新进展,以探索满足企业需求的最佳解决方案。
为什么不在企业中直接使用ChatGPT?
直接使用 ChatGPT在企业中带来风险和挑战。 其中包括安全和数据泄露、保密和责任问题、知识产权复杂性、开源许可合规性、人工智能开发限制以及不确定的隐私和国际法合规性。 在这里,我探讨这些风险并分享示例,说明这些风险如何在您的日常企业活动中体现。
我将首先研究旨在减轻与直接使用 ChatGPT 相关的风险的替代解决方案,包括 IBM沃森克斯, 我确实建议企业使用它,因为它通过严格的管理和治理解决了数据所有权和隐私问题。 我保证,我将通过带您回到冰沙故事来结束本次对话,但是当我在下面提到“您的数据”时,请随意用“您的苹果”代替该短语。
在探索替代解决方案之前,公司必须注意直接使用 ChatGPT 带来的潜在风险和挑战。 作为一个常识提醒,互联网的历史已经展示了新服务(例如,谷歌搜索、社交媒体平台等)的出现和演变,这强调了企业中数据隐私和所有权的重要性。 考虑到这一点,应考虑以下关键因素:
安全与数据泄露
如果敏感的第三方或内部公司信息被输入 ChatGPT,它就会成为聊天机器人数据模型的一部分,并可能与提出相关问题的其他人共享。 这可能会导致数据泄露并违反组织的安全策略。
示例:您的团队正在帮助客户推出的新产品计划(包括机密规格和营销策略)不应与 ChatGPT 共享,以避免数据泄露和潜在安全漏洞的风险。
保密和隐私
与上述类似,共享机密客户或合作伙伴信息可能会违反保护此类信息的合同协议和法律要求。 如果 ChatGPT 的安全性受到损害,机密内容可能会泄露,可能会影响组织的声誉并使其承担责任。
示例:假设一家医疗机构使用 ChatGPT 来协助回复患者的询问。 如果与 ChatGPT 共享医疗记录或个人健康详细信息等机密患者信息,则可能会违反法律义务和受法律保护的患者隐私权,例如 健康保险流通与责任法案 (健康保险流通和责任法案)在美国。
知识产权问题
ChatGPT 生成的代码或文本的所有权可能很复杂。 服务条款规定输出属于输入的提供者,但当输出包含来自其他输入的受法律保护的数据时,可能会出现问题。 版权问题 如果 ChatGPT 用于生成基于版权财产的书面材料,也可能会出现这种情况。
示例:出于营销目的生成书面材料,并且输出包括未经适当归属或许可的外部来源的受版权保护的内容,这可能会侵犯原始内容创建者的知识产权。 这可能会给公司带来法律后果和声誉损害。
遵守开源许可证
如果 ChatGPT 使用开源库并将该代码合并到产品中,则可能会违反开源软件 (OSS) 许可证(例如, 通用公共许可证),导致组织的法律复杂化。
示例:如果一家公司利用 ChatGPT 为软件产品生成代码,并且用于训练 GPT 的训练数据的来源不清楚,则存在潜在违反与该代码相关的开源许可条款的风险。 这可能会导致法律复杂化,包括许可证侵权索赔和开源社区可能采取的法律行动。
人工智能发展的局限性
ChatGPT 的服务条款明确规定它不能用于其他人工智能系统的开发。 如果公司在该领域运营,以这种方式使用 ChatGPT 可能会阻碍未来的人工智能开发计划。
示例:一家专门从事语音识别技术的公司计划通过集成 ChatGPT 的自然语言处理功能来增强其现有系统。 然而,ChatGPT 的服务条款明确指出,它不能用于其他人工智能系统的开发。
通过 IBM watsonx 增强可信度
回到我们的冰沙故事,公共 ChatGPT 利用您的提示数据来增强其神经网络,就像苹果如何为冰沙添加风味一样。 一旦您的数据进入 ChatGPT,就像混合苹果一样,您将无法控制或了解它的使用方式。 因此,人们必须确定他们拥有包含他们的苹果的完整权利,并且可以这么说,它不包含敏感数据。
为了解决这些问题,IBM watsonx 提供了精心策划的透明数据和模型,为您的冰沙的创建和使用提供了更好的控制和信心。 简而言之,如果 Ruchir 要求归还他的苹果,watsonx 可以满足他的要求。 就这样吧…… 类比和故事完成。
IBM watsonx 引入了三个关键特性 – 沃森数据, 沃森x.ai, 和 Watsonx 治理 – 合作 以 OpenAI 模型中尚不存在的方式建立值得信赖的 AI。 这些功能对数据和人工智能模型进行管理和标记,确保来源和所有权详细信息的透明度。 他们还管理模型和数据,解决持续的漂移和偏差问题。 这种严格的方法有效地减轻了本文讨论的数据所有权和隐私问题。
IBM 已与 抱脸是一家开源公司,致力于创建模型生态系统。 两家公司都在利用 watsonx 功能,根据模型的功能和可信度来策划和认可模型。
与人工智能一起前进
在企业内直接使用 ChatGPT 等人工智能聊天机器人会带来与安全、数据泄露、机密性、责任、知识产权、合规性、人工智能开发限制和隐私相关的风险。 这些风险可能会给组织带来不利后果,包括声誉受损和代价高昂的法律纠纷。
为了减轻这些风险并建立值得信赖的 AI,IBM watsonx 作为推荐的解决方案应运而生。 它提供精选和标记的数据和人工智能模型,确保所有权和来源的透明度。 它解决了与偏见和漂移相关的问题,提供了额外的信任层。 IBM watsonx 在创新和负责任的 AI 使用之间取得了平衡。 此外,IBM 和 Hugging Face 之间的合作增强了模型生态系统。
虽然 watsonx 提供了增强的信任度和严谨性,但目前很少有模型可以与 ChatGPT 和 GPT 系列模型的广泛通用用途相匹配。 人工智能模型领域不断发展,并且有望持续改进。 为了确保最佳结果,了解模型的评级和训练方式至关重要。 这些知识有助于做出明智的决策,并允许组织选择最符合其需求和质量标准的模型。
通过采用 watsonx,组织可以拥抱人工智能的力量,同时保持对其数据的控制并确保遵守道德和法律标准。 他们可以保护自己的数据、知识产权并培养与利益相关者的信任,同时受益于精心策划的模型和增强的透明度。 当企业进入人工智能领域时,谨慎行事、探索解决方案并优先考虑值得信赖的人工智能至关重要。
IBM 不时邀请行业思想领袖分享他们对当前技术趋势的观点和见解。 本博文中的观点仅代表他们自己的观点,并不一定反映 IBM 的观点或策略。