人工智能 (AI) 两极分化。 它使未来主义者兴奋,并使保守派感到恐惧。 在我之前的帖子中,我描述了判别式人工智能和生成式人工智能的不同能力,并描绘了一个充满机遇的世界,在这个世界中,人工智能改变了保险公司和被保险人的互动方式。 本博客继续讨论,现在调查采用人工智能的风险,并提出安全和明智地应对采用人工智能的措施。
人工智能的风险和局限性
与在保险中采用人工智能相关的风险可以大致分为两类——技术和使用。
技术风险——数据保密
主要的技术风险是数据保密问题。 人工智能的发展使得信息的收集、存储和处理达到前所未有的规模,个人数据的识别、分析和使用变得极其容易,无需他人同意,成本低廉。 与人工智能技术交互所带来的隐私泄露风险是消费者担忧和不信任的主要原因。
的来临 生成式人工智能,其中 AI 操纵您的数据以创建新内容,这为公司数据机密性带来了额外的风险。 例如,为 Chat GPT 等生成式 AI 系统提供企业数据以生成机密企业研究摘要,这意味着数据足迹将不可磨灭地留在 AI 的外部云服务器上,并可供竞争对手查询访问。
技术风险——安全
人工智能算法是优化训练数据的参数,使人工智能能够提供洞察力。 如果算法参数泄露,第三方可能会复制模型,给模型所有者造成经济和知识产权损失。 此外,如果人工智能算法模型的参数可能被网络攻击者非法修改,将导致人工智能模型性能下降,导致不良后果。
技术风险——透明度
人工智能系统,尤其是生成式人工智能的黑盒特性,使得人工智能算法的决策过程难以理解。 至关重要的是,保险业是一个受金融监管的行业,算法的透明度、可解释性和可审计性对监管机构至关重要。
使用风险——不准确
人工智能系统的性能在很大程度上取决于它从中学习的数据。 如果人工智能系统是根据不准确、有偏见或剽窃的数据进行训练,即使它在技术上设计得很好,也会产生不良结果。
使用风险——滥用
尽管人工智能系统可能在其分析、决策、协调和其他活动中正确运行,但它仍然存在被滥用的风险。 经营者的使用目的、使用方法、使用范围等不得歪曲或偏离,并有意造成不良影响的。 这方面的一个例子是面部识别被用于非法跟踪人们的活动。
使用风险——过度依赖
当用户开始接受不正确的 AI 推荐时,就会出现对 AI 的过度依赖——从而导致佣金错误。 用户很难确定适当的信任级别,因为他们缺乏对 AI 可以做什么、它的性能如何或它如何工作的认识。 这种风险的必然结果是人工智能用户的技能发展减弱。 例如,理赔员处理新情况或考虑多种观点的能力下降或仅限于 AI 也可以访问的情况。
减轻人工智能风险
采用 AI 带来的风险凸显了制定治理方法以减轻采用 AI 带来的技术和使用风险的必要性。
以人为本的治理
为了降低使用风险,提出了一种三管齐下的方法:
- 从培训计划开始,为参与开发、选择或使用人工智能工具的员工建立强制意识,以确保符合预期。
- 然后执行供应商评估计划,以评估供应商控制的稳健性,并确保在合同中规定适当的透明度。
- 最后,建立政策执行措施,以设定跨 AI 开发生命周期的规范、角色和责任、审批流程和维护指南。
以技术为中心的治理
为减轻技术风险,应扩展 IT 治理以解决以下问题:
- 扩展的数据和系统分类法。 这是为了确保 AI 模型捕获数据输入和使用模式、所需的验证和测试周期以及预期输出。 您应该在内部服务器上托管模型。
- 风险登记册,用于量化影响程度、脆弱程度和监控协议的范围。
- 扩大分析和测试策略,定期执行测试以监控与 AI 系统输入、输出和模型组件相关的风险问题。
保险业中的人工智能——严格且不可避免
人工智能在保险领域的前景和潜力在于它能够从越来越大、越来越复杂的精算和理赔数据集中获得新颖的见解。 这些数据集与行为和生态数据相结合,为人工智能系统查询数据库以得出错误的数据推断创造了潜力,预示着现实世界的保险后果。
高效准确的 AI 需要严谨的数据科学。 它需要仔细管理数据库中的知识表示,分解数据矩阵以降低维度,并对数据集进行预处理以减轻丢失、冗余和离群数据的混杂影响。 保险 AI 用户必须意识到输入数据质量限制对保险有影响,可能会降低精算分析模型的准确性。
随着人工智能技术的不断成熟和用例的扩大,保险公司不应回避这项技术。 但是保险公司应该将他们在保险领域的专业知识贡献给人工智能技术的开发。 他们告知输入数据来源的能力和 确保数据质量 将有助于人工智能在保险业的安全和可控应用。
当您踏上保险领域的 AI 之旅时,探索和创建保险案例。 最重要的是,实施强大的人工智能治理计划。