在 财富最具影响力女性峰会 周二, 人工智能领导者 从 埃森哲, 销售人员,彭博贝塔谈到了为什么许多 女性不使用这项技术,以及如何做到这一点 加剧偏见 数据内。风险投资公司 Bloomberg Beta 的创始合伙人卡琳·克莱因 (Karin Klein) 表示,她读到,女性 可能性降低 20% 在工作中使用 ChatGPT,这种差距可能会更大。这是因为他们在使用该技术时犹豫不决,意识到该技术对他们存在偏见,并且 不信任其影响。 他们正在跳下人工智能列车。
但克莱因说 女性不应该忽视人工智能 如此之快——以目前的规模和集成速度,技术正在不断变化。 “你不能只尝试一次就说,‘哦,我明白了’,或者‘这对我不起作用’,或者‘猜测 什么,它给了我不好的结果。好吧,六个月后再试一次。或许你会得到更好的结果。”
克莱因希望女性在自己的时间测试人工智能,并将专业知识和有用的实用工具(例如撰写电子邮件和安排会议)带到她们的工作中。她承认,是的,有 潜在危险 不仅可以使用这些工具,而且还有很多利用它们的方法。如果女人不这样做 加入人工智能潮流,他们会 跟不上 他们的男性同龄人。
“我不希望女性或任何社区被抛在后面,因为我们总是听到风险而不是机会,”克莱因说。
埃森哲首席人工智能官关兰也表达了同样的观点。
“每个女性都需要成为人工智能的早期采用者,参与这场人工智能运动,”关说。 “一开始会有很多恐惧,每个企业领导者都有责任进行这种基层支持,使公司内的每个人都能使用安全且值得信赖的人工智能工具,因为眼见为实。”
但关说,除了高管带头之外,女性还需要独立抓住时机。她建议女性不仅要成为人工智能的早期采用者,还要成为 GenAI 运动的推动者。
如果他们不这样做,就会面临很大的风险。关回忆起一个聊天机器人的例子,假设当一名女性承担新角色时,她将成为一名家庭主妇,而当被问及一名男性的新工作时,他将成为一名财务负责人。人工智能训练的数据集存在偏见,并产生了性别歧视的结果——但随着更多女性的加入,改变的可能性是存在的 领先的人工智能创建和测试。
关说:“如果我们不从我们每个人做起,在使人工智能变得公正方面发挥积极作用,那么这种问题将永远不会消失。”
Salesforce 首席道德和人道使用官 Paula Goldman 对此表示同意。她说 代表性不足的群体需要 成为人工智能流程的一部分,她的公司一直在雇用不同的员工来打破和改变他们的技术模型。他们正在测试、指导人工智能并提供反馈,这有助于识别工具中的任何偏见或弱点。如果没有他们的输入,人工智能将继续沿着同样的道路前进。
“使用人工智能系统的反馈确实改变了它的轨迹,”高盛说。