重点是人 保险公司的员工经常看到人工

Learn, share, and connect around europe dataset solutions.
Post Reply
suchona.kani.z
Posts: 272
Joined: Sat Dec 21, 2024 5:42 am

重点是人 保险公司的员工经常看到人工

Post by suchona.kani.z »

几乎没有公司敢在核心流程中使用人工智能。我感觉到这里的决策者非常不情愿。但为什么?

当我与决策者谈论这个问题时,他们的问题可以分为三个主题领域:

1. 法规:作为保险公司,您可以做什么?有哪些法律以及情况有多稳定?公司必须做什么才能以合法合规的方式使用人工智能?
2. 员工:员工对人工智能有何反应?他们会接受还是抵制?他们有什么恐惧和愿望?
3. 客户:客户期望什么?他们会接受人工智能还是会撤销对我们的信任?
TrustworthAI 作为一种方法
在这里,我建议我的客户考虑 TrustworthyAI 框架。它是由国际电信联盟(ITU)作为 AI for Good 计划的一部分开发的,并不是来自特定制造商的软件,而是一种构建工具包。这包括高度监管环境中的人工智能、信任和安全要求或员工和客户的需求等主题。这非常符合保险公司的要求。

智能在其领域的巨大潜力。但与此同时,他们对这项技术持 居住者名单 怀疑态度,因为这项技术对他们来说似乎是匿名且不透明的。

我很能理解这一点。使用人工智能通常与使用经典系统有根本的不同。当然,还有人工智能在后台对字母进行排序,你几乎没有注意到,但与人工智能的交互更像是与同事的交互。人工智能直接支持和建议、提出建议、帮助、启发、回应批评或纠正人类的工作。人工智能的展示可以在这里提供帮助。 AI有名字吗?她有声音、有个性吗?如果 Alexa 和 Siri 没有名字或机器人声音,它们可能不会那么成功。也许人工智能也有一个代表自己的化身。

员工必须能够信任人工智能,无论是在结果方面,还是在人工智能并不是要取代他们,而是为了支持他们这一事实方面。因为情况恰恰相反:在核心流程中使用此类工具需要新的角色和能力。好奇和技术开放的员工在这里可以发挥倍增器的作用。

数据作为资源
人工智能模型使用数据,这是它们的基础。过去,保险公司经常将所有可用数据打包到数据仓库中,并希望使用它的专业部门能够选择正确的数据。这种人工智能方法是可行的,但很危险。如果人工智能学到了错误的东西并且没有正确分类和解释数据,会发生什么?如果她得出的结论并了解到法律禁止的规则怎么办?

专业部门的员工可以充当数据管理员,负责数据的编目和质量。与经典应用相比,人工智能支持的流程往往变化更快,这也为员工创造了持续学习和成长的环境。
Post Reply