对人类的信任甚至比对人工智能的信任还要大

Explore discuss data innovations to drive business efficiency forward.
Post Reply
suchona.kani.z
Posts: 245
Joined: Sat Dec 21, 2024 5:38 am

对人类的信任甚至比对人工智能的信任还要大

Post by suchona.kani.z »

与其他行业相比,保险有其特殊性。保险是一种无形的、无形的产品,绝对需要解释。作为定期保费的回报,被保险人在发生确定的损失事件时可以获得保护,这样他们就不会陷入财务困境。保险是投保人和被保险人之间的一种保障承诺。通过风险转移,客户方面的信任发挥着巨大作用,因为保单持有人依赖于保护承诺,因此依赖于保险在索赔时的表现。拒绝支付索赔对于许多被保险人来说可能意味着经济损失。那么,对于这样一种情感和信任依赖的产品,为什么要让机器而不是人类做出会带来致命后果的决定呢?保险公司看到了使用人工智能的优势,特别是在节省成本和时间方面。机器可以为人们提供支持,并占用他们的时间,根据多个变量提供建议,并识别乍一看可能并不明显的联系。与此同时,人类可以专注于复杂的个体案例,并接管人类明显优于机器的东西:通信。尤其是在索赔领域,往往需要同理心和同理心。

广泛的监管阻碍了保险业,但可解释的人工智能可以提供帮助
但在保险模型框架内广泛使用人工智能应用之前,存在一 房车所有者营销列表 个大的监管问题。德国保险业是世界上监管最严格的市场之一,这一事实一再给该行业带来重大挑战,包括在人工智能的使用方面。可能的人工智能应用的监管框架目前仍不清楚。尽管联邦金融监管局(BaFin)已经认识到人工智能对整个金融行业的重要性,并在各种研究和交流中对此进行了评论,但重要的监管问题仍然悬而未决。

不过BaFin明确了一点:受监管的模型不接受黑盒应用。应用程序如何实现其结果必须是可以理解的,并且该决策过程必须是透明可沟通的,尤其是对于客户而言。可解释的人工智能(XAI)是一种使这成为可能的方法论。 XAI 的目标是解释人工智能已经做了什么、当前正在做什么以及下一步将做什么,以便揭示有关操作的所有信息并使解决方案易于理解。简而言之,XAI 是关于使用人工智能时的最大透明度。然而,可解释的人工智能不仅对监管或最终客户有用,而且还可以通过识别客户旅程中的优化潜力来改善用户体验。但无论是黑匣子还是XAI,AI的使用都代表着对现有商业模式、数据使用的自我形象以及员工工作的非常深入的切入。

然而,对人工智能的积极看法表明,它减轻了员工的日常工作。特别是,重复性活动和标准案例可以外包给人工智能,这让员工有更多时间进行复杂且情绪化的业务交易。然而,人们仍然担心它们最终会变得多余并被机器取代。仅仅可解释的人工智能在这里并没有帮助。公司和员工文化的这些深刻变革必须积极主动地发起。首先,应始终澄清人工智能一词本身和一些基本问题:

我们希望通过人工智能实现什么目标?
人工智能对我们意味着什么?
我们将使用哪些方法来做什么?
AI可以帮助我们解决哪些问题?
人工智能应用的边界/限制是什么?
这些选定问题的透明和诚实的沟通是成功实施人工智能应用程序的基础,涉及所有员工的专业变革过程可以在以下步骤中激发关于人工智能主题的公开讨论,并为其确定人工智能应用程序做出巨大贡献。正确的、可扩展的应用领域。必须清楚地了解使用人工智能可以获得的附加值。在某些领域取得的初步成功提高了操作接受度,并为其他领域的后续应用打开了大门。
Post Reply