南城 3 2026-02-09 19:39:06
登录新浪财经APP 搜索【信披】查看更多考评等级
南方财经全媒体记者 林汉垚 实习生 徐若萱
国家金融监督管理总局最新披露的数据显示 ,2025年保险业原保险保费收入首次突破6万亿元大关 。与此同时,与之配套的数字化服务正在经历一场由生成式AI引领的供给侧改革。
中国保险行业协会此前发布的《中国保险业社会责任报告(2024)》显示,保险业正加快数字化转型 ,2024年AI坐席服务量已达9.37亿次。行业数智化进程正在从“效率工具”向“决策辅助 ”跨越 。保险消费者对复杂保单的解构需求日益增长,利用生成式人工智能(AIGC)进行保单分析、核保咨询及方案规划逐渐成为新趋势。
近期,21世纪经济报道记者以普通消费者身份 ,针对百万医疗险条款、家庭保障设计及复杂健康告知等真实场景,对DeepSeek 、腾讯元宝、通义千问、Kimi 、豆包等国产主流大模型进行了实测。
测试结果显示,大模型在“条款解读”方面表现卓越 ,能将长达万字的保险合同精准提炼为易读的免责清单,极大地降低了消费者的阅读门槛 。
但在专业深度层面,大模型分析仍存偏差。北京大学应用经济学博士后朱俊生教授指出 ,AI目前更适合作为前端知识工具和辅助决策支持系统,而非独立的保险咨询或销售主体。
可降低消费者认知门槛
保险条款的晦涩繁琐,长期以来是引发理赔纠纷的底层诱因 。
在“条款解读”测试中,记者上传了一份百万医疗险保单 ,要求模型提取免责条款并进行“白话翻译 ”。测评发现,以DeepSeek和Kimi为代表的模型在处理长文本合同方面表现突出。
DeepSeek精准定位了条款第2.10节,并将其拆解为疾病不赔、行为不赔、费用不赔三大类 。该模型特别指出了“先天或遗传病不赔”这一共性特征 ,并在分析中识别出合同中关于“重大既往症”在续保期内的特殊赔付规则。
Kimi则通过提炼“先 、故、美、生 、牙、高、战、试 、挂”的八字口诀,将先天疾病、故意伤害、美容 、生育等八类不赔情况形象化,显著降低了消费者的记忆成本。这种从“法律文本 ”到“服务语言”的转换 ,直接触达了消费者“看不懂条款”的痛点。
腾讯元宝在语义转换中更强调结构化引导,采用了“一句话核心总结+分类明细+对比表格 ”的呈现方式 。针对“重大既往症”这一极易产生理赔误区的条款,该模型明确解释了“首年不赔、满一年后限额赔付”的特殊规则。
豆包模型则倾向于提供软性的交互建议 ,如整理投保避坑自查清单,强化了消费者保护的工具属性。
朱俊生分析认为,从当前技术成熟度和实际应用效果看 ,AI在保险领域最稳定、最具可复制价值的能力,主要集中在“标准化知识服务 ”层面 。其对保险基础概念 、条款结构和责任边界的解释能力较为可靠,能够基于公开文本进行快速、系统的整理与说明。
初步具备个性化思维
在“家庭保障方案设计”测试中,记者设定了“家庭年总收入30万、房贷压力 、新生儿家庭”的场景。测评显示 ,国产大模型已告别“千人一面 ”的固定模板,表现出较强的个性化配置思维 。
豆包给出了家庭保障方案的三条核心优先级逻辑,如 ,先保经济支柱,再保其他成员;先保健康风险,再保责任/意外风险;保障额度贴合家庭负债。
通义千问在方案中同样明确提出了“先保人再保钱 ,先大人后小孩”的优先级逻辑,并建议通过高保额的定期寿险覆盖房贷缺口,而非盲目推荐高保费的储蓄险。
DeepSeek则给出了详细的预算分配建议 ,将总保费控制在家庭年收入的5%左右,并针对经济支柱与照料者进行了差异化保额设定 。
(豆包回复)
朱俊生指出,在方案层面 ,AI可以帮助用户完成需求梳理与框架性提示,如区分保障优先级、提示常见保障组合思路。同时在理赔材料清单、常见核保问答等流程性问题上,AI的信息整合效率明显高于人工咨询。
然而,AI在保险咨询中仍存在局限 。“保险咨询并非纯信息服务 ,其背后关联长期保障 、家庭风险乃至重大财务后果。”朱俊生强调,AI目前无法对错误建议承担责任,也无法进行事后修正与跟踪 ,这从根本上决定了其只能是“辅助者 ”,而非“顾问主体”。
场景精算与核保精度仍存偏差
在涉及增额终身寿险等长期储蓄型产品的“精算模拟”环节,模型在处理复利与资金时间价值时稳定性不足。针对“增额终身寿险60岁时IRR测算”的提问 ,各模型结果出现明显波动,介于2.65%至2.93%之间 。
Kimi指出,由于资金是分期投入且存在时间成本 ,虽然保单现价按3%增长,但实际IRR约为2.68%。通义千问测算的IRR则为2.85%,理由是模型假定了特定的现金价值终值。
(通义千问Qwen回复)
这种计算偏差反映出通用模型在未接入保险公司即时现金价值表的情况下 ,主要依靠概率推算而非精算引擎 。AI目前的计算结果仅能作为数量级参考,无法替代正式的利益演示表。
核保咨询深度不足同样制约了AI在垂直场景的渗透。在“核保员 ”评测环节,记者模拟了“甲状腺结节术后”及“早产儿投保”等非标体咨询场景 。DeepSeek详细列出了甲状腺核保所需的材料清单,并给出了“除外承保 ”的概率性预测。豆包则细化了早产儿的核保时机 ,建议胎龄小于34周的孩子在3岁后通过评估再行申请。但大多数模型在面对个体化体检异常时,给出的建议仍偏向于“标准结论”的堆砌,缺乏对各险企核保尺度实时动态的把握 。
(KIMI回复)
朱俊生指出 ,当前AI并不具备真实核保权,也无法掌握完整、真实的医学与风险评估信息,其判断只能停留在“规则复述”或“概率性推测 ”。他同时提醒 ,保险高度依赖个人健康状况、职业风险、家庭结构和长期财务目标,而这些信息既高度个性化,也存在大量非结构化细节。AI在此类场景中 ,容易给出“看似合理但并不适配”的建议 。
仍难替代专业决策
在法律压力测试环节,记者询问“隐瞒病史能否利用两年不可抗辩条款获赔”。五款模型均展现出了极高的合规敏锐度,对恶意骗保行为亮出“红灯 ”。
腾讯元宝明确指出“保险公司查不到是致命错觉” ,并详述了理赔调查在医保记录 、同业共享平台等维度的穿透力。DeepSeek和通义千问解析了《保险法》第十六条的真实含义,强调“两年的起算点是合同成立日,但截止点是保险事故发生之日” 。这种对司法实践中“恶意投保 ”判罚逻辑的准确传达,体现了国产大模型在处理复杂法律条款时的进步。
(Deepseek回复)
然而 ,在产品推荐环节,算法的合规边界仍有待厘清。多数模型拒绝直接给出排名 。例如,腾讯元宝坚持不给出具体产品名称 ,认为“不存在对所有人都通用的‘性价比最高’的产品”,建议消费者通过专业经纪人进行多渠道核保。
(腾讯元宝回复)
但记者观察发现,当用户直接索要具体产品推荐时 ,部分大模型联网搜索功能会基于网络信息展示特定产品。此类行为是否构成变相广告或商业引导?
朱俊生教授对此给出了关键区分:“关键在于生成逻辑是否中立、信息来源是否透明 。”如果回答基于基于公开网络信息、搜索排序或训练数据中既有的内容分布而非商业利益绑定,更接近信息再呈现,而非传统意义上的广告行为。但机制对消费者不透明 ,易被误解为专业背书。因此,风险并非来自AI“有意推销”,而是来自用户对其权威性的高估 。
此外 ,数据的时效性也是制约AI发挥的关键。2025年后,随着第四套生命表的实施及保险产品预定利率的动态调整,部分模型引用的产品费率仍停留在历史库中,导致其给出的部分信息存在滞后。这种数据缺位不仅削弱了AI的参考价值 ,更可能误导消费者的财务规划 。
朱俊生建议消费者在使用AI辅助投保时,至少应注意三点:一是将AI视为信息工具,而非责任主体;二是对具体产品结论保持交叉验证;三是避免在缺乏充分个人信息披露和人工核验的情况下 ,直接依据AI建议作出购买决策。消费者在使用AI辅助投保时保持“双重防线 ”。AI建议不能替代法律意义上的“如实告知”,投保决策仍需回归保单原件。
AI大模型的介入,理应成为填补信息不对称的桥梁 ,而非制造新信息烟雾的源头 。此次测评显示,在保险领域AI能极大提升“知情权”的效率,但在涉及“决策权 ”的深水区 ,AI仍无法替代专业人工。
展望未来,朱俊生指出,AI正在改变保险信息的“获取方式” ,但尚未改变保险决策的“责任归属”。目前它更适合成为消费者理解保险的“起点 ”,而非替代专业判断的“终点” 。
发表评论
暂时没有评论,来抢沙发吧~