ChatGPT是人工智能发展的又一个节点,因为它说明了人工智能的对话模型可以在大范围、更细颗粒度的问题回答上基本不犯错。
所以在强逻辑问题上它的知识盲区更少。即使ChatGPT一开始的回答有明显漏洞,它可以在一次次的回答中给出更好的答案。如果提问者能够在问题中增加更多条件、把意图描述的更清楚,ChatGPT的这些优点是因为它积累“经验”的速度和数量是人类无法企及的,对它的训练更偏重逻辑性,除此之外,
我们向ChatGPT提了100个保险相关的问题,包括保险观念类、投保方法类、保险产品类、行业问题类等,以开放性问题为主,包括诸如“结节怎么买保险”这样的细节问题。总的来说,作为一个机器人,在没有经历过细颗粒度保险知识训练的条件下,ChatGPT现在的表现可以算挺强大了。
首先总结一下这100个问题回答的结果。100个问题中,有近20个问题的回答有明显的错误或者ChatGPT无法回答;有8个问题的回答是我们认为比较全面、比很多保险从业者回答得更好的;剩下的回答不能算错,但不够全面或不够好。也就是说,在大多数情况下,ChatGPT对保险问题的回答至少是比较稳妥的。
接着,我们补充了关于问题目的的描述,整个问题变成了“如何用保险保全婚内财产,以保证离婚时财产不会全部被分走?”,经过四五次反复提问后,ChatGPT的回答明显更接近我们的预期了,这一方面说明它对问题意图的感知较强而且可以根据意图的调整给出更匹配的回答,另一方
ChatGPT可以和人类轻松地对话,与一般机器人相比,它的优点在于可以回答开放性的、甚至奇怪的问题,包括给人类灌点心灵鸡汤,整个回答的逻辑基本是完整的。ChatGPT回答的准确性明显更强,可以连续回答问题,并且会主动承认错误和无法回答的问题,对人类提问意图的感知更强。
上周四,美国人工智能公司OpenAI发布了一款聊天机器人ChatGPT,瞬间引爆社交网络。我们也试着向ChatGPT提了一些问题,确实很上头。
保险业也研发了不少机器人,例如核保机器人、理赔机器人、客服机器人等。和这些机器人比起来,ChatGPT的功能性怎么样呢?
总结起来,ChatGPT在回答强逻辑性问题时表现更好,甚至可以好于一般的人类。例如,我们提了一个问题“保险公司经营有哪些风险?”,ChatGPT的回答如下图,虽然只是“点到为止”,没有展开进行更详细、有理有据的论述,但对于通用型机器人来说,这个回答的完整度还是可以的。
对于某些问题,ChatGPT的回答虽然不完善,但可以给人类提供一些新思路。关于“保险代理人制度有哪些问题”,一般人会回答代理人专业水平差、金字塔结构等,而ChatGPT更多考虑的是保险公司和代理人之间的生产关系矛盾。
我们提了一个问题,如何用保险保全婚内财产,目的是了解如何在离婚时尽量保证个人财富,但因为这句简单的表述不甚清楚,ChatGPT最开始的回答是关于房屋、家具等家财险的保护,和我们的期望差距有点大。