学会新闻 专题报道 保险要闻 学术动态 海外保险 保险数据 地方保险
学会简介 学会章程 学会领导 理事会组成 组织架构 大事记
保险知识 保险案例 保险史话 法律法规 消费者问答
刊物 地方刊物 图书 文集 论文 课件
课题 征文 专题研究 保险史 奖学金 调查报告 教育培训
巨灾风险模型的核心理念就是通过生成大量的随机虚拟灾害事件来满足“大数定律”的使用条件,从而突破巨灾历史纪录数量有限所带来的困难,为定价提供依据。
巨灾风险 (Catastrophic risk)和常规风险非常不同。首先,巨灾一旦发生,就可能对生命财产造成特别巨大的破坏。一次正常的登陆台风就有可能在几小时之内造成上百亿元的经济损失。其次,巨灾发生的频率相当低。比如超级强台风或者8级以上地震发生的次数很少。巨灾的高损特性是刺激研究巨灾风险定价的动力,低频特性则是这类研究所面临的挑战。能否科学准确地对巨灾风险定价,是保险商能否立足于市场的关键之一。定价太低,承保人就会吃亏,太高则丧失了市场竞争力。对巨灾风险进行科学定价的需求催生了巨灾风险模型市场,并逐渐形成了今天全球价值几亿美元,拥有上千从业者的巨灾风险模型产业。
巨灾风险模型的核心理念就是通过生成大量的随机虚拟灾害事件来满足“大数定律”的使用条件,从而突破巨灾历史纪录数量有限所带来的困难,为定价提供依据。这些虚拟灾害事件的生成不是杂乱无章的,需要符合灾害的物理特点和统计特性,这样既在数量上充分体现“大数定律”,同时也具备真正的使用价值。比如阿姆斯公司的中国台风风险模型包含了将近2.5万个随机台风事件。这些虚拟事件既不能都在广东登陆也不能都在上海登陆,而是分布在沿着北方的朝鲜半岛一直到南方中越边境几千公里的海岸线上,有的地方密一些(比如广东),有的地方稀一些(比如山东)。此外这些虚拟事件既不能都是破坏力最大的超强台风,也不能都是破坏力最小的热带低气压。总之,这些随机事件的地理分布和形态分布要和过去历史上观测的统计结果大致吻合才行。
巨灾的种类有异,有台风有地震,发生的地点也不同。于是,巨灾模型的命名也就体现了这两方面的信息,比如欧洲冬季风暴模型、中国台风模型、美国飓风模型等等。尽管看上去千差万别,但这些模型都无外乎由三个主要的模块组成,即灾害模块、工程模块(也叫易损性模块)和金融模块。灾害模块模拟的是灾害的各种物理量,比如台风的风速、洪水的水深、地震的地面震动速度等等。工程模块主要是通过易损性曲线(也叫易损性方程)把巨灾的物理量和巨灾的破坏性联系起来。比如2米的洪水可能造成建筑物30%的破坏,3米的洪水就可能造成50%的破坏。易损性曲线的开发来自专家的经验公式、实验室的破坏试验以及客户的实际理赔数据。值得注意的是,同样的物理量未必一定会造成同样的破坏程度,破坏程度的大小不仅和建筑物的结构性质有关,而且本身就是一个随机过程,这就是巨灾模型的第二类不确定性。金融模块计算各种保险再保险结构,并输出相应的净保费和超溢曲线等最终结果。可见巨灾模型的开发是跨学科的复杂工程,需要来自自然科学、工程学、金融学和计算机学等多个领域的人才合作才行。
巨灾的发生是一个受概率支配的随机过程,就好像人们尽管知道抛100次硬币大概50次会正面朝上,然而并不能因此就预测下一次抛硬币一定是正面向上还是正面向下。这种巨灾事件是否会发生带来的不确定性,就是巨灾模型的第一类不确定性。在阿姆斯公司的模型中,第一类不确定性通过“泊松分布”来描述。“泊松分布”经常被用来描述单位时间内随机事件发生的次数,比如单位时间内自然灾害发生的次数等等。一旦巨灾发生,造成破坏的大小也是一个由概率支配的随机过程。这就是第二类不确定性。假设针对同样的一栋建筑物,同样规模的地震发生了无限多次,可能有10次建筑物发生了倒塌(建筑物发生100%破坏),有50次建筑没有倒而只发生了破损(40%的建筑物破坏),甚至有一次特别幸运建筑物完全没有受到破坏(0%的破坏),具体哪次会发生多大的破坏我们并不清楚,但可以算出平均值和方差。再打一个更直观的比方,假设建筑物的破坏由掷骰子来决定,有时候扔出一个30%,有时候扔出一个50%,如此等等,因为这完全是一个随机过程。在阿姆斯模型中,第二类不确定性通过“Beta分布”来描述。“Beta分布”的一个显著特点是它定义在从0-1的区间上,恰好对应建筑物从0%-100%的破坏率,因此不会出现破坏达到200%的不合理结果。第一类和第二类不确定性是巨灾的固有属性,是一种客观存在,不能避免,但可以尽量采用科学方法进行描述。在阿姆斯模型中,第一类和第二类不确定性表达出来就是模型结果中的事件频率(rate)和损失的标准方差。
还有一种不确定性,却是由于人为操作失误所导致,就是输入数据里包含大量错误数据——这是能够而且必须避免的。套用电影《鬼子来了》里的一句台词,“磨豆腐用的是豆子,加高粱出来的就不是豆腐,加得越多出来的就越不是豆腐”。这自然是一句笑话,但也很清楚地指明了输入数量和输出质量之间的关系。这种关系主要体现在两方面。首先是输入数据的地址质量。同一种灾害在不同地方发生的几率差别非常大。唐山建筑物面临的地震风险一定要比在上海高得多,因为唐山在华北地震带上,而上海境内从来没发生过4.8级以上的地震。在台风和洪水模型中,地理位置又与地势的高低以及地面粗糙度对风速的消减有关。其次是输入数据中对于标的工程性质描述的准确性和完备性。之前所提到的易损性曲线其实是一族曲线,其中每一根都代表了不同建筑特征的组合。比如钢筋混凝土的商务建筑有自己的一根易损性曲线(曲线A),木制单户民居有自己的一根易损性曲线(曲线B)。不同易损性曲线对于同样的灾害物理量(比如80米/秒的台风风速)体现出差别很大的易损性(曲线A的耐受度可能比B要高很多)。可想而知,如果标的数据的工程特性输错了,易损性曲线也就选错了,最后的结果也就不可能正确。再用大家关心的房价打个通俗的比方,比如给某处房子报价,结果朝阳弄成了朝阴,10层弄成了1层,200平米弄成了20平米,地址也从二环以内搞成了五环以外,几个“一字之差”的错误描述,最后导致的错误报价恐怕要差几百万不止。这听起来很荒唐,但在巨灾模型的使用中却是实实在在发生的例子。比如把440米的帝国大厦输入为木制结构,这就导致了地震风险价格高好几倍。正所谓“失之毫厘,谬以千里”,巨灾模型公司都是提高输入数据质量的积极呼吁者,而且现在很多巨灾模型的用户也在实践中越来越意识到输入数据质量的重要意义。
巨灾模型需要处理成千上万的地址,进行几百万次易损性的匹配,又要考虑第一类和第二类不确定性,计算保险结构,因此对于计算机的性能有很高要求。事实上尽管巨灾风险模型的原型上世纪80年代末就诞生了,但它在日常业务中的广泛应用却是在90年代中期以后,随着计算机技术的显著提高才得以实现的。时至今天,模型用户需要花费一定时间进行彻底计算的情况仍不少见。巨灾模型软件公司也在积极考虑解决方案,比如采用方兴未艾的云计算技术(用户的大规模计算都在云端计算机网络完成),或者在开发过程中采用GPU技术等等。
自巨灾模型首次被开发出来,转眼已经过了20余年的时间,其间伴随着计算机技术的进步、自然科学理论的突破、市场需求的刺激以及业内竞争的压力,巨灾模型已经得到了极大的发展,不仅涉及的巨灾险种越来越丰富,涵盖的地区越来越全,模型本身也做得越来越精细,能够考虑进更多的细节。然而人们对于大自然的认识毕竟是有限的,加上计算力瓶颈的限制,模型在很多方面都需要对实际情况进行简化。尽管巨灾风险模型还谈不上完美,但(再)保险公司每年仍然心甘情愿地支付几百万,甚至上千万美元去购买这些模型的使用权,因为这些模型已经成为了保险定价的重要依据。同时,很多保险公司的业务都是全球性的,它们经常需要在自己并不熟悉的地区进行承保。而巨灾模型的开发凝聚了大量当地专家的知识和经验,因此可以起到提供风险咨询的作用。比如“汕头”这个地名对于外国保险公司是陌生抽象的,但通过使用中国台风风险模型马上就能了解这地方针对台风的风险大小。同理,对于有雄心向海外拓展的中国公司,即便不很了解某外国的巨灾历史、地震断裂带分布等等,通过使用巨灾风险模型,就可以为开展当地的风险分入分出业务提供相对准确的科学依据。
“工欲善其事,必先利其器”。对于中国保险业来说,不管是进军海外,还是逐鹿中原,巨灾模型必然会作为一种高新技术越来越得到重视,并发挥它的重要作用。