¿Qué tan grande es el abismo entre la Inteligencia Artificial y la industria aseguradora?

Optimización de procesos, automatización, transparencia y protección de datos, e inclusive dilemas éticos, son las múltiples aristas que dan cuenta del vínculo entre la Inteligencia Artificial y el rubro asegurador. Pese a que en Chile la relación aún es incipiente, especialistas advierten que se convertirá en el futuro de la industria. Conversamos con el experto en Inteligencia Artificial y socio de Kübyte Labs, Cristóbal Briones, quien analizó la proyección y potencialidades de esta tecnología en la industria.

Se estima que, gracias al desarrollo de la IA, las empresas podrían aumentar su rentabilidad en un 38% en promedio en los próximos 18 años, según datos de Accenture. A su vez, datos del sector revelan que las empresas aseguradoras que han incorporados soportes de IA recaudan un 20% más anualmente. ¿La razón? El manejo de información y su utilización. Los distintos modelos de machine learning (sistema de aprendizaje automático) y deep learning (aprendizaje profundo más similar al aprendizaje humano) usados en la Inteligencia Artificial, permiten entender mejor a los consumidores, junto con ofrecer experiencias, productos y servicios más personalizados y ajustados a sus necesidades reales.

Para el especialista en IA, Cristóbal Briones, quien además es socio de Kübyte Labs – startup dedicada a la entrega de servicios de data science y modelamiento predictivo – la irrupción de esta tecnología no sólo está innovando en el sector financiero, sino que también en múltiples industrias. Pese a ello aún su presencia en los sectores productivos es incipiente.

A su vez, agrega que el uso de métodos de IA “puede derivar en seguros más personalizados y ajustados a las necesidades individuales de las personas. Además, sería posible que los métodos de IA, con base en un análisis inteligente de datos, puedan reducir los riesgos de las pólizas, así claramente sería posible disponer de seguros más accesibles y económicos”.

Efectivamente, Briones explica que los recursos que se derivan de la Inteligencia Artificial podrían ser un importante aliado en la industria, puesto que, gracias a su algoritmo de aprendizaje, permite predecir la probabilidad de fuga de clientes para ejecutar acciones de retención, proyección de demanda y análisis del sector, considerando variables sociales, económicas y políticas, evaluación de la validez de siniestros, detección de fraudes, y en el caso de seguros que cubren objetos físicos, es posible realizar inspecciones analizando imágenes fotográficas.

Sin embargo, pese a las ventajas, también existen importantes desafíos que cumplir y dilemas éticos que sobrellevan la participación de la IA en la industria. Transparencia, uso masivo de datos y regulación, entre otros. Al respecto, Cristóbal Briones nos entrega los principales alcances de la industria y sus desafíos para lograr una mejor penetración con esta tecnología.

-¿Cómo se puede garantizar la transparencia en los algoritmos de IA utilizados en el rubro de los seguros?

Este tema siempre ha sido uno de los grandes desafíos de los modelos de machine learning y deep learning usados en Inteligencia Artificial. Algunos algoritmos usados por IA son primordialmente estadísticos y son perfectamente transparentes. Sin embargo, los algoritmos de mayor utilidad para abordar problemas complejos, tales como las redes neuronales, son esencialmente cajas negras cuyo funcionamiento interno no se puede dilucidar y, por lo tanto, es difícil explicar por qué producen ciertos resultados.

Estos algoritmos se entrenan con datos, ejemplos de los patrones que se pretende descubrir en los datos reales. En los últimos años universidades y empresas como Google y Meta que han logrado importantes avances en el desarrollo de métodos para determinar el funcionamiento interno de dichas redes neuronales, como el uso de metodologías basadas en teoría de juegos, en particular shapley, que permite determinar la influencia de algunos factores en los resultados.  También se han desarrollado herramientas prácticas como What-if tools de Google. Por ejemplo, se puede usar una red neuronal para clasificar datos de clientes, tales como alto o bajo riesgo.

-¿Qué rol pueden jugar las empresas en la transparencia?

Las empresas deben ser capaces de comunicar a sus usuarios y stakeholders, y transparentar los datos utilizados para el entrenamiento de estos modelos. Considerando también ciertas normas y leyes como El Reglamento General de Protección de Datos (GDPR), la Ley de protección de datos personales del consumidor en Chile, entre otras normas y regulaciones que correspondan. El entender de dónde provienen los datos que entrenan estos modelos permite tener un accountability y tener procesos para eliminar ciertos sesgos que pueden introducirse en el modelo.

-Entonces, ¿Qué medidas éticas deben considerarse al utilizar la IA para la toma de decisiones en el proceso de suscripción de seguros?

Debido a que los sistemas de IA se entrenan utilizando datos que proveen ejemplos de patrones de datos, hay que cuidar que no se introduzcan sesgos. Por ejemplo, si hay una cantidad importante de datos negativos para un cierto rango etario, en comparación con otros rangos diferentes, se podría introducir un sesgo que perjudique a clientes, donde su edad esté en ese rango. Es necesario poder auditar cómo se recolectaron los datos, qué y quiénes lo hicieron, variables proxy o si existe algún grupo que no esté representado o subrepresentado.

Dependiendo de la naturaleza de los datos a utilizar y el caso de uso del modelo, siempre se debe tener en cuenta la protección de datos personales y tener implementado sistemas de seguridad y protección para que no existan filtraciones.

-¿Qué riesgos existen en la utilización de la IA en la evaluación de riesgos y en la fijación de primas en el rubro de los seguros?

Todos los métodos de IA tienen un resultado probabilístico, igual que en el caso de los humanos. Siempre habrá alguna posibilidad de error, que requiere verificaciones. Hay un asunto de confianza, en un algoritmo que uno no ve y que puede operar masivamente en los datos. Cuando lo hace una persona hay una ilusión de mayor control, y una sensación de seguridad en la limitación física de la capacidad de una persona para procesar datos. Para minimizar los riesgos, se debe tener un buen pipeline de control y monitoreo y utilizar ciertas métricas que nos permiten controlarlos.

-¿Qué papel tienen los reguladores y las autoridades en la regulación ética de la IA en el rubro de los seguros?

La regulación de la IA es un asunto muy difícil de abordar. Inevitablemente debe pasar por una auditoría de los datos que se usan para entrenar los modelos de aprendizaje automático, con el fin de determinar que no haya sesgos accidentales o intencionados. También, se tendría que auditar resultados de procesos. Los algoritmos mismos son casi imposibles de revisar. En cualquier caso, estas auditorías tendrían que llevarse a cabo en un área de posible conflicto con la privacidad y confidencialidad de los datos personales de los clientes. Un gran desafío en esta área radica en que los países dispongan de una legislación moderna y adecuada en ámbitos de protección de información personal.

-¿Qué desafíos se vislumbran en el futuro en relación al uso de la IA en el rubro de los seguros y cómo se pueden abordar?

El mayor desafío es llegar a un buen entendimiento de los alcances y capacidades de los métodos de IA, logrando expectativas razonables que no superan las reales posibilidades que la tecnología. En el rubro de seguros, es necesario lograr un mejor análisis predictivo basado en datos e historia, descubrimiento de aplicaciones y casos de uso que puedan resultar rentables. Siempre será necesario un análisis estadístico de los datos que tiene cada compañía, previo a cualquier desarrollo.