Qué significa la ley de IA de la UE para el sector de los seguros

¿No pudo participar en Transform 2022? ¡Vea todas las sesiones de Summit en nuestra biblioteca on-demand ahora! Mira aquí.

La inteligencia artificial (IA) se utiliza en toda la industria de seguros, lo que brinda a las aseguradoras una poderosa ventaja para trabajar de manera más eficiente y mejorar los servicios de atención al cliente. Los avances en IA también están ayudando a las aseguradoras a hacer un mejor uso del creciente volumen de datos. Desde datos visuales hasta datos de sensores, la IA permite el análisis de datos en tiempo real para mejorar todo, desde decisiones de suscripción y liquidación de reclamaciones hasta detección y prevención de fraudes.

De acuerdo con McKinsey, 25% del sector asegurador se automatizará en 2025, gracias a técnicas de inteligencia artificial y aprendizaje automático (ML), ayudando a las empresas a generar importantes ahorros de costes. Juniper Research predice que en todos los seguros de propiedad, salud, vida y automóviles, los ahorros anuales en costos superarán $ 1.2 mil millones para 2023un aumento de cinco veces en comparación con 2018.

Estos ahorros también se transmiten a los consumidores, ya que las aseguradoras pueden ofrecer productos y servicios más personalizados, precisos y con precios más competitivos. Sin embargo, a medida que crece el uso de la IA en la industria de seguros, también aumentan las preocupaciones sobre la transparencia y la explicabilidad de la IA.

Próximamente: la ley de IA de la UE

En abril de 2021, la Comisión Europea presentó un borrador para uno nuevo yo actuo, que describió las reglas para el desarrollo, la mercantilización y el uso de productos y servicios basados ​​en inteligencia artificial. La legislación afectará a cualquier empresa que opere dentro de la UE y en cualquier sector.

Evento

MetaBeat 2022

MetaBeat reunirá a líderes de opinión para brindar información sobre cómo la tecnología del metaverso transformará la forma en que todas las industrias se comunican y hacen negocios el 4 de octubre en San Francisco, California.

Registrarse aquí

Introduce la ley de IA de la UE Un marco Agrupe los sistemas de inteligencia artificial en cuatro categorías según el nivel de “riesgo” de la aplicación. El objetivo es fomentar el desarrollo de sistemas de IA responsables y confiables, comenzando con la primera línea de código. También prohibirá el uso de aplicaciones de inteligencia artificial que creen “riesgos inaceptables”. Actualmente, los sistemas de inteligencia artificial que caen en la categoría de “riesgo inaceptable” involucran sistemas de identificación biométrica en espacios públicos y aplicaciones de puntuación social.

Si bien ciertamente pasará algún tiempo antes de que la ley de IA de la UE se convierta en ley, algunos países como España buscan probar el marco de riesgo ya en octubre de 2022 en un entorno de caja de arena. Durante este período, las empresas podrán probar los sistemas de IA relacionados con la aplicación de la ley, la salud o la educación de acuerdo con las reglas descritas en la Ley de IA de la UE y bajo la supervisión de las autoridades reguladoras.

De acuerdo a Diplomático“Los [Spain] el proyecto tiene como objetivo dar una ventaja a las empresas emergentes y medianas europeas, que constituyen una gran parte del tejido económico europeo, en un momento en que la innovación en inteligencia artificial está impulsada en gran medida por las grandes empresas tecnológicas, incluidas Google, Microsoft, IBM y meta”.

Qué significa la ley de IA de la UE para el sector de los seguros

El sector asegurador ya está altamente regulado en la mayoría de los mercados, con algunos marcos regulatorios que ya cubren los usos de la IA. Sin embargo, tanto las compañías de seguros como las nuevas empresas de insurtech aún deben conocer qué aplicaciones la Ley de IA de la UE podría considerar de “alto riesgo”, especialmente si se usa IA para realizar tareas relacionadas con decisiones de pólizas de crédito y seguros, y comenzar a planificar cualquier impacto potencial en sus ofrendas.

un actualizado reclutar de la Ley de IA de la UE, publicada en noviembre de 2021, clasifica los “sistemas de IA destinados a ser utilizados con fines de seguros” en la categoría de alto riesgo. En concreto, se hace referencia a los “Sistemas de IA destinados a la determinación de primas de seguros, suscripción y evaluación de siniestros”.

Según el proyecto de reglamento, “los sistemas de inteligencia artificial se utilizan cada vez más en los seguros para determinar primas, suscribir y evaluar siniestros que, si no se diseñan, desarrollan y utilizan adecuadamente, pueden tener graves consecuencias para la vida de las personas, incluida la exclusión financiera y la discriminación. “.

Cómo las empresas pueden prepararse para el cumplimiento

Similar a primeras etapas del RGPDAún quedan muchos meses, y quizás años, para saber exactamente cómo aplicará la UE las medidas previstas en la ley de IA. Sin embargo, es seguro que la supervisión regulatoria de la IA y los datos que ingresan a los sistemas de IA solo aumentarán, tanto en Europa como en todo el mundo.

Las empresas ya deberían estar pensando en lo que pueden hacer para prepararse y cumplir con las políticas responsables de IA. Cómo Conocido señala: “Las aplicaciones de inteligencia artificial que aprenden de las decisiones históricas de suscripción podrían detectar sesgos de género o raciales ocultos en los datos”. Las empresas deben comprender dónde pueden infiltrarse los sesgos en sus sistemas.

Establecer políticas internas de IA responsables y éticas es un buen primer paso. Las empresas pueden identificar a las partes interesadas clave e involucrarlas en la creación de estas políticas, especialmente aquellas que dirigen la estrategia y el desarrollo de proyectos de IA. El próximo paso importante es establecer un sistema de gobierno interno, que también debe incluir cualquier proveedor externo utilizado para el desarrollo de IA. Dichos equipos deben participar desde el principio y ayudar a identificar cualquier riesgo potencial de IA.

Numerosas organizaciones han publicado pautas para apoyar a las empresas en el uso ético de datos e IA, incluidas la OCDE, la Comisión Europea (CE) y la Autoridad de Conducta Financiera (FCA) y el Instituto de Datos Abiertos (ODI) en el Reino Unido. Business Roundtable, una organización compuesta por más de 200 directores ejecutivos y ejecutivos con sede en EE. UU., también ha publicado un hoja de ruta completa y útil destacando 10 principios para que las empresas logren una IA responsable dentro de sus organizaciones.

Desde la suscripción hasta el procesamiento de reclamos, la IA está transformando radicalmente la industria de seguros y ahora hay un enfoque global para garantizar que la tecnología se use de manera justa y ética. Las empresas deben poder explicar con precisión de dónde provienen sus datos y cómo se implementa la IA en su estrategia y operaciones, especialmente a medida que se intensifica la presión regulatoria y los consumidores exigen cada vez más transparencia en las pólizas de seguros, en los precios y en los procedimientos.

Giulio Pernía Aznar es director general de vídeo

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es el lugar donde los expertos, incluidos los ingenieros de datos, pueden compartir ideas e innovaciones relacionadas con los datos.

Si desea leer ideas de vanguardia e información actualizada, las mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podría considerar contribuir con su propio artículo!

Leer más de DataDecisionMakers

Compruebe también

NFT Plaza y Wiki Finance Expo Singapur 2023

La temporada de conferencias no estaría completa sin un evento masivo de blockchain en la …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *