Cómo distorsionar la inteligencia artificial en la banca

Aunque la inteligencia artificial se está volviendo más común en la industria de servicios financieros, en realidad puede estar sesgada. El “sesgo” ocurre cuando los sistemas de inteligencia artificial brindan resultados que se ven comprometidos debido a suposiciones erróneas no intencionales en el proceso de aprendizaje automático.

Michelle Palomera, Director Global de Banca y Mercado de Capitales Punto correcto tiene experiencia con eso. Con más de 25 años de experiencia en consultoría digital y de clientes, Michelle combina el conocimiento práctico de la industria y la tecnología con un estilo personalizado de trabajo directo con clientes y miembros del equipo. Su amplio conocimiento de los servicios financieros, incluida la banca comercial e institucional, del consumidor, del lado de la compra / patrimonio, ayuda a los clientes a desarrollar estrategias para nuevos canales de ingresos, así como a iniciar nuevos negocios a través de productos y servicios digitales.

Aquí explica cómo desactivar la inteligencia artificial en la banca.

Michelle Palomera, directora global de banca y mercados de capitales, Rightpoint

Cuando el sesgo está incrustado en el software de IA, las instituciones financieras pueden recompensar injustamente a ciertos grupos a otros, tomar malas decisiones, generar falsos positivos y reducir sus posibilidades. En última instancia, esto conduce a una mala experiencia del cliente, menores ventas y mayores costos y riesgos. Para identificar, corregir y prevenir posibles sesgos, los bancos deben contratar al talento adecuado y aplicar técnicas proactivas de innovación de productos y plataformas.

Las máquinas, como los humanos, pueden estar sesgadas. El sesgo se produce en los sistemas de inteligencia artificial cuando los sistemas ofrecen resultados que se ven comprometidos debido a suposiciones erróneas no intencionales en el proceso de aprendizaje automático (ML). Para las instituciones financieras, los algoritmos de IA perjudiciales podrían recompensar a ciertos grupos sobre otros, lo que podría conducir a procesos de decisión de préstamos y préstamos sesgados que podrían restringir el mercado con el tiempo e incluso cambiar el panorama de la economía.

Bias tiene un problema particular con los modelos de inteligencia artificial en los mercados emergentes, donde los datos se transfieren con demasiada frecuencia a hogares sin datos bancarios. Este tema contribuye a cuestiones más amplias de social, inclusión e igualdad.

Cuanta más inteligencia artificial esté integrada en los procesos y sistemas centrales de un banco, mayor será el riesgo. Además de mitigar el daño potencial, la eliminación del sesgo puede mejorar la experiencia del cliente, aumentar las oportunidades de mercado y proporcionar información empresarial. También permite una perspectiva más amplia y diversa y mejora los procesos de toma de decisiones de los bancos.

Relajar la IA es bueno para los negocios y bueno para el mundo. Por tanto, tanto las instituciones gubernamentales como varias organizaciones industriales están investigando el problema. El año pasado, el Comité de Servicios Financieros de la Cámara de Representantes (FSC) estableció un grupo de trabajo de inteligencia artificial. En febrero, el FSC se reunió con expertos y reguladores de la industria y acordó respaldar un marco de gobierno modelo centrado en el consumidor. El marco verificará los sistemas de IA en busca de sesgos e incorporará medidas de protección y amortiguadores para garantizar la equidad en los modelos de algoritmos.

Para mantenerse al día con la evolución de las regulaciones y las mejores prácticas y desarrollar sus propias medidas de “anti-sesgo en la IA”, los bancos deben invertir en personas con la experiencia adecuada y adoptar un enfoque multidisciplinario para la investigación, el análisis, el diseño de productos y el proceso de desarrollo de la plataforma. cuando se usa AI / ML. Necesita equipos y socios que estén familiarizados con los sesgos cognitivos que se encuentran a menudo en la experiencia del usuario, así como los factores que conducen principalmente a los sesgos de la IA. Esto incluye procesos que pueden provocar la pérdida de datos, mostrar el potencial de un comportamiento inesperado o contener parámetros que influyen en la probabilidad.

Las universidades están poniendo más énfasis en la codificación ética, que se supone ayuda a los bancos a reclutar el talento que necesitan. Por ejemplo, el programa Embedded EthiCS reúne a filósofos e informáticos para enseñar a los estudiantes universitarios cómo tomar decisiones más reflexivas y éticas al desarrollar tecnología.

Las instituciones financieras también deben adoptar un enfoque cualitativo, impulsado por la investigación, pero basado en datos, y aplicar controles adecuados para garantizar que “alguien esté siempre actualizado”. Este enfoque debe incluir técnicas de validación para las entradas a las funciones de IA y un mecanismo continuo para evitar sesgos en los modelos de datos a lo largo del tiempo.

Al realizar la investigación de usuarios y las pruebas necesarias para crear una herramienta de inteligencia artificial, los bancos deben reunir diferentes grupos de usuarios y permanecer abiertos y neutrales en la recopilación de información. En lugar de hacer preguntas de sí / no, hágales preguntas descriptivas y recopile la mayor cantidad de datos posible para alimentar sus modelos y mantener a raya el sesgo.

Después de lanzar una plataforma, las instituciones financieras pueden utilizar métricas para obtener comentarios del propio sistema. AI / ML puede ser una herramienta útil para automatizar el proceso de adaptación a estos comentarios e incluso coordinar los viajes de los clientes. Sin embargo, los bancos deben conocer las restricciones generales. Considere Facebook si asume que los usuarios no querrán saber de amigos más allá de aquellos con los que interactúan regularmente en la plataforma. La máquina de aprendizaje ha hecho que su mundo sea más pequeño y no más diverso, con contribuciones de todas las listas de amigos de los usuarios.

Para configurar, probar y proteger adecuadamente los sistemas de IA, las empresas necesitan las personas y los procesos adecuados. También necesitas la actitud correcta. Invertir en IA ética puede llevar más tiempo y conducir a sprints en tierra un poco más largos a medida que innova, diseña y construye nuevas plataformas. Sin embargo, vale la pena evitar las consecuencias de largo alcance del sesgo, desde los efectos comerciales negativos hasta los efectos sociales injustos.

Sending
User Review
0 (0 votes)