Está en la página 1de 7

Recursos para el debate

1.

La regulación financiera enfrenta desafíos y oportunidades en la era de la fintech y la inteligencia artificial. La


aplicación de herramientas tecnológicas recientemente desarrolladas ha generado un cambio en la forma en
que se regulan los servicios financieros.

2.

La inteligencia artificial (IA) se ha estado abriendo camino en la industria de servicios financieros durante
algún tiempo, y no se puede negar que la tecnología ofrece beneficios inconmensurables. La IA puede
aumentar la eficiencia, optimizar procesos, reducir costos y enriquecer la experiencia del cliente. Las posibles
aplicaciones van desde el servicio de atención al cliente y el marketing hasta la gestión de activos, la gestión
de carteras, la tesorería y el comercio de valores.

En áreas como la detección de fraudes , la gestión de riesgos, la calificación crediticia y el asesoramiento


patrimonial, la IA ya está aumentando o incluso reemplazando a los tomadores de decisiones humanos. De
hecho, no desplegar capacidades de IA en estos campos puede considerarse desastroso. Con las cantidades
cada vez mayores de datos que deben procesarse, los sistemas de inteligencia artificial son imprescindibles
para mejorar la precisión.

A medida que las capacidades tecnológicas continúan mejorando, la cantidad de datos disponibles crece y
las presiones competitivas aumentan, el uso de la IA en las finanzas será generalizado. Sin embargo, como
ocurre con cualquier nueva tecnología, la adopción de la IA conlleva su propio conjunto de desafíos. Hay una
serie de preocupaciones citadas a menudo por los reguladores, clientes y expertos que se pueden agrupar en
las siguientes categorías:

Inclinación

Responsabilidad

Transparencia
3.

Hace unas semanas, las noticias sobre las regulaciones que limitan la Inteligencia Artificial (IA ) se filtraron de
los legisladores de la UE y llegaron a los titulares.

Ahora, su propuesta es un documento oficial de cien páginas que cubre sistemas, procesos y desarrollo de
IA.

¿Por qué la UE y la Comisión Europea apuntan a la IA? ¿Deberíamos estar preocupados? ¿Se convertirán los
supertbots en una amenaza? ¿Fue Terminator solo una película documental del futuro?

A estas alturas, sabemos que la inteligencia artificial y las tecnologías relacionadas, como los algoritmos de
aprendizaje automático, tienen la capacidad de ser una fuerza que cambie el mundo, pero afortunadamente,
todavía está lejos de convertirse en un súper sistema de IA autoconsciente. Este cambio tecnológico significa
más por el poder que puede brindar y el dinero: los sistemas de IA tienen el potencial de generar una
actividad económica global adicional de alrededor de $ 13 billones para 2030 .

En la banca global, se prevé que la tecnología de IA genere hasta $ 1 billón de valor adicional cada año para
los profesionales y las organizaciones financieras, según McKinsey & Company. Más de la mitad de este valor
provendrá de ganancias en actividades de ventas y marketing, como una mejor gestión de servicio al cliente
y gestión de canales, seguido de avances en funciones de gestión de riesgos como análisis de fraude y deuda,
que en última instancia informan mejores decisiones en el comercio de valores, gestión de activos , gestión
de cartera y toma de decisiones comerciales en general.

Los beneficios de la IA para las empresas son innegables . Desde una mejor detección de fraudes y
clasificación de datos no estructurados, hasta procesos mejorados contra el lavado de dinero (AML), una
suscripción más rápida y un servicio al cliente más eficiente, la automatización inteligente, respaldada por IA,
está transformando la industria de servicios financieros.

Sin embargo, por otro lado, su uso también conlleva un grave riesgo de consecuencias no deseadas, algunas
aún no previstas, que podrían tener una influencia en la sociedad y la forma en que vivimos. Es por eso que
cada vez que emprendemos proyectos relacionados con la IA en Netguru, los analizamos desde varias
perspectivas, consideramos sus desafíos y examinamos el impacto que estos proyectos pueden tener y si
pueden considerarse poco éticos.

En este artículo, analizamos cuatro preguntas éticas clave planteadas por los avances en inteligencia artificial
y lo invitamos a considerar los problemas y desafíos éticos en sus propios proyectos tecnológicos que
involucran sistemas de IA y aprendizaje automático.
1. ¿Dónde está la línea entre hacer una sugerencia e influir en una elección?

En nuestras actividades diarias en línea, otorgamos acceso a una enorme cantidad de datos. AI puede
rastrearlo fácilmente, procesarlo e influir de manera efectiva en decisiones particulares. El marketing basado
en anuncios lo ha estado haciendo para productos y política durante décadas, pero ahora, los sistemas de
inteligencia artificial se han vuelto alarmantemente buenos en eso, lo que plantea preguntas sobre ética ,
riesgos y responsabilidad.

IA utilizada para rastrear la cotización de datos

Dado que no podemos controlar quién está usando algoritmos de IA, parece que estamos a merced de
cualquier organización que los use para cualquier propósito. El escándalo de Cambridge Analytica, una
violación de datos utilizada para atacar a los votantes en las elecciones presidenciales de EE. UU., fue una de
las primeras llamadas de atención sobre los peligros del uso sin escrúpulos de la IA y los macrodatos.

Afortunadamente, la IA solo es poderosa cuando se le suministra una gran cantidad de datos relevantes,
pero esto pone a las mayores empresas de comercio electrónico y redes sociales bajo el foco de atención.
Las recientes propuestas de la UE están claramente dirigidas a atemperar a estas empresas con multas que
alcanzan hasta el 6% de su facturación anual mundial.

Las regulaciones afectarán la banca y la tecnología financiera , prohibiendo el uso de IA para evaluar los
puntajes de crédito social (evaluando la confiabilidad de una persona por su comportamiento social o rasgos
de personalidad previstos) o los CV de los candidatos que solicitan un trabajo.

El gobierno de la UE sigue la lógica de que los algoritmos predictivos de inteligencia artificial basados en el
juicio humano no deben usarse libremente para tomar decisiones críticas "en blanco y negro" teniendo en
cuenta a las personas. Eso sería demasiada influencia, posiblemente injusta, sobre cómo funciona la
sociedad.

2. ¿Cómo impedimos que las aplicaciones de IA se utilicen con fines maliciosos?

La IA ha sido de gran ayuda para los bancos innovadores y las empresas de servicios financieros que la
aprovechan para proteger el dinero de sus clientes y hacer cumplir las leyes y reglamentos AML. Todos los
días, los bots revisan millones de operaciones financieras para monitorear patrones sospechosos y
reportarlos a los oficiales de seguridad cibernética y AML.

Una cita sobre la posibilidad de usar IA en ciberataques

Pero la IA es un arma de doble filo. Los ciberdelincuentes pueden utilizar la misma tecnología que nos
protege para explotarnos, y el uso de técnicas de inteligencia artificial para crear ataques dirigidos
individualmente a escala podría resultar muy eficaz. Imagine un estafador impulsado por IA chateando con
millones de personas a la vez y entrenándose para ser más efectivo con cada conversación que se realice.
Y no son solo las acciones maliciosas deliberadas las que debemos preocuparnos: los efectos secundarios no
deseados pueden ser igualmente alarmantes. Considere que en un intento por maximizar el tiempo de
visualización, el algoritmo de YouTube aprendió a desacreditar otras formas de medios mediante la
promoción de contenido anti-medios. Habría logrado su objetivo de mantener a los espectadores en la
plataforma, pero ¿a qué costo social?

A medida que desarrollamos nuevos sistemas de IA, ¿cómo nos aseguramos de que solo se utilicen para el
bien? Boston Dynamics, por ejemplo, enfatiza estrictamente en sus términos de venta que sus máquinas no
pueden usarse como armas. Tal vez sea hora de considerar un enfoque similar y un seguimiento de los
algoritmos, con consideraciones éticas integradas en su propio diseño.

3. ¿Cómo evitamos que la tecnología cause daño?

Los modelos de IA se han utilizado cada vez más para ayudar a desarrollar vehículos autónomos. En 2018, un
vehículo de prueba autónomo de Uber golpeó y mató a un peatón cuando cruzaba la calle. Los hallazgos de
la Junta Nacional de Seguridad en el Transporte de EE. UU. revelaron que el automóvil no identificó al peatón
como un riesgo de colisión hasta justo antes del impacto. Y más recientemente, dos hombres murieron
cuando su vehículo Tesla, que se cree que no tenía conductor, chocó contra un árbol y se incendió.

Estos ejemplos de software de automatización defectuoso en los sistemas de inteligencia artificial que
causan daños son impactantes y, a medida que los automóviles autónomos estén más disponibles, es posible
que veamos más accidentes fatales derivados de la tecnología. Pero incluso en los servicios financieros, la IA
plantea un riesgo de daño muy real. En una encuesta del Foro Económico Mundial, Transforming Paradigms:
A Global AI in Financial Services Survey , el 58 % de los encuestados expresó su preocupación de que la
adopción masiva de la IA aumentaría el riesgo de sesgo y discriminación en el sistema financiero.

Sin embargo, la inclusión de esta situación dentro de las proyecciones no sería fácil, luego hicimos los
pronósticos con el acompañamiento del maestro y utilizamos nuestro conocimiento del riesgo financiero y
utilizamos el método de flujo de efectivo libre para calificar a la empresa.

Por ejemplo, las instituciones financieras o las empresas de tecnología financiera que utilizan un algoritmo
de aprendizaje automático para tomar decisiones sobre límites de crédito podrían incorporar
inadvertidamente sesgos humanos incluidos en los datos financieros históricos.

Como resultado, las personas de color, los jóvenes o las candidatas solteras podrían verse injustamente en
desventaja por la aplicación del aprendizaje automático con datos defectuosos. Lo que plantea la pregunta,
¿quién es el responsable en última instancia de los errores dañinos del software impulsado por IA?
¿Deberíamos responsabilizar a los productores, desarrolladores o evaluadores de las nuevas tecnologías? A
veces, los sistemas informáticos utilizados en los modelos de IA pueden tomar decisiones inexplicables. Esto
se llama el efecto Caja Negra.
Una vez más, nuevas leyes están en marcha en una industria que ya está altamente regulada. Las
instituciones financieras deben esperar que esto también se aplique al robo-asesoramiento del comercio
algorítmico de alta frecuencia. Es probable que estas soluciones se consideren de alto riesgo en términos de
estabilidad del mercado desde un punto de vista regulatorio y, como tales, se someterán a procesos de
evaluación y mitigación de riesgos.

4. ¿Cómo salvaguardamos los empleos y equilibramos la distribución de la riqueza?

Con la perspectiva de la automatización avanzada de IA y las subsiguientes ganancias de eficiencia, surge la


amenaza de la pérdida de empleos para millones de trabajadores de oficina y administrativos. La banca
puede verse particularmente afectada. Según los datos publicados en un informe de Wells Fargo, los robots
perderán 200 000 puestos de trabajo bancarios durante la próxima década solo en los Estados Unidos debido
a la introducción de la tecnología financiera impulsada por la IA.

En lugar de que miles de empleados paguen impuestos y distribuyan sus ingresos localmente, tendremos
algoritmos desarrollados en los laboratorios de TI de las empresas más grandes del planeta. ¿Quizás
deberíamos gravar el trabajo automático de la misma manera que gravamos el trabajo humano? ¿Qué
pasará con los trabajadores que ya no necesitamos? ¿Se convertirán en el 'copiloto humano' de las
aplicaciones de IA?

La cuestión de reemplazar a los tomadores de decisiones humanos en particular ha llevado a muchos a pedir
un ingreso básico universal para proteger a los trabajadores desplazados y marcos éticos para guiar el
desarrollo de la IA.

Aparte de los aspectos éticos, también hay cuestiones relativas a la democracia y la economía. ¿Quién creará
demanda de consumo si no hay consumidores? ¿Qué tensiones en la sociedad generaremos?

Asegurando el futuro (antes de que sea demasiado tarde)

Con las soluciones de IA ahora ampliamente disponibles, las cuestiones éticas sobre su uso son cada vez más
relevantes. Aunque la IA es una oportunidad sin precedentes para la transformación, el progreso se está
produciendo a un ritmo increíble y, lamentablemente, la humanidad tiende a ver las consecuencias adversas
de los avances tecnológicos demasiado tarde.

Entonces, si bien los gobiernos y los reguladores finalmente tendrán la última palabra en el uso ético de los
sistemas y algoritmos de IA, por ahora, todos tenemos un papel que desempeñar en la defensa de la ética y
los valores que permitirán que la IA cumpla la promesa de una mejor. futuro.
Mejora la transparencia: La tecnología financiera y la inteligencia artificial pueden mejorar la transparencia
financiera al proporcionar información detallada sobre las transacciones financieras y los costos asociados.
Esto ayuda a garantizar que los clientes comprendan mejor sus finanzas y tomen decisiones más informadas.

Mayor seguridad: Las fintech y la inteligencia artificial pueden mejorar la seguridad financiera al detectar y
prevenir el fraude y las transacciones sospechosas. Esto es especialmente importante en la era digital, donde
las transacciones se realizan cada vez más en línea.

Accesibilidad: La tecnología financiera y la inteligencia artificial pueden aumentar la accesibilidad financiera


para personas que tradicionalmente han tenido dificultades para acceder a los servicios financieros. Por
ejemplo, la banca móvil puede hacer que los servicios financieros sean más accesibles para personas en
áreas rurales o de bajos ingresos.

Personalización: La tecnología financiera y la inteligencia artificial pueden ayudar a personalizar los servicios
financieros y adaptarlos a las necesidades individuales de los clientes. Esto puede mejorar la experiencia del
cliente y ayudar a satisfacer sus necesidades financieras específicas.

Reducción de costos: Las fintech y la inteligencia artificial pueden ayudar a reducir los costos de los servicios
financieros al automatizar procesos y mejorar la eficiencia. Esto puede hacer que los servicios financieros
sean más asequibles y accesibles para más personas.

Grupo 2: Fintech y la Inteligencia Artificial son enemigos de la ética y la responsabilidad financiera

Falta de transparencia: La tecnología financiera y la inteligencia artificial pueden ser opacas, lo que dificulta
la comprensión de las decisiones y los procesos que se están llevando a cabo. Esto puede socavar la
confianza del consumidor en los servicios financieros y limitar la capacidad de los reguladores para
monitorear el sector.

Discriminación: La tecnología financiera y la inteligencia artificial pueden perpetuar la discriminación y la


desigualdad financiera, ya que pueden estar diseñadas para privilegiar ciertos grupos o tipos de clientes. Esto
puede ampliar las brechas económicas existentes y socavar la responsabilidad financiera.

Privacidad: La tecnología financiera y la inteligencia artificial pueden representar una amenaza para la
privacidad de los consumidores al recopilar y utilizar grandes cantidades de datos financieros y personales. Si
estos datos son mal utilizados, pueden dar lugar a infracciones de la privacidad y poner en riesgo la
seguridad financiera.
Riesgo sistémico: La tecnología financiera y la inteligencia artificial pueden representar un riesgo sistémico
para el sector financiero, ya que pueden automatizar procesos y decisiones clave sin suficiente supervisión
humana. Esto puede dar lugar a errores y a la propagación de riesgos a través de los sistemas financieros.

Falta de regulación: La tecnología financiera y la inteligencia artificial están avanzando más rápido que la
capacidad de los reguladores para supervisar y regular el sector. Esto puede permitir que se desarrollen
prácticas financieras poco éticas o incluso ilegales, socavando la responsabilidad financiera.

PREGUNTAS

¿Por qué crees que la tecnología financiera y la inteligencia artificial son perjudiciales para la industria
financiera?

¿Cuáles son tus principales preocupaciones sobre la seguridad y la privacidad de la información financiera en
relación con la tecnología financiera y la inteligencia artificial?

¿Crees que la regulación actual es suficiente para garantizar que las fintech y la inteligencia artificial sean
responsables y éticas en sus operaciones financieras?

¿Crees que las fintech y la inteligencia artificial pueden mejorar el acceso a servicios financieros para
poblaciones marginadas y no bancarizadas?

¿Crees que existen formas de abordar las preocupaciones éticas y responsables asociadas con el uso de la
tecnología financiera y la inteligencia artificial, mientras se aprovechan los beneficios de la innovación en la
industria financiera?

¿Cómo se puede justificar el rechazo de la tecnología financiera y la inteligencia artificial si se han


demostrado sus beneficios para mejorar la eficiencia y reducir los costos de los servicios financieros?

¿Cuál es la base empírica para argumentar que la tecnología financiera y la inteligencia artificial son
inherentemente peligrosas para la privacidad y la seguridad financiera?

¿Cómo se puede justificar la oposición a la innovación tecnológica en la industria financiera cuando la falta
de acceso a servicios financieros es un problema importante para muchas poblaciones marginadas y no
bancarizadas?

¿Cuáles son los criterios objetivos para determinar qué tecnologías financieras y de inteligencia artificial son
éticas y responsables, y cómo se pueden aplicar de manera consistente en la regulación financiera?

¿Cómo se puede justificar el rechazo a la tecnología financiera y la inteligencia artificial cuando la mayoría de
las instituciones financieras ya están utilizando estas tecnologías para mejorar su eficiencia y satisfacer las
necesidades de los clientes?

También podría gustarte