Por Lya Glaentzlin D´Ascoli
La Inteligencia Artificial (Al) se ha convertido en uno de los temas del momento y contrario a la creencia popular, hace tiempo venimos interactuando con ella sin que ello fuese tan evidente.
Comencemos por definirla como la capacidad de un sistema computarizado de imitar las funciones de aprendizaje y resolución de problemas tradicionalmente identificadas con el cerebro humano que, se traduce en que una pieza de hardware, alimentada con software para manejar matemáticamente datos y patrones, para asemejarse al proceso humano de toma de decisiones. Adicionalmente, hay que tener presente una subcategoría de la AI denominada Machine Learning que adicionalmente por medio de una serie de algoritmos, agrega la posibilidad de identificar modelos y “aprender” sin necesidad de que la totalidad de la información le sea proporcionada de manera directa. Bajo este criterio, se suele hablar de máquinas inteligentes que de manera independiente aumenta su bagaje de conocimiento y capacidades de resolución de problemas o ejecución de tareas. Generalmente mostrando capacidad de seleccionar información de variadas fuentes, organizarla e interpretarla con el propósito de identificar Patrones y (i) hacer predicciones o (ii) recomendar alternativas.
Estas herramientas se vienen integrando a la forma como las instituciones financieras acometen la constante demanda de mejores servicios a menores precios (sin disminuir seguridad o calidad). Con el propósito de reducir dependencia de personal en la ejecución de tareas repetitivas y de bajo valor agregado, disminución de error humano y de atención las 24 horas 365 días al año, esta innovación junto a la posibilidad de acceso a inmensos volúmenes de data, ha afianzado la implementación de soluciones con AI en diversos aspectos de la experiencia del cliente de servicios financieros.
Prevención y detección de Fraude: Los procesos de Prevención de Lavado de Dinero, pueden ser uno de los ejemplos más ilustrativos de cómo por medio de esto alimentar a la herramienta con la información clasificada en bases de datos con características y triggers específicos, lo que antes era un rutinario monitoreo que disparaba alarmas por alcanzar picos o entrar en una categoría distinta, generaba un porcentaje de “falsos positivos” que congelaba transacciones ( a veces irrevocablemente otras más afortunadas remitidas a un oficial de mayor rango para tomar la decisión) con una natural inclinación a que en caso de duda, la transacción se invalidaría. Con la inserción de la AI y su posibilidad de inmediata comparación de patrones (con sus respectivos resultados) se logra un mapeo casi instantáneo de la situación del cliente dentro del ambiente financiero en que se desenvuelve, lo cual permite identificar situaciones en que es natural que se excedan los rangos promedio de operación, y con ello, facilitar el proceso de aprobación. Asimismo, la otra cara de la moneda es la posibilidad que por medio de las mismas herramientas se tenga una visión global integrada capaz de detectar conexiones, patrones y estrategias probablemente ejecutadas para opacar operaciones de modo de hacer más eficiente la prevención y detección de actividades contrarias a derecho que hasta en el pasado pasaban desapercibidas.
CRM: Probablemente uno de los sectores en que más visible se hace esta tecnología en diversos niveles de sofisticación es en el manejo de relaciones con los clientes y aquí, encontramos combinaciones tecnológicas como reconocimiento de voz, biometría, etc., que permiten a los usuarios acceso las 24 horas del día y la automatización de operaciones recurrentes, pero más allá de eso, cada interacción con el cliente genera datos sobre su comportamiento y esta data cuidadosamente almacenada puede ser utilizada, aprovechando las fortalezas de la AI para analizar patrones de conducta y segmentar perfiles automáticamente que se utilizan para direccionar campañas que mejoren la experiencia de usuario y equipen a la institución con la posibilidad de ofrecer nuevos productos. Armados con herramientas automatizadas de análisis predictivo, la instituciones están refinando sus evaluaciones de crédito, valoraciones de riesgo y sujeción a impactos externos previamente no incorporados a la ecuación que no solo se traducen en aprobaciones más ágiles sino también en posibilidades de mejor manejo del índice de default.
Especial mención requieren los Chatbots que consisten en aplicaciones equipadas con reconocimiento de lenguaje natural en combinación con AI capaces de mantener “conversaciones” on-line y no sólo brindar información sino en muchos en casos, activar o desactivar servicios sin la participación humana por parte de la institución financiera.

Posición del usuario frente a este despliegue tecnológico del otro lado de la pantalla, cabe preguntarse si permanece aplicable el mismo marco regulatorio.
Lo cierto es que, en la medida que estas herramientas se implementen de manera controlada y responsable es de esperarse que en virtud de más clientes satisfechos, se masifique la aceptación de la AI dentro de los procesos de transformación digital y mejora tecnológica de las instituciones, sin embargo tratándose de herramientas sofisticadas frente a las cuales el usuario tiene muchas veces nula posibilidad de control, ¿cuántas veces con frustración no hemos escuchado hasta el final de la grabación con la esperanza de que un ser humano tome la llamada para atender nuestro requerimiento que no califica dentro de las opciones del 1 al 9 del menú automatizado de atención al cliente? Es importante hacer seguimiento constante de la evolución de estas nuevas relaciones a manera de actualizar oportunamente su reflejo en los marcos regulatorios que corresponda, por ejemplo surgen preguntas como:
1.¿Cómo (de ser el caso) se ven afectados los derechos del usuario al interactuar con Bots?
Como principio general los proveedores de servicios tecnológicos son ubicados por la normativa en una posición de ventaja frente al consumidor (por aquello de que dominan una o varias áreas de la ciencia a un nivel mucho mayor del que el entendimiento del ciudadano estándar podría conocer y comprender), así cuando estamos siendo objeto de registro fotográfico, o se está presumiendo que cierto estándar de calidad o riesgo es el adecuado para el usuario, se obliga al proveedor de servicios a informar claramente y de manera expresa y previa a que el usuario manifieste su aceptación o continúe el proceso para disfrutar del servicio. Cabe preguntarse entonces si para algunos supuestos sería necesario que se nos ponga previamente en conocimiento que el “operador” con quien estamos interactuando no es un ser humano sino una sofisticada combinación de data y algoritmos que está filtrando nuestra información y aplicando reglas para encaminarnos por un flujo de procesos que desencadene idealmente en brindar el servicio que estamos solicitando.
2.- ¿De qué debería estar alerta el usuario, así como la institución que introduce AI dentro de sus canales regulares de atención al cliente?
Teniendo como premisa que la herramienta de AI, “aprende” de la información que recibe (o que se la programa a consultar de ser el caso) es importante no perder de vista la posibilidad de sesgo en la forma como se toman las decisiones, así no solo los algoritmos deben estar probados y validados, sino también la manera como se recopila, presenta y ofrece la información con la que el mecanismo aprende y mucho más importante, aunque menos evidente, es indispensable poner mucha atención a cómo esa AI resuelve aquellos casos para los cuales no posee suficiente información, ya que cualquier tipo o categoría de información que no entre deliberadamente a su base de datos, difícilmente podrá alimentar su proceso de toma de decisiones y esto podría dejar por fuera minorías o casos especiales.
En programación es rutinario establecer parámetros de default conectados con respuestas generalmente adversas al riesgo, de manera que estando parametrizado el sistema de machine learning para reconocer patrones, podría darse el caso de denegaciones de servicio injustificadas, como por ejemplo; cuando un usuario interactúa con la aplicación desde dispositivos no registrados como seguros, dirección IP diferente de la correspondiente a su residencia, solicita un servicio que no ha consumido anteriormente y esto genera una alerta de seguridad y posible denegación de servicio. En teoría muchas denegaciones de servicio involuntarias con respecto a una dirección IP, número de teléfono u otro elemento, podrían “enseñarle” a la AI que ese elemento repetidamente rechazado es negativo y de esa manera involuntariamente catalogar en minusvalía a ciertos usuarios con fundamento en elementos ajenos a los motivos legítimos para denegación de servicio.

Posibilidad de la AI de cometer errores y hasta incurrir en conductas contrarias al interés de los clientes o de la institución.
Desde el momento en que se pone bajo el control de una herramienta automatizada la posibilidad de ejecutar actos de disposición (hacer o no hacer) sobre los bienes de los usuarios, es indispensable revisar cómo protegerlos de la posibilidad de error por parte de la herramienta que pudiera traducirse en perjuicio para los intereses del usuario.
Para evitar consecuencias indeseables, se hace necesario tener presente que esa posibilidad de error, consiste en un modelo de amenaza, cambiante, incierto y difícil de definir, ya que el comportamiento de la herramienta va a evolucionar con el tiempo y “aprender”, así como establecer sus propios parámetros de “juicio” fundamentados en el comportamiento de la base de datos generada por la información que consume, en consecuencia, pareciera recomendable para las instituciones establecer programas de monitoreo (humano) de la calidad de los resultados de gestión de la AI, para que muy tempranamente observen si el patrón que está manejando a AI se pueda estar desviando del objetivo institucional e introducir los correctivos necesarios para que la AI y su base de datos progresen exactamente en el sentido que mejor beneficie o proteja los derechos de los involucrados.
Responsabilidad de las Instituciones Financieras (así como cualquier otro prestador de servicios al público) por las decisiones de sus Bots habilitados con AI
En general el principio de derecho establece presunción de responsabilidad del empresario por los medios y calidad adecuada de los productos y servicios que pone a disposición del público. Las forma tradicional de evitar que se le impute una responsabilidad a la institución y por ende algún tipo de exigencia de reparación económica consiste en o medidas de prevención del riesgo, pensando en ello es recomendable por lo menos incluir en el plan de implementación lo siguiente:
- Documentar claramente los objetivos hacia los cuales debe orientarse el “aprendizaje” de la AI.
- Diseñar acciones de formación para proveedores, directivos y empleados con un programa de transición a modelos de AI tendiendo a una evolución con baja fricción.
- Establecimiento de un plan de medición de desempeño de los mecanismos potenciados por AI, conectado con las metas estratégicas de la institución.
- Generar un cronograma de evaluación interna regular y periódica para validar que los parámetros de ejecución de las tareas encomendadas a la AI se armonicen con los programas de cumplimiento normativo.
Tratándose de una herramienta novedosa, la persona natural o jurídica que la introduce al mercado deberá alimentar con información legal herramienta de AI para distinguir entre los derechos de los usuarios y las expectativas de derecho de un potencial cliente, puesto que no es lo mismo suspender una operación a un cliente que ha depositado sus recursos en una cuenta a la vista, que negar una solicitud de crédito a un potencial nuevo cliente con quien no existe una relación contractual previa.
En el mismo sentido habrá que analizar de manera separada la responsabilidad de la institución financiera que pone en uso la herramienta y la persona jurídica que desarrolló y puso en el mercado la herramienta computarizada que esa institución adquiere, validando que los contratos establezcan claramente cuando las obligaciones asumidas sean de medio o de resultado.
En definitiva la AI no deja de ser una herramienta, novedosa, poderosa y sorprendente, pero que cuidadosamente implementada tiene potencial de introducir mucha más mejora que riesgos y como en todo negocio la mitigación de estos últimos está en el manejo responsable de cada institución que las implemente, aplicando la metodología ya existente de prevención, mitigación control y seguimiento.
Aclaratoria: nada de lo aquí expresado constituye asesoría legal o financiera, las opiniones aquí expresadas son personales del autor y no guardan relación directa con empresas o proyectos individualmente considerados.

Lya Glaentzlin D´Ascoli
Profesional de Blockchain (IDCAP) y Transformación Digital, TEP, Project Manager y abogada con más de 25 años previos de experiencia en Inversión Extranjera, Banca Internacional y Mercado de Capitales en Latinoamérica.