La inteligencia artificial ya no es una promesa futurista. Está aquí, operando detrás de las pantallas de nuestras aplicaciones bancarias, filtrando solicitudes de crédito, personalizando ofertas y hasta proponiendo cómo gestionar mejor nuestras finanzas. Pero con este poder llega una pregunta que no puede quedar en el aire ¿confiamos en que estas máquinas tomen decisiones que afectan nuestro dinero, nuestro acceso a servicios, nuestra vida económica?
El motor oculto de la banca moderna
Los bancos no están simplemente probando la inteligencia artificial. La están integrando en el corazón de su operación. Desde la detección de fraudes hasta la atención al cliente automatizada, la IA ya está transformando cómo interactuamos con nuestras entidades financieras. Pero su papel va mucho más allá del ahorro de costes. Se trata de redefinir el modelo de negocio, desde la relación con el cliente hasta la organización interna.
Petro Astarloa, responsable de estrategia y control de data del BBVA, lo dice sin rodeos la IA no es una herramienta aislada, sino un catalizador de cambio estructural. Y ese cambio no es solo tecnológico. Exige un giro cultural profundo en cómo las instituciones manejan la información, toman decisiones y comunican sus procesos.
Confianza el activo más frágil
Un sistema puede ser eficiente, rápido y preciso. Pero si no es transparente, pierde legitimidad. Y en el sector financiero, donde la confianza es el pilar más valioso, una falla en la percepción puede tener consecuencias severas. Por eso, varios expertos coinciden en un punto clave es fundamental generar confianza y explicar con claridad cuándo interviene la IA y cuáles son sus límites.
El equipo de tecnología y transformación digital e IA de Qaracter lo tiene claro la confianza del cliente se erosiona rápidamente si la IA falla. Su propuesta no es volver al pasado, sino avanzar con cautela. Abogan por un modelo híbrido en el que lo digital sea lo habitual, pero exista intervención humana cuando la situación lo requiera, especialmente en decisiones sensibles. No se trata de frenar la innovación, sino de encauzarla con sentido común.
Los retos que van más allá del algoritmo
El verdadero desafío no está solo en la tecnología. Raúl Ramírez, responsable de transformación en IA de NTT DATA para el sector financiero, lo resume en dos frentes por un lado, la seguridad, la calidad del dato y la fiabilidad de los modelos; por otro, la capacidad interna para integrar la IA en los procesos y contar con equipos capacitados para gestionarla.
Y es que un algoritmo es tan bueno como los datos que come. Si los datos son sesgados, incompletos o mal gestionados, el resultado será, en el mejor de los casos, ineficaz; en el peor, injusto. La calidad del dato no es un asunto técnico menor, es una cuestión ética y operativa.
Un marco que debe crecer a la par que la tecnología
En este escenario, la regulación no puede quedarse atrás. El Reglamento (UE) 2024/1689, conocido como RIA, entra en juego con un objetivo claro establecer reglas de juego para el uso de la IA en contextos de alto riesgo, como el financiero. Su aplicación será progresiva, y se plantea incluso un reglamento ómnibus digital para simplificar su implementación.
Patricia Pérez, directora del programa especializado en derecho digital e IA del IEB, destaca la necesidad de simplificar estos marcos legales para que las empresas puedan cumplirlos sin perder agilidad. Pero más allá de la burocracia, está el núcleo del asunto la gobernanza. Hernández, experto de Accenture, insiste en que el desarrollo de la inteligencia artificial debe abordarse desde un enfoque de seguridad y privacidad por diseño.
El desarrollo de la inteligencia artificial debe abordarse desde un enfoque de seguridad y privacidad por diseño, integrando principios de IA responsable desde las fases iniciales
Transparencia, no caja negra
Para José Antonio Marcos, vicedecano de business & tech de la UAX, la adopción de la IA depende directamente de la confianza. Y esa confianza no surge por arte de magia se construye con seguridad, con privacidad del dato, con transparencia sobre el uso de la inteligencia artificial y con una comunicación clara que evite que el servicio se perciba como opaco o invasivo.
En otras palabras, no basta con que la máquina funcione. Hay que explicar cómo funciona. Y si toma una decisión que afecta a una persona, esa persona debe poder entender por qué. No se trata de pedir un manual técnico, sino de garantizar un derecho básico el derecho a saber.
El futuro no es solo algoritmos, es humanidad
La banca del futuro no será ni completamente humana ni completamente automática. Será una mezcla cuidadosa, pensada, ética. Un equilibrio entre eficiencia y empatía, entre automatización y control. Los algoritmos pueden predecir tendencias, pero no pueden reemplazar el juicio moral, ni la capacidad de entender matices emocionales en una situación de dificultad financiera.
El verdadero avance no será medido solo por cuánto ahorra la IA en costes operativos, sino por cuánta confianza genera en las personas que la usan. Porque al final, en un sector donde todo gira en torno al riesgo, el mayor riesgo sigue siendo perder la confianza del cliente.