
Tiempo de lectura aprox: 2 minutos, 38 segundos
Por Victor Vega, Líder de Inteligencia, OCA Reputación
En una era donde las grandes organizaciones compiten por encabezar la adopción de inteligencia artificial, hay casos que destacan no solo por su escala, sino por las preguntas que dejan al descubierto. BBVA Europa es uno de ellos. Con más de 11 mil licencias activas, 3 mil GPTs internos creados por empleados y un 83% de uso diario, su despliegue de ChatGPT Enterprise es, en efecto, impresionante. Pero cuando una institución sistémica implementa tecnología en expansión acelerada, el centro de gravedad no es la eficiencia, porque la transformación digital no es sólo técnica, es reputacional, estructural y ética. Es, en esencia, una cuestión de confianza.
Escala que deslumbra, riesgo que se amplifica
La narrativa de la empresa es impecable: gobernanza sólida, cumplimiento con el AI Act europeo, alineación con ISO 42001, colaboración con IBM Research. Un ecosistema de innovación que incluye protocolos internos, comités y un GPT Store para compartir usos. Pero el verdadero problema no está en la intención, sino en la sincronía entre lo que se despliega y lo que se puede gobernar, porque en este tipo de demostraciones, una falla no afecta a uno. Puede escalar a miles —o incluso millones— en tiempo real.
Actualmente, BBVA emplea IA generativa en funciones críticas: consultas legales, análisis de riesgo crediticio, procesamiento de retroalimentación de clientes, automatización de operaciones, generación de contenidos de marketing. Lo hace con modelos internos, alojados en entornos seguros, pero que siguen siendo estructuras probabilísticas. Es decir, pueden ofrecer respuestas incorrectas. Y cuando esos sistemas operan dentro de una infraestructura bancaria global, las consecuencias ya no son técnicas, se vuelven estructurales.
Este no es un argumento en contra de la IA. Es una advertencia sobre cómo las instituciones que más rápido escalan son también las que más necesitan mecanismos de contención cultural y operativa. Alucinaciones, prompts mal diseñados o decisiones automatizadas sin revisión pueden provocar fallas críticas si no se manejan con filtros reales, más que sólo escritos en papel.
México y la presión de la realidad operativa
En mercados como México —uno de los países en Latinoamérica con mayor actividad bancaria digital y frecuencia de ciberataques—, el uso intensivo de IA requiere más que firewalls. Exige una cultura de conciencia operativa y trazabilidad real. Y no siempre está. La mayoría de los avisos de privacidad aún no contempla explícitamente la intervención de IA en procesos sensibles. No se informa al usuario cuando está interactuando con un sistema generativo. Y en muchos casos, no hay garantías claras de revisión humana ante decisiones críticas.
Como ocurre en el caso de BBVA Europa, donde se concentra esta implementación, la escala no puede convertirse en excusa para normalizar zonas grises. ¿Cuántos de esos 3 mil GPTs han sido auditados con profundidad? ¿Cuántos siguen activos sin actualización? ¿Quién monitorea si el lenguaje que generan es consistente con la regulación, la marca y el interés del cliente?
Reputación, confianza y lo que no se ve
El riesgo no es solo técnico. Es reputacional, estructural y sistémico. Un fallo en una unidad puede replicarse en cadena. Una recomendación errónea en un GPT jurídico puede derivar en conflictos regulatorios. Una interpretación sesgada de datos puede resultar en decisiones discriminatorias. Todo esto ya no es un escenario hipotético, es parte del presente. Solo que muchos analistas se dejan deslumbrar con las cifras de adopción y abandonan, quizá sin advertirlo, los lentes de escrutinio que deberían mantenerse puestos.
El Edelman Trust Barometer 2025 muestra una paradoja: la confianza en la tecnología ha crecido, pero es frágil. En el sector financiero, los usuarios quieren eficiencia, pero exigen responsabilidad. Aceptan automatización, pero no sin garantías de que existe un plan de respuesta cuando algo falla.
La confianza no se improvisa
BBVA no solo lidera por volumen. Lidera por el impacto que puede generar si algo no sale como se esperaba. Y eso exige una gobernanza que no se presuma, sino que se practique. Comités que no validen por protocolo, sino que funcionen como freno activo y métricas de éxito que no cuenten GPTs creados, sino aquellos que cumplen estándares de seguridad, ética y trazabilidad.
Porque cuando una institución escala más rápido de lo que evoluciona su capacidad de control, lo que está en juego no es solo su eficiencia operativa. Es su arquitectura de confianza, y esa, no se construye con anuncios, se preserva con estructura. Con responsabilidad. Con conciencia real de que en la era de los modelos generativos, el mayor error no es la falla de la IA, sino la omisión humana cuando ocurre.
www.linkedin.com/in/victor-manuel-vega-reyes
Invertirá BBVA 100,000 millones de pesos en México entre 2025 y 2030: Torres Vila