
Tiempo de lectura aprox: 2 minutos, 29 segundos
El regreso de Luis Videgaray a la escena pública, esta vez como cofundador de Brain Co., una startup de inteligencia artificial que acaba de levantar 30 millones de dólares, es más que una anécdota sobre un político que “viene a aprender” en su fase de empresario. Es, sobre todo, una ventana hacia el tipo de tensiones que definirá nuestro futuro: la relación entre tecnología, poder y regulación.
Brain Co., fundada junto con Jared Kushner —yerno de Donald Trump y una de las figuras políticas de más alto perfil en Estados Unidos—y el inversionista Elad Gil, no busca competir por usuarios en el mercado de consumo. Su ambición es otra: convertirse en el socio preferente de gobiernos y corporativos globales para implementar IA en gran escala, con el respaldo de una alianza con OpenAI. La participación de Videgaray en este proyecto es ejemplo de cómo la inteligencia artificial ya no es solo un asunto técnico, sino un terreno donde se mezclan intereses políticos, financieros y diplomáticos.
Por eso, es urgente discutir su regulación. Porque si exfuncionarios con trayectoria en la diplomacia y la política económica ahora encabezan empresas que quieren influir en la adopción gubernamental de la IA, lo que está en juego no es únicamente la innovación, sino el diseño de un nuevo orden de poder.
Hoy, las iniciativas regulatorias avanzan con lentitud. La Unión Europea dio un paso importante con su AI Act, Estados Unidos debate esquemas de responsabilidad y transparencia, y en América Latina apenas empiezan a surgir esfuerzos fragmentados. Pero la escala de lo que viene exige más que parches normativos: necesitamos una arquitectura regulatoria comprehensiva y global que piense en el futuro hacia 2050, no solo en resolver las urgencias del presente.
Imaginemos un escenario sin regulación clara: gobiernos adquiriendo soluciones de inteligencia artificial sin estándares de transparencia, corporativos desplegando algoritmos en áreas críticas como salud, seguridad o finanzas, y startups con capital político —como Brain Co.— influyendo en decisiones que afectan a millones de personas. En ese mundo, la IA corre el riesgo de convertirse en herramienta de poder concentrado, en lugar de una palanca de desarrollo equitativo.
Rumbo a 2050, la IA no solo automatizará procesos o potenciará la productividad, así como el marketing actual nos quiere vender. Estará en el corazón de las políticas públicas: desde cómo se gestionan los sistemas de pensiones hasta cómo se toman decisiones de seguridad nacional. La regulación, entonces, no puede limitarse a “mitigar riesgos” técnicos, como sesgos en los algoritmos. Debe abarcar dimensiones más amplias.
Ahí, entran en la discusión aspectos como gobernanza internacional, transparencia, participación pública y protección de derechos humanos.
La aparición de Brain Co. es un recordatorio de lo que sucede cuando la regulación va detrás de la innovación. La empresa ha logrado reunir inversionistas del calibre de Brian Armstrong (Coinbase), Patrick Collison (Stripe) y Reid Hoffman (LinkedIn), lo que refuerza su legitimidad en el ecosistema tecnológico. Pero también evidencia cómo los capitales privados y las trayectorias políticas se entrelazan para ocupar un espacio aún vacío: el de socios estratégicos en la adopción de IA por parte de los gobiernos.
La pregunta es: ¿queremos que sean ellos quienes definan las reglas de juego? Tal vez no…
De aquí a 2050, regular la IA no será un lujo ni una restricción excesiva a la innovación. Será una condición básica para que la tecnología se convierta en un bien público y no en una herramienta más de concentración de poder. De lo contrario, corremos el riesgo de repetir con la inteligencia artificial lo que ya vimos con el cambio climático o las finanzas globales: décadas de retraso, donde los intereses privados marcaron la pauta y los Estados llegaron tarde a poner orden.
La historia reciente nos muestra que las decisiones tecnológicas nunca son neutras. Que Videgaray y Kushner estén detrás de Brain Co. no es casualidad: es la confirmación de que la inteligencia artificial será, además de motor económico, un instrumento político y diplomático. Y mientras no existan reglas claras, quienes tengan capital y conexiones definirán cómo se usa.
Rumbo a 2050, lo que está en juego no es solo la eficiencia de los algoritmos, sino el modelo de sociedad que queremos construir con ellos. Y esa definición no puede dejarse en manos de las startups más influyentes ni de los políticos que encontraron en la tecnología su siguiente plataforma de poder.