Feliz cumpleaños, ChatGPT… ¿Ahora qué sigue?

Por ahora, ChatGPT no sustituirá a los programadores

Tiempo de lectura aprox: 3 minutos, 9 segundos

GARANTIZAR LA IGUALDAD DE CONDICIONES PARA TODOS

ALDO RAMIREZ, ANIBAL ABARCA

“La transparencia en los sistemas de IA es fundamental para una aplicación ética y responsable. Al revelar cómo se crean y operan estos sistemas, podemos garantizar que la tecnología contribuye positivamente a nuestra sociedad y respeta los valores y derechos fundamentales de las personas.”

Esta es la respuesta que dio ChatGPT a la siguiente pregunta: ‘¿puedes escribir un párrafo sobre la importancia de la transparencia en los sistemas de IA como tú?’

Gran respuesta, ¿cierto? Sin embargo, un estudio reciente informó que ChatGPT tiene la peor clasificación en transparencia entre una lista de famosos generadores de texto. No se trata de un caso de hipocresía por parte de OpenAI, la empresa creadora de ChatGPT. Más bien, la disparidad revela un fenómeno interesante: mientras que la respuesta anterior es matemáticamente óptima, existe una clara falta de consenso en cuanto a la regulación de la IA.

Ahora, el escenario está listo para muchas discusiones interesantes. Esta semana se cumplió el primer aniversario de ChatGPT, y OpenAI quien recientemente anunció lo que se podría llamar la “nueva fase” de su herramienta estrella: los llamados GPT o agentes GPT. Sin embargo, tanto la cumbre de IA del Reino Unido (1 y 2 de noviembre) como la orden ejecutiva del presidente Biden sobre la IA (30 de octubre) representan medidas cruciales en la creación de marcos regulatorios para la inteligencia artificial, medidas que tendrán consecuencias en el panorama competitivo de la innovación.

Todo esto significa que estamos al borde de un período que verá un aumento tanto en la innovación como en la regulación, donde solo podemos esperar que prevalezca un cierto equilibrio entre ambas nociones. Exploremos cómo se vería ese equilibrio.

Transparencia detrás de los algoritmos y el uso de datos personales

Durante la última década, las preocupaciones sobre la tecnología digital se centraron en posibles abusos de datos personales. A su vez, el último año y medio ha experimentado el crecimiento de una nueva, aunque relacionada, preocupación. Según una encuesta sobre la regulación de la IA, las principales preocupaciones asociadas con la incorporación de esta tecnología a la vida cotidiana incluyen los siguientes puntos:

  1. Sesgo en los resultados producidos por los sistemas de IA.
  2. El impacto de la toma de decisiones de la IA.
  3. La forma en que la IA utiliza nuestros datos.
  4. Transparencia y explicabilidad de los sistemas de IA.

Estas preocupaciones son la causa de las recientes respuestas institucionales que encontramos en la Cumbre de IA del Reino Unido y la orden ejecutiva de Biden. En esencia, estas respuestas enfatizan la necesidad de asegurar los siguientes principios clave en el uso de la IA: seguridad, privacidad, equidad y derechos civiles; y protección del consumidor y del trabajador.

Asegurar el uso responsable de la IA

Todo esto nos lleva a una pregunta muy importante: ¿exactamente qué medidas prácticas deben tomarse para asegurar estos principios clave? En términos generales, hay dos niveles de acción:

  1. A nivel de desarrollo e implementación: las propuestas actuales para controlar mejor el diseño, la construcción y la implementación de la IA se centran ampliamente en cuatro aspectos clave (que están correlacionados con las preocupaciones mencionadas anteriormente): (a) equidad en los resultados esperados de una IA; (b) transparencia sobre los objetivos y metodologías de desarrollo de una IA; (c) explicabilidad de los algoritmos; y (d) verificación sistemática de dichos algoritmos.

La equidad se refiere a cualquier medida tomada para mitigar el sesgo potencial en la toma de decisiones de una IA. La transparencia se refiere a la divulgación efectiva de los usos previstos, limitaciones y metodologías detrás de las tecnologías de IA. La explicabilidad tiene como objetivo promover la comprensión de la toma de decisiones de una IA dada. Y la verificación sistemática se refiere a una variedad de métodos que verificarían si una IA se adhiere a ciertas especificaciones preestablecidas.

  1. A nivel social (mediático, educativo e institucional): además del constante llamado de la prensa global a un control sistemático de la IA, es importante difundir información precisa sobre la presencia cotidiana que estas tecnologías ya tienen. En cuanto a la educación, este ámbito se beneficiaría de la participación de expertos en IA, ética y tecnología para el bien público, diseñando cursos que se adhieran a ciertas normas o políticas que promuevan el uso responsable de la IA. Finalmente, quizás el área más importante a nivel social se refiere a la regulación institucional de la IA.

Todo lo mencionado anteriormente podría colapsar sin el establecimiento de políticas regulatorias aplicables, logradas a través de acuerdos y campañas como la Cumbre de IA del Reino Unido y la orden ejecutiva de Biden.

Un año después… ¿Qué debería de seguir?

Está claro que la IA es una herramienta poderosa. Una metáfora apropiada podría ser la de una herramienta de doble filo. Es crucial, entonces, que afilamos el filo que puede ayudarnos a fomentar el crecimiento económico y social, y que suavizamos el filo que puede dañar a la sociedad.

De hecho, la misión de IA de Wizeline implica abrazar el equilibrio entre la innovación y la regulación. Las iniciativas de la compañía (programas de entrenamiento de IA, G.AI.L, el Manifiesto de IA, las estrategias nativas de IA, etc.) durante los últimos 12 meses son buenos ejemplos del compromiso de la empresa con este objetivo. Dicho esto, muchos desafíos aún permanecen. Por lo tanto, debemos ser administradores responsables y trabajar juntos para establecer cuidadosamente procesos, pautas, límites, mejores prácticas, etc., para garantizar que los objetivos de IA de Wizeline se cumplan con partes iguales de sentido común y acciones responsables.