La inteligencia artificial no es tan inteligente; Amazon lanza tarjetas de servicio para advertir discriminación de sus softwares

Tiempo de lectura aprox: 1 minutos, 36 segundos

Este miércoles, Amazon lanzó sus primeras tres tarjetas de servicio para el software vendido por su área de computación en la nube, el objetivo de estas sería evitar el uso erróneo de su tecnología, explicar cómo funcionan sus sistemas y administrar la privacidad, dijo Amazon.

De acuerdo con la empresa, las llamadas tarjetas de servicio de inteligencia artificial (IA) de Amazon serán públicas para que sus clientes comerciales puedan ver las limitaciones de ciertos servicios en la nube, como el reconocimiento facial y la transcripción de audio, esto, dada la preocupación constante de la compañía de que los sistemas de inteligencia artificial puedan discriminar a diferentes grupos.

La empresa no es la primera en publicar este tipo de advertencias; el proveedor de la nube número 3, Google de Alphabet Inc, también ha publicado aún más detalles sobre los conjuntos de datos que ha utilizado para entrenar parte de su IA para evitar cualquier tipo de situaciones discriminatorias.

Sin embargo, de acuerdo con la agencia Reuters, la decisión de Amazon de lanzar sus primeras tarjetas de servicio refleja el intento de cambiar su imagen, después de que enfrentamientos con activistas de Derechos Humanos hace años dejaran la impresión de que a la compañia le importaba menos la ética de la IA que a sus pares.

Por su parte Michael Kearns, profesor de la Universidad de Pensilvania y desde 2020 académico en Amazon, aseguró que las tarjetas abordarían públicamente las preocupaciones sobre la ética de la IA en un momento en que la regulación tecnológica estaba en el horizonte e informó que la decisión de emitirlas fue posterior auditorías de privacidad y equidad del software de la compañía.

Entre los servicios que incluyen estas etiquetas se encuentra “Rekognition”, un servicio por el cual,, en 2019, Amazon impugnó un estudio que informaba que este tenía problemas para identificar el género de las personas con tonos de piel más oscuros. Pero después del asesinato en 2020 de George Floyd, donde se vio involucrado Rekognition, la compañía emitió una moratoria sobre el uso policial de su software de reconocimiento facial.

Sin embargo, Amazon ahora dice en una tarjeta de servicio de la la herramienta antes mencionada, que esta no admite la coincidencia de “imágenes que son demasiado borrosas y granulosas para que un ser humano las reconozca, o que tienen grandes porciones de la cara ocluidas por cabello, manos y otros objetos”. También advierte contra la coincidencia de caras en dibujos animados y otras “entidades no humanas”.

Jessica Newman, directora de la Iniciativa de Seguridad de IA de la Universidad de California en Berkeley, explicó que este tipo de movimientos por parte de las empresas de tecnología son los primeros indicios de prácticas responsables de IA, aunque tenían aun queda un largo camino por recorrer.

 

También te puede interesar: Para Alejandro Armenta, la Corte está de rodillas frente a delincuentes de cuello blanco