Prejuicio Cifrado: reconocimiento facial e inteligencia artificial

Prejuicio Cifrado: reconocimiento facial e inteligencia artificial

Por Adrián Machado


El documental analiza los peligros de la inteligencia artificial y su creciente omnipresencia en la vida cotidiana. El punto de partida es una investigación realizada que muestra que, con frecuencia, los algoritmos reflejan prejuicios racistas.

La película Coded Bias (Prejuicio codificado) comienza con Joy Buolamwini, una investigadora del laboratorio de medios del MIT que descubre que la mayoría de los softwares de reconocimiento facial no reconoce los rostros de mujeres ni los de pieles oscuras. Además, Buolamwini revela que la inteligencia artificial, de hecho, no es una herramienta científica neutra, sino que internaliza y se hace eco de las inequidades de la sociedad en su conjunto. A partir de un experimento con técnicas de reconocimiento facial, luego de que una máscara blanca sobre su rostro de tez negra permitiera los resultados buscados, imposibles de lograr sin el adminículo. Desde ese descubrimiento se desarrolla el film de Shalini Kantayya.

El documental, disponible en Netflix, diferencia claramente una cuestión sobre los algoritmos: no se trata que en sí sean racistas o sexistas, sino que fueron armados, creados y configurados en función de prejuicios asentados en la cultura y que el algoritmo no hace más que replicar y aumentar. las técnicas digitales para reconocer rostros funcionan mucho mejor en hombres y mujeres blancas (sobre todo en los primeros) que en aquellas personas con tonos de piel más oscuros. Los principales programadores son, lógicamente, hombres blancos.

El racial es solo uno de los ejes del documental. Los distintos entrevistados (es un clásico documental de cabezas parlantes, metraje de otros films, material de archivo y una ridícula “inteligencia artificial”) van analizando diferentes problemas que surgen de los “prejuicios” del código: las mujeres tienen más dificultades a la hora de conseguir trabajo por cómo funcionan los algoritmos que se dedican a recomendar personas para distintas posiciones, las personas afroamericanas suelen ser más despedidas que las blancas de trabajos en función de sistemas de performance review (muy usadas con docentes, por ejemplo) y algo similar surge a la hora de conseguir créditos bancarios.

***

***

Luego la acción se centra en Londres, donde demuestra que el uso del reconocimiento facial por parte de la policía local tiene resultados reñidos con la ley, la ética y la privacidad: las víctimas de los errores del software son, casi siempre, ciudadanos negros o bien de origen extranjero. La comparación del uso de esos recursos tecnológicos en países como los Estados Unidos con su existencia cotidiana en China –donde los “créditos sociales” delimitan los logros y deméritos de sus habitantes– es pertinente, aunque Amazon, Facebook e IBM, entre otras (6 de las 9 que controlan el negocio de la IA) se encuentran en suelo estadounidense.

¿Qué ocurriría si esas detalladas bases de datos, utilizadas hoy en día con fines comerciales, fueran el origen de manipulaciones políticas o sociales? El ejemplo de las elecciones nacionales de 2016 en EE.UU., cuando un experimento de Facebook redundó en una explosión de votantes que pudo haber definido el ajustado margen del ganador, o el fracaso de una tecnología de Amazon, a todas luces sexista, que declinó todos los CV de postulantes mujeres, apuntan hacia una dirección de dimensiones escalofriantes.

Es llamativo que esta producción documental se exhiba en Netflix. Si bien pone el foco en Amazon, Microsoft, Facebook y Google, las informaciones personales captadas por empresas como Netflix también podrían ser parte de esta suerte de sistema de control socioeconómico que la propia película presenta como un severo problema. Aquí, quizás, está una de las grandes contradicciones de estos documentales (como “El dilema de las redes sociales”). A la hora de cuidar sus propios intereses, da la impresión que sus problemas con las grandes empresas que manipulan comportamientos mediante algoritmos no importan demasiado.

En el plano de sistemas políticos, la diferencia entre China y Estados Unidos, es que la primera blanquea el uso de inteligencia artificial para el control social. La visión orwelliana ha quedado un tanto desenfocada, hoy el cibercontrol suele pasar desapercibido o tomado como un elemento más de lo cotidiano. La eficacia de las tecnologías de control se basa en su invisibilidad, a diferencia de las disciplinas centradas en lo visible de sus dispositivos. Estas tienen como centro a la participación del individuo vigilado, mientras que las primeras lo reducen a un simple objeto de información. No es necesario siquiera que el sujeto sepa sobre su vigilancia. El carácter invisible de las tecnologías de control le deja muy poco margen de acción a la persona, ya que no conoce exactamente los procedimientos que se realizan.

Difícil es imaginar cómo el individuo puede dar su consentimiento y ejercer su derecho a la oposición a las cámaras de videovigilancia o al envío de cookies. Tampoco es fácil imaginar cómo los data centers y los almacenes de datos, alimentados continuamente, pueden respetar los principios de finalidad y de proporcionalidad. Los Estados, con sus organismos encargados de custodiar la privacidad de sus ciudadanos, son incapaces de hacer cumplir las reglas que ellos mismos han dictado. La desterritorialización juega un rol central en esta cuestión, pues los datos se recolectan en ciertos territorios, pero la actividad empresarial está afincada en naciones donde esas reglas no se aplican. Por esa razón, así como la existencia de esquemas tributarios laxos, son elegidos como sedes de sus actividades comerciales.

La desincronización entre el tiempo maquínico de la hipervigilancia cibernética y el tiempo institucional de la regulación es evidente para cualquier ciudadano de a pie. Los procesos automáticos funcionan de manera mucho más veloz que los esfuerzos jurídicos que intentan proteger los abusos. Es más, luego de la sanción de una norma sigue la etapa de cumplimiento de la misma, algo que suele ser descuidado por los distintos gobiernos.

Actualmente, vía innovación tecnológica, el controlado puede acceder a medios de control que antes eran potestad única del controlador. Es decir, pasar de vigilado a vigilador. O al menos intentarlo. ♣♣♣

#PA.