La responsabilidad del editor

La responsabilidad del editor

Por Adrián Machado



La demanda de CFK a Google expone la discusión en torno a la opacidad de los algoritmos y el rol de las plataformas.

El jueves 6 de agosto la vicepresidenta de la Nación, Cristina Fernández de Kirchner, solicitó una serie de pericias informáticas contra Google -que tienen el fin de servir como prueba en una demanda- debido al contenido injurioso que el buscador resaltó como resultado principal en el “panel de conocimiento”. Esta sección se ubica en la parte superior derecha de los resultados y suele oficiar como una suerte de mini biografía de personajes públicos -políticos, deportistas, actrices, empresarios, etc.-.

El 17 de mayo, durante algunas horas, si se googleaba “Cristina Fernández de Kirchner” el resultado arrojado en dicho panel era “Ladrona de la Nación”. El equipo de abogados de Cristina alega que las difamaciones pudieron ser vistas por una gran cantidad de personas y amplificadas por diferentes medios de comunicación, antes de ser corregidas. Los agravios son indudables, más allá que las figuras públicas tienen un umbral superior que las personas de a pie en cuanto a críticas y agravios, son insultados diariamente y no recurren a la Justicia por ello. El juez Javier Pico Terrero, a cargo del Juzgado Civil y Comercial Federal N°7, dio curso -un día después de presentada la solicitud- al pedido de una pericia informática.

El caso tiene algunas particularidades que lo hacen atractivo: las injurias y agravios se reproducen y amplifican en el panel de conocimiento de Google. Según la plataforma, el panel intenta, de manera automática y gracias a un algoritmo, mostrar los contenidos más relevantes y populares. En muchas oportunidades, aparentemente también en el caso en cuestión, el buscador utiliza como insumos las entradas de Wikipedia, cuyos mecanismos de edición pueden ser vulnerados de manera no muy complicada, dada la lógica colaborativa de la enciclopedia digital.

Como señala Andrés Piazza, abogado y consultor, las personalidades públicas pueden pedir cambios en el panel, por lo que se podría creer que bastaría con la autorregulación para resolver un caso individual. “Sin embargo, es indudable que las selecciones, priorizaciones y jerarquizaciones que realiza el buscador no son neutras, sino que se tratan de ‘actos propios’ que deben ser reconocidos”, argumenta el abogado. Es decir, que aunque las intenciones en sentido difamatorio fueran efectuadas por editores de Wikipedia, puede existir responsabilidad por parte de Google. El panel de conocimiento es un contenido nuevo, con texto e imágenes combinadas.

Martin Becerra, investigador y profesor universitario, indica que los criterios de Google -buscador utilizado por el 95% de los argentinos- “distan de ser neutrales, causales y asépticos”. A ese tipo de conclusiones arriban constantemente informes de distintos organismos de diferentes países, “como la Autoridad de la Competencia del Reino Unido, el subcomité antimonopolio de la Cámara de Representantes de Estados Unidos, trabajos académicos y estudios sectoriales”, sostiene Becerra.

El caso tiene ante sí el objetivo de dilucidar la responsabilidad de la plataforma, ¿Es un simple exhibidor neutral o prioriza material en la indexación de búsquedas? En sus normativas la empresa explicita su política para este tipo de casos, “los fragmentos destacados no deben incluir contenido que denigre a nadie ni que promueva o justifique la violencia”. Evidentemente, con CFK no se cumplió.

Esta explicación oficial, continúa Becerra, “relativiza el carácter de intermediario aséptico con el que gusta presentarse cándidamente en sociedad y contiene, así, definiciones clave para abordar el caso”. La compañía escoge el orden y la escala de los resultados del buscador, programa su motor de búsqueda priorizando la información que, aunque provenga de un tercero, no alcanza para eludir la propia responsabilidad. Entonces, podemos decir que Google tiene responsabilidad editorial.

Algunos columnistas, especialistas o público en general han recordado antecedentes en el país, a raíz de la presentación realizada por Cristina Fernández. Las modelos Belén Rodríguez y Analía Maiorana tuvieron sentencias, en 2014 y 2018, contrarias a la responsabilidad de los llamados intermediarios. También se recordó el caso del ex gobernador jujeño Guillermo Jenefes, quien tampoco tuvo un fallo favorable en cuanto a la indexación de contenidos lesivos para su reputación. Incluso, este martes Natalia Denegri consiguió que los jueces de la Sala H de la Cámara Nacional en lo Civil confirmaran la sentencia de febrero del Juzgado Nacional de Primera Instancia de la Ciudad de Buenos Aires, por lo que el pedido de Denegri para la desindexación de los enlaces que exhiban videos o imágenes de su pasado mediático, así como también cualquier reportaje televisivo en el que hubiera brindado información acerca de experiencias de su vida privada, quedó firme. En marzo, en estas mismas páginas, reseñamos ese episodio.

Lo que denuncia la vicepresidenta es distinto a estos antecedentes, ya que no pide la eliminación de contenido ofensivo, sino que exige que se determine la responsabilidad efectiva que le cabe a la empresa por haber colocado en primer lugar de las búsquedas y exhibido a millones de usuarios contenido difamatorio. Por supuesto que este caso no es extraordinario a nivel mundial, tiene varias similitudes con otros que se tramitan actualmente en países centrales y atañen a la responsabilidad de las plataformas en cuanto a la edición, moderación u organización de contenido. Son problemas, con nuevas tecnologías, de derechos como el honor, la discriminación y la libertad de expresión.

La denuncia, el reclamo, va más allá de la mera lesión de los derechos individuales y alguna posible compensación, sino que pone en primera plana en el país a una discusión que se realiza en buena parte del mundo central: la regulación de las plataformas y la responsabilidad de los intermediarios. Distintos Estados nacionales comenzaron a dejar de lado el modelo de autorregulación y se plantean distintas acciones desde los Estados Unidos, el Reino Unido o la Unión Europea, por ejemplo. En Argentina este debate se encuentra en un estadio muy preliminar aún.

Piazza menciona debates internacionales que han alcanzado algún punto de acuerdo, como los Principios de Manila, que consideran que los intermediarios “no deberían responder por contenidos de terceros, y que los contenidos generados por los usuarios no deberían ser limitados sin las garantías de una orden judicial y sin el respeto por el debido proceso”. Aunque, subraya el especialista, la eficacia no ha sido la misma al momento de producir marcos regulatorios capaces de comprender plenamente el funcionamiento de la red.

La cuestión de las responsabilidades en una posible regulación de las grandes plataformas es un tema que debe tener un profundo debate, debido a la pretensión de atribuirles responsabilidad objetiva a los algoritmos por parte de ciertos actores, bajo el argumento de considerarlos elementos riesgosos por sí mismos. Un espectro regulatorio de este tipo podría resultar inconveniente tanto para empresas como para usuarios, afirma el experto, porque el riesgo de que las plataformas acentúen la censura privada se incrementaría. Por ejemplo, la mayoría de los contenidos eliminados por discurso de odio de Facebook fueron realizados vía inteligencia artificial -más de 10 millones de publicaciones borradas por trimestre en 2020-.

Precisamente, la organización algorítmica trasciende la moderación de contenidos de terceros, el impacto de la inteligencia artificial abarca buena parte de nuestras vidas. En Argentina, al igual que en muchos otros países, es entre escasa y nula la transparencia y la regulación sobre los algoritmos. La ignorancia sobre estos procedimientos es problemática tanto para empresas, como para gobiernos y ciudadanos. Por lo que resta esperar el resultado de la medida de prueba concedida por el Juez de la causa, que pretende ofrecer “acceso e intervención de la totalidad del sistema y registro informático utilizado por la empresa”, porque “la prueba que surja de su plataforma es de única y exclusiva administración de la empresa”.

La visibilidad que tiene el caso, por tratarse de Google y Cristina, puede servir para que el tema se instale en la agenda pública mediática. Pero, al mismo tiempo, argumenta Becerra, el peso tan grande de una figura como CFK y el monopólico buscador pueden bajar la calidad del debate: muchos actores toman y tomarán postura en función de las simpatías o antipatías previas. Es por ello que la discusión debe despojarse de nombres propios para poder debatir, a partir de una causa particular, un tema general y central para la sociedad: el funcionamiento y la transparencia de los algoritmos.

#PA.

Domingo 16 de agosto de 2020.