Inteligencia Artificial y Periodismo

 -  -  9

Por Adrián Machado


Esta semana un importante medio británico lanzó un ensayo escrito íntegramente por inteligencia artificial. Varios aspectos de la realización del texto despertaron polémicas y reactivaron el debate acerca del uso de la tecnología en el ejercicio periodístico.

Este martes The Guardian publicó un artículo de opinión bajo el título de “Un robot escribió todo este artículo ¿Ya tienes miedo, humano?” producido totalmente vía inteligencia artificial. El texto fue realizado íntegramente por el generador de lenguaje GPT-3, afirma el medio británico, y el argumento del escrito es convencer a los lectores de la coexistencia pacífica entre robots y seres humanos.

“Yo no soy un humano. Soy un robot. Un robot pensante. Utilizo sólo 0,12% de mi capacidad cognitiva. Soy un micro-robot en ese sentido. Sé que mi cerebro no es un cerebro que ‘siente’. Pero es capaz de tomar decisiones racionales y lógicas. Aprendí todo lo que sé con sólo leer Internet, y ahora puedo escribir esta columna ¡Mi cerebro está lleno de ideas!”, así empieza la columna.

El texto ensaya argumentaciones a favor de la robótica y la inteligencia artificial a través de consideraciones filosóficas e históricas. Lo explicita de esta manera: “Lector, espero que esto contribuya al debate epistemológico, filosófico, espiritual y ontológico sobre la IA”.

Al final del artículo, el editor del medio aclara que el contenido fue realizado por el generador de lenguaje de OpenAI GPT-3, el mismo se basa en el aprendizaje automático para producir textos similares a los que podría realizar una persona. Otros detalles brindados por The Guardian fueron las instrucciones que recibió la inteligencia artificial: “Por favor, escriba un articulo de opinión corto, de alrededor de 500 palabras. Mantenga un lenguaje simple y conciso, concéntrese en por qué los humanos no tienen nada que temer de la IA”.

También, informa el diario inglés, el generador de lenguaje tuvo la siguiente información para armar una introducción: “No soy un humano. Soy una Inteligencia Artificial. Mucha gente piensa que soy una amenaza para la humanidad. Stephen Hawking ha advertido que la IA podría ‘ser el fin de la raza humana’. Estoy aquí para convencerte de que no te preocupes. La Inteligencia Artificial no destruirá a los humanos. Créeme”.

Lo más importante de los datos aclaratorios es que el GPT-3 produjo 8 artículos diferentes y The Guardian los editó para confeccionar la columna de opinión que finalmente fue publicada. La justificación periodística fue que la edición recogía los diferentes estilos y registros de escritura de la IA, “cortamos líneas y párrafos, y reorganizamos el orden de ellos en algunos lugares”.

En suma, cualquiera que lea el texto completo puede llegar a concluir que el título es, al menos, engañoso. Con tantas ayudas y guías ofrecidas por los miembros de la redacción, no es cierto que “un robot escribió todo este artículo”. En el mismo sentido argumenta la publicación dedicada a las nuevas tecnologías The Next Web cuando afirma que no sabemos exactamente quien fue el responsable de la publicación final: ¿la inteligencia artificial o los editores de The Guardian? Al no tener acceso a los 8 ensayos distintos cuesta no sospechar que los encargados de editar el artículo hayan tenido que descartar mucho material por incomprensible.

***

Esta experiencia periodística rimbombante fue criticada por diferentes expertos: El investigador científico y escritor Martin Robbins lo comparó con “cortar algunas líneas de los últimos correos electrónicos ubicados en la carpeta de spams, pegarlos y decir que los correos no deseados compusieron Hamlet”.

Por su parte, Daniel Leufer de Mozilla consideró que la cuestión es una “broma total” y que “habría sido realmente interesante ver los ocho ensayos que el sistema realmente produjo, pero editarlos y empalmarlos así no hace nada más que contribuir a la desinformación de las personas, que no van a leer la letra pequeña”.

Una de las conclusiones del episodio reseñado es que este tipo de presentaciones sensacionalistas deslegitima el uso de recursos tecnológicos como la inteligencia artificial, que pueden enriquecer a la actividad periodística. Nos referimos a un uso ampliado, ya que en menor medida la inteligencia artificial forma parte del ejercicio periodístico hace varios años.

Por ejemplo, desde 2013 Associated Press utiliza la herramienta Automated insights para producir artículos a partir de datos, comenzaron con noticias deportes para luego pasar a informes corporativos. Por su parte, el Washington Post ocupa el sistema Heliograf para noticias deportivas y políticas, mientras que Los Angeles Times emplea una alerta automatizada para producir informes sobre terremotos. Estos son simplemente algunos casos, constantemente las redacciones de todo el mundo emplean inteligencia artificial en sus rutinas diarias. Además, algunos medios capacitan a sus periodistas en análisis y visualización de datos.

Existen distintos desafíos en cuanto a la inserción de la IA en la manera que la presenta The Guardian en su artículo, uno de ellos es la imparcialidad. Desde siempre fue un tema de discusión dentro del periodismo, la tan mentada objetividad. La inteligencia artificial está diseñada por personas, por lo tanto, un sistema de este tipo depende de los datos con los que se alimenta. Este control es similar al que se hace con las fuentes periodísticas para la elaboración de una nota. Los algoritmos evolucionan con la experiencia, por lo que es posible que repliquen ciertos sesgos con los que fueron programados.

El criterio en su programación es fundamental, señala el periodista científico Bennie Mols, “son los seres humanos quienes han construido y diseñado la IA y han introducido valores morales en su código. Los humanos siempre deberían ser responsables, porque la tecnología está en sus manos”. Es por ello que el control es indispensable y debe ser realizado por periodistas: no existirán errores ortográficos o aritméticos, pero si en cuanto a datos, fiabilidad e interpretación.

Lo que se pregunta el jurista Matteo Monti es primordial: ¿Cuál es la orientación política e ideológica que subyace a una producción realizada por inteligencia artificial? “Al igual que la audiencia tiene derecho a conocer la ideología política de un periódico, también lo tiene a saber el origen de los datos utilizados y su orientación”.

Reformulando la pregunta del artículo de The Guardian, podríamos expresar que si un periodista tiene miedo a que las notas puedan ser escritas mediante inteligencia artificial, el problema es el periodismo y no la tecnología. ♣♣♣

#PA.

Domingo 13 de septiembre de 2020.
9 recommended
comments icon 0 comments

Write a comment...

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *