¿Y si esto que estás leyendo no lo hubiese escrito un humano, sino una máquina? La próxima vez que entres en la página web de un medio de comunicación para informarte quizás tendrás que plantearte esta pregunta. Y es que la popularización de la inteligencia artificial (IA) capaz de generar textos e imágenes está empezando a afectar al periodismo, abriendo un mar de oportunidades pero también importantes riesgos para la profesión.
El desembarque de la IA en las redacciones periodísticas ya es una realidad. El pasado noviembre, el medio tecnológico de referencia CNET empezó a utilizar un generador de textos propio para elaborar artículos sobre finanzas personales, unos contenidos diseñados para tener un buen SEO y posicionarse en lo más alto de las listas de Google (algo que el buscador penaliza). Sin anunciar esa novedad a sus lectores, la compañía publicó unos 77 artículos mediante esta tecnología automatizada, un 1% de todos los publicados desde entonces. Durante los primeros días de enero, investigadores destaparon no solo que el medio había optado por aplicar la IA a sus contenidos, sino que su sistema —que debía ser editado y supervisado por periodistas— publicó mentiras e imprecisiones de forma reiterada.
Este pequeño escándalo dentro del sector periodístico ha puesto en relieve el potencial impacto de la aplicación de sistemas generativos como ChatGPT. Creado por la compañía OpenAI, este popular modelo de lenguaje se ha convertido en todo un fenómeno mediático gracias a su capacidad de aprender de miles de millones de datos extraídos de internet para crear textos, resumir conceptos complejos, imitar estilos literarios, componer poemas o programar líneas de código informático. En resumen, dar respuesta a todo tipo de peticiones de los usuarios.
Errores y plagios
Su profunda capacidad para simular el razonamiento humano y ser creativa ha hecho que la IA sea el fenómeno tecnológico de moda, una novedad que ha logrado traspasar las barreras del sector para fascinar al público general no experto. Sin embargo, estos sistemas distan de ser perfectos. “Puede generar ocasionalmente información incorrecta o engañosa y producir contenidos ofensivos o tendenciosos”, advierte el propio ChatGPT.
El hecho de que esos chatbots puedan responder falsedades de forma convincente inquieta a los expertos, que temen que el uso acrítico de estas herramientas degenere en un problema de desinformación. Esa preocupación ha hecho que miles de revistas científicas hayan prohibido su uso para investigaciones académicas.
Aplicado a los medios de comunicación, ese riesgo es aún mayor. CNET decidió poner fin a su experimento con la IA el pasado 25 de enero, poco después que el medio digital ‘Futurism’ destapase que algunos de los artículos creados con ese sistema no solo difundían información poco precisa y plagada de errores, sino que además copiaban frases exactas de otros artículos sin citar a sus autores. La máquina no tiene conciencia, con lo que no se la puede acusar de desinformar o de plagiar de forma intencionada, pero esos errores sí ponen en relieve el debate deontológico que abre la aplicación de la IA en el periodismo. La controversia de CNET es la primera de muchas.
Muchas oportunidades
Esa polémica no ha evitado que otras publicaciones se lancen al uso de la IA. El pasado jueves, el medio digital BuzzFeed anunció que el contenido basado en IA pasaba a “formar parte de nuestro negocio principal” y que se usaría tanto para mejorar sus populares cuestionarios como para afinar la personalización del contenido para su audiencia, según adelantó el ‘Wall Street Journal’. Desde entonces, las acciones de la compañía se han disparado un 325%. “Usar ChatGPT para información dura sería un suicidio (…) pero puede usarse para la elaboración de contenido de entretenimiento en el que te puedas equivocar, como en los tests de BuzzFeed”, ha señalado el analista Antonio Ortiz en el podcast ‘Binarios’.
La integración de la IA en las redacciones periodísticas puede ser muy útil. Este tipo de sistemas pueden usarse para traducir textos de otros idiomas, transcribir entrevistas, resumir informes largos, generar imágenes, editar vídeos o sintetizar conceptos complejos para adaptarlos a distintos tipos de lectores. Con ello no se busca reemplazar al periodista, sino automatizar ciertas tareas más pesadas para agilizar su trabajo y permitirle ir más allá. Ya en 2014, la agencia de noticias ‘The Associated Press‘ empezó a servirse de la IA con esos fines y para redactar informes de resultados de empresas y para los deportes.
Todo ello apunta a una transformación del panorama mediático. De la prensa escrita a la televisión, decenas de medios en todo el mundo ya recurren a la IA para mejorar sus servicios y todo apunta a que en los próximos años se verá una eclosión del contenido generado automáticamente. Como advierte el Instituto Reuters para el Estudio del Periodismo de la Universidad de Oxford en su informe sobre tendencias del 2023, ese cambio no estará libre de fricciones: “Será más fácil que nunca crear contenidos multimedia atractivos y muy verosímiles, pero también será más difícil que nunca separar lo que es real de lo que es falso, engañoso o manipulado”.