Foto de Gerd Altmann en Pixabay

El Deutsche Journalisten-Verband e.V. (DJV), el sindicato más grande de periodistas de Alemania, fundado en 1949, ha dado un paso adelante para tratar de establecer un marco global internacional al que los periódicos puedan acogerse a la hora de utilizar la inteligencia artificial.

Según el DJV, “es evidente que el uso de la Inteligencia Artificial en el ámbito del periodismo tiene el potencial de afectar la formación de opiniones y voluntades y, por lo tanto, a los Estados y la sociedad. Además, tendrá consecuencias profundas para el trabajo de periodistas. Por esta razón, el uso de la Inteligencia Artificial en el periodismo debe contar con pautas claras para no poner en peligro la democracia liberal ni la profesión periodística. Así como las personas deben ser protegidas de los vehículos autónomos en el tráfico, también se debe evitar el uso no controlado de la Inteligencia Artificial en el ámbito del periodismo”, sostienen.

Estas son las nueve propuestas que ofrece el DJV para que se llegue a algún tipo de consenso internacional o que tanto ciudadanos como periodistas dispongan de un documento marco que les sirva para cada caso.

  1. La IA no debe sustituir la labor humana. Las empresas de medios no deben usar la IA para eliminar trabajos periodísticos. Aunque la IA puede cambiar las tareas, los periodistas siguen siendo fundamentales para supervisar el contenido generado, garantizar su calidad y cumplir con los deberes de cuidado periodístico. También en la investigación y recopilación de los datos para la IA, las personas son esenciales. La interacción humana con las aplicaciones de IA sigue siendo importante, incluso con alto grado de automatización.
  2. Responsabilidad por los contenidos. Los artículos generados por IA no deben publicarse sin la participación o supervisión de periodistas. Las redacciones deben tener procesos claros para aprobar y autorizar los contenidos periodísticos. A pesar del uso de IA, la redacción y la empresa de medios de comunicación siguen siendo responsables del contenido publicado.
  3. Manejo responsable de los datos. Las redacciones que utilizan IA para crear contenidos basados en datos son responsables de la precisión y completitud de esos datos. Los errores en los datos deben corregirse de inmediato y se deben cumplir las leyes de protección de datos. El DJV alienta a las empresas de medios a establecer sus propias bases de datos y a apoyar proyectos de datos abiertos.
  4. Transparencia y etiquetado. Los contenidos generados por IA deben ser claramente etiquetados en el medio de publicación, y los usuarios deben ser informados sobre las tecnologías utilizadas y el alcance de la IA. Deberían poder conocer qué datos se recopilaron y utilizaron para la generación y/o distribución de contenido. El DJV pide al legislador que establezca legalmente tales obligaciones de etiquetado.
  5. Personalización responsable. La personalización de contenidos mediante IA debe hacerse de forma responsable y equilibrada. Se deben evitar las “burbujas de filtro” y se debe garantizar que los usuarios sigan viendo contenidos seleccionados por las redacciones. Los usuarios deben poder cambiar los criterios de selección y/o desactivar completamente la distribución personalizada.
  6. Uso de sistemas de IA certificados. El DJV respalda el desarrollo de certificaciones para los sistemas de IA utilizados en periodismo. Solo se deben utilizar sistemas de IA que cumplan con ciertos estándares de calidad, equilibrio, no discriminación, protección de datos y fuentes, y seguridad.
  7. Evaluación continua. Las empresas de medios de comunicación deben evaluar continuamente el uso y el impacto de la IA en el periodismo, manteniendo un enfoque en todos los aspectos mencionados anteriormente.
  8. Formación continua. La formación en IA debe ser parte integral de la formación continua de los periodistas. Se insta a las empresas de medios a ofrecer programas de formación relevantes, que aborden tanto el uso como los riesgos y formas de detección de abusos de la IA.
  9. Remuneración adecuada. Las aplicaciones de IA dependen de los datos y contenidos existentes. Sin embargo, su uso frecuentemente no proporciona remuneración adecuada a los autores originales de esos contenidos. El DJV insta a los legisladores a introducir una obligación de remuneración para la minería de texto y datos, asegurando que los periodistas sean recompensados adecuadamente.

Más información:

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here