¿El New York Times usa IA? Estudio revela alarmantes indicios de artículos generados por IA en importantes medios
Escuchar
Compartir
Un estudio sugiere que importantes medios de comunicación, incluido el New York Times, podrían estar publicando artículos generados por IA, lo que plantea serias dudas sobre la integridad periodística.
#IA#New York Times#Periodismo#Inteligencia Artificial#Noticias Falsas
La investigación, publicada como preimpresión en octubre, analizó la presencia de contenido generado por IA en diversos medios. Los resultados revelaron que, aunque la mayoría de los artículos generados por IA se encuentran en medios locales más pequeños, la situación en periódicos de renombre es preocupante. El estudio se centró en artículos de opinión en periódicos como el New York Times, el Wall Street Journal y el Washington Post. Estos medios mostraron una probabilidad seis veces mayor de contener contenido generado por IA en comparación con los artículos producidos internamente. El estudio destaca la necesidad de una mayor vigilancia y transparencia en el uso de la IA en la creación de contenido periodístico.
La controversia se desató a raíz de la publicación de una columna en noviembre pasado. Becky Tuch, de Lit Mag News, publicó un extracto en X, expresando su preocupación: 'esto se lee EXACTAMENTE como una bazofia de IA'. La autora de la columna, Kate Gilgan, admitió haber utilizado IA, incluyendo ChatGPT, Claude y Gemini, para 'inspiración, orientación y corrección'. Gilgan insiste en que usó la IA como editor colaborativo, no como generador de contenido. Sin embargo, en el contexto actual de la IA, la distinción parece difusa, especialmente considerando el impacto que estas herramientas pueden tener en el estilo y la forma de escritura.
Es importante señalar que los detectores de IA no son infalibles. Un ejemplo reciente de un detector marcando un pasaje de 'Frankenstein' como 100% generado por IA, generó burlas. Sin embargo, Pangram Labs es considerado uno de los más fiables. El estudio destaca que la IA se encuentra con mayor frecuencia en artículos de opinión, escritos a menudo por colaboradores externos con menos supervisión editorial. Esto sugiere que la IA podría estar siendo utilizada para amplificar diversas afirmaciones, lo que plantea serias preocupaciones sobre la veracidad del contenido.
La tendencia de los medios a integrar IA en sus procesos es evidente. El Washington Post lanzó un podcast generado por IA y un chatbot para preguntas de los lectores. El New York Times utiliza IA para generar titulares. Bloomberg ofrece resúmenes generados por IA. Un gerente de la Associated Press declaró que 'la resistencia' a la IA es 'inútil'. Sin embargo, esta adopción generalizada plantea riesgos significativos. La línea entre la asistencia y la generación de contenido se difumina, y la posibilidad de errores y desinformación aumenta. Es crucial que los medios consideren cuidadosamente las implicaciones éticas y profesionales de la IA.
Un incidente en Ars Technica destaca los riesgos de la IA en el periodismo. Un reportero usó un chatbot para resumir sus notas, y accidentalmente incluyó una cita fabricada por la IA. El reportero fue despedido después de una investigación. Este caso sirve como advertencia sobre la importancia de la verificación y la supervisión en el uso de la IA. La confianza en la IA sin una revisión cuidadosa puede conducir a errores graves, pérdida de credibilidad y consecuencias profesionales.