Artificial Intelligence in the Public Debate: Risk Amplifiers and Mitigators in Media Discourse

Se examina el discurso sobre los riesgos de la inteligencia artificial (IA) en los medios digitales españoles durante el primer año tras el lanzamiento de ChatGPT en noviembre de 2022. Adoptando un enfoque cualitativo basado en el análisis del discurso y los estudios de comunicación, identifica los tipos de riesgos y las voces clave que configuran el debate público. Se trabajó sobre 2705 textos periodísticos recolectados de seis periódicos españoles entre diciembre de 2022 y noviembre de 2023. Se identificaron 878 enunciados específicos de riesgos, l a partir de los cuales se creó una taxonomía de siete categorías de riesgo y seis grupos de voces. Los resultados muestran que los riesgos de mayor difusión en los medios son ‘Riesgos para la civilización y la humanidad y ‘Riesgos para los individuos. Asimismo, los tres grupos de voces más destacados en el debate son los periodistas y medios de comunicación, los funcionarios gubernamentales y reguladores, y los representantes del sector empresarial. Un análisis de un año sobre la evolución del discurso de riesgo revela cambios en la forma en que se representan los riesgos relacionados con la IA y variaciones en los actores sociales que participan en el debate público mediático. El estudio también destaca la percepción de que algunos representantes de empresas tecnológicas podrían estar promoviendo los riesgos asociados a la IA con fines interesados. Estas estrategias parecen estar orientadas a enfatizar los riesgos existenciales y a largo plazo con el objetivo de desviar la atención de los riesgos inmediatos y tangibles ya presentes, dificultando así una mayor regulación que podría frenar el crecimiento de la IA. Además, al retratar la IA como una fuerza abstracta e incontrolable, diluyen la percepción de responsabilidad humana en su desarrollo y regulación. Al mismo tiempo, están surgiendo otras voces en el debate público que minimizan estos riesgos.

​Se examina el discurso sobre los riesgos de la inteligencia artificial (IA) en los medios digitales españoles durante el primer año tras el lanzamiento de ChatGPT en noviembre de 2022. Adoptando un enfoque cualitativo basado en el análisis del discurso y los estudios de comunicación, identifica los tipos de riesgos y las voces clave que configuran el debate público. Se trabajó sobre 2705 textos periodísticos recolectados de seis periódicos españoles entre diciembre de 2022 y noviembre de 2023. Se identificaron 878 enunciados específicos de riesgos, l a partir de los cuales se creó una taxonomía de siete categorías de riesgo y seis grupos de voces. Los resultados muestran que los riesgos de mayor difusión en los medios son ‘Riesgos para la civilización y la humanidad’ y ‘Riesgos para los individuos’. Asimismo, los tres grupos de voces más destacados en el debate son los periodistas y medios de comunicación, los funcionarios gubernamentales y reguladores, y los representantes del sector empresarial. Un análisis de un año sobre la evolución del discurso de riesgo revela cambios en la forma en que se representan los riesgos relacionados con la IA y variaciones en los actores sociales que participan en el debate público mediático. El estudio también destaca la percepción de que algunos representantes de empresas tecnológicas podrían estar promoviendo los riesgos asociados a la IA con fines interesados. Estas estrategias parecen estar orientadas a enfatizar los riesgos existenciales y a largo plazo con el objetivo de desviar la atención de los riesgos inmediatos y tangibles ya presentes, dificultando así una mayor regulación que podría frenar el crecimiento de la IA. Además, al retratar la IA como una fuerza abstracta e incontrolable, diluyen la percepción de responsabilidad humana en su desarrollo y regulación. Al mismo tiempo, están surgiendo otras voces en el debate público que minimizan estos riesgos.  

Full text for top nursing and allied health literature.

X