Desde que nuestra especie tomó conciencia de la mortalidad y comenzó a desarrollar el pensamiento simbólico, la idea del apocalipsis ha sido una constante. En los años 90, la película "Terminator 2: El juicio final" mostraba una avanzada inteligencia artificial (IA) que destruía el planeta, eliminando a la humanidad. Hoy en día, este temor sigue presente, con "nuevos profetas" que anuncian el fin del mundo debido a la IA o, en el mejor de los casos, la suplantación de la mayoría de los empleos y actividades humanas, similar al miedo que surgió durante la Revolución Industrial.
Jornadas de comunicación y divulgación científica
Recientemente se celebraron las XIII Jornadas de Comunicación y Divulgación Científicas, Campus Gutenberg, organizadas por el Centro de Estudios de Ciencia, Comunicación y Sociedad de la Universidad Pompeu Fabra, la UPF School of Management y la Fundación Caixa. Bajo el lema “Inteligencia artificial en la comunicación científica”, el Museo de la Ciencia CosmoCaixa de Barcelona fue el escenario de este evento crucial.
Virginia Dignum, profesora de la Universidad Umeå de Suecia, inauguró el evento asegurando que la IA es “un artefacto creado por los humanos”, lo que nos otorga la responsabilidad de decidir cómo debe ser utilizada, ya sea como una herramienta, una simulación o un sistema con características humanas.
Desafíos y oportunidades de la IA en la comunicación
Durante el evento, varios investigadores, periodistas científicos y divulgadores discutieron sobre diversos temas, como la capacidad de ChatGPT para construir argumentos a favor del terraplanismo, la manera en que la IA puede facilitar la desinformación y cómo algunos científicos emplean estas herramientas para crear artículos de manera industrial, lo que puede afectar la calidad del contenido.
En una de las sesiones paralelas, se abordó el tema de la IA en la comunicación científica. Se debatió si los periodistas de ciencia y divulgadores deberían contar con un manual, recomendaciones o guías específicas sobre el uso de la IA. Este debate es esencial en un momento en que las investigaciones se actualizan constantemente, dejando poco tiempo para adaptarse.
Además, se destacó la necesidad de exigir a las empresas que desarrollan productos y servicios basados en IA mayor transparencia y equilibrio, ya que los sesgos y prejuicios humanos pueden reflejarse en esta tecnología. La comunicación sobre la IA debe ser precisa y responsable, especialmente en un entorno de información abrumadora donde la revisión por pares de las revistas científicas no siempre puede seguir el ritmo de los desarrollos tecnológicos.
Comunicación responsable en la era de la IA
La pregunta de cómo comunicar sobre la IA en un entorno de alta demanda es fundamental. ¿Cómo decidimos qué comunicar y qué no? Y, sobre todo, ¿cómo hacerlo de manera efectiva? Esta es una preocupación central para las redacciones clásicas y digitales, museos de ciencia y eventos de divulgación.
Los periodistas y comunicadores deberán acostumbrarse a declarar cuándo una parte de un artículo o imagen ha sido creada con IA. Esta práctica podría volverse tan normal como el uso de procesadores de texto en la actualidad. Sin embargo, fomentar mitos no ayuda. La idea de una IA destructiva como Skynet, la inteligencia artificial de "Terminator", es muy improbable. Es más factible que una nueva guerra mundial sea instigada por el mismo homo sapiens.
Formación e incentivos para la comunicación científica
En la última mesa redonda del evento, titulada “Formación e incentivos para que la comunidad científica comunique”, José Manuel López, vicerrector de transferencia, comunicación y divulgación científica de la Universidad de Murcia, instó a superar los prejuicios. "Los científicos sí quieren comunicar. Sí se puede hacer mucho por la comunicación científica. A veces hay trabas, hay burocracia. Y los recursos son limitados. Todos quieren algo, los de infraestructura o los estudiantes. El punto es ser valiente", afirmó.
Gema Revuelta, coordinadora del evento, enfatizó que no podemos dejar de explicar los procesos de la ciencia, por imperfectos que sean. Recordó que muchas veces la ciencia se construye sobre errores y superando desafíos, como el que presenta la IA hoy en día.
También te puede interesar: Disortografía: ¿nos estamos olvidando de cómo escribir a mano?
Comprender la IA para comunicar eficazmente
Aunque hablamos mucho sobre IA, comprendemos poco. Es esencial que los periodistas científicos, comunicadores y divulgadores se formen adecuadamente. Un artículo, podcast o video puede ser muy útil, siempre y cuando esté hecho por personas realmente expertas en la materia.
La pandemia de la COVID-19 demostró la importancia de la comunicación científica y lo mismo ocurre con la IA. Del evento en Barcelona surgió el compromiso de escuchar, aprender y no temer, fomentando un diálogo informado y constructivo sobre el papel de la IA en nuestra sociedad.
El papel de la transparencia y la ética
La transparencia y la ética en el desarrollo y uso de la IA son cruciales. Las empresas que desarrollan estas tecnologías deben ser claras sobre cómo funcionan sus productos y servicios, y deben esforzarse por mitigar los sesgos inherentes. Los comunicadores científicos tienen la responsabilidad de transmitir esta información de manera precisa y comprensible para el público general.
Reflexiones futuros
El futuro de la comunicación científica en la era de la IA es incierto, pero también lleno de oportunidades. A medida que la tecnología avanza, los periodistas y divulgadores deben adaptarse y evolucionar. La formación continua y el intercambio de conocimientos serán fundamentales para mantenerse al día con los desarrollos tecnológicos y sus implicaciones.
La IA tiene el potencial de transformar la manera en que creamos y compartimos conocimiento, pero también plantea desafíos éticos y prácticos que deben ser abordados. La colaboración entre científicos, comunicadores y desarrolladores de IA es esencial para asegurar que esta tecnología se utilice de manera que beneficie a la sociedad en su conjunto.
Retos y responsabilidades
Los desafíos que plantea la IA no son solo técnicos, sino también éticos y sociales. Es responsabilidad de todos los actores involucrados, desde los desarrolladores hasta los comunicadores, asegurar que la tecnología se utilice de manera justa y equitativa. Esto incluye trabajar activamente para reducir los sesgos y garantizar que la IA se utilice para mejorar la vida de las personas, no para perpetuar desigualdades.
La formación y educación en torno a la IA deben ser prioritarias. Los periodistas y comunicadores deben estar equipados con el conocimiento necesario para interpretar y explicar los desarrollos en esta área. Esto permitirá una comunicación más efectiva y reducirá la propagación de información errónea o sesgada.
Impacto de la IA en la sociedad
La inteligencia artificial está transformando la sociedad de maneras que apenas comenzamos a entender. Desde la automatización de tareas hasta la creación de nuevos modos de interacción, la IA está remodelando la forma en que vivimos y trabajamos. Sin embargo, esta transformación también viene acompañada de desafíos significativos, como la necesidad de garantizar la equidad y minimizar los prejuicios en los algoritmos que utilizamos.
Uno de los mayores desafíos es la integración de la IA en sectores críticos como la salud, la educación y el empleo. La IA tiene el potencial de mejorar los diagnósticos médicos, personalizar la educación y optimizar procesos laborales, pero también puede exacerbar las desigualdades existentes si no se gestiona adecuadamente.
La IA y el futuro del trabajo
La automatización impulsada por la IA está cambiando el panorama laboral a una velocidad sin precedentes. Si bien algunas tareas rutinarias pueden ser automatizadas, liberando a los trabajadores para enfocarse en tareas más creativas y estratégicas, también existe el riesgo de que muchos empleos sean desplazados. Este fenómeno requiere una planificación cuidadosa y políticas que apoyen la transición de los trabajadores hacia nuevas oportunidades.
La educación y la formación continua serán claves para preparar a la fuerza laboral del futuro. Los sistemas educativos deben adaptarse para proporcionar las habilidades necesarias en un mundo impulsado por la tecnología. Esto incluye no solo habilidades técnicas, sino también competencias como el pensamiento crítico, la creatividad y la adaptabilidad.
Promoviendo una IA ética y responsable
Para que la IA tenga un impacto positivo, es crucial que su desarrollo y uso se realicen de manera ética y responsable. Esto implica diseñar sistemas que sean transparentes y que puedan ser auditados para garantizar que no perpetúen prejuicios ni discriminen. Además, los desarrolladores deben trabajar en estrecha colaboración con expertos en ética y derechos humanos para abordar las implicaciones sociales de sus tecnologías.
La participación de la sociedad en la gobernanza de la IA es igualmente importante. Los ciudadanos deben ser informados y tener la oportunidad de influir en cómo se desarrollan y utilizan estas tecnologías. Esto fomentará una mayor confianza y aceptabilidad hacia la IA.
Innovación y regulación
El equilibrio entre la innovación y la regulación es delicado pero necesario. Mientras que la innovación en IA puede traer beneficios significativos, también es necesario establecer marcos regulatorios que protejan a los individuos y a la sociedad de posibles riesgos. Las políticas deben ser lo suficientemente flexibles para adaptarse a los rápidos avances tecnológicos, pero lo suficientemente sólidas para garantizar la seguridad y la equidad.