A finales de noviembre se cumplían dos años del lanzamiento de ChatGPT, cuando se presentó en sociedad la Inteligencia Artificial (IA) generativa, la que producía contenidos supuestamente originales a partir de instrucciones humanas. Ha habido otras iniciativas similares pero la herramienta de OpenAI sigue siendo la más avanzada y usada en todo el mundo. ¿En qué nos ha cambiado la vida? La rapidez en sus procesos y la simulación del pensamiento humano ha modificado la manera en que accedemos a la información, realizamos tareas cotidianas o nos comunicamos con la tecnología. Con anterioridad, para obtener una respuesta confiable, teníamos que navegar por diversas páginas web, enciclopedias en línea y foros. El tiempo de la búsqueda analógica, a través de diccionarios en papel y otros soportes, ya había desaparecido de nuestros hábitos, pero con el ChatGPT el tiempo de búsqueda se ha reducido considerablemente para llegar casi a la inmediatez.
Obtenemos en menos de un minuto explicaciones detalladas de conceptos complejos, consejos de la vida cotidiana, desde una receta culinaria a una resolución de problemas matemáticos. Quienes tienen intereses autodidactas, han hallado en esta herramienta la posibilidad de ampliar sus conocimientos de manera directa y sencilla. Hemos dejado de necesitar un docente o experto humano que nos ofrezca contenidos introductorios a nuestro deseo de aprender. Por el contrario, en asuntos profesionales, la aplicación permite agilizar la redacción y corrección de documentos, asistir en el análisis de datos, sintetizar contenidos de un archivo e incluso simular escenarios que amplíen las perspectivas de cada ámbito de conocimiento. En general, se han agilizado los procesos y se ha reducido la carga de trabajo en tareas repetitivas, liberando tiempo para otras acciones que requieren la creatividad humana.
La sensación generalizada de los usuarios podría resumirse con un “estar hablando con alguien, no con algo”, de manera que, frente a la página en blanco, podemos iniciar un diálogo con la IA para generar ideas, plantear hipótesis o iniciar cualquier proceso creativo. Hemos aprendido a generar preguntas precisas, a evaluar la calidad y confiabilidad de las respuestas y a introducir nuestro juicio crítico personal a la información aportada. Al mismo tiempo, hemos discutido sobre los límites y la ética del uso de la IA. Se ha planteado el potencial sesgo en las respuestas generadas y especialmente sobre la seguridad y la fiabilidad de estas. La inclusión directa de las fuentes de información, aunque con algunos avances, sigue siendo la tarea pendiente para quienes asumen como ciencia cierta las aportaciones del ChatGPT. Por este motivo, queda pendiente la adaptación de las estrategias de enseñanza y su evaluación. No tiene sentido pedir al alumnado documentos escritos que fácilmente puede elaborar la IA. Dirigir los procesos finales del conocimiento hacia situaciones de oralidad o de presencialidad puede ser una garantía de asunción de los contenidos, pero habrá que replantearse la petición de actividades analíticas escritas por parte del alumnado. Es necesario, ahora más que nunca, combinar estrategias que promuevan el pensamiento crítico, la resolución de problemas y la producción original del conocimiento.
Respecto al uso de herramientas como ChatGPT en los medios de comunicación, se han sucedido una serie de efectos negativos o preocupantes. En primer lugar, podemos citar la difusión de informaciones imprecisas o descontextualizadas. Sin una verificación humana rigurosa, existe el riesgo de que se publiquen datos incorrectos o informaciones no contrastadas. La IA es, en este sentido, enemiga del periodismo de investigación: la posibilidad de producir artículos rápidos puede conllevar a una sobreproducción de contenido superficial que desplace los reportajes de campo o búsquedas a fondo. Al mismo tiempo, si se usa esta fuente de información sin supervisión y se combina con intenciones maliciosas, puede facilitar la creación de artículos falsos o titulares sensacionalistas. Así se perpetuarían estereotipos o patrones discriminatorios, generalizados en las redes, pero que irían en detrimento de la credibilidad de los medios.
Dos años no son muchos, pero algunas de las inercias apuntadas anteriormente pueden tener consecuencias directas que, en el caso del periodismo, pueden afectar todavía más su talón de Aquiles: la automatización de tareas editoriales y la generación de contenido puede llevar a la reducción de puestos de trabajo. Un aspecto que puede reducir el personal en funciones que se perciben como fácilmente automatizables como la redacción de notas breves, resúmenes o informes rutinarios. La pérdida de empleos en el ámbito de la comunicación puede contribuir a una disminución de la diversidad de voces y enfoques profesionales. Seamos conscientes del peligro, por lo que debemos aprender que el trabajo de la IA puede completar nuestra información, pero no substituir el sentido lógico y natural de los humanos. De lo contrario, reduciremos cada día más las posibilidades cognitivas de nuestra especie. Si el ChatGPT, entre otros, vino para quedarse, aprendamos a usar sus potencialidades. ¡Palabra de humano!
Comentar