«Para la sociedad, estos desarrollos traen un nuevo conjunto de preocupaciones: la perspectiva de campañas altamente escalables, y quizás incluso muy persuasivas, por parte de aquellos que buscan influir de manera encubierta en la opinión pública». Internet se llenará de propaganda generada por IA’s.
A medida que la IA generativa ha explotado en la corriente principal, tanto el entusiasmo como la preocupación han seguido rápidamente su ejemplo. Desafortunadamente, según un nuevo estudio colaborativo de científicos de Stanford, Georgetown y OpenAI, una de esas preocupaciones, que las herramientas de IA que generan lenguaje como ChatGPT podrían convertirse en motores de caos de desinformación masiva, no solo es posible, sino inminente.
«Estos modelos de lenguaje ofrecen la promesa de automatizar la creación de texto convincente y engañoso para su uso en operaciones de influencia, en lugar de tener que depender del trabajo humano». Esto lo escriben los investigadores. «Para la sociedad, estos desarrollos traen un nuevo conjunto de preocupaciones: la perspectiva de campañas altamente escalables, y quizás incluso muy persuasivas, por parte de aquellos que buscan influir de manera encubierta en la opinión pública».
En otras palabras, los expertos descubrieron que las IA de modelado del lenguaje sin duda harán que sea más fácil y eficiente que nunca generar cantidades masivas de información errónea. Transformarán, efectivamente, Internet en un infierno de postverdad. Y los usuarios, las empresas y los gobiernos por igual deberían prepararse para el impacto.
Internet se llenará de propaganda generada por IA’s
Por supuesto, esta no sería la primera vez que una tecnología nueva y ampliamente adoptada arroja una llave caótica y cargada de desinformación en la política mundial. El ciclo electoral de 2016 fue uno de esos cálculos, ya que los bots rusos hicieron un valiente esfuerzo por difundir contenido divisivo. A menudo era falso o engañoso. Era el medio para interrumpir una campaña política estadounidense.
Pero si bien la eficacia real de esas campañas de bots se ha debatido en los años posteriores, esa tecnología es arcaica en comparación con ChatGPT. Si bien todavía es imperfecto, ChatGPT sigue siendo notablemente bueno para generar contenido lo suficientemente convincente y que suene seguro. Y puede producir ese contenido a una escala asombrosa. Elimina casi por completo la necesidad de un esfuerzo humano más costoso y que requiere más tiempo.
Por lo tanto, con la incorporación de los sistemas de modelado del lenguaje, es barato mantener la información errónea en un estado constante. Esto hace que sea más probable que cause mucho más daño, mucho más rápido y más confiable para arrancar.
No todo es malo
Los investigadores notan que debido a que tanto la IA como la desinformación están cambiando tan rápidamente, su investigación es «inherentemente especulativa». Aún así, es una imagen sombría del próximo capítulo de Internet.
Dicho esto, el informe no fue todo pesimismo (aunque ciertamente hay mucho de ambos involucrados). Los expertos también describen algunos medios para contrarrestar el nuevo amanecer de desinformación impulsado por la IA. Y si bien estos también son imperfectos y, en algunos casos, tal vez ni siquiera posibles, siguen siendo un comienzo.
Las empresas de IA, por ejemplo, podrían seguir políticas de desarrollo más estrictas, sus productos idealmente protegidos para que no lleguen al mercado hasta que se instalen barandas comprobadas como marcas de agua en la tecnología. Mientras tanto, los educadores podrían trabajar para promover la alfabetización mediática en el aula, un plan de estudios que, con suerte, crecerá para incluir la comprensión de las señales sutiles que podrían revelar algo como hecho por IA.