Primero fue ChatGTP, Dall-e y Midjourney, luego Bing, y después han ido apareciendo más soluciones basada en la Inteligencia Artificial que nos dan muestras de su capacidad para generar textos, imágenes y vídeos elaborados con tanta profesionalidad que tan solo hace un año no hubiéramos podido sospechar que no los había creado un humano. No han tardado los gobiernos de China y Venezuela en utilizar estos programas para generar desinformación: con informativos de televisión en los que los presentadores están creados por Inteligencia Artificial y que, por supuesto, las noticias se falsean para alabar a sus dictaduras y criticar a Estados Unidos. Y, por supuesto, para seguir alimentando bots en redes sociales, a pesar de las cuentas de verificación que han impulsado Twitter y Meta.
Con estas poderosas herramientas al alcance de todo el mundo, las posibilidades del engaño también se multiplican. Una investigación reciente ha demostrado que una empresa española, con sede en varios países, utilizó bots y páginas webs creadas exprofeso con contenido falso para ayudar a delincuentes a que su rastro en la Red pasara desapercibido.
En el campo de la salud podemos pedirles a estas herramientas que den argumentos convincentes sobre los peligros de un medicamento, una técnica o incluso una clínica determinada. Y que lo acompañe con imágenes y vídeos de un médico alertando de ello. Y si no sabemos cómo hacer ese contenido viral no hay problema, la Inteligencia Artificial también nos dará las claves.
Puede parecer un escenario poco realista pero no lo es en absoluto. Una cuenta falsificada del laboratorio Lilly en Twitter anunciando que la insulina sería gratis a partir de entonces hizo que la compañía se hundiera en Bolsa inmediatamente, sin bien se recuperó en poco tiempo.
«Es necesario que las organizaciones dedicadas a la salud cuenten con planes de crisis que contemplen potenciales escenarios de peligro»
En poco tiempo nos acostumbraremos a ver en nuestro teléfono vídeos de médicos creados por Inteligencia Artificial tratando de que compremos sus productos milagro o que simplemente pinchemos en su contenido, movidos por motivos económicos o ideológicos, igual que nos sucede ahora con textos e imágenes. Y los pocos verificadores que existen en las plataformas de redes sociales, no digamos ya en Twitter tras el paso de Elon Musk, poco podrán hacer.
Como ha ocurrido en la batalla en redes sociales entre negacionistas y divulgadores sanitarios, entre cuñaos y científicos, quienes defendemos la evidencia vamos por detrás de quienes asustan o convencen recurriendo a las emociones y la exageración.
En este contexto, la reputación de nuestras organizaciones va a estar mucho más expuesta que nunca. Ya no se necesita contar con los recursos de un gobierno o de una gran corporación. Un exempleado o un cliente insatisfecho, un amante de las teorías de la conspiración o simplemente un competidor sin escrúpulos pueden crear una cuenta de la nada y difundir contenidos falsos, defendidos por profesionales sanitarios creados por ordenador, sin que sea fácil rastrear y frenar la fuente de origen.
El cambio de modelo en la generación de contenido de salud, como en otros campos, no llega en oleadas sino en un tsunami. Toda nuestra forma de trabajar y relacionarnos va a cambiar radicalmente y a un ritmo mucho más acelerado que con la llegada del teléfono móvil, Internet o las redes sociales. Pero el que seamos más vulnerables no nos convierte en indefensos. Hay una frase que dice: “No puedes parar las olas, pero puedes aprender a surfear.”
Es hora de adaptarse. Tenemos que actuar como lo hacemos con nuestros ordenadores con antivirus o con nuestras cuentas corrientes encriptadas. No nos protegen del todo frente virus y estafas, pero sin esa protección estaríamos perdidos.
Más que nunca, es necesario que las organizaciones dedicadas a la salud, grandes y pequeñas, cuenten con planes de crisis que contemplen potenciales escenarios de peligro, posibles apoyos, herramientas tecnológicas para identificar las amenazas y contrarrestarlas. Y el asesoramiento de una figura que será cada vez más habitual, un experto en desinformación que conozca los riesgos, la tecnología y la comunicación en salud.