Foro Económico Mundial: la desinformación ya es el riesgo global n.º 1
- Equipo Precisar
- 25 jul
- 6 Min. de lectura
Actualizado: 25 jul
Julio de 2025

Replanteando la Alfabetización Mediática: Un Nuevo Modelo Ecosistémico para la Integridad de la Información, del Foro Económico Mundial, lanzado en julio de 2025, presenta un nuevo marco para un enfoque integral de la alfabetización mediática e informacional (AMI), basado en dos modelos complementarios: el ciclo de vida de la desinformación y el modelo socioecológico. Juntos, ofrecen una forma estructurada de comprender cómo y dónde las intervenciones pueden ser más efectivas. En definitiva, el informe insta a pasar de considerar la AMI como una herramienta para aumentar la perspicacia de las personas a considerarla un pilar esencial de los ecosistemas de información saludables.
El informe reencuadra la alfabetización mediática e informacional (AMI) como una misión de toda la sociedad a lo largo de la vida: parte de la constatación de que la desinformación es el principal riesgo global inmediato y de que la velocidad y la escala de los mensajes digitales exigen algo más que “clases de fact‑checking” . Para ordenar la respuesta, propone una matriz 5 × 5 que cruza las cinco fases del ciclo de la desinformación (de la pre‑creación al posconsumo) con los cinco niveles del modelo socio‑ecológico (del individuo a la política pública), lo que permite ver de un vistazo quién debe actuar y en qué momento . Esa cartografía no solo localiza las intervenciones existentes, sino que destapa vacíos críticos y ofrece un GPS para coordinar recursos allí donde más se necesitan . El documento cierra con un llamado a pasar de iniciativas reactivas y fragmentadas a una estrategia sistémica que combine educación permanente, diseño responsable de plataformas e incentivos regulatorios, de modo que la integridad informativa se convierta en la verdadera infraestructura de la democracia digital .
Las cinco etapas del ciclo de vida de la desinformación
Los expertos del Foro Económico Mundial describen la desinformación como una cadena de cinco eslabones consecutivos –pre‑creación, creación, distribución, consumo y posconsumo– que marcan dónde y cómo intervenir para frenar el daño antes de que se vuelva sistémico:
Etapa | Qué ocurre | Por qué importa |
1. Pre‑creación | Se incuban motivos, narrativas y audiencias objetivo. Aquí se decide “qué mentira contar” y a quién va dirigida. Intervenir significa inocular (pre‑bunking) y desmontar incentivos antes de que exista el contenido. | Atacar este momento cuesta menos que combatir una falsedad viralizada. |
2. Creación de contenido | Herramientas –cada vez más baratas y potentes, como la IA generativa– producen textos, imágenes o deepfakes listos para atraer clics y emociones. | Poner barreras técnicas y legales aquí eleva el costo de fabricar bulos. |
3. Distribución | Plataformas, algoritmos y redes de amplificación determinan qué ve la gente y con cuánta frecuencia. La transparencia del feed y los cambios de diseño son claves para romper la cadena de viralización. | Sin frenos en este punto, la mentira se vuelve ubicua y normalizada. |
4. Consumo | El usuario se encuentra con el contenido y decide interactuar (o no). Fact‑checks, etiquetas de advertencia y hábitos críticos reducen su vulnerabilidad. | Si las personas no desarrollan AMI, el ciclo se alimenta de cada clic. |
5. Posconsumo | La desinformación ya impacta creencias y comportamientos sociales. Aquí se necesita corregir, reparar daños y extraer lecciones para prevenir nuevas campañas. | Ignorar esta fase perpetúa el “daño persistente” y erosiona la confianza pública. |
Entender estas cinco etapas permite diseñar políticas y programas de Alfabetización Mediática e Informacional que no se limiten a “apagar incendios” al final del proceso, sino que actúen de manera preventiva y coordinada a lo largo de toda la cadena de producción y circulación del engaño. Sólo así podremos pasar de la reacción puntual a una resiliencia informativa sistémica.
Antes de sumergirnos en las siguientes tablas que convierten las recomendaciones del Foro Económico Mundial en hojas de ruta concretas, vale la pena subrayar por qué este ejercicio es decisivo: la alfabetización mediática e informacional ya no puede quedarse en declaraciones de buena voluntad. Necesitamos un manual quirúrgico, con responsables, plazos y métricas, que transforme cada clic en una oportunidad de pensamiento crítico y cada algoritmo en un aliado de la verdad. Las matrices que siguen organizadas por palancas organizacionales, estrategias de escalamiento y políticas públicas, funcionan como un GPS para gobiernos, empresas y comunidades que quieran blindar la esfera digital contra la desinformación u y sus nuevas herramientas basadas en IA.
Tabla 1. Palancas organizacionales para implementar la AMI
Recomendación | Cómo implementarla | Ejemplos / evidencias |
Evaluar las intervenciones existentes con los dos modelos | Haga un inventario de sus talleres, campañas y cursos y mapee cada uno en la matriz 5 × 5 (fase del ciclo de vida × nivel socio‑ecológico). Esto revela duplicidades y puntos ciegos antes de invertir nuevos recursos. | El informe insiste en partir por una “evaluación comprehensiva” para detectar excesos de foco en el simples “debunking” y descuido de fases como pre‑creación o posconsumo . |
Involucrar a las poblaciones vulnerables | Localice brechas lingüísticas, etarias o de acceso y diseñe productos a su medida (chatbots por WhatsApp, radios comunitarias, etc.). | La línea de ayuda de WhatsApp en India permite reenviar desinformación a verificadores en idiomas locales . |
Fortalecer la colaboración intersectorial | Cree mesas de trabajo que unan academia, reguladores y plataformas; comparta bases de datos y métricas. | El European Digital Media Observatory (EDMO) integra verificadores, investigadores y reguladores en la UE . |
Identificar brechas y expandir esfuerzos | Lleve MIL a salud, justicia o fuerzas de seguridad; combine certificaciones sectoriales con MOOCs abiertos. | Se sugieren certificados MIL para personal sanitario expuesto a teorías antivacunas . |
Aprovechar el aprendizaje basado en comunidad | Capacite líderes locales, influencers y organizaciones de fe como multiplicadores. | UNESCO y radios comunitarias en Kenia frenaron discurso de odio pre‑electoral . |
Adaptarse a amenazas emergentes | Actualice contenidos cada 12 meses para incluir IA generativa y deepfakes; dote a docentes y periodistas de herramientas de detección. | El informe exige que los programas sean “ágiles” frente a IA generativa y manipulación algorítmica . |
Tabla 2. Estrategias de escalamiento de la AMI
Recomendación | Cómo implementarla | Ejemplos / evidencias |
Integrar MIL en la gobernanza de la IA | Exija etiquetado de medios sintéticos y auditorías de riesgo en algoritmos de recomendación. | El informe pide regular IA generativa y etiquetar deepfakes . |
Incentivar la participación del sector privado | Bonifique fiscalmente a empresas que co‑creen cursos MIL con ONG; reconozca buenas prácticas en rankings ESG. | Se insta a “construir y escalar” buenas prácticas más allá de las Big Tech . |
Incorporar MIL en la experiencia digital cotidiana | Añada “empujones” MIL: sellos de credibilidad, recordatorios antes de reenviar, paneles contextuales. | TikTok enlaza a centros electorales oficiales dentro de la aplicación . |
Mejorar los mecanismos de evaluación | Financie estudios longitudinales y paneles de control; use trackers tipo Ofcom UK para medir cambio conductual. | El informe exige evaluaciones “independientes y longitudinales” . |
Apoyar el aprendizaje permanente | Integre módulos MIL en programas de reskilling y formación sindical; ofrezca microcredenciales. | BC4D en Alemania lleva MIL a 85 empresas y 2 200 empleados mediante cascada formativa . |
Promover inversión a largo plazo | Pase de subvenciones anuales a fondos pluri‑anuales y líneas de base presupuestarias. | El informe reclama “apoyo sostenido y multi‑año” para ecosistemas MIL . |
Desarrollar iniciativas de pre‑bunking | Use anuncios breves que inoculen sobre técnicas de manipulación antes de la exposición masiva. | Campañas de Jigsaw‑YouTube mejoraron la resistencia del público a las narrativas engañosas . |
Tabla 3. Políticas públicas para blindar la integridad informativa
Recomendación | Cómo se aplica | Ejemplos / evidencias |
Integrar MIL en la resiliencia digital nacional | Inclúyala en estrategias de ciberseguridad y planes de comunicación de crisis; coordine con defensa y salud. | El informe sitúa MIL como “pilar central” de la resiliencia digital . |
Incentivar la seguridad por diseño | Ofrezca exenciones fiscales y fast‑tracks regulatorios a empresas que integren salvaguardas de usuario desde el diseño. | Se proponen incentivos financieros para IA responsable . |
Mandatar MIL en los sistemas educativos | Haga obligatoria la alfabetización digital en todo el currículo y en la acreditación docente. | Estonia incluyó MIL en primaria‑secundaria y en la certificación de profesores . |
Asegurar la aplicación respetuosa de derechos | Someta las leyes de plataformas a evaluaciones de impacto en libertad de expresión y cree mecanismos de supervisión independiente. | El DSA de la UE impone auditorías anuales a las grandes plataformas . |
Compromiso global unificado | Aproveche foros multilaterales para armonizar estándares, compartir datos y financiar proyectos conjuntos. | El informe llama a “responsabilidad compartida” y cooperación transfronteriza . |
Gobernanza coordinada: la pieza clave para articular la AMI en todo el Estado
Un ente rector no es necesariamente un “súper‑ministerio”, sino la pieza de gobierno que asume la coordinación sistémica de la alfabetización mediática e informacional (AMI). El informe del Foro Económico Mundial subraya que, para que la AMI sea efectiva, hace falta liderazgo gubernamental fuerte y un enfoque interministerial capaz de alinear educación, telecomunicaciones, cultura y ciberseguridad en una misma estrategia. Ese liderazgo crea el marco de políticas, incentivos y presupuestos que “define las reglas del juego” para individuos, empresas y comunidades, estableciendo las condiciones en que cada actor actúa y rinde cuentas. El modelo 5 × 5 del informe sirve justamente para que ese ente rector mapee todas las intervenciones, detecte vacíos y reasigne recursos, usando “todos los resortes de influencia disponibles” de forma coordinada y sostenible. En países sin regulador especializado, la función puede recaer en una comisión interministerial o en la autoridad de datos personales: lo esencial es cumplir el rol, no el nombre del organismo.
Para leer el informe completo puedes descargarlo:
Un abrazo,
Equipo Precisar