El 20 de marzo de 2026, la Wikipedia en inglés aprobó una política que prohíbe el uso de modelos de lenguaje para generar o reescribir contenido en sus artículos. La resolución surgió de un proceso de consulta comunitaria –conocido como Request for Comment– y se cerró con 44 votos a favor y apenas dos en contra. Por ahora, la decisión aplica exclusivamente a la edición en inglés: cada versión lingüística de Wikipedia opera de forma autónoma y no está obligada a seguir el ejemplo.
La nueva norma actualiza una formulación anterior, más vaga, que solo impedía usar inteligencia artificial para crear artículos completamente nuevos. Ahora la prohibición cubre también la reescritura de entradas existentes. Dos excepciones estrechas permanecen vigentes: los editores pueden recurrir a modelos de lenguaje para sugerencias básicas de corrección de estilo en sus propios textos, siempre que el modelo no introduzca contenido nuevo; y pueden usarlos como apoyo en traducciones, aunque solo si dominan ambas lenguas lo suficiente para detectar errores.
La decisión no cayó del cielo. WikiProject AI Cleanup, un grupo de voluntarios formado en 2023, venía documentando una oleada creciente de citas fantasma: referencias fabricadas que lucen legítimas pero remiten a fuentes que no existen, y artículos de relleno que suenan autorizados mientras contienen poco o nada verificable. Los editores estaban siendo desbordados por un volumen creciente de reportes administrativos relacionados con contenido generado por modelos de lenguaje.
El caso que terminó de inclinar la balanza fue concreto: un agente de IA identificado como TomWikiAssist había estado creando y editando artículos de forma autónoma en las primeras semanas de marzo de 2026, apenas días antes de la votación.
Ilyas Lebleu, el administrador que redactó la propuesta bajo el nombre de usuario Chaotic EnPOR, expresó la esperanza de que la decisión sirva de catalizador más allá de Wikipedia: “Que esto empodere a comunidades en otras plataformas y se convierta en un movimiento de base donde los usuarios decidan si la IA debe ser bienvenida en sus espacios, y en qué medida.”
Vale aclarar que esta prohibición no rige para el resto de las ediciones del proyecto. La Wikipedia en español, por su parte, ya contaba con una restricción más severa: prohíbe el uso de modelos de lenguaje para crear artículos nuevos o ampliar los existentes, sin las excepciones de corrección de estilo o traducción que ahora reconoce la edición anglófona. Las demás versiones lingüísticas —que suman más de 300— mantienen sus propias normas y no están vinculadas por lo que resuelvan los editores en inglés.
El trasfondo del problema tiene una dimensión técnica que va más allá de la calidad individual de los artículos. Cuando contenido generado por IA ingresa a Wikipedia y luego es raspado por empresas para entrenar nuevos modelos, el error se vuelve circular: la desinformación alimenta los sistemas que la producen. Un estudio de Princeton encontró que alrededor del 5% de los artículos nuevos creados en la Wikipedia en inglés durante agosto de 2024 habían sido generados por inteligencia artificial. La votación no resuelve el problema de la verificación: la política no contempla un mecanismo técnico de detección automatizada, por lo que la aplicación de la norma recae enteramente en los moderadores humanos, lo que hace a las páginas con comunidades menos activas más vulnerables a que contenido generado por IA pase inadvertido.

