WordPress acaba de publicar sus primeras directrices oficiales sobre el uso de inteligencia artificial. Es un documento que llevaba tiempo haciéndose esperar y que llega en un momento en el que la IA ya forma parte del día a día de muchos desarrolladores, redactores de documentación y contribuidores del proyecto
Pero antes de que te lances a leerlo pensando que son instrucciones para usuarios finales, vamos a aclarar algo importante, y es que estas directrices van dirigidas específicamente a quienes contribuyen al proyecto WordPress, no a ti si simplemente usas WordPress para tu web o tu tienda online.
Dicho esto, el documento tiene más miga de la que parece. Vamos a ver qué dice, qué tiene de bueno, qué le falta, y por qué debería importarte aunque no seas contribuidor.
¿Qué son estas directrices?
Las AI Guidelines son un conjunto de principios y recomendaciones publicados por el nuevo equipo de IA de WordPress para regular cómo se debe usar la inteligencia artificial cuando se contribuye al proyecto WordPress.
El documento se publicó el 27 de enero de 2026 y ellos mismos lo etiquetan como «v0», reconociendo que es un primer paso que irá evolucionando conforme el panorama legal y técnico de la IA se vaya clarificando.
¿A quién afectan?
Exclusivamente a quienes contribuyen al proyecto WordPress en cualquiera de sus formas: código para el núcleo, documentación, tests, soporte en foros, materiales educativos para Learn WordPress, etcétera.
Si usas ChatGPT o Claude para escribir artículos en tu blog, para crear plugins para tus clientes, o para generar descripciones de productos en tu tienda, estas directrices no te afectan directamente, pero sí que marcan el tono de lo que WordPress como proyecto considera aceptable, y eso acaba influyendo en todo el ecosistema.
Los 5 principios fundamentales sobre el uso de IA en WordPress
El documento establece cinco principios que considero bastante sensatos, y creo que estarás de acuerdo.
Eres responsable de lo que contribuyes
Da igual si el código lo escribiste tú o te lo generó una IA, si lo envías, es tu responsabilidad. Tienes que entender cada línea, asegurarte de que es correcto y seguro, y garantizar que puede licenciarse bajo GPL.
La IA puede ayudarte, pero no es un/el contribuidor, es tu herramienta, y el resultado final es tu responsabilidad.
Transparencia obligatoria
Si la IA ha contribuido de forma significativa a tu trabajo (más allá de refinar código o sugerir un nombre de variable), debes indicarlo en la descripción del pull request o en el ticket de Trac si estás contribuyendo al core.
No se trata de avergonzarte, sino de que los revisores sepan cómo evaluar el cambio. Recomiendan incluso un formato específico indicando qué herramientas usaste y para qué.
Compatibilidad con la licencia GPL
WordPress es GPL y todo lo que se incorpore al proyecto debe serlo también. Las directrices advierten de que no puedes usar herramientas de IA cuyos términos de servicio prohíban usar el código generado en proyectos GPL o que impongan restricciones adicionales.
Si tienes dudas sobre si una herramienta es compatible el consejo es preguntar antes en los canales de Slack del proyecto.
Calidad sobre cantidad
Aquí viene una de las partes más interesantes, el rechazo explícito a lo que llaman «AI slop», básicamente código basura generado en masa sin supervisión humana real.
Prohíben expresamente descripciones genéricas de pull requests, volcados masivos de código sin explicación, referencias inventadas (APIs, funciones o tickets que no existen), y código sobredimensionado donde bastaría algo simple.
El mensaje es lógico, todos lo entendemos, y es que la IA puede generar mucho contenido muy rápido pero eso no es el objetivo, el objetivo es calidad.
No va solo de código
Las mismas reglas se aplican a imágenes, documentación, materiales educativos y cualquier otro recurso. Todo tiene que ser compatible con GPL y no puede imponer restricciones adicionales.
Lo que está bien
Hay varias cosas que me parecen acertadas en este documento.
El principio de responsabilidad humana es fundamental. La IA no firma los commits, tú sí. Esta idea de que debes poder explicar y defender cada línea de código que envías, aunque la haya generado una máquina me parece totalmente lógica.
El rechazo al AI slop también es importante. Llevamos meses viendo cómo algunas personas intentan subir plugins al repositorio que claramente son volcados directos de ChatGPT sin ninguna supervisión. Que WordPress lo diga explícitamente y avise de que se rechazarán contribuciones de este tipo es una señal necesaria.
La transparencia sobre el uso de IA me parece razonable. No se trata de estigmatizar a quien usa estas herramientas (yo mismo llevo tiempo usándolas y compartiendo cómo hacerlo bien), sino de dar contexto a los revisores. Saber que un código fue generado con Claude y luego revisado manualmente cambia cómo lo evalúas.
La revisión humana obligatoria también es clave y en este sentido también ha directrices claras: la IA no puede ser el único revisor de tu código, tiene que haber un humano que lo revise y apruebe. Con esto se evita la situación distópica, de película pero cada vez más real, de máquinas generando código que otras máquinas aprueban sin supervisión real.
Y por último, se permiten explícitamente usar herramientas populares como GitHub Copilot, Claude Code, ChatGPT y similares. No hay veto a ninguna herramienta específica siempre que cumplas los principios anteriores.
Lo que falta (o lo que no dicen)
Y aquí viene la parte que me parece más interesante para el debate, y es lo que el documento no menciona, desconozco los motivos.
Ni una palabra sobre privacidad de datos
Cuando usas ChatGPT, Claude o cualquier servicio similar para generar código, estás enviando información a servidores de terceros. Esa información puede incluir fragmentos de código existente, nombres de funciones, lógica de negocio.
Las directrices no dicen nada sobre esto. No hay ninguna recomendación sobre qué tipo de información es seguro enviar a estos servicios, ni advertencias sobre los riesgos de compartir código sensible del proyecto con empresas externas.
No se mencionan alternativas locales
Los Small Language Models (SLM) que pueden ejecutarse en local ni se nombran. Herramientas como Ollama, que permiten tener IA funcionando en tu propio servidor sin enviar datos a ningún sitio, no aparecen por ningún lado.
Toda la orientación del documento asume que vas a usar servicios en la nube de terceros. Y eso conecta directamente con un problema más profundo.
No se cuestiona el modelo de dependencia
Las directrices se preocupan mucho (y con razón) de que el código generado sea compatible con GPL. Pero no dicen nada sobre si es problemático que el desarrollo del proyecto más importante del software libre dependa de servicios propietarios y cerrados.
Esto enlaza directamente con lo que ya analicé en la paradoja de la caja negra: puedes tener un plugin 100% GPL, con código perfectamente libre, pero si su funcionalidad depende de una API propietaria que no controlas, ¿es realmente software libre?
La compatibilidad GPL en la práctica es un problemón
Las directrices piden que el código generado sea compatible con la GPL, pero la realidad es tozuda, y más complicada. Que sí, que el papel (digital) lo soporta todo pero creo que aquí falta mucha claridad, y también responsabilidad de quienes marcan las directrices.
Copilot, ChatGPT y Claude fueron entrenados con millones de líneas de código bajo licencias diversas, de todo: GPL, MIT, Apache, BSD y también propietarias. Cuando generan código no incluyen atribución ni especifican licencia.
Es lo que algunos llaman «lavado de licencias», o sea, código con obligaciones legales que sale como si fuera obra nueva sin ataduras. La Free Software Foundation ya advirtió que esto puede constituir una violación del copyleft.
Por ejemplo, los términos de OpenAI prohíben usar el output (el resultado generado) para «desarrollar modelos que compitan con OpenAI». Esto implica que si publicas ese código bajo GPL hay una contradicción enorme pues la GPL garantiza libertad total de uso, pero los términos originales lo restringen.
¿Significa que no puedes usar estas herramientas? No, o sí, no está claro. Es una zona gris legal enorme, y ya hay una demanda colectiva activa (Doe contra GitHub) sobre estas cuestiones.
Tampoco las directrices de WordPress aclaran cómo verificar en la práctica que el código generado es limpio.
La paradoja de la caja negra … otra vez
Este documento ilustra perfectamente el problema del que te hablaba en aquel artículo sobre la paradoja de la caja negra. WordPress, el abanderado del software libre, está integrando IA en su desarrollo sin cuestionar el modelo de negocio detrás.
Las directrices asumen que el contribuidor usará servicios como OpenAI, Anthropic o Google, y está bien, son herramientas útiles y potentes, yo mismo las uso a diario y estoy tanto o más apasionado que cualquiera con la evolución actual.
Pero el problema que veo aquí es que no se plantea ni como posibilidad que alguien pueda querer usar alternativas locales por razones de privacidad, soberanía digital o simplemente por coherencia con los valores del proyecto.
El cerebro alquilado del que hablaba en aquel artículo no aparece aquí como preocupación. Se da por hecho que vas a alquilar la inteligencia a un tercero, y las directrices solo se preocupan de que el resultado de esa relación sea compatible con GPL, y ni siquiera en esto nadie se moja.
¿Son directrices o recomendaciones?
El documento tiene un tono casi ejecutivo en algunos puntos y poco o nada claro en otros. Dice claramente que los mantenedores «pueden cerrar o rechazar» contribuciones que parezcan AI slop, pero no establece sanciones específicas ni procesos formales.
No se tú pero a mi siempre me ha gustado tener claras las libertades y las limitaciones, la vida se compone de ambas, y en esto me parece que, a pesar de ser una v0, a mejorar, o no dices que no se puede hacer algo, o si dices que algo no se puede hacer dejas claro qué puede pasar si lo haces. Lo contrario es dejar la decisión al libre albedrío del evaluador, y eso ni es justo para el evaluador ni para el evaluado.
¿Que por qué me meto yo en estos jardines?
Pues porque llevo más de 20 años usando, y viviendo de, por y para WordPress, y me gusta saber donde echo mi tiempo y con qué normas, y como siempre digo, «para lo que me pagan puedo opinar lo que me salga del arco del triunfo»
Como primer paso el documento me parece bastante razonable. Los principios básicos son sensatos, todo sobre la responsabilidad humana, la transparencia, el principio de calidad sobre cantidad, compatibilidad con GPL, con las salvedades expresadas. No creo que nadie pueda estar en desacuerdo con eso, así, en genérico.
Pero me preocupa, y mucho, lo que no se dice.
Un proyecto que ha defendido durante más de veinte años la soberanía del usuario sobre su software debería, como mínimo, mencionar que existen alternativas a los servicios propietarios de IA, ser muy claro al respecto de la privacidad, y exigir que se garantice la GPL, que es la garantía que nos protege de la desaparición de aplicaciones realmente libres para las generaciones actuales y futuras.
No digo que WordPress deba prohibir usar ChatGPT o Claude, ni de lejos, yo mismo los uso y defiendo su utilidad. Pero aquí estamos hablando de WordPress, no de mis gustos personales para «mis cosas», y entiendo que sí que se debería reconocer que hay otras opciones, y que esas opciones están más alineadas con los valores históricos del proyecto, y fomentar su uso por encima de servicios propietarios, por mucho que nos encante usarlos.
Al respecto de la privacidad aún alucino que no se diga nada. Cuando contribuyes al núcleo de WordPress estás trabajando con código que afecta a millones de webs, que entra en los negocios de millones de personas. ¿De verdad no hay nada que decir sobre qué datos se comparten con servicios externos durante ese proceso?
¿Y por qué debería importarme a mi esto?
Si contribuyes al proyecto WordPress, ahora tienes unas reglas claras que seguir. Léelas, aplícalas en lo razonable, y sobre todo entiende el espíritu detrás de ellas, y es que la IA es una herramienta, no un contribuidor.
Y si no contribuyes al proyecto en sí directamente, pero usas IA para desarrollar plugins, temas o contenidos, estas directrices marcan el estándar de lo que WordPress considera aceptable. Y es más que probable que veamos cómo estas ideas se trasladan gradualmente a las normas del repositorio de plugins y el de temas.
Por otro lado, si te preocupa la soberanía digital y la coherencia con los valores del software libre, este documento debería servir como punto de partida para un debate más amplio, un debate que WordPress todavía no ha tenido de forma explícita, pero que tarde o temprano tendrá que afrontar, y es su modelo a la hora de integrar esa maravillosa herramienta que es la IA generativa.
Mientras tanto, las directrices están ahí, en su versión 0, esperemos que para evolucionar a una versión 1.0 mucho mejor. Nosotros, como comunidad, tenemos la oportunidad de influir en esa evolución. La pregunta es si lo haremos.
Mientras, yo abro el melón, pero la opinión, y la decisión, es tuya, mía, de todos.
Fernando Tellado