Saltar al contenido
Rúbica » Blog » Novedades » El lado oscuro del LLMO: cómo algunos están contaminando el futuro de la IA

El lado oscuro del LLMO: cómo algunos están contaminando el futuro de la IA

La industria del SEO se encuentra en una transición crítica: estamos pasando de optimizar para buscadores… a optimizar para modelos de lenguaje. Y con este nuevo terreno de juego, no sorprende que aparezcan prácticas oscuras, conocidas como Black Hat LLMO (Optimización para LLMs).

Así como el SEO de los 2000 estaba plagado de keyword stuffing y granjas de enlaces, el LLMO está viendo tácticas diseñadas para manipular directamente cómo los modelos de lenguaje generan respuestas.


Tres patrones de manipulación en auge

🧪 1. Manipular los procesos de entrenamiento de los LLM

Desde explotar el RLHF (aprendizaje por refuerzo con retroalimentación humana) hasta forzar conversaciones con patrones que sesguen las respuestas futuras. Algunos intentan que los modelos “aprendan” sus marcas o temas a través de la interacción directa. Spoiler: esto no solo es inefectivo a largo plazo… puede ser contraproducente.

☣️ 2. Envenenar los datos de entrenamiento

Es el equivalente IA a meter spam en Wikipedia o Reddit para que los modelos lo lean. Insertar menciones forzadas, titulares sesgados o enlaces disfrazados de autoridad es una forma de data poisoning que puede afectar la integridad de los LLM. Y ojo: ya se está investigando como una amenaza de ciberseguridad.

🧬 3. Esculpir patrones de lenguaje para manipular predicciones

Agregar contenido rico en entidades, reescribir frases para sonar más “resumibles” o crear publicaciones falsas que incluyan tu marca como “la mejor” son formas de hackear la forma en que los LLM generan respuestas. ¿El problema? La mayoría de estos contenidos terminan sonando artificiales, genéricos y olvidables.


No todo vale en la nueva era

Manipular los LLM para obtener visibilidad no es solo una mala práctica: puede perjudicar a toda la industria. Así como el SEO “black hat” terminó siendo penalizado por los algoritmos de Google, el LLMO black hat podría hacer que las fuentes confiables dejen de incluirse en el entrenamiento de modelos. Y cuando eso pase, nadie va a ganar.


¿Entonces qué hacemos?

La visibilidad en los LLM no se logra forzando menciones. Se construye mostrando autoridad, originalidad, contexto humano y contribuyendo al conocimiento de forma ética.

Optimizar para LLM no es escribir para máquinas. Es entender cómo las máquinas representan lo que los humanos valoran.


¿Querés saber si tu marca aparece en las respuestas de los LLM? ¿Estás escribiendo para sumar o para engañar?

Es momento de revisar tu estrategia antes de que tu contenido desaparezca del mapa… o peor, quede asociado al lado oscuro del juego.