
Table of Contens
ToggleObservar comportamientos anómalos en los resultados de búsqueda
Ingresas las palabras clave de tu sitio web en el cuadro de búsqueda, pero descubres que el contenido que originalmente estaba en la primera página ha “desaparecido”.
En estos momentos, “¿he sido penalizado por Google?“ se convierte en la pregunta más urgente.
¿Cómo juzgarlo? Por ejemplo: si usas site:tu-dominio todos los días para verificar las páginas indexadas, y la semana pasada tenías 1000 páginas pero hoy de repente solo quedan 80;
O si has estado observando la palabra clave principal “aprender guitarra para principiantes” durante 3 meses, manteniéndose estable en la posición 2, y en los últimos dos días ha caído repentinamente fuera de las primeras 150 posiciones, sin que hayas modificado el contenido ni la página.
Disminución drástica de los resultados de búsqueda site:
site:tu-dominio (por ejemplo, site:example.com) es la “herramienta de chequeo de indexación” oficial de Google, que te indica: cuánto contenido de tu sitio web considera Google actualmente que vale la pena indexar.
En condiciones normales, este número crecerá lentamente con las actualizaciones del sitio (por ejemplo, de 10 a 20 páginas nuevas al mes), o se estabilizará en un rango según la frecuencia de actualización (como un sitio web corporativo que añade de 50 a 100 páginas al año).
Manifestaciones específicas de señales anómalas en los datos:
- Sitios web pequeños (UV promedio diario < 100): resultados normales de
site:entre 50 y 500 páginas; si de repente cae de 300 a menos de 50 páginas (caída > 80%), es posible que algunas páginas hayan sido juzgadas como de “baja calidad” o infractoras. - Sitios web medianos (UV promedio diario 100-1000): resultados normales de
site:entre 500 y 5000 páginas; si cae bruscamente de 2000 a 300 páginas (caída > 85%), es posible que el algoritmo (como Panda) haya eliminado masivamente contenido duplicado o sin valor. - Sitios web grandes (UV promedio diario > 1000): resultados normales de
site:> 5000 páginas; si cae de 100,000 a 20,000 páginas (caída > 80%), podría haber sospechas de “sitio espejo” o “granja de contenido basura“.
Caso: Un blog de maternidad que operó durante 2 años tenía resultados de site: estables en unas 800 páginas. En julio de 2024, cayó repentinamente a 120 páginas. La inspección reveló: a principios de julio, un usuario denunció que su columna de “mitos de crianza” contenía “consejos médicos no verificados”, y el algoritmo de Google eliminó 680 páginas de contenido relacionado tras el escaneo (85% del índice original).
Factores de no penalización que deben excluirse:
- Indexación de sitios nuevos: los resultados de
site:para sitios nuevos en sus primeros 3 meses pueden aumentar o disminuir en 50-100 páginas diariamente (el algoritmo está probando la calidad del contenido); - Bloqueo técnico: si se ha modificado recientemente
robots.txty se añadió por errorDisallow: /blog, esto provocará la desaparición de los resultados desite:[example.com/blog](https://www.google.com/search?q=https://example.com/blog), pero el resultado total desite:solo bajará; - Eliminación de contenido: si borraste activamente 200 páginas de contenido antiguo, los resultados de
site:disminuirán sincrónicamente (esto es una operación normal).
Caída en picado del ranking de palabras clave principales
El ranking de palabras clave es el “boletín de calificaciones” del SEO, pero sus cambios deben juzgarse combinando tres dimensiones: tiempo, magnitud y palabras relacionadas para determinar si es una penalización.
Características de datos específicos de una caída anómala:
- Caída de una sola palabra clave: una palabra clave principal (como “empresa de reformas en Canadá”) que originalmente era estable en el TOP 3, cae fuera del puesto 100 en una semana (caída > 97%), y no ha habido cambios en el contenido ni actualizaciones del algoritmo (como una actualización principal de Google);
- Caída de múltiples palabras clave: desaparecen simultáneamente más de 5 palabras clave de cola larga (como “presupuesto reforma casa vieja 2024”, “precauciones reforma casa pequeña Canadá”) del TOP 50, y estas palabras representan más del 30% del tráfico total del sitio;
- Palabras relacionadas sin cambios: la palabra principal cayó, pero el ranking de “cuál es la mejor empresa de reformas en Canadá” (una palabra con menos competencia) no cambió, lo que indica que no es una caída de autoridad general, sino que se está “apuntando a un contenido específico”.
Método de verificación con herramientas:
Usa el “Informe de rendimiento” de Google Search Console para exportar los datos de palabras clave de los últimos 3 meses, centrándote en:
- La cantidad de palabras clave con una caída de ranking > 50 posiciones (fluctuación normal < 10 por mes);
- La URL de la página correspondiente a estas palabras clave (si se concentran en unas pocas páginas que han sido modificadas);
- Las “Impresiones” y el “CTR (tasa de clics)” de la página (si las impresiones caen en picado pero el CTR se mantiene, podría ser una caída de ranking; si el CTR también cae en picado, podría ser una disminución de la calidad del contenido).
Caso: El sitio oficial de una empresa de reformas descubrió en agosto de 2024 que el ranking de “empresa de reformas en Canadá” cayó del puesto 2 al 152. Al revisar los datos de GSC, se encontró que la página correspondiente era /beijing-zhuangxiu, que fue modificada el 1 de agosto (añadiendo una gran cantidad de anuncios de “reformas a bajo precio”). Tras la modificación, las impresiones diarias de esa página bajaron de 200 a 20, y el CTR bajó del 5% al 1%.
Una inspección posterior reveló que la página fue marcada por el algoritmo por “marketing excesivo” (perteneciente a la penalización Penguin por “contenido de baja calidad”).
Factores de no penalización que deben excluirse:
- Actualización del algoritmo: Google realiza ajustes en su algoritmo principal cada trimestre (como el “Helpful Content Update” de mayo de 2024), lo que puede causar que el contenido que antes era “apenas aceptable” pierda posiciones;
- Aumento de la competencia: los sitios web de la competencia publicaron repentinamente 10 artículos de mejor calidad sobre “empresa de reformas en Canadá”, capturando el ranking;
- Cambio en la intención de búsqueda: cuando los usuarios buscan “empresa de reformas en Canadá”, prefieren hacer clic en “proveedores de servicios locales” (páginas con resultados de mapas), mientras que tu página es de tipo “guía”, lo que provoca una caída natural del ranking.
Aparición de avisos especiales en los resultados de búsqueda
En casos muy raros, Google pondrá una “etiqueta” directamente al sitio web en los resultados de búsqueda, lo cual es la señal de penalización más clara (pero aproximadamente el 95% de los sitios penalizados no ven este tipo de avisos).
Tipos comunes de avisos y características de datos:
- “Este sitio puede contener software malicioso”: generalmente aparece en sitios web hackeados (como con virus o descargas forzadas); habrá una barra de advertencia amarilla en los resultados y, al hacer clic, saltará a la página de explicaciones de seguridad de Google;
- “El contenido de este sitio no cumple con las directrices de búsqueda de Google”: aparece muy raramente (solo para violaciones graves de las reglas, como plagio a gran escala o información falsa), el aviso es rojo y se vincula directamente a páginas específicas;
- “Parte del contenido de este sitio ha sido bloqueado”: debido a denuncias de usuarios o detección algorítmica de contenido basura (como reseñas falsas o anuncios fraudulentos), algunos enlaces mostrarán “Este contenido no está disponible”.
Método de verificación:
- Copia el texto del aviso (como “puede contener software malicioso”) y búscalo en Google; si los primeros 3 resultados son documentos oficiales de ayuda de Google (como explicaciones sobre sitios no seguros), es un aviso real;
- Verifica la URL de la página con el aviso (como
[example.com/malware-page](https://www.google.com/search?q=https://example.com/malware-page)) usando la herramienta de “Inspección de URL” de GSC; si muestra “esta página puede contener contenido no seguro”, se confirma la marca.
Caso: En junio de 2024, se descubrió que un foro de juegos minoritario “contenía enlaces de descarga falsos en algunas páginas”, y apareció una advertencia amarilla sobre la página [example.com/downloads](https://www.google.com/search?q=https://example.com/downloads): “Parte del contenido de este sitio puede contener software malicioso”.
Al hacer clic, el usuario es redirigido a una página de aviso de Google que indica que “esta página ha sido reportada por contener descargas peligrosas”.
Tras una inspección técnica, se confirmó que hackers habían insertado paquetes de instalación de juegos falsos. Después de la limpieza, se envió una “solicitud de reconsideración” en GSC y el aviso desapareció tras 2 semanas.
Factores de no penalización que deben excluirse:
- Restricciones regionales: algunos contenidos no están disponibles en ciertos países o regiones (como por problemas de derechos de autor), y los resultados mostrarán “Este contenido no está disponible en tu región”;
- Bloqueo temporal: debido a fallos en el servidor o problemas de resolución DNS, algunas páginas pueden ser temporalmente inaccesibles, y Google marcará “Esta página no está disponible temporalmente”;
- Error de juicio por denuncia: si otros usuarios denuncian falsamente tu sitio (como denuncias maliciosas de competidores), Google retirará el aviso tras la revisión.
Confirmar notificaciones oficiales a través de Google Search Console
En la práctica, los informes de “Acciones manuales”, “Problemas de seguridad” y “Cobertura de indexación” de GSC son las “pruebas oficiales” para juzgar una penalización.
Por ejemplo, podrías ver en estos módulos: “Cierta página ha sido penalizada manualmente por texto oculto”, “El sitio fue infectado con malware”, o “1000 páginas de contenido excluidas del índice por duplicidad”.
Informe de acciones manuales
El informe de “Acciones manuales” de GSC (Ruta: menú izquierdo → “Acciones manuales”) es la “notificación por escrito” oficial de Google sobre infracciones en el sitio web.
Solo los sitios web donde se ha confirmado una infracción mediante revisión humana mostrarán registros aquí.
¿Cuál es la información clave en el informe?
- Tipo de sanción: indica claramente “spam”, “manipulación de enlaces”, “texto oculto”, etc. (hay unas 10 categorías que corresponden a términos específicos de las directrices de búsqueda de Google);
- Páginas afectadas: enumera las URL específicas (como
[example.com/bad-page](https://www.google.com/search?q=https://example.com/bad-page)), que pueden ser páginas individuales o todo el sitio (se muestra “Todas las páginas”); - Fecha de la sanción: precisa hasta el día (por ejemplo, “2024-07-15”), correspondiente a la primera vez que Google detectó la infracción;
- Requisitos de rectificación: explica directamente lo que debe modificarse (como “eliminar enlaces ocultos en la página” o “dejar de comprar enlaces externos”).
Caso: Registro de sanción por “spam” de un sitio educativo
En agosto de 2024, un sitio de capacitación para exámenes de posgrado descubrió que el ranking de su palabra clave principal “materiales posgrado 2025” cayó del TOP 3 al puesto 200. Al entrar en GSC y revisar el informe de “Acciones manuales”, encontró un registro del 20 de julio:
- Tipo de sanción: “Contenido basura (artículos de baja calidad)“;
- Páginas afectadas: 20 artículos bajo la sección de exámenes reales
/kao yan/zhenti; - Requisitos de rectificación: “Eliminar análisis de exámenes sin fuente citada y asegurar la originalidad del contenido”;
- Estado del trámite: “Pendiente de revisión” (tras limpiar el contenido y enviar la solicitud, Google responderá en 1 a 4 semanas).
Detalles a tener en cuenta:
- Si el informe dice “No se han detectado acciones manuales”, significa que no has sido sancionado por un humano (aunque podrías estarlo por un algoritmo);
- Tras la rectificación, debes enviar activamente una “solicitud de reconsideración” (disponible dentro de GSC), de lo contrario, el registro de la sanción permanecerá a largo plazo;
- Una sola acción manual puede causar una caída de ranking del 30% al 80% (dependiendo de la gravedad de la infracción).
Informe de problemas de seguridad
El informe de “Problemas de seguridad” de GSC (Ruta: menú izquierdo → “Problemas de seguridad”) registra específicamente rastros de ataques de hackers en el sitio web.
Incluso si el ataque ha sido limpiado, los registros históricos seguirán afectando la confianza de Google en el sitio.
Tipos de advertencias típicas en el informe:
- Distribución de malware: avisa de “detección de enlaces de descarga sospechosos” (como software falso insertado en el sitio);
- Inyección de enlaces basura: avisa de “detección de creación de enlaces externos no autorizados” (como hackers añadiendo masivamente enlaces de apuestas en la sección de comentarios);
- Contenido de phishing: avisa de que “la página contiene formularios de inicio de sesión falsos” (para engañar a los usuarios y que introduzcan sus credenciales).
Método de verificación y referencia de datos:
- Ver la fecha de la advertencia: si ocurrió hace más de un mes y ya se limpió, hay que revisar el impacto residual (como si los enlaces externos fueron marcados como “basura” por Google);
- Hacer clic en “Ver páginas afectadas”: se listarán las URL específicas (como
[example.com/download](https://www.google.com/search?q=https://example.com/download)), verifícalas con la herramienta “Inspección de URL” para ver su estado actual (si muestra “Segura”); - Comparar cambios en el tráfico: si el tráfico del sitio cayó más del 50% durante el periodo de advertencia, indica que el ataque afectó seriamente la confianza de los usuarios.
Caso: Manejo de advertencia de “malware” en un foro
Un foro de juegos pequeño recibió en junio de 2024 una advertencia de GSC: “Detectados enlaces de descarga maliciosos en la página /downloads“.
Tras la inspección técnica, se encontró que un hacker había insertado parches de juegos falsos (que en realidad eran virus).
Tras la limpieza:
- Se volvió a escanear la página
/downloadscon la herramienta “Inspección de URL”, mostrando “No se encontró contenido no seguro”; - Se envió la confirmación de “Problema de seguridad solucionado”;
- 2 semanas después, la advertencia de “malware” desapareció de los resultados y el ranking de la página subió del puesto 150 al 30.
Informe de cobertura de indexación
El informe de “Cobertura” de GSC (Ruta: menú izquierdo → “Índice” → “Cobertura”) es el diagnóstico de Google sobre el estado de “rastreo e indexación” de las páginas del sitio.
Si una gran cantidad de páginas se marcan como “Error” o “Excluidas”, podría ser una señal de penalización.
3 tipos de estados a los que prestar atención:
| Tipo de estado | Significado | Posible causa | Referencia (sitio mediano) |
|---|---|---|---|
| Válidas | Página rastreada e indexada | Sin problemas | Proporción normal > 80% |
| Advertencia | Página no indexada (por un motivo claro) | Contenido duplicado, problemas técnicos (bloqueo robots.txt), contenido de baja calidad generado por usuarios | Proporción normal 10%-20% |
| Error | Página no rastreable o excluida explícitamente | Errores de servidor (404/500), bloqueo manual (robots.txt o ajustes GSC), violación de directrices | Proporción anómala > 10% requiere alerta |
Interpretación profunda de datos anómalos:
- Si la proporción de “bloqueadas manualmente” dentro del estado de “Error” es > 5% (por ejemplo, 50 de cada 1000 páginas), indica que podrían estar marcadas algorítmicamente como “baja calidad” o “infractoras”;
- Si la proporción de “contenido duplicado” en “Advertencia” es > 20% (por ejemplo, 200 páginas que dicen “contenido duplicado de
[example.com/old-page](https://www.google.com/search?q=https://example.com/old-page)“), podría deberse a una limpieza algorítmica de granjas de contenido (como una penalización Panda); - Si las páginas “Válidas” caen repentinamente del 90% al 60% (de 900 a 600 páginas) sin que se haya borrado contenido, podría haber una restricción de indexación.
Caso: Advertencia de “contenido duplicado” en un sitio de comercio electrónico
Un sitio de moda descubrió en septiembre de 2024 que el estado de “Advertencia” subió del 15% al 35%, principalmente por “contenido duplicado”. Al inspeccionar:
- Las páginas de detalles de producto generaban gran cantidad de contenido duplicado debido a “parámetros de paginación” (por ejemplo,
/shirt?page=2y/shirt?page=3tenían contenido similar); - El algoritmo de Google juzgó estas páginas de producto como “duplicados de baja calidad” y rechazó indexarlas;
- Rectificación: usar la etiqueta
rel="canonical"para especificar la versión principal (por ejemplo,<link rel="canonical" href="/shirt">) y fusionar páginas duplicadas; - 2 semanas después, las páginas “Válidas” en GSC volvieron del 60% al 85%, y el ranking de las palabras clave de productos subió una media de 20 posiciones.
Investigación técnica: ¿está el sitio web totalmente prohibido?
El núcleo de la investigación técnica es “hablar con los datos”:
- ¿Puede Googlebot (el rastreador de Google) seguir rastreando tus páginas normalmente?
- ¿Hay registros de sus visitas en los logs del servidor?
- ¿El estado de indexación en herramientas de terceros es 0?
Estado de rastreo de Googlebot
Googlebot es el “rastreador oficial” de Google, y su comportamiento determina si una página se indexa.
Si Googlebot no puede rastrear durante mucho tiempo o es rechazado explícitamente, el sitio podría estar “totalmente prohibido”.
Método de verificación: usar la herramienta de “Inspección de URL” de GSC
Ruta: GSC → Menú izquierdo “Inspección de URL” → Ingresa cualquier URL (como la página de inicio [https://example.com](https://example.com)) → Ver “Estado de rastreo” y “Estado de indexación”.
Indicadores de datos clave y significado:
| Estado de rastreo | Significado | Posible causa |
|---|---|---|
| Rastreada | Googlebot rastreó con éxito el contenido | Sin prohibición, posible falta de indexación por baja calidad |
| No se pudo rastrear | Googlebot intentó rastrear pero falló | Servidor caído (error 5xx), problemas de red, bloqueo en robots.txt |
| Bloqueada manualmente | Marcado explícitamente como “rastreo bloqueado” | Se añadió Disallow: / en robots.txt o restricción manual por infracción |
Caso: Sitio corporativo bloqueado por error en robots.txt
En julio de 2024, el sitio de una empresa de reformas desapareció de los resultados. Al usar la inspección de URL en la página de inicio, mostró:
- Estado de rastreo: “No se pudo rastrear”;
- Código de respuesta:
403 Forbidden; - Causa: al revisar
robots.txt, se encontró que se había añadido por errorDisallow: /.
Rectificación: borrar la regla errónea. Una semana después, Googlebot volvió a rastrear y la página de inicio recuperó su indexación normal.
Rastrear visitas reales de Googlebot
Pasos y puntos de atención en los datos:
- Obtener archivos de registro: contacta al administrador del servidor y descarga los logs del último mes (formato
.log, comoaccess.log). - Filtrar registros de Googlebot: usa herramientas de texto (Notepad++) o analizadores de logs (AWStats) para filtrar las líneas donde el User-Agent sea
GooglebotoGooglebot-Image. - Estadísticas clave:
- Frecuencia de rastreo: un sitio normal tiene de 10 a 100 visitas de Googlebot diarias; si no hay registros en 30 días, podría estar prohibido.
- Distribución de códigos de respuesta: fíjate en
200 OK(éxito),403 Forbidden,404 Not Foundy410 Gone.- Si
403o410es > 30%, Googlebot está siendo rechazado o las páginas se borraron; - Si
200es < 10%, la tasa de éxito es baja y podría haber restricciones.
- Si
Caso: Sitio de comercio electrónico juzgado como “prohibido” por caída de servidor
En agosto de 2024, un sitio de moda no tenía páginas en los resultados. Al analizar los logs:
- Googlebot solo visitó 2 veces en 30 días (lo normal serían > 50);
- Una visita a una página de producto devolvió
500 Internal Server Error; - La visita a la página de inicio devolvió
200 OK, pero no hubo más rastreos posteriores.
Raíz del problema: el servidor caía frecuentemente por alta carga; Googlebot disminuyó las visitas tras varios fallos hasta detenerse.
Tras reparar la estabilidad del servidor, la frecuencia de rastreo volvió a la normalidad y la indexación se recuperó en una semana.
Apoyo en herramientas de terceros
Además de GSC y los logs, las herramientas de terceros ofrecen datos visuales de indexación y tráfico para validar si el sitio está totalmente prohibido.
Herramientas comunes e indicadores:
| Herramienta | Indicador clave | Criterio de juicio |
|---|---|---|
| Ahrefs | Páginas indexadas (Indexed Pages) | Muestra “0 páginas indexadas” → probabilidad muy alta de prohibición total; muestra “algunas páginas” → posible restricción parcial. |
| SEMrush | Total de palabras clave en ranking (Visibility) | Cae de 1000+ a 0 → penalización grave o prohibición total; caída del 50% → posible ajuste de algoritmo. |
| Moz Pro | Autoridad de dominio (DA) en “Link Analysis” | DA cae de 50 a 10 → posible penalización por enlaces basura; DA estable pero tráfico cae → posible problema técnico. |
Caso: Datos de herramientas tras la prohibición total de un sitio de noticias
Un sitio de noticias tecnológicas fue penalizado en septiembre de 2024 por publicar noticias falsas.
Verificación con herramientas:
- Ahrefs: 0 páginas indexadas;
- SEMrush: total de palabras clave en ranking bajó de 5000+ a 0;
- Moz Pro: DA bajó de 45 a 8 (lo normal es DA ≥ 20).
Tras la rectificación (borrar contenido falso, limpiar enlaces), a las 3 semanas Ahrefs mostró 200 páginas indexadas, SEMrush subió a 500+ y el DA volvió a 30.
Errores comunes al distinguir “penalización” de otros problemas
Seguro te ha pasado: el ranking cae de la posición 5 a la 100 y piensas “Google me ha penalizado”.
Pero si el informe de “Acciones manuales” de GSC no tiene registros, el error de diagnóstico suele ser más común que la penalización real.
Actualización del algoritmo
Google lanza varias actualizaciones de su algoritmo principal al año (como el “Helpful Content Update” de 2024), afectando a millones de sitios.
Muchas caídas de ranking son el resultado de ajustes del algoritmo, no una penalización.
¿Cómo distinguir entre actualización y penalización? Mira estos 3 datos:
| Dimensión | Actualización de algoritmo | Penalización (Manual/Algorítmica) |
|---|---|---|
| Características temporales | Concentrada en periodos específicos (ej. segunda semana del mes) | Sin patrón claro (puede ocurrir en cualquier momento) |
| Alcance del impacto | Afecta a todo el sector (especialmente contenido de baja calidad) | Dirigida a un sitio o página específica (ej. enlaces infractores) |
| Ciclo de recuperación | Retorno gradual en 2-4 semanas (si el contenido cumple las nuevas reglas) | Requiere rectificación y envío de revisión (recuperación en 1-4 semanas) |
Caso: Blog de hogar “dañado” por actualización
Un blog sobre “trucos de decoración para casas pequeñas” vio caer su ranking en mayo de 2024.
GSC no tenía registros manuales, pero se descubrió:
- Coincidencia total con el “Helpful Content Update” (15 de mayo);
- Aunque el contenido era original, algunos párrafos copiaban “listas de plantillas” de otros sitios (juzgado como “baja calidad por duplicidad”);
- Rectificación: reescribir párrafos duplicados y añadir fotos reales propias. El ranking volvió al puesto 18 en 2 semanas.
Problemas técnicos
Servidor caído, errores en robots.txt, carga lenta… estos no se marcan como “penalización” en GSC, pero causan caídas drásticas.
3 tipos de manifestaciones técnicas:
| Problema técnico | Mecanismo de impacto | Referencia de datos (sitio mediano) |
|---|---|---|
| Servidor caído | Googlebot no puede rastrear, pérdida de índice | Tiempo de respuesta > 5 seg, tasa de fallo de rastreo > 30% |
| Bloqueo robots.txt | Páginas clave prohibidas (ej. Disallow: /blog) | Resultados site:dominio/blog muestran “0 páginas indexadas” |
| Carga lenta | Core Web Vitals (ej. LCP > 3 seg) no aprobados | PageSpeed Insights muestra “necesita mejora” |
Caso: Sitio de comercio electrónico que “desapareció” por fallo de servidor
En agosto de 2024, un sitio de maternidad no aparecía en búsquedas. GSC sin acciones manuales, pero:
- Logs del servidor: el 10 de agosto el servidor no respondió en todo el día (Error 503);
- Googlebot solo rastreó 3 veces en 7 días;
- Rectificación: arreglar el servidor y forzar rastreo en GSC. Índice recuperado en una semana.
Calidad del contenido
Los algoritmos de Google (como Panda) limpian contenido de baja calidad, pero esta “pérdida de autoridad” es progresiva y no punitiva; es más una “supervivencia del más apto”.
Diferencia entre baja calidad y penalización:
| Dimensión | Baja calidad (pérdida de peso) | Penalización (Manual/Algorítmica) |
|---|---|---|
| Características | Poca originalidad (plagio), baja relevancia, mala experiencia (exceso anuncios) | Infracción clara (texto oculto, compra de enlaces) |
| Cambio en ranking | Caída lenta (1-3 meses) | Caída súbita (en 1 semana) |
| Forma de recuperarse | Optimizar calidad (reescribir, añadir originalidad) | Borrar infracción + solicitud de revisión |
Caso: Sitio de viajes limpiado por ser “granja de contenido”
En junio de 2024, un sitio de guías de viaje perdió el ranking TOP 5. GSC sin registros manuales, pero:
- Contenido “recopilado y pegado” sin experiencia real;
- Anuncios ocupaban el 40% de la página;
- Rectificación: borrar contenido pegado, añadir relatos originales. Ranking volvió al puesto 30 en 3 semanas.
Finalmente:
La mayoría de las fluctuaciones no son más que el algoritmo “filtrando contenido de calidad“
Tu trabajo es convertirte en un sitio web que “merezca ser recomendado”.






