Trabajo con esto a diario y te digo una cosa: la mayoría se enfanga en tonterías de palabras clave mientras su sitio web está lleno de agujeros técnicos que hacen imposible que Google lo entienda. Vamos a lo que importa.
Lo primero es lo primero: si Google no puede rastrear tu sitio, el resto sobra. Hay errores básicos que son una plaga. Usa Screaming Frog SEO Spider (gratis hasta 500 URLs) y dale una pasada a tu web. Vas a flipar. Lo que encontrarás seguro son imágenes sin texto alternativo. Es un fallo del 74% de los sitios, y no es una tontería. Si tu imagen de un pastel de chocolate no tiene su alt="receta pastel de chocolate casero", para Google esa imagen simplemente no existe. No es solo accesibilidad, es contenido que no estás indexando.
Luego vienen los títulos y meta descripciones. Casi el 68% de los sitios tienen títulos demasiado largos o duplicados. Cada página necesita su título único, que diga de qué va *y* tiente a hacer clic. Si tienes 10 páginas que se llaman «Inicio – Mi Empresa | Servicios», estás mandando una señal de desastre. Lo mismo con las meta descripciones: son tu anuncio en los resultados. Si están vacías, duplicadas o son un ladrillo, nadie hará clic.
El siguiente pozo negro son los enlaces internos. Encuentro sitios donde páginas importantes están huérfanas, sin un solo enlace que apunte a ellas. ¿Cómo va a encontrarlas Google? O peor, enlazan con textos ancla que no dicen nada: «haz clic aquí». Un enlace interno con el texto «guía avanzada de SEO técnico» es mil veces mejor. Distribuye autoridad y ayuda a los bots a mapear tu sitio.
Y hablando de enlaces, los externos rotos o que redirigen mal son otro clásico (más del 68% de sitios los tienen). Enlazas a una fuente que ya no existe o que redirige a otra cosa. Para Google, eso huele a abandono. Revisa tus enlaces salientes. Herramientas como el Monitoreo de cambios de SE Ranking pueden automatizar esto, pero una revisión manual cada cierto tiempo es imprescindible.
La velocidad no es solo «algo que molesta». Es un factor de posicionamiento directo. Si tu página tarda 5 segundos en cargar, ya has perdido al usuario y a Google. El 34% de los sitios analizados tienen velocidad lenta. Usa Google PageSpeed Insights y GTMetrix. No te asustes con la puntuación, fíjate en las recomendaciones concretas: comprimir imágenes (otro error masivo), minificar CSS y JavaScript, usar una caché decente. A menudo, con cambiar a un buen hosting y optimizar las imágenes, ganas el 80% de la batalla.
Luego está el tema del contenido. Escribir por escribir ya no vale. El error no es no producir, es producir sin mirar la intención de búsqueda. ¿La persona que busca «mejor portátil gaming 2026» quiere un artículo de opinión o una comparativa con precios y donde comprar? Si no aciertas, no saldrás. Y ojo con la canibalización: tener cinco artículos que compiten por la misma palabra clave difusa. Consolida y potencia uno solo.
Por último, hay dos que casi nadie mira hasta que es tarde. Uno: los Core Web Vitals (LCP, FID, CLS). Son las métricas de experiencia de usuario de Google. Puedes verlas en Google Search Console. Si están en rojo, es que la gente tiene una mala experiencia en tu web (las imágenes cargan tarde, los botones no responden, los textos saltan). Arréglalo. Y dos: el sitemap.xml. Que exista no es suficiente. ¿Está enlazado en el robots.txt? ¿Incluye solo URLs canónicas y no páginas con noindex? Un 23% de los sitios ni lo enlazan. Es como tener un mapa del tesoro y no dárselo al buscador.
¿Y las herramientas? No te compliques al principio. Con Google Search Console (tu línea directa con Google) y Screaming Frog ya tienes para una auditoría brutal. Luego, si puedes pagar, SEMrush o Ahrefs te dan un análisis más profundo.
La clave no es hacer todo perfecto, sino arreglar lo que impide que Google te lea. Prioriza: ¿tu sitio se puede rastrear? ¿Se puede indexar? ¿Se entiende? Resuelve eso antes de obsesionarte con la densidad de keywords.