El SEO es tan importante para un programador como para un ingeniero de contenido. Los motores de búsqueda tienen en cuenta no solo el contenido del sitio, sino también las etiquetas, la adaptabilidad, la usabilidad, el rendimiento y aquellos indicadores que lo afectan. Averigüemos a qué prestar atención exactamente.
Formación de la estructura del sitio.
La estructura es un diagrama lógico de la ubicación y la relación de las páginas de un sitio entre sí, y lo primero que debe hacer es asegurarse de que la estructura sea correcta. ¿Por qué? Es solo que seguir trabajando con un sitio que tiene una estructura inicialmente incorrecta no tiene sentido: todavía tiene que volver y reciclar
A que afecta:
Indexación: los robots de búsqueda son mejores para indexar sitios con la estructura correcta.
Visibilidad: una estructura bien diseñada junto con claves y meta etiquetas amplía la visibilidad del sitio para consultas específicas.
Usabilidad: la estructura fácil de usar hace que la navegación del sitio sea simple e intuitiva, lo cual es bueno para los factores de comportamiento.
Un ejemplo de una estructura bien formada:
Un programador que esté un poco familiarizado con el SEO sabe que cuanto más arriba esté una página en el árbol, mejor será su visibilidad para los robots de búsqueda. Sin embargo, esto no significa que todas las páginas deban moverse al segundo nivel (donde se ubican las secciones en el diagrama), ya que en este caso la navegación se volverá compleja y confusa.
Desde el punto de vista de la usabilidad, tampoco es deseable abusar de los redireccionamientos. Ejemplo: al hacer clic en una página de la "Subsección 1", el usuario se encuentra de repente en una página de la "Subsección 2".
Navegación
Los elementos de navegación adicionales son menús, rutas de navegación, secciones con productos o materiales recomendados, los temas más populares, etc. En términos generales, estos son los enlaces internos que, idealmente, deberían volverse en bucle. Qué significa eso? Digamos que la página de inicio tiene un menú que contiene un enlace a la "Sección 1". Para una mejor indexación desde la "Sección 1", también debe haber un vínculo de retroceso a la página principal, y la mayoría de las veces se trata de un vínculo en el logotipo en el encabezado del sitio: por lo tanto, cada una de las páginas del sitio también conduce a la página principal.
Auditoría técnica del sitio web
Este es un análisis que le permite identificar debilidades en el componente técnico del sitio y lo muestran los especialistas en SEO en un formato de informe. Sin embargo, puede analizar el sitio usted mismo.
Velocidad de carga del sitio web
Una métrica extremadamente importante para SEO. El programador debe controlar la velocidad del sitio, porque este indicador se tiene en cuenta al clasificar por los motores de búsqueda. En PageSpeed Insights, puede comprobar la velocidad de carga del sitio web desde dispositivos móviles y de escritorio:
El servicio también proporciona acceso a dichos indicadores:
- FCP: primer procesamiento de contenido;
- LCP: reproducción del contenido más grande;
- FID: retraso de la primera interacción con la página;
- CLS: cambio de diseño acumulativo (lea nuestro artículo sobre cómo mejorar CLS ).
Microdatos
La validez del código es el cumplimiento del código fuente del sitio con las reglas y regulaciones descritas por el World Wide Web Consortium, o W3C para abreviar. Un código válido permite que los motores de búsqueda funcionen de manera más eficiente con un recurso web y, en igualdad de condiciones, los robots de los motores de búsqueda dan preferencia a un sitio con un código válido, lo que significa que este sitio estará más arriba en los resultados de búsqueda.
Valide su sitio con el validador de documentos HTML y XHTML de Markup Validation Service y tenga en cuenta las deficiencias en los resultados.
Prestar especial atención a estas etiquetas como title, description, subtítulos h1, h2, h3(por ejemplo, los subtítulos h1deben ser estrictamente una por página), y altlas imágenes: todos ellos necesitan ser optimizados de acuerdo con las palabras clave seleccionadas para cada página individual. La herramienta más útil para comprobar rápidamente las metaetiquetas es la extensión Google Chrome SEO META in 1 CLICK .
Construyendo un archivo robots.txt
robots.txt es un archivo de texto que contiene parámetros de indexación de sitios para robots de búsqueda. Con este archivo y las instrucciones especiales que contiene (directivas), puede controlar la indexación del sitio. En términos generales, con robots.txt podemos decirle al robot del motor de búsqueda qué páginas se pueden indexar y cuáles no.
Se requieren dos directivas para este archivo: esta User-agenty Allowcualquiera Disallow. Una directiva opcional pero común es Sitemap. Analicémoslos con un poco más de detalle:
En User-agentespecifica el robot de búsqueda al que pertenecen los comandos del archivo. Ejemplos: User-agent: Yandex, User-agent: Googlebot, User-agent: *(incluye todos los robots).
Disallow prohíbe la indexación de páginas individuales o secciones completas escritas en ella. Ejemplos: Disallow: /catalog/, Disallow: /catalog/page.html.
Allowpor el contrario, permite la indexación de secciones y páginas del sitio. Funciona para todo el sitio de forma predeterminada, a menos que una directiva indique lo contrario Disallow. La mayoría de las veces se Allowusa junto con Disallow, cuando una parte de la sección debe cerrarse de la indexación y la otra, para abrirla.
Sitemap contiene un enlace al mapa del sitio, donde se detalla toda su estructura. Ejemplo Sitemap: sitemap.xml.
Un ejemplo de un archivo robots.txt compilado para todos los motores de búsqueda con todas las páginas abiertas y un mapa del sitio:
User-agent: *
Allow: /
Sitemap: sitemap.xml
Mapa del sitio
Asegúrese de verificar que el mapa del sitio esté completo, que las páginas comiencen con el protocolo que sea relevante para su recurso (la mayoría de las veces sea https: //), y que las páginas importantes para los motores de búsqueda tengan un código de respuesta de servidor de 200 y estén necesariamente indexadas:
Preste atención al programa de escritorio Screaming Frog SEO Spider para análisis de sitios complejos: es conveniente verificar las metaetiquetas, el mapa del sitio, la canonicidad de la página, la seguridad y mucho más con su ayuda.
Preste atención al programa de escritorio Screaming Frog SEO Spider para análisis de sitios complejos: es conveniente verificar las metaetiquetas, el mapa del sitio, la canonicidad de la página, la seguridad y mucho más con su ayuda.Recomendaciones adicionales
- Mueva todos los estilos utilizados en el diseño, así como el código JavaScript en 15-20 líneas en archivos separados: esto hará que el código sea más fácil y la navegación por las páginas sea más rápida.
- Use un formato de dirección uniforme para los enlaces; esto se aplica a las barras inclinadas al final, así como a los nombres de las páginas y secciones: en todas partes debe haber transliteración o traducción al inglés.
- Esfuércese por la compatibilidad y adaptación de varios navegadores para dispositivos móviles.
- Elimina los archivos del sistema de la indexación.
- Compruebe que la página 404 funciona correctamente: debe estar donde sea necesario.
- Registre enlaces externos target="_blank"para abrir desde una nueva pestaña sin cerrar su página (esto afecta directamente los factores de comportamiento).
- Corrija oportunamente los enlaces rotos y cierre las etiquetas HTML emparejadas que no estén cerradas.
- El SEO para el programador también incluye la ubicación de puntos de captura, cualquier elemento de retención que los empuje a interactuar más con el sitio.
¿Todavía tienes preguntas sobre la optimización SEO? Pregunte en los comentarios.
Comentarios