The present document can't read!
Please download to view
All materials on our website are shared by users. If you have any questions about copyright issues, please report us to resolve them. We are always happy to assist you.
...

SEO para E-COMMERCE en el Congreso Web

by natzir-turrado

on

Report

Category:

Marketing

Download: 0

Comment: 0

20,351

views

Comentarios

Descripción

Download SEO para E-COMMERCE en el Congreso Web

Transcript

  1. 1. @natzir9 / @seovision / #CW15 SEO PARA E-COMMERCE 3 puntos imprescindibles
  2. 2. @natzir9 / @seovision / #CW15 Índice 1 . Crawling (para grandes sitios) 2. Arquitectura de la Información 3. Migraciones y rediseños
  3. 3. 1. Crawling
  4. 4. @natzir9 / @seovision / #CW15 CRAWLING 1 INDEXING 2 RANKING 3 1. Crawling
  5. 5. @natzir9 / @seovision / #CW15 1.2. Entendiendo el crawling • Los BOTS recorren internet (web visible por links). No ven la deepweb aunque lo intenten. • Lo hacen con sus bots, con browsers, con barras, etc. • Guardan las URLs que encuentras en Servidores de URLs. • Los sitios tienen asignado un crawl rate o crawl budget. Está determinado por la autoridad, facilidad de crawleo y calidad de la página.
  6. 6. @natzir9 / @seovision / #CW15 1. Crawling1.2. Entendiendo el crawling • Las páginas que se crawlean menos reciben menos tráfico y al revés, las páginas que se crawlean más reciben más tráfico. • Pues ganar a una página con más autoridad teniendo más crawl rate.
  7. 7. @natzir9 / @seovision / #CW15 • Google usa varios crawlers y user-agents: - Googlebot (desktop y mobile) - Googlebot-mobile (featured phones) - Ver otros • Para organizar qué partes queremos que google rastree, tenemos que tener en cuenta qué quiere ver el usuario y qué queremos enseñar al crawler. - Por ejemplo las ordenaciones de productos las dejaremos para el usuario pero no para el crawler. 1.2. Entendiendo el crawling
  8. 8. @natzir9 / @seovision / #CW15 • Respuestas del servidor para no molestar al bot: - 200 -> es la respuesta que siempre hay que dar - 3xx -> recomendable 301 (sigue 5 y luego da 404) - 4xx -> no le gusta. Podemos eliminar con 410 - 5xx -> no le gusta. Devolver 503 en caso de mantenimiento o por defecto hasta solucionar los errores. - 750 -> Ej. Errores de parada de Varnish 1.2. Entendiendo el crawling
  9. 9. @natzir9 / @seovision / #CW15 1.2. Entendiendo el crawling
  10. 10. @natzir9 / @seovision / #CW15 • El acceso del crawler lo podemos capar de varias formas: - Capando IP o con un site cerrado por password - Para intranets: entornos de staging, pre, dev. - Capado por robots.txt de host:puerto - Capado por meta robots (noindex, follow) - Capado por meta en cabecera HTTP - Enlaces bloqueados (js + robots.txt) BOT CONTROL 1.3. Optimización del crawling
  11. 11. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • URLs que le gustan al bot: - Efectivas: buena UX en página, con tráfico y no repetidas.
  12. 12. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Evita la “canonicalitis” y la “noindex, followitis”. Lo de la “noindex, nofollowitis” ya es de juzgado de guardia… • Una URL por intención de búsqueda, el resto capadas a menos que exista mucho volumen de búsquedas y no canibalices. Ojo: - tallas, colores, material, estado… - combinaciones de filtros permitidas. • Links que quieras que se rastreen siempre accesibles. Mira las páginas en modo texto en caché (o navega con Lynx) y no hagas caso del fetch & render para esto. Ej: siguiente diapo
  13. 13. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling PROBLEM?
  14. 14. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling
  15. 15. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Gestión de stocks: ¿Vas a volverlo a tener? - SI · 200 y muestra similares (crosselling/upselling) - NO: ¿Tienes productos similares? · SI + 200 y crosselling/upselling. Compruébalas cada 3/6 meses + 301 solo a similares y nunca a home = soft 404 · NO + 410 Mejor solución en mala UX pero ojo con el crawl rate
  16. 16. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Paginados: ¿Pues cargar todos en una página en menos de 2-3s? - SI · View All: Paginados canonical + enlace a la view all - NO: ¿Pierden mucho tiempo los bots? · SI + Robots.txt (todas o a partir de cierto número) · NO + Rel= Next, Prev (no uses canonical ni noindex, follow)
  17. 17. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Control de parámetros (querystrings, sessions): - Ordenaciones, campañas, búsquedas y otras funcionalidades. • AI: - 3 niveles (distancia desde la home =! número de directorios) - Potencia las zonas que interesen por negocio (link sculpting) - Apóyate en sitemaps HTML (ayudan a acortar distancias) • Y siempre, siempre, siempre analiza los logs dejados por los bots antes de tomar una decisión.
  18. 18. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling
  19. 19. @natzir9 / @seovision / #CW15 BOT CONTROL 1.3. Optimización del crawling
  20. 20. @natzir9 / @seovision / #CW15 • Hay que saber diferenciar entre los tiempos de descarga de una página para el bot y para el usuario. Por ejemplo, una página puede tardar en descargarse 200ms para el bot y 20s al usuario. • El impacto directo en SEO es lo que tarda una página en ser leída por el bot porque afecta al crawling (TTFB + descarga). Intentad tener TTFB de 200ms (en SSL difícil). Impacto indirecto en SEO, mala perfomance = pogo-sticking del user contra la SERP. • Google es más restrictivo en mobile que en desktop y podría incluir el TTI en sus factores de ranking mobile. 1.4. El performance y el crawling
  21. 21. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  22. 22. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  23. 23. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  24. 24. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  25. 25. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling • Devolviendo tiempos de respuesta rápidos en el HTML - imágenes e iconos (css sprites, escalado, compresión y cacheado) - unificar minimizar y cachear js y css • Paralelizar peticiones • Resolución de DNS rápida (prefetching, minimización de peticiones, CNAME…) • Cacheo mediante proxys • Generación de HTMLs estáticos (render del html si es js) • ETAGS para dinámicos • Expiración en cabeceras • …
  26. 26. @natzir9 / @seovision / #CW15 • Es importante entender como trata Google los links: - Accesibles - No repetir el mismo <a href> en la página (a menos que te interese pasar más peso y ojo con imágenes) - Según la situación del link en el layout. Over the fold, entre contenido, link en imágenes. - No usar un número excesivo de links por páginas (300) - Anchoring variado 1.5. Crawl/Link Sculpting
  27. 27. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  28. 28. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  29. 29. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  30. 30. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  31. 31. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  32. 32. @natzir9 / @seovision / #CW15 • Crosselling y Upselling - Son similares a crosslinks pero orientados a convertir. - Elegiremos otras búsquedas hermanas. - Estudiaremos cómo pasar mas linkjuice ( Autoridad) - Links accesibles. - Que estén próximos a los resultados o al producto. - En producto podemos pintar unos a productos hermanos por características. - Pintaremos un upselling para poder vender un segmento más alto o producto más completo. 1.5. Crawl/Link Sculpting
  33. 33. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  34. 34. @natzir9 / @seovision / #CW15 • El robots desaparece o se modifica: - Utiliza la tool Robotto, cachea el Robots.txt, si falla un 503 - Doble capado noindex, follow • Se crean facetas sin avisar al SEO: - Monitoriza con logs nuevas secciones descubiertas. • % elevado de URLs con errores (4XX, 5XX, 7XX ) o excesivas 3XX. • Enlaces no accesibles • Canonical + noindex : te puede pasar el noindex a la canonical • Exceso de URLs baja calidad. Ej: siguiente diapo. 1.6. Problemas comunes
  35. 35. @natzir9 / @seovision / #CW15 1.6. Problemas comunes
  36. 36. 2. Arquitectura de la Información
  37. 37. @natzir9 / @seovision / #CW15 2. Arquitectura de la Información Estructurar información haciendo que los usuarios la encuentren intuitivamente y dar a los bots lo que queremos indexar. Daniel Pinillos Carrasco – UX + SEO Diseño estructural del espacio informacional para facilitar el acceso intuitivo a los contenidos. Jesse James Garret - UX
  38. 38. @natzir9 / @seovision / #CW15 • Sistemas de organización: estructuran según clasificación, ej: tipo de usuario, fechas… • Sistemas de navegación: permiten movernos de forma cómoda por el sitio. Jerarquica, facetada • Sistemas de etiquetado: categorizan la información en el lenguaje de los usuarios. • Sistemas de búsqueda: recuperan la información. 2.1. Componentes de la AI
  39. 39. @natzir9 / @seovision / #CW15 • Navegación jerárquica: - Accesible - Consistente - Indexable - Arriba en el layout 2.2. Optimización SEO de la AI
  40. 40. @natzir9 / @seovision / #CW15 • Navegación facetada: - Accesible - Usable - Informativa (filtro seleccionado) - Indexable o no según reglas 2.2. Optimización SEO de la AI
  41. 41. @natzir9 / @seovision / #CW15 • Migas interactivas: - Que contengan toda la ruta real - Markup de breadcrumb - Links accesibles o no según interese (para que el bot avance verticalmente) 2.2. Optimización SEO de la AI
  42. 42. @natzir9 / @seovision / #CW15 • Naming y anchoring: - Debemos poner los nombres correctos a los links de navegación. - Primero UX luego SEO. - Ojo con: · Sobreoptimizar anchorings de enlaces. · Alts de imágenes que cuentan como anchor. · Repetir dos links en misma URL. 2.2. Optimización SEO de la AI
  43. 43. @natzir9 / @seovision / #CW15 • Titles de etiquetado: - Únicos para evitar canibalizaciones - 60 caracteres aprox (ahora píxels) - Automáticos y luego manuales - Optimizados para el click o call to action - Uso de verbos que ayuden a persuadir - Ejemplo de regla: · comprar [BMW] [serie 3] [diesel] de [segunda mano] en [Madrid] · micoche.com/segunda-mano/provincia/bmw/serie-3/f/diesel 2.2. Optimización SEO de la AI
  44. 44. @natzir9 / @seovision / #CW15 2.2. Optimización SEO de la AI
  45. 45. @natzir9 / @seovision / #CW15 • Descriptions de etiquetado (más persuasión que SEO) - Únicas y 155 caracteres aprox (tool) - Automáticos y luego manuales en las que interesen - Con info concreta del listado o producto - Persuasivas. Uso de verbos y orientado al click - Poner propuesta de valor del producto (entrega 24h, devolución gratis…) 2.2. Optimización SEO de la AI
  46. 46. @natzir9 / @seovision / #CW15 • Sistema de búsqueda - Buscador que pueda indexar lo que queramos - Suggest en la búsqueda · URL: /s/keyword-de-búsqueda (capara por robots disallow: /s/ y meta noindex ‘porsiaca’) - Podemos indexar búsquedas repetidas si enriquecemos (no es lo más recomendablea ahora) - User & Keyword Research para sacar topics de los que hablar 2.2. Optimización SEO de la AI
  47. 47. @natzir9 / @seovision / #CW15 • Analizar a tus usuarios: - encuestas, testing, investigación contextual, estudios de mercado, focus groups…. sal a la calle! • Modelado de personajes y definición de metas y tareas de usuario: - Comprar un producto, lead, permanencia, contacto. • User & Keyword research. - Analiza intenciones de búsqueda - Analiza keywords por conversión y volumen - Busca la oportunidad (kw difficulty con Moz, Semrush, Sistrix) 2.3. User Research
  48. 48. @natzir9 / @seovision / #CW15 2.3. User Research
  49. 49. @natzir9 / @seovision / #CW15 2.3. User Research
  50. 50. @natzir9 / @seovision / #CW15 2.3. User Research • En tu Excel de keywords añade: - Intención de búsqueda - Prioridad (cerca de la conversión) - Tipo de búsqueda: · Informativa · Navegacional · Transaccional · Multimedia • Completa tu personaje con esta info. • ¡Ahora ya tienes la foto real de tu usuario! +
  51. 51. @natzir9 / @seovision / #CW15 2.4. AI en el ciclo de compra URLs Contenidos informativos > URLs Contenidos transaccionales > URLs Contenidos experienciales >
  52. 52. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e intenciones INVESTIGACIÓN LIMPIEZA Y CLUSTERIZADO VOLUMEN, COMPETENCIA Y TENDENCIAS
  53. 53. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e intenciones
  54. 54. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e intenciones
  55. 55. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • Crea un mapa mental (pe: Xmind) teniendo en cuenta: - Árbol de tu web actual (si tienes) - Lo que conozcas del producto - Lo tienen tus competidores - Patrones de búsqueda
  56. 56. @natzir9 / @seovision / #CW15 2.6. Mapa de AI
  57. 57. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs indexables: - /segunda-mano - /segunda-mano/provincia - /segunda-mano/provincia/berlina - /segunda-mano/provincia/bmw - /segunda-mano/provincia/bmw/serie-3/
  58. 58. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs indexables: - /segunda-mano/provincia/bmw/serie-3/f/diesel (cuidado con canibalización. Indexar más tarde) - /segunda-mano/provincia/bmw/serie-/f/diesel/e/barato (cuidado con canibalización. Indexar más tarde) - /segunda-mano/provincia/bmw/serie-3/p-2/ (indexar solo las 5 primeras páginas)
  59. 59. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs NO indexables: - /segunda-mano/provincia/bmw/serie-3/f/diesel,5-puertas (disallow: *,* o bloqueo del enlace con ajax/js capado) - /segunda-mano/provincia/bmw/serie-3/p-6/ (disallow: */p-* , meta noindex, follow según consumo del bot) /segunda-mano/provincia/bmw/serie-3/f/diesel/o/mas-barato (disallow: */o/* o bloqueo del enlace con ajax/js capado)
  60. 60. @natzir9 / @seovision / #CW15 2.7. Optimización y Testing de AI CARD SORT CERRADO TREE TESTCARD SORT ABIERTO • El usuario agrupa libremente • Para descubrir una AI útil para el user • El usuario agrupa en grupos cerrados • Para verificar una AI • El usuario busca en una AI sin diseño elementos que le preguntan • Para mejorar la findability de una AI
  61. 61. @natzir9 / @seovision / #CW15 2.7. Optimización y Testing de AI
  62. 62. @natzir9 / @seovision / #CW15 2.8. Caso real • Mejora del negocio • Mejora en SEO
  63. 63. @natzir9 / @seovision / #CW15 2.8. Caso real
  64. 64. 3. Migraciones y rediseños
  65. 65. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  66. 66. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños Web con todas las facetas abiertas
  67. 67. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  68. 68. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  69. 69. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  70. 70. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  71. 71. @natzir9 / @seovision / #CW15 3.1. Checklist de migración • Hemos preparado este checklist para que no se te pase nada. • Algunos pasos importantes son: - Inventario de URLs viejas - Inventario de URLs nuevas - Macheo de redirecciones - Configuración de sistemas - Canonical y luego redirección - Validación y seguimiento - Emulación y crawleo
  72. 72. @natzir9 / @seovision / #CW15 3.2. Seguimiento de migraciones • Crawlea el sitio antes y después para comparar los crawls. Deepcrawl, Sistrix o Semrush (para sitios peques). • Preferiblemente crawlea el antes de migrar en un entorno de desarrollo. Puedes hacerlo con Xenu, Deepcrawl, Screamingfrog… • Verifica que las redirecciones son directas. Coge una muestra de URLs y verifícalo fácilmente con RedirectPath para Chrome. • Cuando salgas mira las páginas en las que se está accediendo con el RealTime de Analytics y con logs.
  73. 73. @natzir9 / @seovision / #CW15 3.2. Seguimiento de migraciones • Trakea posiciones y visibilidad (Sistrix o Semrush). • Acuérdate de indicar el cambio de dominio/subdominio si hay en SearchConsole. • El Sitemap.xml súbelo al tiempo y separado por secciones para ver la indexación de cada una. Ojo con urls erroneas o viejas! • Páginas que se hayan indexado por error elimínalas en bulk desde Search Console o crea un Sitemap-error.xml y que las URLs devuelvan 410 para que desaparezcan.
  74. 74. @natzir9 / @seovision / #CW15 3.3. Problemas comunes • Mala configuración de sistemas. Errores 503, 750 en Varnish, 404. • No mantener ni actualizar el nuevo robots.txt. • Abrir a buscadores entorno de staging. • Reglas de redirección mal hechas, redirecciones no directas y no 301. • Sitemaps.xml contra URLs que no son las finales o no son accesibles (4XX, 5XX, noindex). Gbot acabará ignorando los sitemaps. • Enlaces onsite no actualizados a nuevas urls.
  75. 75. Ya estás listo para domar a Google, y si no… Natzir Turrado Daniel Pinillos Lino Uruñuela @natzir9 @seovision @errioxa
  76. 76. …better call FunnelPunk [email protected]
Volar