...

SEO para E-COMMERCE en el Congreso Web

by natzir-turrado

on

Report

Category:

Marketing

Download: 0

Comment: 0

20,351

views

Comentarios

Descripción

Download SEO para E-COMMERCE en el Congreso Web

Transcript

  1. 1. @natzir9 / @seovision / #CW15 SEO PARA E-COMMERCE 3 puntos imprescindibles
  2. 2. @natzir9 / @seovision / #CW15 Índice 1 . Crawling (para grandes sitios) 2. Arquitectura de la Información 3. Migraciones y rediseños
  3. 3. 1. Crawling
  4. 4. @natzir9 / @seovision / #CW15 CRAWLING 1 INDEXING 2 RANKING 3 1. Crawling
  5. 5. @natzir9 / @seovision / #CW15 1.2. Entendiendo el crawling • Los BOTS recorren internet (web visible por links). No ven la deepweb aunque lo intenten. • Lo hacen con sus bots, con browsers, con barras, etc. • Guardan las URLs que encuentras en Servidores de URLs. • Los sitios tienen asignado un crawl rate o crawl budget. Está determinado por la autoridad, facilidad de crawleo y calidad de la página.
  6. 6. @natzir9 / @seovision / #CW15 1. Crawling1.2. Entendiendo el crawling • Las páginas que se crawlean menos reciben menos tráfico y al revés, las páginas que se crawlean más reciben más tráfico. • Pues ganar a una página con más autoridad teniendo más crawl rate.
  7. 7. @natzir9 / @seovision / #CW15 • Google usa varios crawlers y user-agents: - Googlebot (desktop y mobile) - Googlebot-mobile (featured phones) - Ver otros • Para organizar qué partes queremos que google rastree, tenemos que tener en cuenta qué quiere ver el usuario y qué queremos enseñar al crawler. - Por ejemplo las ordenaciones de productos las dejaremos para el usuario pero no para el crawler. 1.2. Entendiendo el crawling
  8. 8. @natzir9 / @seovision / #CW15 • Respuestas del servidor para no molestar al bot: - 200 -> es la respuesta que siempre hay que dar - 3xx -> recomendable 301 (sigue 5 y luego da 404) - 4xx -> no le gusta. Podemos eliminar con 410 - 5xx -> no le gusta. Devolver 503 en caso de mantenimiento o por defecto hasta solucionar los errores. - 750 -> Ej. Errores de parada de Varnish 1.2. Entendiendo el crawling
  9. 9. @natzir9 / @seovision / #CW15 1.2. Entendiendo el crawling
  10. 10. @natzir9 / @seovision / #CW15 • El acceso del crawler lo podemos capar de varias formas: - Capando IP o con un site cerrado por password - Para intranets: entornos de staging, pre, dev. - Capado por robots.txt de host:puerto - Capado por meta robots (noindex, follow) - Capado por meta en cabecera HTTP - Enlaces bloqueados (js + robots.txt) BOT CONTROL 1.3. Optimización del crawling
  11. 11. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • URLs que le gustan al bot: - Efectivas: buena UX en página, con tráfico y no repetidas.
  12. 12. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Evita la “canonicalitis” y la “noindex, followitis”. Lo de la “noindex, nofollowitis” ya es de juzgado de guardia… • Una URL por intención de búsqueda, el resto capadas a menos que exista mucho volumen de búsquedas y no canibalices. Ojo: - tallas, colores, material, estado… - combinaciones de filtros permitidas. • Links que quieras que se rastreen siempre accesibles. Mira las páginas en modo texto en caché (o navega con Lynx) y no hagas caso del fetch & render para esto. Ej: siguiente diapo
  13. 13. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling PROBLEM?
  14. 14. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling
  15. 15. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Gestión de stocks: ¿Vas a volverlo a tener? - SI · 200 y muestra similares (crosselling/upselling) - NO: ¿Tienes productos similares? · SI + 200 y crosselling/upselling. Compruébalas cada 3/6 meses + 301 solo a similares y nunca a home = soft 404 · NO + 410 Mejor solución en mala UX pero ojo con el crawl rate
  16. 16. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Paginados: ¿Pues cargar todos en una página en menos de 2-3s? - SI · View All: Paginados canonical + enlace a la view all - NO: ¿Pierden mucho tiempo los bots? · SI + Robots.txt (todas o a partir de cierto número) · NO + Rel= Next, Prev (no uses canonical ni noindex, follow)
  17. 17. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling • Control de parámetros (querystrings, sessions): - Ordenaciones, campañas, búsquedas y otras funcionalidades. • AI: - 3 niveles (distancia desde la home =! número de directorios) - Potencia las zonas que interesen por negocio (link sculpting) - Apóyate en sitemaps HTML (ayudan a acortar distancias) • Y siempre, siempre, siempre analiza los logs dejados por los bots antes de tomar una decisión.
  18. 18. @natzir9 / @seovision / #CW15 1.3. Optimización del crawling
  19. 19. @natzir9 / @seovision / #CW15 BOT CONTROL 1.3. Optimización del crawling
  20. 20. @natzir9 / @seovision / #CW15 • Hay que saber diferenciar entre los tiempos de descarga de una página para el bot y para el usuario. Por ejemplo, una página puede tardar en descargarse 200ms para el bot y 20s al usuario. • El impacto directo en SEO es lo que tarda una página en ser leída por el bot porque afecta al crawling (TTFB + descarga). Intentad tener TTFB de 200ms (en SSL difícil). Impacto indirecto en SEO, mala perfomance = pogo-sticking del user contra la SERP. • Google es más restrictivo en mobile que en desktop y podría incluir el TTI en sus factores de ranking mobile. 1.4. El performance y el crawling
  21. 21. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  22. 22. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  23. 23. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  24. 24. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling
  25. 25. @natzir9 / @seovision / #CW15 1.4. El performance y el crawling • Devolviendo tiempos de respuesta rápidos en el HTML - imágenes e iconos (css sprites, escalado, compresión y cacheado) - unificar minimizar y cachear js y css • Paralelizar peticiones • Resolución de DNS rápida (prefetching, minimización de peticiones, CNAME…) • Cacheo mediante proxys • Generación de HTMLs estáticos (render del html si es js) • ETAGS para dinámicos • Expiración en cabeceras • …
  26. 26. @natzir9 / @seovision / #CW15 • Es importante entender como trata Google los links: - Accesibles - No repetir el mismo <a href> en la página (a menos que te interese pasar más peso y ojo con imágenes) - Según la situación del link en el layout. Over the fold, entre contenido, link en imágenes. - No usar un número excesivo de links por páginas (300) - Anchoring variado 1.5. Crawl/Link Sculpting
  27. 27. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  28. 28. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  29. 29. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  30. 30. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  31. 31. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  32. 32. @natzir9 / @seovision / #CW15 • Crosselling y Upselling - Son similares a crosslinks pero orientados a convertir. - Elegiremos otras búsquedas hermanas. - Estudiaremos cómo pasar mas linkjuice ( Autoridad) - Links accesibles. - Que estén próximos a los resultados o al producto. - En producto podemos pintar unos a productos hermanos por características. - Pintaremos un upselling para poder vender un segmento más alto o producto más completo. 1.5. Crawl/Link Sculpting
  33. 33. @natzir9 / @seovision / #CW15 1.5. Crawl/Link Sculpting
  34. 34. @natzir9 / @seovision / #CW15 • El robots desaparece o se modifica: - Utiliza la tool Robotto, cachea el Robots.txt, si falla un 503 - Doble capado noindex, follow • Se crean facetas sin avisar al SEO: - Monitoriza con logs nuevas secciones descubiertas. • % elevado de URLs con errores (4XX, 5XX, 7XX ) o excesivas 3XX. • Enlaces no accesibles • Canonical + noindex : te puede pasar el noindex a la canonical • Exceso de URLs baja calidad. Ej: siguiente diapo. 1.6. Problemas comunes
  35. 35. @natzir9 / @seovision / #CW15 1.6. Problemas comunes
  36. 36. 2. Arquitectura de la Información
  37. 37. @natzir9 / @seovision / #CW15 2. Arquitectura de la Información Estructurar información haciendo que los usuarios la encuentren intuitivamente y dar a los bots lo que queremos indexar. Daniel Pinillos Carrasco – UX + SEO Diseño estructural del espacio informacional para facilitar el acceso intuitivo a los contenidos. Jesse James Garret - UX
  38. 38. @natzir9 / @seovision / #CW15 • Sistemas de organización: estructuran según clasificación, ej: tipo de usuario, fechas… • Sistemas de navegación: permiten movernos de forma cómoda por el sitio. Jerarquica, facetada • Sistemas de etiquetado: categorizan la información en el lenguaje de los usuarios. • Sistemas de búsqueda: recuperan la información. 2.1. Componentes de la AI
  39. 39. @natzir9 / @seovision / #CW15 • Navegación jerárquica: - Accesible - Consistente - Indexable - Arriba en el layout 2.2. Optimización SEO de la AI
  40. 40. @natzir9 / @seovision / #CW15 • Navegación facetada: - Accesible - Usable - Informativa (filtro seleccionado) - Indexable o no según reglas 2.2. Optimización SEO de la AI
  41. 41. @natzir9 / @seovision / #CW15 • Migas interactivas: - Que contengan toda la ruta real - Markup de breadcrumb - Links accesibles o no según interese (para que el bot avance verticalmente) 2.2. Optimización SEO de la AI
  42. 42. @natzir9 / @seovision / #CW15 • Naming y anchoring: - Debemos poner los nombres correctos a los links de navegación. - Primero UX luego SEO. - Ojo con: · Sobreoptimizar anchorings de enlaces. · Alts de imágenes que cuentan como anchor. · Repetir dos links en misma URL. 2.2. Optimización SEO de la AI
  43. 43. @natzir9 / @seovision / #CW15 • Titles de etiquetado: - Únicos para evitar canibalizaciones - 60 caracteres aprox (ahora píxels) - Automáticos y luego manuales - Optimizados para el click o call to action - Uso de verbos que ayuden a persuadir - Ejemplo de regla: · comprar [BMW] [serie 3] [diesel] de [segunda mano] en [Madrid] · micoche.com/segunda-mano/provincia/bmw/serie-3/f/diesel 2.2. Optimización SEO de la AI
  44. 44. @natzir9 / @seovision / #CW15 2.2. Optimización SEO de la AI
  45. 45. @natzir9 / @seovision / #CW15 • Descriptions de etiquetado (más persuasión que SEO) - Únicas y 155 caracteres aprox (tool) - Automáticos y luego manuales en las que interesen - Con info concreta del listado o producto - Persuasivas. Uso de verbos y orientado al click - Poner propuesta de valor del producto (entrega 24h, devolución gratis…) 2.2. Optimización SEO de la AI
  46. 46. @natzir9 / @seovision / #CW15 • Sistema de búsqueda - Buscador que pueda indexar lo que queramos - Suggest en la búsqueda · URL: /s/keyword-de-búsqueda (capara por robots disallow: /s/ y meta noindex ‘porsiaca’) - Podemos indexar búsquedas repetidas si enriquecemos (no es lo más recomendablea ahora) - User & Keyword Research para sacar topics de los que hablar 2.2. Optimización SEO de la AI
  47. 47. @natzir9 / @seovision / #CW15 • Analizar a tus usuarios: - encuestas, testing, investigación contextual, estudios de mercado, focus groups…. sal a la calle! • Modelado de personajes y definición de metas y tareas de usuario: - Comprar un producto, lead, permanencia, contacto. • User & Keyword research. - Analiza intenciones de búsqueda - Analiza keywords por conversión y volumen - Busca la oportunidad (kw difficulty con Moz, Semrush, Sistrix) 2.3. User Research
  48. 48. @natzir9 / @seovision / #CW15 2.3. User Research
  49. 49. @natzir9 / @seovision / #CW15 2.3. User Research
  50. 50. @natzir9 / @seovision / #CW15 2.3. User Research • En tu Excel de keywords añade: - Intención de búsqueda - Prioridad (cerca de la conversión) - Tipo de búsqueda: · Informativa · Navegacional · Transaccional · Multimedia • Completa tu personaje con esta info. • ¡Ahora ya tienes la foto real de tu usuario! +
  51. 51. @natzir9 / @seovision / #CW15 2.4. AI en el ciclo de compra URLs Contenidos informativos > URLs Contenidos transaccionales > URLs Contenidos experienciales >
  52. 52. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e intenciones INVESTIGACIÓN LIMPIEZA Y CLUSTERIZADO VOLUMEN, COMPETENCIA Y TENDENCIAS
  53. 53. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e intenciones
  54. 54. @natzir9 / @seovision / #CW15 2.5. Investigación de topics e intenciones
  55. 55. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • Crea un mapa mental (pe: Xmind) teniendo en cuenta: - Árbol de tu web actual (si tienes) - Lo que conozcas del producto - Lo tienen tus competidores - Patrones de búsqueda
  56. 56. @natzir9 / @seovision / #CW15 2.6. Mapa de AI
  57. 57. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs indexables: - /segunda-mano - /segunda-mano/provincia - /segunda-mano/provincia/berlina - /segunda-mano/provincia/bmw - /segunda-mano/provincia/bmw/serie-3/
  58. 58. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs indexables: - /segunda-mano/provincia/bmw/serie-3/f/diesel (cuidado con canibalización. Indexar más tarde) - /segunda-mano/provincia/bmw/serie-/f/diesel/e/barato (cuidado con canibalización. Indexar más tarde) - /segunda-mano/provincia/bmw/serie-3/p-2/ (indexar solo las 5 primeras páginas)
  59. 59. @natzir9 / @seovision / #CW15 2.6. Mapa de AI • URLs NO indexables: - /segunda-mano/provincia/bmw/serie-3/f/diesel,5-puertas (disallow: *,* o bloqueo del enlace con ajax/js capado) - /segunda-mano/provincia/bmw/serie-3/p-6/ (disallow: */p-* , meta noindex, follow según consumo del bot) /segunda-mano/provincia/bmw/serie-3/f/diesel/o/mas-barato (disallow: */o/* o bloqueo del enlace con ajax/js capado)
  60. 60. @natzir9 / @seovision / #CW15 2.7. Optimización y Testing de AI CARD SORT CERRADO TREE TESTCARD SORT ABIERTO • El usuario agrupa libremente • Para descubrir una AI útil para el user • El usuario agrupa en grupos cerrados • Para verificar una AI • El usuario busca en una AI sin diseño elementos que le preguntan • Para mejorar la findability de una AI
  61. 61. @natzir9 / @seovision / #CW15 2.7. Optimización y Testing de AI
  62. 62. @natzir9 / @seovision / #CW15 2.8. Caso real • Mejora del negocio • Mejora en SEO
  63. 63. @natzir9 / @seovision / #CW15 2.8. Caso real
  64. 64. 3. Migraciones y rediseños
  65. 65. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  66. 66. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños Web con todas las facetas abiertas
  67. 67. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  68. 68. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  69. 69. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  70. 70. @natzir9 / @seovision / #CW15 3. Migraciones y rediseños
  71. 71. @natzir9 / @seovision / #CW15 3.1. Checklist de migración • Hemos preparado este checklist para que no se te pase nada. • Algunos pasos importantes son: - Inventario de URLs viejas - Inventario de URLs nuevas - Macheo de redirecciones - Configuración de sistemas - Canonical y luego redirección - Validación y seguimiento - Emulación y crawleo
  72. 72. @natzir9 / @seovision / #CW15 3.2. Seguimiento de migraciones • Crawlea el sitio antes y después para comparar los crawls. Deepcrawl, Sistrix o Semrush (para sitios peques). • Preferiblemente crawlea el antes de migrar en un entorno de desarrollo. Puedes hacerlo con Xenu, Deepcrawl, Screamingfrog… • Verifica que las redirecciones son directas. Coge una muestra de URLs y verifícalo fácilmente con RedirectPath para Chrome. • Cuando salgas mira las páginas en las que se está accediendo con el RealTime de Analytics y con logs.
  73. 73. @natzir9 / @seovision / #CW15 3.2. Seguimiento de migraciones • Trakea posiciones y visibilidad (Sistrix o Semrush). • Acuérdate de indicar el cambio de dominio/subdominio si hay en SearchConsole. • El Sitemap.xml súbelo al tiempo y separado por secciones para ver la indexación de cada una. Ojo con urls erroneas o viejas! • Páginas que se hayan indexado por error elimínalas en bulk desde Search Console o crea un Sitemap-error.xml y que las URLs devuelvan 410 para que desaparezcan.
  74. 74. @natzir9 / @seovision / #CW15 3.3. Problemas comunes • Mala configuración de sistemas. Errores 503, 750 en Varnish, 404. • No mantener ni actualizar el nuevo robots.txt. • Abrir a buscadores entorno de staging. • Reglas de redirección mal hechas, redirecciones no directas y no 301. • Sitemaps.xml contra URLs que no son las finales o no son accesibles (4XX, 5XX, noindex). Gbot acabará ignorando los sitemaps. • Enlaces onsite no actualizados a nuevas urls.
  75. 75. Ya estás listo para domar a Google, y si no… Natzir Turrado Daniel Pinillos Lino Uruñuela @natzir9 @seovision @errioxa
  76. 76. …better call FunnelPunk info@funnelpunk.com
Volar