martes, 6 de noviembre de 2012

Navegar mejor con Google Chrome (Parte 2)

Desde su lanzamiento, Google Chrome ha sido uno de los navegadores más rápidos. La mayoría de los usuarios que lo utilizan, están conformes y destacan su óptimo rendimiento y facilidad de uso. Pero Google Chrome puede perder eficacia si el usuario comete algunos errores, lo que pueden hacer que el navegador utilice más memoria de la necesaria o realice procesos innecesarios. Optimice Google Chrome - II


Recomendación

Utilice la Extensión FastestChrome

Usando FastestChrome mejorará notablemente el desempeño de las búsquedas en la web. La extensión agrega una serie de características al navegador, que ayudarán a efectuar búsquedas más rápidas y fáciles. Por ejemplo, con un par de clics sobre una palabra, puede buscar su significado en Google o en Wikipedia.

Deshabilitar precarga de DNS

Google Chrome tiene activada la opción de precarga de DNS por defecto. Esta característica optimiza la carga de las páginas, pero muchas veces ocasiona problemas al navegar. Por ejemplo, puede provocar que el navegador lance errores o directamente se cuelgue y no responda. Para desactivar esta opción, ingrese en las opciones avanzadas de Google Chrome y quite la selección de la opción “Utilizar la precarga de DNS…”

martes, 30 de octubre de 2012

Navegar mejor con Google Chrome (Parte 1)

Desde su lanzamiento, Google Chrome ha sido uno de los navegadores más rápidos. La mayoría de los usuarios que lo utilizan, están conformes y destacan su óptimo rendimiento y facilidad de uso. Pero Google Chrome puede perder eficacia si el usuario comete algunos errores, lo que pueden hacer que el navegador utilice más memoria de la necesaria o realice procesos innecesarios.


Recomendación

Existen varios ajustes que se pueden efectuar de manera periódica para mantener la velocidad del navegador.

Controle los componentes instalados

Puede desinstalar los complementos inútiles o que no le sirvan. Presionando sobre la llave (herramienta para acceder a las opciones, en la parte superior derecha), seleccione Herramientas / Extensiones del menú. Podrá desinstalar lo que no está utilizando.

Elimine el historial y datos no necesarios

El navegador guarda el historial de todas las páginas, a las cuales accedemos diariamente. Si no borramos este historial en forma habitual, posiblemente Google Chrome se vuelva algo lento. Borrar el historial es fácil, presione las teclas Ctrl + Shift + Delete (Ctrl + Shift + Supr) todas juntas y se abrirá una ventana de diálogo. En ésta ventana podrá seleccionar las secciones del historial que desee eliminar y también otras como vaciar el caché y eliminar las cookies.

jueves, 25 de octubre de 2012

Errores fatales del SEO (El contenido duplicado- parte 3)


Esta serie de artículos con la duplicidad de contenidos como protagonista llega hoy a su fin haciendo especial hincapié en otro importante frente: El plagio de contenidos. ¿Has detectado que los contenidos de tu web se mostraban en otras páginas y quieres actuar con efectividad? Hoy resumimos prácticas recomendaciones e identificamos algunas de las herramientas imprescindibles para localizar contenidos robados. No esperes más. Ármate para la batalla y prepárate para obtener la mejor recompensa.

El robo de contenidos es un mal mucho más frecuente del que desearíamos. Después de ocuparnos en Los Peores Enemigos del SEO: El Contenido Duplicado (I) de identificar métodos para evitar la duplicidad de contenido dentro de una web, para posteriormente mostrar casos habituales de contenido duplicado en la segunda parte del artículo, hoy se cierra esta serie analizando el plagio de contenidos.
Si en algún momento has comprobado que contenidos de tu web se muestran en otros dominios, sin tu consentimiento y sin citar la fuente original, como si fueran de autoría propia, la sombra del contenido plagiado está acechando. Protege tus contenidos contra estos ataques conociendo técnicas y herramientas que te facilitarán la detección de esos ladrones que se apoderan de lo ajeno sin miramiento. Al igual que hay solución para los problemas de indexación por complejos que parezcan, en la duplicidad de contenidos también se puede ver la luz al final del túnel. Toma buena nota de las siguientes recomendaciones y aplícalas llegado el momento.

ROBO DE CONTENIDOS – ¿Qué hacer cuando otros se adueñan de tu esfuerzo?

En Internet, los comandos Ctrl + C/Ctrl + V pueden alcanzar velocidades de vértigo. Copiar y pegar un contenido creado originalmente desde una web en otros dominios es relativamente fácil y hay quienes no cesan en su empeño de hacer suyo lo ajeno.
Pero los Web Scrappers van más allá del clásico copia-pega. Hablamos de unos tipos de robots capaces de indexar información recopilando artículos de otros sitios web con el objetivo de sacar un rendimiento económico.
Al distribuir un contenido propio en otras páginas “ladronas”, Google mostrará la versión que estime más adecuada que no tiene por qué coincidir con la tuya aunque sea la original. Hay quienes introducen un enlace a la web de origen – qué menos -, pero hay otros que llegan incluso a mostrarse como autores sin referenciar a los creadores legítimos.
Por nuestra parte, ¿podemos hacer algo para que no suceda? Por suerte, sí. Hay multitud de herramientas de detección de contenidos duplicados muy prácticas y que veremos dentro de unas líneas. Pero, además, nos gustaría que tuvieras siempre presente estas recomendaciones:
  • Incluye enlaces en los posts que publiques en tu blog. Activa los Trackbacks y Pingbacks y revísalos a diario porque puedan darte muchas pistas sobre el posible ladrón de contenidos. No solo darás con blogs que enlazan tus artículos porque les parecen interesantes – muéstrales tu agradecimiento -, sino que detectarás otros que no muestran una actitud tan bienintencionada.
  • Comprueba las IPs o hots sospechosos. Desde Whois Domains Tools te será muy sencillo hacer una comprobación de las Ips y saber si pertenecen a spammers conocidos.
  • Contacta con el hosting del sitio plagiador para que elimine ese contenido.
  • Solicita a través de tu panel de Webmasters Tools de Google que desaparezca la Url donde aparece contenido robado.

Herramientas para detectar la duplicación de contenidos

1-. Copyscape: Sencilla y muy práctica, la versión gratuita de este radar de contenidos plagiados nos ayuda a obtener respuestas tan solo con introducir la URL donde se haya el contenido que quieres comprobar. Copyscape responde ofreciéndote dominios que comparten los mismos contenidos.

2-. Webconfs: Desde su herramienta Similar Page Checker, podrás comparar tu URL con aquella que crees que está plagiando tu contenido. La plataforma indicará el porcentaje de duplicidad existente.

3-. Herramientas para Webmasters de Google: En Diagnóstico/HTML Sugerencias, accederemos a un listado donde se especifican las etiquetas duplicadas en títulos y descripciones. Una gran ayuda para revisar y corregir.
4-. Google Alerts: El servicio de creación de alertas de Google es todo un must have en el hallazgo de contenido duplicado. Te ayudará a saber el tratamiento que se hace de los contenidos que publicas en tu web o blog en otras páginas detectando así los usos maliciosos. Indica tu consulta y la frecuencia de la búsqueda y recibirás en tu email las alertas.
5-. Blog Protector: Este plugin para WordPress evita la copia malintencionada de contenidos. Incapacita al botón derecho del ratón a llevar a cabo órdenes como copiar un artículo, seleccionar todo el contenido o retener la URL de una imagen, entre otras funciones.
Con toda este compendio de consejos y tácticas, dispondrás de las armas necesarias para enfrentarte a los plagiadores de contenidos con contundencia y control absoluto. Mantente en guardia, explora el territorio que te rodea y actúa tan pronto detectes la más mínima sospecha. Ahora tu olfato de sabuso SEO será infalible. ¡Haz la prueba!
Esta última entrega da por finalizada la serie de artículos Los Peores Enemigos del SEO: El Contenido Duplicado. Esperamos que estos consejos, técnicas, ejemplos y soluciones os hayan resultado no solo interesantes sino útiles. Porque la duplicidad y el robo de contenidos pueden hacer acto de presencia cuando menos se les espera, se debe estar prevenido. Ante cualquier muestra de contenido duplicado en tu web o en otros dominios, no lo dudes. Ten siempre a mano nuestras recomendaciones y prepárate para aplicar la teoría en la práctica.

Un articulo de Elisa Torre Grosa

miércoles, 24 de octubre de 2012

Errores fatales del SEO: El contenido duplicado (II)


Nuestra particular lucha contra la duplicidad de contenido prosigue de nuevo con una segunda entrega del artículo que iniciamos. Con nuevos consejos para evitar los dañinos efectos de este mal, prácticos ejemplos y un buen conjunto de soluciones, ahora tienes la información y los recursos necesarios para que, en la batalla contra el Contenido Duplicado, tu web resulte victoriosa. Sin duda, un esfuerzo que merece la pena. Ahora está en tu mano. ¿Proseguimos?

En esta cruzada contra el contenido duplicado, nos hemos propuesto seguir adelante en busca de soluciones, de nuevas respuestas que permitan ver la luz al final del túnel de las malas praxis SEO. Si te resultó interesante la primera entrega Los peores enemigos del SEO: El Contenidos Duplicado (I), no creas que se había acabado. Hoy ampliamos el listado de pautas para luchar contra la duplicidad de contenido con nueve recomendaciones que frenarán sus efectos, erradicándolos de raíz.
Lee con atención y toma las indicaciones que estimes oportunas para empezar cuanto antes a trabajar sobre ese contenido idéntico incluido en tu web y que, lejos de mejorar la optimización de tu web y su posicionamiento en buscadores, está evitando su despegue. Haz una apuesta definitiva y simplemente ACTÚA. Pronto las buenas noticias llegarán, no lo dudes.

¿QUÉ ME SIGUE PASANDO, DOCTOR SEO? 9 Tratamientos más para combatir la duplicidad de contenido

1-. Coherencia en los enlaces internos: La autoridad y claridad de los enlaces entre diferentes páginas de tu sitio es esencial. Por ello, da prioridad en tus enlaces a las páginas con contenido original y de calidad y no aquellas con contenido duplicado automáticamente. Enlaza a las Urls canónicas de tu web porque, de este modo, Google indexará el contenido realmente importante.

2-. Establece tu dominio preferido. ¿Cómo? Sigue un consejo muy sencillo. Desde Herramientas para Webmasters de Google puedes indicarle al buscador cuál es el dominio que desees que indexe. Por ejemplo, http://www.estoesunejemplo.com frente a http://estoesunejemplo.com . En la siguiente imagen, podrás ver lo fácil que es resolver esta cuestión.

3-. ¿Varias páginas con contenido similar? Hay un consejo muy sencillo. Puedes utilizar esas páginas duplicadas para darles un soplo de aire fresco, ampliando su información y ofreciendo contenidos diferentes en ellas. Asimismo, puedes agrupar todas esas páginas prácticamente idénticas en una sola… ¡y fuera el problema! Al igual que el title y la description de cada página de una web deben ser únicos, esa misma regla de tres debes aplicarla en la estrategia de contenidos de tu web trabajando sabiamente las palabras claves en ellos.
De hecho, un contenido duplicado al que podemos acceder desde varias URLs propicia:
  • Un descenso del Link Popularity: La importancia de los enlaces se distribuye entre todas las páginas, perdiendo relevancia toda la web para el buscador.
  • Un descenso en el número de clicks. Si los resultados de búsqueda no responden con URLs amigables, el ratio de usuarios que hacen clic en una página disminuye como se reflejará en las estadísticas de Google Analytics, porque URLs con muchísimas variables generan desconfianza en el internauta.
Por todas estas razones, la claridad, transparencia y el trabajo de indicarle a Google qué URLs son las canónicas, son ingredientes de un buen trabajo para combatir la duplicidad de contenidos.
4-. Contenido duplicado en las versiones a imprimir. Tras algo tan sencillo como imprimir el contenido de una página que nos interesa, hay un caso claro de duplicidad de contenidos. Para evitar tal problema, se ha de modificar el archivo robots.txt indicándole que no indexe determinados contenidos, incluyendo el siguiente elemento en el HEAD de los documentos que deseamos que no sean leídos:
Además de esta acción, si quieres disponer de una versión imprimible sin duplicar el contenido, es muy recomendable que utilices las herramientas de CSS para ocultar los elementos que no deseas que se muestren en la impresión. Solo debes crear páginas CSS para impresión y presentación en pantalla que se sumarán a tu CSS general. De este modo, se cargará el mismo documento pero sin ser un duplicado. Emplea para ello los siguientes elementos:

5-. Duplicidad de contenidos en paginas internacionales. Comenzaremos matizando que si un sitio web cuenta con un contenido traducido en diferentes idiomas no se considera contenido duplicado. Pero todo cambia cuando un contenido idéntico en una única lengua se muestra en las diferentes versiones geográficas de un mismo sitio web.
Un ejemplo. Si yo dispongo de una versión italiana de mi web provista de páginas internas en http://it.estoesunejemplo.com con contenido en español exactamente igual al expuesto en http://es.estoesunejemplo.com, estamos ante otro caso de duplicidad de contenido.
La solución pasaría por incluir en la URL canónica el siguiente elemento:
6-. Adsense y el contenido duplicado. Pocos aspectos quedan libres de los efectos de la duplicidad de contenidos y Adsense no iba a ser menos. En noviembre de 2011, el blog oficial de Google Adsense aprovecha uno de sus artículos para remarcar la relevancia de crear contenido exclusivo, original y de valor para el usuarios, y los inconvenientes que trae consigo la duplicidad de contenidos, los autogeneradores de artículos o el reescribir contenidos de otras webs. Las consecuencias pueden desembocar en el baneo o la eliminación de la cuenta de Google Adsense.
7-. La paginación se convierte en un problema cuando el contenido es siempre el mismo pero solo cambia el número de la página. Para ponerle freno, el uso de las etiquetas rel=prev y rel=next permitirá informar a Google de las páginas que deseamos que sí considere.
Ejemplo:

8-. Di “No” al contenido duplicado en versiones web para dispositivos móviles. En la actualidad, son muchas las webs a las que se accede desde smartphones o tablets. Sin embargo, casi a la misma velocidad que aumenta la conexión a Internet desde móviles crece la duplicidad de contenido entre la versión estándar y la móvil. Lo recomendable es disponer de un dominio distinto para cada versión.
Ejemplo Foursquare
  • Versión móvil: http://m.foursquare.com
  • Versión estándar: http://foursquare.com
Otra alternativa consiste en incluir el siguiente atributo en la cabecera del sitio web estándar hacia el móvil.
Con esta acción lograrás redireccionar el user agent y el bot móviles hacia el mobile site. La indexación de la versión móvil de tu web mejorará logrando además favorecer la experiencia de navegación de los usuarios.
Si deseas saber más sobre el contenido duplicado en versiones para sites móviles, no pierdas de vista los consejos ofrecidos por Matt Cutts en este práctico vídeo.
9-. Eliminación de Url con contenido duplicado en Herramientas para Webmasters de Google. Aunque es un método de última hora, puedes solicitar al buscador desde Google Webmasters Tools que retire una URL concreta de su índice de resultados. Sigue la ruta que te indicamos en la imagen que acompaña a este punto. En Bing, la herramienta es muy similar. Desde Índice > Bloqueo de direcciones URL > Bloquear URL y Caché, se puede eliminar una página, un directorio o incluso el site completo. En cualquier caso, siempre ha de ser la última opción.


EJEMPLOS MÁS FRECUENTES DE CONTENIDO DUPLICADO

Una vez identificadas las soluciones para acabar con la duplicidad de contenidos, queremos poner sobre la mesa algunos de los casos más habituales para que, cuando te los encuentres, sepas detectar rápidamente su resolución. ¡Empezamos!
  • Url con www y sin www. Hoy en día todavía es fácil dar con webs que ofrecen una versión con www y otra sin www. Para evitar este contenido duplicado, optaríamos por un redireccionamiento 301 y después indicar el dominio preferido en Herramientas para Webmasters.
  • / al final del dominio. Ya no tan frecuente, antes era habitual encontrarnos con el mismo contenido en http://www.estoesunejemplo.com y otra http://www.estoesunejemplo.com/, considerándose dos URLs distintas. Actualmente, todos los navegadores añaden la barra al final del dominio.
  • Contenido duplicado a través de filtros de orden, búsqueda y variaciones de productos. Como veremos también en el siguiente ejemplo, es fácil encontrar tiendas online en las que la web crea URLs diferentes según desde dónde se acceda a la misma información. Un ejemplo vale más que mil palabras. 
  • Identificadores de sesión y seguimiento de afiliados. Este tipo de contenido duplicado se da especialmente en tiendas online, donde los parámetros de las URLs suelen incluir parámetros de identificación de nuevos visitantes, como el que se indica en la imagen. En casos como éste, se debe eliminar la ID de sesión desde la URL almacenándola en una cookie. También se puede realizar una redirección canónina o bien bloquear esos parámetros en Herramientas para Webmasters de Google, como se ha explicado en punto 6 del anterior capítulo

  • .
  • Protocolo https://: Versiones seguras y estándar conviven a la vez siendo indexado el contenido duplicado de ambas. Si se indicara un “noindex” en aquellas páginas seguras que no deben aparecer en el índice de resultados, ese duplicidad de contenidos se eliminaría. No obstante, una opción todavía mejor es realizar una redirección 301.
Si tu web cuenta con contenido duplicado, ahora es el momento de pasar a la acción. Revisa al detalle los 15 “tratamientos” que el Doctor SEO  ha compartido contigo tanto en este capítulo como en la primera entrega porque hallarás valiosas medidas correctoras. Toma nota de nuestros ejemplos que, tal vez, te resulten familiares pero no conocías el modo de resolver esa duplicidad de contenido. Aquí tienes algunas claves.
Pero, como la sombra del contenido duplicado continúa siendo muy alargada, dedicaremos la última entrega de esta serie a hablar del robo de contenidos. Si quieres saber qué hacer cuando otros plagian los contenidos que con tanto esfuerzo has creado y, disponer de herramientas que faciliten su detección, sigue en los próximos días nuestro blog porque obtendrás la respuesta. ¡No faltes a la cita!

lunes, 22 de octubre de 2012

Errores fatales del SEO: El contenido duplicado (I)


Curtido en mil batallas y perseguido por webmasters y propietarios de sitios web en todo el mundo, el contenido duplicado proyecta una sombra demasiado alargada. Ese enemigo incómodo aparece cuando menos se le espera bien por despiste, desconocimiento, sin olvidar a quienes optan por este recurso para adueñarse de lo ajeno con claras intenciones maliciosas. No le tengas miedo. Conoce bien a tu adversario y gánale la partida con las reglas del buen SEO como aliado fiel y efectivo.

Nos hemos propuesto identificar todos aquellos “males” que tanto dañan el constante trabajo de optimización realizado sobre un sitio web. Desgraciadamente, por su relevancia y efectos hoy centramos toda la atención en definir qué es el contenido duplicado y mostrar algunas de las fórmulas para combatirlo, completando en dos próximas entregas todo el universo que rodea a la duplicidad de contenidos.
Por mucho que se hable de él, por más advertencias que se ofrezcan, continúa siendo esa suerte de invitado incómodo que siempre se deja ver. ¿Por qué? Desde las Directrices de Calidad para Webmasters de Google se dice muy claro: “No crees páginas, subdominios o dominios que presenten básicamente contenido duplicado”. Es más, en febrero de 2011 el algoritmo de Google Panda dio sus primeros pasos persiguiendo mejorar al máximo la calidad y relevancia de los resultados ofrecidos a los usuarios en sus búsquedas, siendo el contenido original un elemento básico en esta cruzada. Pasaron varios meses, entre pruebas y actualizaciones del algoritmo hasta que, en 12 de agosto de 2011 en el blog oficial de Google se anuncia que Panda afectaría a las búsquedas realizadas en cualquier idioma. Sus efectos afectaron a los resultados de aquellas webs que, a ojos de Google, practicaban unas reglas de juego dudosas. ¿Un ejemplo mayúsculo? El contenido duplicado.
En estas líneas vamos a diseccionar a este gran adversario porque, reinterpretando el dicho popular, si quieres vencer a tu enemigo, conócele bien y desármale. No solo descubrirás qué es el contenido duplicado, sino que te proponemos buenas prácticas para combatirlo, ejemplos para verlo todo más claro y herramientas que sacarán de ti ese Sherlock Holmes en busca del SEO dañino. ¡No perdamos más tiempo!

¿QUÉ ES EL CONTENIDO DUPLICADO? Tipología de un gran enemigo

Si dentro de tu web existen bloques de contenido iguales o que coinciden muchísimo entre sí, hablamos de contenido duplicado. Asimismo, cuando hallas contenido original de tu web en su totalidad o parcialmente publicado en otros dominios, hablamos de contenido duplicado.
Clases de Contenidos Duplicados. Encontrando las diferencias.
  • 100% duplicado. Un calco perfecto, exactamente el mismo contenido pero solo manteniendo una diferencia, la URL.
  • Duplicación parcial: El contenido es idéntico pero varía la disposición de los elementos o las imágenes, además de la URL. No obstante, como se ha señalado, son diferencias mínimas.
  • Contenido duplicado entre dominios. La duplicidad puede darse tanto dentro de nuestra web como fuera de ella. En este caso, resulta evidente que la dirección de las páginas sea distinta pero, el contenido original de la web creadora se ha “copiado y pegado” todo o parte en otros dominios.
En la mayoría de los casos, la duplicidad de contenidos no tiene un ingrediente de engaño en su esencia. De hecho, como veremos más adelante, se puede solventar con una óptima canonicalización entre otras prácticas. Pero, seamos sinceros, las malas intenciones aunque nos cueste admitirlo acompañan al género humano y, al igual que en la vida, en el SEO tienen acto de presencia. Cuando Google detecta que el contenido duplicado se emplea de forma malintencionada para manipular el listado de resultados del buscador u obtener más tráfico, entiende que esa praxis está perjudicando la experiencia de navegación del usuario.
Ante un caso de contenido duplicado, Google se decanta por escoger la versión, a su juicio, más adecuada. Pero, en esa revisión, el gran buscador puede llegar incluso a la eliminación de una web del ranking de resultados. ¿Qué hacer en estos casos? Primero revisar que tu web se está portando bien y, si se está seguro, entonces envía una solicitud de reconsideración a Google para que valore de nuevo tu web.
Google ya anunció en 2008 que no penaliza a nadie por tener contenido duplicado dentro de un sitio web. Hasta aquí todo bien, pero la ausencia de castigo para la duplicidad de contenido no quiere decir que dicha práctica no afecte al posicionamiento de la web. Sus efectos llegan y actuar con determinación y eficiencia será crucial.

¿QUÉ ME PASA, DOCTOR SEO? 6 Tratamientos para evitar el contenido duplicado (Primera parte)

Probablemente tengas alguna afición o hobby al que dediques parte de tu tiempo libre. Para conocer más sobre él, compras revistas del sector o bien sigues webs de referencia. ¿Qué pasaría si un día vas al quiosco, compras los últimos números de dos publicaciones y, al abrirlas, descubres que hay artículos iguales o muy parecidos? ¿Y si lo mismo sucede al visitar sus sites? Seguramente te sentirás engañad@, además de los efectos negativos que esa actuación tendría para esa revista entre su audiencia.
En el mundo online sucedería igual. Entonces, te recomendamos que tengas siempre presente este consejo: Algo bueno para el buscador, también lo será para el usuario (y viceversa). Un contenido duplicado es innecesario para el usuario – ¿quién quiere ver cientos de veces lo mismo? – y además los buscadores lo engloban dentro de las malas prácticas. Porque dos razones valen más que una, toma nota de las técnicas que presentamos a continuación para combatir la duplicidad de contenido. Tu web y los usuarios te lo agradecerán y Google sabrá recompensar tu esfuerzo.

1-. Error 404 (Not Found). Drástica donde las haya, esta medida supone cortar por lo sano. Si quieres que una página de tu web con contenido duplicado ya no sea vista por el usuario, ni indexada y tampoco deseas que los robots sigan sus enlaces, se puede eliminar directamente. Pero hay soluciones menos radicales que te permitirán reorientar esas páginas y darles un uso efectivo acorde a las reglas del SEO.

2-. Redireccionamientos 301. ¿Has hecho recientemente una reestructuración de tu web? Gracias al uso de la redirección 301 en el archivo .htacess le comunicamos tanto a los usuario, a Googlebot como a las arañas que esa página se ha trasladado de forma permanente a otro lugar. Muy recomendable en la esfera SEO, la autoridad del enlace entrante se transfiere de la anterior página a la nueva redirigida. No obstante, un uso excesivo de este tipo de redireccionamientos puede sobrecargar el servidor y aumentar el tiempo de carga de una página.

3-. Etiqueta rel=canonical: Este elemento le indica a Google cuál es la página preferida –canónica – de entre un conjunto de páginas con contenido duplicado o muy similar. Su efectividad es máxima además de contar con el beneplácito de Google y otros buscadores. Para conocer y poner en práctica esta útil herramienta, te instamos a consultar el artículo Los mejores amigos del SEO: La etiqueta rel canonical donde se analiza en profundidad.

4-. Desindexación. Con la etiqueta Meta Robots, la duplicidad de contenido cuenta con una buena aliada. Ahora te indicamos las diferentes acciones que puedes comunicar a los robots de Google con unos sencillos pasos:
  • Si deseas que una página con contenido duplicado ni se indexe ni se sigan sus enlaces: 
  • Para que una página con contenido idéntico o muy similar a otra no se indexe pero sí deseas que se sigan sus enlaces: 
  • Si queremos que Google indexe esa página pero sin seguir los enlaces: 
5-. Archivo robots.txt, ayuda para evitar la indexación del contenido por parte de Google. Haciendo un pequeño cambio en el fichero, podemos bloquear desde carpetas enteras a parámetros de las URL – lo veremos más adelante -, aunque es una medida algo extrema que, si se hace rápidamente, puede tener consecuencias importantes. Pongamos un ejemplo. Si deseamos cerrar el paso a que Google indexe una carpeta de mi web – las etiquetas – donde hay duplicidad de contenido, lo indicaríamos en el archivo robots.txt del siguiente modo:
User-agent: *
Disallow: /tags

No obstante, a ojos del todopoderoso Google, impedir el acceso para rastrear el contenido de un sitio web por esta vía no se halla entre sus medidas recomendadas. Google pone a nuestro alcance soluciones como los redireccionamientos 301, la etiqueta rel=canonical o la herramienta de organización de parámetros de URLs que tratamos ahora mismo.

6-. Bloqueo de parámetros de URLs. En ocasiones, es habitual encontrarnos que un site genera con un mismo contenido URLs con parámetros diferentes. Se identifican 2 tipos de parámetros de URL distintos:
  • Parámetros que no cambian el contenido de una página (sessionid/affiliateid). Estos indicadores ayudan a seguir las visitas y las páginas de referencia, no afectan al contenido de la página pero dirigen continuamente al mismo contenido duplicado. Unos ejemplos:
  1. http://www.estoesunejemplo.com/mujer/pantalon?sessionid=1237
  2. http://www.estoesunejemplo.com/mujer/pantalon?affiliateid=4785
  • Parámetros que modifican o determinan el contenido de una página. Estos parámetros ayudan a que el contenido aparezca:
  1. Ordenado: sort=prize_ascending
  2. Limitado: t-shirt_size=XL
  3. Especificado: store=hombre
  4. Traducido: lang=it
  5. Paginado: page=3
Desde Google, nos recomiendan el uso de la herramienta para organizar los parámetros de las URLs, indicando la finalidad de los mismos y especificando cuáles de esos parámetros se desean que sean ignorados. Para ello, solo hemos de acudir al panel de Herramientas para Webmasters de Google y seguir la ruta Configuración del sitio/Parámetros de Bloqueo.
¿Qué te ha parecido este primer recorrido por el siempre alarmante mundo del contenido duplicado? Pero no pienses que aquí ha acabado todo. Completaremos el listado de tácticas para evitar el contenido duplicado con ejemplos prácticos, finalizando esta serie de artículos con una tercera entrega donde hablaremos del robo de contenidos y herramientas imprescindibles para la detección de contenidos plagiados. ¡Éste es solo el comienzo y nos gustaría que nos sigas hasta el final!
Todos sabemos el trabajo que hay detrás de la obtención de estas pequeñas victorias que, sumadas una a una, hacen grande y real nuestro proyecto online. Evita que el contenido duplicado tanto en tu página como el plagio en otros dominios frene el crecimiento de tu web y haz gala de tu olfato sabueso. Actúa, pon en práctica estos puntos y, ante cualquier duda, ya sabes dónde encontrarnos. Elemental, querido usuario.

miércoles, 17 de octubre de 2012

Sobreoptimizacion o Web Spam (Parte2)


En la primera parte de la Sobreoptimización SEO analizábamos algunos de los pecados capitales que pueden condenar a nuestro sitio al ostracismo. Técnicas penalizadas desde el lanzamiento del Google Panda y Penguin que hicieron que muchas webs se descolgasen de las SERPs y tuvieran que replantear su estrategia de posicionamiento en buscadores. Esta semana vamos a profundizar en algunas prácticas lícitas y recomendables como alternativa a la sobreoptimización (o para superar una penalización).

Frases hechas tipo «quien hizo la ley, hizo la trampa» encuentran un fácil reflejo en la sobreoptimización. Sin embargo, todo virus puede combatirse con las dosis precisas de fármacos SEO, de «White Hat SEO», pequeñas píldoras que pueden ahorrarte más de un dolor de cabeza y que darán puntos para afianzar una futura «amistad» con Panda y Penguin.

12 Consejos para combatir la Sobreoptimización SEO

Una correcta optimización de un sitio web siempre es acicate para posicionarse en las SERPs en consultas relacionadas con nuestro nicho de mercado. Por ello, os planteamos algunas técnicas que pueden aplicarse y extrapolarse a cualquier sector, mutatis mutandis:
1. Crea títulos y descripciones auténticos y con estructura naturalizada.- Elabora titulares orientados a su lectura por parte de seres humanos, no pensando en su optimización para robots. En lugar de repetir varias keywords yuxtapuestas, combínalas o añade tu marca para evitar que parezca keyword stuffing. Para combatir esta técnica de sobreoptimización SEO utiliza sinónimos y términos que, aun perteneciendo al mismo campo semántico, enriquezcan en lugar de saturar al lector (usuario / robot). Los porcentajes de densidad de palabras clave «permitidos» oscilan entre el 3 y el 5%, incluso a veces es recomendable menos, y podemos medirlos online con herramientas como estas:
Los analisis que realizan cada una de ellas difieren en función de los parámetros evaluados en cada caso, por lo que pueden cotejarse varias al tiempo o elegir la que más se adecue a nuestros objetivos.
keyword-density-keyword-stuffing
2. Redacta contenidos Originales y de Calidad.- Evita la duplicidad de contenido o que sea muy parecido, y aboga por una redacción que aporte información fresca y novedosa al lector, como si de una novela que tiene que «enganchar» se tratase. Para ello, evitaremos que los títulos se repitan (nadie lee dos capítulos iguales, salvo que relea) o se parezcan mucho, porque el usuario y/o robot considerarán que están viviendo un déjà vu y la relevancia caerá en picado. Potencia la calidad frente a la cantidad. Menos textos y más elaborados, donde prime la calidad, la concisión y que resulten útiles al lector.
Asimismo, muestra SIEMPRE los mismos contenidos a usuarios y buscadores, jerarquizados y sin incurrir en cloaking (encubrimiento consistente en cargar unos contenidos al robot y otros a los usuarios en una misma URL) o doorways («puertas» o páginas de entrada a tu web diseñadas solo para buscadores y que redirigen directamente al usuario a las páginas que realmente les interesa que vean).
3. Utiliza las metaetiquetas H1, H2 y H3.- Estas se corresponden con el título, el subtítulo o descripción / entradilla del contenido y los titulillos internos (o ladillos, en periodismo) de la información que presentas. En este sentido sí se pueden tener varios titulares internos para estructurar la información mejor (al menos de momento) pero solo un titular y una entradilla si no queremos despistar al buscador y sobreoptimizar la página.
sobreoptimizacion-optimizacion metaetiquetas
4. Controla la extensión de las Metaetiquetas Title, Description y Keywords: Su extensión debería ser de unos 70-80 caracteres, en el caso del título; unos 156 caracteres en la description, y un máximo de entre 5 y 10 keywords. Extenderse más diluirá los beneficios de estos atributos.
Metatags optimizadas: estructura metaskeywords, meta description, meta title
5. Utiliza el atributo ALT en las imágenes.- Quizá parece que este punto contraviene los consejos de la semana pasada, pero no hay que confundir ocultar texto en estas etiquetas con dotar a las imágenes de una descripción que ayude al buscador a clasificarlas. Google asegura que no reconoce el texto integrado en las imágenes en sus rastreo, pero sí incentiva la creación de descripciones asociadas.
6. Optimiza tus vídeos: incluye textos descriptivos en HTML que hagan referencia al vídeo, Google valora incluso la transcripción de su contenido en texto.
7. Y socialízalos.- Permite que otros usuarios compartan tus contenidos en sus redes a través de botones para followers, al ser este un modo de obtener relevancia natural entre los buscadores. En este aspecto, recuerda que tan importante es el número de follows como la calidad de los mismos, nunca será igual que te retuitee El País que si lo hace alguien anónimo que, además, no le saque partido a las tecnologías sociales.
contenidos web socializados para redes sociales
8. No abuses de los enlaces internos.- Como apuntábamos en la Primera Parte, el enlace entre páginas debe ser natural, casi necesario para que los contenidos estén estrechamente relacionados entre sí. Igualmente, nos fijaremos un límite racional e iremos modificando la palabra clave que esgrimamos como texto ancla («anchor text»). Por supuesto, no enlaces siempre la misma URL porque la estrategia se evidencia demasiado. El Link Juice de la página se repartirá entre todos los enlaces presentes y, si introduces varias veces el mismo link, Google solo valorará (en el mejor de los casos) el primero de ellos. Ante la duda, evita la manipulación de enlaces y, sobre todo, olvídate de ocultarlos. Asimismo, revisa que no existan enlaces rotos o páginas dinámicas con excesivas variables, cuanto más cortos sean los parámetros, mayores facilidades estarás dando al robot para rastrearlos.
9. Backlinks de calidad y variados.- El Link building en sí mismo no está penalizado como tal, aunque sí resulta esencial seleccionar las fuentes con especial ahínco, obteniendo enlaces de calidad (no de intercambios, compra-venta o sitios repletos de spam, por ejemplo), progresivos en el tiempo y de fuentes variadas, de forma que Google interprete que se tratan de «referencias naturales» desde otros sites. Una de las técnicas de construcción de enlaces más recomendadas es el Link bait, dado que si un contenido resulta grato al usuario puede que desee enlazarlo desde su blog o su perfil de redes sociales, sin que por ello se califique como WebSpam. Asegúrate, a través del apartado de enlaces entrantes de las Webmaster Tools de Google, de que los enlaces entrantes no proceden de sitios sospechosos (granjas de enlaces, software automáticos, granjas de contenido, etc.).
Tu responsable SEO debería buscar manualmente los sitios de calidad donde podría aparecer tu web enlazada, directorios profesionales, blogs del sector, etc. Nos pese a quien nos pese, la construcción de enlaces sigue manteniendo la regencia del posicionamiento mientras el valor del contenido madura lo suficiente como para asumir su anunciado reinado.
10. Evita la etiqueta Noindex / Follow: Con esta metaetiqueta le estás indicando a los buscadores que no indexen la página web, pero sí detecten los enlaces a los que apunta. Su uso indiscriminado puede despertar sospechas sobre la calidad de los contenidos, apuntalados como marco para colocar los enlaces. Tampoco caigamos en el vicio contrario, abusar de los nofollow internos.
11. Cuida el diseño, la usabilidad y la confianza.- Crear páginas que fomenten la identidad corporativa como el Quienes Somos, las Preguntas Frecuentes, las diferentes políticas o su identificación con perfiles reales («autoría de Google») contribuye a generar confianza en buscadores y usuarios. En este aparato, para mejorar la experiencia de usuario y robot, cabe hacer especial hincapié en la erradicación de los errores de rastreo, la creación de un mapa web, etc., información que capturan las herramientas para webmaster.
12. Controla la publicidad.- No cargues la página de banners, anuncios de adsense, etc., y tampoco coloques la publicidad sobre el texto o en la cabecera de la página, a sabiendas de que es donde el ojo del usuario se dirige primero. Está bien rentabilizar el sitio, pero no olvides que la gallina de los huevos de oro tiene ciertos límites.
Esperamos que estos consejos para combatir la sobreoptimización os resulten útiles y propicien:
  • Un bajo Porcentaje de Rebote: Si se dispara es porque a los usuarios no les interesa el contenido que encuentran en el sitio.
  • Un alto Índice de Visitas y Follows de un contenido (texto, imágenes, vídeos, páginas…): Si muchos usuarios lo comparten y lo recomiendan, el buscador entiende que reviste interés.

martes, 16 de octubre de 2012

Sobreoptimizacion o Web Spam


Ríos de tinta han corrido desde que el pasado mes de abril Google Panda saltase a los tabloides para anunciar, una vez más, la «muerte del SEO», siendo la principal acusada la actualización del WebSpam o el efecto de la que se dio en llamar «penalización por sobreoptimización». Pero ¿qué es la sobreoptimización? ¿Es realmente posible optimizar -mejorar- un sitio web tanto que los buscadores lo penalicen en las SERPs?

Esta semana abordamos la primera parte de los contenidos dedicados a este análisis, definiendo conceptos y ayudando a detectar cuándo el SEO cuelga del perchero su sombrero blanco para arrastrarte al lado oscuro.
Antes de que salten las alarmas y de ponernos cual alquimistas a escudriñar las nuevas reglas de oro del SEO, hay dos palabras que quizá tranquilicen nuestros nervios: sentido común. Efectivamente, y aunque añadamos la coletilla de que es «el menos común» de los atributos sensoriales, a la hora de detectar la sobreoptimización va a sernos de gran ayuda recurrir a él. Pero solo eso sería demasiado fácil.
En realidad, la optimización para buscadores no ha cambiado tanto en el último lustro, al menos no el White Hat SEO o «SEO bueno», si bien sí se ha perfeccionado el algoritmo para que las técnicas lícitas cobren mayor relevancia en el posicionamiento en buscadores que el Black Hat. Todas las implementaciones del robot responden al objetivo último de todo buscador que se precie: Ofrecer una alta calidad en las consultas mediante lo que se dio en llamar la «web semántica», esa que pretende que el robot (Googlebot, Yahoo Slurp o MSNBot) interprete los componentes del website de forma análoga a como lo haría un usuario inteligente. El reto comenzó cuando se lanzó la frase lapidaria de «El Contenido es el Rey», aunque el verdadero rey a día de hoy siga siendo Google.
¿Qué es sobreoptimizar y por qué se penaliza?
Nos enfrentamos a un concepto estrechamente vinculado a términos antitéticos como el WebSpam y el contenido de calidad, siendo este último el único camino que en esta ocasión dirige a Roma (más conocida como el Top Ten de los buscadores).
Sobreoptimizar una web no es otra cosa que aplicar técnicas orientadas a manipular artificialmente la optimización del sitio web para los buscadores dando la espalda al usuario, en lugar de apostar por contenidos de calidad y técnicas naturales de posicionamiento. No obstante, la estrecha línea que separa lo correcto de lo penalizable es como la personalidad borderline, un desorden limítrofe donde todas las técnicas que hoy se condenan fueron efectivas en algún momento, y la mayoría son fruto de la degeneración de otras técnicas positivas que sí entraban dentro de los parámetros de Google/Bing/Yahoo/Altavista…
El uso de palabras clave, enlazar a otra web para recomendarla, hablar de un sitio en foros y blogs enlazándolo a raíz de una buena experiencia como usuario, el uso del PageRank para calificar una página… fueron (algunos son) aspectos que ofrecían mayor calidad en los resultados y ayudaban a detectar las mejores webs.
white hat seo y black hat seo sobreoptimizacion seo webspam
White hat y Black hat SEO - Fuente: Metaseo.com
El problema surge cuando del uso se pasa al abuso y se buscan los resultados rápidos en SEO; cuando los robots detectan cientos (o miles) de recomendaciones en una semana; cuando duplicamos contenidos para aumentar la densidad y el buscador detecta que en nuestra web aparece 50 veces la palabras «viajes baratos a Menorca» y que, solo por eso, está condenado a concebir que nuestra web es el paradigma universal de los viajes económicos a la isla balear.
Sobreoptimización On Page / Off Page
 Centrándonos en el coloso de los buscadores, diremos que Google penaliza diversos tipos de abusos SEO desde dentro de la propia página (On Page / site) o a través de otras plataformas externas (off page / site). En ambas localizaciones puede realizarse a través de los contenidos (keywords stuffing, texto oculto, encubrimiento, abuso de metaetiquetas…) o de los enlaces (exceso de backlinks, manipulación de los enlaces internos…)
12 Técnicas de Sobreoptimización u Optimización Negativa para Google
1. Keywords Stuffing: Una de las técnicas de sobreoptimización más utilizadas desde hace una década es el uso excesivo de palabras clave en las páginas para disparar la densidad de las mismas en proporción al resto de contenidos, sean textuales, audiovisuales, etc.
Esta práctica surgió al detectar que uno de los parámetros que los buscadores en general, y Google en particular, utilizaban para elaborar el ranking es el análisis textual de las páginas web, de tal forma que interpretaba que si tu website se dedicaba a «la venta de pisos en Sevilla», debía incluir contenido referente a esta temática, ¡pura lógica!
Keywords Stuffing ejemplo sobreoptimización SEO
Keywords Stuffing - Ejemplo de Sobreoptimización SEO
Sin embargo, como todo en la vida, los excesos pasan factura, y si nos dedicamos a introducir el término «la venta de pisos en Sevilla» 12 veces en un texto de 150 palabras no estaremos indicando que nuestra web es más profesional, incluye más y mejores ofertas y mayor calidad en sus servicios. Por contra, estaremos rellenando la página con keywords para manipular los resultados de búsqueda de Google, lo que se traduce además en una mala experiencia para el usuario.
Ejemplo:
bla bla bla bla PERFUMES BARATOS bla bla bla bla bla PERFUMES BARATOS bla bla blaPERFUMES BARATOS bla bla bla PERFUMES BARATOS bla bla bla
Google advierte claramente en sus herramientas para Webmaster, en el apartado de Content Guidelines, que esta práctica infringe sus directrices y que perjudicará el posicionamiento de la web, por lo que recomienda eliminar el abuso y enviar una solicitud de reconsideracióndespués.
2. Texto oculto: Conscientes de la mala imagen que el keyword stuffing ofrece al usuario, que en ocasiones se espanta y sale huyendo de una página web que no le genera confianza, muchas empresas deciden ocultar los textos optimizados «para el uso y disfrute en exclusiva» de los robots. Google es totalmente contrario a ello, en sus diversas modalidades:
  • Contenidos en cajas con scrolls: Antaño era muy habitual encontrar webs con cajas de texto de diferentes tamaños donde la mayor parte del texto quedaba oculta en su interior y, para leerlo, utilizábamos un scroll interno. En la actualidad ningún SEO que se precie recomendaría práctica, pero si es tu caso, ¡cámbialo!
  • Textos y fondo del mismo color / utilizando CSS para ocultarlo / configurando el tamaño de fuente a cero: El usuario no lo percibe, pero Googlebot sí lee estos contenidos, una práctica tan tentadora como penalizada.
  • Texto oculto tras las imágenes aprovechando el atributo «ALT»: Optimizar las imágenes y gráficos con etiquetas alt para su definición es correcto, aprovechar estos espacios para insertar largos textos optimizados, un error.
3. Granjas de Contenidos On / Off Site: las granjas de contenidos son páginas creadas única y exclusivamente con contenidos de baja calidad orientados a posicionarse en Google, con la esperanza de convertirse en páginas de aterrizaje de usuarios y que luego redirijan visitas a otras páginas o a otras URLs.
Enlaces Ocultos - Ejemplo de Sobreoptimización SEO
Enlaces Ocultos - Ejemplo de Sobreoptimización SEO
4. Enlaces Ocultos: puede realizarse mediante la modificación del color del link, de forma que no se distinga del texto donde se incrusta; porque se haya utilizado CSS para crear vínculos pequeños o porque se oculte en un carácter especial (un guión, unas comillas…). Si no queremos ser baneados, Usuario y buscador deben percibir claramente los links.
5. Encubrimiento o cloacking: Se trata de una de las técnicas más penalizadas por los buscadores y consiste en mostrar un contenido diferente al usuario que a los robots.
6. Backlinks de pago: La compra-venta de links es una práctica muy tentadora para los que buscan atajos, e implica pagar una cantidad «x» porque pongan un enlace dofollow, generalmente con un anchor text que incluya palabras claves apuntando hacia tu web.
En su particular cruzada por la calidad, Google revisa cada vez más los sites de los que proceden los links y si detecta que desde un website salen cientos/miles de enlaces apuntando a otras webs sin motivo justificado, interpreta que su recomendación no es natural; por lo que, lejos de calibrar la popularidad del sitio enlazado, levanta toda clase de sospechas. Tampoco resulta convincente que una página de nueva creación o sin mucha relevancia reciba muchos links y menos que esto se produzca en un lapso de tiempo breve. En este sentido, los buscadores inteligentes cada vez detectan más los backlinks que proceden de fuentes poco fiables o granjas de enlaces (en sus diversas modalidades).
7. Intercambio de enlaces: En el lateral de muchas páginas podemos toparnos con enlaces hacia otras webs con las que mantienen poca o ninguna relación temática, a veces bajo la fórmula de «enlaces de interés». Su presencia suele responder a una acuerdo de recomendación mutua para obtener un enlace, e igual que tú no encuentras relación entre una web de zapatos y otra de motores de coche, los buscadores tampoco…
8. Footers llenos de enlaces: Son los enlaces que se sitúan a pie de página de una web y que en contadas ocasiones son pinchados por los usuarios dada su escasa visibilidad. El usuario suele recorrer el menú superior y lateral para seleccionar contenidos de interés, no los pies de página del website. Google lo sabe, y también que es la ubicación perfecta para colocar «contenidos visibles que no queramos que vean»; mejor poner los justos.
Footer con enlaces - Ejemplo sobreoptimización SEO
Footer con enlaces - Ejemplo sobreoptimización SEO
9. Manipulación de links internos: Consiste en un modelo de sobreoptimización interna basado en crear textos ancla para enlaces que apunten siempre a una misma página de la web, con la intención de darle relevancia, o sin modificar el texto ancla, que siempre es la misma keyword. No solo ha perdido el valor de estructuración interna del sitio, sino que su detección puede ser motivo de castigo.
10. Páginas internas con palabras clave / contenidos duplicados o muy parecidos: En anteriores semanas hemos analizado el problema de la duplicidad de contenidos, que no aportan valor añadido y otras veces pueden responder al robo de contenido entre webs. Otra variante habitual estriba en crear numerosas páginas web optimizadas con Keywords muy parecidas.
Ejemplo 2 de Sobreoptimización:
Crear una página para cada uno de estos criterios («alojamiento en Valencia», «alojamiento barato en Valencia», «alojamiento económico en Valencia», «alojamientos en Valencia», «alojamientos baratos en Valencia», «alojamientos económicos en Valencia») variando mínimamente el contenido y, para rematarlo, enlazarlos desde el footer de la home o introducir enlaces apuntando a la misma URL desde todas ellas, usando la palabra clave como anchor.
11. Comentarios Spam: inserción de comentarios con enlaces, a diestro y siniestro, en blogs y foros poco relevantes o previamente penalizados por estar infectados de spam como parte de la estrategia de backlinks.
Comentarios Spam en Foros y Blogs
Comentarios Spam en Foros y Blogs - Ejemplo de Sobreoptimización SEO
12. Nombre de dominio: Aunque no se penaliza el uso de términos genéricos relacionados con un sector en los dominios (por ejemplo: www.ventadecasasensevilla.com), sí hay voces que ya se alzan asegurando que Google cada vez valora menos esta técnica por detectar que se orienta solo a la optimización, sin aportar mayor garantía de calidad. Otras fuentes aseguran, por contra, que su efectividad ha aumentado en la «Era Pospenguin». Sin embargo, sí cobra relevancia la antigüedad del dominio y su geolocalización, sobre todo porque es su arma para combatir a webs creadas única y exclusivamente para SEO.
Al azote de estas técnicas, además, se ha lanzado también la extensión Personal Blocklist de Chrome, una especie de sistema de «participación ciudadana» que nos permite a los usuarios bloquear un resultado si consideramos que carece de relevancia para nuestras consultas.
En Internet, como en un establecimiento tradicional, «hacerse un nombre» requiere tiempo, esfuerzo y altas dosis de ingenio. No existen fórmulas secretas ni recetas de éxito para posicionar una marca en una semana, solo cumplir con las directrices y ofrecer calidad en todas las áreas del negocio (¡Amén de paciencia!). En la próxima entrega os plantearemos algunas fórmulas para combatir la sobreoptimización con White Hat Seo. ¡Se aceptan sugerencias! ;)

Ad sense