Artículos de Diseño Gráfico y Diseño y Desarrollo Web

RSS - Sindicar Contenidos
Xhtml 1.1 Strict Válido! CSS Nivel 2 Válido!  Nivel Doble-A de Conformidad con las Directrices de Accesibilidad Web (WAI)
Descarga FireFox gratis!
\n"; } } } lecturas();

Promoción Web (2ª Parte)

Autor: Luciano Moreno HTMLWEB

Consejos para la promoción Web.-

Bueno, ya conocemos los conceptos básicos sobre promoción web y la sintaxis y uso de las etiquetas META, pero os pregunatréis ?cómo diablos uso estos conocimientos para que mi página aparezca en los resultados de una busqueda entre los primeros?.

La respuesta cierta a esta pregunta no existe, por desgracia. Para ver el porqué de esta afirmación sólo debéis entrar a la página de algún buscador, por ejemplo Altavista, e introducir en la caja de texto para la búsqueda la palabra HTML. ?Cuántos resultados habéis obtenido?. Como habréis comprobado existen 31.540.420 de entradas para la búsqueda, por lo que estar entre las 10 o 20 primeras es todo un exito de promoción web... !pero sólo para esos 10 o 20 sitios!. Página de Altavista.

Lo que sí existe es una serie de consejos y conocimientos que nos pueden ayudar a conseguir que nuestra página sea visitada, esté o no en los primeros registros de los motores. Entre estos podemos destacar:

Poner siempre un título a nuestras páginas:

La mayoría de los robots establecen la indexación de nuestras páginas basándose en los principales Meta Tags vistos antes y en el título de la página, establecido mediante la pareja de etiquetas HTML <TITLE>...</TITLE>, situadas en la cabeza de la misma, dando preferencia a aquellas páginas en las que encuentra palabras iguales en estos campos.

La sintaxis general de esta etiqueta es:

<HTML>
<HEAD
<TITLE>título de la página</TITLE>
<META......>
<META.....>
...
...
</HEAD>

El título debe ser representativo del contenido de la página y contener en su texto varias de las pálabras claves introducidas en los Meta Keywords y Meta Decription. Recordad: las tres etiquetas trabajan juntas. Además, el contenido del título es lo que va a ver el usuario en la barra de título del navegador cuando visite nuestra página y en la sección de favoritos si es que nos incluye en ella. Debemos expresar en el título un buen resumen del contenido de la página, siendo especialmente cuidadosos con los primeros 60-80 caracteres que lo forman, ya que estos son los que la mayoría de los robots utilizan para la indexación, aunque podemos construir un buen título con unas 15-20 palabras, por si acaso.

Un pequeño truco: es conocido el hecho de que muchos buscadores, al presentar la lista de resultado de una búsqueda, lo hacen en orden alfabético respecto a la primera palabra del título de la página. Por esto, aparecerá antes en la lista una página cuyo título sea por ejemplo:

<TITLE>Abaco diseño y programación web</TITLE>

que una cuyo título sea:

<TITLE>Programación web en Abaco</TITLE>

Con esto, muchos de vosotros pensaréis que lo mejor entonces sería poner a nuestra página un título como este:

<TITLE>AAAAAAAAAAAAA La mejor página de Internet</TITLE>

o incluso introducir al principio del título caracteres como :, 1, !, etc, que van antes en la tabla de caracteres del ordenador. Esto no es así del todo, ya que casi todos los robots saben esto, y lo penalizan grávemente, llegando incluso a borrar esa página de sus bases de datos. Si pensáis usar este truco, hacedlo con cabeza, encontrando un título para vuestra página que empiece con las primeras letras de abacedario, pero sin abusar.

Hacer un buen uso de los Meta-Tags:

Como norma general SIEMPRE deberemos incluir en nuestras páginas ciertas etiquetas META, pués son la base para conseguir la indexación en la mayoría de las bases de datos de los buscadores. A nivel de indexación las más importantes son:

- META DESCRIPTION, que debe incluir una descripción lo más completa posible del contenido de nuestra página, que debemos conseguir con el menor número de palabras posibles, ya que muchos robots sólo consideran las 13-15 primeras palabras de su contenido. Es pués muy importante el que pensemos detenidamente el texto que va a incluir, evitando incluir en él palabras que no sean útiles para la descripción, como artículos (el, la, los), preposiciones (a, ante, por), etc, por lo menos dentro de las 15 primeras palabras. Podemos usar una misma descripción para todas las páginas que forman nuestro sitio, pero es más aconsejable especificar el contenido particular de cada una de ellas, sobre todo en páginas que inician un tema determinado.

- META KEYWORDS, que va a definir las palabras clave por las que el robot nos va a indexar. Normalmente los buscadores leen las 20 primeras palabras incluidas en el contenido de esta etiqueta, aunque hay otros que sólo toman en cuenta las 4, 8 o 10 primeras y otros toman los 200-500 primeros caracteres. Por este motivo, la elección de nuestras palabras clave es muy delicada, ya que deben expresar el contenido intrínseco de nuestra página de una forma exacta. No es conveniente repetir una palabra clave varias veces seguidas, ya que muchos motores entonces te penalizarán por ello. Puedes introducirla varias veces pero siempre intercalando otras entre ellas, y nunca más de 3 veces.

El mejor método para encontrar las palabras adecuadas es ponernos en el caso del navegante que quiere encontrar en una búsqueda una página como la nuestra. Si fueras tú el usuario ?qué palabra o palabras introducirías en la caja de búsqueda?. La respuesta a esta pregunta te puede ayudar mucho. También debes procurar usar palabras en plural (manuales en vez de manual) y en mayúsculas y minúsculas, siempre que sea posible( Manuales en vez de MANUALES o manuales); si no tienes espacio suficiente, es preferible que uses las mayúsculas, y si tienes espacio, colocala de todas las formas posibles, ya que hay algunos buscadores que no distinguen entre mayúsculas y minúsculas, pero otros, como Altavista, sí lo hacen (pon Manuales,manuales,MANUALES).

Algunos buscadores muestran preferencia por las palabras clave que empiezan por un caracteres especiales, cmo números o signos #,@,$,etc. Puede ser buena su inclusión, pero otros robots pueden penalizarnos por su uso.

Muchas veces resulta casi imposible buscar una indexación buena por parte de los robots cuando las palabras clave que definen nuestro sitio son de uso muy común, como ocurre con la palabra usada antes como ejemplo, HTML, ya que habrá miles y miles de páginas que la contengan, y pretender que la nuestra aparezca por arte de magia entre las primeras puede ser símbolo de poca inteligencia. En estos casos es mejor pensar en términos de FRASES CLAVE, que deben definir bien nuestro sitio. Esto está basado en que si introducimos en la caja de búsqueda una frase que defina lo que queremos encontrar, el buscador va a presentar en primer lugar aquellas páginas que contienen el mayor número de palabras de la frase, y lo más próximas posible unas de otras. Así, si se realiza una búsqueda con el concepto 'manuales de HTML', el buscador presentará antes en los resultados una página cuyas palbras clave sean 'HTMLWeb, manuales de JavaScript y HTML' que una página que sólo contenga como palabras clave 'HTML,JavaScript'.

- META ROBOTS, que va a indicar a muchos motores cuales de las páginas de nuestro sitio debe indexar. Puede paracer apropiado darle siempre los valores INDEX,FOLLOW, pero tened en cuenta que resulta muy molesto a los navegantes cuando realizan una búsqueda en encontrar en la lista de resultados 50 enlaces que llevan al mismo sitio web. Esto puede influirles a dejarnos a un lado (usad un poco de psicología y poneros siempre en el lugar del usuario). Como norma general conviene usar esta etiqueta, con el valor INDEX, en la página principal de nuestro sitio en en aquellas que son la puerta de entrada a un tema o canal concreto.

Estas son las más importantes, pero tambiés conviene usar las siguientes:

- META REVISIT-AFTER, cuyo uso es siempre aconsejable, especialmente cuando tenemos un periodo de tiempo establecido para actualizar nuestro sitio, ya que muchos robots volverán a visitar nuestra página cada vez que pase ese tiempo, con la que podrán indexar las nuevas páginas que hayamos incluido en él.

- META CONTENT-LANGUAGE, ya que muchos usuarios hacen búsquedas sólo de páginas escritas en un idioma determinado, con lo que es más facil para nuestras páginas aparecer en dichas búsquedas, al ser estas más limitadas. Como inconveniente tiene que en una búsqueda basada en el idioma inglés, por ejemplo, seguramente no muestre nuestra página, pero ?para qué, si entonces el usuario, en cuanto que vea que está en español, la va a abandonar?.

- META EXPIRES, ya que con ella podemos lograr que cada cierto tiempo, cuando el usuario visite nuestra página, estemos seguros de que lo que está viendo es la última actualización de la misma, y no la vieja versión que tiene el navegador en su memoria caché.

- META AUTHOR, que va a dejar bien claro quién ha construido la página. A todos nos gusta que se se sepa lo que hacemos bien ?no?.

- META COPYRIGHT, sobre todo cuando tenemos base para establecer un Copyright a nuestras páginas y estamos seguros de que hemos incluido código suceptible de ser pirateado por alguna empresa sin escrúpulos. Siempre podemos indicar luego en el contenido de la página que se puede usar el código de la misma siempre que no sea con fines comerciales y previa autorización nuestra.

- META PICS-LABEL y/o META RATING, sobre todo cuando nuestra página tenga un contenido especialmente clasificado en los estándares de la Web, como páginas de sexo o con contenido vilolento o xenófobo. Vamos a respetar un poco a los demás.

Existen diversos sitios en la Red que nos ayudan a crear los Meta Tags de nuestras páginas, en los que addemás podemos comprobar la efectividad de los que ya tenemos creados, como por ejemplo http://www.submitcorner.com, en el que podemos encontrar valiosa ayuda acerca de nuestras etiquetas Meta.

Incluir en el texto de las páginas las palabras clave:

Los robots no sólo miran el contenido de las Meta Tag, si no que analizan todo el texto contenido en la página, buscando en el mismo coincidencias entre las palabras clave, las incluidas en las descripción, las que forman el título de la página y las que contiene el cuerpo del documento en sí. Aquellas palabras que coincidan en todos estos campos serán en las que se base el motor para indexar la página.

Por este motivo debes incluir en el texto que forma el BODY de tu documento palabras o frases que busquen esta coincidencia, siendo más efectivas cuanto más al principio se encuentren, por lo que resulta especialmente importante el primer párrafo de la misma. Procura que las primeras frases del código de tu página incluyan varias de las palabras clave, y ten en cuenta que es dentro del código, y no dentro de lo que se ve en pantalla, ya que si por ejemplo situamos el texto en una tabla o en una capa, tal vez se vea arriba en la pantalla, pero esa no es su verdadera posición en el código que la genera. Introduce el primer párrafo, conteniendo una refrencia a las principales palabras clave, justo debajo de la etiqueta <BODY>.

Los robots suelen analizar todo el código de la página buscando coincidencias entre palabras. De aquí la importancia de que las palabras clave más definitorias del contenido de la misma se repitan varias veces a lo largo de todo el código de la misma, sobre todo teniendo en cuenta que muchos robots no utilizan para la indexación las palabras clave, si no que lo hacen en sólo en base al contenido del texto de la página.

Podemos usar también como medio para repetir alguna de las palabras clave el texto incluido en los enlaces de la página (en su atributo TITLE) y el introducido en las imágenes de la misma (en sus atributos ALT y TITLE).

Dar de alta las páginas manualmente:

Aunque podemos usar programas o sitios web especializados para dar de alta nuestras páginas en multitud de buscadores a la vez, es siempre mejor hacerlo nosotros página a página y buscador a buscador, ya que el control que tendremos entonces sobre el proceso de alta será mucho mayor. Los datos exigidos para el alta varían de un buscador a otro, y la única forma de hacerlo adecuadamente es por nosotros mismos, rellenando personalmente el formulario que para ello nos facilitará cada buscador.

Para darnos de alta en un buscador concretos iremos normalmente a su página principal, y allí seleccionaremos el enlace puesto para ello, rellenado el formulario que nos ofrecerá entonces. Hay buscadores que nos piden que el proceso de alta lo hagamos accediendo primero al canal o sección del sitio que se adpate al contenido de nuestro sitio. Si es así, y por ejemplo nuestras páginas tratan el tema "pintura", nos iremos una por una a todas las secciones que tengan que ver con el tema (arte, cultura, historia, etc), y nos damos de alta en cada una. A veces el buscador nos dirá que no podemos darnos de alta nada más que en una sección, por lo que primero lo haremos en aquella más unida al contenido de la página, y luego en las siguientes.

Si nuestro sitio tenemos diferentes secciones o contenidos (por ejemplo, un manual de HTML, otro de JavaScript, etc) daremos de alta independientemente cada una de las páginas de entrada a estos temas, como si se trataran de sitios web diferentes, ya que en realidad así se pueden considerar.

En las siguientes ventanas tenéis enlaces a diversos buscadores, tanto en castellano como en otros idiomas, en los que podéis dar de alta manualmente vuestras páginas, y sitios web en los que os ayudan a hacer lo mismo de forma automática.

Buscadores en inglés.

Buscadores en castellano.

Actualizar nuestras páginas:

La creación en nuestro ordenador personal de una página web puede ser un proceso divertido e informal, pero la publicación en la Red de un sitio web es algo mucho más serio, ya que en un momento dado puede haber muchas personas que estén compartiendo sus contenidos, aprendiendo de ellos, y que esperan que nuestro sitio séa serio y formal. Este es el principal motivo por el que debemos cuidar muy bien nuestras páginas en la Red, manteniéndolas frescas y actualizadas. Además, los robots vuelven a visitarlas cada cierto tiempo, y la mayoría de ellos, si aprecian que los contenidos no han cambiado en un tiempo determinado, las borran de sus bases de datos. Regla: UNA PAGINA WEB SIN ACTUALIZACIONES PERIÓDICAS ES UNA PAGINA MUERTA.

Fomentar el intercambio de enlaces y/o banners:

A mí particularmente no me gustan los banners, ya que ensucian las páginas web, estableciendo una limitación sobre el espacio de que disponemos para nuestros contenidos, además de establecer en las páginas una gama de colores y diseño propia, a los que debemos adaptar los nuestros. Pero es indudable que la inclusión de enlaces y banners que apunten a otras páginas favorece en grán medida la popularidad e incluso la buena indexación de una página web. Aparte de que muchos visitantes puedan acudir a nosotros desde páginas amigas, los robots muestran preferencia tanto como por aquellas páginas que contienen muchos enlaces en su código, como por aquellas que son más visitadas. Es conveniente por lo tanto establecer una política de intercambio de enlaces con otros sitios web relacionados con el nuestro, favoreciendo con ello la promoción de nuestra página y la de otras personas que como nosotros se esfuerzan en ofrecer un buen sitio web. Para ello nada mejor que buscar en las páginas de sitios análogos al nuestro la dirección de e-mail del administrador del sitio, y escribirle sin reparos dándonos a conocer y proponiéndoles un intercambio de enlaces.

Los enlaces más significativos para los robots son aquellos que incluyen en su texto alguna de las palabras clave que definen nuestro sitio, junto con los que hacen referencia a páginas web relacionadas por su contenido con las nuestras.

Seguir las estadísticas de nuestras páginas:

Es inportante e interesante conocer si nuestras páginas son visitadas, y qué tipo de público tenemos, ya que con estos conocimientos podemos ver si el proceso de promoción que estamos haciendo es efectivo o no. Si lo es, debemos potenciarlo, continuándo con la política emprendida. Si no lo es, deberemos analizar detenidamente qué estamos haciendo, ver dónde estamos fallando, averiguar porqué no nos visitan, y una vez encontrada la respuesta aplicar los cambios necesarios en nuestra política de promoción para conseguir darle al vuelta a la tortilla.

Existen diversos sitios en Intenet donde podemos conseguir de forma gratuíta un seguimiento de las visitas a nuestras páginas. Uno de ellos es por ejemplo es Nedstat. Este sitio nos ofrece un seguimiento estadístico bastante completo de nuestras páginas, indicándonos cuántas visitas hemos tenido, de dónde han venido, el pronóstico para el día actual, etc, mostrándonos gráficas representativas de ello. A cambio, debemos colocar una pequeña imagen de ellos en la página, a través de la cual se accede al servicio. Página de Nestad en castellano.

También podemos comprobar si alguna otra página en la Red tiene algún enlace hacia la nuestra. Existen varios sitios que ofrecen este servicio de forma gratuita, aunque sólo suelen buscar en 4 o 5 de los principales buscadores, com Altavista, HotBot, Lycos, etc., como por ejemplo http://www.marketleap.com/publinkpop/ y http://www.submitcorner.com/Tools/Linkpop/.

También es conveniente que de vez en cuando vayamos comprobando si aparecemos en los buscadores cuando realizamos una búsqueda por una de las palabras clave que hemos usado para describir nuestra página. Con ello podemos descubrir en qué posición estamos, y además siempre nos favorecerá, ya que los buscadores dan más importancia a las páginas que ya han aparecido en otras búsquedas, sobre todo si el navegante a optado por acudir a la página enlazada.

Ofrecer contenidos interesantes:

Esta regla, aunque no está en primer lugar en la lista, en sin duda la base para que nuestro sitio tenga exito. Nos puede costar más o menos aparecer inicialmente en los buscadores, podemos establecer una buena política de promoción, podemos rezarle a La Virgen, pero si el contenido de nuestras páginas no es interesante PARA NUESTROS VISITANTES sin lugar a dudas con el tiempo nos encontraremos con un sitio web muerto. Debemos esforzarnos lo más que podamos en mantener un sitio agradable al visitante, con un diseño pulido, con una buena navegación, clara y concisa, entre las páginas que lo forman y que ofrezca unos contenidos interesantes, amenos y actualizados.

Otras formas de agradar a los robots.-

Existe un conjunto de trucos que pueden favorecer la indexación por parte de los robots, y que aunque en la mayoría de los casos no sean útiles si antes no hemos establecido de forma correcta los Metas de la página, si lo hemos hecho así pueden reforzar la utilidad de estos.

Entre ellos podemos citar la inclusión de comentarios en nuestra página cuyo contenido haga relacisn a las palabras clave que hayamos elegido. Esto se explica porque muchas veces el texto visible de nuestra página no nos ofrece un entorno muy adecuado para incluir en él las palabras clave. Los comentarios no son visibles para el usuario, por lo que podemos escribir en ellos todo lo que queramos sin que afecte a la presentacisn de la página. Pero los robots sí que leen el texto de los comentarios, ya que para ellos todo lo que esté en la página es de la misma naturaleza, sea comentario o no. Este truco es especialmente útil cuando la página contiene frames o cuando contiene poco texto y mucho contenido gráfico. No obstante, conviene decir que muchos expertos desaconsejan este método, y que puede haber robots que estén preparados para distinguir el texto incluido en comentarios y nos penalicen por ello o no los tomen en cuenta.

En el caso de una página con frames, es de vital importancia usar la pareja de etiquetas <NOFRAMES>......</NOFRAMES> que, además de dar una alternativa para aquellos usuarios cuyo navegador no soporte frames, nos ofrece un espacio idóneo para incluir una buena porción de texto que contenga nuestras palabras clave.

Otra cosa que es conveniente hacer es utilizar en el contenido de la página sinónimos de las palabras clave utilizadas, ya que el conjunto de todo el contenido del documento dará un caracter determinado al mismo.

Recuerda siempre que a nivel de indexación las tres cosas más importantes son el título de la página, la descripción dada en el Meta Tag Description y las palabras clave incluidas en el Meta Tag Keywords.

Apendice: El archivo Robots.txt.-

En capítulos anteriores hemos mencionado la existencia de un archivo especial, el robots.txt. Es este un fichero formado por texto plano que se sitúa en la raiz del servidor web y que nos permite restringir el acceso por uno o más robots a las páginas y/o directorios que deseemos de nuestro sitio web, siendo especialmente útil cuando tenemos en nuestro sitio una o más páginas que no deseamos que sean indexadas por los robots.

La sintaxis general de este fichero, según la versión 1.0.0, que es la estándar, es la siguiente:

# comentario explicativo del fichero
User-agent:nombre_del_robot # comentario sobre el robot
Disallow: /directorio_a_desabilitar # comentario sobre el directorio
Disallow: /directorio/página_a_desabilitar.html # comentario sobre la pagina
User-agent: nombre_del_robot # comentario sobre el robot
Disallow:/directorio_a_desabilitar # comentario sobre el directorio
Disallow: /directorio/página_a_desabilitar.html # comentario sobre la pagina
...

Cada grupo de órdenes está formado por un comando User-agent, en el que se especifica el nombre del robot que queremos controlar (si ponemos * afectará a todos los robots) y una serie de comandos Disallow, en los que especificamos el nombre del directorio y páginas que queremos que ese robot no indexe (si colocamos / afectará a todas las páginas del sitio). Los comentarios son opcionales.

Por ejemplo, si queremos que ninguna de las páginas de nuestro sitio sea indexada por los robots, bastará crear el siguiente fichero robots.txt:

User-agent: *
Disallow: /

Si queremos que el robot llamado Pepe no indexe ninguna de nuestras páginas y que los demás robots no indexen ni las páginas del directorio ejemplos ni las del pruebas, el fichero necesario sería:

User-agent: Pepe
Disallow: /
User-agent: *
Disallow: /ejemplos/
Disallow: /pruebas/

Existe una versión más moderna de este tipo de ficheros, la 2.0.0, que no es soportada por todos los robots, pero que nos permite configurar aún mejor el fichero, pudiendo indicar también en él las páginas específicas que deseamos que indexe. Un ejemplo de la sintaxis general para los ficheros en esta versión es la siguiente:

# robots.txt
# HTMLWeb
# http://www.terra.es/personal6/morenocerro2/
# Author:Luciano Moreno
# Last Updated: 03/05/01 10:30:00

# ---------------------------------------------
# para robot que no trabaja con la version 2.0.0
# ---------------------------------------------

User-agent: Fredsbot # no trabaja con la version 2.0.0
Disallow: / # no quiero que indexe nada

# ---------------------------------------------
# este robot si trabaja con la version 2.0.0
# ---------------------------------------------

User-agent: Chives
Robot-version: 2.0.0
Allow: */index.html # solo debe indexar la pagina de inicio

# ----------------------------------------------
# a este robot le doy mas libertad de accion
# ----------------------------------------------

User-agent: Alfred
Robot-version: 2.0.0
Allow: /blackhole/index.html
Allow: /blackhole/info*
Disallow: *.shtml
Disallow: /blackhole/info99*
Disallow: /blackhole/info8.html

Existen diversas propuestas para aumentar el número de comandos soportados por este tipo de archivos, con el objeto de poder ampliar la efectividad de la indexación, pero no están todavía completamente definidas ni aprobadas.

Algunos robots in terpretan un archivo robots.txt mal construido o en blanco como una orden para no indexar ninguna de las páginas del sitio web, por lo que debemos tener especial cuidado con su sintaxis. Disponemos de páginas en Internet que nos ofrecen de forma gratuita una validación de nuestro fichero robots.txt, como es el caso de la página de tardis, http://www.tardis.ed.ac.uk/~sxw/robots/check/.

Hay que tener en cuenta que el fichero robots.txt debe ser colocado en la raiz del servidor web, por lo que si no tenemos contratado un servidor virtual es muy probable que el administrador del servidor en el que tengamos nuestras páginas tenga configurado nuestro acceso para no permitir la subida por nuestra parte de este tipo de ficheros (ya que no tendremos acceso al directorio raiz), estando en la mayoría de los casos controlado el contenido de este fichero por el administrador del servidor web.

Conclusiones.-

Hemos visto en los capítulos anteriores la sintaxis y uso de las etiquetas META, así como una serie de reglas y consejos que nos pueden ayudar a conseguir que nuestro sitio web sea conocido y visitado. El conjunto de acciones planificadas periodicamente con objeto de conseguir una óptima presencia en la Red y un mayor número de visitas se denomina política de promoción web.

Definir una buena política de promoción es fundamental si no queremos tirar todo el trabajo empleado en construir un conjunto de páginas web. De su estudio y aplicación depende el tener un sitio vivo y visitado o encontrarnos con un sitio web muerto.

Así y todo, la principal herramienta que debemos tener en cuestión de promoción web es la paciencia. Se tarda mucho tiempo en estar ahí, entre los más conocidos, y no podemos darnos por vencidos si en un periodo de tiempo relativamente corto no vemos resultados reales a nuestros esfuerzos.

Si pasado en tiempo adecuado vemos que no estamos teniendo exito, más paciencia. Debemos revisar nuestra política de promoción y encontrar dónde falla, aplicando los medios necesarios para corregir los errores.

Scour Design - Todos los Derechos Reservados - Carlos Carmona