Suscribe-te a Nuestro Boletin Gratuito y Te REVELARÉ TODOS LOS SECRETOS de los MAGNATES DE INTERNET, que herramientas usan en su arsenal y como tu también puedes llegar a ser uno y además GÁNATE ESTOS IMPORTANTES EBOOKS: Mercadotecnia en Internet, El diccionario de E-marketing y Un regalo Sorpresa
- Nombre - - Email -

lunes, 2 de noviembre de 2009

Motores de Busqueda parte 4

Estrategias para la asociación de nuestra URL a un término de búsqueda



1. Algoritmos de asociación e ingeniería inversa

Existen distintos métodos de muestra y regresión a partir de los cuales
aproximarnos a los algoritmos de los distintos buscadores. Aquí trataremos
el más sencillo (y más utilizado). Se trata de un método sencillo de ingeniería
inversa, no tan sofisticado como los usados profesionalmente, pero sin duda
útil y capaz de arrojar resultados que se aproximen bastante a la realidad de
las funciones de asociación.


Una primera nota: los bots no actualizan directamente la base de datos del
buscador, porque cada buscador tiene trabajando para si varios clones del bot.
Para evitar problemas de sincronización o corrupción en los datos, el código y
datos de las páginas visitadas se almacena en una matriz temporal diferente
para cada bot. Cada cierto tiempo se supervisa y se actualizan los datos de la
base de datos principal con los resultados de las propias de los bots.


Así que incluso aunque tus logs registren una o varias visitas del bot deseado,
los cambios no se incorporan ni mucho menos automáticamente a la base de

datos del buscador... por ello un plazo de 3 meses es el mínimo para que un
conjunto de buscadores empiece a reflejar los resultados de nuestro trabajo.
Esto también influye en nuestro trabajo: si el código de una cierta cantidad de
las páginas que usamos de muestra para realizar nuestro análisis ha cambiado
desde que el buscador compuso su base de datos nuestros resultados serán
poco o nada fiables.

En este tema por una vez Google nos lo pone un poquito más fácil: cuando nos
muestra los resultados nos da acceso a una opción llamada "En caché" que
muestra precisamente la última versión guardada por ellos de esa página.
Imaginemos que queremos aproximar los valores óptimos de frecuencia, peso,
recuento y relevancia para cada una de las áreas en las que dividimos el
código.


Profesionalmente lanzaríamos una serie de hipótesis que comprobaríamos
usando un MLG (modelo de regresión lineal general) y testaríamos cosas como
la valoración o no de metatags con variables dummies.

De modo casero, se pueden obtener valores aproximados de un modo más
sencillo:
a. Cogemos una decena de palabras de las más competidas (en
inglés)
b. Para los primeros 3 resultados de cada término entramos en
caché y copiamos el código
c. Nos lo llevamos a un programa de análisis de código que nos
permita un trabajo fácil de recuento como el NoteTab-Pro
d. En una hoja de cálculo creamos 30 tablas en blanco con las
distintas áreas en filas y las distintas variables en columnas
e. Rellenamos las casillas con los valores propios del análisis de
cada una
f. Para cada serie descartamos los 5 inferiores y los 5 superiores


Nos queda finalmente una colección de intervalos: "Entre 5 y 8 palabras en el
recuento del área de
Esta serie de intervalos representa ya una "receta" que contrastar con el código
de la página que queremos optimizar.

Veremos que si actualizamos nuestras series y tablas regularmente, esos
intervalos variarán, y si hemos elegido bien los términos de búsqueda de
muestra, se irán afinando con el tiempo.



No hay comentarios:

Mega Robot Forex

SEO Marketing Tools