El algoritmo PageRank no es una idea original de Google. El mérito fue su implementación eficiente en una red de miles de millones de nodos.
Larry Page y Sergei Brin querían ser académicos, no empresarios. En 1997 ofrecieron el algoritmo a Yahoo por un millón de dólares, pero la empresa declinó la oferta. En 2002, Yahoo intentó hacerse con PageRank por 3.000 millones de dólares, y Google la rechazó. Quizás la primera aplicación práctica conocida del algoritmo se debe a un economista: Wassily Leontief (premio Nobel en 1971), de la Universidad de Harvard. Lo utilizó para representar el funcionamiento de una economía mediante un modelo de red Input-Output. “La importancia de una página web es un problema inherentemente subjetivo que depende del interés de los lectores, de su conocimiento y de sus inclinaciones. Aun así, se puede decir objetivamente mucho sobre la importancia relativa de las páginas web. Este artículo describe PageRank, un método para valorar las páginas web de forma objetiva y mecánica, midiendo de forma efectiva la atención e interés humanos dirigidos hacia cada página. Comparamos PageRank con un “web surfer” aleatorio idealizado. Mostramos como calcular de forma eficiente el PageRank para un número grande de páginas y mostramos cómo utilizar el PageRank para la búsqueda y navegación de los usuarios”. Así comienza uno de los artículos científicos más importantes de la historia, al menos en términos de su impacto inmediato sobre la realidad económica y social: “ The PageRank Citation Ranking: Bringing Order to the Web”, en el que Larry Page y Sergey Brin sentaban las bases de lo que sería el buscador de Google. Internet es hoy lo que es gracias al ingente esfuerzo de un grupo de ingenieros por ordenar la información de forma relevante en un entorno en el que los grandes portales habían vendido los resultados de las búsquedas al mejor postor. Mientras tanto, dos estudiantes de doctorado de Stanford proponían un método para calcular la importancia de cada web a partir de los vínculos (links) que cada web recibía, así como de la importancia relativa de las páginas que emitían cada vínculo. Pero, a pesar de la importancia del artículo, la cultura popular ha inflado la importancia real del propio algoritmo e ignorado lo que convirtió a Google en lo que es hoy: su implementación eficiente en una red de miles de millones de nodos. De los 24 millones de páginas web que su primera versión consiguió indexar, Internet ha crecido hoy hasta superar, según estimaciones razonables, los 4.000 millones de direcciones distintas. Dado que el algoritmo ha de buscar no solo los vínculos de primer orden que una página recibe, sino también los de órdenes superiores, el problema real no se encuentra en la idea original de cómo medir la relevancia en Internet, sino en lograr indexar el mayor porcentaje de sitios existentes de Internet (¡miles de millones!) y en evaluar los vínculos que entran y salen de cada web. Como afirmaba Thomas Alva Edison, “el genio consiste en una parte de inspiración y 99 de trabajo duro”. Aunque nos gusta creer que un momento de inspiración puede dar lugar a esa idea que nos hará ricos, lo cierto es que, tras esa inspiración inicial que todo el mundo experimenta de vez en cuando, se encuentran 99 partes más de durísimo trabajo para dar forma e implementar la idea para que sea socialmente útil. Y, de la misma forma, la idea del PageRank es solo un pequeño momento de inspiración al que siguió un enorme esfuerzo por parte de varios de los mejores ingenieros informáticos del mundo. Además, como veremos, la idea ni siquiera era original: solo se trataba de un concepto bien conocido por los matemáticos, una variante de la medida de centralidad basada en el “vector propio” (eigenvalue), para el cual muchos científicos habían ya desarrollado métodos de cálculo y aplicaciones prácticas.
El análisis de redes había nacido, lógicamente, mucho antes que internet. Una de las medidas más corrientes que los matemáticos habían desarrollado para evaluar la centralidad o influencia de un nodo sobre una red es la “ centralidad del vector propio”. Un reciente artículo de Massimo Franceschet ( “PageRank: Standing on the Shoulders of Giants”) ha rastreado los usos históricos de esta medida, encontrando sorprendentes casos: * Jon Kleinberg, profesor de la Universidad de Cornell, había desarrollado un algoritmo muy similar al PageRank, tratando a las páginas como “receptoras de votos” (hubs) o “emisoras de votos” (authorities). * Otro campo muy susceptible de ser analizado mediante medidas de centralidad son las publicaciones científicas. Al igual que las páginas de Internet, las publicaciones contienen citas a otros artículos y son a su vez citadas. Gabriel Pinski y Francis Narin definieron también la importancia de un artículo a partir de su centralidad. El impacto de artículos y revistas se puede consultar hoy en el proyecto www.eigenfactor.org. * Quizás la aplicación más sorprendente, y además la aplicación práctica más antigua que se conoce, se debe… ¡a un economista! Wassily Leontief, por aquel entonces profesor de Harvard, desarrolló su modelo Input-Output –que mide los flujos de factores intermedios entre sectores- tratando la economía como una red (en su representación matricial). El objetivo de Leontief era identificar qué sectores económicos constituían un “cuello de botella” al requerir demasiados factores productivos cuando la demanda de su producto aumentaba, para lo cual recurrió a una versión primitiva del PageRank de Google. Finalmente, Leontief recibió el Premio Nobel de Economía de 1971 por su conocido modelo. A estos usos históricos de la idea de centralidad hay que añadir, por supuesto, nuevas aplicaciones recientes, como su uso para la modelización de sistemas evolutivos. Stefano Alesina y Mercedes Pascual, de las universidades de Chicago y Michigan, han aplicado el algoritmo para el estudio de las extinciones de especies, en el que la importancia de las mismas se basa en el soporte vital que ofrecen para la supervivencia de otras especies.
Es necesario aclarar que, como es lógico y ético en la comunidad científica, en ningún momento Page y Brin se atribuyen la invención de su medida, ya que citan como fuentes anteriores usos de la misma y dejando bien claro que su aportación se centra en la computación eficiente del mismo en una red gigantesca y en el método de lectura y almacenamiento de las webs. Además, Page y Brin tampoco pretendían convertirse en grandes empresarios, sino que sus aspiraciones estaban puestas en el mundo académico. Tras desarrollar el buscador hoy conocido como Google, intentaron vender su producto al mejor postor por todo Silicon Valley para así poder centrarse en terminar sus estudios de doctorado. ¿Y qué precio pedían? ¡Solamente un millón de dólares! Google fue incluso ofrecida a Yahoo, que rechazó la compra. La frustración de no encontrar comprador les animó a seguir adelante con su idea, y el fin de la historia es conocida por todos: Google es hoy una de las empresas más poderosas del planeta. Quizá no tenga tantos beneficios como las empresas petrolíferas (y ni siquiera más ingresos que Apple), pero es la empresa con la mayor capacidad de obtención y procesado del petróleo del siglo XXI: la información. Fuente: Abel Fernández - @Sintetia en Diario Turing - La verdadera (y fascinante) historia del algoritmo de Google
Resultados de búsqueda en Google Un resultado típico Título: la primera línea de cualquier resultado de búsqueda es el título de la página web. Haz clic en el título para acceder a esa página web. URL: la dirección web de la página web del resultado aparece de color verde. Fragmento (Descripción): se trata de una descripción de la página web que aparece debajo de la URL y que puede incluir un extracto real del texto de la página. Los términos de búsqueda aparecerán en negrita para que te sea más fácil decidir si la página contiene lo que buscas.
**Título: 0 caracteres usados (Máximo 65)****Descripción: 0 caracteres usados (Máximo 156)****URL:**Search
Vista previa
Título de la página
Esto es un ejemplo de descripción en los resultados de Google. Este contenido tiene un máximo de 156 caracteres.
En MaisMedia hemos recibido a Penguin como una actualización más; y es que con el correr de los días, se le va perdiendo el miedo al nuevo monstruito de google, y es que si nos ponemos analizar las cosas ya con la cabeza fría, nos daremos cuenta que Google Penguin y Panda trabajan básicamente en el mismo concepto: “El contenido de calidad y la calidad web”. Pero no hablo del contenido de un post, sino de evitar que las búsquedas de un resultado arrojen algo distinto de lo que en verdad busca el usuario; es más, tal es su relación que podríamos a considerar a Penguin como la actualización de Panda. Ahora bien, también debemos hablar de las “pequeñas - grandes” diferencias, y es que mientras Panda se centra en la originalidad de los contenidos y elimina o considera de baja calidad el contenido copiado, Penguin trabaja en la supresión de contenido spam, es decir, en aquellas webs que hacen mal uso del SEO: excesivas palabras clave, texto oculto, etc. y se encontraban gracias a esto gozando de las primeras posiciones. Si tu web fue golpeada por la actualización entonces lo más probable es que estos pequeños pero muy útiles consejos puedan ayudarte, si no a recuperar tus otrora excelentes posiciones de la noche a la mañana, sí a comenzar con el trabajo que, realizándolo de forma sostenida, dará frutos que no se verán desplomados por una actualización futura.
Estos son algunas recomendaciones que podrían ayudarte a salir del objetivo pingüino o a no caer en él, si aun permaneces sin ser golpeado no cantes victoria, el algoritmo continúa rastreando. Si tienes dudas, o comentarios, no dudes en dejarlos.
Cada vez más, las organizaciones de todos los tamaños se están dando cuenta de la importancia del marketing online, especialmente a través de buscadores. Hoy en día, es más probable que la gente termine en su sitio web a través de un buscador que yendo directamente a él (esto solamente sucede en casos altamente excepcionales). De hecho, de acuerdo con “Jupiter Research” (investigación de mercados), el 81% de los usuarios encuentra su destino deseado en un buscador. Esta investigación deja en claro que es muy importante que su marca tenga una fuerte presencia en buscadores, lo que además garantiza que su marca está frente a su público objetivo. Sin embargo, todavía queda una gran decisión por tomar: ¿Vamos a utilizar SEO (“Search Engine Optimization”, Posicionamiento natural en buscadores) o PPC (Pago Por Click, enlaces patrocinados y anuncios en buscadores)? Con ambas estrategias, hechas correctamente, se obtienen los términos deseados en la primera página de resultados. Sin embargo, cada uno tiene sus respectivas ventajas, costos e inconvenientes. Recientemente se ha publicado un artículo por el equipo de “Enquisite” para cuantificar la eficacia del SEO vs PPC. El artículo detalla que en los resultados orgánicos hay 8.5 veces más probabilidades de hacer clic que en los resultados patrocinados. Esto es una gran diferencia y probablemente sea atribuible a que los usuarios, de forma gradual, han aprendido la diferencia entre los resultados orgánicos y los patrocinados, y reconocen, generalmente, que los resultados orgánicos son un recurso más respetado (natural) que los resultados patrocinados (pagados). Sin embargo, el PPC tiene una ligera ventaja en las tasas de conversión, siendo 1.5 veces más probable que un usuario se convierta (en cliente, en usuario, contacte, en definitiva, el usuario haga lo que su empresa quiere que haga). La razón estriba en que una buena campaña de PPC dedica gran esfuerzo en construir una optimizada y buena “landing page” (página de destino) que llama claramente a la acción (llama a la conversión). Por lo tanto, mirando ambas cifras, se puede concluir que los resultados orgánicos tienen 5.66 veces mejores oportunidades que la búsqueda de pago. Si tenemos en cuenta la elección entre tener un alto rango orgánico (top 5) o tener una gran publicidad PPC, la elección abrumadora y lógica es la orgánica. No solo por estas cifras, sino porque además, una buena campaña SEO, tiene mayor valor a largo plazo, resultando además más barata que la PPC. Sin embargo, todos sabemos que no es fácil (ni rápido) alcanzar “Números 1”, ya que el SEO lleva su tiempo. La gran ventaja del PPC es su velocidad y capacidad de expansión. Con una campaña de PPC, usted puede estar en la primera página del buscador para una multitud de términos específicos en apenas 1 día. Sin embargo, los términos pueden costar desde céntimos de euro por cada clic, hasta varios euros. Esto puede significar que las campañas de PPC puedan resultar bastante caras. La SEMPO, “Search Engine Marketing Professionals Organization”, estima que el 87% de los euros que se gastan en los buscadores provienen de PPC contra solo un 11% dedicado a los campañas SEO. Esto supone 10 mil millones de euros gastados en PPC frente a sólo mil millones de euros gastados en SEO. Esto significa que la estrategia SEO, que es 5 veces más eficaz que la PPC, solo recibe 1/8 de los recursos económicos que las empresas gastan en el mercado.
Sin embargo, cuando se trata de comercialización en Internet a largo plazo y consolidación de marcas, el resultado es claro: El SEO ofrece el mejor valor en marketing en buscadores. No conseguiremos que Ud. esté en la posición #1 en 1 día, (a lo mejor en 6 meses, o incluso más (aunque, a decir verdad, nuestra media está en 2.5 meses, incluso para los términos más complejos y competidos)) pero el SEO es más económico y los beneficios a largo plazo serán probados. Todos estos hechos demuestran que su empresa debe gastar más de su tiempo y recursos en SEO vs PPC. ¿Cuáles son vuestras experiencias en este ámbito? ¿Alguien cree que el PPC tiene más ventajas que el SEO? Cuéntanos!
La velocidad de carga de los sitios web es ahora un factor tomado en cuenta en los rankings de google. La tasa de abandonos de un sitio web viene determinada, en muchos casos, por la velocidad de carga: Cuanto más lento, más frustración y peor experiencia de usuario, por tanto el usuario se cansa y se va. Por eso la velocidad de los sitios web es importante - no sólo para los propietarios del sitio -, sino a todos los usuarios de Internet. Cuanto más rápido sea un sitio web, más feliz estará el usuario y su experiencia será más rica. Además, la velocidad también reduce costes operativos. Por estas razones en google han decidido tomar en cuenta la velocidad de carga. Para comprobar y optimizar la velocidad de carga existen varias herramientas:
Y aquí es donde empieza el WPO.
Varias veces me han comentado que el CSS es ignorado por los buscadores. En principio, puede parecer que sí es ignorado, ya que a priori el potencial de CSS radica en dar estilo y modificar la presentación del contenido sin aportar contenido propio (en la mayoría de los casos). Nosotros creemos que el css sí es un componente muy importante y cada vez más analizado por los buscadores. En primer lugar, porque forma parte de la organización limpia, clara y estandarizada con el que todo proyecto preparado para seo debe partir, y que concretamente, permite, además de dar presentación al contenido:
Teniendo en cuenta esto, y que los algoritmos de los buscadores cambian su comportamiento constantemente en base a las nuevas tendencias y tecnologías, creemos que el css es y será una parte cada vez más importante de cara a la optimización en buscadores
Stephen Wolfram es un científico británico quien se dio a conocer por ser el creador de ‘Mathematica’ un programa de cálculo, que es de gran referencia en el campo de la programación. Ahora conjuntamente con su equipo acaba de lanzar Wolfram Alpha. Wolfram Alpha, apodado la nueva revolución en internet o “asesino potencial” de Google, en realidad es un nuevo buscador de internet, que tiene la misión de entender lo que el usuario está preguntando, dándole una respuesta significativa y precisa de lo que se busca. Es decir, pretende comprender el lenguaje natural, preguntarle como si de otra persona se tratase. Pretende algo que es una de las grandes barreras de internet. Normalmente si buscamos información sobre la edad del Papa actual, En google u otros buscadores deberíamos ingresar edad papa y nos aparecerán una serie de páginas donde debería estar la información para que nosotros mismos la busquemos. Mientras que a Wolfram Alpha tenemos que preguntarle ¿Cuál es la edad del Papa Actual? Y nos dará la información concreta, todo lo que necesitemos saber sobre el Papa actual: edad, fecha de nacimiento, estudios, etc. Es decir, Wolfram Alpha nos hará los deberes y deberá comprendernos como si un amigo se tratara. En palabras de sus creadores no es un buscador, es un “motor de conocimiento computacional". O como también señalan “Un buscador de Internet busca cosas que ya existen en la red. Alpha construye nueva información para ti, crea nuevas páginas con las respuestas a tus preguntas”. Wolfram Alpha acaba de ser lanzado hace unos días, solo está disponible en Ingles por el momento. Y su principal problema es que es demasiado literal, por ejemplo si ingresas Twitter (el servicio de microblogging que revoluciona la red social) solo nos da como resultado la definición: hacer sonidos agudos como pájaros. Esta perdido en temas de actualidad. Asi que si estabas buscando algo mejor que Google o Wikipedia por el momento estarás un poco decepcionado. Su propio creador el profesor Stephen Wolfram, señala, necesita al menos a 1.000 empleados para mantener las bases de datos y actualizarlas con los últimos hallazgos y la información más reciente. Solo el tiempo dirá si este nuevo buscador será la revolución de internet o solo otro fiasco de la época. Al menos es loable que aun exista gente dispuesta a seguir creando cosas nuevas e interesantes…
http://www.wolframalpha.com/
A los buscadores en general y a Google en particular todavía les queda mucho margen de mejora, fundamentalmente a través del campo de las búsquedas semánticas. Como se explica en el blog oficial de Google, el concepto de búsquedas semánticas se refiere a la “comprensión” por parte del motor de búsqueda de términos y conceptos asociados con la consulta introducida, en lugar de limitarse a mostrar los resultados que coinciden exactamente con las palabras introducidas. Por ejemplo, si buscamos “principios de física”, el algoritmo entiende que “momento angular", “relatividad”, “big bang” o “mecánica cuántica” son términos relacionados. El 24 de Marzo, Google introdujo dos modificaciones que ayudarán a los usuarios a refinar los resultados de sus consultas. La primera consiste en una mejora en la asociación de términos, y la segunda es la introducción de descripciones más largas en las consultas más complejas. Estas novedades están basadas en la tecnología de búsqueda de Orion, una compañía especializada en búsquedas semánticas que Google adquirió en 2006. Fuente: Baquia
Karl -
Estoy de acuerdo con lo último que se explica en la entrevista, la mayoría de la gente no sabe buscar en google u otros buscadores, y además también se da otra curiosidad, por llamarla de alguna manera. Por ejemplo, si buscas fereterías mayoristas en Coruña, la página de resultados te da por este orden: 1º Tres anuncios patrocinados, dos de ellos de regalos en general, el otro de una ferretería que se ha molestado en hacer una campaña SEM. 2º Una serie de directorios dónde vienen ferreterías de todos los tipos, tamaños y localizaciones, desde Coruña hasta Sevilla. 3º La páginas amarillas con más de lo mismo. 4º Resultados de maps.google.es con ferreterías incluso en Pontevedra. Quizá lo que ocurre con google y otros buscadores es que aún casi nadie está concienciado de que para vender hoy en día, tienes que dirigirte a tus clientes potenciales, que suelen estar en sus casas sentados ante un pc, navegando por internet, y buscando casi de todo, que prefieren coger lo mínimo el coche porque es un infierno encontrar aparcamiento, si uno se fija bien, el comercio del futuro es el comercio electrónico, los clientes se quedarán cada vez más en sus casas, comprarán a través de una página web, mediante un formulario y pagando con paypal o tarjeta electrónica, esperarán en sus casas a que les llegue el producto, y se sentirán felices porque no habrán tenido que coger el coche y dar mil vueltas para aparcar. Parece que el Just In Time (JIT) va llegando a la venta, aunque lo hace sin prisas. Está claro que las empresas que más venden, incluso en época de crisis son aquellas que están firmemente posicionadas en internet, que tienen páginas web atactivas y dinámicas, y que por supuesto aparecen las primeras en los resultados de las búsquedas de los potenciales clientes, dando de esta manera un paso diferenciador con respecto a la competencia, ya que no es lo mismo esperar a que alguien entre en tu establecimiento, mire lo que tienes, y se marche o compre impulsivamente algo, a que entres en su casa, le ofrezcas un producto determinado, de manera atractiva, por esa ventana que es la pantalla de ordenador, y que está más que probado y comprobado que cada vez más ocupa un lugar relevante en la vida de los consumidores, incluso por encima de la televisión. Un saludo
Entrevista a Ouali Benmeziane, organizador del primer congreso en la capital catalana sobre buscadores, Search Congress Barcelona, posicionamiento y marketing en Internet, celebrado del 28 a 31 de enero.
El fenómeno del posicionamiento en buscadores y el marketing online, explica Benmeziane, ya no es exclusivo de frikis de Internet sino que también interesa a pequeñas y medianas empresas y a todo aquél que quiera tener presencia en Internet. Google canaliza la inmensa mayoría de las búsquedas por Internet y entender su lenguaje no sólo permite encontrar, sino también ser encontrado.
-¿De dónde surge el Search Congress Barcelona?
-Cuando llegué hace un año a Barcelona buscaba a la gente de SEO [Optimización en Buscadores, por sus siglas inglesas], de SEM [Marketing en Buscadores] y de marketing online. Estaba segurísimo que habría un gran evento o feria donde hacer contactos, pero no la había. Barcelona es una ciudad avanzada a nivel tecnológico y puede ser sede de un evento de este tipo y traer a gente de Google, Microsoft, Yahoo! y empresas de este tipo.
-¿Qué habrá en el congreso?
-Será seguramente uno de los mayores congresos de España a nivel de marketing online. Será grande por los ponentes que tenemos: vienen los tres grandes buscadores y gente de toda España, Europa y desde fuera.
-¿A quien está dirigido?
-Queremos hacer un evento donde puedan venir las pymes, las ONG, los estudiantes… No nos interesa hacer un evento muy caro y enfocado sólo a expertos, porque ellos ya saben donde encontrar la información. Esta época difícil y de crisis es el momento para aprender a hacer marketing online y aprovechar Internet: es un medio barato y que realmente puede traer muchas ventas a una empresa. No se necesita ser un webmaster o un crack del posicionamiento. Por supuesto, vendrán expertos y el nivel de los ponentes es muy bueno, pero queremos que el nivel de los asistentes sea medio, que venga gente que sepa y gente que no sepa nada y quieran descubrir.
-¿La mayoría de la gente no especialista desconoce la importancia de esta forma de promocionarse?
-La gente no sabe que es un buscador. Conocen Google, Live o Yahoo!, pero no saben como funcionan y, lo que es peor, no saben lo que se puede hacer con ellos. Pueden utilizar un buscador como Google para atraer a muchos clientes. El marketing en buscadores sirve para esto y la idea del congreso es enseñar posicionamiento en buscadores. Además de los expertos y de comerciales que venderán sus servicios, también estarán los propios buscadores para explicar que es lo que se puede hacer con ellos. No enfocamos a un nivel súper-alto, sino a un nivel medio para compartir conocimientos y aprender.
-¿Cada vez hay más interés por las técnicas de posicionamiento en buscadores?
-La gente empieza por aprender palabras como SEO y SEM y por tener interés por aparecer en los buscadores. En realidad no son nada más que páginas web, pero si hablas de Google, Yahoo! o Microsoft la gente te responde que le interesa aparecer ahí y te preguntan cómo pueden hacerlo y si es gratuito o hay que pagar. Aparecer en la página 10 en una búsqueda de Google no vale, hay que aparecer en la primera página de resultados.
-¿Hay que saber mucho para mejorar el posicionamiento de una web?
-Ser SEO es algo muy técnico, muy difícil. No es ni arte ni magia, es una ciencia que requiere mucho trabajo, seguimiento y análisis y también tener conocimientos básicos de programación y saber de marketing. Pero para promocionar un producto o una página web no hay que ser experto. Los buscadores tienen un funcionamiento súper-sencillo, con unas herramientas donde se eligen unas palabras clave y ya se está online.
-¿Habrá un momento en que la principal inversión en márketing será online?
-Estoy convencido. En una campaña nacional de televisión no se sabe a que audiencia se va a llegar, mientras que con el marketing online se puede ir directamente al cliente que se quiere llegar. Las redes sociales, la blogosfera o los buscadores permiten pagar sólo la publicidad que llega a la gente que puede estar interesada en el producto.
-Y también se puede medir el impacto que ha tenido una campaña.
-En Internet se puede medir todo: el impacto, las visitas que has tenido, cuanto tiempo se quedaron en tu página web, quien es la persona, de donde viene, su perfil, su edad, su sexo… Y esta es un arma enorme para vender.
-¿Algún día podremos preguntar a los buscadores con un lenguaje natural?
-Esto es algo que se llama human search [búsqueda humana, en inglés]. Hay un buscador famoso que se llama Powerset y que lo acaba de comprar Microsoft. Lo que intenta hacer es comprender nuestro lenguaje, nuestra forma de hablar y dar los resultados adecuados a la consulta. Es difícil porque somos complejos.
-¿Entonces es mejor que nos adaptemos nosotros y hablemos como los indios de las películas?
-Somos capaces de hacerlo, pero al buscador le es más rentable entendernos él a nosotros porque así irá más rápido vendiéndonos sus servicios. Por lo tanto, iremos hacia una fórmula en la que el buscador entenderá más nuestro lenguaje.
-¿La mayoría de la gente sabe formular correctamente sus consultas en los buscadores?
-Hoy la gente no sabe buscar. La mayoría no saben. Con esto quiero decir que no optimizan sus búsquedas. Cuando se aprende a buscar ya no se busca pisos Barcelona, sino que se busca entendiendo cómo funciona el buscador. Si en el buscador introduzco la consulta piso en alquiler en Barcelona a compartir y que no supere los 400 euros, si hay un anuncio que diga esto lo voy a encontrar. Es lo que se llama la long tail [larga cola, en inglés]. En las búsquedas hay poner al menos tres o cuatro palabras clave. Algunas personas hacen búsquedas muy genéricas, que no les ayudan a encontrar lo que buscan.
Search Congress Barcelona: www.search-congress.com Fuente: www.lavanguardia.es