El algoritmo PageRank no es una idea original de Google. El mérito fue su implementación eficiente en una red de miles de millones de nodos.
Larry Page y Sergei Brin querían ser académicos, no empresarios. En 1997 ofrecieron el algoritmo a Yahoo por un millón de dólares, pero la empresa declinó la oferta. En 2002, Yahoo intentó hacerse con PageRank por 3.000 millones de dólares, y Google la rechazó. Quizás la primera aplicación práctica conocida del algoritmo se debe a un economista: Wassily Leontief (premio Nobel en 1971), de la Universidad de Harvard. Lo utilizó para representar el funcionamiento de una economía mediante un modelo de red Input-Output. “La importancia de una página web es un problema inherentemente subjetivo que depende del interés de los lectores, de su conocimiento y de sus inclinaciones. Aun así, se puede decir objetivamente mucho sobre la importancia relativa de las páginas web. Este artículo describe PageRank, un método para valorar las páginas web de forma objetiva y mecánica, midiendo de forma efectiva la atención e interés humanos dirigidos hacia cada página. Comparamos PageRank con un “web surfer” aleatorio idealizado. Mostramos como calcular de forma eficiente el PageRank para un número grande de páginas y mostramos cómo utilizar el PageRank para la búsqueda y navegación de los usuarios”. Así comienza uno de los artículos científicos más importantes de la historia, al menos en términos de su impacto inmediato sobre la realidad económica y social: “ The PageRank Citation Ranking: Bringing Order to the Web”, en el que Larry Page y Sergey Brin sentaban las bases de lo que sería el buscador de Google. Internet es hoy lo que es gracias al ingente esfuerzo de un grupo de ingenieros por ordenar la información de forma relevante en un entorno en el que los grandes portales habían vendido los resultados de las búsquedas al mejor postor. Mientras tanto, dos estudiantes de doctorado de Stanford proponían un método para calcular la importancia de cada web a partir de los vínculos (links) que cada web recibía, así como de la importancia relativa de las páginas que emitían cada vínculo. Pero, a pesar de la importancia del artículo, la cultura popular ha inflado la importancia real del propio algoritmo e ignorado lo que convirtió a Google en lo que es hoy: su implementación eficiente en una red de miles de millones de nodos. De los 24 millones de páginas web que su primera versión consiguió indexar, Internet ha crecido hoy hasta superar, según estimaciones razonables, los 4.000 millones de direcciones distintas. Dado que el algoritmo ha de buscar no solo los vínculos de primer orden que una página recibe, sino también los de órdenes superiores, el problema real no se encuentra en la idea original de cómo medir la relevancia en Internet, sino en lograr indexar el mayor porcentaje de sitios existentes de Internet (¡miles de millones!) y en evaluar los vínculos que entran y salen de cada web. Como afirmaba Thomas Alva Edison, “el genio consiste en una parte de inspiración y 99 de trabajo duro”. Aunque nos gusta creer que un momento de inspiración puede dar lugar a esa idea que nos hará ricos, lo cierto es que, tras esa inspiración inicial que todo el mundo experimenta de vez en cuando, se encuentran 99 partes más de durísimo trabajo para dar forma e implementar la idea para que sea socialmente útil. Y, de la misma forma, la idea del PageRank es solo un pequeño momento de inspiración al que siguió un enorme esfuerzo por parte de varios de los mejores ingenieros informáticos del mundo. Además, como veremos, la idea ni siquiera era original: solo se trataba de un concepto bien conocido por los matemáticos, una variante de la medida de centralidad basada en el “vector propio” (eigenvalue), para el cual muchos científicos habían ya desarrollado métodos de cálculo y aplicaciones prácticas.
El análisis de redes había nacido, lógicamente, mucho antes que internet. Una de las medidas más corrientes que los matemáticos habían desarrollado para evaluar la centralidad o influencia de un nodo sobre una red es la “ centralidad del vector propio”. Un reciente artículo de Massimo Franceschet ( “PageRank: Standing on the Shoulders of Giants”) ha rastreado los usos históricos de esta medida, encontrando sorprendentes casos: * Jon Kleinberg, profesor de la Universidad de Cornell, había desarrollado un algoritmo muy similar al PageRank, tratando a las páginas como “receptoras de votos” (hubs) o “emisoras de votos” (authorities). * Otro campo muy susceptible de ser analizado mediante medidas de centralidad son las publicaciones científicas. Al igual que las páginas de Internet, las publicaciones contienen citas a otros artículos y son a su vez citadas. Gabriel Pinski y Francis Narin definieron también la importancia de un artículo a partir de su centralidad. El impacto de artículos y revistas se puede consultar hoy en el proyecto www.eigenfactor.org. * Quizás la aplicación más sorprendente, y además la aplicación práctica más antigua que se conoce, se debe… ¡a un economista! Wassily Leontief, por aquel entonces profesor de Harvard, desarrolló su modelo Input-Output –que mide los flujos de factores intermedios entre sectores- tratando la economía como una red (en su representación matricial). El objetivo de Leontief era identificar qué sectores económicos constituían un “cuello de botella” al requerir demasiados factores productivos cuando la demanda de su producto aumentaba, para lo cual recurrió a una versión primitiva del PageRank de Google. Finalmente, Leontief recibió el Premio Nobel de Economía de 1971 por su conocido modelo. A estos usos históricos de la idea de centralidad hay que añadir, por supuesto, nuevas aplicaciones recientes, como su uso para la modelización de sistemas evolutivos. Stefano Alesina y Mercedes Pascual, de las universidades de Chicago y Michigan, han aplicado el algoritmo para el estudio de las extinciones de especies, en el que la importancia de las mismas se basa en el soporte vital que ofrecen para la supervivencia de otras especies.
Es necesario aclarar que, como es lógico y ético en la comunidad científica, en ningún momento Page y Brin se atribuyen la invención de su medida, ya que citan como fuentes anteriores usos de la misma y dejando bien claro que su aportación se centra en la computación eficiente del mismo en una red gigantesca y en el método de lectura y almacenamiento de las webs. Además, Page y Brin tampoco pretendían convertirse en grandes empresarios, sino que sus aspiraciones estaban puestas en el mundo académico. Tras desarrollar el buscador hoy conocido como Google, intentaron vender su producto al mejor postor por todo Silicon Valley para así poder centrarse en terminar sus estudios de doctorado. ¿Y qué precio pedían? ¡Solamente un millón de dólares! Google fue incluso ofrecida a Yahoo, que rechazó la compra. La frustración de no encontrar comprador les animó a seguir adelante con su idea, y el fin de la historia es conocida por todos: Google es hoy una de las empresas más poderosas del planeta. Quizá no tenga tantos beneficios como las empresas petrolíferas (y ni siquiera más ingresos que Apple), pero es la empresa con la mayor capacidad de obtención y procesado del petróleo del siglo XXI: la información. Fuente: Abel Fernández - @Sintetia en Diario Turing - La verdadera (y fascinante) historia del algoritmo de Google
En MaisMedia hemos creado un sorteo de 1 mes de posicionamiento web y asesoría gratis para que veas todo lo que podemos hacer por tu proyecto. Tanto si necesitas posicionamiento natural, sem, estrategias, o asesoría para la optimización de tu negocio online, te ayudaremos a mejorar, y verás grandes resultados. Te animamos a participar. Porque queremos trabajar contigo.
En MaisMedia hemos recibido a Penguin como una actualización más; y es que con el correr de los días, se le va perdiendo el miedo al nuevo monstruito de google, y es que si nos ponemos analizar las cosas ya con la cabeza fría, nos daremos cuenta que Google Penguin y Panda trabajan básicamente en el mismo concepto: “El contenido de calidad y la calidad web”. Pero no hablo del contenido de un post, sino de evitar que las búsquedas de un resultado arrojen algo distinto de lo que en verdad busca el usuario; es más, tal es su relación que podríamos a considerar a Penguin como la actualización de Panda. Ahora bien, también debemos hablar de las “pequeñas - grandes” diferencias, y es que mientras Panda se centra en la originalidad de los contenidos y elimina o considera de baja calidad el contenido copiado, Penguin trabaja en la supresión de contenido spam, es decir, en aquellas webs que hacen mal uso del SEO: excesivas palabras clave, texto oculto, etc. y se encontraban gracias a esto gozando de las primeras posiciones. Si tu web fue golpeada por la actualización entonces lo más probable es que estos pequeños pero muy útiles consejos puedan ayudarte, si no a recuperar tus otrora excelentes posiciones de la noche a la mañana, sí a comenzar con el trabajo que, realizándolo de forma sostenida, dará frutos que no se verán desplomados por una actualización futura.
Estos son algunas recomendaciones que podrían ayudarte a salir del objetivo pingüino o a no caer en él, si aun permaneces sin ser golpeado no cantes victoria, el algoritmo continúa rastreando. Si tienes dudas, o comentarios, no dudes en dejarlos.
Ponemos a tu disposición cupones de un mínimo de 75€ gratuitos para que lleves a cabo tu primera campaña de PPC y compruebes las características y ventajas de utilizar Google Adwords. Disfruta desde ya de nuestros cupones Adwords y comienza a rentabilizar tu negocio de la mano de MaisMedia.
Ponte en contacto con nosotros
fuente original: http://www.elpais.com/articulo/empresas/sectores/dinero/plastico/toca/fin/elpepueconeg/20110626elpnegemp_3/Tes
El teléfono móvil llevó la comunicación a otro nivel. Y combinado con Internet y las redes sociales, la experiencia del usuario cambió de forma radical. En la nueva era digital, la versión sin cables de la invención de Graham Bell sigue mutando y está a las puertas de asumir una nueva función: la de billetera electrónica.
Sprint, Citigroup y MasterCard se alían para desarrollar juntas el negocio
La cadena estadounidense de cafeterías Starbucks decía hace pocos días que cada vez tiene más clientes interesados en pagar con el teléfono. En lugar de usar su tarjeta de crédito o de débito, el consumidor podrá pagar haciendo un simple gesto con su iPhone, Blackberry o los móviles con el sistema operativo Android de Google. Es, dicen los gurús tecnológicos, la evolución lógica.
La firma Aite Group calcula que, hacia mediados de década, los pagos a través de móvil rondarán los 214.000 millones de dólares en EE UU. Es decir, que se multiplicarán casi por cinco los 46.000 millones que se prevén este año. Los analistas de Jupiner Research anticipan que, para entonces, uno de cada seis usuarios de móvil de ese país harán transacciones financieras con sus teléfonos.
Starbucks utiliza ya un sistema de pago muy simple, basado en la lectura de un código de barras que aparece en la pantalla del móvil, como en las tarjetas de embarque. No quieren esperar tres años hasta que se implanten los chips que permitirán a los móviles comunicarse con una terminal registradora situada a escasa distancia, gracias a una tecnología conocida como Near Field Communication (NFC).
En la actualidad hay 1.000 millones de tarjetas en las carteras de los estadounidenses, más de tres por habitante. Con ellas se hacen la mitad de las compras. Visa ya ha visto el nuevo filón. La compañía emisora de tarjetas de crédito forjó en abril una alianza con Square, una firma fundada por Jack Dorsey, uno de los creadores de Twitter, que es pionera en el desarrollo de aplicaciones de pago en los teléfonos interactivos. El lector externo de Square está sumando a su red unos 100.000 comercios al mes.
Pero hay otras vías para llevarse parte del negocio. Pocas semanas después de que se anunciara la alianza con Visa, que dará escala internacional a Square, se lanzaba Google Wallet. La firma más poderosa en Internet hacía piña con Sprint, Citigroup,
MasterCard y el sistema de pagos First Data.
La iniciativa de Google, basada en la tecnología NFC, funciona desde este verano en Nueva York y San Francisco. El objetivo es que sea aceptado como modo de pago en 124.000 puntos de venta del país que ya usan el sistema PayPass, y en 311.000 a escala global. “Esto permitirá trazar un puente entre nuestra tienda online y nuestros establecimientos”, señalan desde los grandes almacenes Macy’s.
La competencia para dar con la futura tecnología de pago con móvil es real. Hay varias docenas de compañías en EE UU trabajando juntas hacia esa meta, como la joint venture de AT&T, Verizon y T-Mobile, para crear la red de pagos por móvil ISIS. También están interesados en el negocio fabricantes de teléfonos y empresas de nueva creación en Silicon Valley como Bling, Boku,
Obopay y Zoompass.
Los responsables de banca electrónica de Bank of America ya anticipaban el año pasado que 2011 sería muy interesante y dinámico. “Hay muchos actores posicionándose de diferentes maneras, tratando de definir el terreno del futuro sistema digital de pagos”, apuntan. Y el pago sin tarjeta de crédito, de débito o efectivo es solo el principio.
Al frente de ISIS está Michael Abbott, un veterano en los servicios financieros. El ejecutivo comenta que el dinero plástico sigue “estancado en la era del vinilo”. Por eso cree que esta tecnología permitirá lanzar este tipo de pagos a la era digital. Las tres telefónicas ofrecen servicio de móvil a 200 millones de abonados en EE UU. Barclays será el primer usuario de la red.
Como Google, apuesta por el sistema NFC, que ya se usa en Europa, Japón y Corea del Sur. Pero llevará tiempo para que cuaje en EE UU. En la actualidad hay 303 millones de usuarios de móvil en el país. De ellos, 68 millones usan teléfonos interactivos. No se espera que el uso del NFC llegue a los ocho millones en tres años. Es decir, llevará tiempo crear una masa crítica.
A largo plazo, la vía del chip tiene más recorrido, coinciden los expertos. Pero, hasta entonces, parece que la opción de mostrar el código de barras en el móvil será la vía más práctica, porque no necesita cambiar el teléfono ni las terminales en el comercio. Para estos últimos la clave estará en que el sistema reduzca el fraude, eleve las ventas y reduzca costes.
Es decir, se trata de que cree valor para el negocio. Hay, además, otro punto que quieren desarrollar en el comercio con el nuevo sistema, y es que el registro se haga al entrar al local y no a la salida. Como indican desde la firma Mercator Advisor, la cosa va a ponerse realmente interesante a lo largo de este año. “Veremos cada vez a más gente saliendo de casa sin la cartera”, auguran.
Ed Labry, ejecutivo de First Data, una empresa que presta servicios de procesamiento de pagos, opina que el sector sabe desde hace tiempo que el cambio hacia la telefonía móvil tenía que producirse. “Lo que no se sabía es cuándo iba a ser realidad”, dice.
La consultora Edgar Dunn & Company da por hecho que la billetera móvil reemplazará a la tarjeta de plástico. Pero señala también que “los hábitos de consumo tardan en cambiar”.
El debate que está teniendo lugar desde finales del pasado año podría acelerar esa mutación, mientras plataformas sociales como Foursquare también tienen la aspiración de converger hacia ese nuevo centro. Esta compañía, lanzada hace dos años, ya permite a sus 10 millones de seguidores registrarse al entrar en un restaurante, una tienda o un museo. Su servicio facilita a los comerciantes locales dirigir publicidad y ofertas especiales a potenciales consumidores. Y esa interactividad en tiempo real va a cambiar la relación con el cliente. Un terreno que la alianza formada por Google para lanzar su billetera electrónica quiere explotar. “Los consumidores quieren que esta convergencia suceda”, opinan desde la firma Mercatus. -
El teléfono móvil comienza a reemplazar a las tarjetas y al efectivo como forma de pago de Sandro Pozzi, 26/06/2011 fuente: http://www.elpais.com/articulo/empresas/sectores/dinero/plastico/toca/fin/elpepueconeg/20110626elpnegemp_3/Tes
¿Necesita enviar un correo postal sin molestarse en imprimir la carta y llevarla hasta correos?. Se haría realidad si Google adoptase la propuesta Google Maps Envelope. Google Maps Envelope es simplemente un concepto de Rahul Mahtani y Yofred Moik, estudiantes de la Universidad de Syracuse. Se añadiría, en la interfaz de Gmail, un botón que automatiza el proceso. Lo que habría que hacer sería pagar una pequeña tarifa postal, y en lugar de hacer clic en “enviar” de la forma habitual, “enviar como sobre postal”. El mensaje se imprime y se coloca en un sobre con un mapa de Google indicando la ubicación del remitente y destinatario. Molaría.
[Vía]
La velocidad de carga de los sitios web es ahora un factor tomado en cuenta en los rankings de google. La tasa de abandonos de un sitio web viene determinada, en muchos casos, por la velocidad de carga: Cuanto más lento, más frustración y peor experiencia de usuario, por tanto el usuario se cansa y se va. Por eso la velocidad de los sitios web es importante - no sólo para los propietarios del sitio -, sino a todos los usuarios de Internet. Cuanto más rápido sea un sitio web, más feliz estará el usuario y su experiencia será más rica. Además, la velocidad también reduce costes operativos. Por estas razones en google han decidido tomar en cuenta la velocidad de carga. Para comprobar y optimizar la velocidad de carga existen varias herramientas:
Y aquí es donde empieza el WPO.
Varias veces me han comentado que el CSS es ignorado por los buscadores. En principio, puede parecer que sí es ignorado, ya que a priori el potencial de CSS radica en dar estilo y modificar la presentación del contenido sin aportar contenido propio (en la mayoría de los casos). Nosotros creemos que el css sí es un componente muy importante y cada vez más analizado por los buscadores. En primer lugar, porque forma parte de la organización limpia, clara y estandarizada con el que todo proyecto preparado para seo debe partir, y que concretamente, permite, además de dar presentación al contenido:
Teniendo en cuenta esto, y que los algoritmos de los buscadores cambian su comportamiento constantemente en base a las nuevas tendencias y tecnologías, creemos que el css es y será una parte cada vez más importante de cara a la optimización en buscadores
jijiji Esta recomendación de búsqueda aparece al buscar en google: “saber buscar bien con google” 
A los buscadores en general y a Google en particular todavía les queda mucho margen de mejora, fundamentalmente a través del campo de las búsquedas semánticas. Como se explica en el blog oficial de Google, el concepto de búsquedas semánticas se refiere a la “comprensión” por parte del motor de búsqueda de términos y conceptos asociados con la consulta introducida, en lugar de limitarse a mostrar los resultados que coinciden exactamente con las palabras introducidas. Por ejemplo, si buscamos “principios de física”, el algoritmo entiende que “momento angular", “relatividad”, “big bang” o “mecánica cuántica” son términos relacionados. El 24 de Marzo, Google introdujo dos modificaciones que ayudarán a los usuarios a refinar los resultados de sus consultas. La primera consiste en una mejora en la asociación de términos, y la segunda es la introducción de descripciones más largas en las consultas más complejas. Estas novedades están basadas en la tecnología de búsqueda de Orion, una compañía especializada en búsquedas semánticas que Google adquirió en 2006. Fuente: Baquia
Un total de 700 libros y 246 tesis doctorales de la Universidad de Santiago de Compostela correspondientes a los años 2007 y 2008 estarán disponibles en el catálogo de Google Books. Así lo explicó el vicerrector de cultura de la USC, Elías Torres, quien calificó el acuerdo entre las dos entidades de “imprescindible”, orientado a “cumplir el objetivo de difusión del conocimiento y de la cultura” que tiene la universidad compostelana. El objetivo final de este convenio es que Google Books incluya entre sus fondos toda la bibliografía del servicio de publicaciones de la USC para “contribuir a la difusión de la labor investigadora y de divulgación” de la universidad. Por su parte, el responsable en España de Google Books resaltó la importancia de que cualquier persona pueda acceder a estos documentos vía internet. “Muchos usuarios de internet van a conocer lo que se genera en la USC y eso va a crear una imagen más visible de la Universidad”, señaló.
Hoy descubrí un bug en Chrome v. 1.0.154.48 Resulta que la home de esta web recién salida del horno, no leia las css. El caso es que las tenía linkadas a un archivo style.css y dentro de éste las importaba así: @charset "utf-8"; @import url(r.css); @import url(d.css); @import url(l.css); @import url(c.css); Una de las primeras cosas que pensé fue el número de caracteres de los css importados, supuse que tendrían que tener un mínimo de 3 caracteres, pero no. También miré que el charset estuviese arriba de todo, pero tampoco, el bug concreto se produce al importar css (aunque sólo sea una) dentro de otro css, a alguien más le pasó?
Karl -
Estoy de acuerdo con lo último que se explica en la entrevista, la mayoría de la gente no sabe buscar en google u otros buscadores, y además también se da otra curiosidad, por llamarla de alguna manera. Por ejemplo, si buscas fereterías mayoristas en Coruña, la página de resultados te da por este orden: 1º Tres anuncios patrocinados, dos de ellos de regalos en general, el otro de una ferretería que se ha molestado en hacer una campaña SEM. 2º Una serie de directorios dónde vienen ferreterías de todos los tipos, tamaños y localizaciones, desde Coruña hasta Sevilla. 3º La páginas amarillas con más de lo mismo. 4º Resultados de maps.google.es con ferreterías incluso en Pontevedra. Quizá lo que ocurre con google y otros buscadores es que aún casi nadie está concienciado de que para vender hoy en día, tienes que dirigirte a tus clientes potenciales, que suelen estar en sus casas sentados ante un pc, navegando por internet, y buscando casi de todo, que prefieren coger lo mínimo el coche porque es un infierno encontrar aparcamiento, si uno se fija bien, el comercio del futuro es el comercio electrónico, los clientes se quedarán cada vez más en sus casas, comprarán a través de una página web, mediante un formulario y pagando con paypal o tarjeta electrónica, esperarán en sus casas a que les llegue el producto, y se sentirán felices porque no habrán tenido que coger el coche y dar mil vueltas para aparcar. Parece que el Just In Time (JIT) va llegando a la venta, aunque lo hace sin prisas. Está claro que las empresas que más venden, incluso en época de crisis son aquellas que están firmemente posicionadas en internet, que tienen páginas web atactivas y dinámicas, y que por supuesto aparecen las primeras en los resultados de las búsquedas de los potenciales clientes, dando de esta manera un paso diferenciador con respecto a la competencia, ya que no es lo mismo esperar a que alguien entre en tu establecimiento, mire lo que tienes, y se marche o compre impulsivamente algo, a que entres en su casa, le ofrezcas un producto determinado, de manera atractiva, por esa ventana que es la pantalla de ordenador, y que está más que probado y comprobado que cada vez más ocupa un lugar relevante en la vida de los consumidores, incluso por encima de la televisión. Un saludo
Entrevista a Ouali Benmeziane, organizador del primer congreso en la capital catalana sobre buscadores, Search Congress Barcelona, posicionamiento y marketing en Internet, celebrado del 28 a 31 de enero.
El fenómeno del posicionamiento en buscadores y el marketing online, explica Benmeziane, ya no es exclusivo de frikis de Internet sino que también interesa a pequeñas y medianas empresas y a todo aquél que quiera tener presencia en Internet. Google canaliza la inmensa mayoría de las búsquedas por Internet y entender su lenguaje no sólo permite encontrar, sino también ser encontrado.
-¿De dónde surge el Search Congress Barcelona?
-Cuando llegué hace un año a Barcelona buscaba a la gente de SEO [Optimización en Buscadores, por sus siglas inglesas], de SEM [Marketing en Buscadores] y de marketing online. Estaba segurísimo que habría un gran evento o feria donde hacer contactos, pero no la había. Barcelona es una ciudad avanzada a nivel tecnológico y puede ser sede de un evento de este tipo y traer a gente de Google, Microsoft, Yahoo! y empresas de este tipo.
-¿Qué habrá en el congreso?
-Será seguramente uno de los mayores congresos de España a nivel de marketing online. Será grande por los ponentes que tenemos: vienen los tres grandes buscadores y gente de toda España, Europa y desde fuera.
-¿A quien está dirigido?
-Queremos hacer un evento donde puedan venir las pymes, las ONG, los estudiantes… No nos interesa hacer un evento muy caro y enfocado sólo a expertos, porque ellos ya saben donde encontrar la información. Esta época difícil y de crisis es el momento para aprender a hacer marketing online y aprovechar Internet: es un medio barato y que realmente puede traer muchas ventas a una empresa. No se necesita ser un webmaster o un crack del posicionamiento. Por supuesto, vendrán expertos y el nivel de los ponentes es muy bueno, pero queremos que el nivel de los asistentes sea medio, que venga gente que sepa y gente que no sepa nada y quieran descubrir.
-¿La mayoría de la gente no especialista desconoce la importancia de esta forma de promocionarse?
-La gente no sabe que es un buscador. Conocen Google, Live o Yahoo!, pero no saben como funcionan y, lo que es peor, no saben lo que se puede hacer con ellos. Pueden utilizar un buscador como Google para atraer a muchos clientes. El marketing en buscadores sirve para esto y la idea del congreso es enseñar posicionamiento en buscadores. Además de los expertos y de comerciales que venderán sus servicios, también estarán los propios buscadores para explicar que es lo que se puede hacer con ellos. No enfocamos a un nivel súper-alto, sino a un nivel medio para compartir conocimientos y aprender.
-¿Cada vez hay más interés por las técnicas de posicionamiento en buscadores?
-La gente empieza por aprender palabras como SEO y SEM y por tener interés por aparecer en los buscadores. En realidad no son nada más que páginas web, pero si hablas de Google, Yahoo! o Microsoft la gente te responde que le interesa aparecer ahí y te preguntan cómo pueden hacerlo y si es gratuito o hay que pagar. Aparecer en la página 10 en una búsqueda de Google no vale, hay que aparecer en la primera página de resultados.
-¿Hay que saber mucho para mejorar el posicionamiento de una web?
-Ser SEO es algo muy técnico, muy difícil. No es ni arte ni magia, es una ciencia que requiere mucho trabajo, seguimiento y análisis y también tener conocimientos básicos de programación y saber de marketing. Pero para promocionar un producto o una página web no hay que ser experto. Los buscadores tienen un funcionamiento súper-sencillo, con unas herramientas donde se eligen unas palabras clave y ya se está online.
-¿Habrá un momento en que la principal inversión en márketing será online?
-Estoy convencido. En una campaña nacional de televisión no se sabe a que audiencia se va a llegar, mientras que con el marketing online se puede ir directamente al cliente que se quiere llegar. Las redes sociales, la blogosfera o los buscadores permiten pagar sólo la publicidad que llega a la gente que puede estar interesada en el producto.
-Y también se puede medir el impacto que ha tenido una campaña.
-En Internet se puede medir todo: el impacto, las visitas que has tenido, cuanto tiempo se quedaron en tu página web, quien es la persona, de donde viene, su perfil, su edad, su sexo… Y esta es un arma enorme para vender.
-¿Algún día podremos preguntar a los buscadores con un lenguaje natural?
-Esto es algo que se llama human search [búsqueda humana, en inglés]. Hay un buscador famoso que se llama Powerset y que lo acaba de comprar Microsoft. Lo que intenta hacer es comprender nuestro lenguaje, nuestra forma de hablar y dar los resultados adecuados a la consulta. Es difícil porque somos complejos.
-¿Entonces es mejor que nos adaptemos nosotros y hablemos como los indios de las películas?
-Somos capaces de hacerlo, pero al buscador le es más rentable entendernos él a nosotros porque así irá más rápido vendiéndonos sus servicios. Por lo tanto, iremos hacia una fórmula en la que el buscador entenderá más nuestro lenguaje.
-¿La mayoría de la gente sabe formular correctamente sus consultas en los buscadores?
-Hoy la gente no sabe buscar. La mayoría no saben. Con esto quiero decir que no optimizan sus búsquedas. Cuando se aprende a buscar ya no se busca pisos Barcelona, sino que se busca entendiendo cómo funciona el buscador. Si en el buscador introduzco la consulta piso en alquiler en Barcelona a compartir y que no supere los 400 euros, si hay un anuncio que diga esto lo voy a encontrar. Es lo que se llama la long tail [larga cola, en inglés]. En las búsquedas hay poner al menos tres o cuatro palabras clave. Algunas personas hacen búsquedas muy genéricas, que no les ayudan a encontrar lo que buscan.
Search Congress Barcelona: www.search-congress.com Fuente: www.lavanguardia.es
Los chicos de Boulevart han creado una magnífica aplicación de escritorio para la presentación de informes de Google Analytics. Se trata de una aplicación de escritorio Adobe AIR que importa los datos de Google Analytics pero con una experiencia más rica y funcionalidad ampliada en un entorno Flash Air con transiciones animadas entre los gráficos muy chulas.
El mapa de visitas por ubicación se importa mediante la API: de Google Maps
Autor: http://analytics.boulevart.be YouTube demo: http://es.youtube.com/watch?v=BfiKNwZRzLk Descarga: http://www.aboutnico.be/index.php/downloads/ Adobe AIR: http://labs.adobe.com/downloads/air.html
La compañía se reunió con un grupo asesor de expertos en oceanografía, y en diciembre invitó a investigadores de todo el mundo a Googleplex, Mountain View, California. Allí discutieron planes para crear un mapa oceanográfico en 3D. La herramienta permitirá que investigadores, meteorólogos, oceanógrafos aficionados, entusiastas marinos y todo el mundo en general puedan observar la batimetría oceanográfica (altimetría submarina).
Imagen submarina de alta resolución Al igual que Google Maps, se espera que los chicos de Google rellenen algunas zonas del mapa con imágenes de alta resolución para ver detalles. Google Ocean permitirá conocer otros datos adicionales, como las corrientes, temperaturas, naufragios, arrecifes de coral, la proliferación de algas e información que repercute en la meteorología.
Ocean de Google Earth: https://www.google.es/earth/explore/showcase/ocean.html Fuente: www.news.com/8301-10784_3-9931412-7.html [en] Imagen: GeoMapAppVG/Lamont-Doherty Earth - Observatorio de la Universidad de Columbia Google Maps: http://maps.google.com/ Oceanografía en Wikipedia: http://es.wikipedia.org/wiki/Oceanografía Secretos en Google Maps: http://blogoscoped.com/archive/2007-03-07-n12.html [en]