Buscadores
Diversos buscadores
Esto es el resultado de un informe de comScore, en el que de esta manera afirma que Google es el ganador absoluto a lo que se refiere a búsquedas en Internet.
Según comScore el buscador de Google ha tenido 61 mil millones de usuarios solo en el mes de Agosto frente a los 3.1 mil millones que ha tenido Microsoft… el estudio determina que de 750 millones de usuarios de 15 años o más, o sea el 95% de la audiencia de Internet en todo el planeta utiliza a Google como motor de búsqueda con un promedio de 80 búsquedas por usuario a lo largo del día.
¿Dónde está Yahoo en todo esto?… pues en un segundo lugar con 8.5 mil millones de usuarios, pese a que otro estudio en paralelo diga que los mejores resultados los tenga este motor de búsqueda… otro de los datos curioso es que Microsoft todavía no está en el tercer lugar, sino que se encuentra en motor de búsqueda chino Baidu, esto demuestra que China SI tiene presencia en el mercado de Internet, pese a que muchas empresas del planeta piensen lo contrario.
En resumen, en el mes de Agosto Google tuvo el 61% de las búsquedas mundiales, Yahoo el 14%, Baidu el 5.4% y Microsoft solo el 3.6%…
Fuente: NoticiasTech
Quaero iba a ser lanzado en enero de 2006 como un proyecto desarrollado en Europa «para contrarrestar la supremacía tecnológica y la influencia estadounidense, y defender así la multiculturalidad», contando con el apoyo financiero de varias empresas francesas y alemanas, y con el visto bueno de varias Administraciones públicas europeas.
Sin embargo a finales de 2006, el proyectó fracasó debido a los diferentes enfoques que tanto franceses como alemanes tenían de Quaero. Los primeros perseguían centrarse más en la gestión de recursos multimedia, y los segundos más en impulsar tecnologías innovadoras relacionadas con las búsquedas, creando su propio proyecto llamado ‘Theseus‘ (en honor a un personaje de la mitología griega).
Así, y aunque se prevén 1.200 millones de euros de inversión en Theseus, hace unos días (informa la ‘Deutsche Welle’) la Unión Europa ha aprobado una partida de 120 millones de euros para desarrollar sus tecnologías. Además, en el sitio web del proyecto se informa que recibirán fondos extra del Ministerio Alemán de Ciencia y Tecnología y de empresas del sector.
Algunas de las firmas y organismos que forman parte de Theseus son: Siemens, SAP, Lycos Europe, Bertelsmann, la Biblioteca Nacional Alemana o la Ludwig-Maximilian-Universität. Según sus propios objetivos, para el año 2008 ya estarán disponibles (aunque no de manera pública) los primeros demostradores de su tecnología, la cual será el germen de lo que se demomina la «Web 3.0» (Web 3.0 = Web 2.0 + semántica). «Conectando la Web 2.0 de hoy (con su filosofía de red social abierta e interactiva) con métodos semánticos convertiremos la WWW en la Internet de la próxima generación», se asegura. «El enfoque de Theseus es en las tecnologías semánticas, las cuales no designan los contenidos (palabras, imágenes y sonidos) con métodos convencionales (combinaciones de letras), sino que reconocen y sitúan el significado de estos contenidos en su contexto adecuado».
Fuente: Dirson
Más significativa es aún la segunda noticia: según la consultora Hitwise, en Estados Unidos Google acapara casi dos tercios de todas las búsquedas que se realizan. Y eso que el mercado norteamericano de los buscadores, a diferencia del europeo, en el que Google siempre ha mantenido una cómoda ventaja sobre sus competidores, tradicionalmente ha sido más equilibrado, con Google en cabeza pero sin tanta ventaja sobre Yahoo, MSN y Ask,com como en el caso de Europa. En esta coyuntura, parece claro que conseguir una posición destacada en Google debe ser un objetivo prioritario para cualquier empresa con presencia en la Red.
Seomoz.org, una empresa de Seattle especializada en el posicionamiento en buscadores, ha presentado un estudio en el que 37 expertos analizan los principales elementos (aunque hay más de 200) que hay que tener en cuenta si queremos que nuestra empresa aparezca entre los primeros enlaces de una búsqueda, única forma de conseguir tráfico, ya que los usuarios no pasan de los primeros resultados. Obviamente, se trata de consejos relacionados con la programación y el diseño de una web, dejando al margen la opción de la compra de palabras clave.
Este es un resumen de los principales factores a tener en cuenta para llamar la atención del algoritmo de Google, y la importancia (media sobre un máximo de 5) de cada factor.
Elementos relacionados con las palabras clave
Atributos de la página
Atributos de la web / dominio
Elementos negativos
Robert Scoble es uno de los bloggers tecnológicos más reconocidos de Internet, y durante varios años (2003-2006) fue el ‘evangelista’ de Microsoft, en donde sorprendió por la franqueza de sus opiniones con respecto a los productos de esta firma.
La semana pasada, Scoble (que asegura seguir teniendo en su poder acciones de Microsoft) publicó un post muy interesante en el que subrayaba la calidad de las búsquedas de Google con respecto a las de ‘Live.com’ (el buscador de Microsoft). Se citaba el caso de la búsqueda de ‘twitter search’ para tratar de encontrar esta herramienta. Solamente habían pasado unos días desde que ésta fue lanzada y en los resultados de Google ya aparecía en primera posición, mientras que en los de ‘Live.com’ no la podíamos ver entre los diez primeros enlaces propuestos (y, a día de hoy, sigue sin aparecer).
Y es que el algoritmo del buscador web de Google es capaz de, en poco tiempo, otorgar una relevancia más ajustada a un enlace para una determinada búsqueda sin necesidad de que pasen varias semanas para recalcular los factores. Como podemos comprobar en esta búsqueda, ‘Live.com’ sí que tiene indexado el documento web, pero no ha sido capaz todavía de otorgarle una cierta importancia relacionada con los términos ‘twitter’ y ‘search’.
«Realmente me gustaría que Microsoft lo hiciese mejor», confiesa Scoble. «Pero, lo siento, cuando digo que Microsoft lo está haciendo realmente mal en Internet, me refiero a esto». Además, también critica a su antigua empresa por intentar obtener beneficios mostrando anuncios «no relevantes» para determinadas búsquedas en ‘Live.com’. «Esto va a perjudicar a Microsoft a la larga», prevé. «La gente sabrá que la publicidad en ‘Live.com’ no tienen nada que ver con lo que están buscando». También recuerda que la publicidad es parte de las búsquedas (en muchas ocasiones un anuncio interesante es beneficioso para el usuario que busca información), y vuelve reprobar la actitud de Microsoft de tratar a los usuarios como «algo de lo cual aprovecharse».
Toda esta política de Microsoft en Internet es lo que está haciendo que sus herramientas no obtengan el éxito que se podría esperar de una empresa tan potente económicamente como la de Bill Gates. Lejos de cumplirse las previsiones de algunos de sus directivos (que anunciaban que en septiembre del año pasado iban a sobrepasar a Google), en ‘searchengineland.com’ publicaron recientemente varios gráficos mostrando la realidad con respecto al uso de ‘Live.com’ frente al buscador web de Google en EEUU.
Mientras este último aumenta su popularidad mes a mes (los datos más optimistas son de un 64% de cuota de mercado), el buscador de Microsoft desciende paulatinamente, y la cifra más optimista le otorga un 10.5%. Dudamos que medidas como la de pagar a las empresas que convezcan a sus empleados para que utilicen ‘Live.com’ vaya a mejorar estos datos (los usuarios quieren simplemente localizar información).
Como publicábamos en diciembre, la cuota de mercado fuera de EEUU es diferente: España, 99%; Reino Unido, 75%; Alemania, 91%; China, 21%. Fuente: http://google.dirson.com
Durante la última década, uno de los proyectos más ambiciosos que estamos esperando es un buscador de información que nos permita localizar datos escribiendo preguntas tal y como las formulamos normalmente. En estos momentos, debemos escribir «año nacimiento picasso» en Google, pero ¿por qué no escribir «¿cuándo nació Picasso?». La razón es que todos los buscadores devuelven la información de páginas web cuyos contenidos coinciden exactamente con las palabras escritas por los usuarios, y éstos se están acostumbrando a escribir las consultas de esta manera (e incluso también los generadores de contenidos).
Por ello, han ido naciendo durante los últimos años diversos proyectos en este sentido, los llamados buscadores «de lenguaje natural», que pretenden «comprender» de manera inteligente las cuestiones escritas por los usuarios y devolverle la información más certera. Así, los diferentes servicios que han ido naciendo han ido consiguiendo hacer bastante ruido durante algunos meses, incluso consiguiendo varios millones de dólares de inversión, pero ninguno de ellos ha podido ofrecer la tecnología prometida. Incluso el propio IBM disponde de una tecnología que aún está bastante verde.
Hace unas semanas, Danny Sullivan escribía este post hace unos meses sobre los proyectos más sonados de la historia, y recientemente hemos podido conocer algunos otros que pretenden volver a ser noticia, como por ejemplo Hakia y Chacha. Y esta última semana, el prestigioso diario ‘New York Times’ publicaba un artículo en el que se hacía eco de estos dos proyectos y de otro más: Powerset, un buscador que aún no ofrece de manera pública ningún servicio, pero que ha conseguido más de 12 millones de dólares de manos de firmas de capital-riesgo.
Según afirma el artículo del ‘New York Times’, este tipo de proyectos han recibido, desde 2004, unos 350 millones de dólares de inversión por parte de ‘ángeles inversores’ que pretenden obtener importantes beneficios con un servicio que pueda hacer sombra a Google, mediante los multimillonarios ingresos de la publicidad en los buscadores. Además de los 12 millones de Powerset, Chacha.com recibió 6 y Hakia.com 16.
Lo que tampoco hay que olvidar es que Google también quiere construir una herramienta que procese toda la información (tanto de la WWW como la contenida en vídeos, libros, etc.) en cualquier idioma, la interprete y la «comprenda», y sea capaz de devolver información precisa a los usuarios que le planteen preguntas. Por ello, desde hace muchos años dispone en su plantilla a muchos de los mejores expertos en Inteligencia Artificial y Procesamiento del Lenguaje Natural (Peter Norvig, Vibhu Mittal), y hace unos meses os hablábamos de una de las implementaciones de las tecnologías desarrolladas, dentro del traductor de textos de Google.
Fuente: http://google.dirson.com
En abril os hablábamos de la recién presentada tecnología de traducción automática de Google, que había conseguido ‘entrenarse’ con miles de documentos provenientes de Naciones Unidas, para poder traducir entre varios idiomas con muy buenos resultados.
Estos días se ha celebrado el ‘NIST 2006 Machine Translation Evaluation‘, evento organizado por un organismo público de EEUU para apoyar las tecnologías de traducción automática, evaluando los diferentes desarrollos surgidos en todo el mundo.
En total han sido unos 40 los sistemas de traducción tenidos en cuenta, creados en su mayoría por centros de investigación y Universidades de todo el planeta (entre las que se encontraba la ‘Universitat Politecnica de Catalunya’). Se realizaron 36 pruebas, consistentes en traducir al inglés varios textos de medios de comunicación en árabe y chino, y en todas menos en una la tecnología de Google fue la más precisa, estimándose esta precisión como la mayor coincidencia del texto traducido con el trabajo realizado por un traductor humano.
Según informa nature.com, la mejor puntuación lograda en alguna de las pruebas por Google (un 50%), es casi idéntica (un 60%) a la que consiguiría otro traductor humano.
El secreto del éxito, se asegura, es el hecho de haber reunido dentro de un mismo equipo de trabajo a varios de los mayores expertos del mundo en traducción automática, Procesamiento del Lenguaje Natural e Inteligencia Artificial. Como os hemos comentado en alguna ocasión, la siguiente generación de buscadores será aquella que aprenda de los documentos rastreados y sea capaz de ofrecer al usuario respuestas a preguntas, sin que sea necesaria la concordancia de las palabras buscadas dentro de los textos.
Fuente: http://google.dirson.com