admin

Categorías

Coobis

Buscadores

Diversos buscadores

Resultados: Google 61 mil millones vs Microsoft 3.1 mil millones

Esto es el resultado de un informe de comScore, en el que de esta manera afirma que Google es el ganador absoluto a lo que se refiere a búsquedas en Internet.

Según comScore el buscador de Google ha tenido 61 mil millones de usuarios solo en el mes de Agosto frente a los 3.1 mil millones que ha tenido Microsoft… el estudio determina que de 750 millones de usuarios de 15 años o más, o sea el 95% de la audiencia de Internet en todo el planeta utiliza a Google como motor de búsqueda con un promedio de 80 búsquedas por usuario a lo largo del día.

¿Dónde está Yahoo en todo esto?… pues en un segundo lugar con 8.5 mil millones de usuarios, pese a que otro estudio en paralelo diga que los mejores resultados los tenga este motor de búsqueda… otro de los datos curioso es que Microsoft todavía no está en el tercer lugar, sino que se encuentra en motor de búsqueda chino Baidu, esto demuestra que China SI tiene presencia en el mercado de Internet, pese a que muchas empresas del planeta piensen lo contrario.

En resumen, en el mes de Agosto Google tuvo el 61% de las búsquedas mundiales, Yahoo el 14%, Baidu el 5.4% y Microsoft solo el 3.6%…

Fuente: NoticiasTech

Theseus: la UE destina 120 millones de euros al proyecto de buscador

Quaero iba a ser lanzado en enero de 2006 como un proyecto desarrollado en Europa «para contrarrestar la supremacía tecnológica y la influencia estadounidense, y defender así la multiculturalidad», contando con el apoyo financiero de varias empresas francesas y alemanas, y con el visto bueno de varias Administraciones públicas europeas.

Sin embargo a finales de 2006, el proyectó fracasó debido a los diferentes enfoques que tanto franceses como alemanes tenían de Quaero. Los primeros perseguían centrarse más en la gestión de recursos multimedia, y los segundos más en impulsar tecnologías innovadoras relacionadas con las búsquedas, creando su propio proyecto llamado ‘Theseus‘ (en honor a un personaje de la mitología griega).

Así, y aunque se prevén 1.200 millones de euros de inversión en Theseus, hace unos días (informa la ‘Deutsche Welle’) la Unión Europa ha aprobado una partida de 120 millones de euros para desarrollar sus tecnologías. Además, en el sitio web del proyecto se informa que recibirán fondos extra del Ministerio Alemán de Ciencia y Tecnología y de empresas del sector.

Algunas de las firmas y organismos que forman parte de Theseus son: Siemens, SAP, Lycos Europe, Bertelsmann, la Biblioteca Nacional Alemana o la Ludwig-Maximilian-Universität. Según sus propios objetivos, para el año 2008 ya estarán disponibles (aunque no de manera pública) los primeros demostradores de su tecnología, la cual será el germen de lo que se demomina la «Web 3.0» (Web 3.0 = Web 2.0 + semántica). «Conectando la Web 2.0 de hoy (con su filosofía de red social abierta e interactiva) con métodos semánticos convertiremos la WWW en la Internet de la próxima generación», se asegura. «El enfoque de Theseus es en las tecnologías semánticas, las cuales no designan los contenidos (palabras, imágenes y sonidos) con métodos convencionales (combinaciones de letras), sino que reconocen y sitúan el significado de estos contenidos en su contexto adecuado».

Fuente: Dirson

¿Qué hacer para destacar en Google?

Google parece incapaz de tocar techo. Esta misma semana hemos conocido dos muestras más de su imparable trayectoria: sus beneficios han aumentado un 69% en el primer trimestre del año, pasando de los 592 millones de dólares del mismo periodo de 2006 a los 1.000 millones actuales.

Más significativa es aún la segunda noticia: según la consultora Hitwise, en Estados Unidos Google acapara casi dos tercios de todas las búsquedas que se realizan. Y eso que el mercado norteamericano de los buscadores, a diferencia del europeo, en el que Google siempre ha mantenido una cómoda ventaja sobre sus competidores, tradicionalmente ha sido más equilibrado, con Google en cabeza pero sin tanta ventaja sobre Yahoo, MSN y Ask,com como en el caso de Europa. En esta coyuntura, parece claro que conseguir una posición destacada en Google debe ser un objetivo prioritario para cualquier empresa con presencia en la Red.

Seomoz.org, una empresa de Seattle especializada en el posicionamiento en buscadores, ha presentado un estudio en el que 37 expertos analizan los principales elementos (aunque hay más de 200) que hay que tener en cuenta si queremos que nuestra empresa aparezca entre los primeros enlaces de una búsqueda, única forma de conseguir tráfico, ya que los usuarios no pasan de los primeros resultados. Obviamente, se trata de consejos relacionados con la programación y el diseño de una web, dejando al margen la opción de la compra de palabras clave.

Este es un resumen de los principales factores a tener en cuenta para llamar la atención del algoritmo de Google, y la importancia (media sobre un máximo de 5) de cada factor.

Elementos relacionados con las palabras clave

  • Usar las palabras clave en la etiqueta del título (4,9): siempre hay que incluir la palabra clave de la web en la etiqueta HTML de la página. Es uno de los elementos más importantes de una estrategia de SEO.
  • Usar las palabras clave en el texto (3.7): también deben incluirse en el texto visible de la página, combinándolas de forma que el buscador sea capaz de detectar la temática de la web más allá de lo explicitado en el título.
  • Relacionar el contenido con las palabras clave (3,4): se trata de una acción un tanto obvia, aunque a tener en cuenta: los contenidos deben estar relacionados con los términos clave elegidos. Es un elemento importante también a la hora de recibir enlaces.

Atributos de la página

  • Estructurainterna de los enlaces (4,1): se refiere al número y la importancia de los enlaces internosque apuntan a una determinada página. Sin una estructura correcta de los enlaces internos, algunas páginas pueden no recibir todo el énfasis que necesitan.
  • Estructuraexternade los enlaces (3,5): la cantidad y calidad de los enlaces externos de una web se mide por el número de enlaces a sitios que otros usuarios consideran útiles. : lo que es útil para los internautas debería traducirse en valioso para un buscador.
  • Antigüedad del documento (3,4): la veteranía puede ser un grado importante. Las páginas que perduran en la Redse consideran con mayor autoridad y más fiables que las que viven un éxito efímero.

Atributos de la web / dominio

  • Popularidad global de la web (4,5): la importancia o autoridad de una página web, medida en función del número de enlaces que recibe (tanto en cantidad como en calidad), es fundamental para establecer su posición en los rankings.
  • Antigüedad del dominio (4): al igual que el punto anterior, la edad del dominio también cuenta, y no desde el momento en que se registra el dominio (ya que puede cambiar de propietario), sino desde que empieza a generar contenido indexable por los buscadores.
  • Relevancia de los enlaces externos (3,9): se trata de la relación específica entre la temática de las webs que enlazan y las palabras clave de una web. En un algoritmo perfecto, este debería ser uno de los elementos básicos de éxito.

Elementos negativos

  • El servidor es inaccesible con frecuencia (3,8): basta que un servidor esté caído durante 48 horas para que caiga radicalmente en cualquier ranking.
  • El contenido es igual o muy parecido al que ya está indexado (3,6): si un contendió se considera duplicado, probablemente será ignorado por los motores de búsqueda, que generalmente sólo tienen en cuenta una copia de cada información.
  • Los enlaces externos son de poca calidad o spam (3,5): no es bueno tener relaciones virtuales de mala reputación, porque nos arriesgamos a caer bajo la misma calificación.

Fuente: http://www.baquia.com

Scoble (ex-evangelista de Microsoft): Microsoft lo está haciendo realmente mal en Internet

Robert Scoble es uno de los bloggers tecnológicos más reconocidos de Internet, y durante varios años (2003-2006) fue el ‘evangelista’ de Microsoft, en donde sorprendió por la franqueza de sus opiniones con respecto a los productos de esta firma.

La semana pasada, Scoble (que asegura seguir teniendo en su poder acciones de Microsoft) publicó un post muy interesante en el que subrayaba la calidad de las búsquedas de Google con respecto a las de ‘Live.com’ (el buscador de Microsoft). Se citaba el caso de la búsqueda de ‘twitter search’ para tratar de encontrar esta herramienta. Solamente habían pasado unos días desde que ésta fue lanzada y en los resultados de Google ya aparecía en primera posición, mientras que en los de ‘Live.com’ no la podíamos ver entre los diez primeros enlaces propuestos (y, a día de hoy, sigue sin aparecer).

Y es que el algoritmo del buscador web de Google es capaz de, en poco tiempo, otorgar una relevancia más ajustada a un enlace para una determinada búsqueda sin necesidad de que pasen varias semanas para recalcular los factores. Como podemos comprobar en esta búsqueda, ‘Live.com’ sí que tiene indexado el documento web, pero no ha sido capaz todavía de otorgarle una cierta importancia relacionada con los términos ‘twitter’ y ‘search’.

«Realmente me gustaría que Microsoft lo hiciese mejor», confiesa Scoble. «Pero, lo siento, cuando digo que Microsoft lo está haciendo realmente mal en Internet, me refiero a esto». Además, también critica a su antigua empresa por intentar obtener beneficios mostrando anuncios «no relevantes» para determinadas búsquedas en ‘Live.com’. «Esto va a perjudicar a Microsoft a la larga», prevé. «La gente sabrá que la publicidad en ‘Live.com’ no tienen nada que ver con lo que están buscando». También recuerda que la publicidad es parte de las búsquedas (en muchas ocasiones un anuncio interesante es beneficioso para el usuario que busca información), y vuelve reprobar la actitud de Microsoft de tratar a los usuarios como «algo de lo cual aprovecharse».

Toda esta política de Microsoft en Internet es lo que está haciendo que sus herramientas no obtengan el éxito que se podría esperar de una empresa tan potente económicamente como la de Bill Gates. Lejos de cumplirse las previsiones de algunos de sus directivos (que anunciaban que en septiembre del año pasado iban a sobrepasar a Google), en ‘searchengineland.com’ publicaron recientemente varios gráficos mostrando la realidad con respecto al uso de ‘Live.com’ frente al buscador web de Google en EEUU.

Mientras este último aumenta su popularidad mes a mes (los datos más optimistas son de un 64% de cuota de mercado), el buscador de Microsoft desciende paulatinamente, y la cifra más optimista le otorga un 10.5%. Dudamos que medidas como la de pagar a las empresas que convezcan a sus empleados para que utilicen ‘Live.com’ vaya a mejorar estos datos (los usuarios quieren simplemente localizar información).

Como publicábamos en diciembre, la cuota de mercado fuera de EEUU es diferente: España, 99%; Reino Unido, 75%; Alemania, 91%; China, 21%. Fuente: http://google.dirson.com

Todos quieren construir un buscador de lenguaje natural… incluso Google

Durante la última década, uno de los proyectos más ambiciosos que estamos esperando es un buscador de información que nos permita localizar datos escribiendo preguntas tal y como las formulamos normalmente. En estos momentos, debemos escribir «año nacimiento picasso» en Google, pero ¿por qué no escribir «¿cuándo nació Picasso?». La razón es que todos los buscadores devuelven la información de páginas web cuyos contenidos coinciden exactamente con las palabras escritas por los usuarios, y éstos se están acostumbrando a escribir las consultas de esta manera (e incluso también los generadores de contenidos).

Por ello, han ido naciendo durante los últimos años diversos proyectos en este sentido, los llamados buscadores «de lenguaje natural», que pretenden «comprender» de manera inteligente las cuestiones escritas por los usuarios y devolverle la información más certera. Así, los diferentes servicios que han ido naciendo han ido consiguiendo hacer bastante ruido durante algunos meses, incluso consiguiendo varios millones de dólares de inversión, pero ninguno de ellos ha podido ofrecer la tecnología prometida. Incluso el propio IBM disponde de una tecnología que aún está bastante verde.

Hace unas semanas, Danny Sullivan escribía este post hace unos meses sobre los proyectos más sonados de la historia, y recientemente hemos podido conocer algunos otros que pretenden volver a ser noticia, como por ejemplo Hakia y Chacha. Y esta última semana, el prestigioso diario ‘New York Times’ publicaba un artículo en el que se hacía eco de estos dos proyectos y de otro más: Powerset, un buscador que aún no ofrece de manera pública ningún servicio, pero que ha conseguido más de 12 millones de dólares de manos de firmas de capital-riesgo.

Según afirma el artículo del ‘New York Times’, este tipo de proyectos han recibido, desde 2004, unos 350 millones de dólares de inversión por parte de ‘ángeles inversores’ que pretenden obtener importantes beneficios con un servicio que pueda hacer sombra a Google, mediante los multimillonarios ingresos de la publicidad en los buscadores. Además de los 12 millones de Powerset, Chacha.com recibió 6 y Hakia.com 16.

Lo que tampoco hay que olvidar es que Google también quiere construir una herramienta que procese toda la información (tanto de la WWW como la contenida en vídeos, libros, etc.) en cualquier idioma, la interprete y la «comprenda», y sea capaz de devolver información precisa a los usuarios que le planteen preguntas. Por ello, desde hace muchos años dispone en su plantilla a muchos de los mejores expertos en Inteligencia Artificial y Procesamiento del Lenguaje Natural (Peter Norvig, Vibhu Mittal), y hace unos meses os hablábamos de una de las implementaciones de las tecnologías desarrolladas, dentro del traductor de textos de Google.

Fuente: http://google.dirson.com

Google dispone de la mejor tecnologí­a de traducción automática

En abril os hablábamos de la recién presentada tecnología de traducción automática de Google, que había conseguido ‘entrenarse’ con miles de documentos provenientes de Naciones Unidas, para poder traducir entre varios idiomas con muy buenos resultados.

Estos días se ha celebrado el ‘NIST 2006 Machine Translation Evaluation‘, evento organizado por un organismo público de EEUU para apoyar las tecnologías de traducción automática, evaluando los diferentes desarrollos surgidos en todo el mundo.

En total han sido unos 40 los sistemas de traducción tenidos en cuenta, creados en su mayoría por centros de investigación y Universidades de todo el planeta (entre las que se encontraba la ‘Universitat Politecnica de Catalunya’). Se realizaron 36 pruebas, consistentes en traducir al inglés varios textos de medios de comunicación en árabe y chino, y en todas menos en una la tecnología de Google fue la más precisa, estimándose esta precisión como la mayor coincidencia del texto traducido con el trabajo realizado por un traductor humano.

Según informa nature.com, la mejor puntuación lograda en alguna de las pruebas por Google (un 50%), es casi idéntica (un 60%) a la que consiguiría otro traductor humano.

El secreto del éxito, se asegura, es el hecho de haber reunido dentro de un mismo equipo de trabajo a varios de los mayores expertos del mundo en traducción automática, Procesamiento del Lenguaje Natural e Inteligencia Artificial. Como os hemos comentado en alguna ocasión, la siguiente generación de buscadores será aquella que aprenda de los documentos rastreados y sea capaz de ofrecer al usuario respuestas a preguntas, sin que sea necesaria la concordancia de las palabras buscadas dentro de los textos.

Fuente: http://google.dirson.com

Related Posts with Thumbnails

Calendario

noviembre 2024
L M X J V S D
« Nov    
 123
45678910
11121314151617
18192021222324
252627282930  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa