El acceso a información en la Web no es independiente de la estructura de red que forman los enlaces entre páginas y dominios. Los buscadores reconstruyen mapas de esas conexiones para identificar los recursos más centrales y darles prioridad en sus algoritmos. Sin embargo, la estructura de la Web no responde sólo a la calidad de los contenidos.
¿Cómo se dibuja el mapa de un mundo cuyos confines se desconocen? La estrategia que siguieron los poderes del mundo en tiempos en los que todavía existía la terra incognita fue mandar expediciones que rastrearan caminos y reportaran de vuelta las rutas seguidas. Todavía existen hoy terrenos por descubrir, sólo que son virtuales, y los caminos adoptan la forma de enlaces electrónicos. La Web, a la que la mayor parte de los usuarios accede mediante el uso de buscadores, es una red en constante crecimiento y cambio: cada segundo se añaden y borran incontables páginas, y todos estos cambios tienen lugar de forma descentralizada, sin que haya una autoridad que ponga orden y cense ese flujo constante de información. Mantener un mapa de la Web que, si no completo, esté al menos actualizado es un reto constante para los buscadores, y su estrategia se asemeja mucho a la de los estados de antaño: mandar cartógrafos que recojan suficiente información para reconstruir la topografía que pisaron. La diferencia es que esos cartógrafos adoptan la forma de programas informáticos, o robots, que automatizan la función de seguir enlaces y reportar de vuelta los destinos alcanzados.
Tal y como ocurrió con el descubrimiento del nuevo mundo, esos exploradores electrónicos han permitido dibujar mapas que revelan continentes, y corrientes que revelan la forma en la que navegamos la red. La Web es una red en la que las páginas o documentos publicados son nodos, unidos por enlaces que los conectan. La conexión que une una página a otra no implica que desde la segunda también se pueda llegar a la primera: los enlaces en esta red son como caminos de un solo sentido y a menudo promueven flujos de no retorno. Dada esta característica, la Web está dividida en un centro en el que las páginas están densamente conectadas y una periferia en la que las conexiones son más escasas y dispersas. Estos continentes están identificados en la Figura 1, que reproduce un mapa de la Web basado en las conexiones de más de 200 millones de páginas (Broder et al., 2000; Barabási, 2002: 166-167; Pastor-Satorras y Vespignani, 2004: 143-144). Según este mapa, si iniciáramos un recorrido desde el continente de la izquierda sería fácil llegar al núcleo o continente central, pero no a la inversa: las páginas en esa parte de la Web son esencialmente puntos de partida, no de llegada. Justo al contrario sucede con el continente de la derecha: una vez se llega a él, es difícil encontrar una vía fuera. La mayor parte de las páginas que pueblan el continente de entrada son páginas personales, o dominios recién creados que aún no tuvieron tiempo de llegar al núcleo de la red; las que forman el continente de salida son, de forma significativa, páginas corporativas. El cuarto continente está formado por islas y penínsulas que no pueden alcanzarse desde el continente central: alrededor de un cuarto de todos los documentos están ubicados en esta zona reclusa de la Web.
Figura 1.- Los continentes de la Web.
Estos mapas ponen de manifiesto que, como en Roma, casi todos los caminos llegan al mismo destino. Los buscadores han usado esta estructura de red para construir sus algoritmos de organización de los resultados de las búsquedas. Estos algoritmos interpretan los enlaces como votos de confianza: los enlaces que recibe una página son fundamentales para definir no sólo su propia visibilidad, sino también la de las páginas con las que está conectada (Bonacich, 1972; Brin y Page, 1998). Los enlaces enviados por páginas centrales contribuyen mucho más a aumentar la visibilidad de la página de destino que los enlaces enviados por páginas periféricas. Esta distribución de influencia asume que la Web es una red de documentos que funciona de modo similar a las redes de publicaciones científicas: cuantos más artículos citan una publicación, más valor adquiere ese trabajo, y más valor y visibilidad adquieren los artículos que ese trabajo cita. Sin embargo, un número creciente de investigadores está poniendo en duda la validez de esa metáfora de partida, mostrando que la Web se asemeja más a una red social que a una red de documentos.
Dos estudios recientes analizan la centralidad y audiencia de un millar de dominios en la Web como una función de los recursos y visibilidad de las organizaciones que publican esas páginas (González-Bailón, 2009, en prensa). La Figura 2 muestra la distribución de tres tipos de recursos entre esas organizaciones: centralidad, o número de enlaces que reciben en la Web; tráfico, o número de visitantes que entran en sus páginas; y visibilidad, medida como el número de veces que esas organizaciones son mencionadas por prensa escrita tradicional. Los resultados indican que una minoría de organizaciones acumula la mayoría de los recursos en los tres casos, aunque la desigualdad es mayor en el caso de visibilidad en prensa escrita. La pregunta que los dos estudios plantean es hasta qué punto estas tres distribuciones están relacionadas entre sí. Según los análisis, las organizaciones más ricas y más visibles en medios de comunicación tradicional también son las más centrales y las más visitadas en internet.
Figura 2.- Desigualdad en la distribución de recursos de los sitios Web analizados, medida según el Coeficiente de Gini (véase http://es.wikipedia.org/wiki/Coeficiente_de_Gini para una definición). A mayor coeficiente, mayor desigualdad. Un coeficiente de 1 indica que una organización acumula todos los recursos (vínculos, visitantes y menciones), mientras que un coeficiente de 0 indica que todas las organizaciones acumulan el mismo número de recursos.
Estos análisis, y la literatura en la que se insertan, ponen de manifiesto que los enlaces esconden estrategias y alianzas que denotan asimetrías de poder. Al fin y al cabo, si todos los caminos llegaban a Roma era porque Roma era la capital del Imperio. Las características de los que publican contenidos en la Web son importantes para entender por qué algunas fuentes de información son más visibles y tienen más impacto que otras; y esto, a su vez, genera consecuencias sobre la pluralidad y diversidad de la información disponible. En su crecimiento, la Web seguirá siendo descentralizada y difícil de controlar por una sola autoridad, pero los buscadores, en su función de guardianes de esa información, están fortaleciendo ciertos centros de gravedad de los que, como mínimo, merece la pena saber más.
Referencias
Broder, A., Kumar, R., Maghoul, F., Raghavan, P. y Rajagopalan, S. (2000) Graph structure in the web. Computer Networks, 33, 309-320.
Barabási, A. L. (2002) Linked. The New Science of Networks. Cambridge, MA: Perseus.
Pastor-Satorras, R. y Vespignani, A. (2004) Evolution and Structure of the Internet. A Statistical Physics Approach. Cambridge: Cambridge University Press.
Bonacich, P. (1972) Factoring and weighting approaches to clique identification. Journal of Mathematical Sociology, 2, 113-120.
Brin, S. y Page, L. (1998) The anatomy of a large-scale hypertextual web search engine. Computer Networks and ISDN Systems, 30, 107-117.
González Bailón, S. (2009) Opening the black box of link formation: Social factors underlying the structure of the web. Social Networks, 31, 271-280.
González Bailón, S. (en prensa) Traps on the web: The impact of economic resources and traditional news media on online traffic flow. Information, Communication & Society
Fuente: Ciencia Cognitiva
Bajo licencia Creative Commons
____________________
Enlaces relacionados:
El 29 de octubre se ha celebrado el 40 aniversario de uno de varios hitos en una sucesión de eventos que desembocaron en lo que hoy conocemos como internet.
Para que exista internet primero tuvo que existir ARPANET, un proyecto iniciado en la década de los 60’s para comunicar varios ordenadores distantes. Joseph Carl Robnett Licklider escribió varios memos reflexionando acerca de una red intergaláctica. Un año más tarde Licklider obtuvo un cargo importante en ARPA (ahora DARPA) donde convenció a dos personas, Ivan Sutherland y Robert Taylor de la importancia de construír esta red.
A mediados de 1968 ya existía un plan para construir ARPANET y en abril de 1969 BNN Technologies fue la comapañía elegida para implementar esta red. Fue en esa época en que se propuso la creación de IMPs (Interface Message Processor) dedicados a recibir y redirigir paquetes de datos a los equipos correspondientes, es decir, una versión muy básica de lo que hoy conocemos como routers.
La versión inicial de ARPANET consistía en apenas cuatro IMPs instalados en cuatro instituciones:
Cada uno formando un nodo. La primera comunicación a través de ARPANET fue hecho el 29 de octubre de 1969 a las 10:30PM, hace 40 años. Fue originado en UCLA y enviado al Stanford Research Institute; el mensaje simplemente contenía la palabra: login
, pero solo llegaron las dos letras porque el sistema falló. Una hora más tarde fue posible hacer un login completo.
El siguiente hito en la historia de internet se celebrará en un poco menos de un mes: el 21 de noviembre de 1969 se logró hacer la primera conexión permanente usando ARPANET entre los IMPs de estas dos instituciones y días más tarde, cinco de diciembre de 1969 se logró hacer una conexión permanente entre los cuatro nodos.
Fuente: ALT1040
_____________
Enlaces relacionados:
– Apuntes Informática Aplicada a la Gestión Pública. Capitulo 8. Introducción a internet
– Hoax. Los mitos más difundidos en internet
– Crimen por Internet, una industria …
– Nueva tecnología protege a los anunciantes de internet del fraude en «clicks»
Una contable fue despedida en Nueva Zelanda por «buscar confrontación» con sus compañeros al escribir en mayúsculas los correos electrónicos que les enviaba.
«PARA ASEGURARNOS DE QUE PROCESEN Y PAGUEN VUESTRA SOLICITUD DE GASTOS, POR FAVOR, SEGUID LA LAS INSTRUCCIONES DE ABAJO». Éste fue su mensaje, aparentemente inofensivo.
Sin embargo, fue una de las razones por las que Vicki Walker perdió su trabajo en la compañía ProCare Health, en la ciudad de Auckland.
Esta empresa también presentó ante un tribunal otros correos electrónicos de la trabajadora que «contribuían a destruir la armonía en el trabajo». Algunos contenían frases subrayadas, con negritas o en rojo.
Signo de formalidad
Muchos usuarios de internet consideran que usar las mayúsculas o letras capitales es una gran ofensa, ya que se interpretan como una manera de gritar a través del teclado. Pero, ¿son tan agresivas estas letras?
Según Paul Luna, director del departamento de tipografía y comunicación gráfica de la Universidad de Reading (Reino Unido), las mayúsculas han representado tradicionalmente cierta formalidad.
«Se asocian con cosas como las inscripciones romanas y la presentación formal de un texto», dice.
En los foros de la antigua Roma, por ejemplo, se mostraban las grandes hazañas de los emperadores a través de las mayúsculas, mientras las minúsculas se desarrollaron como una manera más rápida de escribir, dice el profesor.
Con el tiempo, las mayúsculas acabaron usándose sólo para comenzar una nueva frase o marcar el inicio de un libro. La llegada de la imprenta las obligó a competir en las páginas con cursivas y negritas. Con internet todo cambió.
Luna explica que la pantalla, de menor resolución que el papel impreso, a menudo obliga a quien escribe a utilizar la mayúscula como manera de subrayar una idea.
Además, mientras las imprentas y las editoriales han regulado con el tiempo el uso de la capital, la web todavía es un territorio libre en el que todo vale en el uso de estas hermanas mayores de las letras minúsculas, explica Martin Manser, autor del libro Good Word Guide (La guía de las buenas palabras).
«Lo que ocurre con los e-mails es que no hay un protocolo particular. Todo es mucho más natural», explica. «En las letras impresas sí hay convenciones que dicen si algo está bien o mal».
El receptor puede sentir que le están gritando a través de la computadora.
En el mundo digital, las mayúsculas se han convertido en una manera más rápida y directa de denotar agitación o nerviosismo. Pero el receptor puede sentir que le están gritando a través de la computadora.
¿Hay algún motivo para esta percepción?
Algunos estudios indican que este tipo de letras son más hostiles para la vista, ya que las letras minúsculas suelen diferenciarse mejor entre sí que en su versión adulta, que tienden a ser más rectangulares.
Pero Paul Luna cree que este argumento «no tiene sentido». Es más, sostiene que las mayúsculas se han convertido en una nueva herramienta para los escritores a la hora de articular nuevos mensajes.
En cualquier caso, recuerde que, si tiene que escribir un mensaje, elegir las letras adecuadas puede ser una virtud CAPITAL.
Fuente: BBC Mundo
En el período anual del segundo trimestre de 2008 al primer trimestre de 2009, de los 9 operadores que actualmente tienen que publicar los datos (Telefónica, ONO, Orange, Jazztel, Ya.com, Euskaltel, Grupo R, Telecable y Tele 2.), los operadores de cable (ONO, Telecable, Euskaltel y Grupo R) ofrecen los mejores resultados de velocidad de acceso a Internet, confirmando la superioridad de esta tecnología frente al ADSL, que se basa en el aprovechamiento de las antiguas redes de cobre.
Estos datos se muestran en el 2º Monitor de Velocidad de Acceso a Internet, elaborado por el blog Banda Total a partir de los datos oficiales que los operadores de telecomunicaciones con una facturación de más de 20 millones de euros en los servicios de acceso a Internet están obligados a remitir a la Secretaria de Estado de Telecomunicaciones y Sociedad de la Información (SETSI).
El operador español que encabeza este ranking eso ONO, el operador con los mejores datos globales en velocidad de acceso a Internet, con una puntuación acumulada de 21 puntos y una nota media de 8,75 sobre 10. Le siguen el resto de operadores de cable (Euskatel, Telecable y Grupo R), y luego, a más distancia, Telefónica. Las velocidades de acceso a Internet del resto de los 3 operadores de desagregación de bucle (Orange, Jazztel, Ya.com y Tele 2) obtienen un claro suspenso.
En la velocidad media de transferencia de las conexiones de acceso a Internet, los operadores que utilizan la tecnología ADSL obtienen velocidades un 21% más lenta que las de los operadores de cable. En concreto, las de cable alcanzan una media del 90,45% frente a poco más del 69,6% de las operadoras de ADSL.
En las velocidades máximas, el liderazgo también lo mantienen las operadoras de cable, con una diferencia de 20 puntos respecto a la media de los operadores de ADSL. Además, todas las operadoras de ADSL y desagregación de bucle se sitúan en el parámetro de velocidad máxima por debajo del 85 %.
Fuente: 20Minutos.es
Bajo licencia Creative Commons
Ha leído o le han contado alguna vez que policías de Estados Unidos limpian con Coca-Cola la sangre que queda en la carretera tras los accidentes de tráfico, que el consumidor de Actimel corre el riesgo de convertirse en un adicto o que la leche caducada que se vende en envases de cartón puede ser pasteurizada hasta cinco veces? ¿Y ha tenido noticia de que el agua contenida en una botella de plástico, olvidada en el coche en un día caluroso, puede ocasionar cáncer de mama, que los tampones llevan amianto para aumentar el sangrado o que McDonald´s mezcla en sus hamburguesas ojos de vaca?
Nada de todo eso es cierto. Son bulos o ‘hoax’, informaciones falsas difundidas como ciertas y propagadas con total impunidad en internet. La tendencia no es nueva – los bulos encontraron su caldo de cultivo en la red informática y han engordado al mismo ritmo que lo ha hecho la información que corre entre los internautas pero sí que se avistan cambios en las armas utilizadas por las empresas afectadas para combatir esas mentiras. Grandes empresas, como Danone, Coca-Cola o McDonald´s, ocupan un lugar destacado en la lista de objetivos preferidos por los autores de esas patrañas. Hacer oídos sordos a esos bulos, por increíbles y disparatados que puedan parecer, no se apunta como la mejor estrategia si se tiene en cuenta que dos de cada tres cada tres usuarios de internet confesaron, en una encuesta de la Asociación de Internautas, no saber distinguir un hoax de una noticia real o una información cierta.
¿Cómo se originan esos bulos y qué pueden hacer las empresas perjudicadas para salvar la imagen ante una de esas mentiras? Álvaro Bordas, director de comunicación externa de Danone, admite que raras veces se llega a descubrir al autor de esas informaciones falsas. Eso desanima a iniciar cualquier investigación, por lo que lo único que les queda a las firmas difamadas es idear medidas para combatir esas mentiras desde sus propias páginas web para que esa información real llegue rápidamente a los clientes más fieles o a aquellos más despiertos que buscan una confirmación sobre aquello que han leído, les han contado o han escuchado.
Coca-Cola ha decidido, por ejemplo, colgar en su página web todos los hoax encontrados en la red referidos a sus productos, y a esa información falsa se adjuntan informes contrastados para desmontar el bulo. Carlos Chaguaceda, director de comunicación de esta multinacional en España, afirma que la mejor receta para combatir estos bulos «es encajarlos con una actitud desapasionada y asumir que todo eso forma parte de la misma condición humana».
Las grandes compañías más afectadas por estas patrañas saben que no hay arma capaz de detener esas informaciones falsas que se multiplican, hasta contarse por millones, en la red. No es un problema exclusivo de los bulos. Pasa también con las leyendas urbanas, con las fotos robadas y con todo el material que acaba circulando por esa gran autopista cibernética. Pero las víctimas de los hoax sí que idean estrategias para hacer llegar los desmentidos de esos bulos al máximo número de internautas. «Muchas personas seguro que dudan de la veracidad de esas informaciones que llegan a sus correos electrónicos, pero acaban cayendo en la trampa del ´pásalo´, por si acaso», revela Carlos Chaguaceda.
Lo más sorprendente es que la mayoría de esos bulos, que muchos internautas interpretan como una novedad, hace ya años e incluso décadas que corren por la red. Es el caso de una información falsa sobre Actimel, uno de los productos estrella de Danone. «Estamos ya en la tercera oleada del mismo bulo», afirma ÁlvaroBordas. El hoax cuestiona las cualidades nutritivas y saludables de esta leche fermentada. En esa información falsa se cometen errores de bulto al afirmarse que el cuerpo humano genera de forma natural la bacteria – algo imposible en un ser vivo-presente en el Actimel (Lactobacillus casei)y que el organismo deja de producirla cuando se altera la dosis con una ingesta externa.
La información recogida en ese bulo no pasaría el más elemental examen científico o alimentario, pero esa falta de rigor no siempre es detectada por los millones de usuarios que reciben los correos. «En este caso no ha habido ningún efecto sobre las ventas, que siguen funcionando muy bien, pero siempre corres el riesgo de que esa información falsa, cuando llega a tanta gente, pueda perjudicar a la imagen del producto», añade Álvaro Bordas.
En este caso, el desmentido de Danone – que lo ha colgado también en su página web-viene corroborado por un informe del Consejo Superior de Investigaciones Científicas (CSIC) y otro de la Asociación de España de Dietistas y Nutricionistas. Esa actitud, avalada con la seriedad de informes oficiales, empieza a obtener sus primeros resultados ya que desde hace unos meses muchos de los internautas que contribuyeron a propagar el bulo están pasando ahora otro correo – de origen también desconocido-en el que se piden disculpas por haber difundido esa información falsa.
Fuente: LAVANGUARDIA.ES
_______________________
Enlaces relacionados:
Conclusión de las primeras muestras tomadas por el Monitor de Velocidad de Acceso a Internet y publicadas la semana pasada por Banda TOTAL/»>, basadas en datos oficiales de la SETSI (Secretaría de Estado de Telecomunicaciones y Sociedad de la Información).
Las marcas obtenidas por operadoras de cable como Ono, Telecable, Euskaltel y Grupo R son claramente superiores a las registradas por suministradoras de ADSL como Telefónica, Ya.com, Jazztel y Orange.
Fuente: despuesdegoogle
El creador de la World Wide Web, Tim Berners-Lee, ha celebrado el vigésimo cumpleaños de este invento que ha revolucionado la tecnología y el día a día de la sociedad, en una reunión celebrada en el Laboratorio Europeo de Física de Partículas (CERN, en sus siglas en inglés) de Ginebra, la ciudad que la vio nacer.
Hay mentiras que a fuerza de repetirse se vuelven verdades, sobre todo si se difunden por internet. “Paul McCartney está muerto” es una leyenda urbana que data de 1966 y que asegura que el cantante de la legendaria banda de The Beatles murió ese año, y que fue reemplazado por un doble muy parecido a él, con la misma voz: William Campbell.
Oficialmente Paul vive, aunque esta mentira sigue siendo hoy el centro de muchos debates, lo mismo en charlas de café que en reuniones familiares, donde los jóvenes alegan que el músico está muerto porque así lo leyeron en la red, y ni sus padres pueden contradecirlos frente a su fe ciega en este medio.
Así como hubo varias generaciones que sólo creían en algo si lo veían en la televisión, ahora sucede algo similar con internet, donde los rumores de que “Paul está muerto” encontraron nueva vida, ya que muchos sitios web afirman que la evidencia fotográfica prueba que el ex Beatle de antes y después de finales de 1966 no puede ser el mismo hombre.
Los riesgos de la libertad
Los especialistas en la red y en las nuevas tecnologías creen que “la mayor razón para mentir por internet es la enorme difusión de este medio”.
McCartney no ha sido el único personaje víctima de mentiras en torno a su persona, al más reciente Premio Nobel de Literatura, el francés Jean-Marie Gustave Le Clézio, lo declararon muerto un minuto después de haber ganado este galardón en la famosa enciclopedia libre Wikipedia, que se dio a conocer en 2001 y que a la fecha aglutina más de un millón de artículos en inglés y 100 mil en español, además de que permite a los usuarios accesar y modificar sus contenidos.
La llegada del hombre a la Luna fue sin duda uno de los mayores logros de la humanidad, sin embargo, existen dudas que podrían revelar que esta incursión no se realizó en las fechas que todo el mundo conoce. En la web también se difunde la idea de que la famosa foto de los astronautas en la Luna —con la bandera de Estados Unidos— fue tomada en un estudio terrícola.
Es un gran medio, no hay duda, para otros es una herramienta sui generis para que la gente se comunique con gran libertad, y que sus mensajes, sean escritos, gráficos, sonoros, en video o en vivo, lleguen a cualquier parte del mundo, pero internet tiene un grave riesgo: muchas mentiras, falsedades y maldades disfrazadas de verdad circulan libremente por este medio.
Una bola de nieve
Para el escritor Naief Yehya, quien radica en Nueva York y se ha dedicado, entre otros temas, al análisis de la tecnología y su repercusión en la sociedad, como lo hizo en su libro Tecnocultura, una de las cosas más sorprendentes de internet es la posibilidad que nos ofrece de reinventarnos. “Internet, como dijo Sherry Turkle, es el laboratorio del ser, un territorio donde ‘uno puede ser cualquier cosa’, por lo tanto con esa libertad podemos ser tan honestos como nos sea posible imaginar o tan falsos como queramos, podemos expresar nuestras ideas con el fin de ilustrar a otros o de plano engañar sin piedad para ver los resultados y consecuencias de nuestra falsedad”.
En entrevista con EL UNIVERSAL, Yehya dice que la mayor “razón” para mentir por internet es simplemente “poder hacerlo”, es el contar con “un medio que protege nuestra identidad (por lo menos en apariencia ya que alguien medianamente competente puede rastrear a casi cualquiera en la red) al tiempo que nos puede dejar expuestos a la inspección de propios y extraños. “La posibilidad de jugarles bromas a extraños y de vivir vidas con identidades distintas es muy atractiva, aunque también hay quienes tratan de engañar para obtener beneficios”, explica.
El poema “Muere lentamente”, atribuido por error a Pablo Neruda, circula desde hace años por internet sin que nadie sea capaz de detener esa bola de nieve, hasta el punto de que, en España, fueron muchos los que recibieron esos versos como felicitación online este nuevo año. Cualquiera le cuelga a un poeta famoso cuestiones que no ha escrito nunca. Ya sucedió con un conocido texto atribuido a Jorge Luis Borges sobre las maravillas de la vida, que ni con su mayor ironía habría soportado y menos escrito.
Y si sonado fue el caso del supuesto poema de Borges, “Instantes”, que María Kodama, la viuda del escritor argentino, lleva años desmintiendo que sea de su marido y aclarando que en realidad es de la escritora estadounidense Nadine Stair, más famoso fue el apócrifo atribuido a Gabriel García Márquez, “La marioneta”, con el que supuestamente el Premio Nobel colombiano se despedía de sus amigos, tras saber que tenía cáncer.
“Si por un instante Dios se olvidara de que soy una marioneta de trapo y me regalara un trozo de vida, aprovecharía ese tiempo lo más que pudiera…”, decía el texto cuya “cursilería” casi mata de verdad a Gabo, quien se encargó de desmentir, en el año 2000, que ese poema fuera suyo. “Lo que me puede matar es la vergüenza de que alguien crea que de verdad fui yo quien escribió una cosa tan cursi”, dijo el escritor en su momento.
Responsabilidad del que lee
Ana Paula Blanco Sierra, líder de Mexico Global Communications and Public Affairs | Google Inc., dice en entrevista que el gran valor que tiene internet es la democratización de la información y que Google cree firmemente en este concepto. “Ahora bien, el análisis que cada uno haga sobre la información a la que tiene acceso es responsabilidad del que lee, así como es una obligación del generador de contenido otorgar datos verídicos en el tipo de información que ofrece, si es un hecho con fuentes confirmadas o una opinión”.
Para Blanco Sierra, es necesario contar con plataformas que permitan, y de hecho llamen a un mayor compromiso con la libre expresión.
“Plataformas como Blogger, Picasa y YouTube, donde conviven comunidades que comparten información, son autorreguladas, y cualquier información que no sea relevante o que llame la atención de manera negativa de algún miembro de la comunidad puede ser amonestada por los mismos usuarios.
“En Google hemos desarrollado mecanismos para que nos diga qué información está yendo en contra de nuestras políticas, por ejemplo los ‘flags’ o marcas en YouTube”, cuenta.
Y agrega: “Google es un medio, no un generador de contenidos, que se ha dedicado a desarrollar productos que respondan a dicha misión y permitan a los usuarios encontrar información relevante a su interés o razón de búsqueda, de manera ordenada, sencilla y rápida en la mayor cantidad de dispositivos posibles, facilitando la universalidad en el acceso a la información”.
Dado que gran número de jóvenes y adultos tienen “fe ciega” en internet, el mayor impacto que pueden tener estas mentiras en su percepción del mundo y la realidad pasa por varias aristas.
Al respecto, Naief Yehya dice: “El impacto que pueden tener las mentiras o distorsiones en la red pueden ser desde divertidas hasta catastróficas. Podemos tener engaños simpáticos o bien tergiversaciones de la historia graves. Pero es claro que así como hubo varias generaciones que tan sólo creían en algo si lo veían en la tele, ahora sucede algo parecido con internet.
“Un ejemplo significativo es la Wikipedia, una enciclopedia abierta que se va formando por las participaciones de los usuarios, así el conocimiento se va puliendo y depurando sin contar con una autoridad que valide las ideas. Por supuesto que esta es una herramienta valiosa y versatil, sin embargo, puede ser una fuente de desinformación espantosa”
Fuente: eluniversal.com.mx
En una entrevista con Efe, el máximo responsable de la Agencia Española de Protección de Datos subrayó que los ciudadanos saben los peligros que conlleva el intercambio de información, sobre todo cuando utilizan las nuevas tecnologías como internet.
«Intuyen que dejan rastro y que sus datos personales van a ser conservados, pero no son tan conocedores del alcance de esos rastros y de que pueden ejercer determinados derechos para cancelar esa información», aseveró Artemi Rallo.
Apeló, frente a ese «desconocimiento» que todavía puede existir, a la necesidad de que la industria y los suministradores de servicios a través de internet «minimicen los riesgos asociados a ese desconocimiento», y advirtió de la especial vulnerabilidad de los jóvenes en ese sentido.
Según el director de la Agencia de Protección de Datos, las principales amenazas han cambiado durante los últimos años, y en la actualidad uno de los mayores peligros se centra en la publicidad transmitida a través de medios tecnológicos, sobre todo por el teléfono móvil, y la difusión de imágenes por internet.
Apostó en ese sentido por que el sistema educativo forme a los alumnos sobre el derecho constitucional a la protección de los datos personales, y por que la formación en las aulas sobre la utilización de las modernas tecnologías incluya también nociones sobre los riesgos que éstas conllevan.
La legislación española que regula la protección de los datos personales es «especialmente estricta» y observó que la trasposición de la directiva europea sobre esta materia ha sido muy desigual, «pero España diseñó un modelo en el que prima la garantía efectiva del derecho de los ciudadanos».
Precisó que eso implica que cada denuncia que interpone un ciudadano «se estudia y se investiga y puede dar lugar a la sanción correspondiente».
Destacó en ese sentido la importancia de las sanciones y de las multas que la Agencia Española de Protección de Datos ha impuesto durante los últimos años: 20 millones euros en 2005, 25 millones en 2006 y cerca de 20 millones en 2007, cantidades muy superiores a las de los países europeos del entorno.
Rallo precisó que eso se debe a que otros países no responden al mismo modelo «y apelan más a la prevención y a la pedagogía» para tratar de garantizar la protección de los datos.
Fuente: EFE
El spam ha vuelto. La caída de los servidores de la empresa californiana McColo provocó hace dos semanas que los niveles de correos basura se redujesen a nivel mundial hasta un tercio del total. Sin embargo, los expertos están constatando que estos índices vuelven a remontar.
Los expertos del sector aún no tienen muy claro el grado en el que el spam ha retomado su protagonismo, pero la mayoría cree que los niveles de hace dos semanas se alcanzarán muy pronto.
En total unos 450.000 ordenadores infectados han sido divisados intentando conectarse a los servidores de McColo. Por su parte, la empresa de seguridad IronPort Systems considera que por ahora, el spam se mantiene por debajo de la mitad de la caída de dichos servidores. Mientras que otra empresa especializada en el sector, Messagelabs, baraja datos que también hablan de un incremento en las últimas semanas.
El motivo por el que los niveles de spam se redujeron hace unas semanas se debe a que los servidores de esta empresa californiana daban cobijo a botnets, robots que ejecutan de manera automática el envío de spam. Sin embargo, estos botnets han sido programados con una fórmula matemática que les hace sobrevivir en caso de que el servidor falle.
A pesar de ello, las empresas de seguridad alertan que el spam sigue un ciclo, y uno de los periodos en los que más se incrementa es en Navidad, por lo que es muy posible que los niveles vuelvan a situarse a los de hace unas semanas.
Fuente: ElPais.com