Desde 1988, cada 30 de noviembre se celebra el Día de la Seguridad Informática con el fin de generar conciencia y alertar a los usuarios acerca de las amenazas más comunes en lo que refiere a seguridad informática, a los mitos de protección que existen y con los que muchos piensan que están protegidos sin tomar precaución alguna.
Se inició en Estados Unidos y se comenzó a celebrar en otros países como España, México y gran parte de América Latina.
Las campañas de phishing, apoyadas en técnicas de Ingeniería Social siguen siendo una de las principales amenazas. Correos electrónicos falsos de bancos, empresas de telefonía móvil celular o de reconocidos servicios en internet buscan robar información sensible como nombres de usuario, contraseñas o números de tarjetas de crédito. Así que a estar muy atentos con los correos y mensajes que recibes, no vaya a ser que caigas en un engaño y entregues toda tu información.
¿Quién no recibe por lo menos un par de fastidiosos mensajes spam en el día?. Si bien muchas soluciones de seguridad ofrecen filtros antispam e incluso los principales servicios de correo electrónico cuentan con herramientas para controlar estos molestos mensajes, es tanta la cantidad que se genera que aún sigue siendo una molestia. Tal vez lo más peligroso de todo este tema, es que algunos mensajes pueden estar enlazados a sitios con contenido malicioso.
La gran cantidad de información publicada en internet y el poco cuidado al momento de acceder a contenidos son la combinación perfecta para que se camuflen aplicaciones que busquen estafar a los más desprevenidos: aplicaciones que cambian el aspecto o color de Facebook, falsos plugins para reproducir videos, aplicaciones falsas como Whatsapp para PC son algunos de los ejemplos de las preferidas por los atacantes para engañar a los usuarios.
Virus, troyanos, gusanos, botnets… además los atacantes buscan propagarlos a través de múltiples canales: correo electrónico, mensajes en redes sociales, SMS, aplicaciones con crack, falsos vídeos o fotografías, sitios web modificados: las variables son tantas que la mejor alternativa además de ser muy cuidadosos es contar con una solución de seguridad que nos proteja de la infección con algún tipo de malware.
Por último, vale la pena mencionar las contraseñas: queridas por muchos, dolor de cabeza para otros. Sea para entrar al correo electrónico, a redes sociales, al sistema de la empresa o la universidad, para desbloquear la computadora o el smartphone o para cifrar nuestra información más valiosa pareciera que las utilizamos en todas partes. Y dependiendo del buen uso que les demos va a depender en gran medida el nivel de seguridad de la información que queremos proteger. Tener una contraseña robusta, no utilizar la misma en todos los servicios y además hacer uso de un segundo factor de autenticación puede ayudar a que sea realmente efectiva la protección.
Fuente: eseT Blog de laboratorio
En el universo como un todo, el helio es uno de los elementos más comunes: sólo el hidrógeno lo supera en términos de abundancia.
Sin embargo, en la Tierra es relativamente raro. Además, es uno de los pocos elementos a los que la gravedad no amarra, así que se fuga al espacio.
«Es posible que si nos ponemos a cavar en los basureros del mundo podríamos recuperar todos los otros elementos que hemos dispersado alrededor del globo», le dice a la BBC el químico Andrea Sella, del University College London (UCL).
«Pero el helio es único. Cuando se va, lo perdemos para siempre».
El helio tiene el menor punto de ebullición de cualquier elemento, -269 C, sólo unos pocos grados sobre cero absoluto (-273 C).
Esa característica es de importancia fundamental para los imanes superconductores que se utilizan en los escáneres de MRI o IRM (imagen por resonancia magnética), que deben ser sometidos a temperaturas muy bajas para generar los campos magnéticos necesarios.
«En el futuro vamos a pensar: ‘¡no puedo creer que la gente usaba el helio para inflar globos, cuando es un elemento tan valioso y único!'», predice el químico de la Universidad de Cambridge Peter Wothers, quien ha llamado a terminar con los globos de helio para fiestas.
El gas, que se forma por el decaimiento de rocas radiactivas en la corteza terrestre, se acumula en depósitos de gas natural y se recoge como un subproducto de la industria del gas.
Estados Unidos es actualmente el mayor proveedor mundial, con la mayor parte de lo almacenado cerca de Amarillo, Texas, en la Reserva Nacional de Helio, la cual por sí sola representa el 35% de la oferta actual del mundo.
En 1925 se estableció como reserva estratégica para suministrar gas a aeronaves de Estados Unidos, y después de la Segunda Guerra Mundial proporcionó refrigerante para misiles y cohetes del ejército y la Nasa.
Para algunos científicos, un recurso finito que podría algún día acabarse no debe utilizarse para inflar globos de fiesta.
En el universo como un todo, el helio es uno de los elementos más comunes: sólo el hidrógeno lo supera en términos de abundancia.
Correlación no implica causalidad, hay que decirlo más (si queréis, con la entonación que Ernesto Sevilla le daba a cierto insulto muy español en cierto vídeo que fue un fenómeno de internet hace un tiempo…). Y hay que decirlo más porque en general no llegamos a comprender qué significa esta frase. Bueno, o eso o que aun comprendiéndola intentamos confundir a quien no la entiende haciéndole creer que una cosa sí que implica a la otra.
Prácticamente a diario nos encontramos en (principalmente) medios de comunicación noticias cuyo titular tiene una estructura parecida a algunos de los siguientes:
Un estudio afirma que cuanto más A más B.
Un estudio afirma que quienes son A tienen menos B.
Un estudio afirma que dado que A es así entonces B es de esta otra forma.
…
En principio, todos esos titulares indican básicamente que lo que dice A es lo que provoca que ocurra B, o, lo que es lo mismo, que B es consecuencia de A. Normalmente, cuando uno se lee esas noticias, acaba dándose cuenta de que lo que hay es una correlación entre A y B (vamos, una relación entre esos dos sucesos), pero, en principio, sin ningún indicio de que sea uno de ellos, A en este caso, el que provoca el otro, B.
El estudio de la correlación entre dos variables es uno de los temas que se trata en Estadística. Resumiendo un poco, la cuestión sería algo como lo siguiente:
– A partir de ciertos datos obtenidos de cada una de esas variables uno estima si hay alguna relación entre ellas. La que se estudia con mayor frecuencia es la llamada regresión lineal (mediante la que buscamos si hay relación lineal hay entre las variables), pero hay muchos más tipos posibles: cuadrática, exponencial, logarítmica…
– Con esos datos se calcula una función (que, por ejemplo, en regresión lineal es una recta) que nos determina exactamente qué relación hay entre esas variables.
– Se estudia la correlación real entre ellas (es decir, cómo de fuerte es la relación que habíamos estimado a partir de los datos iniciales) mediante un coeficiente de correlación.
Este coeficiente suele tomar valores entre -1 y 1, y se interpreta de la siguiente forma:
Ahora, que la relación entre las variables sea muy fuerte (esto es, que sea casi 1 o casi -1) no significa que una de ellas sea la causa de la otra. En ningún sitio esta teoría nos deja asegurar con tanta ligereza que el hecho de que haya una correlación muy fuerte entre A y B significa que la variable A es la que está provocado que se presente la variable B. La teoría habla de relación entre las variables, no de que una sea la causa de la otra.
Todo esto de la mala interpretación de la correlación también se encuentra, y en demasiadas ocasiones, en estudios científicos supuestamente serios. No son pocos los estudios que al encontrar una cierta relación entre dos variables presentes en los sujetos estudiados se tiran a la piscina afirmando que por tanto una de ellas es la causa de la otra, cuando en realidad en dichos estudios no hay ninguna evidencia de que esto sea verdad (simplemente hay correlación).
Supongo que más de uno se estará preguntando lo siguiente: ¿entonces es mentira que correlación implique causalidad? Pues no, no es mentira, y verdad tampoco. Me explico:
Cuando se dice que la frase correlación no implica causalidad (en latín, Cum hoc ergo procter hoc) es cierta lo que se quiere decir es que el hecho de que haya correlación entre dos variables no significa que una provoque a la otra, pero eso no significa que si encontramos correlación entre dos variables automáticamente podamos descartar que una sea causa de la otra. Hay casos en los que A es la causa de que ocurra B, en otros es al revés, en otros hay alguna variable adicional la que hace que se produzca esa correlación…y a veces todo es fruto de la casualidad (sí, casualidad, no “causalidad”).
El problema de creerse que una fuerte correlación implica una cierta relación causal entre las variables es que esa creencia se puede usar (malintencionadamente o no) para engañarnos, ya que no es demasiado difícil encontrar correlación entre dos variables que en principio ni están relacionadas a poco que queramos “forzarla”.
Por ejemplo, si os digo que el descenso de piratas en el mundo está provocando una subida de la temperatura media global de nuestro planeta, ¿qué pensaríais? Posiblemente que estoy muy mal de la cabeza, ¿no?
Artículo completo en: Gaussianos
Creative Commons acaba de lanzar una versión 4.0 renovada de sus licencias que permite un uso más global de las licencias para que estas se adapten a la legislación de cada país.
Según revela el portal Arnnet, las nuevas modificaciones se han desarrollado tras un trabajo de dos años en el que han colaborado expertos legales de todo el mundo para “renovar y perfeccionar” las licencias. La nueva versión 4.0 de Creative Commons permite un uso más sencillo e internacional de estos permisos legales, que el proporcionado hasta ahora esta plataforma. De esta manera, las modificaciones introducidas ofrecen seis licencias estándar para que tanto artistas, autores, científicos o profesores “puedan gestionar sus derechos de autos de una manera más flexible”, aseguran desde Creative.
Junto a esta implementación, las bases de datos no están cubiertas por la anterior versión 3.0, por lo que se eliminan posibles confusiones ocasionadas en ciertas jurisdicciones en torno a sus derechos. A esta mejora añade un mayor anonimato para el usuario, al tiempo que se incluye la posibilidad de solicitar una licencia para eliminar la atribución de una adaptación de la obra, lo que implica que los propietarios de la licencia pueden elegir cuándo quieren realizar la atribución de su trabajo.
Fuente: ITespresso.es
Investigadores de la Universidad de Tel Aviv (Israel) allanan el paso a una nueva era en la nanotecnología, los transistores hechos de sangre, leche y moco.
Las proteínas de la sangre, la leche y moco pronto podría sustituir al silicio para producir transistores, que amplifican las señales eléctricas y se encuentran en la base de la tecnología más moderna. Una de las ventajas más importantes de este descubrimiento es que estos transistores serán biodegradables.
Un equipo de investigadores, entre ellos los estudiantes Elad Mentovich y Netta Hendler del Departamento de Química de la Universidad de Tel Aviv y el Centro de Nanociencia y Nanotecnología , con el supervisor Shachar Richter y en colaboración con el Prof. Michael Gozin y el estudiante Bogdan Belgorodsky. , han unido la biología y la química para crear un automontaje de transistores a base de proteínas.
Cada proteína tiene propiedades únicas y cuando se mezclan, juntas pueden crear un circuito completo con capacidades electrónicas y ópticas con una gran flexibilidad en términos de conductividad, de almacenamiento de memoria , y fluorescencia .
Las proteínas de la sangre pueden absorber oxígeno permitiendo a los investigadores agregar diferentes productos químicos para ajustar las propiedades de los semiconductores con el fin de crear propiedades tecnológicas específicas. Las proteínas de la leche, que son fuertes y estables en ambientes diferentes, forman las fibras que se convierten en los componentes básicos de los transistores. Por último, las proteínas de la mucosa tienen la capacidad para mantener la fluorescencia de colores rojo, verde y azul separados, creando juntos la emisión de luz blanca que es necesaria para la óptica avanzada.
Si esto puede ser ampliado, habrá una importante revolución en la tecnología a nanoescala. En primer lugar, habrá un cambio de una época de silicio a una era de carbono, y estos productos serán biodegradables, señala Mentovich.
Apple, Nokia y todas las grandes compañías electrónicas podrían finalmente ayudar a abordar el creciente problema de los desechos electrónicos, que desbordan los vertederos de todo el mundo.
En segundo lugar, los transistores construidos a partir de las proteínas de la sangre, la leche y moco será ideales para la producción de dispositivos pequeños y flexibles. La tecnología actual que utiliza silicio es de 18 nanometros, pero en el caso de proteína de la sangre, por ejemplo, la película es de aproximadamente cuatro nanómetros.
Este avance en la electrónica biológica podría conducir a una nueva gama de tecnologías flexibles, pantallas, teléfonos móviles, tabletas, biosensores, y chips de microprocesadores. La esperanza es que esto puede conducir a una tecnología más flexible y respetuoso con el medio ambiente .
Unos científicos han usado dos moléculas como antenas y han conseguido transmitir señales en forma de fotones individuales, desde una a la otra.
Una conexión de radio establecida mediante fotones individuales sería ideal para diversas aplicaciones de comunicación cuántica, como por ejemplo en la criptografía cuántica o en una computadora cuántica.
Las partículas individuales de luz son el medio elegido para transmitir bits cuánticos. En el futuro, estas unidades de información cuántica podrían sustituir en muchas aplicaciones a los bits convencionales si la computación cuántica logra despegar.
Puesto que un fotón solo no acostumbra a interactuar mucho con una molécula, los físicos tuvieron que usar ciertos «trucos» en sus experimentos, a fin de conseguir que la molécula receptora registrara la señal luminosa. Se valieron de dos capas dopadas con moléculas de tinte, separadas por varios metros y conectadas por un cable de fibra óptica. Y se trabajó con muestras enfriadas hasta 272 grados Celsius bajo cero, es decir, casi hasta el cero absoluto aproximadamente 273,15 grados bajo cero.
Fuente: NANOTECNOLOGIA UDLAP
Ingenieros de la Universidad de Stanford (EE UU.) han logrado construir por primera vez un ordenador hecho íntegramente con transistores de nanotubos de carbono (CNT, por sus siglas en inglés).
Se trata de un dispositivo todavía muy básico, pero que incluye un sistema operativo y es capaz de ejecutar varios programas al mismo tiempo
Entre las dificultades que tiene trabajar con este material destaca que los nanotubos de carbono no crecen en líneas paralelas, como a los fabricantes de chips les gustaría. Otro problema es que una porción de estos nanotubos pueden acabar comportándose como cables metálicos que siempre conducen electricidad en vez de comportarse como semiconductores que pueden apagarse, señala la Universidad de Stanford en un comunicado.
El ordenador fue capaz de realizar tareas como contar y ordenar números. Además, incorpora un sistema operativo básico. Para mostrar su potencial, los investigadores probaron que el dispositivo también podía ejecutar una instrucción comercial denominada MIPS (Microprocessor without Interlocked Pipeline Stages), desarrollada a comienzos de la década de los ochenta del siglo pasado por John Hennessy, ingeniero y actual presidente de la Universidad de Stanford.
Fuente: NANOTECNOLOGIA UDLAP
Se aproxima la Navidad y uno de los indicadores claros son las colas que se forman alrededor del puesto de loterías Doña Manolita, en Madrid, en el que pueden comprar números que tienen exactamente la misma probabilidad de ser premiados que en cualquier otro expendedor de loterías Los puestos de venta ambulante que se situan en la Puerta del Sol y alrededores aprovechan el tirón irracional para vender ellos también lotería del mismo establecimiento y no dudan en anunciarlo lo más alto que pueden.
Como no todo el mundo puede hacerse con números de esa administración, propongo el siguiente cartel para los vendedores ambulantes que no pueden acceder a ellos por sus circunstancias particulares:
Fuente: Las penas del Agente Smith
¿Que tan fiable es este método visto Sálvame Deluxe?
El polígrafo o “detector de mentiras” es un complicado artilugio compuesto por una serie de sensores que mide el ritmo cardiaco, la presión sanguínea y la sudoración, y refleja sus variaciones en una serie de gráficas que luego son interpretadas por un “experto” en la materia.
Según afirman sus defensores, este dispositivo permite medir las reacciones corporales de las emociones: Una mentira se reflejaría indudablemente en un aumento en la sudoración, el ritmo cardíaco y la presión arterial.
El método más habitual de utilizarlo consiste en un interrogatorio en el que se se hacen preguntas muy obvias e inocuas como ¿es usted fulano de tal? para luego, alternarlas con preguntas mucho más comprometedoras como ¿le fuiste infiel a tu pareja con aquel chico que nadie conocía pero que decidimos convertirlo en famoso porque no tenemos nada mejor que sacar en el programa?.
Lo primero que sería importante saber es que el artefacto en cuestión es bastante preciso. Todo el problema radica en la interpretación que pueda dar el “experto” a esos datos: No existe ninguna medida que sirva de referencia. No hay un standard que sirve para calibrar el polígrafo. Un aumento en la presión arterial o en el volumen de la aspiración durante la respiración, no significa que el examinado en cuestión esté mintiendo. Un “perito” demasiado riguroso puede obtener demasiados falsos positivos, mientras que uno muy relajado y permisivo obtendrá demasiados falsos negativos. El margen de error es tan grande que su validez apenas está por encima de la grafología.
El físico y profesor universitario Robert Lee Park comentó una vez irónicamente: ‘El polígrafo descubre incrementos abruptos en el ritmo cardiaco, la presión sanguínea y la sudoración, por lo tanto, esta máquina es un detector muy fiable de orgasmos. Pero, ¿detecta mentiras?. Sólo si uno está fingiendo un orgasmo’.
Recientemente, Marcelino Sexmero, portavoz de la asociación de jueces Francisco de Vitoria se mostró tajante sobre este instrumento: “La prueba del polígrafo es nula, inexistente, inválida y además no es prueba en sí misma porque no tiene ninguna garantía de fehaciencia. Estamos hablando de un 20-30% de fiabilidad cuando lo que exigimos de cualquier prueba técnica es que supere el 90%”.
Fuente: MITOSYFRAUDES