admin

Categorías

Coobis

Sin clasificar

Sin una clasificación clara

Ubuntu 9.04 soporta ARM

El release oficial de Ubuntu 9.04 se realizará el próximo jueves 23 y además de las características que hemos comentado previamente, por primera vez se incluirá el soporte de arquitectura ARM. Se trata de la arquitectura que es la base de muchos dispositivos como los Mobile Internet Devices (MID’s) y también se encuentra en algunos netbooks.

Actualmente hay una batalla que se está llevando a cabo en el mercado low-end de los procesadores, en donde se ha tratado de maximizar el performance con un mínimo consumo de energía. En esta batalla encontramos al procesador Atom de Intel y los sistemas ARM.

En 1985 se introdujo el primer procesador basado en ARM, y hoy en día de los más de mil millones de nuevos teléfonos móviles que se venden cada año, el 98% de ellos utiliza ARM. También se encuentra en los iPods, otros reproductores multimedia portátiles, discos duros, routers y todo tipo de dispositivos de bajo consumo y alta velocidad.

Los procesadores ARM actuales son implementaciones de 32 bits basadas en RISC (Reduced Instrucion Set Computer), esto quiere decir que son procesadores con pocas y sencillas instrucciones que facilitan su diseño interno y permiten hacer más optimizaciones a la hora de compilar aplicaciones o ejecutar su código en el procesador. En comparación, por motivos de compatibilidad, la arquitectura x86 es a ojos de los compiladores una arquitectura CISC (Complex Instruction Set Computer), aunque internamente se ejecuta como RISC, el problema es que a nivel de compilador o programación directa en assembler no se puede llegar a manejar el nivel de detalle de las operaciones RISC que se ejecutarán finalmente en el procesador.

Además los procesadores ARM permiten usar un conjunto de instrucciones que ocupan muy pocos bytes por cada operación, esto se traduce a la larga en un mejor uso del caché de instrucciones y por lo tanto se reduce aun más el consumo de energía.

Linux tiene un diseño multi-arquitectura desde hace años, incluyendo el soporte de ARM, por lo tanto la llegada de Ubuntu 9.04 a ARM es una progresión natural. Ahora con Ubuntu los usuarios tendrán la oportunidad de tener el mismo sistema tanto en sus equipos de escritorio como en los móviles.

El primer Ubuntu sobre ARM fue demostrado hace un año, y se trataba de un port que podía arrancar el sistema y mostrar sólo algunas de las aplicaciones populares (como GIMP). En este momento el soporte es mucho mayor, aunque todavía quedan problemas por resolver con algunas aplicaciones como Java, Mono, y el compilador Fortran G77. Se está trabajando en este tema y se espera que la versión ARM sea tan estable como las versiones i386 y AMD64.

Para los aventureros con equipos ARM, pueden probar el beta de Ubuntu 9.04 para ARM.

Autor: Franco Catrin

Fuente: FayerWayer

Bajo licencia Creative Commons

Virus para móviles no constituyen una amenaza real

Los informes del laboratorio de seguridad de G Data revelan que la creación de malware para teléfonos móviles lleva años estancada, constituyendo hoy en día el 0.01% de la amenazas de seguridad.

Diario Ti: Los dispositivos móviles no están en el punto de mira de los ciberdelincuentes, y la amenaza que los virus pueden suponer para los teléfonos móviles y PDAs no pasa de anecdótica. Esto se desprende de los últimos informes de seguridad de G Data.

“Lejos de lo que muchos interesados no paran de pregonar, los virus para teléfonos móviles no constituyen, hoy por hoy, una amenaza seria», afirma Ralf Benzmüller, responsable de los laboratorios de seguridad de G Data. “Pero no caigamos tampoco en un malentendido: no se trata de que no sea posible infectar un dispositivo de este tipo –que lo es-, ni de que no exista riesgo alguno –que, aunque pequeño, existe-; lo interesante es que, con los datos en la mano, ahora mismo la programación de malware para estas plataformas no resulta atractiva, ni en términos de coste ni de beneficio».

El 99,2% de todo el malware puesto en circulación durante la segunda mitad de 2008 estaba diseñado para atacar Windows, en donde los ciberdelincuentes sí encuentran oportunidades claras de sacar provecho a las infecciones. Por el contrario, como los teléfonos móviles se basan en distintos sistemas operativos no predominantes (Symbian, Windows Mobile, OS X iPhone), y cada uno de ellos adaptados en función de la marca y el modelo del aparato en el que se utilizan, el eventual impacto del malware es muy limitado y no llega a compensar el tiempo invertido por los ciberdelincuentes en su desarrollo.

En la primera mitad de 2008 únicamente aparecieron 41 nuevos virus para teléfonos móviles, y otros 70 en la segunda. Tales 70 casos no llegaron a representar un 0,01% del total de malware puesto en circulación durante el segundo semestre de 2008, cuando se detectaron 894.250 nuevas amenazas. “Basta con comparar ambas cifras para darse cuenta de lo anecdótico de las amenazas para teléfonos móviles, más aún si atendemos a la omnipresencia de estos dispositivos en nuestro día a día», añade Benzmüller.

En consecuencia, G Data insiste en que no es admisible intentar despertar el miedo entre los usuarios de dispositivos móviles para que procedan a instalar una solución de seguridad en ellos. De hecho, y pese a haberse registrado 111 nuevos virus en 2008, la creación de malware para smartphones lleva años estancada, desde los 145 nuevos virus surgidos en 2005 hasta los 73 de 2006 o los 23 de 2007.

Fuente: diarioTi.com

Verizon adjudica a Alcatel y Ericsson el primer móvil 4G

El vicepresidente de la operadora estadounidense Verizon, Dick Lynch, anunció ayer en el Mobile World Congress de Barcelona que ha llegado a un acuerdo con Ericsson y Alcatel-Lucent cuyo objetivo es desplegar la primera red de cuarta generación de móviles (LTE) que existirá en el mundo. La infraestructura estará operativa en el 2010 en Estados Unidos y permitirá alcanzar velocidades en transmisión de datos de 50 megabits por segundo.

La comunicación se ha convertido en el anuncio más celebrado por los fabricantes de redes; incluso por aquellos que no han resultado elegidos por la estadounidense. Ahora todos esperan que se abra la veda y que el resto de compañías de servicios en movilidad se sientan obligadas a seguir los pasos de Verizon.

De hecho la empresa estadounidense no es la primera en posicionarse en LTE. Se le adelantó la operadora nórdica Telia-Sonera, aunque tiene un plan de despliegue a más largo plazo.

Fuentes de Alcatel-Lucent se mostraron muy satisfechas por la elección realizada por Verizon y dijeron que sirve para demostrar lo adecuado del trabajo que viene realizando la empresa franco estadounidense que ha tenido un papel poco relevante en el desarrollo de los estándares de la segunda y tercera generaciones de móvil.

Tanto Ericsson como Alcatel-Lucent han señalado la importancia de este contrato, que les coloca en una privilegiada posición en el inicio del despliegue de las nuevas redes.

Verizon también ha anunciado que Nokia Siemens Networks y Alcatel-Lucent han sido seleccionados como proveedores principales para el periodo de investigación del subsistema multimedia (IMS) de red, que permitirá las nuevas aplicaciones multimedia. IMS está considerado como una parte fundamental de los servicios que soportarán las nuevas redes.

Más velocidad

Las infraestructuras celulares de cuarta generación basadas en LTE ofrecen más que velocidad. Además de simplificar el correo electrónico y el acceso a internet y conseguir servicio de vídeo de calidad superior, los usuarios inalámbricos podrán disponer de las aplicaciones que acostumbran a utilizar en casa o en la oficina dentro del mundo móvil.

Fuente: CincoDias

Uno de cada tres españoles no está interesado en la ciencia

Un hombre joven, con estudios universitarios y que vive en una ciudad con más de un millón de habitantes. Este es el perfil de las personas que muestran un mayor interés por la ciencia y la tecnología, según la IV Encuesta Nacional de Percepción Social de la Ciencia y la Tecnología 2008 de la Fundación Española para la Ciencia y la Tecnología (FECYT). El porcentaje de aquellos que aseguran no sentirse atraídos por la ciencia y la tecnología ha disminuido respecto a 2006, cuando se hizo la última encuestra, del 36,6% al 31,7%. El «no las entiendo» (33,6%) sigue siendo el principal motivo que justifica esa ausencia de interés.

El estudio refleja que los hombres (13,1%) muestran más del doble de interés que las mujeres (6,1%) por la ciencia y la tecnología. «La edad es fundamental. Los jóvenes de entre 15 y 24 años han nacido en un mundo con más interés por la ciencia», ha explicado el presidente de la FECYT, Juan Tomás Hernani, que ha agregado que este grupo poblacional es el «más enganchado» y que el interés decrece conforme uno se hace mayor.

Respecto a los temas que más valoran los ciudadanos, la ciencia y la tecnología ocupan la decimotercera posición, «una posición digna», según Hernani, por debajo del terrorismo y seguidas de los sucesos, los viajes y el turismo, la prensa rosa, la astrología, la vivienda o la inmigración. Por primera vez, la medicina y la salud encabezan esta lista de preocupaciones (35,2%), seguidas de los deportes, el empleo, la alimentación y el consumo, la economía y las empresas, la educación, el medio ambiente y la ecología, el arte y la cultura, la política, los temas sociales, el cine y los espectáculos.

En cuanto a la fuente de información científica que citan mayoritariamente los encuestados gana la televisión (82,3%), pero cuando se analizan las respuestas por segmentos de edad se aprecia la «gran presencia» de Internet en los jóvenes de entre 15 y 24 años (61,6%) y de entre 25 y 34 años (50,4%). Un gran porcentaje de consultados considera que la prensa, la televisión y la radio dedican una atención «insuficiente» a la información científica.

Mayores seguidores

Por comunidades autónomas, los catalanes (14,5%), madrileños (14,3%), vascos (13%), navarros (10,4%) y aragoneses (9,9%) son los que más interés muestran por la ciencia y la tecnología, mientras que Murcia (3%), Asturias (5,5%), Extremadura (5,7%), Andalucía (6,2%) y Castilla y León (6,2%) son las autonomías que menos.

Desde 2004 ha descendido en un 20% el número de personas que creen que su formación científica ha sido baja o muy baja (45,8 %) y aumenta el porcentaje de personas que consideran «normal» la educación científica y técnica recibida (45,4%).

Para el estudio, llevado a cabo por la empresa SIGMADOS, se han realizado 7.367 entrevistas en toda España.

Fuente: ElPais.com

Kilby, hoy, hace 50 años, envío la patente del circuito integrado

Miniaturized Electronic Circuits,” Filed Feb. 6, 1959, Patent #3,138,743, June 23, 1964.

Jack S. Kilby trabajaba en Texas Instruments en Dallas allá por 1958. Durante el verano concibió el circuito electrónico minuaturizado (monolítico), en el que todos los componentes, tanto activos (diodos, transistores) como pasivos (resistencias, condensadores, inductancias) se fabricaban en una sóla pieza de material semiconductor. El 12 de septiembre de 1958 logró la primera demostración experimental de este nuevo concepto.

1958: Invention of the Integrated Circuit
Texas Instruments’ first IC
As with many inventions, two people had the idea for an integrated circuit at almost the same time. Transistors had become commonplace in everything from radios to phones to computers, and now manufacturers wanted something even better. Sure, transistors were smaller than vacuum tubes, but for some of the newest electronics, they weren’t small enough.

But there was a limit on how small you could make each transistor, since after it was made it had to be connected to wires and other electronics. The transistors were already at the limit of what steady hands and tiny tweezers could handle. So, scientists wanted to make a whole circuit — the transistors, the wires, everything else they needed — in a single blow. If they could create a miniature circuit in just one step, all the parts could be made much smaller.

One day in late July, Jack Kilby was sitting alone at Texas Instruments. He had been hired only a couple of months earlier and so he wasn’t able to take vacation time when practically everyone else did. The halls were deserted, and he had lots of time to think. It suddenly occurred to him that all parts of a circuit, not just the transistor, could be made out of silicon. At the time, nobody was making capacitors or resistors out of semiconductors. If it could be done then the entire circuit could be built out of a single crystal — making it smaller and much easier to produce. Kilby’s boss liked the idea, and told him to get to work. By September 12, Kilby had built a working model, and on February 6, Texas Instruments filed a patent. Their first “Solid Circuit” the size of a pencil point, was shown off for the first time in March.

But over in California, another man had similar ideas. In January of 1959, Robert Noyce was working at the small Fairchild Semiconductor startup company. He also realized a whole circuit could be made on a single chip. While Kilby had hammered out the details of making individual components, Noyce thought of a much better way to connect the parts. That spring, Fairchild began a push to build what they called “unitary circuits” and they also applied for a patent on the idea. Knowing that TI had already filed a patent on something similar, Fairchild wrote out a highly detailed application, hoping that it wouldn’t infringe on TI ’s similar device.

All that detail paid off. On April 25, 1961, the patent office awarded the first patent for an integrated circuit to Robert Noyce while Kilby’s application was still being analyzed. Today, both men are acknowledged as having independently conceived of the idea.

Fuente:Francis (th)E mule Science’s News

De software, internet, legales Redescubriendo al Dijkstra provocador 18 años después

Hay profesores, lecturas y autores que te influyen desde joven y forjan las ideas y posturas que te perfilan como profesional. Los que me siguen en este blog, o los que han leído mis argumentos –o los de la ACM– respecto a regulaciones (sobre el que no pretendo volver en este apunto, es sólo una autoreferencia) conocen mi postura bastante escéptica sobre el “estado de la ingeniería del software” y el rechazo fanático a las buzzwords y promesas de panaceas.

Varias veces he comentado y citado que casi toda la bibliografía de ingeniería de software de las últimas décadas es sólo una recopilación de anécdotas y estadísticas, casi una pseudociencia, a la que solemos adorar como si la última metodología fuese la bala de plata, la que dará el fundamento a la ingeniería. Pero hace mucho que ya no creo en esto, sobre todo cuando observas que cada cinco años aparece una nueva mutación de metodología que promete ser La Herramienta de la ingeniería del software.

No recordaba cuál bien el camino recorrido, o cuál fue el punto de partida o desvío tomado, para que haya asumido esta postura muy escéptica y bastante minoritaria entre mis colegas y compañeros. Recuerdo que cuando acabé mi último examen y fui con una beca a hacer mi PFC –enero de 1990– me creía el rey del mambo. Estaba seguro que mi formación y presunto dominio del diseño funcional, la visión “sistémica-holística” (sí, vaya, pero eso fueron también los inicios de Scrum basado en trabajos de Hirotaka Takeuchi en 1986) y el dominio de la metodología de moda en aquél momento –Gane-Sarson, luego “mutó” en la de Yourdon– me convertiría en un sólido profesional informático resolvedor de problemas complejos y que encontraría soluciones espectaculares a los grandes problemas de la informática.

Pero cuando quince meses después acabé mi PFC tenía una visión completamente diferente. Cada vez que alguien me explicaba las fantásticas bondades de una metodología nueva, o que casi al principio de una conversación soltaba la frase “un ingeniero no tiene por qué ser un programador” se me ponían los pelos de punta y sólo atinaba a pensar que ojalá no me tocase trabajar con esa persona.

Con el tiempo me convertí en un escéptico casi radical sobre el “[no] cientificismo” y la falta de rigurosidad de metodologías. En el mejor y la mayoría de los casos sólo lo veía como intentos de estandarizar una guía de buenas prácticas y estándares de documentación. Y por otro lado cogí el gusto por aprender a programar y admirar y disfrutar con el trabajo de los que se definían como “programadores” antes que “ingenieros” (o “doctores” o “científicos”)-

Hoy rvr en Barrapunto me hizo un bonito y entrañable regalo, me hizo redescubrir cuál fue una de las lecturas de aquellos años que tanto me influyó. Creo que fue el punto crítico. Se trata de unos de los ensayos más provocadores de Dijkstra –escrito en 1988, que blogger espectacular hubiese sido–: On the Cruelty of Really Teaching Computer Science (en castellano).

Aunque en aquellos años casi no conocía a Dijkstra, creo que fue el director de mi proyecto o alguno de los que trabajaban en el laboratorio el que me lo pasó (teníamos Internet y estábamos todo el día enganchados bajando ficheros por FTP anónimo y leyendo listas de correos y las news).

Rescato una de las frases que más me impactaron como “ingeniero”, por aquellas épocas yo tenía una perspectiva radicalmente opuesta:

[…] Lo haré explicando una serie de fenómenos que de otra manera serían extraños por la frustrante –pero, como ahora sabemos, condenada– ocultación o negación de su aterradora extrañeza.

Cierta cantidad de estos fenómenos han sido agrupados bajo el nombre de “Ingeniería de Software”. Así como la economía es conocida como “La Ciencia Miserable”, la ingeniería de software debería ser conocida como “La Disciplina Condenada”, condenada porque ni siquiera puede acercarse a su meta, dado que la misma es en sí misma contradictoria. La ingeniería de software, por supuesto, se presenta a sí misma como otra causa valiosa, pero es un colirio: si lee cuidadosamente su literatura y analiza lo que realmente hacen quienes se avocan a ella, descubrirá que la ingeniería de software ha adoptado como suestatuto “Cómo programar si usted no puede”.

[…] La práctica está impregnada de la confortable ilusión de que los programas son simplemente dispositivos como cualquier otro, la única diferencia que se admite es que su fabricación pueden requerir un nuevo tipo de expertos, a saber: programadores.

[…] Han pasado ya dos décadas desde que se señaló que el testing de programas puede convincentemente demostrar la presencia de errores, pero nunca puede demostrar su ausencia. Después de citar devotamente este comentario bien publicitado, el ingeniero de software vuelve al orden del día y continúa refinando sus estrategias de testing, tal como el alquimista de antaño, quien continuaba refinando sus purificaciones crisocósmicas.

[…] En el mismo sentido debo llamar la atención sobre la sorprendente facilidad con que se ha aceptado la sugerencia de que los males de la producción de software de deben, en gran medida, a la falta de “herramientas de programación” apropiadas.

Hay que leer todo el ensayo para entenderlo mejor y entender la justificación. No es tan difícil, tampoco fácil. Es un ensayo de esos de gran calado (y por los pocos comentarios que leí en Barrapunto, la mayoría no lo debe haber leído, o no lo entendió).

Ojalá lo disfrutéis tanto como yo la primera vez que lo leí y nuevamente ahora, casi dieciocho años después.

PS: Creo que ahora comprendí a Dijkstra mucho mejor que la primera vez.

Fuente: Ricardo Galli, de software libre


campañas de email
diseño paginas web
echar cartas webcam
marketing on line
paginas web
posicionamiento web inmobiliarias
posicionar en google
Signos zodiacales
Videncia

<< Volver

El 917719500 o hasta donde llega el acoso de Jazztel

Jazztel últimamente está lanzando ofertas interesantes, en particular, a mí me interesó el adsl 20 MB+llamadas+router wifi+conexión móvil de hasta 100 Mb por 21,95/mes aunque luego como casi todas tiene su letra pequeña, el mantenimiento de lí­nea a parte (13,45 Euros) y el IVA por supuesto también, además es ese precio hasta el 31-12-08 a partir del 2009 son 10 Euros más, pero bueno, no tiene compromiso de permanencia y seguí­a pareciendo interesante.

Pero esa es la cuestión, el compromiso con Jazztel no se firma en un contrato… Llamé y facilité los datos para darme de alta, hasta ah­í todo bien, les pedía­ que me volvieran a llamar en un día/horario determinado para hacer la grabación con el titular de Telefónica para la portabilidad de la línea y ahí  empieza todo, en dos dí­as me llamaron seis veces para tratar de hacer la grabación antes del dí­a que yo les había dicho para que estuviera el titular de Telefónica.

Pero aún así, cosas que pasan con el telemarketing, pensé yo, llegó el día en esa misma semana hicimos la portabilidad. Al dí­a siguiente me surgió la duda de saber quién daba de baja la conexión actual de Internet, si ellos o nosotros y llamó para preguntar, al poco de hacer esa llamada recibí­ tres llamadas casi consecutivas en el mismo dí­a para verificar el motivo de mi llamada. A partir de entonces, todos los dí­as recibía dos o tres llamadas diarias en mi móvil y alguna que otra en el fijo, llamadas procedentes de un 917719500 que gracias a otros foros me pude enterar que eran los de Jazztel, llamaban y no contestaba nadie.

Cansada les pedí­ por favor, llamando yo e intentando ser educada, que dejasen al menos de llamar el teléfono fijo porque hay una persona mayor que la están continuamente molestando, en qué maldita hora lo peía­, a partir de entonces dejaron automáticamente de llamar a mi móvil y empezaron a llamar todos los días, mí­nimo una vez al teléfono fijo desde el mismo 917719500 y otra vez sin contestar.

Ya enfadada, y creo que ya habiamos aguantado bastante, intentando no pagarlo con los teleoperadores, cancelé todo el pedido de portabilidad con Jazztel explicando todo lo sucedido y me prometieron que no volverían a llamar pero volvieron a llamar, ese mismo días y a las 23.30 de la noche!!! para preguntar el motivo de la baja.

Todas las compañí­as rozan o traspasan la barrera del acoso comercial cuando se trata del telemarketing y de la captación de nuevos clientes, y lo sé bien que he sido teleoperadora, algo que no termino de entender, por qué no se respeta de igual manera en éste sector la ley de protección de datos cuando una persona solicita que no se la vuelva a llamar, haga lo que haga el teleoperador, la siguen llamando. Pero nunca habí­a conocido nada igual, Jazztel acosa incluso a sus propios clientes, recién dados de alta les queman tanto que deciden darse de baja antes de probar el servicio.

He solicitado en Telefónica el servicio de restricción selectiva para evitar recibir más llamadas de ese número, hay que llamar al 1004 para activarlo y luego descolgar, marcar *93*917719500# Me han dicho está activo en 48 horas ¿cuántas llamadas les daría tiempo de hacerme a los de Jazztel?.

Si habéis pensado en informaros de algún producto de esta gente, debéis pensarlo mucho… Os dejo aquí­ algunas direcciones, solo algunas, donde podéis conocer otros casos parecidos con éste mismo número.

http://www.adsl4ever.com/foro/showthread.php?t=6117

http://bandaancha.eu/tema/1606151/llamadas-ocultas-long-distance-917719500

http://www.numerodetelefono.net/?p=253&cp=1

http://www.plc4ever.com/foro/showthread.php?t=6117&page=2

Fuente: Invequa

Related Posts with Thumbnails

Calendario

noviembre 2024
L M X J V S D
« Nov    
 123
45678910
11121314151617
18192021222324
252627282930  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa