Tiene el tamaño de un sello de correos, pero en su interior contiene el equivalente a un millón de neuronas con 256 millones de conexiones sinápticas programables. El nuevo chip de IBM da un paso más hacia el objetivo de crear un procesador capaz de simular el funcionamiento del cerebro humano.
TrueNorth, que es como se llama este chip, es un salto cuantitativo impresionante respecto a la primera versión, que solo equivalía a 256 neuronas con 262144 sinapsis programables. De un único núcleo neurosináptico, este proyecto de IBM y el programa DARPA SyNAPSE ha pasado a 4096 núcleos.
Con todo, las cifras son irrisorias en comparación con las de un cerebro humano. Solo en la corteza cerebral tenemos entre 15000 y 33000 millones de neuronas. Cada milímetro cúbico de córtex cerebral contiene aproximadamente 1000 millones de sinapsis.
El reto de la computación cognitiva sigue estando lejos, pero eso no le quita mérito a TrueNorth y, de hecho, demuestra la potencia que tiene esta arquitectura de cara al futuro. Mientras llega el momento en el que tengamos que temer que una inteligencia artificial nos ponga en la lista de especies a extinguir, TrueNorth será especialmente útil para desarrollar dispositivos en los que es importante un funcionamiento similar al del cerebro humano.
Ampliar en: GIZMODO
Nuevas investigaciones, así como nuevos proyectos e inversiones de IBM podrían llevar el futuro en dirección de lo que en muchas ocasiones parece tecnología de ciencia ficción como ordenadores que imitan el cerebro humano o la tan famosa computación cuántica.
IBM invertirá 3000 millones de dólares para investigación y desarrollo de estas tecnologías se concentran en dos grandes campos: desarrollo de componentes nanotecnológicos para los chips de silicio para grandes volúmenes de datos y sistemas de nubes, y la experimentación con microchips «post-silicio». Supratik Guha de IBM señala que los microprocesadores y la escalada en innovación en este sentido está llegando a su fin y que es importante ponerse en marcha para este nueva tecnología.
En cuanto a la otra gran área de inversión, IBM ha estado investigando la viabilidad de la tecnología de la construcción que puede imitar la cognición humana desde hace años. IBM ha estado en la búsqueda de un nuevo lenguaje de programación que se utilizará para el aprendizaje de las máquinas y sistemas de computación cognitiva como Watson, que podemos ver en el siguiente vídeo a prueba:
La Ley de Moore dice que, más o menos cada dos años, se duplica el número de transistores de un circuito integrado. Hasta ahora se ha cumplido, pero las cosas se están poniendo cada vez más complicadas porque los fabricantes estaban forzando los límites físicos del silicio de los chips. El relevo llega de la mano de IBM y los transistores de nanotubos de carbono. Los primeros procesadores con esta tecnología llegarán en 2020.
Para que haya cada vez más transistores (y por lo tanto más potencia) en el mismo espacio, estos componentes deben ser cada vez de menor tamaño. El transistor basado en silicio más pequeño que hay ahora en el mercado es de 14 nanómetros. Para que la ley empírica formulada por el cofundador de Intel Gordon E. Moore se siga cumpliendo, en 2020 deberían ser de cinco nanómetros, pero el silicio presenta muchos problemas eléctricos a esa escala.
Los nanotubos de carbono son, según IBM, los sustitutos perfectos para el silicio. La tecnología que hay detrás de estos transistores es muy real y, de hecho, está ya en su fase final de desarrollo. IBM logró hacer funcionar el primer transistor de nanotubos de carbono en 1998. Lleva desde entonces afinando esta nueva tecnología, y estará a disposición de los fabricantes de procesadores en 2019.
Fuente: GIZMODO
El siete de abril de 1964 IBM lanzó el System/360, concebido para unificar toda la oferta de que disponían, pero ofreciendo diferentes configuraciones, con el fin de adaptarse a las necesidades de la empresa. Fue por tanto la primera arquitectura de computadores que permitía intercambiar los programas y periféricos entre los distintos equipos componentes de la arquitectura.
Hasta ese momento, IBM era capaz de ofrecer una gran cantidad de máquinas para unas determinadas necesidades. Pero sufrían dos problemas importantes, el primero es que si se tenían varias necesidades, había que contar con varias máquinas y no con una que hiciera todo el proceso. El segundo es que eran sistemas monolíticos que cuando se quedaban cortos de necesidades, había que cambiar toda la máquina.
El System/360 representó el proyecto más ambicioso de IBM de esa época, destinando una cantidad de recursos impresionante: contratación de 7000 nuevos empleados, construcción de cinco nuevas plantas… La consecuencia más importante fue que el resto de máquinas de IBM quedó anticuada con respecto a la competencia, y esto produjo un descenso importante en las ventas y una grave crisis en IBM, hasta el punto de plantearse si el proyecto se podría llevar finalmente a cabo.
Ampliar en: Tecnología al instante
De acuerdo con Intel , 639900 GB de datos se transfiere cada minuto en internet . Eso incluye 204 millones de correos electrónicos, 61141 horas de música, y 277000 conexiones de Facebook . La tarea de mantener internet a este ritmo voraz recae en gran medida en la tecnología de comunicación de datos , que nos ayuda a la transferencia de datos entre sistemas informáticos y dispositivos.
Nuestra necesidad de velocidades de datos más rápidas parece cercana a los límites de nuestra tecnología de comunicaciones de datos actual, pero un descubrimiento reciente de investigadores de IBM es motivo de optimismo añadido. No sólo se estableció un nuevo récord para la transmisión de datos por fibra óptica – batiendo un récord anterior que habían superado el año pasado – lo hicieron utilizando la tecnología y los métodos que muchas personas pensaban que eran anticuados.
Lograron una tasa de datos de 64 Gb/s , que es de alrededor de un 14 por ciento más rápida que su anterior récord y cerca de 2,5 veces más rápida que las capacidades generales de la tecnología actual. Aunque este aumento de velocidad es impresionante por sí solo, este registro de datos también sirve a un propósito más elevado como evidencia tan deseada, que la tecnología de comunicaciones de datos que tenemos ahora todavía tiene algunos años más de vida. » El tema general de la investigación es tratar de explorar los límites de la tecnología de comunicaciones de datos que está siendo utilizada en la actualidad de hoy», dice Dan Kuchta , uno de los investigadores de IBM que trabajaron en este proyecto.
Este hito hace hincapié en la utilidad de continuar con la tecnología actual de varias maneras. La fibra óptica multimodo que utilizan es un cable de relativamente bajo costo que a menudo se encuentra en centros de datos y superordenadores. Estos cables se limitan a 57 metros de longitud , pero Kuchta dice que los enlaces ópticos en los dos últimos sistemas que construyeron eran de menos de 20 metros. Uno de estos sistemas era la supercomputadora Sequoia en el Laboratorio Nacional Lawrence Livermore . Los investigadores también utilizaron la modulación estándar de no retorno a cero ( NRZ ) para enviar los datos. El emparejamiento de los dos permite un tiempo de transmisión especialmente rápida, que es vital en la computación de alto rendimiento.
Antes de esta investigación, algunos expertos creen que las tasas de transferencia que utilizan modulación NRZ se limitarían a 32 Gb/s , peligrosamente cerca del 25 a 28 Gb/s de velocidad a la que gran parte de nuestra tecnología se está ejecutando. Como muchos de nosotros sabemos, las tasas de datos lentas pueden obstaculizar la actividad de los ordenadores, como cuando un vídeo se mantiene parando para cargarse . Si las tasas de transferencia caen demasiado lejos para nuestra tecnología, algunas aplicaciones pueden dejar de funcionar por completo .
Está listo para su comercialización en este momento
La clave para alcanzar la velocidad es aplicando un método de comunicación eléctrica a este proceso óptico. «Están usando la electrónica para ampliar el ancho de banda del láser y ese es el gran paso», dice Stephen E. Ralph , director de Georgia Tech’s Terabit Optical Networking Consortium. Los investigadores emparejaron un láser emisor de superficie de cavidad vertical ( VCSEL ) con un chip de silicio – germanio, hechos a medida de IBM . El VCSEL, también, es un ejemplo de una tecnología de bajo costo con algunas preguntas sobre su futuro. Su ancho de banda de 26 GHz generalmente permitiría llegar a una tasa de alrededor de 44 GB/s , pero el chip de IBM logra más allá de eso.
Al final, todo esto se reduce a un ahorro de costes. Kuchta estima que esta tecnología cuesta alrededor de un tercio de otras opciones que utilizan fibras monomodo
Según los planes de la compañía, que los despidos afectarán hasta a un 25% de los empleados de la división de Sistemas y Tecnología. Este es el grupo que hace los servidores de IBM.
La compañía, que emplea actualmente a más de 400000 personas en todo el mundo, sí explicó que va a prescindir de una parte de su fuerza de trabajo con el fin de centrarse en las nuevas áreas prioritarias, como la nube, análisis y computación cognitiva. Esto significa que algunas divisiones de la empresa van a sufrir recortes.
“Como se informó en nuestro reciente informe de beneficios, IBM sigue reequilibrando su mano de obra para satisfacer las necesidades cambiantes de sus clientes y ser pionero en nuevos segmentos de alto valor de la industria de TI”, declaró el portavoz de IBM, Doug Shelton. Para ello, IBM se posiciona a la cabeza en áreas tales como la nube, la analítica y la computación cognitiva, y la inversión en estas áreas es prioritaria”.
Así las cosas, la división de hardware tenía muchas posibilidades de verse afectada por los recortes. IBManunció el mes pasado la venta de su negocio de servidores x86 a Lenovo por 2300 millones, por lo que tiene sentido que, al perder buena parte de su carga de trabajo, lleguen los despidos dentro de la división de hardware. Con la venta a Lenovo, se espera que a cerca de 7500 empleados de IBM se les ofrezcan puestos de trabajo en la compañía china.
Fuente: ITespresso.es
Lenovo es el principal fabricante de PC en el mundo, la compañía China puede presumir de excelentes resultados en 2013, aunque las ventas de ordenadores personales siguen cayendo año tras año.
Esa caída de ventas en PCs fue el principal motivo por el que Lenovo se concentró en la fabricación de tabletas, TVs inteligentes y smartphones, y ahora quiere ampliar su servicio de venta de servidores, motivo por el cual ha comprado, por 2300 millones de dólares, una unidad de IBM dedicada a este tema.
En la nota de prensa y en pcworld se explican los detalles de la operación.
No es todo el negocio de servidores de IBM lo que ha adquirido Lenovo, ha comprado el negocio de hardware de servidores x86 de IBM junto al servicio de manutención. IBM mantendrá el negocio de servidores de otras gamas superiores.
Como en años anteriores IBM ha presentado predicciones “5 en 5”, una serie de innovaciones que podrán cambiar la forma en que las personas trabajarán, vivirán e interactuarán en los próximos cinco años. Las predicciones “5 de 5” de IBM de este año exploran la idea de que todos los objetos podrán aprender, gracias a la nueva era de sistemas cognitivos en la que las máquinas van a razonar y participar con nosotros de una manera más natural y personalizada.
Una de las cinco predicciones que definirán el futuro inmediato tiene que ver con la medicina, y es la siguiente: los médicos usarán regularmente el ADN de los pacientes para mejorar su salud.
A pesar de los extraordinarios avances en la investigación y en el tratamiento del cáncer, su incidencia se ha incrementado en más de un 10 por ciento desde 2008. No en vano, afecta a más de 14 millones de pacientes en el mundo y se cobra la vida de 8,1 millones de vidas cada año, según datos de la Organización Mundial de la Salud. Ante tal realidad, podemos ya imaginar que el tratamiento algún día sea más preciso y que los ordenadores puedan ayudar a los médicos a comprender cómo un tumor afecta a un paciente a través de su ADN y a presentar los medicamentos más indicados para atacar la enfermedad.
En cinco años, los grandes volúmenes de datos y los sistemas cognitivos ??en la nube, junto a los avances en la investigación y las pruebas genómicas, podrían ayudar a los médicos a diagnosticar con precisión el cáncer y a crear planes personalizados de tratamiento para millones de pacientes en todo el mundo. Las máquinas inteligentes analizarán extensos archivos de registros médicos y de publicaciones, los aprenderán y rápidamente proporcionarán una respuesta específica para los oncólogos sobre las opciones de tratamiento. Aunque la atención personalizada del cáncer a nivel genómico ha estado en el horizonte desde que los científicos secuenciaron por primera vez el genoma humano, realmente son pocos los médicos con acceso a las herramientas y el tiempo para evaluar los conocimientos disponibles a este nivel.
Sin embargo, dentro de cinco años, los sistemas cognitivos ??en la nube podrían hacer que tal medicina personalizada esté disponible a una escala y una velocidad únicas.
Estos sistemas están destinados a ser aún más inteligentes en el futuro, gracias al aprendizaje de las personas, la información genómica y la respuesta a los medicamentos, lo cual podría también proporcionar opciones de tratamiento personalizadas para derrames cerebrales o enfermedades cardíacas. A través de la tecnología en la nube, la asistencia sanitaria más inteligente podría llegar a más personas y en más lugares, además de proporcionar el acceso a información vital a una comunidad global de profesionales de la salud.
Fuente: Primum non nocere 2013
En poco más de medio siglo de computación el avance en tecnología ha sido gigantesco. Desde que Von Neumann diseñó la arquitectura que lleva su nombre, todos los ordenadores se han construido basados en ella. Gordon Moore estableció la famosa ley que lleva su nombre, la ley de Moore. Según esta ley empírica, cada dos años se duplica el número de transistores en un circuito integrado. Todo esto está basado en la lógica y la física. Y ahí está precisamente uno de los problemas actuales, en la física. En una reciente presentación sobre el esperado chip POWER8, el ponente hizo una broma al respecto: “he preguntado a los físicos y me han confirmado que la física no ha cambiado”. Y es que nos acercamos a la frontera del átomo y no es probable que la ley de Moore se siga cumpliendo.
El otro de los problemas está en la lógica. Como gusta recordar a nuestra presidenta, Virginia Marie “Ginni” Rometty, estamos iniciando la tercera era de la computación. De las tabuladoras pasamos a los ordenadores programables y de ahí a la computación cognitiva. El esfuerzo de programar ordenadores es demasiado costoso, necesitamos otro paradigma, ordenadores que aprendan, computación cognitiva.
¿De dónde podemos aprender? ¿En qué podemos inspirarnos? En el mundo vivo, en la biología.
La neurona, base del sistema nervioso, es un dispositivo muy antiguo. Apareció probablemente en la explosión cámbrica hace la respetable cifra de quinientos millones de años. Es un dispositivo lento comparado con un procesador actual, pero con una gran cantidad de ventajas: conectividad, bajo consumo y plasticidad. El cerebro humano contiene 86000000000 de neuronas que trabajan en paralelo de forma coordinada. Consume apenas 20 watios, lo que una bombilla pequeña (un superordenador muy eficiente como Sequoia de IBM consume siete megawatios, 350000 veces más que el cerebro). Y, sobre todo, tiene plasticidad, aprende.
Fuente: PRIMUM NON NOCERE 2013
Uno de los aportes de la medicina basada en la evidencia menos reconocidos pero no menos importante que otros en al de haber dado un marco conceptual a la utilización de la información por el medico practico. Con aportaciones de las ciencias de la información y sentido práctico han creado conceptos como la pregunta clínica y su formulación o el modelo piramidal 4-6 S que introduce a las búsquedas no solo la pertinencia o exactitud sino el concepto de tiempo o esfuerzo empleado en localizar y utilizar la información requerida.
En este modelo piramidal el piso más alto, y por tanto el que utilizar primero, está representado por los denominados Sistemas, en los que las características individuales del paciente se ligan automáticamente a la mejor y más actualizada evidencia que coincida con las circunstancias específicas del paciente y del médico, y que le proporciona a este los aspectos clave de la gestión del caso. En el artículo donde se explica el modelo se ponen como ejemplo, los sistemas informatizados de apoyo a la toma de decisiones, si bien se hace hincapié en que pocos de estos, por no decir ninguno, sistemas estaban disponibles en ese momento.
La cima de la pirámide estaría ocupada por un sistema de información clínica que integra y resume todas las evidencias provenientes de la investigación, pertinente e importante sobre un determinado problema clínico, que se actualiza conforme aparezcan nuevas evidencias y que se vincula automáticamente a través de la historia clínica electrónica. En estos sistemas informatizados de apoyo a la toma de decisiones, los datos detallados de cada paciente se introducen en un programa de ordenador y se parean con programas o algoritmos de una base informatizada de conocimiento médico, lo que resulta es la generación de recomendaciones para los médicos específicas para cada pacientes. Si la historia clínica electrónica incorporara un SIATDs que vinculara de forma fiable las características de un paciente con guías de atenciones actuales y basadas en la evidencia, no es necesario ir más allá (hacia abajo) en el modelo piramidal.
Curiosamente en una reseña de Oncology Expert Advisor una aplicación medica de una nueva generación de ordenadores “cognitive computing” en concreto Watson de IBM, se dice:
“Oncology Expert Advisor estará disponible para los oncólogos afiliados al hospital MD Anderson a través de ordenadores de sobremesa y dispositivos móviles. La plataforma tendrá los datos del paciente, tanto la contenida en formularios estructurados como en notas clínicas no estructuradas, y harán coincidir con todo tipo de información, desde los datos clínicos, protocolos de investigación, las guías de tratamiento, para hacer una recomendación de tratamiento más personalizado”.
Al identificar y ponderar las conexion de los datos del perfil de un paciente y el corpus de conocimiento de la literatura médica publicada y guías Watson y Oncology Expert Advisor del MD Anderson puede proporcionar un tratamiento basado en la evidencia y las opciones de gestión personalizadas a la paciente, para ayudar al tratamiento del médico y las decisiones de atención.
Fuente: PRIMUM NON NOCERE 2013