Este es un WeeBot. Es una de las pocas veces que está bien combinar los robots con los bebés, ya que un WeeBot es básicamente una manera de convertir un bebé de verdad en una fusión imparable de la biología y la ingeniería. Sí, estamos hablando de bebés cyborg. ¡Corre!
Los bebés, como te habrás dado cuenta, si tienes alguno, son como para meterse en todo tipo de travesuras, y los estudios muestran que la exploración y la interacción con el mundo es importante para el desarrollo cognitivo. Los bebés que no pueden desplazarse no pueden desarrollarse al mismo ritmo que los bebés que pueden, por lo que los investigadores de la universidad de Ithaca, en Nueva York (EE.UU.) están trabajando en una manera de fusionar los bebés con robots para dar movilidad a todos los bebés, incluso los que tengan condiciones que puedan demorar la movilidad independiente, como el síndrome de Down, espina bífida o parálisis cerebral.
Los robots en cuestión, llamados WeeBots, son Robots MobilePioneer P3-DX adaptados. En la parte superior las bases son de Nintendo Wii tablas de equilibrio, que son plataformas rectangulares con sensores de carga en las esquinas. Un asiento infantil comercial se coloca en la parte superior de la tabla de equilibrio, y el robot puede ser calibrado para moverse en la dirección que se inclina hacia el bebé. Se podría pensar que un bebé de seis meses de edad no necesariamente tiene facilidad para controlar un robot de este tipo, sino que la capturan en forma sorprendentemente rápida.
Para probar la WeeBot, los investigadores seleccionaron cinco niños, de edades comprendidas entre seis meses y nueve meses. Cada niño recibió cinco sesiones de formación sobre el robot con un juguete como cebo, y para el final de las sesiones, los bebés eran capaces de controlar con fiabilidad el WeeBot dirigido a un objetivo en movimiento durante los períodos de juego libre. Todos los bebés del estudio estaban desarrollandos normalmente para su edad, pero ninguno de ellos tenía la capacidad de rastrear, por lo que los robots eran su único medio de transporte.
Esto fue sólo un estudio piloto para asegurarse de que WeeBot funcionaba, pero recientemente la investigación también ha intentado utilizar WeeBots con niños con trastornos de movilidad. Está resultando difícil para algunos niños el sentarse suficiente para controlar la WeebBot al inclinarse, pero por lo menos en un caso, un niño de quince meses de edad con parálisis cerebral fue capaz de aprender a controlar un WeeBot, tras lo cual comenzó a desarrollar habilidades por su cuenta.
Claramente, hay mucho trabajo prometedor aquí, y como el vídeo muestra, es impresionante lo temprano que estos bebés pueden convertirse en controladores de robot. Nuestra esperanza es que con el tiempo, los investigadores verán lo que estos bebés son realmente capaces de hacer.
WeeBot: un nuevo método para el control infantil de un dispositivo de movilidad robótica, por Sharon Stansfield, Dennis Carole, y Hélène Larin de Ithaca College en Nueva York, fue presentado el pasado mes de mayo a las ICRA 2012. Continuando con las investigaciones han sido publicados recientemente en la revista Physiotherapy.
Fuente: LiveScience
Al principio es sólo ruido: una corriente de sonidos incoherentes, susurros a distancia. Pero, después de unos minutos, una palabra totalmente formada emerge repentinamente: rojo. Luego, otra: caja. De este modo, un robot balbuceando ha aprendido a hablar sus primeras palabras reales, sólo por el chat con un ser humano.
Ver este salto evolutivo en una máquina puede llevar a los robots a que hablen de una manera más natural, similar a la forma humana, y ayudar a descubrir cómo los niños primero empiezan a tener sentido del lenguaje. Entre las edades de 6 y 14 meses los niños pasan de balbuceo de cadenas de sílabas a pronunciar palabras reales. Se trata de un paso necesario en el camino a la adquisición del lenguaje por completo. Una vez que unas pocas palabras «ancla» se han establecido, proporcionan pistas en cuanto a que palabras pueden empezar y terminar así y de esta forma es más fácil que un niño aprenda a hablar.
Inspirado por este proceso, un equipo dirigido por el científico informático Lyon Caroline en la Universidad de Hertfordshire (Reino Unido), ha programado un robot humanoide llamado iCub – DeeChee con casi todas las sílabas que existen en Inglés, alrededor de 40000 en total. Esto le permitió balbucear algo así como un bebé, en forma arbitraria encadena sílabas.
Los investigadores también reclutaron a 34 personas para actuar como maestros, a quienes se les pidió un trato a DeeChee como si fuera un niño. DeeChee participó en un diálogo de ocho minutos con cada maestro, pero, entre cada sesión, su memoria se salvó, y a continuación se reinició, de modo que con cada maestro el experimento comenzó de nuevo. Al inicio del diálogo, cada una de las sílabas en el léxico de DeeChee tuvo una puntuación idéntica.
Puntuación del léxico
Todo eso empezó a cambiar una vez que comenzó la lección. Programado para turnarse para escuchar y luego hablar, DeeChee convirtió el discurso del profesor en sílabas. A continuación, empleó esta información para actualizar los resultados en su propio léxico, dando puntos extra a las sílabas que el maestro había utilizado.
La próxima vez que hablaba, sería más probable que repitiera las sílabas que el maestro había pronunciado debido a que estos ya tenían las puntuaciones más altas.
Lyon dice que esto es una reminiscencia de los bebés humanos. «Cuando oyen los sonidos frecuentes, se vuelven sensibles a ellos», dice Lyon. «Prefieren lo que es familiar».
Este aprendizaje por imitación se reforzó, entonces los profesores hicieron comentarios alentadores cuando DeeChee habló una palabra reconocible. DeeChee fue programado para la detección de estos comentarios y dar puntos extra a las sílabas que precedieron a la aprobación del profesor. Inevitablemente, algunas sílabas sin sentido pueden obtener puntos extra también. Pero a medida que este proceso se repitió, sólo las sílabas que componen las palabras que siguen apareciendo en las cadenas obtuvieron su aprobación.
Aunque el robot todavía estaba pronunciando sílabas sin sentido de los corrientes, hacia el final de los ocho minutos, las palabras reales seguían apareciendo con más frecuencia que si DeeChee selecciona las sílabas al azar.
Que las palabras puedan surgir de un balbuceo mediante un proceso de aprendizaje estadístico no es específico a la lengua demuestra que esta etapa de la adquisición del lenguaje no requiere facultades de «cableados» de gramática, dice Lyon.
Pablo Vogt, un científico cognitivo de la Universidad de Tilburg en los Países Bajos está impresionado: «Es un primer paso muy interesante para tener robots que pueden ayudar a estudiar la adquisición del lenguaje.»
En este momento, el discurso de DeeChee está muy lejos de toda regla idiomática, pero a partir del balbuceo puede ser la mejor manera de crear robots que hablen de forma natural. «Si usted quiere el robot para trabajar con el lenguaje natural, entonces puede que tenga que enseñarlo desde el principio», dice Lyon.
Los robots de dispensación de medicamentos diseñados para la preparación rápida de medicamentos por vía intravenosa en un ambiente estéril puede contener bacterias peligrosas, de acuerdo con un informe en Control de Infecciones y Epidemiología Hospitalaria, la revista de la Sociedad de Epidemiología Hospitalaria de América.
Durante una revisión de rutina en el año 2010, el personal de Wake Forest Baptist Medical Center en Carolina del Norte descubrió las bacterias Bacillus cereus en muestras dispensados por su equipo, el IV IntelliFill. «Hasta donde sabemos, este es el primer reporte publicado de un robot de farmacia que está contaminado con el bacilo y la contaminación resultante de la producción de drogas intravenosas», afirman los autores del informe.
Bacillus es una bacteria potencialmente dañina que es resistente a muchos desinfectantes comúnmente utilizados, incluyendo el alcohol. El personal descubrió la contaminación a través de medidas de control de calidad recomendados por el fabricante antes de que los pacientes resultaran perjudicados por los medicamentos contaminados .Las implicaciones de productos contaminados por vía intravenosa pueden ser graves, incluyendo infecciones del torrente sanguíneo potencialmente peligrosas para la vida. Mientras que los eventos adversos se evitaron, la investigación sobre cómo se contaminó la máquina sugiere que puede ser necesario reforzar la limpieza actual y las recomendaciones de mantenimiento.
Los investigadores rastrearon la contaminación de la estación de lavado de la máquina y la tubería asociada con élla. Debido a que esta zona no se considera una parte estéril del robot, el fabricante no especifica un procedimiento de limpieza de estas piezas más allá de usar alcohol, con una botella de spray para limpiar las partes inaccesibles.
«Para evitar que otros usuarios de IntelliFill IV experimenten el mismo problema, el fabricante debe considerar el establecimiento de un procedimiento formal para la limpieza y el mantenimiento de la estación de lavado, con las recomendaciones más detalladas para cambiar el tubo de drenaje, el contenedor, y, posiblemente, la estación de lavado en sí, «escriben los autores. «Además, es razonable para expandir existentes recomendaciones de garantía de calidad incluir pruebas superficie de la estación de lavado y de muestreo de aire en el centro del compartimento. Pasar el uso del robot a la sala limpia puede disminuir aún más el riesgo de contaminación.»
Los resultados subrayan la importancia de la detección rutinaria de medicamentos preparados por dispensadores robóticos, que son cada vez más utilizados en los hospitales. «Los métodos de control de calidad son fundamentales para garantizar la seguridad del paciente en curso», escriben los autores
Fuente: David Cluck, John C. Williamson, Marty Glasgo, Daniel Diekema, Robert Sherertz. Bacterial Contamination of an Automated Pharmacy Robot Used for Intravenous Medication Preparation. Infection Control and Hospital Epidemiology, 2012; 33 (5): 517 DOI: 10.1086/665316
El automontaje de robots han sido considerado desde hace algún tiempo, a partir de módulos que se construyen en una especie de serpiente mecánica que puede retorcerse por el suelo, con piezas robóticas que automáticamente se apilan para construir un andador de dos patas.
La mayor parte de los esfuerzos participan el diseño de módulos que se agregan entre sí, como Legos muy inteligentes, utilizando la electrónica interna y mecanismos de autoensamblado.
Ahora Daniela Rus y su estudiante Kyle Gilpin del Instituto de Tecnología de Massachusetts (EE.UU.) han tomado un nuevo rumbo. En lugar de añadir piezas, lo primero que se acumulan son los trozos juntos, y luego arrojan las piezas que no necesitan para el diseño de la forma deseada.
Su «arena inteligente» está constituida por granos individuales que son realmente cubos de un centímetro cuadrado de cara con microprocesadores en el interior e imanes conmutables en cuatro de sus seis caras, que pueden hablar el uno al otro por vía electrónica y sentir a sus vecinos.
Gilpin y Rus demostraron cómo trabajan en dos dimensiones mediante la colocación de un «estrado» 2-D dentro de un grupo de bloques. Los imanes están activados, y los módulos comprueban lo que está al lado de ellos en los cuatro lados del plano. A continuación, un algoritmo calcula la forma de crear el mismo patrón en una región adyacente del bloque, y se apagan los imanes en las caras de los módulos correspondientes a los lado del estrado. Esto forma una copia del objeto original.
Los modelos de computadora muestran que el mismo enfoque puede funcionar entres dimensiones, pero, Gilpin se lamenta, «simplemente no había espacio parados más imanes» en las caras restantes del cubo. Describe su trabajo el próximo mes en la revista IEEE International Conference on Robotics and Automation.
Una de las polémicas más estériles e inútiles relativas a la conquista del espacio es la que enfrenta la exploración automática con la tripulada. Estéril, porque ambos tipos de exploración son necesarios y complementarios; e inútil, porque este tipo de discusiones lo único que logra es dividir a la comunidad científica ante la clase política, que es la que reparte el pastel económico, con consecuencias más que previsibles. Está claro que resulta mucho más barato y seguro mandar sondas espaciales a la mayor parte de rincones del Sistema Solar, pero también es cierto que la exploración tripulada de ciertos mundos puede ser mucho más enriquecedora.
Los dos tópicos que se usan para criticar a las misiones tripuladas es que son demasiado caras y poco eficientes. El ser humano no tiene nada que hacer frente a los precisos y económicos robots. Al fin y al cabo, no somos más que sanguinolientos sacos de órganos que derrochan energía y que se mueven por ahí en enormes naves con complejos sistemas de soporte vital. Y por si fuera poco, las misiones tripuladas son de ida y vuelta, aumentando de forma exponencial la masa y el coste requeridos. Sin duda, un argumento muy lógico…pero que no se corresponde con la realidad. Intentemos desmontar este mito.
El programa Apolo de la NASA constituye hasta la fecha el único ejemplo exitoso de exploración tripulada de otro cuerpo del Sistema Solar. ¿Cómo fue de eficiente si lo comparamos con las sondas no tripuladas? El concepto de «eficiencia» es altamente subjetivo, pero no dentro de la comunidad científica. Para los científicos, el único baremo posible -qué digo, el dios de los baremos- es el número de veces que un paper aparece citado en revistas de revisión por pares. Y en este caso, los papers del programa Apolo salen claramente ganadores si los comparamos con el número de citas de los artículos referidos a las tres sondas automáticas soviéticas que trajeron muestras lunares a la Tierra (Luna 16, Luna 20 y Luna 24) o los correspondientes los resultados de los dos vehículos Lunojod que recorrieron la superficie lunar. «Claro, pero es una comparación tramposa, porque esas viejas sondas soviéticas no eran muy avanzadas», podría pensar más de uno. Puede ser, pero el Apolo sigue ganando en número de citas cuando lo comparamos con los artículos escritos a partir de los datos de dos sondas mucho más modernas y complejas como son los rovers marcianos MER (Spirit y Opportunity) de la NASA. La ventaja es aún mayor si dividimos el número total de publicaciones entre los días que duraron las respectivas misiones mientras exploraban un determinado lugar de la Luna o Marte.
Artículo completo en: EUREKA
Se trata del experimento realizado en la Universidad de Cornell (EE.UU.), que no sólo sorprende por su locuacidad, sino que llegan a debatir sobre el existencialismo y la religión.
El experimento se realizó entro dos chatbot, programas de simulación de conversación humana. Su objetivo consiste en generar respuestas lo más naturales posible con el fin de acercarse a los pensamientos de los humanos.
Aprender a programar un ordenador para mostrar las palabras «Hello World» puede hacer que los estudiantes se emocionen, pero una lección en clase no es suficiente en un mundo de los videojuegos, teléfonos inteligentes y Twitter. Una opción para ocupar el lugar de la clase y realizar una nueva generación de estudiantes en la programación de computadoras es un robot desarrollado en la Universidad Carnegie Mellon (EE.UU.), llamado Finch.
Un producto del famoso Instituto de Robótica de CMU, Finch, ha sido diseñado específicamente para hacer de las clases introductorias de informática una experiencia de participación una vez más.
Un plástico blanco, de dos ruedas de robot, con características como las aves, Finch rápidamente puede ser programado por un novato para decir «Hola, mundo», o hacer un pequeño baile, o hacer resplandecer su pico azul en respuesta a la temperatura fría o algún otro estímulo. Pero la mirada simple del robot de sobremesa es engañosa. Sobre la base de cuatro años de investigación educativa patrocinada por la National Science Foundation, Finch incluye una serie de características que podrían mantener a los estudiantes ocupados por un semestre o idear cosas nuevas relacionadas.
«Los estudiantes están más interesados y motivados cuando pueden trabajar con algo interactivo y crear programas que operan en el mundo real», dijo Tom Lauwers, que obtuvo su doctorado en robótica en CMU en 2010 y ahora es instructor en Robotics Institute’s CREATE Lab. «Empazamos Finch con sensores y mecanismos que involucran los ojos, los oídos, tantos sentidos como sea posible»
Lauwers ha puesto en marcha una compañía para el lanzamiento, BirdBrain tecnologías, para producir Finch y ahora lo vende en línea en www.finchrobot.com por $ 99.
«Nuestra visión es hacer lo suficiente asequible Finch para que cada estudiante puede tener uno para llevar a casa para las tareas», dijo Lauwers, que desarrolló el robot con Illah Nourbakhsh, profesor asociado de robótica y director del Laboratorio. Finch se adapta fácilmente en una mochila y es lo suficientemente resistente para sobrevivir al caer de vez en cuando.
Finch incluye sensores de temperatura y luz, un acelerómetro de tres ejes y un sensor de golpes. Cuenta con luces LED de colores programables, un beeper y altavoces. Con un lápiz insertado en la cola, Finch se puede utilizar para hacer dibujos. Puede ser programado para ser un reloj en movimiento, con el sonido da alarma de decisiones. Incluso tiene aplicaciones más allá de un robot, y su acelerómetro permite que sea utilizado como un ratón 3-D para el control de una pantalla de ordenador.
Robots adecuados para los estudiantes de tan sólo 12 años, están disponibles comercialmente, pero a menudo cuestan más,afirmó Lauwers,. Es más, la idea es utilizar el robot para hacer las clases de programación en informática más interesantes.
Finch es un dispositivo plug-and-play, por lo que no hay controladores o software. Finch conecta y recibe energía de la computadora mediante un cable USB. Soporte para una amplia gama de lenguajes de programación y entornos vienen con él, incluidos las lenguajes gráficos apropiados para estudiantes jóvenes. Finch en la actualidad se puede programar con los lenguajes Java y Python ampliamente utilizados por los profesores.
«La informática ahora toca prácticamente todas las disciplinas científicas y es una parte crítica de la mayoría de las nuevas tecnologías, sin embargo, las universidades de EE.UU. vieron la disminución de la matrícula en ciencias de la computación en la última década», dijo Nourbakhsh. «Si Finch puede ayudar a motivar a los estudiantes para dar a la informática una oportunidad, pensamos que muchos más estudiantes se darán cuenta de que este es un campo en el que iban a disfrutar de la exploración.»
El nombre KIS, significa Kepler Intubation System, ha sido desarrollado por el Dr. Thomas M. Hemmerling, de McGill University Health Centre (MUHC) especialista en anestesia y profesor de la Universidad McGill, y su equipo – puede facilitar el procedimiento de intubación y reducir algunas de las complicaciones asociadas a la gestión de las vías respiratorias. El el primer uso en un paciente se realizó en el Hospital General de Montreal (Canadá) a principios de este mes por el Dr. Hemmerling.
«El KIS nos permite operar con un vídeo montado en un robot laringoscópico con un joystick desde una estación de trabajo a distancia,» dice el Dr. Hemmerling que también es investigador de neurociencia en el Instituto de Investigación de la MUHC. «Este sistema robótico permite al anestesiólogo insertar un tubo endotraqueal de forma segura en la tráquea del paciente y con precisión.»
La inserción de un tubo endotraqueal permite la ventilación artificial, que se utiliza en casi todos los casos de anestesia general. La correcta inserción de este tubo en las vías respiratorias de los pacientes es una maniobra compleja que requiere experiencia y práctica para dominarla. «Las dificultades surgen debido a las características del paciente, pero no hay duda de que también existen diferencias individuales en las habilidades de gestión de las vías respiratorias que pueden influir en el desempeño de la gestión de la vía aérea segura», dice el Dr. Hemmerling. «Estas influencias pueden reducirse en gran medida cuando el KIS se utiliza.»
Tras superar con éxito la realización de pruebas extensas de las vías respiratorias de maniquíes de simulación médica, que se parecen mucho a las condiciones de intubación en los seres humanos, los ensayos clínicos en pacientes ha comenzado.
«Los equipos de alta tecnología ha revolucionado la forma de hacer la cirugía, lo que permite al cirujano operar con mayor precisión y sin apenas esfuerzo físico – Creo que KIS puede hacer para la anestesia lo que estos sistemas han hecho por la cirugía», dice el Dr. Armen Aprikian, Director del Departamento de Urología MUHC que realizó la cirugía en el primer paciente tratado con el KIS.
Ampliar información en: ScienceDaily
En 1974 el arquitecto húngaro Ernö Rubik inventó un rompecabezas tridimensional en base a un cubo, que se convirtió en uno de los juguetes más populares del mundo: el cubo de Rubik. La cantidad de combinaciones posibles en cuanto a la distribución de colores, tal como nos cuenta la entrada de la Wikipedia, es enorme.
El robot, neumático, utiliza una cámara que envía las imágenes del cubo a un ordenador. Este analiza los patrones de las caras y aplica una serie de algoritmos para resolverlo. Tanto el brazo robótico como el software son obra de Zachary Grady y Joe Ridgeway, estudiantes de la Universidad de Rowan en New Jersey.
Fuente: New Scientist
________________
Enlaces de interés:
– Actualidad informática: Robótica
– Apuntes Informática Aplicada al Trabajo Social. UMU. Inteligencia artificial
Con robots guiados por médicos se opera a los pacientes enalgunos de los principales hospitales, el robot de próxima generación podría eliminar un elemento sorprendente de ese escenario – el médico.
Estudios de viabilidad realizados por bioingenieros de la Universidad de Duke han demostrado que un robot – sin ningún tipo de ayuda humana – puede encontrar una lesión hecha por el hombre, o lesión fantasma, en una simulación de órganos humanos, guíar un dispositivo a la lesión y tomar muestras múltiples durante una sola sesión . Los investigadores creen que a medida que la tecnología se desarrolla, los robots autónomos podrían algún día realizar muchas tareas quirúrgicas sencillas.
«A principios de este año hemos demostrado que un robot dirigido mediante inteligencia artificial puede por sí solo localizar calcificaciones simuladas y quistes en el pecho en simulación de tejidos con alta repetibilidad y precisión», dijo Liang Kaicheng, un ex estudiante en el laboratorio de Stephen Smith, en Duke University Ultrasound Transducer Group. «Ahora hemos demostrado que el robot podrá dirigirse hasta a ocho puntos diferentes en el tejido de la próstata humana simulada».
Los resultados de la investigación de Duke aparecen en la edición actual de la revista Ultrasonic Imaging. Un estudio anterior publicado en la edición de enero de Ultrasound in Medicine and Biologydescrito, el equipo de Duque muestra los resultados de la simulación sobre el tejido mamario. En ambos experimentos, se utilizaron los senos de pavo entero. Los pechos de pavo crudo se utilizan comúnmente en la investigación médica porque el tejido es similar al de los seres humanos en textura y densidad, y son similares cuando se escanean con ultrasonidos.
Información completa en: EurekAlert¡
________________________
Enlaces de interés:
– Actualidad informática: Robótica
– Aplicaciones de la informatica, domotica, robotica …
– Apuntes Informática Aplicada al Trabajo Social. UMU. Capitulo 8, Inteligencia Artificial