Los adolescentes estadounidenses son más propensos a utilizar la búsqueda de voz en sus teléfonos inteligentes que los adultos. Alrededor del 55 por ciento de los jóvenes menores de 18 años usan Cortana, Google Voice Search (Google Now) o Siri, más de una vez al día. Mientras que la mayoría de los adolescentes de Estados Unidos (55 por ciento) utilizan la búsqueda mediante voz todos los días, el número sube al 75 por ciento entre los adolescentes que son grandes consumidores de teléfonos inteligentes (usándolo 11 o más horas al día). Los adultos están detrás de los adolescentes, pero los adultos el 41 por ciento habla con su teléfono a diario.
Los números son de Google’s Mobile Voice Study de 1400 usuarios de smartphones. Los rangos de edad utilizados fueron: 13 años de edad y mayores (400, 13 a 17 años) y adultos a partir de 18 años (1000 adultos). El estudio fue encargado por Google y realizado por Northstar Research. Google quería entender los hábitos de búsqueda de voz entre los usuarios de teléfonos inteligentes de EE.UU. en función de los rangos de edad.
El blog oficial de Google mostró el espíritu de los hallazgos el martes con el titular: «Encuesta ¡OMG sobre voz en móviles revela que a los adolescentes les encanta hablar.» De Scott Huffman, vicepresidente de Google, dijo: «No nos sorprendió encontrar que los adolescentes siempre van por delante de la mayoría cuando se trata de nuevas tecnologías, hablan con sus teléfonos más que el adulto promedio.»
Habló sobre el objetivo del estudio. «Queríamos aprender más acerca de cómo la gente de todas las edades utiliza Google Voice en sus teléfonos. Encontramos que para los adolescentes, la búsqueda por voz es tan natural como la comprobación de medios de comunicación social y que están siendo muy creativos acerca de cómo (y dónde) utilizarla. »
El estudio reveló que el 51 por ciento de los adolescentes (32% de los adultos) utilizan la búsqueda de voz «sólo por diversión». En otras respuestas, el 57 por ciento de los adolescentes dijeron que usaron búsqueda por voz con sus amigos, mientras que sólo el 24 por ciento de los adultos dijeron lo mismo. «Los adolescentes no parecen asociar cualquier estigma con el uso de la búsqueda de voz, mientras que salen con los amigos, mientras que sólo una cuarta parte de los adultos hablan a sus teléfonos cuando están en compañía de otros», dijo Huffman.
Curiosamente, los encuestados de todas las edades dijeron que la búsqueda por voz será «muy común» en el futuro (el 89 por ciento de los adolescentes y el 85 por ciento de los adultos estuvieron de acuerdo).
Cuando se preguntó «elegir una cosa que te gustaría preguntar al teléfono para que lo hiciera por ti,» el 45 por ciento de los adolescentes estadounidenses seleccionado «enviarme pizza.» mientras que el 44 por ciento de los adultos querían búsqueda por voz para btener la localización de sus llaves, frente a sólo el 34 por ciento de los adolescentes.
Google también analizó cómo los números se dan fuera geográficamente, entre todos los rangos de edad. Ellos encontraron que los nordestinos fueron los usuarios más activos en los EE.UU. y los neoyorquinos eran los más probables a los estadounidenses a utilizar la búsqueda de voz para preguntar sobre el tiempo (43 por ciento).
Huffman dijo: «El estudio nos da grandes ideas sobre nuevas formas en las que podríamos ayudar a las personas-tal vez incluso ayudarles a encontrar sus llaves y otros objetos difíciles de encontrar.»
La tecnología de reconocimiento de voz no nació con el Apple iPhone 4s- el primero en el que apareció Siri. La atención telefónica lleva utilizando esta forma de interacción muchos años. Y no deja de ser un reflejo de la mejora de la técnica el que la máquina antes entendiera al humano de pascuas a ramos mientras que ahora la precisión ha aumentado. Éste es el método tradicional, el de los comandos de voz.
Hoy día se está acompañando a estos comandos de una capa de lenguaje natural. Así lo expresa Marco A. Piña Sánchez, director de ventas de empresa y movilidad para Iberia de Nuance, una compañía que proporciona reconocimiento de voz al smartwatch de Samsung, Galaxy Gear, al Galaxy Note III y también está presente en Siri. “En vez de decir ‘tarjeta’ o decir ‘saldo’ se puede decir directamente ‘quiero saber el saldo de mi cuenta que acaba en 23 y hacer una transferencia de 100 euros a la cuenta que acaba en 45’. Es decir, se está estableciendo una capa más de diálogo”, explica, aclarando que tras procesar el sonido, la máquina acude a la base de datos del banco en busca de la respuesta.
Pero, ¿cómo es capaz el software de reconocer el habla? Un sistema de reconocimiento de voz está formado por varias capas o modelos, según señala Piña. El primero de ellos es el modelo acústico, que permite a la tecnología identificar si el sonido procede de una llamada de móvil, de un teléfono IP o cualquier otro medio. Determinar el canal de comunicación es importante para establecer el grado de distorsión que puede experimentar el mensaje.
El modelo lingüístico va a continuación y se trata del idioma. Pero no es tan sencillo como indicar al sistema que reconozca castellano, francés o mandarín. “Nuestro software está perfectamente preparado para portugués, pero en ocasiones nuestra gente de servicios tiene que hacer algunas pequeñas modificaciones, por ejemplo para entender el portugués que se habla en Madeira, que puede tener algún giro especial”, comenta el directivo de Nuance. No sólo es preciso entender la lengua sino los distintos acentos con que se habla e incluso entender las formas de expresarse, que pueden ser diferentes en cada hablante.
Ésta es otra capa más: el modelo semántico. Con él se consigue que un sistema de reconocimiento de voz entienda la forma de hablar de la gente, cómo se construyen las frases y cómo puede variar esta construcción, dependiendo de la región, de la cultura y de todas las influencias personales de cada cual. Por último, funciona un motor estadístico, que recoge la frase una vez transcrita a texto y realiza una búsqueda en la base de datos con estos términos.
Esta consulta tiene que adivinar si la frase dicha, con el nivel de distorsión correspondiente si se habla desde un móvil, el acento y la forma de decirlo están pidiendo una determinada acción. La precisión del software al final se reduce a aumentar la base de datos para alcanzar todas las combinaciones posibles en un idioma. Es más, en cada nuevo entorno que se implementa hay que construir un nuevo modelo semántico.
“Ante un proyecto empresarial, lo primero que tenemos que hacer es saber cómo los clientes preguntan a esa compañía”, puntualiza Piña. “Llegará, pero todavía no estamos a un nivel de inteligencia artificial en el que yo pongo un software y, sea una telco, sea una financiera, una empresa de transportes o una textil, pueda entender cualquier cosa que yo le diga de ti”, señala.
Fuente: eldiario.es
Licencia CC
Obviando a los juegos de Ajedrez, que se suelen tomar como inicio para hablar de Inteligencia Artificial, quizás uno de los trabajos más destacables fue el de Joseph Weizenbaum (1923-2008) mientras trabajaba en el MIT: El programa ELIZA.
Eliza (escrito en lenguaje LISP, el año 1966) fue uno de los primeros programas informátics que eran capaces de «conversar» con una persona, porque su autor se basaba en la filosofía que utilizaba el psicólogo Carl Rogers (psicología rogeriana), o lo que es lo mismo, utilizar -o aparentar- empatía para que el paciente se sintiera querido y escuchado.
Y lo cierto es que el programa tuvo bastante éxito, lo que dice mucho de los seres humanos.
Entre otras pequeñas cosas, el programa Eliza actuaba siguiendo tres pilares principales y básicos:
Obviamente, de inteligencia, poco. Lo único que se demostraba relacionado con esta cualidad, era lo «inteligentes» que podían llegar a ser los usuarios que utilizaban el programa, los cuales creían estar hablando con un verdadero doctor.
Aunque hay que comprender que, en esa época, ver a una máquina manteniendo una conversación aparentemente inteligente debía de ser algo que impresionara, era sólo una simple ilusión. El mismo autor del programa fue el primero en llevarse las manos a la cabeza tras ver el fanatismo que se empezaba a crear en torno a su programa.
Personal administrativo, así como secretarias (siempre personal no técnico) utilizaban Eliza para contarle secretos y detalles íntimos porque sentían que el programa realmente les «escuchaba». Su autor cuenta, incluso, que la secretaria le pidió una vez que saliera de la habitación hasta que terminara de hablar con Eliza, confiando más en el programa que en el propio Weizenbaum.
Todo esto, junto al hecho de que algunos psiquiatras querían utilizar Eliza como una herramienta para sus pacientes más graves (creían que el programa realmente pensaba y trataba los problemas), terminó obligando a Weizenbaum a escribir un libro «Computer Power and Human Reason» (1972) donde contar todo acerca de la experiencia de su invento, convirtiéndose en uno de los más duros críticos de la posible incorporación de inteligencia en las máquinas.
Mucho ha llovido desde entonces, y continuaron desarrollándose programas derivados estos últimos años. Por citar algunos ejemplos en nuestro idioma, tenemos el Dr. Abuse, otro clon de Eliza desarrollado por Barres y Boronat en la época de los 90, con características como sintetizador de voz o una base de datos de información de conversaciones anteriores.
La propia IKEA implementó una asistente virtual llamada Anna, que responde con cierta soltura a las preguntas relacionadas con la venta de productos… y otras cuestiones.
Cleverbot es otro sistema de inteligencia artificial que utiliza la idea de base de Eliza, sin embargo, añade características de redes neuronales artificiales, incorporando la capacidad de aprender de diálogos previos de otros usuarios del programa.
Otro producto interesante que utiliza redes neuronales es 20Q (o alguno de sus clones, como Akinator). Básicamente, te desafía a ser capaz de adivinar una determinada cosa que pienses, sólo con responder a menos de 20 preguntas de verdadero o falso. ¡Incluso tienen un especial 20Q de Doctor Who!
Actualmente, la «fiebre» del reconocimiento del lenguaje (hablado, en este caso) viene a cargo de los smartphones, donde herramientas como Siri (en iPhone) o Jeannie (en Android) permiten mantenerse a la escucha de frases en las que les podemos pedir información, que realicen acciones o incluso intentar mantener una conversación «medianamente» inteligente.
Ampliar información en: Amazings