admin

Categorías

Coobis

Inteligencia artificial

Avance hacia la singularidad

Actualidad Informática. Avance hacia la singularidad. Rafael Barzanallana

La inteligencia artificial superará a la inteligencia humana a partir del 2020, predijo Vernor Vinge, pionero en la IA, que advirtió sobre los riesgos y oportunidades que una superinteligencia electrónica podría ofrecer a la humanidad.

Vinge fue profesor de matemáticas, científico de la computación, y autor de ciencia ficción que es bien conocido por su manifiesto 1993, «The Coming Technological Singularity«, en el que argumenta que el crecimiento exponencial de la tecnología significa que se alcanzará un punto cuyas consecuencias son desconocidas. Es conocido por sus novelas «A Fire Upon the Deep», en la que visiona una galaxia que está dividida en «zonas de pensamiento», en la que cuanto más se mueve desde el centro de la galaxia, mayor será el nivel de tecnología que se puede lograr.

«Parece plausible que con la tecnología que tendremos, en un futuro bastante cercano«, continuó Vinge, «crear (o convertirnos en) criaturas que superen a los seres humanos en todas sus dimensiones intelectuales y creativas. Eventos más allá de tal evento – tal como una singularidad – son tan inimaginable para nosotros como la ópera es un gusano plano«.

La revistal MIT Technology Review describió las conclusiones a la cuestión de ¿en qué medida las capacidades de la inteligencia artificial se aproximan al equivalente de la inteligencia humana? Los resultados han sido puestos en ARVIX por un equipo de la Universidad de Illinois en Chicago y un grupo de investigación de IA en Hungría. El equipo comparó un sistema de inteligencia artificial, ConceptNet, un proyecto de código abierto de gestión de » MIT Common Sense Computing Initiative», con una prueba estándar de cociente de inteligencia dada a los seres humanos.

El equipo sometió la parte de CI verbal (CIV) del Wechsler Preschool and Primary Scale of Intelligence (WPPSI-III) al sistema de IA ConceptNet 4. Las preguntas de la prueba (por ejemplo, «¿Dónde se puede encontrar un pingüino?» y «¿Por qué nos damos la mano?») fueron traducidas a  entradas del ConceptNet utilizando una combinación de herramientas de procesamiento de lenguaje natural simples que vienen con ConceptNet  junto a pequeños programas en Python. La respetara a cada pregunta utiliza una versión de ConceptNet basada  en métodos espectrales.

El sistema ConceptNet registró un WPPSI-III VIQ que es normal para un niño de cuatro años de edad, pero por debajo del promedio de cinco a siete años. Las grandes variaciones entre subpruebas indican las posibles áreas de mejora. En particular, los resultados fueron más fuertes para los subtests  de Vocabulario y Semejanzas, intermedios para el subtest de Información, y la más baja para el de Comprensión y Razonamiento.

La comprensión es la subprueba más fuertemente asociada con el sentido común. Las grandes variaciones entre las subpruebas y el sentido común ordinario, sugieren fuertemente que los resultados no muestran que ConceptNet tenga las habilidades verbales de un niño de cuatro años de edad. Las pruebas de coeficiente intelectual de los niños ofrecen una métrica objetiva para la evaluación y comparación de sistemas de inteligencia artificial.

Fuente: MIT Technology Review

Neurotransistores que aprenden

Actualidad Informática. Neurotransistores que aprenden. Rafael Barzanallana

El cerebro es el órgano más complicado de nuestro cuerpo. Genera la consciencia, nuestro “yo” interior, almacena los recuerdos, inventa y sueña. Un futuro cerebro artificial, similar al humano, pero sin sus errores, sin emociones, sin que se canse, tan potente como se necesite, sería la puerta a una nueva edad en la historia de la humanidad. ¿En qué estado se encuentra el desarrollo de máquinas pensantes que imitan el cerebro?

Todavía estamos dando los primeros pasos. Los estudios neurocientíficos durante el último siglo han descubierto que la consciencia y la mente emergen del funcionamiento de las neuronas y de las conexiones sinápticas entre ellas. Sabemos muy bien cómo funciona una neurona individual, pero aún no entendemos como surge la mente. Por ello, uno de los enfoques en el campo de la inteligencia artificial es el desarrollo de ordenadores basados en neuronas artificiales. Circuitos electrónicos que simulan en detalle el funcionamiento de las neuronas. Los científicos defensores de la llamada “inteligencia artificial fuerte” proponen que la mente aparecerá de forma espontánea cuando desarrollemos un sistema neuromimético tan complicado como el encéfalo humano. No será fácil porque nuestro encéfalo contiene unos 86 000 millones de neuronas. Estas neuronas se conectan entre sí mediante sinapsis. En promedio, cada neurona recibe información a través de unas 10 000 sinapsis y envía información a unas 1 000 sinapsis. Hoy en día lo difícil es simular el funcionamiento de las sinapsis mediante microcircuitos electrónicos. Se ha publicado un gran avance en este sentido en la revista Physical Review Applied. Científicos de la Universidad de Harvard (EE.UU.) han desarrollado los primeros circuitos neuromiméticos que imitan fielmente el comportamiento de las sinapsis entre neuronas. Estos circuitos reproducen la capacidad de las sinapsis de reforzarse y debilitarse con el tiempo, de aprender, olvidar o almacenar recuerdos. Estos dispositivos microelectrónicos muestran una plasticidad similar a la de las neuronas y se pueden usar para estudiar cómo trabaja el encéfalo.

El artículo técnico es Sieu D. Ha, Jian Shi, Yasmine Meroz, L. Mahadevan, Shriram Ramanathan, “Neuromimetic Circuits with Synaptic Devices Based on Strongly Correlated Electron Systems,” Phys. Rev. Applied 2: 064003, 2014; arXiv:1411.4179 [cond-mat.str-el]. Más información divulgativa en Cátedra de Cultura Científica, “Crean un circuito que imita a las neuronas y aprende y desaprende,” Next, Voz Pópuli, 16 Dic 2014; en inglés recomiendo Matteo Rini, “Synopsis: Mimicking the Brain,” Physics, 04 Dec 2014.

Fuente: La Ciencia de la Mula Francis

El ordenador IBM Watson aplicado a la sanidad


Watson, la máquina de IBM que deslumbró al mundo en 2011 ganando en el concurso de TV Jeopardy (equivalente a Saber y Ganar en España), se ha puesto a trabajar. IBM, la empresa sanitaria WellPoint y el Memorial Sloan-Kettering Cancer Center han desarrollado unos servicios en la nube que prometen revolucionar la sanidad. Y esto es solo el principio.La Inteligencia Artificial dormitaba en el mundo académico hasta que en 2011, IBM anunció que un ordenador, Watson, competiría en el concurso de televisión Jeopardy. Lo hizo de forma brillante ganando a los dos mejores concursantes de la historia del concurso. Para lograrlo, Watson incorporaba un conjunto de algoritmos que en esencia permitían:

  • Moverse en la ambigüedad (propio de los hombres pero no de las máquinas)
  • Aprender
  • Plantear hipótesis y buscar evidencias

Era obvio que IBM no había invertido una enorme suma para ganar en un concurso. Pronto acuñó el lema Putting Watson to work y formó el grupo Watson Solutions. La primera industria candidata fue la sanidad. El resultado lo hemos visto el ocho de febrero de 2013 con los primeros productos disponibles comercialmente.

El Memorial Sloan-Kettering Cancer Center es la mayor y más antigua institución privada del mundo dedicada al estudio del cáncer. Hasta la fecha, Watson ha digerido más de 600000 evidencias médicas y dos millones de páginas de 42 revistas médicas. El estudio del cáncer se está haciendo muy complejo ya que cada vez es más personalizado e incluye las características genéticas del paciente. Es una cantidad de información que simplemente escapa la capacidad humana. Watson trabaja con las notas del médico, el resultado de las pruebas diagnósticas, el historial de miles de pacientes o la información en revistas científicas.

Por otro lado, WellPoint, el mayor seguro sanitario de Estados Unidos, ha trabajado a fondo para adaptar Watson al entorno sanitario. El entorno sanitario es muy complejo en este país con muchos participantes: el que paga, el que da la atención y el que la recibe. WellPoint trabaja con muchas instituciones además de sus propios recursos. Dos de las necesidades a cubrir son: abaratar los costes de la atención y acelerar el diagnóstico y tratamiento. En este sentido Watson es providencial ya que el médico puede tener un diagnóstico rápido del paciente y solicitar las pruebas adicionales pertinentes. Las pruebas son caras y es esencial realizar solo las que van a aportar información decisiva.

En los ensayos, Watson ha alcanzado un 90% de diagnósticos correctos de cáncer de pulmón en contraste con el 50% de los médicos humanos.

Los tres primeros productos comerciales basados en Watson ya están disponibles. Se trata del Interactive Care Insights para Oncología por parte del Memorial Sloan-Kettering. WellPoint está manejando el Care Guide y el Interactive Care Reviewer, ambos para la gestión inteligente de los pacientes.

Fuente:  ALT1040
Bajo licencia Creative Commons

Vídeo sobre Inteligencia Artificial

Turing fue el padre de la inteligencia artificial (a la que él llamó inteligencia computacional en 1947). En 1948 introdujo el test de Turing para verificar si un ordenador es inteligente. Ciertos chatbots son capaces de superar el test de Turing (ELIZA fue el primero en 1966).

Fuente:  Francis (th)E mule Science’s News

Detector de emociones a partir de lectura de labios

Actualidad Informática. Detector de emociones a partir de lectura de labios. Rafael Barzanallana. UMU

Se ha creado un equipo informático que aprende a interpretar las emociones humanas basadas en el patrón de los labios, según un estudio publicado en Journal of Artificial Intelligence and Soft Computing. El sistema podría mejorar la forma en que interactuamos con los ordenadores y tal vez permitir que las personas con discapacidad usaran computadoras basadas en dispositivos de comunicaciones, tales como sintetizadores de voz, de manera más eficaz y más eficiente.

Karthigayan Muthukaruppanof de la Manipal International University en Selangor, Malasia y colaboradores han desarrollado un sistema que utiliza un algoritmo genético que se pone mejor y mejor con cada iteración para ajustar las ecuaciones de elipse irregular  a la forma de la boca humana mostrando diferentes emociones. Se han utilizado fotos de personas provenientes del sudeste asiático y Japón para entrenar a un equipo para que reconozca las seis emociones humanas comúnmente aceptadas – felicidad, tristeza, miedo, ira, asco, sorpresa – y una expresión neutral. El labio superior y el inferior se analizaron como dos elipses separadas por el algoritmo.

«En los últimos años, ha habido un creciente interés en mejorar todos los aspectos de la interacción entre humanos y computadoras, especialmente en el área de reconocimiento de emociones humanas mediante la observación de la expresión facial», explica el equipo. Investigadores anteriores han desarrollado un procedimiento que permite crear emociones mediante la manipulación de una representación del rostro humano en una pantalla de ordenador. Este tipo de investigación está informando el desarrollo de agentes animados más realistas e incluso el comportamiento de los robots. Sin embargo, el proceso inverso en el que un ordenador reconoce la emoción detrás de una cara humana real sigue siendo un problema difícil de abordar.

Es bien sabido que muchas emociones más profundas son traicionadas por más movimientos de la boca. Una sonrisa genuina, por ejemplo, consiste en la flexión de los músculos alrededor de los ojos y los movimientos de las cejas son casi universalmente esenciales para la interpretación subconsciente de los sentimientos de una persona. Sin embargo, los labios siguen siendo una parte crucial de la expresión externa de la emoción. El algoritmo del equipo con éxito puede clasificar a las siete emociones y una expresión neutral descritas. Los investigadores sugieren que las solicitudes iniciales de este tipo de detector de emoción podría ayudar a los pacientes con discapacidad que carecen de voz para interactuar más eficazmente con los dispositivos de comunicación basados en ordenaadores, por ejemplo.

Ampliar en: «Lip pattern in the interpretation of human emotions» in Int. J. Artificial Intelligence and Soft Computing, 2012, 3, 95-107

Revista de la publicación: International Journal of Artificial Intelligence and Soft Computing search and more info website

«Cerebro artificial» de Google aprende a encontrar vídeos de gatos

Actualidad Informática.

Cuando científicos de computación en el misteriosa laboratorio X de Google elaboraron  una red neuronal de 16000 procesadores de ordenador con mil millones de conexiones y dejaron que navegara por YouTube, hizo lo que muchos usuarios de internet podrían hacer -comenzó a buscar gatos.

El «cerebro» de simulación fue expuesto a 10 millones de selecciones al azar, miniaturas de los vídeos de YouTube en el transcurso de tres días y, después de haberle sido presentada una lista de 20000 artículos diferentes, comenzó a reconocer fotos de gatos mediante un algoritmo de «aprendizaje profundo». Esto fue a pesar de ser alimentado sin información sobre las características distintivas que podrían ayudar a identificar a uno.

Recogiendo las imágenes que aparecen más frecuentemente aparecen en YouTube, el sistema alcanzó 81,7 por ciento de exactitud en la detección de rostros humanos, 76.7 por ciento de exactitud en la identificación de partes del cuerpo humano y 74,8 por ciento de exactitud en la identificación de gatos.

«Al contrario de lo que parece ser una intuición muy extendida, nuestros resultados experimentales revelan que es posible entrenar a un detector de caras sin necesidad de etiquetar las imágenes que contiene una cara o no», dice el equipo en su artículo, Building high-level features using large scale unsupervised learning, que se ha presentado en la Conferencia Internacional sobre Aprendizaje Automático en Edimburgo, del 26 de junio al uno de julio.

«La red es sensible a los conceptos de alto nivel como las caras de gato y el cuerpo humano. A partir de estas características adquiridas, hemos entrenado a obtener el 15,8 por ciento de precisión en el reconocimiento de 20000 categorías de objetos, un salto de 70 por ciento de mejora relativa en el anterior estado de la última generación».

Los hallazgos, que podrían ser útiles en el desarrollo del habla y el software de reconocimiento de imagen, incluyendo servicios de traducción, son notablemente similares a la «célula abuela» la teoría que dice que ciertas neuronas humanas están programadas para identificar los objetos considerados significativos. La  «neurona abuela» es una neurona que se activa hipotéticamente cada vez que experimenta un sonido o una visualización significativos. El concepto podría explicar cómo se aprende a discriminar entre identificar objetos y palabras. Es el proceso de aprendizaje a través de la repetición.

«Nunca se dijo durante el entrenamiento:» Este es un gato», Jeff Dean, quien dirigió el estudio,  dijo al New York Times. «Básicamente, inventó el concepto de gato.»

«La idea es que en vez de tener equipos de investigadores que tratan de averiguar cómo encontrar límites, en su lugar lanzan un montón de datos en el algoritmo y dejan que los datos hablen y el software automáticamente aprender de los datos», añadió Andrew Ng , científico informático de la Universidad de Stanford involucrado en el proyecto. Ng ha sido desarrollador de algoritmos para el aprendizaje de datos de audio y visuales por varios años en Stanford.

Desde su llegada a la opinión pública en 2011, el laboratorio secreto de Google X – se cree que se ubica en el Área de la Bahía de California – ha publicado investigaciones en internet de cosas tales, un ascensor espacial y la conducción autónoma.

Su última aventura, aunque no llegando al número de neuronas en el cerebro humano (se cree que más de 80 millones de dólares), es uno de los simuladores cerebrales más avanzado del mundo. En 2009, IBM ha desarrollado un simulador del cerebro que reproducía mil millones de neuronas del cerebro humano conectadas por diez billones de sinapsis.

Sin embargo, la última oferta de Google parece ser el primero en identificar los objetos sin pistas e información adicional. La red continuó para identificar correctamente los objetos, incluso cuando se distorsionan o se colocan con fondos destinados a desorientar.

«Hasta ahora, la mayoría de los algoritmos [anteriores] sólo habían tenido éxito en el aprendizaje de bajo nivel, tales como detectores «bordes» o «manchas», dice el documento.

Sin embargo, Google se considera como un avance que la investigación ha hecho que el gran salto desde el laboratorio X para sus laboratorios principales.

Los derechos de autor harían de la Singularidad una infracción del copyright

¿Qué pasaría el día que llegara la Singularidad a nuestras vidas? ¿Cómo afectarían las leyes de derechos de autor sobre ese nuevo mundo? Aunque de forma humorística, el vídeo con el que abrimos nos muestra muchas de las claves que hoy vivimos llevadas al límite. El copyright llevado al exceso podría conducir a un mundo tan peculiar como el descrito en la pieza visual por Tom Scott.

El concepto de Singularidad en términos tecnológicos nos habla de un futuro donde se predice que el proceso tecnológico y el cambio social se acelerarán debido al desarrollo de la inteligencia artificial. De alguna manera ese futuro cambiaría por completo la vida tal y como la conocemos. Un momento donde los equipos junto a la comprensión de la mente humana sean tan poderosos como para tener la capacidad de “subir” nuestras mentes a una red y, entre otras cosas, vivir en ellas para siempre.

Sea como fuere y llegados al caso, no sería descabellado pensar que en un futuro así, las leyes de derechos de autor chocarían frontalmente con nuestras mentes en la red. Podrían existir diferentes paquetes de “vida” en la red marcados por los precios y el número de licencias que se nos permiten recordar o tener como historial “cultural” con el fin de evitar la infracción.

En cualquier caso si algo podemos sacar en claro de esta pequeña joya es la incapacidad de los derechos de autor para adecuarse a los tiempos que viven, más con los grandes cambios en materia tecnológica. Y es que si la Singularidad llegara a nuestras vidas, es posible que tuviera copyright.

Fuente: ALT1040

Bajo licencia Creative Commons

Inteligencia Artificial: Ramon Llull y Ars Magna

Actualidad Informática. Inteligencia Artificial y Ramón Lull. Rafael Barzanallana

En ciencias de la computación se denomina inteligencia artificial (IA) a las inteligencias no naturales en agentes racionales no vivos. John McCarthy, acuñó el término en 1956, la definió: «Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes

Desde la antigüedad el ser humano ha estado trazando el camino que le permitiese desarrollar “máquinas inteligentes” y “máquinas pensantes”. El primer ejemplo lo encontramos en la Antigua Grecia, con Aristóteles, que intentó describir el funcionamiento racional de la mente, o Ctesibio de Alejandría, con una máquina automática que regulaba el flujo de agua, podemos encontrar los primeros pasos de esa búsqueda de las máquinas pensantes. El siguiente hito lo encontramos en la oscura Edad Media, época en la que se desarrolló uno de los trabajos más curiosos (y adelantados para su época) gracias a Ramón Llull y su obra titulada Ars Magna.

Ramon Lull (1232 – 1315), o Ramón LLull, es un beato de la ICAR,  de que nació en la Ciudad de Mallorca en el siglo XIII y estuvo vinculado a la orden franciscana donde ejerció de filósofo, poeta, místico, teólogo y misionero.

En el año 1315, Ramon Llull expresó en el Ars Magna la idea de que el razonamiento podía implementarse de manera artificial en un artefacto mecánico con el que poder mostrar las verdades de la fe cristiana de una manera tan clara que no hubiese lugar a discusión, es decir, Llull pretendía construir una máquina que demostrase que los dogmas de la fe cristiana eran correctos y una tesis, en forma de libro, que sin lugar a dudas pusiera sobre la mesa los errores que cometían los infieles. Ramon Llull llamó a este artilugio Ars Generalis Ultima o Ars Magna (Gran Arte)

Eliza y sus sucesores, ejemplos de inteligencia artificial

Actualidad Informática. Eliza y sucesores. Rafael BarzanallanaObviando  a los juegos de Ajedrez, que  se suelen tomar como inicio para hablar de Inteligencia Artificial, quizás uno de los trabajos más destacables fue el de Joseph Weizenbaum (1923-2008) mientras trabajaba en el MIT: El programa ELIZA.

Eliza (escrito en lenguaje LISP, el año 1966) fue uno de los primeros programas informátics que eran capaces de «conversar» con una persona,  porque su autor se basaba en la filosofía que utilizaba el psicólogo Carl Rogers (psicología rogeriana), o lo que es lo mismo, utilizar -o aparentar- empatía para que el paciente se sintiera querido y escuchado.

Y lo cierto es que el programa tuvo bastante éxito, lo que dice mucho de los seres humanos.

Entre otras pequeñas cosas, el programa Eliza actuaba siguiendo tres pilares principales y básicos:

  • Detector de palabras clave: Si Eliza encontraba una palabra clave, respondía una de varias frases predefinidas por el creador, relacionada con el tema en cuestión.
  • Frases comodín: Si Eliza no encontraba ninguna palabra clave podía responder frases neutrales que no implicaran hablar sobre el tema: «Oh, ¡qué interesante!», «Por favor, continúa…».
  • Frases envolventes: También, en el caso de no encontrar ninguna palabra clave, podía realizar supuestas frases profundas, preocupándose por el sujeto: «Has dicho ‘…’ ¿Por qué crees eso?» o «Háblame más sobre eso que decías de ‘…’».

Obviamente, de inteligencia, poco. Lo único que se demostraba relacionado con esta cualidad, era lo «inteligentes» que podían llegar a ser los usuarios que utilizaban el programa, los cuales creían estar hablando con un verdadero doctor.

Aunque hay que comprender que, en esa época, ver a una máquina manteniendo una conversación aparentemente inteligente debía de ser algo que impresionara, era sólo una simple ilusión. El mismo autor del programa fue el primero en llevarse las manos a la cabeza tras ver el fanatismo que se empezaba a crear en torno a su programa.

Personal administrativo, así como secretarias (siempre personal no técnico) utilizaban Eliza para contarle secretos y detalles íntimos porque sentían que el programa realmente les «escuchaba». Su autor cuenta, incluso, que la secretaria le pidió una vez que saliera de la habitación hasta que terminara de hablar con Eliza, confiando más en el programa que en el propio Weizenbaum.

Todo esto, junto al hecho de que algunos psiquiatras querían utilizar Eliza como una herramienta para sus pacientes más graves (creían que el programa realmente pensaba y trataba los problemas), terminó obligando a Weizenbaum a escribir un libro «Computer Power and Human Reason» (1972) donde contar todo acerca de la experiencia de su invento, convirtiéndose en uno de los más duros críticos de la posible incorporación de inteligencia en las máquinas.

Mucho ha llovido desde entonces, y continuaron desarrollándose programas derivados estos últimos años. Por citar algunos ejemplos en nuestro idioma, tenemos el Dr. Abuse, otro clon de Eliza desarrollado por Barres y Boronat en la época de los 90, con características como sintetizador de voz o una base de datos de información de conversaciones anteriores.

La propia IKEA implementó una asistente virtual llamada Anna, que responde con cierta soltura a las preguntas relacionadas con la venta de productos… y otras cuestiones.

Cleverbot es otro sistema de inteligencia artificial que utiliza la idea de base de Eliza, sin embargo, añade características de redes neuronales artificiales, incorporando la capacidad de aprender de diálogos previos de otros usuarios del programa.

Otro producto interesante que utiliza redes neuronales es 20Q (o alguno de sus clones, como Akinator). Básicamente, te desafía a ser capaz de adivinar una determinada cosa que pienses, sólo con responder a menos de 20 preguntas de verdadero o falso. ¡Incluso tienen un especial 20Q de Doctor Who!

Actualmente, la «fiebre» del reconocimiento del lenguaje (hablado, en este caso) viene a cargo de los smartphones, donde herramientas como Siri (en iPhone) o Jeannie (en Android) permiten mantenerse a la escucha de frases en las que les podemos pedir información, que realicen acciones o incluso intentar mantener una conversación «medianamente» inteligente.

Ampliar información en: Amazings

 

 

 

Vigencia del Test de Turing

Actualidad  Informática. Vigencia del test de Turing. Rafael BarzanallanaAlan Turing (1912-1954), famoso matemático inglés, fue uno de los creadores de la moderna computación junto con Von Newmann, y Shannon entre otros.

En la Segunda Guerra Mundial descubrió el código de Enigma, la máquina de criptografía de los nazis y formuló la máquina de Turing. En su artículo “La maquinaria de la computación y la inteligencia” planteó el llamado Test de Turing.

El final de Turing fue trágico siendo condenado por homosexualidad. Optó por la castración química frente a la cárcel. Dos años después se suicidó.

Hace más de medio siglo Alan Turing se planteó la pregunta ¿Pueden pensar las máquinas? Para no tener que resolver la ambigüedad de los conceptos máquina y pensar, diseñó una prueba que sustituyera a la citada pregunta creando con ello el célebre Test de Turing.

Predijo en los años 50, que a final del siglo XX los ordenadores podrán superar el juego de imitación. No ocurre antes no porque el hardware no sea potente sino porque hay que programar las máquinas y eso llevará 50 años. La predicción de Turing es completamente errónea. Ni las máquinas actuales ni las de un futuro próximo ni mucho menos las de su época pueden remotamente superar el Test de Turing en una tarea verbal como propone.

Creo que a finales del siglo el uso de las palabras y la opinión educada general se habrán modificado de tal manera que se podrá hablar de máquinas que piensan sin esperar que lo contradigan.

A menudo se da importancia al hecho de que las computadoras digitales son eléctricas y que el sistema nervioso también lo es. Puesto que la máquina de Babbage (anterior a Turing) no era eléctrica y puesto que todas las computadoras digitales son equivalentes en cierto sentido, observamos que el uso de la electricidad no puede tener importancia teórica.() Si realmente deseamos encontrar tales semejanzas, deberíamos buscar analogías matemáticas en el funcionamiento.

Las consecuencias de que las máquinas pensaran serían demasiado terribles. Esperemos y creamos que no pueden hacerlo.() Nos gusta creer que el hombre es, en cierto modo, superior al resto de la creación, pero sería mejor si pudiéramos demostrar que es necesariamente superior, puesto que así no habría peligro de que perdiera su posición dominante.

A fecha de hoy el Test de Turing está lejos de ser superado por ningún ordenador en un entorno de lenguaje natural sin restricciones.

Sin embargo, si usamos el test en tareas concretas, un ordenador lo superará en muchos casos. Cada vez más y más sorprendentes. De modo que sugiero reformular el Test de Turing de la siguientes manera:

Un ordenador supera el Test de Turing para una tarea X cuando un juez humano no pueda distinguir entre un concursante humano y un concursante ordenador ejecutando la tarea X

¿En qué tareas un ordenador supera el test?

  • Cuanto más acotada sea la tarea, más posibilidades tiene un ordenador de superarla. En los entornos de ejecución abiertos, que por su naturaleza no han sido programados por completo, fracasará con mayor facilidad.
  • Los ordenadores están construidos por humanos para que les descarguen de trabajo, realizando tareas humanas. Por ello superan el test en multitud de tareas. Por ejemplo todas las tareas de informática empresarial: contabilidad, control de almacén, nóminas, cálculos diversos…
  • Matemáticas. El propio Turing advirtió que ya en su tiempo lo único adicional que debería requerir un programa matemático era ralentizar su respuesta e introducir algún error para confundir al juez humano.
  • Ajedrez. En 1997 Deep Blue ganó a Garry Kasparov estableciendo un nuevo escenario en la relación hombre máquina. Hoy los programas comerciales modernos no solo ganan a cualquier maestro, sino que ajustan su nivel (juegan deliberadamente peor) al de su contrincante para no desanimarle.
  • Música. Puedes bajarte una composición del programa Emmy al estilo Bach. Una audiencia especializada no distinguió si el compositor era Bach o Emmy.
  • Poesía. Aunque los ordenadores están lejos de crear largos textos en prosa, pueden confundir en un poema corto:
    Velada , velada , gozosa ,gozosa.
    ¡Señor! , cuán estrechamente el pretendiente expira.
    Los vapores son sensatos cuando un masculino hechizo
    canta sosegadamente .
    El sonido es una marea gozosa que gime perdidamente
    junto a los serenos veleros.
    Una caricia en la noche , helada , es una encantadora y helada poesía. Velada , velada , gozosa ,gozosa .
    ¡Oh! , cuán calmadamente un ganador vive.
  • Reconocimiento de caras. Poco a poco se van adentrando en este terreno. Policías del mundo están usando estos programas que empiezan a estar disponibles en smartphones y ordenadores domésticos.
  • Síntesis de voz. Disponible desde hace tiempo,se va refinando. Aun distinguimos con claridad una voz humana de una sintética.
  • Reconocimiento de voz. Asignatura pendiente donde el camino por recorrer es aún grande. Su importancia comercial es enorme y en los últimos meses el avance es espectacular.
  • Lenguaje natural. Watson, Es el enfoque más ambicioso de los últimos tiempos. Watson supera el test en la tarea “jugar en el concurso televisivo Jeopardy” No es un entorno abierto, pero el avance en “entendimiento” de lenguaje natural es asombroso.

Artículo completo en: ALT1040

Bajo licencia Creative Commons

 

 

Related Posts with Thumbnails

Calendario

noviembre 2024
L M X J V S D
« Nov    
 123
45678910
11121314151617
18192021222324
252627282930  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa