Una nueva investigación ha examinado si de una canción se puede predecir que será una superventas.
El documento, que será presentado en un taller internacional esta semana, argumenta que la predicción de la popularidad de una canción podría ser factible según el estado actual de la técnica de algoritmos de aprendizaje automático. El equipo de investigación, dirigido por el Dr. Tijl de Bie, de la University of Bristol’s Intelligent Systems Laboratory en la Faculty of Engineering.
El equipo analizó el funcionamiento de listas del Reino Unido con 40 principales en los últimos 50 años. Su objetivo era distinguir las canciones más populares. Un sitio web, ScoreAHit, sobre la investigación está disponible en scoreahit.com /
Los investigadores utilizaron hechos musicales tales como: el tempo, el compás, la duración de la canción y la sonoridad. También calcularon resúmenes más detallados de las canciones como la sencillez armónica, lo simple, la secuencia de acordes, y no armonicidad, como «ruidosidad» de la canción.
La ecuación funciona buscando en todos los éxitos del Reino Unido durante un tiempo determinado y midiendo sus características de audio. A partir de esto, los investigadores obtenían una lista de pesos, contando entonces la importancia de cada una de las 23 características, fue lo que les permite calcular una puntuación para una canción.
El equipo halló que podía clasificar una canción en un hit o no hi‘ en función de su puntuación, con una tasa de exactitud del 60 por ciento en cuanto a si una canción va a llegar a los cinco primeros, o si no se llega por encima de la posición 30 en la tabla superior del Reino Unido, que escoge 40.
Dr. Tijl De Bie, profesor titular de Inteligencia Artificial, dijo: «Los gustos musicales evolucionan, lo que significa que nuestro ‘ ecuación potencial de hit» tiene que evolucionar y de hecho, hemos encontrado que el éxito potencial de una canción depende de la época, se debe a variables como estilo dominante de música, cultura y medio ambiente. »
El estudio encontró algunas tendencias interesantes, tales como:
Los resultados del estudio difieren de investigaciones anteriores, pues hsta ahora no ha sido demostrado predecir los posibles afectados. Una diferencia cualitativa importante, posiblemente, con los estudios anteriores es el uso del perceptrón, cambio de tiempo para dar cuenta de la evolución de los gustos musicales.
Fuente: University of Bristol. «Can science predict a hit song?.» ScienceDaily, 16 Dec. 2011. Web. 17 Dec. 2011.
La Paradoja de Moravec establece que, contrariamente a lo que pueda parecer, muchas de las funciones mentales que consideramos difíciles son realmente fáciles computacionalmente, pero algunas cosas que nos parecen fáciles son muy difíciles de replicar para los ordenadores.
Resolver un sistema de ecuaciones diferenciales es complicado para el cerebro pero sencillo para un ordenador. Esto es debido a que nuestros cerebros no han evolucionado para hacer ecuaciones diferenciales. No es adaptativo (hasta ahora).
¿Y qué ocurre con los problemas fáciles? Un ordenador tiene enormes dificultades para realizar tareas que para nosotros son simples. La paradoja de Moravec dice que funciones como el procesamiento visual o moverse en una habitación (y que compartimos con los animales) están precableadas en nuestro cerebro por millones de años de evolución y su realización es sumamente eficiente.
Dice Hans Moravec (especialista en robótica e Inteligencia Artificial y futurista transhumanista): «El proceso deliberativo que llamamos razonamiento es, creo, el barniz más delgado del pensamiento humano, efectivo solo porque se basa en el conocimiento sensoriomotor, mucho más antiguo y poderoso aunque habitualmente inconsciente» O como dicen algunos cognitivistas, el razonamiento estáencarnado, deriva de nuestro sistema sensoriomotor.
Marvin Minsky, uno de los creadores de la Inteligencia Artificial dice «En general, no somos conscientes de nuestras mejores habilidades () somos más conscientes de los pequeños procesos que nos cuestan que en los complejos que se realizan de forma fluida» Y dice también que las habilidades humanas más difíciles para realizar ingeniería inversa (simular por ordenador) son las inconscientes.
El psicólogo cognitivo Steven Pinker escribe:
«La principal lección de treinta y cinco años de investigación en Inteligencia Artificial IA es que los problemas difíciles son fáciles y los problemas fáciles son difíciles. Las habilidades mentales de un niño de cuatro años de edad, que damos por sentado: reconocer un rostro, levantar un lápiz, caminar por una habitación, responder a una pregunta, de hecho resuelven algunos de los problemas más difíciles de ingeniería jamás concebidos () A medida que aparece una nueva generación de dispositivos inteligentes, serán los analistas de valores, los ingenieros petroquímicos y los miembros de una junta de libertad condicional los que están en peligro de ser reemplazados por máquinas. Los jardineros, recepcionistas y cocineros tendrán asegurados sus puestos de trabajo en las próximas décadas»
Lo cual engarza con el problema del empleo y la tecnología. Puedes votar en la encuesta de la barra lateral: La tecnología crea y destruye empleo. En tu opinión, actualmente ¿qué predomina?
Fuente: Sinapsis
Se trata del experimento realizado en la Universidad de Cornell (EE.UU.), que no sólo sorprende por su locuacidad, sino que llegan a debatir sobre el existencialismo y la religión.
El experimento se realizó entro dos chatbot, programas de simulación de conversación humana. Su objetivo consiste en generar respuestas lo más naturales posible con el fin de acercarse a los pensamientos de los humanos.
El equipo es conoce como DISCERN y sirve para simular el tipo de redes neuronales que se producen en el cerebro y, sobre todo, lo que sucede cuando se distorsionan las redes, en este caso a través de una liberación excesiva de dopamina. Investigadores de la Universidad de Texas (EE.UU.) han publicado un estudio que muestra que sucede hyperlearning, que se llama cuando el cerebro pierde la capacidad de olvidar.
Es bastante fascinante. Se sugiere que la dopamina, un neurotransmisor relacionado con una variedad de enfermedad mental, actúa como una especie de regulador que ayuda al cerebro a decidir lo que es importante o sobresaliente. «Cuando hay mucha dopamina también conduce a la prominencia exagerada», dice el investigador Uli Grasemann . «Y el cerebro termina por aprender las cosas que no debe aprender».
El cerebro recibe entradas de forma constante, y muchas de ellas no son deseadas o no son pertinentes. Lo que recuerdo de la última hora no es la suma total de lo que he experimentado en la última hora, sino lo que mi cerebro ha construido para mí, con la ayuda de la dopamina. Ahora imagine que usted perdió la capacidad de clasificar todo, y acaba de tener una avalancha de entrada. Aún no ha podido procesar todo, pero su capacidad para seleccionar las cosas correctas para procesarlas se detendría. Esto es la esquizofrenia.
«Es un mecanismo importante para ser capaz de ignorar las cosas», dice Grasemann. «Lo que encontramos es que si usted pone la tasa de aprendizaje lo suficientemente alta para DISCERN, se producen alteraciones del lenguaje que sugieren que se trata de esquizofrenia».
Al final, con hyperlearning , DISCERN se ha perdido, poniéndose en el centro de «delirantes historias fantásticas a las que se incorporaron elementos de otras historias que le habían dicho para recordar.» Como atribuirse la responsabilidad de un atentado terrorista.
Sin embargo los neuroescépticos, señalan que mediante una aproximación «conexionista» DISCERN no es una simulación perfecta.
El objetivo del proyecto sinapsis es la creación de sistemas electrónicos, inspirados en el cerebro humano, que puedan comprender, adaptarse y responder a la información de manera radicalmente diferente a como lo hacen los ordenadores tradicionales. Mientras que las computadoras actuales están organizadas en diferentes procesadores y unidades de memoria que funcionan de acuerdo con una programación, el cerebro está organizado como una red interna y distribuida de procesadores muy simples (neuronas) y la memoria (sinapsis) que espontáneamente se comunican y aprenden de sus funciones. Utilizando el conocimiento de la organización del cerebro como una plataforma, Sinapsis está desarrollando circuitos integrados de alta densidad con dispositivos electrónicos y redes integradas de comunicación que se aproximan a la función y la conectividad de las neuronas y las sinapsis. Este programa también ha desarrollado herramientas de apoyo a esta área específica del desarrollo de hardware, tales como herramientas de diseño de circuitos, simulaciones por ordenador a gran escala de la función hardware y entornos virtuales de formación que puede probar y comparar estos sistemas.
La primera fase de Sinapsis ha desarrollado componentes a escala nanométrica capaces de adaptar la fuerza de la conexión entre dos neuronas electrónicas, similar a lo que ocurre en los sistemas biológicos, la utilidad de la simulación de estos componentes en microcircuitos base que soportan la arquitectura general del sistema. La siguiente fase especifica la arquitectura del sistema a gran escala, las conductas simuladas de núcleos dinámicos de grandes redes, y demostración de microcircuitos electrónicos de sinapsis y neuronas que se organizan espontáneamente en ambientes simples.
«Hasta ahora, Sinapsis ha tenido éxito con todo el hardware básico, la arquitectura, la simulación y evaluación de las capacidades necesarias para una nueva generación de máquinas electrónicas inteligentes», dijo Todd Hylton, director del programa DARPA SYNAPSE.
Los objetivos para la próxima fase incluyen el desarrollo de chips, proceso de fabricación, diseño y validación de sistemas de un solo chip, y la demostración de estos sistemas en entornos virtuales que hacen hincapié en las tareas de comportamiento relacionados con la navegación y la percepción. «Ahora que todos los bloques de construcción están disponibles», dijo Hylton, «nuestra próxima tarea es comenzar a construir sus sistemas de funcionamiento.
El cerebro humano parece capaz de realizar tareas que no puede realizar ningún ordenador. Un ordenador sólo puede realizar tareas calculables (o computables). Turing (1969) afirmó que la inteligencia se caracteriza por la creatividad o iniciativa para el procesamiento de conceptos informales. ¿Es el cerebro una máquina creativa? ¿Es calculable computacionalmente la creatividad? Kurt Ammon introduce en “Informal concepts in machines,” ArXiv, 4 May 2010, el concepto de máquina creativa como la que es capaz de evaluar funciones más allá de las posibilidades de una máquina de Turing o de un sistema formal. ¿Existen las máquinas creativas? Su definición se apoya en dos teoremas: el teorema 1 afirma que existe un procedimiento efectivo para generar una función calculable que no está contenida en ninguna enumeración efectiva de funciones calculables, que demuestra utilizando un argumento de diagonalización; y el teorema 2 afirma que existe un procedimiento efectivo para generar una función calculable que no está contenida en ningún sistema formal que incluya predicados sobre dichas funciones, que demuestra usando el teorema 1. ¿Qué significan estos teoremas?
Una función calculable de los números naturales es parcial si no es capaz de dar un valor resultado para todos los números naturales (su dominio es un subconjunto de los naturales). Una función calculable es total en el caso contrario, cuando su dominio son todos los naturales. Obviamente, el problema de la parada implica que no existe ningún algoritmo (máquina de Turing) que pueda decidir si una función calculable parcial es total. Para Ammon, una máquina creativa es la que es capaz de transformar en función total toda función (sea parcial o total) que reciba como entrada. En este sentido un sistema creativo es capaz de calcular valores de funciones no calculables más allá de los límites de cualquier máquina de Turing o sistema formal. Según Ammon, sus teoremas afirman que los procedimientos (máquinas) creativos existen, pero como no pueden ser máquinas de Turing, no podemos describirlos en un sistema formal. Para él, una máquina “inteligente” es una máquina creativa, capaz de calcular más allá de la capacidad de procesamiento de una máquina de Turing.
Si Ammon tiene razón, nunca la inteligencia artificial será capaz de construir un algoritmo (máquina de Turing) inteligente, aunque las máquinas “inteligentes” existen. A los matemáticos les encanta demostrar la existencia de objetos que no se pueden construir (algorítmicamente) o describir (formalmente). Para la mayoría de nosotros es obvio que las máquinas inteligentes existen, nosotros somos una máquina inteligente.
Fuente: Francis (th)E mule Science’s News
___________________________
Enlaces de interés:
– Apuntes Informática Aplicada al Trabajo Social. Capitulo 8, Inteligencia Artificial
– Actualidad informática: Inteligencia artificial
– Historia de los primeros lenguajes de programación
– Richard Dawkins se sumó a una campaña para obtener un reconocimiento oficial para Alan Turing
Ya hace 50 años desde que Herbert Alexander Simon predijo que antes de finalizar la década de los 60 del siglo pasado “las máquinas serían capaces de realizar cualquier trabajo que el hombre puede desempeñar” en la conferencia que se considera como el punto de partida del campo de la investigación en Inteligencia Artificial.
Simon no acertó, es cierto que la Inteligencia Artificial ha avanzado mucho en estos últimos años y se han conseguido resultados verdaderamente espectaculares, pero aún así el número de logros que se esperaban y que finalmente se han materializado ha sido relativamente modesto. Los expertos consideran que varias cosas se han hecho mal desde el principio en el campo de la Inteligencia Artificial lo que ha frenado su desarrollo.
Ahora, cincuenta años después de su nacimiento, en el MIT quieren reinventar las bases de la Inteligencia Artificial, para lo que se ha puesto en marcha un nuevo proyecto bautizado como Mind Machine Project (MMP) dotado con cinco millones de dólares de financiación y un equipo de académicos, estudiantes e investigadores de alto nivel.
La idea es retroceder en el tiempo y volver a revisar con lupa lo supuestos fundamentales sobre los que se sustenta la investigación de Inteligencia Artificial para corregirlos y marcar la línea a seguir en los próximos años en las tres áreas fundamentales de la IA (mente, memoria y “cuerpo”) y proponer nuevos modelos que las pongan a trabajar de forma conjunta. Se plantean incluso descartar el Test de Turing, prueba para determinar si una máquina posee o no inteligencia. Finalmente el proyecto MMP (que durará cinco años) no solamente se centra en tareas teóricas si no que también hay mucha práctica. Por ejemplo ya se está desarrollando una nueva tecnología de “asistencia cognitiva” destinada inicialmente a personas que sufren Alzheimer.
Una muy buena noticia sin ninguna duda, la comunidad científica reconoce con este paso que no todo se ha hecho bien en el campo de la investigación de Inteligencia Artificial y centrarán sus esfuerzos en refundar los pilares sobre los que se sustenta la IA teniendo en cuenta los errores pasados y los grandes avances que se han producido en distintos ámbitos que pueden hacer importantes contribuciones a esta disciplina.
Vía: Popular Science
Fuente: ALT1040
Bajo una licencia Creative Commons |
_______________________
Enlaces relacionados:
– Apuntes Informática Aplicada al Trabajo Social. Capitulo 8, Inteligencia Artificial
Alice, Brother Jerome, Elbot, Eugene Goostman, Jabberwacky y Ultra Hal. No son ni los nombres de raperos famosos en Youtube ni una nueva camada de celulares. Ni siquiera tienen músculos o huesos. Son, más bien, “chatbots”, un tipo de software o programa artificial que simula mantener una conversación con una persona.
El próximo domingo, los chatbots se someterán a una de las pruebas más arduas dentro de las ciencias de la computación: el test o prueba de Turing para determinar si las computadoras que están detrás de ellos son capaces (o no) de pensar.
Dieciocho años antes de que el escritor de ciencia ficción Arthur C. Clarke imaginara a HAL 9000, la computadora que se volvió loca en 2001: odisea espacial, y que Stanley Kubrick la llevara al unísono al cine, un hombre, luego devenido héroe científico, se sentó a pensar sobre la inteligencia artificial. Se llamaba Alan Turing, era matemático, criptógrafo y filósofo, además de inglés y genio, y dentro de sus hazañas figura la de romper uno por uno los códigos nazis, en especial los de la máquina Enigma durante la Segunda Guerra Mundial.
Turing, a quien hay que aplaudir de pie y agradecer por las computadoras que tenemos a nuestro alrededor, ideó alrededor de 1950 un experimento para decidir si una máquina podía pensar: si una computadora era capaz de mantener un diálogo en cuartos separados con un ser humano sin que la persona advirtiera que del otro lado había un ser artificial, la máquina en cuestión podía ser considerada “inteligente”, con todos los roces que trae aparejadas esta espinosa palabra.
Desde entonces, ninguna computadora logró pasar el ya famoso test. Y eso que lo intentaron varias: una de las tentativas más conocidas pero a la vez más polémicas fue realizada por Joseph Weizenbaum en 1966, quien creó un programa conversacional y terapéutico llamado “Eliza”, bautizada en honor a Eliza Doolittle, protagonista de la obra de teatro Pygmalion y su versión cinematográfica My Fair Lady.
Los seis chatbots en cuestión son los nietos de Eliza, y este domingo a las nueve de la mañana comenzarán a ser bombardeados con preguntas en la Universidad de Reading, Inglaterra, donde se buscará repetir otro hito de la inteligencia artificial como el conseguido en 1997, cuando la supercomputadora Deep Blue de IBM derrotó al campeón de ajedrez Gary Kasparov.
Quienes los examinarán se sentarán frente a una computadora con una pantalla separada en dos: de un lado, el “interrogador” chateará sobre cualquier tema con una persona desconocida y del otro, con una de las computadoras que corre el chatbot. Si el software consigue burlar durante cinco minutos al interrogador –o sea, sin que este último se dé cuenta de quién es quién–, los diseñadores del programa conversacional se llevarán una medalla de oro y los 100 mil dólares del Premio Loebner. Y también se habrá hecho historia.
El estadounidense Richard Wallace es el diseñador de Alice (Artificial Linguistic Internet Computer Entity, alicebot.blogspot.com), tal vez el más conocido de todos estos programas que, al hacerles una pregunta, contestan buscando respuestas en sus bases de datos. Robert Medeksza está detrás de Ultra Hal (www.ultrahal.com); el inglés Rollo Carpenter creó Jabberwacky (www.jabberwacky.com/george); Peter Cole es el responsable de Brother Jerome (www.be9.net/BJ); el alemán Fred Roberts creó a Elbot (elbot.blogspot.com), y Vladimir Veselov le dio forma a Eugene Goostman (www.mangoost.com/bot/bot.jsp).
Ray Kurzweil, un futurólogo y experto en inteligencia artificial, apostó 10 mil dólares a que un sistema artificial pasará el test de Turing recién en 2029. Tal vez debería ir juntando la plata: el domingo quizás alguno de estos seis chatbots se adelante y se lleve a su casa la corona de inteligencia.
Más info: http://www.nesteduniverse.net/2008/09/x-chatbots-to-t.html
Fuente: Crítica de la Argentina