Monumento en honor a Alan Turing en Bletchley Park, el sitio donde Turing logro descifrar mensajes durante la Segunda Guerra Mundial. Créditos: Jon Callas/Flickr.

Cien años después de que Alan Turing naciera, la prueba que lleva su nombre sigue siendo un punto de referencia difícil de alcanzar para la inteligencia artificial (IA). Pero ahora, por primera vez en décadas, es posible imaginar a una máquina que supere la prueba.

Turing fue uno de los grandes matemáticos del siglo 20, un arquitecto conceptual de la computación moderna, cuyo labor de descifrado jugo un papel decisivo en la Segunda Guerra Mundial . Su prueba, propuesta en los primeros de la computación, es aparentemente simple: si una máquina se podía hacer pasar por humano en una conversación, la máquina podría ser considerada inteligente.

Inteligencias artificiales ahora son ubicuas, están en sistemas de navegación GPS, en algoritmos de Google para el servicio al cliente automatizado y en Siri de Apple, por no hablar de Deep Blue y Watson - pero ninguna máquina ha cumplió con el estándar de Turing-. La búsqueda para hacerlo, sin embargo y las líneas de investigación inspiradas por el desafío general de modelado del pensamiento humano, han influido profundamente en ambos equipo y en la ciencia cognitiva.

No hay razón para creer que las primera líneas de código para la primera máquina inteligente ya se han escrito.

"Dos de los avances revolucionarios en la tecnología de la información pueden llevar a la jubilación de la prueba de Turing", escribió Robert French, científico cognitivo en el French National Center for Scientific Research (Centro Nacional Francés de Investigación Científica), en un ensayo para Science. "El primer avance es la disponibilidad de grandes cantidades de datos en bruto - a partir de alimentaciones en vídeo es posible completar los ambientes de sonido, y empleando conversaciones informales se proporcionan los documentos técnicos sobre cualquier tema imaginable. El segundo es el advenimiento de técnicas sofisticadas para la recogida, organización y procesamiento de esta rica colección de datos".

"¿Es posible crear algo similar a la red cognitiva de bajo nivel de asociación que tenemos? Es lo que estamos experimentando ¿Es tan imposible?" añade French.

Cuando Turing propuso por primera vez la prueba -inspirado en un juego de sociedad en la que los participantes trataban de engañar a los jueces acerca de su género, Turing fue cruelmente perseguido por su homosexualidad- la idea de una red cognitiva de bajo nivel de asociación no existía. La idea de replicar el pensamiento humano, sin embargo, parecía muy posible, incluso relativamente fácil.

La mente humana se pensaba era lógica. Computadoras ejecutan comandos lógicos. Por lo tanto nuestro cerebro debía ser similar a una computadora. Los científicos en computación sostenían que al cabo de una década, tal vez dos, una persona involucrada en una conversación con otros dos participantes ocultos, una computadora y un ser humano, sería incapaz de distinguirlos de forma fiable.

Esa idea simplista resultó infundada. La cognición es mucho más complicada de lo que se considero a mitad del siglo veinte tanto para científicos informáticos o psicólogos y la lógica es lamentablemente insuficiente en la descripción de nuestros pensamientos. Una tarea aparentemente humana resultó ser una tarea insuperablemente difícil, basándose en las capacidades humanas anteriormente menospreciadas para integrar diferentes partes de la información en un entorno que cambia rápidamente.

"La lógica simbólica por sí misma es demasiado frágil para dar cuenta de la incertidumbre", explica Noah Goodman, un científico informático de la Universidad de Stanford, que modela la inteligencia de las máquinas. Sin embargo, "fue el fracaso de lo que ahora llamamos la antigua IA muy instructiva. Esto condujo a cambios en la forma en que pensamos acerca de la mente humana. Muchas de las cosas más importantes han ocurrido en la ciencia cognitiva "surgió de estas dudas, añade.



A mediados de 1980, la prueba de Turing había sido abandonado en gran medida como un objetivo de la investigación (a pesar de que sobrevive hoy en día en el premio anual Loebner para chatbots realistas y por un momento la lucha contra bots realistas de publicidad son una característica regular de la vida en línea). Sin embargo, ayudó a engendrar los dos temas dominantes de la cognición y la inteligencia artificial moderna : el cálculo de probabilidades y la producción de un comportamiento complejo basado en la interacción de muchos procesos simples y pequeños.

A diferencia de los enfoques de la fuerza de los llamados irracionales de cómputo que se ven en programas como Deep Blue, el ordenador que derrotó al campeón de ajedrez Garry Kasparov , se consideran un reflejo exacto de por lo menos algo de lo que ocurre en el pensamiento humano.

A partir de ahora, los llamados métodos probabilísticos y conexionistas informan a muchos en el mundo real las inteligencias artificiales: los automóviles autónomos, las búsquedas de Google, la traducción de idiomas automatizado, el programa desarrollado por IBM Watson que domino en Jeopardy . Pero que siguen siguen siendo limitados en su alcance -"Si usted dice: Watson, hazme la cena, o Watson, escribe un soneto, explota", describe Goodman-, pero plantean la posibilidad de su aplicación en conjuntos de datos sin precedentes, grandes, detallados.

"Supongamos, por un momento, que todas las palabras que has hablado, oído, escrito, o leido, así como todas las escenas visuales y todos los sonidos que has experimentado alguna vez, se registraran y fueran accesibles, junto con datos similares para los cientos de miles, incluso millones, de personas. En última instancia, los sensores táctiles y olfativos también se podrían agregar para completar este registro de la experiencia sensorial a través del tiempo", escribió French en Science, con un guiño a la investigadora del MIT Deb Roy quien ha realizado 200.000 horas de grabaciones sobre el desarrollo de su hijo recién nacido .

Y añadió: "Supongamos también que existe el software para catalogar, analizar, relacionar todo este mar de datos. Estos datos y la capacidad para analizar adecuadamente podría permitir a un equipo hasta ahora para responder a las preguntas sin respuesta por ordenador", e incluso pasar una prueba de Turing.

El experto en inteligencia artificial Satinder Singh de la Universidad de Michigan fue cautelosamente optimista sobre las perspectivas que ofrecen los datos. "¿Estos grandes volúmenes de datos van a ser la fuente de construcción de una inteligencia flexible competente? Tal vez", responde.

"Sin embargo, todo tipo de preguntas que no han sido estudiadas se vuelven importantes en este momento. Lo que es útil para recordar ¿Qué es útil predecir? Si usted pone un niño en una habitación y le permitirá pasear sin ningún tipo de tarea, ¿por qué hacer lo que hace?", Continua Singh "Todos estos tipos de preguntas se hacen muy interesante".

"Para que sea amplia y flexible además de competente, uno tiene que tener las motivaciones, curiosidades y averiguar lo que es importante", añade ."Estos son grandes desafíos".

En caso de una máquina que pretende pasar la prueba de Turing, cumpliría un deseo humano, que es anterior a la era de las computadoras, que se remonta al Frankenstein de Mary Shelley o incluso a los golems de la Edad Media , explica el científico Carlos Gershenson, de la Universidad Nacional Autónoma de México. Pero no va a responder a una pregunta más fundamental.

"Va a ser difícil de lograr pero, ¿cuál es el propósito?", reitera Gershenson.

Referencia: