domingo, julio 22, 2007

LA MENTE DE LA MÁQUINA

Imagen: Marvin, el robot depresivo de "The Hitch Hiker's Guide to the Galaxy", en la versión cinematográfica.

Durante esta semana se llevó a cabo en la Universidad de Glasgow una Escuela de Verano en Semántica para Multimedia, y me pareció que ese cuento de la semántica computacional bien vale un par de palabras en el blog.

Semántica es, básicamente, el estudio de los significados. En su aspecto computacional, se trata de la representación formal del significado, una representación que las máquinas puedan utilizar. El desarrollo completo de una semántica computacional (como ciencia y como técnica) llevaría, en cierto modo, a que los computadores pudieran entender.

En ese sentido, esta disciplina parece ser la heredera de la Inteligencia Artificial, programa que conoció su apogeo de los 70s a los 80s y decayó en fama y prestigio ante el gran público durante los 90s.

Como heredera de la Inteligencia Artificial, comparte también un talón de aquiles: la escalabilidad. La mayoría de aplicaciones de Inteligiencia Artificial (tal vez los más famosos fueron los sistemas expertos) fueron construídas para resolver problemas muy concretos y delimitados, y presentan serios problemas para ponerse a funcionar a escalas mayores, y mucho más, para atacar problemas más generales. La Red Semántica todavía requiere mucho trabajo humano, y por lo tanto no es escalable. Hasta que todas las labores puedan ser automática y eficiente, habrá mucho excepticismo. De hecho, el excepticismo pareció ser muy frecuente entre los mismos conferencistas y organizadores de la Escuela. Con excepciones, claro, se puede decir que los principiantes creen en la Red Semántica, pero los expertos no.

La ahora famosa Red Semántica nace con pretenciones mucho más modestas que la Inteligencia Artificial. La idea, es que la información disponible en la red global esté estructurada de una manera que facilite representar conceptos y relaciones entre ellos. Inicialmente, los contenidos de la red, o de un repositorio cualquiera de información, tenían estructuras que facilitaban su manejo a un nivel completamente formal, sin apenas representar relaciones semánticas; era el usuario el que les daba finalmente un contenido semántico a los datos que obtenía. Pero en un momento dado, se comenzaron a etiquetar los paquetes de datos, e incluso se comenzó a darle una cierta estructura de relaciones a las etiquetas, con lo que comenzó el programa (hablo de programa de investigación, en el sentido de Lakatos) de la Red Semántica.

Los lectores con una cierta sensibilidad estética habrán notado que he utilizado adefesios de palabra como eso de "multimedia"... para ellos, malas noticias, porque viene algo peor: el hipertexto. Antes de la red semántica, cuando simplemente se trataba de la red a secas, (o, bueno, la red mundial "world wide web") hubo un trabajo más bien burocrático para unificar formatos en la red, y se llegó a uno suficientemente flexible, que permitía incluir texto y objetos que no fueran texto, y, más importante aún, enlazarse con otros documentos. Ese es el hipertexto. Y el formato se llama html (hypertext markup language, lenguaje marcas hipertextuales). He leído textos posmodernos donde le dan cualidades y poderes sobrenaturales. Incluso algunos geeks informáticos (supongo que con novia en Estudios Culturales) se han tragado este cuento animista; pero no nos engañemos, el hipertexto es sólo un formato para poner cosas distintas enlazadas.

Es feo pero podría ser peor: Vannevar Bush había propuesto llamar al hipertexto "memex". Me da la impresión de que por más inteligentes que sean, el buen gusto no es una virtud común entre los gringos.

Ahora bien, para añadirle a eso alguna forma primitiva de sentido, se ha desarrollado, en una manera también burocrática, pero más abierta, académica y con teoría más profunda, esquemas para incluír estructuras de origen semántico en los documentos. Ahí van algunos

XML: un esquema de sintaxis. La ortografía para poder escribir cosas.

RDF: (Resource Description Framework) Un lenguaje para definir objetos (que representarán a los conceptos) con ciertas propiedades, pero, más importante aún, con relaciones. Así se puede evitar la necesidad de usar definiciones prefabricadas de las cosas, y definirlas cuando sea necesario, en una forma estándar.

OWL: (Ontology Web Language) Lenguaje para describir conceptos, sus propiedades y sus clases, y las propiedades de las clases y sus relaciones.

¿Ontologías, entonces? Si, así les llaman. Es claro que no son las mismas ontologías que vienen con las teorías científicas (el conjunto de cosas que suponen que existen) y mucho menos las abstractísimas teorías filosóficas de lo que existe. Éstas son unas enumeraciones de objetos, clasificados y con algunas propiedades suyas y de la clasificación especificadas, y relacionados entre sí de maneras también especificadas. ¿será eso lo mismo que una ontología de verdad?

La ontología de una teoría científica se parece bastante a una ontología como las que se definen con este lenguaje, pero tiene una diferencia fundamental: su fundamento último está en una técnica experimental que permite el acuerdo intersubjetivo. Dice "existen los fotones" y eso está relacionado con cómo los podemos detectar, que viene a ser unas técnicas de laboratorio, e incluso unos laboratorios concretos, de metal, madera, cerámica, cemento y alguna otra cosa. Pero las ontologías de la red, parten de una comunidad de usuarios (porque hacer una ontología que sirva es una tarea titánica que sólo puede hacer un grupo) que aún da muchas cosas por supuestas: es decir, parte de una posición cultural particular y arbitraria.

La Universidad de Princeton desarrolló una ontología con información lingüística de las palabras del idioma inglés, que es como un hiperdiccionario que puede ser consultado por un computador para, por ejemplo, poner mejores rótulos a los documentos de una colección, o para tareas de ese estilo. Puede consultarse en este enlace. Hay una ontología médica muy famosa, que sirve para organizar el volumen absurdo de publicaciones científicas en el área de la salud.

Pero este texto se llama La Mente en la Máquina, y tiene la foto de Marvin, el simpático robot depresivo. "Aquí estoy, una mente del tamaño de un planeta, llevando a los huéspedes al puente. Digan ustedes que hay felicidad en el trabajo, porque yo no lo haré"

Dejaré entonces a un lado mi divagación sobre cómo este esquema puede ser una nueva de globalización que impone una manera de entender las cosas a todo el mundo civilizado, y pasaré a un ejemplo más interesante en el que pensé mientras asistía algunas de las charlas de la escuela. Todo lo que menciono ya se puede hacer, y es incluso escalable, aunque algunas cosas con algo más de trabajo, si uno tiene una máquina suficientemente potente.

El robot graba su entorno con una cámara. Un sistema de detección de objetos le permite aislarlos, rotularlos, y reconocerlos posteriormente. Todo esto, en tiempo real. Mediante procedimientos lógicos y estadísticos, puede integrar imagen, sonido, e información de otros sensores, a la descripción del objeto. Una observación sistemática del objeto, le permite establecer relaciones con otros objetos que tenga debidamente caracterizados. El robot puede establecer su propia ontología. Define objetos, relaciones y sucesos, y puede utilizar esa información para predecir eventos futuros (aunque, hasta ahora, en una forma no muy sofisticada)

En particular, puede describir la identidad y ciertas acciones de sujetos humanos de una manera bastante eficiente y rápida.

El robot no tiene que ser un robot, de hecho puede ser una cuadrilla de robots autónomos que compartan su información. Lo mismo que hacen con objetos observados en su exterior, puede utilizarlo con objetos en su memoria, incluyendo rutinas y programas; La mayor parte información sobre éstos no es necesariamente estadística, como la de los objetos externos, aunque puede serlo. Puede modificar los objetos de su entorno y los mismos objetos que usa para procesar información con un cierto criterio, para aprender y para otras tareas.

Mi escenario imaginado me deja, sin embargo, algunas dudas:

  1. Si se le permite al robot modificar sus objetos internos, podría tener problemas para compartir su información con otro robot que los haya modificado de otro modo. Hay que establecer un nivel mínimo que no pueda modificar, si se pretende que se comunique.
  2. El "criterio" con el que actúte el robot tiene que referirse a una ontología preexistente. Ahí pueden introducirse, por ejemplo, las leyes de Asimov. Pero me parece que ahí diverge la "inteligencia" de nuestro robot de la humana, porque la motivación humana es un proceso poco racional, que involucra hormonas y mucha bioquímica. Sospecho que el problema de formalizar la motivación es una cosa horrorosamente compleja.
En todo caso, es sugerente la cosa.

Una lectura recomendada, aunque en inglés.

7 comentarios:

Daniel Vaughan dijo...

Lanark,

No terminé de leer el post porque me acordé de una cosa que estaba pensando hoy y creo que tiene que ver con la "escalabilidad":

Yo tengo un problema con el sistema capitalista al que, por supuesto, no le he podido encontrar solución: creo que el mundo en el que vivimos está lejos de ser perfect. El mundo perfecto, desde mi punto de vista por supuesto, es uno en donde cada persona tenga la capacidad de decifrar qué es lo que realmente le gusta hacer, y que pueda dedicarse, si quiere, a hacerlo.

El sistema capitalista está lejos del mundo ideal de DV porque en este mundo uno no tiene tiempo de preguntarse qué es lo que le gusta, y mucho menos, los recursos para hacerlo. Uno sale del colegio, escoge carrera y si la embarró--- algo que pasa con frecuencia --- se fregó: "ya le tocó" y echar para atrás es generalmente imposible porque uno "tiene que vivir de algo".

El mundo perfecto, según yo, es algo así como lo siguiente: un mundo en donde todos los trabajos malos los hacen máquinas o robots, si prefiere. Así uno puede dedicarse a la lectura, a las matemáticas a escribir, a la música, o a lo que le guste, sin importar si es bueno o no (que es lo otro que premia el sistema capitalista).

Hoy estaba pensando en esta posibilidad, porque le sugería a una amiga que como lo que nosotros hacemos no es tan difícil, debería ser posible programar robots o máquinas para hacer "todas las cosas" que nosotros hacemos: un computador que hace pronósticos iguales (de malos) que los que hace un economista, o un robot que enseñe matemáticas en primaria, o un robot que maneje el bus o el metro, etc.etc.

Ahora bien, qué tiene que ver esto con la escalabilidad? Bueno, leyendo bien la entrada wikipédica, puede que poco, pero creo que tiene que ver con la posibilidad de desarrollar inteligencia artificial útil.

Se poco de este tema, pero se me ocurre que el gran limitante es lograr que haya robots/programas que sean capaces de adaptarse a diferentes escenarios, es decir, de generar la flexibilidad que tiene el cerebro humano para resolver problemas. No es difícil imaginarse (de hecho ya hay sistemas de metro donde funciona así) un metro totalmente sistematizado, pero es un poco más difícil imaginarse un sistema tan flexible como el ser humano que tenga la capacidad de realizar determinadas acciones en escenarios totalmente sorpresivos.

Y bueno, no se si esto tenga que ver con la posibilidad de generar un estado de "conciencia" artificial, al estilo de la discusión de Dennett y compañía. ¿Será que la flexibilidad del cerebro humano tiene que ver con lo que nosotros llamamos estado de conciencia, es decir, de entenderse uno mismo con respecto a su medio ambiente? ¿Son dos problemas diferentes?

Y bueno por último, algo un poco más lejano de esta discusión: imaginémonos que el problema es lograr un estado de conciencia artificial, y que este es efectivamente el problema actual (como dije arriba, puede que no tenga nada que ver una cosa con la otra, no sé). ¿Qué pasa si lo logramos? ¿Podríamos entonces construir ese mundo perfecto, por lo menos desde mi punto de vista? ¿No será esta una nueva forma de esclavitud? ¿Qué diferencia esta avanzadísima tecnología del ser humano, y entonces por qué tener un doble estándar moral, uno para "el creador" y otro para la "máquina"?

Bueno, carreta que se me ocurrió en estos días.

DV

Lanark dijo...

Daniel: En tu comentario hay varios temas que me han rondado en la cabeza para escribir en el blog, pero siguen entre el tintero. Tal vez se me olviden algunos, pero aquí van los que pesco así de primerazo:

1 - Uno de los problemas más serios del capitalismo, es que funciona de manera que en él la tecnología siempre crea más problemas de los que soluciona, y cada vez a una mayor escala y profundidad. Se ha dicho que es por el carácter reduccionista de la tecnología, y no se qué, pero en el capitalismo no cabe otro tipo de tecnología.

No soy un experto, pero si uno examina los criterios para decir que una economía es sana, o es un modelo a seguir, sospecho que va a encontrar que es una economía donde se generan cada vez más problemas que tengan ocupado el aparato productivo, y a eso le llamarán crecimiento, o algún eufemismo de ese estilo

2 - No sólo hacen falta cada vez más problemas, sino que hace falta que aparezcan cada vez mas rápido. Todo eso pone a los individuos ante la presión de producir a un ritmo cada vez más duro, por mas tiempo, etcétera. Cuando se vuelve evidente que eso deteriora mucho la calidad de vida, ese es un problema más para la tecnología, que debe diseñar medicamentos para la salud mental, máquinas para ejercitarse mientras se llenan tablas de excell (el mundo empresarial nada que sale de la edad de la hoja electrónica) o soluciones aún más traídas de los cabellos que provoquen aún más problemas.

En fin. Paro de especular con fundamentos dudosos, para volver al papel de la informática. En efecto, la flexibilidad ha sido el hueso más duro de roer para la Inteligencia Artificial, la Recuperación de Información, el Análisis Semántico, la Red Semántica, y demás. Es decir: son las tareas repetitivas y triviales, y por tanto aburridas las que los sistemas informáticos realizan incluso mejor que los humanos.

Pero tareas que por ser más impredecibles y complejas no han podido ser resueltas automáticamente, son también tareas mas interesantes y divertidas si se quiere. Un programa puede escribir un artículo posmoderno, pero sólo una persona con criterio puede escribir una buena reseña de un concierto. Por ese lado, uno diría que la tecnología tiende a mejorar el nivel de vida. Y lo hace. Uno podría decir que incluso mejoró el nivel de vida de los caballos, por ejemplo. Al menos, en el primer mundo.

¿qué pasará cuando un computador pueda hacer por nosotros también las cosas interesantes? buena pregunta. Probablemente a la "inteligencia natural" le pase lo mismo con la inteligencia asistida, que lo que le pasó a la belleza natural con la cirugía estética. Se devalúa.

Para mí, de hecho, la inteligencia es un atributo muy similar a la belleza, por lo tanto no lamentaré más su devaluación de lo que lamente la de la belleza, que es más bien poco.

Volviendo a la escalabilidad, algo que me parece ver como un fenómeno recurrente en estos asuntos, es que cuanto más interesante es una tarea, más problemático es su escalamiento. Tengo esa idea. Posiblemente eso tenga algo que ver con lo que nosostros consideramos interesante.

Llamémosle "conciencia artificial" a algo que por un observador externo no pueda ser diferenciado de una conciencia "de verdaad", pero haya sido diseñada. Esta conciencia artificial se diferencia de la natural en una cosa:

No es el resultado de proceso interno de autoorganización. No lleva en su propia dinámica, al menos no completamente, esa tendencia, fuerza o lo que sea, a que posibilidades inéditas sean realizadas. A la conciencia artificial eso le vendría de nosotros, porque eso buscaríamos al crearla.

Uno puede crear un sistema con un comportamiento similar a un mosquito, pero para que tenga el mismo impulso a perpetuarse y evolucionar, tiene que ser un mosquito.

Lo que voy a decir es metafísica barata, pero creo que ante la imposibilidad de saber si un sistema muy complejo tiene conciencia de sí (más allá de los enfoques triviales de los etólogos en ese sentido) el único criterio de la existencia de conciencia, es que, de por sí, sea una manifestación particular de esa fuerza (universal) que tiende a hacer realidad el mayor número de posibilidades.

En ese sentido, uno incluso podría pensar que procesos colectivos de autoorganización como los estados y agrupaciones humanas (a un nivel inestable y primitivo) y otro tipo de construcciones colectivas en la red, podría decirse que son manifestaciones de conciencia.

Sobre los derechos: Yo, por mi parte, respeto toda manifestación de conciencia con un respeto medio supersticioso. Me parecen estúpidos todos esos ismos (el machismo, el racismo, el "especiecismo") que basados en diversos grados de ignorancia filosófica pero también empírica, niegan derechos sobre la base de la ausencia de conciencia. Cualquier bicho o ente con conciencia debería tener derechos, que deberían ser determinados por su forma de conciencia (asumir que los mismos derechos que quiere uno los quieren todos, es uno de esos "ismos")

Lanark dijo...

Por cierto, aconsejo a los lectores, cuando se encuentren posts tan largos como éste, no leerlos todos si les da pereza. Son bienvenidos también, claro, comentarios parciales.

shoegazer dijo...

Tal vez mi opinión venga de no haber visto suficientes películas de androides ni leído suficiente ciencia-ficción. A mí en general el programa (de investigación) de la inteligencia artificial, por el camino que va, me parece poco interesante y hasta peligroso, por dos razones:

1. Se dedican demasiados recursos a intentar recrear artificialmente procesos que los humanos hacen suficientemente bien, como ver, caminar, o leer. En eso el programa es demasiado ambicioso, porque al intentar construir una imitación de formas de vida concientes como el humano, ignora que tal imitación no beneficiaría en nada a sus creadores. Tengo para mí que la tecnología existe para mejorar la calidad de vida (y eso contando tecnología como los palitos que usan los micos para sacar hormigas de los troncos). Como decía Lanark, para que la inteligencia artificial se acerque a la flexibilidad de la conciencia natural, necesitaría nociones de motivación (deseo), gustos y preferencias, etc. Esto eventualmente llevaría a la misma situación: los robots no querrían hacer los trabajos aburridos, ¿y con qué derecho vamos a obligarlos? Como dice Daniel, sería una nueva esclavitud. Si eso es lo que queremos, no hace falta tanto derroche de aluminio; gente esclava es lo que hay.

2. En la "coyuntura histórica" actual, me parece irresponsable delegar más facultades humanas en la tecnología. (hago la excepción para las soluciones "biónicas" que en efecto ayudan a las personas que han sufrido accidentes, mutilaciones, etc).

Sin embargo, y conectando con esta última razón, creo que la investigación en inteligencia artificial tiene la ventaja de servir como laboratorio para probar hipótesis que difícilmente se pueden ensayar de otro modo; es decir, es un campo de aprendizaje sobre la inteligencia natural y sobre nosotros mismos. En esa medida, el asunto de las semánticas y el hipertexto y demás puede servir como microcosmos para observar fenómenos que quizás operen en el plano colectivo. Aquí entraría el problema de la escala, pero no en términos pragmáticos (ojalá la organización de la web no se vuelva un modelo para ingeniería social, del modo en que las simulaciones de los economistas se han vuelto modelos para la política), sino argumentativos.

Tratar de formalizar procesos "intuitivos" es un bonito proyecto; en eso, la ciencia del siglo XXI erige su monumento, un poco chueco y barroco, a la vigencia continuada del positivismo.

Lanark dijo...

Shoegazer: Si, la verdad es que el programa de investigación sobre Inteligencia Artificial ha tenido esos puntos cuestionables.

¿porqué centrarse en lo que los humanos ya hacen bien? Sospecho, francamente, que es por falta de imaginación, al menos en parte. Y por un criterio empresarial un poco macabro, de empresarios que sueñan con no tener que lidiar con empleados humanos.

Por otro lado, esto de la Red Semántica, Information Retrieval y demás, sí están pensados para ser una especie de muletas del humano. ¿No tenemos tiempo de leer un terabit de noticias? Organicémoslas con un sistema automático que nos permita escoger las que nos interesan. ¿No podemos pasar el día buscando bandas nuevas que toquen lo que nos gusta, entre las miles que salen cada semana? Deleguémosle una preselección a un sistema de recomendaciones automático.

Esas son tareas que son prohibitivas para una persona, porque implican cantidades demasiado grandes de información.

En caso de que lleguemos a construir sistemas con algo que pueda sospecharse como conciencia y criterio independiente, va a ser un quebradero de cabeza ético. Como de costumbre, podemos esperar que la ultraderecha, que no es más que un odio a lo diferente, se pronuncie por su destrucción o al menos por un control asfixiante. Y la izquierda, probablemente lo defienda, pero confundiéndolo con otra cosa. Y en el centro tendremos toda clase de actitudes ante el ente.

Las simulaciones complejas son, en efecto, un terreno de experimentación privilegiado para fenómenos sociales, que cada vez pueden usar mejor, aunque realmente aún no hayan logrado resultados muy impresionantes, que yo sepa. Tienen el encanto, que es al tiempo un inconveniente, de ser simulaciones que no controlamos ni entendemos muy bien, lo cual tienen en común con el objeto de estudio. Y por lo tanto, puede ser dificil saber si el objeto y la simulación son desconocidos similares, o desconocidos diferentes.

Tu temor de una sociedad organizada a imagen y semejanza de la web tal vez sea bien fundado, porque si han usado modelos económicos tremendamente ingenuos, no tendrán ningún reparo contra éstos.

A propósito de la ingenuidad de la economía, Daniel dejó donde el Conservador Colombiano un enlace muy interesante y divertido.

Anónimo dijo...

"Podría tener problemas para compartir su información con otro robot que los haya modificado de otro modo", este problema tambien se ve en muchos encuentros humanos... cada uno con sus simbolos ¿no?.

Por otro lado... se me hace que la motivacion humana es mucho mas complicada que lo bioquimico... El nacer tan dociles a la madre debe influir bastante ¿no?. Estaba pensando un poco en planteamientos psicoanaliticos... seria demasiado dificil lograr eso de la motivacion en maquinas a mi modo de ver. Pero no se si solo estoy malinterpretando por aquello de tu primera duda, jeje.

Lanark dijo...

TonioV: Si, parece ser que muchos de los problemas con el lenguaje no son problemas humanos, sino inherentes al hecho de comunicarse con convenciones.

Y, en efecto, esto de la motivación es algo en lo que la técnica está en pañales, aunque como mencionó Shoegazer, tal vez no valga la pena avanzar mucho en eso. Detrás del entusiasmo de los fanáticos de la Inteligencia Artificial, a veces hay una concepción filosóficamente muy, muy ingenua del problema.

COMPREN, COMPREN