jueves, enero 04, 2007

LA CIENCIA PLURAL

Para nadie es un secreto que el hecho de como la ciencia ha acumulado tanto conocimiento, y la capacidad de las personas para abarcarlo es limitada. Por eso, de un tiempo para acá la casi totalidad de la investigación científica se realiza en un esquema especializado y burocratizado que comienza a frenar su desarrollo.

En áreas donde el desarrollo es urgente, como por ejemplo vacunas contra los cada vez mas elusivos virus, la ciencia pierde la carrera por falta de agilidad. Pero lo que la vuelve lenta es lo mismo que la vuelve rigurosa, y no se puede simplemente soltar lastre para correr mas rápido.

En el caso de las ciencias biológicas, la presión de las casas editoriales, que hacen mucho dinero con el manejo de la información sobre avances en ciencias de la salud, y de las compañías farmacéuticas, que hace tiempo se salieron de toda proporción razonable en sus reivindicaciones de patentes, han bloqueado casi completamente la investigacion en ciertas áreas, y la han frenado en otras, además de excluír al tercer mundo de una buena parte de la investigación. Sin embargo, el hecho de que aún para estas instituciones es necesario que la ciencia avance, y rápido, ha dado lugar a concesiones como que se reconozca y tolere la existencia de servicios de preprints en biología, y que cada dia crezcan los servidores gratuitos de artículos, como HighWire, de la universidad de Stanford.

Parece ser, sin embargo, que antes de que pudiéramos asistir a una deceleración del desarrollo de la ciencia, vamos a tener una metodología que le de una mano para salir del atolladero de la burocratización.

los preprints en arXiv

Imagen: el logo del ArXiv... ¿serán pastafaris?

El problema de sacar los resultados de investigaciones en física y matemáticas a tiempo llevó en 1991 a Paul Ginsparg, de la Universidad de Cornell, a desarrollar un servidor de preprints, que permitiera acceso a los artículos recién producidos por los investigadores mientras pasaban su (a veces demasiado largo) proceso de arbitraje para ser publicados en una revista científica.
Mientras trabajaba en el laboratorio nacional de Los Alamos (el mismo de la bomba atómica, que sale además en un capítulo de los archivos X) Ginsparg puso a punto lo que podríamos traducir como el Archivo de impresiones electrónicas de Los Alamos, que pronto sería conocido simplemente como arXiv.org.
En un principio, el servidor aceptaba cualquier artículo en un formato adecuado, simplemente confiando en el criterio de los autores, que se cuidaban de poner productos de calidad en el servidor, para cuidar su imagen académica. Pero, desde luego, lo que aparecía ahí no estaba necesariamente avalado por nadie, y no podía ser tomado completamente en serio hasta ser publicado.

A principios del 2004, en vista de la proliferación de artículos de dudosa calidad ¿sería por mi tesis de maestría?, tuvieron que implementar un sistema de aprobación (endorsement), que sin embargo puso también un freno al floreciente y tremendamente ágil intercambio de información a través del Archivo. Un caso aparentemente bastante desafortunado es el del bloqueo al doctor La Violette, del cual reconozco no saber lo suficiente para pronunciarme.

Es un hecho que al no ser revisados por expertos, los artículos en Los Alamos pueden tener errores o ser el resultado de prácticas fraudulentas, si bien parece ser el consenso general que el uso cuidadoso de estas fuentes no ha llevado hasta el momento a problemas serios.

Wikipedia

Pasando a un contexto mas general, que no abarca sólo la ciencia, es importantísimo aquí el fenómeno de Wikipedia.

Este ha sido un paso adelante en la pluralización y agilización del conocimiento, una plataforma novedosa y revolucionaria para la edición colaborativa de contenidos. La idea, es que en Wikipedia una gran comunidad de colaboradores voluntarios construye los contenidos con sólo el consenso de sus criterios de rigor y un puñado mínimo de reglas:
  • Puntos de vista objetivos, que no reflejen intereses de grupos o personales
  • No se permite incluir resultados de investigación originales, sólo reporte de conocimientos de otros.
El resultado está cobijado bajo una licencia de documentación libre GNU, llamada también derechos de copyleft, por oposición al copyright. Este tipo de licencias de contenido libre involucran una evolución interesantísima de la ética Hacker de los 80s, que merece de por sí sola un post, por lo cual lo voy a dejar ahí.

la Web 2.0 y la ciencia

Imagen: logo de OpenWetWare. Mas adelante explico de qué se trata.

No soy un experto en lo que significa la web 2.0, pero digamos, por lo pronto, para poder hablar de ella, que es simplemente una implementación de características técnicas mas dinámicas (que permiten cambio en el tiempo fácilmente) y que tienden a incorporar todos los aspectos de la información en un solo esquema global.

Cuando uno busca qué es la web 2.0 se encuentra un montón de cháchara de vendedores, una pizca de información sepultada bajo toneladas de propaganda. Es por eso que es inevitable que uno tienda a pensar que la web 2.0 es una pendejada, una campaña publicitaria para darle un carácter revolucionario a algo que no lo es. Sin embargo, pienso que sí es un hito importante en el desarrollo de la tecnología informática.

Con ayuda de Wikipedia (que a su vez cita a Tim O'Reilly y John Batelle, dos de los que salen en otros lados con peroratas de mercachifle), he podido extraer las características principales de la web 2.0:

  • Está desarrollada completamente en la red. Es decir que no está localizada, sino que se implementa en la intrincada red de interconexiones que son los enlaces de documentos y plataformas en toda internet.
  • Se basa en la actividad colectiva
  • Su núcleo no son ya programas o aplicaciones, sino grandes estructuras de datos, como por ejemplo bases de datos de enlaces, directorios, etc.
  • Facilita la actualización automática. El sistema está hecho para mantenerse al dia
  • Usa formas de programación ligeras y versátiles. Nada de cosas pesadas e incompatibles con todo (¿cómo va a hacer ahora Microsoft?)
  • No funciona sobre un equipo, sino que puede basarse en el funcionamiento coordinado de varios. Son los mismos Efectos de red, dados por una arquitectura para la participación que han hecho tan competitivos a esquemas como BitTorrent para bajar datos masivamente. Lo que llaman la La Cola Larga (The Long Tail, que todavía no entiendo bien)
  • Se basa en juntar arreglos de sistemas y de sitios diferentes, poniéndolos a trabajar juntos en la misma manera que los esquemas de Código Abierto (OpenSource) donde se pone junto el trabajo de mucha gente para hacer, por ejemplo, un sistema operativo, un manejador de escritorio, etc.
  • Proporciona las herramientas para modelos de comunicaciones (claro, a estos no se les ocurre más que llamarlos modelos de negocios) que les permiten controlar la transmisión de datos y servicios con ciertas garantías.
En fin. ¿qué tiene eso que ver con la ciencia? Bueno, para empezar, que permiten manejar el conocimiento científico de una forma mucho mas ágil.

Hace ya algún tiempo el MIT decidió hacer público el material de todos sus cursos (OpenCourseWare), que está disponible en internet, principalmente como archivos PDF y PS. Una muy buena idea, que le ha traido a esa unviersidad mayor influencia académica, sin hacerle perder nada de nada, tal vez sólo un esfuerzo pequeñísimo. Sin embargo, unos PDFs para bajar no son lo que uno pueda llamar una plataforma dinámica de manejo de información.

Por eso, apareció una propuesta nueva: OpenWetWare, que pretende combinar el peso académico de un OpenCourseWare como el del MIT, con la agilidad y ventajas de Wikipedia, o de las páginas wiki en general. El nombre, lleno de sentido del humor como la mayoría de las cosas que se inventan los fanáticos del conocimiento libre, se basa en la idea de WetWare, que es una manera de llamar la sesera, es decir, el hardware humano, que obviamente no es "hard"(duro) sino "wet"(húmedo)

Es algo que está en desarrollo, y cuya historia pueden consultar en la página web, pero traigo a colación los "propósitos de año nuevo" que los desarrolladores buscan para los siguientes años:
  1. Tener suficientes usuarios para poder hacer uso de efectos de red, es decir, tomar ventaja de la distribución de tareas.
  2. Todos los usuarios aportarán al sistema
  3. Sólo algunos derechos serán registrados
  4. Actualización permanente (estatus beta perpetuo)
  5. Establecer una comunidad de colaboración

Consecuencias para el futuro


¿será que eso nos saca del atolladero, antes de que éste se vuelva visible?
En todo caso, parece ser que la ciencia va a cambiar la cara de una manera que todavía no nos imaginamos. Algunas de las consecuencias que yo vaticino para la ciencia, e incluso para la cultura, son:
  • Se va a ver severamente afectado el concepto de propiedad privada, al menos, sobre el conocimiento. La comunidad científica va a aceptar cada vez con mayor naturalidad el hecho de que el conocimiento no tiene dueño, con la evidencia que da la constatación cotidiana.

  • Se va a ver severamente afectada la noción de individuo, ya que la interrelación con los demás va a volverse mucho mas marcada, en términos de lo que produce. Cada vez va a diluirse más el trabajo de una persona en el de un grupo colaborativo, o tal vez muchos, y esos grupos cambiarán con el tiempo, apareciendo y desapareciendo. Es algo que ya se ha visto, aunque aún la ética centrada en el individuo y su círculo cercano han resistido el embate. Digamos que, con el tiempo, engordar la hoja de vida va a ser algo mucho más irrelevante que ahora.

  • Va a ser mucho más fácil investigar sobre temas que estén más a la vista, pues la investigación secreta, como la investigación militar o la investigación secreta de las farmacéuticas va a verse en severa desventaja frente a la investigación abierta. Y finalmente, se terminarán desclasificando los resultados de la investigación secreta, y legal o ilegalmente, estarán a la disposición de todos.
¿muy tostado?

lunes, enero 01, 2007

NUESTROS NARCOPATRONES

Recuerdo cuando el prohombre de la democracia colombiana Fernando Londoño Hoyos se preguntaba qué clase de cigarrillo estaban fumando los Constituyentes del 90, que redactaron una Constitución de avanzada que se atreve resguardar todos los derechos humanos, proteger a las minorías, y otros embelecos de comunistas.
Hoy, pensando en el Plan Colombia, creo que sería mucho más fácil la respuesta a la pregunta: ¿Qué clase de cigarrillos se estarían fumando los que establecen las lineas del Plan Colombia? Creo que ellos le dan una nueva dimensión a la expresión war on drugs, que puede referirse a una guerra contra las drogas, o a una guerra librada bajo el efecto de las drogas.
¿porqué pienso eso? Bueno, lo que pasa, es que me encontré en Mutante Cósmico una información alarmante:

EL CULTIVO MÁS LUCRATIVO EN LOS ESTADOS UNIDOS ES LA MARIHUANA

¿no será que nos dejan ir a fumigarles con glifosato sus parques naturales y sus plantaciones de trigo y algodón?

Ya voces respetadas en la economía de esa admirable democracia están llamando a la legalización. Me gustaría ver cómo, en Colombia, van a justificarlo los justificadores profesionales del gobierno cuando ya sea inevitable. Los mismos que han dicho:
"Ya he explicado en muchos sitios que el fervor legalizador es sencillamente una forma de justificar el narcotráfico. Y el drama es que algún día será más barato un embargo comercial a Colombia que la colaboración con las fuerzas estatales. En cierta medida es el sueño de los asesinos y rateros de la llamada izquierda democrática, pues su paraíso de jerarquía congelada y ociosidad subvencionada sólo podría tener lugar en un país apartado del mundo."
Creo que los "asesinos y rateros de la llamada izquerda democrática" podrían vivir su sueño americano en los Estados Unidos, que es claramente el pais más apartado del mundo. Un pais menos preocupado por la opinión mundial que Cuba o Corea del Norte.

COMPREN, COMPREN