viernes, 8 de julio de 2011

¿Qué sabemos del ordenador cuántico?


El ordenador cuántico fue una idea inicialmente teórica que surgió a finales de los años 80, cuando se empezó a vislumbrar la posibilidad de que en unas décadas sería viable operar con las partículas elementales de la naturaleza tomadas de forma independiente.

Como es sabido, el método tradicional de miniaturización de chips ha sido ir fabricando láminas de circuitos integrados cada vez más finas hasta haberse llegado ya al límite de sólo unos pocos átomos de grosor. El problema que se encuentran los fabricantes es que cada vez cuesta más que estas capas sean fiables. Y no por que haya un problema puramente mecánico de que no dispongan de “pinzas” más estrechas, sino porque a esas escalas de micrómetros cada vez se notan más los extraños efectos cuánticos de la materia. No es casualidad que la tasa de fallos en la producción supere ya el 50% y cada vez sea más alta.

Viendo la cercanía del límite físico de la miniaturización de chips, en los años 80 se decidió abordar frontalmente el problema con la filosofía de que si no podemos hacer desaparecer los comportamientos cuánticos al tratar con pocos átomos, intentemos aprovecharlos a nuestro favor. Y en un gran esfuerzo teórico, entre físicos e informáticos se pusieron manos a la obra para desarrollar nuevos paradigmas de computación basados en esa teoría extraña que es la física cuántica, todo ello con el objetivo subyacente de construir una nueva raza de ordenadores.

Las posibilidades que prometía el ordenador cuántico eran enormes: se acabó el álgebra booleana. A partir de ahora, la unidad de información no es el bit, sino el bit cuántico o q-bit, que tiene la propiedad de poder tomar muchos más valores que 0 y 1. Según la partícula atómica que usemos, podemos tener bits con valores -2,-1,0,1,2, por ejemplo. O sea que se acabó el sistema binario, pero esa es la menor de las aportaciones del bit cuántico. La gran contribución es que el bit cuántico, al basarse en las propiedades cuánticas de superposición de realidades, puede almacenar varias informaciones “a la vez”!! Es decir, un mismo bit al ser preguntado de una u otra manera dará diferentes respuestas. Y esto permite realizar trabajos de computación en paralelo de maneras no imaginadas en la computación clásica. Esto es, de forma muy resumida y haciendo grandes aproximaciones, en lo que consiste la computación cuántica.

Los progresos iniciales fueron muy esperanzadores. En pocos años se consiguió juntar unos pocos átomos que reproducían una máquina de Turing completa a escala atómica. Consiguieron sumar bits y hacer puertas lógicas a la menor escala posible, y los que tengan memoria recordarán que se predecía que el ordenador cuántico estaría disponible hacia el año 2010 o 2015.

Bien, pues a partir de ahora lo que vais a leer lo veréis en pocos sitios. Bueno, quizá en la wikipedia y en cualquier libro de divulgación o revistas especializadas. También hay charlas en youtube y en miles de blogs como éste. Pero por lo demás, leeréis en pocos sitios esta predicción: lamentablemente fabricar un ordenador cuántico es inviable. O por lo menos, es inviable si se plantea en la forma descrita unos párrafos más arriba.

La culpa de estas expectativas hay que echársela a los físicos, y aunque la explicación es muy compleja intentaré hacerla comprensible. El problema es que los físicos han entendido mal la teoría cuántica durante más de 80 años. La cuántica sirve estupendamente para hacer cálculos, las fórmulas son correctas y la precisión de los resultados está más allá de cualquier otra medición realizada por el ser humano. Pero se han interpretado mal esos resultados y ello nos ha conducido a hacer predicciones fallidas.

En http://cienciaparatontos.blogspot.com/2011/07/la-cuantica-una-de-las-dos-sacudidas.html describo muy a grandes rasgos en qué consiste la mecánica cuántica. Entre 1925 y 1930, los físicos del momento se encontraron con una teoría que desbordaba la imaginación. Durante años estuvieron buscándole una explicación, y a falta de encontrarla decidieron encerrarse en la finca que Niels Bohr tenía en Copenhague y no salir de allí hasta decidir una interpretación. Bohr probablemente era el físico más influyente del momento (de hecho tuvo varias discusiones con Einstein sobre el significado de la física cuántica que acabó ganando) y además era noble y rico, así que en vez de ir a congresos, organizaba eventos en su finca para discutir los problemas. Bien, pues en 1930 los físicos decidieron aprobar ¡mediante votación! una interpretación formulada por Bohr 3 años antes, que es la que prevalece hasta nuestros días y se sigue enseñando en las facultades de física del mundo. Se conoce como la Interpretación de Copenhague y es la culpable de las falsas promesas sobre el ordenador cuántico.

La Interpretación de Copenhague establece que todas las realidades posibles existen en la naturaleza de forma simultánea y que en el momento de querer obtener alguna medición concreta de algo perturbamos el mundo haciéndole decantarse por una de esas realidades y olvidar todas las demás como si nunca hubieran existido. Esta es la explicación que se propuso a múltiples experimentos que establecen que parece ser que la naturaleza funciona así. Pero los experimentos también establecen que las sillas no están en dos sitios a la vez o que un gato no puede estar simultáneamente vivo y muerto. Es decir, parece que hay un límite de tamaño que marca la frontera entre los dos mundos llamémosles “clásico” y “cuántico”. Esta división de mundos fue lo que quiso ignorar la Interpretación de Copenhague.

En la realidad, ¿qué sucede si juntamos dos partículas cuánticas? que tenemos un sistema cuántico. ¿Y si juntamos 3? que tenemos un sistema cuántico más grande. ¿Pero y si juntamos un millón? pues sucede que nuestro sistema, de tan grande que es, ha alcanzado el tamaño de los objetos clásicos. Las teorías modernas de interpretación de la mecánica cuántica explican que a medida que unos sistemas interaccionan con otros, ellos mismos van cancelando sus posibles realidades cuánticas y el sistema tiende a comportarse de manera clásica. A esto le llaman decoherencia.

Dicho en términos comprensibles: la naturaleza nos está dando mecanismos para construir un bit cuántico. Incluso podemos juntar unos cuantos bits cuánticos para construir una calculadora cuántica. Pero el megabit cuántico no se puede crear: para la naturaleza será siempre el megabit clásico.

sábado, 18 de junio de 2011

Las carencias de Internet como herramienta de gestión

Empieza a ser habitual concebir Internet como una herramienta multiuso cuyas utilidades más habituales se pueden resumir en 3 categorías:
- una herramienta de búsqueda de información,
- un lugar en el que el usuario vuelca su propia información,
- y una herramienta de gestión.

En posts anteriores he hablado mucho de los dos primeros usos y de cómo en los últimos años se han fusionado brillantemente gracias al concepto "compartir la información" fomentado desde que existe la Web 2.0. En este post hablaré de Internet como herramienta de gestión, y empiezo remontándome a los orígenes.

La historia explica que la primera incorporación de la informática al mundo empresarial vino en la década de los 60 motivada por un gran empuje del mundo bancario (y con él las grandes consultoras, las empresas de auditoría, etc). Estas empresas necesitaban contabilizar inmensas cantidades de operaciones y extraer información sobre millones de registros. No es casualidad que durante aquellos años se desarrollaran los esquemas de bases de datos relacionales, o que el enfoque corriente de desarrollo de software fuera el análisis y diseño estructurado en base a subtareas de entrada-proceso-salida. Fue el resultado de grandes inversiones de capital privado destinadas a resolver sus propias necesidades de negocio.

Esta concepción de la información y la tecnología ha sido tan influyente que 50 años después sigue dominando todas las maneras de entender nuestras actividades. A día de hoy, más del 90% de las personas que trabajan en informática pasan gran parte de su tiempo programando o ejecutando altas y bajas en una base de datos. Ya pueden estar implementando un correo electrónico, un gestor de pedidos o clientes, un ERP, un sistema de venta de entradas o lo que sea, que al final su rutina será leer la información de un sitio, hacer algo con ella y volcar el resultado. En la actualidad sólo pueden considerarse fuera de esta concepción los que programan herramientas gráficas, juegos, simulaciones en 3-D, los que utilizan el paradigma de programación en tiempo real (ése gran marginado), y poco más. Incluso la programación orientada a objetos, aquella gran revolución de los años 90 que prometía reflejar a nivel lógico lo que son entidades dinámicas, ha acabado al servicio de la pura gestión de registros. Nuevas herramientas para seguir con viejas costumbres.

¿Y Internet? ¿Ha cambiado nuestros usos y costumbres? Para mi gusto, muy poco. Desde un punto de vista abstracto, la única revolución conceptual que ha habido es que estamos utilizando Internet como si fuera una única entidad sobre la que disponemos de una gran cantidad de información. Es decir, hemos saltado de trabajar en un ordenador a poder trabajar en todos los ordenadores del mundo, con lo cual en la práctica es como si estuviéramos conectados a una gigantesca máquina que nos da acceso prácticamente ilimitado a grandes cantidades de recursos. No les falta razón a los que vaticinan la desaparición del disco duro individual o del correo electrónico porque no hacen falta en un sistema interrelacionado. Pero en definitiva sólo hemos creado un ordenador grande sobre el que las necesidades individuales (personales o empresariales), quedan sobradamente satisfechas.


¿Para qué queremos Internet?

En este mundo de ordenadores interrelacionados los buscadores empiezan a jugar un papel muy parecido al del Explorador de archivos de un PC. La información está en algún sitio y el buscador la ofrece al usuario. Llevemos la analogía un poco más lejos: teniendo ya una infraestructura de ordenadores, y teniendo ya programas que nos inspeccionan la información contenida en ellos, es válido imaginar esos ordenadores como una gigantesca capa de hardware y los programas buscadores como enormes gestores de ficheros. Eso es un sistema operativo. Y estamos muy cerca de crear un sistema operativo capaz de funcionar sobre Internet.

Algunos tratados clásicos de informática suelen definir un sistema operativo como un programa orientado a gestionar los recursos de una máquina mediante tres vertientes (releer el primer párrafo de este post):
- un gestor de ficheros,
- un gestor de memoria,
- y un gestor de procesos.

¿Por qué no considerar Internet como la base para un gran sistema operativo? En el fondo ya lo estamos haciendo, pero centrándonos únicamente en la vertiente gestora de ficheros (o de información). Concebimos Internet como si nos conectáramos a un terminal de un gigantesco servidor que nos proporciona una descomunal (casi ilimitada) cantidad de información, pero no estamos usando las capacidades de Internet como herramienta de gestión global. Es cierto que podemos reservar un hotel en la playa o encargar el pedido de la compra, pero eso no es ejecutar procesos sobre Internet. Lo que realizamos son pequeños procesos locales, de esos que implican altas y bajas en bases de datos. Nuevamente, viejos usos para las herramientas nuevas. Satisfacemos las necesidades individuales pero no hemos creado necesidades colectivas que impliquen trabajar en red.

A día de hoy los proyectos colaborativos son pocos y casi todos derivados del ámbito científico donde hay necesidades de grandes cálculos, como el famoso SETI de búsqueda de vida extraterrestre. Y todavía el enfoque de estos softwares es muy primario porque consisten en un programa cliente que se instala en la máquina del usuario y que se sincroniza con los demás. Hace falta desarrollar un paradigma de programación que explote Internet como una máquina global, donde los grandes servidores no se limiten a buscar ficheros, sino que dediquen recursos y capacidad de gestión. Hay que desarrollar y ejecutar programas globales, y aquí el liderazgo no lo ejercerán las grandes empresas como Google, Microsoft, Apple, etc. porque a día de hoy están muy ocupadas en sacar rentabilidad económica a la Internet actual.

¿Y para hacer qué con esos programas? Bueno, esa es una gran paradoja del siglo XXI. Teniendo una capacidad de cálculo prácticamente ilimitada no sabemos qué hacer, salvo buscar hombrecillos verdes en el espacio o desarrollar modelos meteorológicos. Estamos tan encasillados en el paradigma altas y bajas en bases de datos que en el fondo estamos haciendo tareas que les corresponden a las máquinas, y no estamos dejando que las máquinas nos ayuden a hacer mejor las actividades propias del ser humano, aquellas que implican creatividad, toma de decisiones, etc.

Por ejemplo, no se nos ha ocurrido dejar que las máquinas nos propongan decisiones. ¿Es tan difícil? Quizá no: un directivo empresarial moderno es una persona cargada de excels e informes con tartas que prácticamente le encaminan a tomar "la mejor decisión" para su empresa. Las grandes consultoras de negocio a nivel mundial, como Gardner, Accenture, etc., basan su valor en poseer grandes bases de datos con experiencias previas de todos sus clientes y recomendar soluciones idénticas en casos idénticos o muy parecidos. ¿Por qué no desarrollar programas que ayuden a la gestión? ¿Y por qué limitarse sólo al ámbito empresarial? Una vez más, el modelo aquél de altas y bajas en bases de datos nos restringe mucho las pensamientos.

¿Qué tal si, por ejemplo, ayudáramos a la toma de decisiones políticas con programas informáticos? No debería ser muy complicado, al menos en el ámbito local. ¿Por qué no desarrollamos programas que busquen en todo el planeta, modelicen y hagan predicciones sobre temas tan diversos como si puede funcionar aquí unas medidas de integración social que funcionaron en otro sitio, o diseñar políticas de exención de impuestos personalizadas, o miles de ejemplos más? Son muchísimos los usos que se le pueden dar a esta gigantesca herramienta que hemos inventado, pero mientras no la explotemos mejor nos pareceremos a alguien que se ha comprado el coche más caro de la tienda, tiene carnet de conducir, y no sabe a donde ir.

martes, 24 de mayo de 2011

Los aeropuertos los diseñó un informático

Imaginemos un sistema en el que haya que hacer una cola y pasar un control de acceso en cada paso. No hace falta pensar mucho: es un aeropuerto. Cuando una persona quiere hacer un viaje internacional en primer lugar debe dirigirse a las máquinas que le darán su tarjeta de embarque identificándose mediante su pasaporte o DNI. A continuación acude al mostrador de facturación donde se encargarán de recogerle la maleta. Posteriormente franquea el control de acceso de seguridad donde unos vigilantes le someterán a un registro. A continuación, ya en la zona de embarque, pasará el control policial de pasaportes o documentos de identidad, y una vez allí se dirigirá a la puerta de acceso al avión donde le volverán a pedir su tarjeta de embarque y su pasaporte. En total 5 colas, 5 validaciones y 2 documentos identificativos.

A esta organización los informáticos le llaman “delegación de servicios”, e insisten en que es una política eficaz para, por ejemplo, programar aplicaciones web. Lo justifican diciendo que es eficaz que el guardia civil esté especializado en controlar pasaportes y sólo se dedique a inspeccionar la situación legal del viajero. Es eficaz que el que factura maletas sólo haga esa tarea porque tiene las pegatinas preparadas y te imprime eficazmente el nombre de tu aeropuerto de destino. Es eficaz que la persona que te cachea sólo haga eso porque es especialista en encontrar armas en rincones ocultos del cuerpo, y es eficaz que el que se queda con un trozo de tu tarjeta de embarque y te devuelve sólo el pedazo pequeño esté ahí porque él sabe romper tarjetas de embarque como nadie. Bien, pues cualquiera que haya seguido este proceso acaba calculando que incluso en un aeropuerto mediano no colapsado hacen falta unas dos horas para recorrer el camino desde la puerta de entrada de la terminal hasta sentarse en el avión. Y siendo benevolente ignoraré en este artículo que la presunta eficacia de este modelo aeroportuario es cuestionable cuando anualmente se pierden un millón de maletas en el mundo que van a parar lugares equivocados.

El paradigma contrario a este modelo es la “orientación a procesos”. Por ejemplo, un Spa, donde el servicio funciona como en un túnel de lavado: cuando sales de la piscina ya te está esperando el masaje, y cuando terminas ya tienen lista la siguiente ducha. ¿Por qué? porque se orienta hacia el proceso. Estos sistemas es imprescindible que estén bien dimensionados.

Pero en las horas eternas de espera en el aeropuerto todo el mundo se pregunta: ¿por qué no podemos hacer una única cola y cuando nos toque el turno hacemos todos los trámites de golpe? Pues porque esto por fuerza lo diseñó un informático. Y por esta razón los informáticos diseñan sus servidores web igual. Crean un servicio especializado en autentificar al usuario, crean otro de acceso a base de datos y recursos varios, crean un servicio especializado en lógica de negocio, que se puede subdividir en múltiples subservicios, y así hasta la náusea. Y a esto le llaman “arquitectura por capas”.

El modelo en sí mismo no es que sea malo ni bueno, pero es ineficiente en procesos en los que prima la rapidez. Si los recursos hardware fueran ilimitados quizá sí que tendría sentido plantear estas arquitecturas. Con máquinas infinitamente rápidas que manejaran tiempos de respuesta prácticamente nulos no se plantearían problemas. Pero en los aeropuertos, como en nuestros sistemas, se ralentizan los tiempos porque continuamente se están haciendo verificaciones. ¿De qué sirve que te hayan dado una tarjeta de embarque al principio si el encargado del control de acceso ha de volver a examinarla y el de la puerta de embarque la revisará otra vez? ¿De qué sirve enseñar el pasaporte a la máquina de tarjetas de embarque si luego hay que volver a enseñarlo a la guardia civil para pasar el control de acceso y para montar al avión? Es más, ¿y por qué hacen falta dos documentos?

Las arquitecturas por capas emplean mucho tiempo en analizar las peticiones en cada nivel, como una oficina donde hay que explicar la misma historia en cada ventanilla. Aunque el programador intente aliviar la carga de trabajo, al final la programación mediante patrones elegantes de diseño, uso de interfaces abstractos y clases delegadas, en la práctica se validan reiteradamente los parámetros, se acude varias veces al mismo repositorio para identificar los datos del usuario y sesión que ha hecho la solicitud, se vuelven a instanciar objetos de negocio intermedios necesarios, se llama a los mismos servicios, etc. Si los seres humanos fuéramos requests de http sufriríamos la burocracia en nuestras carnes.

Cuando alguien os explique un diagrama de la arquitectura de un sistema y lo que dibuje se parezca a un montón de cajas apiladas, echaos a temblar. Los servidores web corren sobre máquinas físicas y sus recursos son limitados. Y sobrecargar las peticiones a otras máquinas para multiplicar el mismo trabajo contribuye a colapsar el sistema. ¿Sabéis qué pasa si ponéis muchas máquinas? Que el volumen de tráfico entre ellas aumenta de forma mayor que la lineal, oscila entre una dependencia cuadrática y factorial según la topología de máquinas que hayáis elegido. Y por eso es difícil escalar algunos sistemas mal concebidos, porque sólo con añadir unas pocas máquinas se supera el umbral de colapso. ¿Y qué es el umbral de colapso? Es el límite a partir del cual un servidor emplea más tiempo en gestionar comunicaciones con los demás que en realizar su propio trabajo. Cada vez que se hace una petición hay que seguir un protocolo, abrir un socket, establecer comunicación, esperar la respuesta... ¿Sabéis por qué se colapsa un sistema? Porque las máquinas dejan de hacer su trabajo, se dedican a comunicarse entre ellas y sólo esperan que la de al lado les conteste. ¿Y verdad que a nadie se le ha ocurrido poner un límite a las peticiones? Pues es una de las claves esenciales para la estabilidad de un sistema.

Sí que tiene sentido separar los servicios cuando por ejemplo hay un recurso único compartido por muchas máquinas, como típicamente el acceso a base de datos o a ficheros para evitar conflictos de concurrencia. Y aun así si vuestro volumen de peticiones es pequeño programaos vosotros mismos un semáforo. Si sólo queréis hacer operaciones de lectura quitad la capa de acceso de datos y leed directamente porque el sistema operativo ya se encargará de gestionaros el acceso a los ficheros. Más cosas: poned límites al número de peticiones. Los locales públicos inventaron el aforo limitado hace tiempo, y lo podréis ver en cualquier museo en el que el público va entrando a medida que otros salen. Acordaos de vigilar los cuellos de botella: no hagáis como el Zara que sólo tiene una caja y las colas para pagar pueden dar tres vueltas a la tienda. Importantísimo, cachead los datos. Si has emitido una tarjeta de embarque fíate de ella y escribe allí los datos que necesitas, olvídate del DNI y ten a mano un sistema para recuperar a qué usuario corresponde. Y fragmentad vuestras aplicaciones horizontalmente: usad máquinas distintas para resolver peticiones distintas. De igual manera que decidís implementar distintas aplicaciones para ofrecer distintos servicios, separad los casos de uso de vuestra aplicación y repartirlos en máquinas diferentes.

Y cuando programéis, entonces sí, haced las divisiones por capas lógicas en el software. Tiene todo el sentido del mundo que vuestras clases y objetos estén bien estructurados. Sed ordenados, pero no se lo contagiéis al hardware salvo en caso de necesidad. Que corran únicamente los procesos en memoria. Y cuando un analista os lance frases como “aquí vamos a crear una capa intermedia en la que delegaremos algunas validaciones de datos y añadiremos un nivel más bajo en el que delegaremos servicios básicos”, huid. Bueno, programadlos porque os están pagando, pero dejad el código anterior entre comentarios porque lo tendréis que retocar. Y cuando seáis analistas, no planteéis nunca ni una capa más.

jueves, 19 de mayo de 2011

El usuario de dispositivos móviles como creador de Internet

Desde que hace unos años se generalizó el uso de las tecnologías de la información a múltiples ámbitos de la vida cotidiana se ha convertido en práctica habitual prescindir del medio impreso como soporte de documentos. Progresivamente se han ido emitiendo menos facturas, contratos, ofertas, manuales, circulares, etc., y extrapolando esta tendencia muchas personas han pensado de forma natural que llegará un día en el que no será necesario escribir sobre papel. Pero en realidad esa idea se lanzó ya hace más de 10 años y las cosas parecen no haber evolucionado mucho desde entonces.

El tiempo ha dictaminado una cierta estabilización en la cuota de utilización de la pantalla y el papel a la hora de leer documentos. No se repetirán aquí las habituales explicaciones en defensa del placer de la lectura escrita, ni en los diversos inconvenientes de una lectura prolongada sobre pantallas. El hecho está ahí y cabe empezar a interrogarse por qué fallaron esas extrapolaciones digitales optimistas que todavía en el año 2011 han dejado varios aspectos sin explicar, como por ejemplo que actualmente el porcentaje mundial de venta de libros electrónicos no llegue al 20%, que en algunos países (como el nuestro) no supere el 5% o vaya en franca regresión, que los e-book readers todavía sigan siendo una especie de curiosidad de coleccionista después de 5 años de su aparición, o que prácticamente no haya mercado editorial en algunas lenguas.

Durante los últimos años las explicaciones han venido a basarse en las ideas de que los dispositivos lectores todavía no estaban maduros, que existían batallas legales sobre derechos de autor y propiedad intelectual que encarecían el uso masivo de estas creaciones literarias… Bien, pero han pasado varios años ya y el debate no avanza.

Si el problema tecnológico fuera únicamente de hardware ya estaría prácticamente resuelto: dispositivos como los tablets PC están triunfando hasta el punto de que durante este año o en el 2012 superarán en ventas a los portátiles. Las pantallas que se fabrican son cada vez más nítidas y con mejor resolución. Persiste aún el inconveniente del precio, eso sí, y quizá los fabricantes de hardware deberían plantearse si para acceder a Internet realmente es necesario usar todo un ordenador (o un semi-ordenador, porque un tablet no deja de contener una versión reducida del sistema operativo). Si se quiere potenciar el acceso masivo a Internet desde dispositivos móviles bastaría con fabricar un aparato que contuviera un sistema operativo y un navegador. Muchos teléfonos móviles ya lo incorporan y las operadoras los están ofreciendo por 0€, según tarifas.

Este artículo planteará dos explicaciones alternativas. La primera es que por un lado hemos ignorado completamente un hecho que es casi una constante en toda la historia de la invención humana: cada vez que ha aparecido un nuevo medio, dispositivo o tecnología, durante los primeros años se ha destinado a repetir los usos anteriores de los aparatos a los que sustituye. Por ejemplo, al principio del cine sonoro los actores declamaban como en el teatro, los primeros programas de televisión fueron copias de la radio o del cine, las primeras motos llevaban ruedas de bicicleta, y los primeros vagones de ferrocarril fueron cajones de diligencia puestos sobre ruedas y ejes metálicos. Con el tiempo cada tecnología desarrolló sus propias especificidades aprovechando con plenitud sus competencias: el cine descubrió la panorámica, el zoom y el travelling; la televisión los concursos, las transmisiones deportivas y los realities; y los vagones de tren se hicieron metálicos para no incendiarse en las colisiones con una locomotora que sí había sido concebida para el ferrocarril y era metálica. Ahora estamos en el año 2011, hemos inventado dispositivos móviles, podemos programar cualquier aplicación que se nos ocurra… y sólo se nos ocurre ofrecer lectura. No estamos creando contenidos en otros formatos, no estamos explotando al máximo las prestaciones que nos ofrecen los nuevos dispositivos y estamos ignorando el potencial que nos ofrece Internet como repositorio de información.

Y en segundo lugar estamos constriñendo al usuario a adoptar un papel pasivo: el de leer y no poder expresarse. Impedimento agravado aún más al producirse en el momento de la historia en el que más se escribe, debido en buena parte a las nuevas tecnologías. Nunca hasta ahora en toda la historia de la humanidad había existido tanto esfuerzo creativo, y justo en el momento en que más ganas de expresarse tienen las personas hemos retrocedido a los tiempos de la Internet 1.0 en la que el usuario es consumidor y debe digerir la información, y todo lo que se le ofrece por el módico precio de 200~300 euros del dispositivo + 15 euros por cada contenido, es poder leer un libro. Se le da un best-seller de 700 páginas y ahí termina todo. O se le da el Código Penal y a eso se le llama innovación en e-learning. Leer y no participar. Y mientras tanto se está ignorando que el usuario de un e-reader puede ser a la vez lector y creador. Y aunque es verdad que la dedicación que suele invertir un usuario entre ambos roles se reparte en forma de 90-10% en una típica sesión de internet, no es excusa para no ofrecerle en todo momento la oportunidad de hacer contribuciones a los contenidos.

Resumiendo, frente a estas dos carencias:
- No se están desarrollando contenidos específicos para los readers.
- No se están potenciando las habilidades del usuario como escritor.

el debate tecnológico se está abordando en dos vertientes:
- Por la vía del hardware, casi exclusivamente. Se dedican enormes esfuerzos a mejorar los dispositivos, tanto que da la impresión de que es la única solución que ofrece la tecnología.
- Por la vía del software, lentamente y de forma conservadora. Se programan aplicaciones lectoras de contenidos para los nuevos dispositivos, es cierto. Pero prácticamente no se ha creado ninguna aplicación específica para estos instrumentos que se pueda llamar ‘verdaderamente innovadora’.


El usuario de dispositivos móviles como creador de Internet

Los grandes déficits del uso cotidiano de la tecnología móvil se encuentran en la naturaleza de los contenidos y en las aplicaciones que los exponen. Leer y comercializar libros es muy interesante, pero el sector del libro representa una parte muy minoritaria de toda la obra escrita, y un dispositivo móvil se presta muy bien a otro tipo de lecturas, más cortas, más técnicas, más especializadas… Es lo que en algunos países, en especial los germánicos, llaman “textos pragmáticos”, un concepto heterogéneo que engloba todos aquellos escritos con vocación de ser leídos, que cuidan el lenguaje e intentan ser comprensibles, pero que no tienen vocación literaria. Ahí caben un manual de instrucciones, un código legal, una promoción de un producto, un prospecto de viajes… Bien, pues Internet está llena de esta literatura pragmática. Los usuarios habituales de dispositivos móviles consultan las noticias on-line, leen periódicos, acceden a blogs, etc. ¿Y por qué no existen buenas aplicaciones que ayuden a leer y crear blogs de calidad?

Los blogs, o wikis, o cualquier cosa estructurada en forma de artículo corto que aparezca en un futuro, son candidatos ideales para ser leídos y mantenidos desde los terminales móviles. Ya existen los aparatos, ya existe la información complementaria en Internet, y sin embargo no tenemos ambición para fomentar la creación de más y mejores contenidos enriqueciendo la experiencia del usuario.

Es cierto que mediante un terminal móvil es posible insertar comentarios más o menos cortos en blogs, artículos o redes sociales, pero mediante las interfaces actuales, a la hora de redactar el escritor se encuentra frente a un cuadro de texto en blanco y la única herramienta de consulta que posee es su cabeza. Una revisión conceptual de las aplicaciones en los próximos años debe ir forzosamente en la dirección de ayudar al usuario otorgándole un papel verdaderamente activo, en que desde el momento en el que acceda a la aplicación tenga oportunidades de escribir contenidos interesantes. El usuario no sólo debe poder leer, sino crear. Quien diseñe estos nuevos programas, editores de blogs mejorados, o como se quieran llamar, deberá ofrecer, en paralelo al contenido principal, un acceso rápido a consultas en buscadores, entradas en wikipedia, a ojear simultáneamente otras redes sociales con contenidos similares a lo que está leyendo o escribiendo. Las pantallas son grandes. Deben disponer de un buscador inteligente y automático que sea capaz de relacionar los contenidos mostrados en pantalla con los textos de otras webs o redes, porque el buscador clásico basado en un cuadro de texto y un botón de enviar resulta ya extremadamente pobre. Y empieza a ser obligatorio disponer de buenos traductores para buscar y compartir información en otros idiomas. No podemos crear comunidades de contenidos aisladas. En definitiva, han de triunfar aquellas aplicaciones o páginas web que consigan tanto en lectura como en escritura la interacción a 3 niveles usuarioßàinformación en pantallaßàresto de Internet.

Plantéenselo los fabricantes de hardware y los desarrolladores de software, porque en el momento actual es la expresión mediante imagen y vídeo lo que está tomando la delantera: por ejemplo, muchos artículos de opinión, incluso de periodistas famosos, empiezan a publicarse sólo en vídeo. Youtube anuncia canales de televisión por internet, y de ahí a que los usuarios consuman televisión en el metro o el autobús hay un paso. Me extraña mucho que todavía nadie haya inventado un programa de televisión para comentar los contenidos de las redes sociales en tiempo real, pero supongo que algún día lo veremos. Y de momento, mientras triunfe lo audiovisual estaremos perdiendo oportunidades, porque a día de hoy sigue resultando muy difícil hacer búsquedas eficaces sobre la información almacenada en esos formatos.

Apéndice. Sobre e-readers y libros digitales

Dejando a un lado el debate sobre dispositivos y aplicaciones, el negocio editorial digital está muy lejos de triunfar en el presente. Y eso después de haber creado y consolidado plenamente un segmento de mercado dispuesto a leer libros sobre pantallas. Apuntaré sólo una razón, es evidente que muchos lectores no están demasiado dispuestos a pagar por el precio que se pide. 15 euros es caro para un libro, y sobre todo es caro en una época en la que empezamos a habituarnos a escuchar primero la música antes de comprarla, a ver el trailer de la película antes de ir al cine… El negocio de la venta de libros debería ir desterrando el concepto de “compra”. Los libros en papel hace varios siglos que están disponibles en las bibliotecas, y es un modelo que funciona. Va siendo hora de crear bibliotecas virtuales, sitios web con cuentas de usuario donde por un precio asequible den acceso a descargas temporales de libros. Al igual que en la biblioteca física donde uno se lleva un libro a casa durante una semana o dos, en una biblioteca virtual un usuario puede tener acceso a un libro durante unos días, y ni siquiera necesita descargarse un archivo e instalarlo en su dispositivo: desde su cuenta accede al/los libros que está leyendo y en la página donde lo dejó. ¿Por qué no se explota este modelo de negocio?

lunes, 16 de mayo de 2011

¿Hacia una evolución inteligente de las redes sociales?

Que las redes sociales hayan conquistado a una enorme parte de la población ya no sorprende a nadie. El acceso a facebook o a twitter, por citar dos ejemplos de las más conocidas, es cosa cotidiana en personas a priori alejadas de la tecnología, como gente de la tercera edad, usuarios con escasa formación académica, etc. A estos comportamientos han contribuido espectacularmente la revolución en los dispositivos móviles y la simplificación de la interfaz en las aplicaciones. Por decirlo de una manera general, se puede concluir que la explosión de la llamada Web social ha sido un fenómeno comparable a la explosión inicial de Internet en los años 90, y a estas alturas volver a explicar el fenómeno es tan reiterativo como innecesario.

Nuevo es sin embargo preguntarse hacia dónde evoluciona la Web social. Es conocido que cualquier tendencia, sea tecnológica, cultural, de ocio, etc. tras un periodo inicial de crecimiento vive una época de apogeo en la que se puede decir que “está de moda” y a partir de ahí inicia un lento decaimiento que la llevará a una feliz madurez o no. Matemáticamente la curva se asemeja a una campana de Gauss asimétrica, con su máximo cercano al inicio. Los factores que afectan a la anchura y altura de esta curva son tan heterogéneos como la aparición de competidores, la aceptación de los usuarios, etc.

En esta línea salta a la vista que la red social, la llamada Internet 2.0, está ya lo suficientemente madura después de 3~5 años de vida como para esperar una próxima evolución. Y partiendo de la base de que los usuarios de hoy son mayoritariamente los mismos que hace 5 años, podemos encontrar algunas de pautas que seguirá esta evolución examinando la transición de la Internet 1.0 a la 2.0 durante los años 2000; y apurando más, en la eclosión de la propia Internet en los 90.

A día de hoy es corriente encontrar gente que nos dice que se aburre en el facebook, que el flickr está muerto o que myspace ya no es lo que era. ¿Y realmente es así? En principio no, porque las aplicaciones son las mismas. ¿Entonces? Entonces la respuesta que nos dan los expertos en redes sociales es que los comportamientos de los usuarios evolucionan y son tan imprevisibles o complejos de analizar que parecen puramente aleatorios.

Mmmmm… vale, pero a lo mejor no es así. En realidad cualquier Web social lo que nos ha proporcionado en estos años ha sido  una sensación muy fuerte de sorpresa inicial. Hemos encontrado a nuestros antiguos compañeros de colegio, hemos vuelto a hablar con alguien que no veíamos desde los años 90, nos hemos intercambiado música, ofertas de trabajo, hemos convocado eventos. Nos han hecho sentir creadores y hemos pensado que las posibilidades de estas redes son infinitas… Y sin darnos cuenta hemos estado diciendo las mismas frases que dijimos durante la segunda mitad de los años 90 cuando empezamos a hablar de la sociedad de la información y el conocimiento. Por aquel entonces de repente nos dieron acceso a leer una página que alguien escribía en Singapur o a leer un periódico de Buenos Aires, y aquello nos pareció haber llegado a una meta final. No habría nada más.

Dejando a un lado la enorme revolución que trajo consigo, ¿qué pasó cualitativamente durante los primeros años? que Internet se llenó de páginas sin demasiado orden ni estructura. Que cualquier empresa ponía su catálogo de servicios en Internet y durante un tiempo aquello parecían las páginas amarillas. Se crearon miles de portales de acceso en los que típicamente se ofrecían noticias de agencia, un correo electrónico, un buscador de lo albergado en el portal, un plano de tu ciudad… Y en poco tiempo estalló la burbuja punto com, porque pasada la sorpresa inicial el público empezó a reclamar contenidos. Está muy bien tener disponible un periódico de Buenos Aires, pero en el día a día lo que el usuario quiere es comprar una entrada para el cine de al lado de su casa, escuchar la última canción que ha sonado en la radio y ver fotos del hotel de Canarias al que piensa ir en agosto. No quiere letras en movimiento o animaciones en flash ni grandes logos, lo que quiere es información. Y triunfaron las webs que albergaban contenidos interesantes. Triunfaron los contenidos y fue el gran mérito de los buscadores.

Google es la página más consultada de Internet porque los usuarios quieren orientarse. El filtrado de la información, la ordenación por importancia y la universalidad hacia a toda la red es la clave del éxito para satisfacer al usuario. Y tristemente a día de hoy nada de esto existe en las llamadas redes sociales.

Hoy, al igual que al principio de Internet, tras la sorpresa inicial los usuarios se están cansando de leer los comentarios anodinos de sus amigos, de ver la foto del nieto recién nacido, de enterarse de que alguien ha ido a una fiesta, etc. Como creadores de contenidos, el 99% de las personas somos muy pobres. Claro está que en las redes sociales se encuentran enlaces interesantísimos a noticias, artículos de opinión, invitaciones para usar herramientas y otras muchas cosas. Son el futuro. Pero están mezcladas con las fotos de la última despedida de soltero y la felicitación por la victoria de tu equipo. Y lo que es peor: la información está segregada por redes, es decir, no trasciende más allá del twitter lo que se pone en el twitter ni más allá de facebook lo que está en  facebook (salvo para el público más tecnológico que se instala herramientas que le enlazan de una aplicación a otra, pero esto representa un porcentaje mínimo con respecto al total de usuarios).

Hacen falta buscadores sobre las redes sociales. Hace falta categorizar, compartimentar o indexar la información. La red social que sea capaz de analizar y después ofrecer la actividad de los demás usuarios segregada por categorías se podrá llamar perfectamente Web 3.0. Y deberán hacerlo bien estas redes porque el usuario es exigente: cuando quiera información tecnológica exigirá ver los mejores posts (o twits, o como se diga dentro de 2 años), sobre tecnología. Si pide fútbol querrá los comentarios más graciosos, o los mejor informados, o los más reflexivos o críticos, etc. El reto para estas webs y sus diseñadores será ejecutar en tiempo real un análisis de la información de los contenidos, y deberán buscar algoritmos que empiezan a parecerse mucho ya a la inteligencia artificial.


Apéndice

Especulando un poco más se puede plantear una posibilidad pesimista: en un contexto de economía de mercado en el que se desarrolla Internet, cada semana o cada mes encontramos noticias sobre alguna determinada web que se vende o se hace de pago para el usuario. Escapa del propósito de este artículo analizar la libertad de Internet, pero sí entra alertar sobre la propiedad de los contenidos. En algunos países hay enormes batallas legales sobre la propiedad intelectual de la música, el cine, o cualquier creación artística. Hace unos años asistimos al cierre de napster. Hoy vemos que spotify se ha convertido en una web de pago, el futuro de skype es incierto… Pero esto no es nada extraño si tenemos en cuenta que la televisión de calidad ahora circula por canales de pago, que para algunas cosas la medicina privada es mejor que la pública o que para ver las mejores obras de arte del mundo hay que pagar la entrada a un museo privado. La explicación siempre es la misma y habrá que repetirla hasta la extenuación: el público demanda contenidos y a veces está dispuesto a pagar por ellos. El resto de la crónica son luchas periódicas entre una “democratización” y una “elitización” del acceso a dichos contenidos.

Probablemente en el horizonte del año 2013~2015, cuando exista la posibilidad técnica de apropiarse en tiempo real de la creación intelectual de cada usuario, se planteará el pago para acceder a redes sociales de más categoría. Quizá los expertos más seguidos de cada tema “ficharán” por una red al estilo del futbolista que ficha por un club, el directivo que cambia de empresa o el columnista que firma en un periódico. Quizá haya una Internet generalista y otra de pago más selectiva con contenidos de mayor calidad. Entra dentro de lo posible.