viernes, mayo 25, 2007

Posthumanidad: ¿Solo un sueño?

1. El escenario: La Inteligencia Artificial.

Durante los primeros años la Inteligencia Artificial (IA) se fundamento en el desarrollo de programas que fueran capaces de realizar actividades propias de la mente humana, tales como demostrar teoremas, jugar a las damas, al ajedrez, darle soluciones a problemas poco estructurados basados en la heurística o en campos donde se requería de conocimientos, los sistemas expertos. Esta vía para lograr una inteligencia no humana, para muchos era demasiado lenta y no cumplía con las expectativas. Muchas esperaban haber creado una inteligencia no humana en los 80s. Se puede decir que a finales de los 80s y principio de los 90s muchos investigadores comenzaron a desesperarse y no fueron pocos los que abandonaron sus laboratorios por líneas de trabajo más prometedoras.

Sentimiento de fracaso que invadió tanto a la IA débil como a la IA fuerte. Para la débil cuyo objetivo era crear sistemas informáticos que realizasen actividades que requerían de inteligencia tales como los sistemas expertos, en los cuales se cifraron grandes esperanzas tanto investigativas como comerciales, se esperaba que el mercado estuviera abarrotado de sistemas expertos, incluso los metódicos japoneses, para no ser menos, se lanzaron en su famoso proyecto de 5ta. Generación que también quedo como otro intento más. Por su parte la fuerte cuyo propósito es reproducir en la maquina la extensa variedad, sutileza y profundidad de la inteligencia humana, no logro cumplir con sus metas de en menos de 20 años haber reproducido la mente humana y estaban atascados en modelos muy elementales de la inteligencia, como el mundo de bloques y en sistemas cerrados que eran incapaces de mostrar iniciativa o fallaban estrepitosamente ante cualquier problema que requiriera de sentido común.

2. Nuevos actores: Vingen y Kurzweil

Comenzaremos con el norteamericano Vernor Vingen, quien vaticina que la creación de entidades con inteligencia mayor que la humana será una realidad, antes del 2030. Este autor le da más importancia al hardware de la computadora que a sus programas y se concentra en la creación de máquinas inteligentes independientes de sí emulan la mente humana Y afirma, que existen otros caminos diferentes a la IA para llegar a la superhumanidad a la cual él le llama amplificación de la inteligencia, la misma se esta sucediendo de una forma natural, cada vez que se mejora nuestra capacidad para acceder a la información y para comunicarnos. Esto nos lleva a la conclusión de una inteligencia "emergente" que podrá surgir de un momento a otro.

Por otra parte, Vingen, considera que el poder y la influencia de Internet están siendo muy poco considerada: "La total anarquía de la red mundial es una evidencia de su potencial. A medida que crecen la conectividad, el ancho de banda, el tamaño de la capacidad de archivo y la velocidad de proceso (su habilidad para comunicarse en anchos de banda variables, incluyendo algunos mucho más elevados que la voz o los mensajes escritos). ¿Qué pasará cuando partes de un ego pueden ser copiadas y unidas a otras, cuando la autoconciencia puede aumentar o disminuir para aproximarse a la naturaleza del problema bajo consideración? Es algo parecido a una biosfera recapitulada como un procesador de datos, pero un millón de veces más rápida y con millones de humanos como agentes inteligentes (Nosotros mismos)".

Vingen también propone una inteligencia superhumana fuerte, la cual podría parecerse a una Sociedad de la Mente (idea de Minsky) con varios componentes muy calificados, donde algunos de esos "equivalentes humanos" podrían ser usados nada más que para procesamiento digital de señales. Y agrega: "para aquellos que no hayan cambiado (los que decidan seguir siendo humanos) el logro será un trato benigno, quizás dándoles la apariencia de ser los dueños de unos semidioses esclavos (las máquinas superinteligentes)".

El reduccionismo siempre estará en la mente de todo científico y Ray Kurzweil toma la idea de la ingeniería inversa y la aplica a los procesos de la mente. Y dice: Un ordenador es más rápido que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano. Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. El profesor norteamericano Andreas Nowatzyk ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

Al igual que Vingen no ve limites al desarrollo tecnológico el cual absorbe a todas las actividades humanas. Y apuesta por una evolución tecnológica que rompa con la lenta evolución biológica. Y afirma que muchos científicos tienen una perspectiva lineal y ven el futuro como un calco retocado del pasado. Eso es un error. Estamos en una fase de crecimiento exponencial en la que confluyen la informática, la biotecnología, la física cuántica, la nanotecnología... Este siglo será equivalente a 20.000 años de desarrollo lineal.

Entre sus numerosas predicciones se encuentran escanear el cerebro para luego instalarlo en otro medio no biológico, así como lograr la inmersión total virtual. Y cree que los entornos de realidad virtual integrarán todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y tele cargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales.

3. Que piensa el padre de la Inteligencia Artificial
Minsky quien fuera uno de los fundadores de la IA, junto a John McCarthy y líder de los "zarrapastrosos" junto a Schank (así se les llamaba a los investigadores que defendían la represetanción semántica en contraposición a los “pulcros” que abogaban por una representación lógica) desde donde defendía la idea de una IA lo mas cerca posible al pensamiento humano y se oponía al formulismo frío de la lógica, resulte ser ahora uno de los paladines de la sustitución del hombre por las máquinas.

Minsky quien no puede ocultar su decepción con la inteligencia artificial dice: "La IA está en un estado risible, debido a que podemos hacer que las máquinas hagan el tipo de cosas que hace un "experto", pero aún no podemos lograr que hagan la mayor parte de las cosas que puede hacer un niño de 4 años. Aunque reconoce que la IA se atasco, anuncia que esta solo se ha detenido por un momento. Y dice: Hacia 1980 el progreso se detuvo en cierta forma y la gente se dispersó en otras direcciones para tratar de encontrar alguna vía de volver.

Minsky ya en su vejez, parece darle más importancia a la inmortalidad que al propio sentido ético de lo que propone, de ahí que diga: "Hasta ahora hemos tendido a vernos como producto final de la evolución, pero la evolución no ha cesado. La verdad es que ahora estamos evolucionando más rápidamente aunque por el lento procedimiento darwinista. Ya es hora de que empecemos a pensar en nuestras nuevas identidades, que están aflorando. Podemos comenzar a diseñar sistemas fundados en un tipo ingenioso de selección innatural, capaces de sacar partido de características adquiridas”. Y agrega: "Estamos en una era primitiva, en la cual las máquinas no tienen perspectiva del futuro, ni "valores familiares básicos". Y sí, tengo que insistir que esta ciencia llevará a la extensión de nuestro lastimoso tiempo de vida".

Con respecto al sentido ético de sus ideas, afirma que es tan malo que si insiste en él va a ser peor. Y propone, no sin razón, que la ética debe venir de gente que sepa de eso. Y agrega: No creo que sea bueno pedirle a los científicos que entiendan las consecuencias de su trabajo, porque no pueden. Y los justifica diciendo: Pasan todo su tiempo pensando en su trabajo, así que no piensan en la ética o en las consecuencias.
.
Y concluyo con un párrafo de mi ensayo “¿Posthumanismo o Posthumanidad?” Publicado por la editorial Ciencias Sociales en 1996: En el futuro surgirán nuevas tendencias basadas en la cooperación de todas las inteligencias (nadie sabe cuantas ni como serán), y surgirán nuevas profesiones que tendrán que ver con las inteligencias no humanas, y sobre todo, creo, se intensificarán los estudios sobre la inteligencia humana: psicología, neurofisiología, antropología, sociología, parasicología y otras. Es totalmente racional pensar que el hombre ante la superinteligencia de las máquinas trate de comprender su propia humanidad y sienta mas que nunca la necesidad de conocer su propio cerebro (lo irracional sería que el hombre se dedicara a adorar a las máquinas como dioses). Las máquinas a su vez le servirán al hombre como impulsoras de nuevas fuerzas creativas, este al no tener que dedicarse a las actividades rutinarias… más tiempo para darle un uso más eficiente a su cerebro, o será el hombre tan torpe que en lugar de perfeccionar su sistema educativo buscando ser cada vez mas creativo, se aferre como única solución a la perfección de las máquinas, cuando en realidad ambos pueden ser mejores y ambos tanto las máquinas como los humanos dependen de la capacidad del individuo como ser social.

viernes, mayo 11, 2007

Cerebro global: ¿Que es?

Después de la crisis del paradigma simbolista dentro de la Inteligencia Artificial; un nuevo paradigma comenzó a establecerse: el conexionista, basado en pequeños programas no inteligentes (al menos no poseían todo el conocimiento) y que al integrarse a otros programas lograban alcanzar una inteligencia o un conocimiento mas acabado y darle solución a problemas complejos. Lo cual a dado lugar a diferentes campos de investigación como los agentes inteligentes, las redes neuronales, los algoritmos genéticos, por solo citar algunos de los más influyentes. Este nueva paradigma lleva a un nuevo concepto: la inteligencia colectiva donde muchas inteligencias conectadas o interactuando entre si, ya sean neuronas, personas, empresas o cualquier otro organismo, pueden alcanzar una superinteligencia, a la que muchos científicos le han llamado el cerebro global.

Algo de historia
Ya en el siglo XIX, Herbert Spencer escribió un libro “Los principios de la sociología”, en el cual proponía la idea de que la sociedad se asemeja a un organismo. El biólogo Vladimir Vernadsky creo la palabra noosfera para referirse a la red de pensamientos, información y comunicación que engloba el planeta y ya en 1995 el teólogo Pierre Tahilard de Chardin popularizo la palabra noosfera en su libro “El fenómeno humano”. Sin embargo no fue hasta 1983 que aprecio el termino cerebro global, utilizado por Peter Russell en su libro “Cerebro global”.

Porque la Web.
Si pensamos en el cerebro estamos haciendo referencia a un organismo o sistema (el cerebro) que va ha estar compuesto por muchos organismos más pequeños (las neuronas) que se conectan entre si para lograr una inteligencia. La idea consiste en extrapolar el cerebro a la Web (la Web vista como un organismo) que esta compuesta por muchos enlaces (link) entre paginas Web. Hoy la Web funciona como un sistema caótico, donde la información esta desordenada y encontrar información es una tarea nada fácil. Veamos los problemas actuales de la Web,

1. Todavía sigue siendo una enorme base de datos esencialmente plana y minimamente organizada.
2. La red es la misma para cada individuo, y no atiende a las necesidades particulares o a las propuestas individuales de los usuarios.
3. Tampoco es capaz de aprender de los recorridos seguidos por cada uno de ellos, los contenidos no están relacionados y las maquinas no entienden los datos que almacenan.
4. Todavía no se cuenta con un mecanismo que filtre la información y ofrezca pistas de cuando la información es verídica o falsa de cuando es útil o inútil para cada usuario.

Todos estos problemas podrían ser resuelto por una Web inteligentes (algunos le llaman así) o cerebro global. Proyecto en el que trabajan Francis Heylighen y John Bollen son dos de los científicos mas destacados en la creación del cerebro global ambos trabajan en el proyecto Web Principia Cibernética donde se simula el funcionamiento de un cerebro global en Internet

Los componentes:

Hipervínculos de acuerdo al peso que se le de a las paginas mas consultadas.
Este cerebro es capaz de crear nuevos hipervínculos que se activan cuando el usuario desarrolla un nuevo itinerario en su búsqueda de modo que los enlaces se actualizan o se destruyen de manera automática en función de su uso. El aprendizaje sigue la regla de Hebb: si dos neuronas se activan de manera sucesiva aumenta el poder de su conexión y esto mismo es lo que aplican a la web, si dos paginas son consultadas por el mismo usuario en un breve intervalo de tiempo, el hipervínculo existente entre ellas alcanzara un peso más importante o da origen a un nuevo enlace, a su vez los enlaces que no son consultados pueden ser eliminados. Al igual que el cerebro humano es capaz de crear conexiones nuevas en función de su uso.

Smart cookies: cookies inteligentes que permiten crear la ruta de navegación del usuario.
Las cookies inteligentes son pequeñas bases de datos que registran la información sobre el usuario y su computadora además de almacenar las rutas de dicho usuario por Internet. Cuando el usuario se conecta al servidor es capaz es capaz de reconocerlo y de recomendarle páginas que le pueden ser de interés, así como de ajustar los hipervínculos y de revisarlos automáticamente. En definitiva, busca atajos.

Agentes inteligentes: son lo que interactúan con la fuente de información.
Se necesita de un programa que acceda a las bases de datos creadas por las cookies para recoger la información y esta es tarea de los agentes inteligentes, que son los pequeños programas que interactúan no solo con la información contenido en las cookies sino también entre ellos creando un conocimiento distribuido que, a su vez, debe ser capaz de simular el funcionamiento de las neuronas en el cerebro y asociar los conceptos y entenderlos. En el caso de Internet debe ser capaz de entender el contenido de las páginas Web para saber cuales sirven y cuales no, de acuerdo a lo que el usuario precisa.

Web semántica: hacer comprender a los servidores Web el contenido de las páginas.
El cerebro global podemos decir que es la línea fuerte dentro de la investigación de una Web inteligente, donde se persigue que los servidores sean capaces de aprender el recorrido hacen los internautas en su navegación por Internet. Se busca simular al cerebro. Esta línea es liderada por Francis Heykighen, Johan Bollen y Cliff Hoslyn.

Otra vía, podemos decir la línea débil (en el sentido que es menos ambiciosa), busca desarrollar un sistema que permita que la búsqueda y recuperación de información sea mas intuitiva y precisa a partir de la aplicación de la semántica, de ontologías y de agentes inteligentes. Se busca hacer que la Web sea más inteligente sin imitar al cerebro. Esta última es liderada por Tim Berners-Lee, Hans Georg Stork y James Hendler.

La Web semántica sueña con lograr que la Web nos entienda, para ello trabaja en hacer comprender a los servidores Web el contenido de lo que almacenan o distribuyen por la red, mientras los agentes inteligentes son los encargados de acceder y manipular esos contenidos.


Cerebro global: ¿Cómo funciona?
El cerebro global además de tener como soporte la metáfora del cerebro, también parte la crecía de una inteligencia colectiva. Ahora Qué es inteligencia colectiva? Según Pierre Levy, es una forma de inteligencia universalmente distribuida, constantemente realzada, coordinada en tiempo real, y resultando en la movilización efectiva de habilidades. Esto ultimo la movilización de habilidades individuales que de forma cooperada pueden conformar una inteligencia, piensen en la sociedad de las hormigas.

La idea consiste en que la sociedad puede ser vista como un superorganismo basado en la inteligencia colectiva de todos sus miembros. Por lo que su funcionamiento consistiría en lograr estructurar y organizar la información dentro de Internet y para ello este superorganismo tiene que ser capaz de generar, multiplicar y mantener las conexiones neuronales correspondientes.

Tanto el cerebro global como la Web semántica persiguen reconstruir la ruta seguida por los usuarios en la red y actualizar y componer constantemente los enlaces según la demanda de los usuarios y desconectar los que vayan perdiendo actualidad. Para ello se necesitan algoritmos que se le asignaran a cada visitante con el objetivo de rastrear el camino que sigue dentro de la Web y memorizar la historia de su comportamiento y con ello; ser capaz de reconocer los gustos de cada usuario y mostrarle solo las paginas que le interesen y proponerle nuevos sitios de acuerdo al perfil que ha ido conformando sobre su comportamiento.

Tendremos una red que será cada vez más inteligente y que a través de los agentes inteligentes, los sistemas de conocimiento distribuidos y otras tecnologías, Internet se convertirá en una Web inteligente o semántica capaz de aprender de los gustos de los usuarios y facilitarle las búsquedas, y hasta de aconsejarlos. Aunque algunos van mas lejos y creen que ese cerebro global será capaz de evolucionar y llegar a adquirir una conciencia. O sea que, ya no, solo, estamos hablando de maquinas conscientes que aprenden, sino de una red que se auto-organiza y adquiera conciencia de sí.