domingo, octubre 11, 2009

Cibernética

Tomado de la Enciclopedia de Teoría de Sistemas y Cibernética. (Charles Francois)


1. “Campo de control y comunicación en los animales y las máquinas” (N. Wiener 1948 p.11)

La visión original de Wiener es de hecho bastante mecanicista y corresponde a lo que será conocido como primera cibernética o cibernética de primer orden.

2. “El estudio de los sistemas que están abiertos a la energía pero cerrados a la información y control -sistemas que están apretados de información-“ (W. R. Ashby 1956 p.5).

La visión de Ashby es muy cercana a la de Wiener: “La cibernética trata con todas las formas de comportamiento en cuanto ellas son regulares, determinadas, o reproducibles... Lo que la cibernética ofrece es un marco de trabajo sobre el cual todas las máquinas individuales pueden ser ordenadas, relacionadas y estudiadas” (p.2)


El punto de vista de Wiener, y en menor medida el de Ashby, tienen resistencias considerables de parte delos investigadores de ciencias humanas.

Ashby mismo sin embargo escribió también: “La cibernética no estudia cosas sino modos de comportamiento. No pregunta ¿qué es esto? sino ¿qué hace esto?...la materialidad es irrelevante así como la tenencia o no de las leyes ordinarias de la física”. (1956 p.1)


Y además: “La cibernética no está condicionada por ser derivada de otras ramas de la ciencia. La cibernética tiene sus propios fundamentos.” (Ibíd.).

Cibernetistas alemanes prefirieron, por lo menos hasta 1970, definiciones más formales como puede apreciarse en las siguientes 4 definiciones:

3. “Ciencia de las estructuras de la información en dominios técnicos y no técnicos” (básicamente relacionados con tratamiento de datos) (Steinbuch 1955 p.325).

4. “Teoría y técnica de sistemas la cual transforma mensajes” (Frank 1959 p.30)

5. “Tratamiento matemático y constructivo de sistemas, funciones y relaciones generales” (von Cube 1967 p.11-16)

6. “La teoría de la ínter-conectividad de posibles sistemas auto-regulados con sus subsistemas” (Klaus 1965).

El cibernetista ruso Glushkov propuso en 1966 un concepto técnico bastante similar de cibernética:

7. “La teoría general de la transmisión de la información y... la teoría y principios de la construcción de las varias transformaciones de la información.” (1966)


Glushkov incluyo en su libro teorías de algoritmos, autómatas discretos, sistemas auto-organizados, lógica matemática. V. G. Drozin observó que: “…sus postulados traslapaban algunas cosas que la ciencia de la computación estaba enseñando en nuestro país (i.e. US) (1976 p.30)


8. “Disciplina que estudia regulaciones y comunicaciones en seres vivos y máquinas hechas por el hombre” (J. de Rosnay 1975 p.33)


Muy significativamente de Rosnay usa la palabra “regulación” y no “control” usada por Wiener. Como biólogo él está más acostumbrado al aspecto no intencionado de la regulación. Esto se ve mejor si uno recuerda que biólogos, psicólogos y sociólogos reaccionaron negativamente a los “controles” cibernéticos, que ellos consideraban un reduccionismo mecanicista, tentado , lo que es más, a inducir posibles manipulaciones a comportamiento humano (y animal).


Por otro lado de Rosnay añade: “Una definición más filosófica dada por L. Couffignal en 1958, ve la cibernética como: “El arte de asegurar la eficacia en la acción”. La palabra cibernética fue reinventada por Wiener en 1948 de la palabra griega “kubernetes” que significa “piloto” o “timón”. Uno de los primeros mecanismos cibernéticos de regulación en la máquina de vapor inventada por Watt y Boulton en 1788 fue llamado “gobernador”... La cibernética tiene así la misma raíz que “gobierno”: El arte de administrar y dirigir sistemas altamente complejos. (Ibíd.)


A partir de 1960 empezó a emerger una visión de la cibernética menos mecanicista con Stafford Beer, G. Pastk, H. von Foerster, M. Maruyama, H. Maturana y otros investigadores.


De acuerdo con Stafford Beer...”La cibernética estudia el flujo de información alrededor de un sistema y la manera como esta información es usada como un medio para regularse a sí misma. Esto funciona indiferentemente para seres animados o inanimados. La cibernética es una ciencia interdisciplinaria, en deuda tanto con la biología como con la física, tanto con el estudio del cerebro como con el estudio de las computadoras, y además muy en deuda con los lenguajes formales de la ciencia por proveer herramientas con las cuales el comportamiento de todos los sistemas puede ser descrito objetivamente” (1966 p.254)



Uno se pregunta si Beer actualmente usaría a palabra “objetivamente” debido a que ahora es generalmente admitido que el conocimiento científico puede ser falseado (Popper) y resulta de un proceso consensual a través de la conversación (Pask). Por supuesto y no obstante, aún podemos postular sin correr riesgos la existencia de una realidad objetiva , y todo esto no dañaría la utilidad de los modelos cibernéticos.

Luego Beer añade: “La cibernética es precisamente sobre la organización- para este es el medio sobre el cual se ejercita el control. Por lo tanto la cibernética puede además ser definida, como lo ha sido por ciertos escritores rusos, como la ciencia de la organización efectiva” (Ibíd. p.425)

En cualquier caso la visión de Beer no es mecanicista “La cibernética comienza cuando las posibilidades de la algoritmización de los sistemas de control termina” (Citado por Drozin 1976 p.28)

De acuerdo con Krippendorff: “En la cibernética las teorías descansan sobre 4 postulados básicos: variedad, circularidad, proceso y observación” (1986 p.20)

Como señaló este autor la variedad está muy relacionada a información, comunicación y control; circularidad es un resultado necesario de la retroalimentación , y la lleva ala autopoiesis; procesos vienen de retroalimentación, comunicación, regulación y control; y observación es la condición básica para la toma de decisiones y el control.




sábado, agosto 15, 2009

La Ciencia de la Auto-organización y la Adaptación


La Ciencia de la Auto-organización y la Adaptación

La teoría de la auto-organización y la adaptación está surgiendo desde una variedad de disciplinas, que incluyen la termodinámica, cibernética y el modelamiento por computadora. El presente artículo revisa sus más importantes conceptos y principios. Este comienza con una revisión intuitiva, ilustrada con los ejemplos de magnetización y convección de Bénard, y concluye con las bases del modelamiento matemático. La auto-organización puede ser definida como la creación espontánea de patrones globalmente coherentes desde las interacciones locales. Debido a su carácter distribuido esta organización tiende a ser robusta, resistente a las perturbaciones. La dinámica de los sistemas auto-organizados es típicamente no lineal a causa de las relaciones circulares o retroalimentadas entre sus componentes. Las retroalimentaciones positivas llevan a un crecimiento explosivo el cual termina cuando todos los componentes han sido absorbidos dentro de una nueva configuración, dejando al sistema en un estado estable de retroalimentación negativa. Los sistemas no lineales tienen en general muchos estados estables, y este número tiende a incrementarse (bifurcarse) mientras un incremento de entrada de energía empuja al sistema más allá de su equilibrio termodinámico. Para adaptarse a los cambios del entorno el sistema necesita una variedad de estados estables que sean más que suficientes para reaccionar a todas las perturbaciones, pero no tantas como para hacer su evolución incontrolablemente caótica. Los estados más adecuados son seleccionados de acuerdo a su pertinencia, ya sea directamente por el entorno o por los subsistemas que tiene que adaptarse al entorno en una fase previa. Formalmente el mecanismo básico subyacente a la auto-organización es la variación (a menudo portadora de “ruido”) la cual explora diferentes regiones en el espacio de estados del sistema hasta que entre en un atractor. Esto evita posteriores variaciones fuera del atractor, esto es, restringe las posibilidades de los componentes del sistema de comportarse independientemente. Eso es equivalente al incremento de coherencia, o decremento de la entropía estadística, que define la auto-organización.

Paper completo
Trabajo Original:
Francis Heylighen
download paper (english)
bajar paper (español - traducción por este blog)


GLOSARIO:
Auto-organización: Emergencia espontánea de coherencia global a partir de las interacciones locales.

Adaptación: Capacidad de un sistema para ajustarse a los cambios del entorno sin poner en peligro su organización esencial.

Entropía Estadística: Medida matemática de la ausencia de restricciones o la falta de información acerca del estado de un sistema, equivalente a la medida de la incertidumbre de Shannon.

Entropía Termodinámica: Medida de la disipación de energía en calor. Equilibrio Termodinámico: Estado estático de mínima energía donde no se produce entropía.

Estado Estacionario: Estado que se caracteriza por estar en actividad permanente.

Estructura Disipativa: Patrón organizado de actividades sostenidas por la exportación de entropía de sistemas lejos del equilibrio.

Rollo de Bénard:
Un tipo de estructura disipativa formada por convección entre capas en un líquido calentado desde abajo.

Atractor:
Una región en el espacio de estados en que un sistema puede entrar pero no salir.

Tamaño de correlación: La distancia más larga sobre la cual los componentes de un sistema están correlacionados.

Bifurcación: la ramificación de las soluciones estables en los sistemas de ecuaciones que describen un sistema auto-organizado cuando el orden de parámetros crece.

Orden de parámetros: Una variable que describe la transición entre los regímenes de orden y de desorden.

Límite del caos: Dominio de actividades dinámicas donde residen por lo general los sistemas adaptativos complejos, entre lo completamente ordenado, régimen “congelado”, y lo completamente desordenado, régimen caótico.

Control distribuido: Limitación sobre toda la organización de un sistema que no está centralizada en un subsistema distinto, sino que es realizada colectivamente por todos los componentes.

Condiciones de frontera: Los estados del entorno en la frontera del sistema en la medida que estos influyen en la evolución del sistema.

miércoles, agosto 12, 2009

Científicos encuentran reglas universales para la estabilidad de una red alimenticia.

Flexibilidad de los depredadores mantiene la estabilidad en los ecosistemas


Científicos encuentran reglas universales para la estabilidad de una red alimenticia.

Con ayuda de modelos de computadora, científicos de Alemania, Austria y los Estados Unidos han descubierto reglas fundamentales que determinan la estabilidad de los ecosistemas. Los hallazgos, publicados en la edición de esta semana de Science (6 de Agosto del 2009), concluyen que la estabilidad de una red alimenticia es mayor cuando una mayor diversidad de vínculos depredador-presa conectan altos e intermedios níveles tróficos. Los cálculos también revelan que pequeños ecosistemas siguen diferentes reglas a lo largo de los ecosistemas: diferencias en la fortaleza de los vínculos depredador-presa incrementa la estabilidad de pequeñas redes,pero desetabilizan redes mayores.


Los ecosistemas naturales consisten en cadenas alimenticias entrelazadas, en las cuales animales individuales o especies de plantas actúan como depredadores o presas. Las redes alimenticias potenciales no sólo difieren por las especies que las componen, sino, además, por la variedad en su estabilidad. Las redes alimenticias observables son redes alimenticias estables con las relaciones entre sus especies restantes relativamente constantes durante largos períodos de tiempo.


El entendimiento de los sistemas complejos tales como las redes alimenticias presenta mayores retos para la ciencia. Ellso pueden ser examinados o por observación en su ambiente natural, o por simulaciones de computadora. Para lograr las simulaciones de computadora de tales sistemas, los científicos a menudo tienen que hacer asunciones que los simplifiquen, manteniendo el número de parámetros del sistema tan bajo como sea posible. Aún así, la demanda computacional de tales simulaciones es alta y su relevancia a menudo limitada.


Científicos del Max Planck Institute para la Física de Sistemas Compejos (MPIPKS) en Dresden, Alemania, han desarrollado un nuevo mñetodo que les permite analizar eficientemente el impacto de innumerables parámetro sobre sistemas complejos.


“Mediante el uso de un método llamado Modelamiento Generalizado, nosotros examinamos si una red alimenticia dada puede, en principio, ser estable, i.e., si sus especies pueden coexistir en el largo plazo,” dice Thilo Gross del MPIPKS. Los sistemas complejos pueden, de hecho, ser simulados y analizados bajo casi cualquier condición. “De este modo podemos estimar cuáles parámetros mantendrán al ecosistema estable y cuáles perturbaran su balance.” El método además puede ser usado para examinar otros sistemas complejos, tales como el metabolismo humano o la regulación de genes.


Generalistas en estabilizar, especialistas en desestabilizar

Aplicando este innovador enfoque de modelamiento junto con colegas en el International Institute for Applied System Analysis (IIASA) en Laxenburg, Austria, y la Universidad Princeton, Estados Unidos, los científicos tuvieron éxito descubriendo no sólo una, sino varias reglas universales en la dinámica de los ecosistemas.


La estabilidad de la red alimentaria es mayor cuando las especies en altos níveles tróficos se alimentan de múltiples especies de presas, y especies en intermedios níveles tróficos son alimento para múltiples especies de depredadores”, dice Ulf Dieckmann del IIASA


Los científicos además han identificado factores adicionales estabilizadores y desestabilizadores en los ecosistemas. Los ecosistemas con alta densidad de vínculos depredador-presa tieen menos probabilidades de ser estables, mientras que una fuerte dependencia de la depredación sobre la densidad de depredadores desestabiliza el sistema. Por otro lado, una fuerte dependencia de depredación sobre la densiad de presas tien un impact estabilizador sobre las redes alimenticias.


La diferencia entre pequeños y grandes sistemas

Otro hallazgo importante es que las redes alimenticias consistentes de sólo unas pocas especies se comportan cualitativamente distinto que redes consistentes de muchas especies. “Pequeños ecosistemas aparentemente siguen reglas distintas que grandes Sistemas”, dice Ulf Dieckmann. “Sistemas con pocas especies son más estables si hay fuertes interacciones entre algunas especies, pero sólo interacciones débiles entre otras. Para redes alimenticias con muchas especies, es cierto exactamente lo opuesto. Extremadamente fuertes o débiles vínculos depredador-presa en la naturaleza deben, por ende, ser para especies raras contenidas en una red alimenticia”, concluyó.


Trabajo Original:

Thilo Gross, Lars Rudolf, Simon A. Levin, Ulf Dieckmann
Generalized Models Reveal Stabilizing Factors in Food Webs
Science, August 6, 2009


Artículo original (en inglés) tomado del Max Planck Institute

Material Anexo (en inglés) tomado de la Revista Science



domingo, julio 26, 2009

Sistema Complejo

SISTEMA COMPLEJO: "Un sistema hecho de un gran número de partes que interactúan de una manera no simple" (H. Simon 1965 p.63).

H. Simon comenta esta definición como sigue:"En tales sistemas el todo es mayor que la suma de las partes, no en un sentido final metafísico sino en el importante sentido pragmático, dadas las propiedades de las partes y las leyes de su interacción no es un asunto trivial inferir las propiedades del todo. Frente a la complejidad, un reduccionista en-principio puede ser al mismo tiempo un holista pragmático" (p. 63)

Uno podría añadir que en algún sentido un sistema complejo es menos que la suma de las partes, debido a que éstas siempre abandonan algunas de sus propiedades mientras son inhibidas por restricciones resultantes de sus interacciones locales o globales.

El sistema complejo no es simplemente complicado pues estas restricciones generalmente son de varios tipos y recíprocamente restrictivas. La complejidad está organizada y los sistemas complejos presentan clausura organizacional.

Por supuesto, desde otro punto de vista la complejidad está en los ojos del observador como explica R. Rosen: "Definimos un sistema complejo como uno con el cual vamos a interactuar efectivamente en muchas maneras, las cuales requieren diferentes tipos de descripción" (1977 p.229)

J. L. Lemoigne propone las siguientes 9 características, cada una de las cuales aumenta la complejidad de un sistema

1) Ser identificable;
2) Ser activo;
3) Ser regulado;
4) Estar informado sobre su propio comportamiento;
5) Ser capaz de decidir su propio comportamiento;
6) Estar dotado de memoria;
7) Ser capaz de coordinar sus decisiones de comportamiento;
8) Ser capaz de imaginar o concebir nuevas posibles decisiones
9) Ser capaz de finalizarse por sí mismo.

(1990)


[Extraido del "Dicionario de Teoría de Sistemas y Cibernética" compilado por Charles Francois]

jueves, julio 23, 2009

Congreso Regional de Estudiantes de Ingeniería de Sistemas e Informática



La Universidad Nacional de Ingeniería (Lima-Perú) será la sede de este Congreso de estudiantes. cuyo lema reza:

DIFERENCIAR LAS CARRERAS PARA SER COMPETITIVOS EN EL FUTURO


CRONOGRAMA DE ACTIVIDADES:

Ver Programación de Actividades del I COREIS Lima


BASES DE CONCURSOS:

Bases Concurso de Papers

Bases Concurso de Programación


PRE-INSCRPCIÓN ONLINE
Haga click aquí para realizar su pre-inscripción


(Mayores Informes: click en el afiche)

miércoles, abril 15, 2009

Cibernética, Ciencia de Sistemas, Teoría del Caos, Ciencia de la Complejidad



Cibernética, Ciencia de Sistemas, Teoría del Caos, Ciencia de la Complejidad, y algunas otras, son los nombres de una serie de acercamientos transdisciplinarios a una permanente necesidad científica de identificar y formalizar los principios generales que rigen el comportamiento de los sistemas complejos como entidades – comportamientos holísticos que no pueden ser deducidos a partir de las propiedades de sus componentes.

Cada uno de estos temas parecen haber empezado independientemente a partir de las interacciones entre un grupo de investigadores quienes encontraron que los principios generales que ellos descubrieron, en su campo particular de estudio, eran los mismos aunque a menudo con nombres distintos dependiendo de sus intereses específicos. Las personas identificadas como “fundadores” de las disciplinas de sistemas eran básicamente quienes generalizaban esos principios generales y sistematizaban la terminología. De este modo ellos a menudo descubrían una gran cantidad de nuevas aplicaciones y expresiones de éstas fuera de su campo original de investigación, lo cual permitía un entendimiento mucho más profundo de los fenómenos de sistemas- como un todo- que se resistieron a la comprensión del paradigma de la ciencia normal (reduccionismo). Uno de los grandes precursores de la aproximación a las totalidades fue el físico Erwin Schrödinger, en su ¿Qué es la vida? El mostró cómo la vida como una propiedad holística de ciertos sistemas complejos puede ser entendida desde los principios de la termodinámica general más que desde las propiedades de los aminoácidos, genes o células. Schrödinger es como un antecesor común de todos los acercamientos involucrados a la ciencia de sistemas, que los primeros cibernetistas llamaron “sistemas auto-organizados” los cuales son el objetivo principal de estudio de los investigadores de la complejidad hasta los días presentes (¡y con el mismo nombre!).

El punto es que la cibernética y la Teoría General de Sistemas emergieron independientemente de grupos un poco distintos de disciplinas establecidas, y con diferentes fundadores emblemáticos.

Bertalanffy en Sistemas (desde la biología) y Wiener, McCulloch, Pitts, Ashby, etc., en Cibernética (básicamente desde la física y la neurofísiología). Nunca vinieron juntos realmente – mucho debido a sus personalidades difíciles, yo creo. Aunque ambas nos dieron una idea más profunda de cómo funciona la naturaleza, de alguna manera aún no era el momento para su reconocimiento por la ciencia “normal” institucional (Kuhn). Mucho de los científicos que enfocaron su trabajo desde el punto más general de esta “metaciencia” prefirieron no referirse a ella como “cibernética” o algo parecido, para “no asustar” a los lectores de sus disciplinas respectivas, o, si lo hicieron, al poco tiempo reformularon sus trabajos en términos más circunscritos a su ámbito, aunque ellos nunca perdieron su enfoque general.

Pero estos problemas complejos nunca estuvieron lejos en el mundo real. Un grupo nuevo y más joven de científicos interdisciplinarios cristalizaron la Teoría del Caos. La mayoría parecía no tener idea que mucha de sus muy fructíferas ideas habían sido generadas en la cibernética pero con otros nombres – recuerdo a Heinz von Foerster escribiendo algo sarcásticamente acerca de los “atractores extraños” en la teoría del caos, y mostrando cómo todas las ideas de ésta habían sido trabajadas antes por el cibernetista Ross Ashby. Pero la gente del caos descubrió nuevos principios generales y realizaron los fundamentos del comportamiento caótico con las matemáticas básicas de Poincaré y otros. También lo usaron para tener nuevas luces a problemas como la estructura de los anillos de Saturno y muchos otros tipos de sistemas dinámicos. El punto es que como nuestro conocimiento científico del mundo se expandía muy rápidamente así como la frustración de muchos científicos jóvenes respecto a la ciencia clásica normal. Y entonces, la rueda fue reinventada unas cuantas veces con nombres diferentes –jóvenes investigadores quienes sólo han oído e la cibernética cosas como sexo digital no han regresado y estudiado lo que hicieron otros anteriores como McCulloch, Ashby, etc., ellos siempre tuvieron sus propios problemas urgentes que resolver.

Tengo ahora la sensación que la Ciencia de la Complejidad puede ser el último gran paso en esta línea entera de pensamiento, y puede estar aquí para quedarse. Esto tiene sus orígenes en la Teoría del Caos pero va más allá de ella, y parece sostenerse en todas las disciplinas ,de la historia y la antropología a la física y astronomía (con el apoyo de la dura teoría de la física de materia condensada). Noto que cada vez más investigadores de la complejidad están usando ahora la Ley de Variedad de Ashby, McCulloch sobre heterarquías, de von Foerster sobre crecimiento “hiperexponencial” (ley de potencias) y singularidades en sistemas sociales, etc.. El trabajo de bertalnffy sobre patrones de crecimiento alométrico en sistemas biológicos es ahora reconocida como una ley de potencias básica universal y (yo creo) Mandelbrot lo observó en su estructura fractal (aunque algunos aún estén reinventando la rueda).

La Ciencia de la Complejidad está lentamente adquiriendo una base institucional en el mundo académico --Aunque con una poderosa oposición de la estructura disciplinaria clásica normal -- y se podría sostener. Ellos lograron entrar en el Instituto de Santa Fe y nuevos institutos estan abriendo aún en el tercer mundo. El punto es que la complejidad del mundo se está incrementando así como sus interacciones en él, y los problemas complejos resultantes están presdionando nuestra vida desde muchos ángulos. Muchos de estos problemas como el calentamiento global, amenazan nuestra propia existencia. La ciencia normal no puede tratar con ellos y a penas los trata como especulaciones: la ciencia normal demanda (y cree en ) predicciones exactas de eventos específicos; la gran evolución de este nuevo paradigma ha mostrado concluyentemente que los sistemas complejos auto-organizados generan comportamientos emergentes que son esencialmente impredecibles, pero tampoco son aletorios y son sólo entendibles en retrospectiva. La evolución de la ciencia desde las Conferencias de Macy en los lejanos 40's hasta las muchas Conferencias de Complejidad de hoy pueden ser vistas como un sistema adaptativo auto-organizado que tiene emergencias a partir de la interacción entre todas las disciplinas sobre las restricciones mutuamente generadas en nuestro finito mundo habitable.


Texto de John Earls

jueves, abril 09, 2009

Salió el Vensim 5.9




Ventana Systems acaba de lanzar la versión 5.9 de su Vensim, uno de los más robustos simuladores usados en Dinámica de Sistemas.


Y para celebrarlo...
  • Guía en Español de Vensim - 353 pag (traducción: Juan Martín García) [[ bajar PDF (6.7 MB) ]]


martes, febrero 24, 2009

La Emergencia de la Cooperación





En estos días oscuros, la ciencia aporta un rayo de esperanza: incluso en un mundo que premia el egoísmo, la cooperación puede surgir y, en última instancia, prevalecer.



Ese mundo pasa a ser una simulación por computadora, pero voy a dar buenas noticias desde cualquier lugar de donde pueda conseguirlas.

"Notamos el brote repentino de cooperación predominante en un mundo dominado por ruidos de egoísmo y deserción," escribieron en el Instituto Federal Suizo de Tecnología (Swiss Federal Institute of Technology) los sociólogos Dirk Helbing y Yu Wenjian en un documento publicado la mañana del lunes en las Actas de la Academia Nacional de Ciencias.

Helbing se especializa en simulaciones complejas desde comportamiento de multitudes (desde hinchas en un estadio de fútbol hasta los atascos de tráfico). Pero, al igual que otros modeladores de multitudes, ha estado atrapado en un dilema básico, mejor conocido desde el dilema del prisionero: si el comportamiento cooperativo potencialmente proporciona la más alta recompensa, pero el egoísmo es el más seguro y sensato curso de acción, ¿cómo puede surgir la cooperación?

La clave, sugiere la simulación de Helbing , es la movilidad y la imitación. Cuando las personas son libres de elegir sus colaboradores y lo suficientemente inteligentes como para imitar su éxito, la cooperación surge, entonces florece - y no tarda mucho para que el proceso empiece.

En cada iteración de la simulación, sólo uno de cada 20 unidades tuvieron la oportunidad de abandonar el egoísmo, y la elección fue usualmente castigada. "Después de mucho tiempo, habrá dos o tres o cuatro personas en el mismo barrio entre quienes ha ocurrido una cooperación, sólo por casualidad", dice Helbing. "Es una feliz coincidencia - y una vez que hay un grupo lo suficientemente grande, cooperadores continúan haciédolo. Los desertores empiezan a copiar el comportamiento de las agrupaciones de cooperación. Y la cooperación pueden persistir y propagarse".

En muchos sentidos, la simulación del dilema del prisionero es para los teóricos de teoría de juegos de lo que son las moscas de la fruta(*) para los biólogos: un sistema simple en el que los principios básicos pueden ser descubiertos, se examinó y se espera extrapolar a las personas. Es sólo un modelo, un poco de movilidad y la imitación no arregla por arte de magia los problemas de la humanidad. Pero podría ser importante.

"El mero hecho de moverse de un lugar a otro puede haber sido una condición previa importante para la aparición y propagación de la cooperación" en la evolución cultural humana, dice Helbing.

También puede haber una lección en los cambios Helbing de los puntos color rojo-y-azul para las ciudades del futuro, donde las poblaciones migratorias a menudo son atrapadas en los barrios de inmigrantes y se les niegan oportunidades sociales.

"Nos enfrentamos a una gran cantidad de migración en todo el mundo, y se espera a una escala aún mayor en las próximas décadas", dijo. "De acuerdo con la experiencia, se necesita una o dos generaciones para los recién llegados y sus familias para integrarse plenamente. Eso es mucho tiempo. Debemos tener procesos de integración más eficientes".

Cita de: "The outbreak of cooperation among success-driven individuals under noisy conditions." By Dirk Helbing and Wenjian Yu. Proceedings of the National Academy of Sciences, Vol. 106, No. 8, Feb. 23, 2009.


[Aparecido en la revista Wired Science... versión original, en inglés, aquí ]

(*) N del T: Los biólogos usan las moscas de la fruta porque son fáciles de mantener, se reproducen rápidamente, son fáciles de manipular; sus procesos bioquímicos son similares a los que curren en el hombre (molecular, genéticamente), las moscas de las frutas tienen sólo 4 pares de cromosomas.