web viewen las cercanías de una transición de fase dependen de un número muy...

29
Ficha de trabajo 6 – Criticalidad autoorganizada, Ley de potencia y modelos de crecimiento urbano Contenido de la Ficha 1. La noción de criticalidad, la ley de Potencia y algunas de sus aplicaciones..................................1 2. Descripción de otros aspectos formales de la criticalidad................................................. 9 3. Aplicación a la dinámica urbana........................14 4. Algunas implementaciones en NetLogo....................16 5. Bibliografía citada....................................20 1. La noción de criticalidad, la ley de Potencia y algunas de sus aplicaciones Nuestro recorrido se torna, en este punto, mucho más iterativo que hasta ahora. Cuando en la ficha 2 hicimos alusión a los autómatas de tipo 4, ligados al comportamiento complejo, podríamos haber dicho que “exhiben un comportamiento cercano al umbral de la criticalidad auto-organizada”. Esta etapa de los sistemas, o esta forma que asumen, tiene características específicas que han sido estudiadas principalmente en los sistemas físicos, pero que luego se han extendido a todo los tipos de sistemas existentes. El tipo de organización caórdica de los sistemas que es característico del filo del caos tiene como uno de sus fenómenos característicos el de la criticalidad autoorganizada. ¿De donde viene este nombre extraño? 1

Upload: truongduong

Post on 06-Feb-2018

214 views

Category:

Documents


1 download

TRANSCRIPT

Ficha de trabajo 6 – Criticalidad autoorganizada, Ley de potencia y modelos de crecimiento urbano

Contenido de la Ficha

1. La noción de criticalidad, la ley de Potencia y algunas de sus aplicaciones...............................................................................................................1

2. Descripción de otros aspectos formales de la criticalidad.........................9

3. Aplicación a la dinámica urbana.................................................................14

4. Algunas implementaciones en NetLogo.....................................................16

5. Bibliografía citada.........................................................................................20

1. La noción de criticalidad, la ley de Potencia y algunas de sus aplicaciones

Nuestro recorrido se torna, en este punto, mucho más iterativo que hasta ahora.

Cuando en la ficha 2 hicimos alusión a los autómatas de tipo 4, ligados al comportamiento complejo, podríamos haber dicho que “exhiben un comportamiento cercano al umbral de la criticalidad auto-organizada”.

Esta etapa de los sistemas, o esta forma que asumen, tiene características específicas que han sido estudiadas principalmente en los sistemas físicos, pero que luego se han extendido a todo los tipos de sistemas existentes.

El tipo de organización caórdica de los sistemas que es característico del filo del caos tiene como uno de sus fenómenos característicos el de la criticalidad autoorganizada.

¿De donde viene este nombre extraño?

“En la física clásica, un punto crítico es un punto en el cual un sistema cambia radicalmente su conducta o su estructura, por ejemplo, al pasar de sólido a líquido. En esos fenómenos críticos estándar, existe un parámetro de control que el experimentador puede variar para obtener ese cambio. En el caso del sólido que se derrite, el parámetro de control es la temperatura.En los fenómenos críticos auto-organizados, en cambio, los sistemas alcanzan un punto crítico de acuerdo con su propia dinámica interna, independientemente del valor de cualquier variable de control. El arquetipo de un sistema crítico auto-organizado es una simple pila de arena. Arrojando un hilo de arena lentamente sobre una superficie se forma una pila. A medida que la pila crece, ocurren avalanchas que transportan arena desde la cúspide hasta la base.

1

Al menos en los modelos teóricos, la pendiente de la pila es independiente de la velocidad en que se arroja la arena. Esta es la pendiente auto-organizada, que se llama así incluso en casos en los cuales la pila no tiene forma de cono. En los sistemas de este tipo, un evento menor (un grano de arena adicional) puede desatar una reacción en cadena: el mejor ejemplo de una función no lineal.” (Reynoso 2006: 184)

Sencillamente, la generación de estas avalanchas o cascadas no depende de un parámetro de control externo, sino de propiedades endógenas de la dinámica de los granos de arena dentro de la pila sobre la cual se vierten más granos.

Estas nociones fueron ideadas por el físico danés Per Bak a principios de los años 90 y fueron determinantes para describir lo que se conoce como “auto-organización”, que esta capacidad de los elementos de desplegar una estructura específica independiente de las influencias externas. Lo central en esta dinámica es que el próximo grano que se suma a la pila puede tener una incidencia dramática o no tener casi ninguna en la forma posterior del sistema, y esto es lo característico de la organización al límite del caos, ya que hay una máxima sensitividad a las condiciones iniciales y, por ende, una capacidad de irradiar efectos muy dispares al resto del sistema ante la misma cadena de estímulos en dos escenas distintas.

Las pruebas del equipo de Per Bak fueron replicadas a otras esferas experimentales. Como sostiene Arrizabalaga:

“Otra prueba, la de los tambores de arroz, semejante a la anterior, es desarrollada por el equipo noruego que integran Jens Feder y Torstein Joessang (Bak, 1997: 69 y ss.). Dedicados a investigar la formación de estructuras fractales en medios porosos, generan “avalanchas de arroz” con el objeto de extraer patrones del aparente desorden en la intricada disposición del material. Así, vemos que el modelo de la pila de arena, conocido también como BTW model, constituye una aproximación desde las Ciencias Duras a sistemas complejos del Mundo Natural. Un esquema divulgado del modelo es éste, que contiene referencias a los tres tipos de energía que impactan sobre la pila de arena, tanto externa como internamente, durante su auto-organización (Arrizabalaga 2011: 3-4)

2

Figura 1 : “Pila de arena” de Per Bak 1

Lo significativo es que distintos fenómenos naturales y sociales parecen responder a esta dinámica, caracterizada por una distribución de ley de potencia similar a la ley de Zipf y a la ley establecida por Pareto: los eventos pequeños son los más frecuentes y los grandes tienen mucho menos frecuencia:

Cuando se grafican las distribuciones de ley de potencia no resultan en el familiar histograma gaussiano campaniforme, sino en una distribución lineal que desciende brusca y monótonamente desde los valores más altos a los más bajos. Cuando ambos ejes son logarítmicos (log-log) la línea es recta. Matemáticamente, una ley de potencia significa que una cantidad N se puede expresar como proporcional a la potencia de otra cantidad r. La fórmula es muy simple:

donde C es una constante y D es el exponente. En otras palabras, una cantidad N será proporcional a la potencia de otra cantidad r.

1 https://rdu.unc.edu.ar/bitstream/handle/11086/1418/Arrizabalaga...pdf?sequence=12

3

Los sistemas sujetos a este tipo de distribución se encuentran en toda la naturaleza y en el mundo de lo social, y abarcan una multiplicidad de ámbitos:

“ • la ley de Gutenberg-Richter para explicar la distribución de la potencia de los terremotos;

• el relevamiento en las variaciones de precios como comportamientos económicos masivos, propuesto por el matemático Benoît Mandelbrot, quien recurrió a la Teoría de Probabilidades y empleó la distribución de Paul Lévy;

• la evolución biológica, que John Sepkoski rastreara en una colección de fósiles marinos, y David Raup analiza en un histograma de la extinción;

• observaciones de sistemas altamente “dispares”, entre los que se cuenta la emisión de luz de los cuásares, las corrientes del río Nilo y el flujo de tráfico en autopistas;

• la Ley de Zipf, una ecuación matemática con que el lingüista y filólogo George Zipf revela la frecuencia de uso de palabras en una diversidad de géneros que incluye la novela Ulysses, de James Joyce, libros de la Biblia y periódicos, y que asimismo explica el crecimiento de las ciudades (Bak, 1997: 13-26). “ (Arrizabalaga 2011: 3)

En el caso de los terremotos, por ejemplo,

“Se estima que se producen alrededor de 500.000 km terremotos cada año, detectables con los instrumentos de medición actuales. De estos, unos 100.000 son sentidos por la población humana del lugar. Terremotos menores ocurren casi constantemente en todo el mundo en lugares como California y Alaska en los EE.UU., así como en México, Guatemala, Chile, Perú, Indonesia, Irán, Pakistán, las Azores, Turquía, Nueva Zelanda, Grecia, Italia, India y Japón, pero los terremotos pueden ocurrir en cualquier lugar. Los terremotos más grandes son menos frecuentes, la relación es exponencial; la Ley de Gutenberg-Richter nos dice que, por ejemplo, aproximadamente diez veces más terremotos de magnitud 4 o superior se producen en un período de tiempo determinado que los terremotos de magnitud 5 o superior. Por ejemplo, en el Reino Unido (zona de sismicidad baja), se ha calculado que las recurrencias promedio son: un terremoto de 3.07 a 4.06 todos los años, un terremoto de 4.07 a 5.05 cada 10 años, y un terremoto de 5.6 o más grande cada 100 años. Este es un ejemplo real de la ley de Gutenberg-Richter.”2

2 https://es.wikipedia.org/wiki/Ley_de_Gutenberg-Richter

4

Figura 2 : Relación entre número de terremotos y magnitud

Específicamente, la ley de Gutenberg-Richter hace posible cuantificar la relación Frecuencia - Magnitud de la actividad sísmica de una región. Se puede medir de la siguiente manera:

N remite a la recurrencia o frecuencia sísmica anual de magnitud mayor o igual a M, y a y b son constantes determinadas por la naturaleza sísmica de la región, que puede variar.

Como se puede ver claramente en este caso, a menor número de ocurrencias de terremotos le corresponde una mayor magnitud de cada evento, y viceversa. Los terremotos menos intensos (hacia la izquierda del gráfico) predominan, y a medida que la cola de la distribución se afina, hacia la derecha, entramos en la zona de menor actividad.

La ley de Zipf ocupa otro capítulo de estos desarrollos. La llamada  Ley de Zipf, formulada en la década de 1940 por George Kingsley Zipf, lingüista de la Universidad de Harvard, es una ley empírica según la cual, por ejemplo, en una lengua, la frecuencia de aparición de distintas palabras sigue una distribución que puede aproximarse por

donde Pn representa la frecuencia de una palabra ordenada n-ésima y el exponente a es próximo a 1. Esto significa que el segundo elemento se repetirá aproximadamente con una frecuencia de 1/2 de la del primero, y el tercer elemento con una frecuencia de 1/3 y así sucesivamente.

Se puede tomar cualquier texto en español o en otro idioma y verificar que esta regla se cumple con bastante precisión.

5

En el portal web http://www.palabrasque.com/contador-de-palabras/ se puede cargar cualquier texto y desplegar las métricas correspondientes congruentes con la ley de Zipf.

En este caso, cargamos el comienzo de la novela “Cien años de Soledad” de Gabriel García Márquez:

“Muchos años después, frente al pelotón de fusilamiento, el coronel Aureliano Buendía había de recordar aquella tarde remota en que su padre lo llevó a conocer el hielo. Macondo era entonces una aldea de veinte casas de barro y cañabrava construidas a la orilla de un río de aguas diáfanas que se precipitaban por un lecho de piedras pulidas, blancas y enormes como huevos prehistóricos. El mundo era tan reciente, que muchas cosas carecían de nombre, y para mencionarlas había que señalarlas con el dedo. Todos los años, por el mes de marzo, una familia de gitanos desarrapados plantaba su carpa cerca de la aldea, y con un grande alboroto de pitos y timbales daban a conocer los nuevos inventos.”

Las métricas resultantes marcan el claro predominio de las preposiciones y los términos sin valor semántico en los primeros lugares:

6

Análisis de frecuencia de palabras

Ordenado por aparición

de   12 (9.84%)el   5 (4.1%)y   5 (4.1%)que   4 (3.28%)un   3 (2.46%)a   3 (2.46%)una   2 (1.64%)era   2 (1.64%)conocer   2 (1.64%)los   2 (1.64%)aldea   2 (1.64%)años   2 (1.64%)por   2 (1.64%)la   2 (1.64%)su   2 (1.64%)con   2 (1.64%)había   2 (1.64%)muchas   1 (0.82%)inventos   1 (0.82%)daban   1 (0.82%)cosas   1 (0.82%)grande   1 (0.82%)carecían   1 (0.82%)alboroto   1 (0.82%)reciente   1 (0.82%)huevos   1 (0.82%)como   1 (0.82%)enormes   1 (0.82%)timbales   1 (0.82%)prehistóricos   1 (0.82%)tan   1 (0.82%)mundo   1 (0.82%)nombre   1 (0.82%)para   1 (0.82%)desarrapados   1 (0.82%)todos   1 (0.82%)mes   1 (0.82%)gitanos   1 (0.82%)

marzo   1 (0.82%)nuevos   1 (0.82%)blancas   1 (0.82%)plantaba   1 (0.82%)cerca   1 (0.82%)mencionarlas   1 (0.82%)carpa   1 (0.82%)señalarlas   1 (0.82%)dedo   1 (0.82%)pitos   1 (0.82%)familia   1 (0.82%)río   1 (0.82%)aquella   1 (0.82%)recordar   1 (0.82%)buendía   1 (0.82%)tarde   1 (0.82%)remota   1 (0.82%)padre   1 (0.82%)en   1 (0.82%)aureliano   1 (0.82%)coronel   1 (0.82%)después   1 (0.82%)muchos   1 (0.82%)frente   1 (0.82%)al   1 (0.82%)fusilamiento   1 (0.82%)pelotón   1 (0.82%)lo   1 (0.82%)llevó   1 (0.82%)diáfanas   1 (0.82%)aguas   1 (0.82%)orilla   1 (0.82%)se   1 (0.82%)precipitaban   1 (0.82%)piedras   1 (0.82%)lecho   1 (0.82%)construidas   1 (0.82%)cañabrava   1 (0.82%)macondo   1 (0.82%)

hielo   1 (0.82%)entonces   1 (0.82%)veinte   1 (0.82%)barro   1 (0.82%)casas   1 (0.82%)pulidas   1 (0.82%

7

Aplicada al análisis de tamaños de ciudades, se pueden encontrar resultados sorprendentemente coincidentes. Según consigna esta nota periodística3

“Más adelante se vio que la denominada ley de Zipf, la regla de rango contra frecuencia, también funcionaba si se aplica a los tamaños de las ciudades. La ciudad con mayor población de cualquier país es generalmente el doble de grande que la siguiente más grande, etc. Aunque parezca increíble, la ley de Zipf ha servido para las ciudades de todos los países del mundo durante el siglo pasado. Basta con echar un vistazo a las ciudades con mayor población en los Estados Unidos. En el censo 2010, la ciudad más grande en los EE.UU. era Nueva York, con una población de 8.175.133 personas. Los Angeles, la segunda, tenía una población de 3.792.621. Y las tres siguientes ciudades, Chicago, Houston y Filadelfia, tenían en ese momento 2.695.598, 2.100.263 y 1.526.006 habitantes respectivamente. Se puede ver que obviamente las cifras no son exactas, pero bajo una mirada estadística son muy consistentes con las predicciones de Zipf.”

Figura 3 : Relación entre población y ranking de las 135 ciudades más pobladas de Estados Unidos

3http://www.abc.es/ciencia/20131213/abci-misteriosa-predice-tamano- ciudades-201312131013.html

8

2. Descripción de otros aspectos formales de la criticalidad

En este escenario de ideas, el crecimiento urbano involucra, sin dudas, un patrón organizativo que se despliega en el tiempo y que tiene formas características que escapan a la planificación. Más allá de los sistemas sociales en curso, el modo específico en que ese crecimiento se lleva a cabo, abordado parcialmente en la ficha anterior, necesita ser descripto en términos de la autoorganización.

Como señala Holland:

“El misterio se profundiza cuando observamos la naturaleza caleidoscópica de las grandes ciudades. Compradores, vendedores, administradores, calles, puentes y edificios están cambiando siempre, de manera tal que la coherencia de una ciudad es algo que se impone de algún modo sobre un flujo perpetuo de gente y estructuras. Como la cresta de ola que se eleva frente a una roca en una corriente rápida, una ciudad es un patrón en el tiempo. Ni uno solo de los elementos que la componen permanece en su lugar, pero la ciudad persiste” (Holland 1995: 1).

A su vez, así como la característica central de la criticalidad ha sido la autoorganización, en los modelos complejos aplicados al crecimiento urbano ha sido fundamental la aparición de dinámicas alejadas del equilibrio:

“Tanto en los modelos de la geografía clásica como en la de estos experimentos mientras en la formulación tradicional el paisaje refleja un estado de equilibrio que resulta de la suma optimizada de las propiedades de diversas fuerzas económicas, el paisaje de los nuevos modelos refleja una situación alejada del equilibrio en la cual el orden jerárquico entre los lugares centrales se obtiene, mantiene y transforma mediante el juego entre las interacciones, las fluctuaciones y la disipación” (Portugali 2009: 7952).

Dos ramas de investigación estrechamente relacionadas con la idea de autoorganización, sin embargo, no serán estudiadas aquí por distintos motivos; la primera es la basada en la idea de estructuras disipativas de Illya Prigogine, y la segunda es la sinergética de Hermann Haken. En el primer caso, su naturaleza dependiente de la aleatoriedad y la ausencia de herramientas de dominio público se alejan de las condiciones requeridas para ser abordadas en este espacio. En el segundo caso, aunque ninguna de las dos condiciones se cumplen (incluso hay una herramienta llamada CogCity que habría que analizar), no tenemos los elementos de juicios suficientes para expedirnos con criterio.En particular, y luego de la caída en desuso de la teoría de catástrofes de Rene Thom, no parece que los modelos de la criticalidad autoorganizada sean dominantes en el estudio de eventos de alto impacto urbano (crisis humanitarias, daño ambiental, terremotos, tsunamis, pandemias, calentamiento global, colapso energético, escasez de recursos hídricos,

9

aluviones, inundaciones, emergencias radiactivas, motines, saqueos e incendios en gran escala), aunque si se prevé un retorno de su relevancia en algunos estudios de vanguardia. Por el contrario, los modelos basados en GIS, las arquitecturas de bases de datos e Inteligencia Artificial embebida y los cálculos basados en la distribución exponencial o en medidas ad hoc tales como las exceedance probability curves parecen ser los predominantes hasta ahora (Reynoso 2010:209)Ahora bien, ¿cuál es la relación específica entre la escala y la dinámica de los fenómenos? ¿de qué modo lo macro perturba a lo micro y viceversa? Esta pregunta no solo tiene sentido en las ciencias físicas o biológicas, sino que también forma parte de una serie de interrogantes claves en las ciencias sociales.Como sostiene Kenneth G. Wilson, parecería ser que parea muchas clases de fenómenos, dentro de ciertos límites, los fenómenos de cada escala no se influyen unos a otros, pero también existen fenómenos en los cuales las perturbaciones de distintos órdenes de algún modo se comunican e influyen:

“Una de las propiedades más conspicuas de la naturaleza es la gran diversidad de tamaño o longitudes de escala en la estructura del mundo. Un océano, por ejemplo, posee corrientes que persisten por miles de kilómetros y mareas de extensión global; también tiene olas que van desde tamaños de menos de un centímetro a varios metros; a una resolución mucho más fina, el agua del mar debe considerarse como un agregado de moléculas cuya escala de longitud característica es grosso modo 10-8 centímetros. Desde la estructura más pequeña a la mayor hay un hiato de unos 17 órdenes de magnitud.En general, los eventos que se diferencian por una gran disparidad en tamaño tienen poca influencia los unos sobre los otros: no se comunican, de modo que los fenómenos asociados con cada escala se pueden tratar independientemente. La interacción de dos moléculas de agua adyacentes es más o menos la misma sea que las moléculas estén en el Océano Pacífico o en una taza de té. Lo que es igualmente importante, una ola oceánica puede ser adecuadamente descripta como una perturbación sobre un fluido continuo,ignorando por completo la estructura molecular del líquido. El éxito de casi todas las teorías prácticas en física ha dependido de aislar un rango limitado de escalas de longitud.Si fuera preciso que en las ecuaciones de la hidrodinámica se especifique el movimiento de cada molécula de agua, una teoría de las olas oceánicas estaría mucho más allá de los recursos de la ciencia del siglo veinte.Existe una clase de fenómenos, sin embargo, en la que los sucesos a muchas escalas de longitud hacen contribuciones de igual importancia. [...] Precisamente en el punto crítico, la escala de las mayores fluctuaciones deviene infinita, pero las fluctuaciones más pequeñas de ningún modo disminuyen. Cualquier teoría que describa [un sistema que se encuentra] en las cercanías de su punto crítico debe tener en cuenta el espectro completo de longitudes de escala” (Wilson 1979: 158).

Lo específico de la criticalidad es, justamente, ese fenómeno de “sincronización” de los cambios a raíz de un tipo de autosimilitud de estructuras que se despliega al interior de diferentes escalas del mismo

10

fenómeno. En las cercanías del umbral de la criticalidad, entonces, “leyes muy simples que actúan a nivel microscópico pueden producir una conducta macroscópica compleja caracterizada por correlaciones de largo alcance, una especie de cooperación entre niveles de escala y auto-similitud. A nivel matemático, el desafío es comprender y tratar las conductas no-analíticas de las funciones que describen el comportamiento del sistema (Sornette 2006: 242).Si bien la base teórica y el sustento explicativo de estos modelos proviene de la física, el comportamiento de estos modelos no reconoce fronteras disciplinarias y es justamente eso lo que hace que se pueda hablar de clases de universalidad:

“La idea de mayor fuerza en la teoría que estamos revisando es que en las cercanías de los puntos críticos sólo existen unas pocas soluciones diferentes a cada problema; muchos problemas en apariencia distintos admiten una misma solución, lo que equivale a decir que pertenecen a la misma clase de universalidad: cambiar el objeto empírico del modelo no cambia la naturaleza esencial de las respuestas. Ahora bien, lo que nos impacta más de lleno de todo esto es que en los fenómenos críticos las clases se definen anivel macroscópico, describiendo el tipo de información que el sistema debe transferir sobre distancias largas (en relación con el tamaño de las unidades); en lugar de tratar el sistema en términos de sus unidades mínimas, reductivamente, lo que se hace es determinar una escala más molecular o (reproduciendo las palabras de Geertz, pero en un sentido diverso) una descripción más gruesa [thick]. Tanto la teoría como los experimentoshan demostrado que este scaling es una de las claves de la universalidad y de los fenómenos colectivos tanto en ciencias duras como en algunas que pasan por ser blandas (Kadanoff 1999: 159-160). En este último caso se han encontrado fenómenos que responden a estos modelos sobre todo en análisis de redes en general y de redes sociales en particular (Barabási 2003: 81-82).” (Reynoso 2010:212)

Distintos fenómenos muestran esta clase de universalidad, y una forma de corroborar la fuerza de esta perspectiva es pensar en lo que se conoce como “Modelos de percolación”.Como he escrito en otro lugar4:

“Durante la Segunda Guerra Mundial dos químicos estadounidenses, Flory y StockMayer, se destacaron por ser pioneros en el estudio de los polímeros, que son largas moléculas que se forman al enlazarse otras moléculas "base" denominadas monómeros. Una capacidad que tienen estas estructuras es la de transformarse en geles al ser disueltos bajo el agua en ciertas condiciones. Se convierten en geles y no se diluyen porque el agua se incorpora a su estructura molecular. Según ellos, este proceso de "gelificación" podría modelizarse de forma similar a la percolación. Al ejecutarse determinados procesos (batir, calentar,

4  Miceli, Jorge. 2007. “Modelos de percolación y difusión de ideas en ciencias sociales: Una clasificación provisoria”. En: Grupo Antropocaos, Exploraciones en Antropología y Complejidad. Buenos Aires, Editorial Sb, pp. 67-104.

11

remover) las moléculas de agua y los monómeros del polímero se encontraban al azar y establecían aleatoriamente vínculos. Algunos de ellos permitían el enlace entre moléculas de H2O, otros no. A partir de cierta temperatura el número de encuentros aleatorios entre las moléculas alcanzaba una masa crítica, llamada "umbral de gelación", y el sistema se modificaba hasta alcanzar una masa molecular única: el gel.

A pesar de los trabajos de Flory y StockMayer, lo que hoy conocemos como teoría de modelos de percolación fue desarrollado en su faz formal recién en 1957 por los matemáticos Broadbent y Hammersley, quienes definieron la percolación como "el modelo de comportamiento de un fluido cuando atraviesa un medio poroso."

La comprensión de los procesos de percolación como modelo genérico de pequeñas y grandes "conmociones" físicas o químicas fue ganando terreno hasta diversificarse enormemente en sus aplicaciones prácticas. Al parecer:

"La percolación es el modelo más sencillo para un número considerable de fenómenos físicos, en los ocupados o no, de acuerdo con una probabilidad dada p.Si p=0, no hay nodos ocupados, y el número de los que exhiben dicho estado, crece con el valor de p. Suponemos que los nodos ocupados corresponden a propiedades físicas diferentes a las de los nodos desocupados."Por debajo de un valor crítico p<pc, los nodos ocupados forman pequeños cluster, construidos con nodos vecinos ocupados. Para un valor crítico p=pc, se forma una agregado grande que conecta dos lados opuestos de la malla. Si p aumenta, el espesor del agregado se hace mayor.Cuando una estructura cambia desde una colección de muchas partes desconectadas a, básicamente, un gran conglomerado, decimos que tiene lugar un fenómeno de percolación. Simultáneamente, el tamaño medio de los agregados de tamaño finito que no están conectados al cluster principal, decrece." 1

Figura 4 : Ocupación de una malla de percolación con distintas probabilidades (de izquierda a derecha): p=0.30, p=0.592746 y p=0.70 5

 

12 Extractado de "Síntesis de fractales aleatorios" http://coco.ccu.uniovi.es/geofractal/capitulos/04/04-02.shtm.53 Ibidem

12

Los estudios prácticos del proceso de percolación se realizan en mallas como las de esta figura (Figura 2). Como podemos observar sus regiones aparecen súbitamente conectadas a partir de la transición de un valor de p que va de 0.30 a 0.592746. El estado de "desconectado" y el de "conectado" se vinculan dramáticamente a partir de pequeños incrementos de los lazos que terminan generando una especie de catástrofe a pequeña escala.

Cuando un sistema como este alcanza el umbral de percolación, se genera una transición de fase geométrica, caracterizada por las propiedades geométricas del cluster infinito de percolación.

Al margen del origen netamente inorgánico de los procesos que estudió inicialmente la teoría percolatoria, la analogía que ellos muestran con la transmisión de enfermedades no resulta difícil de establecer a primera vista. Del mismo modo en que la "gelación " se dispara a partir de cierto aumento de vínculos y que una malla puede pasar de un estado de aislamiento y desconexión de sus componentes a otro de conexión genérica, una enfermedad se puede difundir dramáticamente a partir de que cierta masa crítica de contagios (el umbral epidemiológico) es alcanzada dentro de una población.”

La transdisciplina, por lo tanto, está estrechamente asociada a que este tipo de universalidad aparezca en fenómenos muy diversos.

Como una vez más sostiene Reynoso:

En teoría de redes complejas es posible vincular entonces cosas tan diversas como las relaciones personales, la Internet, los ferromagnetos, las citas bibliográficas, la propagación de enfermedades y la percolación (Watts 2004a: 65; Miceli 2007). En los estudios de auto-organización se reconocen pertenecientes a la misma clase fenómenos emergentes tales como la formación de patrones ondulados en dunas de arena, las manchas en pelajes o conchas de moluscos, la sincronización de cardúmenes y bandadas, las soluciones autocatalíticas o los nidos de termitas (Camazine y otros 2002). Que objetos de ámbitos tan diversos (al nivel de abstracción y a la escala de modelado adecuada) pertenezcan todos a unas pocas clases de universalidad es, a mi juicio, uno de los factores que hacen que la transdisciplina resulte viable. (Reynoso 2010:213)

¿Cuáles son las bases de esta posibilidad transdisciplinaria?

Quien sentó las bases de esta posibilidad fue el ya mencionado Kenneth Wilson de la Universidad de Cornell; él propuso en 1971 una poderosa teoría unificadora de las transiciones de fase, conocida como teoría del grupo de renormalización, cuyo punto de partida es, una vez más, la invariancia de escala y la universalidad. Esta teoría afirma que las propiedades termodinámicas de un sistema en las cercanías de una transición de fase dependen de un número muy pequeño de factores (tales como dimensionalidad, simetría, presencia o ausencia de interacciones globales) y es insensible a las características microscópicas del sistema; a la escala adecuada, es suficiente entonces

13

considerar unos pocos grados de libertad en lugar de los 1023 que se estima constituyen a los sistemas macroscópicos reales más típicos (Herbut 2007: 1).

En definitiva, centrarnos en la universalidad nos permite pasar de considerar el comportamiento complejo no como un adjetivo sino como un sustantivo. No se estudian, por ejemplo, los fluidos turbulentos, sino las turbulencias como objeto.

3. Aplicación a la dinámica urbana

(A) Un modelo que aplica la teoría moderna de transiciones de fase al análisis de opinión es el de Janus Hołyst, Krzysztof Kacpersky y Frank Schweitzer (2000). Basándose en la teoría del impacto social que es de uso usual en la sociología y la sociofísica contemporánea, los autores estudian transiciones de fase en formación de opiniones.Se abordan dos modelos: (1) el primero se basa en un sistema de autómatas celulares que mapea sobre un grupo finito con un líder fuerte; en este sistema obviamente idealizado la gente puede cambiar su opinión pero no su emplazamiento; (2) el segundo consiste en personas que son tratadas como partículas brownianas activas, interactuando a través de un campo de comunicación. En el primer modelo son posibles son fases estables: un conglomerado alrededor de un líder y un estado de unificación social. La transición a éste ocurre debido ya sea a la gran fuerza del líder o a un alto nivel de ruido social. En el segundo modelo se encontraron tres fases estables, que corresponden ya sea a una fase “paramagnética” (para ruido alto y difusiónvigorosa), una “ferromagnética” (para poco ruido y difusión débil) y una fase con “dominios” espacialmente separados (para condiciones intermedias).

(B) En años más recientes es particularmente destacable el análisis de la formación de opiniones en una población humana tratada como red IE por A. Grabowski y R. A. Kosiński (2005). En el estudio, los individuos (los nodos de la red) se caracterizan conforme a su autoridad, la cual ejerce influencia sobre las relaciones interpersonales en la población. Luego toman en cuenta estructuras jerárquicas de dos niveles de relaciones interpersonales y la localización espacial de los individuos. Se investiga el efecto de los medios de comunicación de masas, modelados como estímulos externos que actúan sobre la red social haciendo que se formen opiniones. Se encontró que el proceso de evolución de opiniones de los individuos ocurren fenómenos críticos. El primero de ellos se observa en la llamada temperatura crítica del sistema Tc y se relaciona con la situación en la comunidad, la que puede establecerse mediante cuantificadores tales como status económico, desempleo o criminalidad. Como resulta de las múltiples computaciones ensayadas, se determinó que en ciertas circunstancias específicas los medios de comunicación masivos efectivamente pueden provocar un re-armado de las opiniones en la población.

14

Esta temperatura crítica del sistema es, por supuesto, análoga al valor p del umbral de percolación. Este re-armado dramático puede ser interpretado, en este sentido, como el punto a partir del cual el sistema alcanza valores de conectividad no derivables de la situación anterior.

(C) Uno de los mejores proyectos hasta ahora en este territorio es un trabajo de un homónimo de Wilson, Alan, plasmado en uno de los más interesantes de los CASA Papers de los últimos años (Wilson 2008). Utilizando poderosas herramientas de visualización, Wilson demuestra con solidez pedagógica algunos de los usos posibles del modelo. Los elementos empíricos se originan en el proceso que se vivió en el primer mundo cuando los grandes centros comerciales (malls, supermercados o como se los llame) sustituyeron casi de un día para el otro a los almacenes de la esquina. Por más que una realidad como la que se representa sea obviamente multivariada, en las cercanías de umbral crítico se impone el impacto masivo de unos pocos parámetros: el aumento del nivel de ingreso(que hizo posible la adquisición de automóviles), la disponibilidad de una infraestructura vial y la desaparición concomitante de las estructuras peatonales.

Figura 5 : Espacio de las transiciones de fase (basado en Wilson 2008: 11)

En los últimos años se ha ido constituyendo en torno de los modelos y las aplicaciones que hemos entrevisto un nuevo campo, una ciencia rara, que algunos han llamado sociofísica y otros sociodinámica. Aunque sus nombres son sugerentes de un superado reduccionismo ontológico que parecería buscar la “causa” de los fenómenos sociales y culturales en las profundidades de la escala atómica, lo que justifica en rigor la existencia de este empeño es de orden claramente epistemológico: todos aquellos objetos:

15

(a) Conformados por un gran número de elementos(b) Con muchos grados de libertad,(c) Sujetos a interacciones locales fuertes (d) Que a nivel global manifiestan fenómenos de emergencia y/o de auto-organización

Pueden ser abordados en algún respecto mediante unas pocas clases de planteamientos formalmente parecidas, si es que no idénticas, a despecho de las enormes diferencias que pudieran existir entre las variables que describen elestado de los elementos individuales. Algo parecido a esto es lo que el antropólogo Gregory Bateson (1985) descubrió cuando se dio cuenta que los conceptos cibernéticos de retroalimentación [ feedback] positiva y negativa le permitían describir y comprender mejor las no-linealidades de la dinámica social que sus tortuosas categorías de cismogénesis opositiva y complementaria.4. Algunas implementaciones en NetLogo

Varios modelos de NetLogo implementan propiedades que podemos incluir dentro de la criticalidad autoorganizada, comenzando por la pila de arena de Per Bak, el modelo de percolación y los modelos epidemiológicos aplicados a poblaciones humanas y virus informáticos. Reseñamos solo algunos de ellos.

“Sandpile”

16

En este caso, podemos imaginar una mesa con granos de arena sobre ella. La superficie de la mesa es una rejilla de cuadrados, y cada cuadrado puede contener cómodamente hasta tres granos de arena.El proceso consiste en dejar caer granos de arena en la mesa, uno a la vez. Cuando un cuadrado alcanza el umbral de sobrecarga de cuatro o más granos , todos los granos (no sólo los adicionales) se redistribuyen a las cuatro plazas vecinas. Estas plazas vecinas pueden, a su vez, pasar a estar sobrecargadas, lo que produce una "avalancha" de nuevas redistribuciones.Las grandes avalanchas, por supuesto, son mucho menos frecuentes que las pequeñas, lo que encuadra a este modelo dentro de las leyes de potencia.

Percolation

17

Este modelo muestra cómo un derrame de petróleo puede filtrarse a través del suelo permeable. Fue inspirado por un modelo similar que solo fue implementado manualmente6 El suelo se modela como un tablero de partículas duras (cuadrados grises) y espacios semi-permeables entre estas partículas duras (cuadrados marrones). Se puede hacer un zoom para ver los cuadros individuales. El petróleo no puede entrar en los cuadrados grises, pero puede pasar a través de los cuadrados marrones.Algunos suelos son más porosos que los otros suelos . En este modelo, el valor de porosidad del suelo determina la probabilidad de que el petróleo sea capaz de entrar en cualquier casilla de suelo marrón.El modelo representa un derrame de petróleo como un número finito de partículas de petróleo, o simplemente como gotas de aceite .El derrame de petróleo comienza en la parte superior de la vista, y se filtra hacia abajo.El borde de ataque o punto de vanguardia del derrame de petróleo está representado por cuadrados rojos, y cada espacio a través del cual el petróleo ha pasado se muestra con color negro.

AIDS

6 Ver “Forest Fires, Oil Spills, and Fractal Geometry”, Mathematics Teacher, Nov. 1998, p. 684-5.

18

Este modelo simula la propagación del virus de la inmunodeficiencia humana (VIH), a través de la transmisión sexual y en una pequeña población humana aislada. Por lo tanto, ilustra los efectos de ciertas prácticas sexuales a través de una población.Como es bien sabido ahora, el VIH se propaga en una variedad de maneras de las cuales el contacto sexual es sólo una. El VIH también puede transmitirse por compartir agujas entre usuarios de drogas inyectables, mediante de transfusiones de sangre (aunque esto se ha vuelto muy común en países como los Estados Unidos en la cual la sangre se analiza para detectar anticuerpos del VIH), o de las mujeres infectadas por el VIH a sus bebés, ya sea antes o durante el parto, o después a través de la lactancia. Este modelo se centra sólo en la propagación del VIH a través del contacto sexual.El modelo examina los efectos emergentes de cuatro aspectos de la conducta sexual. El usuario controla la tendencia de la población a practicar la abstinencia, la cantidad de tiempo que una pareja promedio permanece junta en la población, la tendencia de la población a usar condones, y la tendencia a hacerse la prueba del VIH. La exploración de la primera y segunda variables puede ilustrar cómo los cambios en las costumbres sexuales de nuestra sociedad han contribuido al aumento de la prevalencia de las enfermedades de transmisión sexual, mientras que la exploración de la tercera y cuarta puede proporcionar soluciones contemporáneas al problema.Dentro de la familia de modelos epidemiológicos, hay otras implementaciones como “Virus”, “Disease Solo”, “Epidem Basic”, “Epidem Travel and Control”, “Disease” y “Disease Doctors”. Todos ellos operan con ideas similares de los procesos de contagio.

19

Virus on a Network

Este modelo demuestra la propagación de un virus a través de una red. Cada nodo representa una computadora, y se model el progreso de un virus de computadora ( o gusano ) a través de esta red . Cada nodo puede estar en uno de tres estados: susceptibles , infectados , o resistente . En la literatura académica tal modelo se refiere a veces como un modelo SIR de epidemias.

5. Bibliografía citada

ARRIZABALAGA, María Inés, 2011 “La pila de arena Una pila de argumentos para entender la complejidad literaria”. Córdoba, Universidad Nacional de Córdoba (UNC)

BAK, Per (1997). How Nature Works: The Science of Self-organised Criticality. Nueva York: Oxford University Press.

20

BATESON, Gregory. 1985. Pasos hacia una ecología de la mente: Una aproximación revolucionaria a la autocomprensión del hombre. Buenos Aires, Carlos Lohlé.

CAMAZINE, Scott, Jean-Louis Deneubourg, Nigel Franks, James Sneyd, Guy Theraulaz y Eric Bonabeau. 2003. Self-organization in biological systems. Princeton, Princeton University Press.

GRABOWSKI, Andrzej y Robert Kosinki. 2006. “Ising-based model of opinion formation in a complex network of interpersonal interactions”. Physica A, 361: 651-664.

HERBUT, Igor. 2007. A modern approach to critical phenomena. Cambridge, Cambridge University Press.

HOLLAND, John. 1995. Hidden order: How adaptation builds complexity. Cambridge (USA), Perseus Books.

KACPERSKY, Krzysztof y Janusz Hołyst. 1999. “Opinion formation model with strong leader and external impact: A mean field approach”. Pre-impreso de Physica A, 287: 631-643.

KADANOFF, Leo. 1999. From order to chaos II: Essays: Critical, chaotic and otherwise. Nueva York, World Scientific Publishing Company.

MICELI, Jorge. 2007. “Modelos de percolación y difusión de ideas en ciencias sociales: Una clasificación provisoria”. En: Grupo Antropocaos, Exploraciones en Antropología y Complejidad. Buenos Aires, Editorial Sb, pp. 67-104.

PORTUGALI, Juval. 2009. “Self-organization and the city”. En: R. Meyers (compilador), Op. cit., pp. 7953-7991.

REYNOSO, Carlos. 2006. Complejidad y caos: Una perspectiva antropológica. Buenos Aires, Editorial Sb.

REYNOSO, Carlos. 2010. Análisis y diseño de la ciudad compleja. Perspectivas desde la antropología urbana. Buenos Aires, Editorial Sb.

SORNETTE, Didier. 2006. Critical phenomena in the natural sciences: Chaos, fractals, self organization

WATTS, Duncan. 2004. Six degrees: The science of a connected age. Londres, Vintage.

WILSON, Kenneth G. 1979. “Problems in physics with many scales of length”. Scientific American, 241: 158–179.

21