Está en la página 1de 5

Teorico 7: Power Laws (19/04/05)

03.05.2005

POWER LAWS

Las Leyes de la Potencia

Hoy vamos a comenzar con una pregunta que se hace Paul Krugman en "La organización
espontánea de la economía": ¿Que tienen en común las pérdidas económicas producidas
por un huracán con un embrión, un terremoto, una ciudad, los barrios periféricos o la
recesión?

Como verán buscar estas conexiones acá se parece mucho a lo que hicimos en el teórico
anterior; es que en realidad estamos metidos en el mismo berenjenal, pero con distintos
nombres.

Paul Krugman, un economista postkeynesiano especialista en ver conexiones extrañas nos


muestra en su maravilloso libro cómo principios comunes a sistemas que se organizan
espontáneamente tienen aplicación a hechos tan diversos como los que mencionamos
arriba, veamos como:

Terremotos potenciales

Todos hemos escuchado que los terremotos se miden por una escala. El noticiero dice: hubo
un terremoto de 4 puntos en la "escala de Richter". Podríamos preguntarnos: si este
terremoto tuvo 4 grados, ¿será de la mitad de la intensidad de uno de 8 grados? Pero
agreguemos una complicación: si un terremoto de 12 grados equivale a la fractura del
planeta Tierra por su centro. ¿Los 9,5 puntos de la escala a que ascendió el terremoto de
Chile de 1960, podría haber implicado la destrucción del planeta? Indudablemente no.
¿Entonces? Parece que tendremos que pensar de otro modo. Muchas veces tendemos a
pensar usando sumas ("mas de esto", "menos de aquello"), pero hay otra forma de ver el
mundo: logarítmicamente.

La escala sismológica de Richter es una escala logarítmica nombrada así en honor de


Charles Richter que pensó logarítmicamente. Los valores asignados a cada nivel aumentan
en forma exponencial, es decir con un multiplicador, y no de forma lineal. 10, 100, 1000,
10000…o 2, 4, 8, 16, 32, 64...

¿Podemos pensar exponencialmente lo social? Ahora veremos, pero antes ¿Que es un


Logaritmo? Es un número que indica una relación, un vínculo. Repasemos: si un sismo
escala 12 representa la fractura central de la tierra y el terremoto de san Francisco fue de 8
puntos en la escala, un terremoto de grado 4 es entonces un temblor menor. Para entenderlo
tenemos que hacer el esfuerzo de pensar en logaritmos. Todos lo hacemos. Cuando
calculamos estudiar tal tema y dejar otro a la suerte para dar un final, lo hacemos
calculando que es mucho mas probable que nos pregunten ese tema: asi se piensa
logarítmicamente.

La lucha de lo Lineal Vs. lo Logarítmico se evidencia en mediciones como la popularidad


de los sitios de AOL donde el numero de usuarios por sitio crece de acuerdo a una ley
logarítmica o "Power Law". Pero ya
iremos sobre Internet, antes retomemos a
Krugman.

¿Cuanto dinero se pierde en un


huracán?

Las pérdidas económicas por los


huracanes no son menores. Por ejemplo
durante el 2004 fueron de más o menos de
100.000 millones de dólares. Por suerte
los más destructivos son menos
frecuentes, tanto que les ponemos

1
nombres: Mitch, Keith, Iris, Helene, Humberto, lsidore... ¿Por qué les ponemos nombres?
Para retener que fueron significativos, por las fatalidades que produjeron, porque rompieron
la vida simétrica y regular de cada día. Pero también les ponemos nombres porque son de
los huracanes más destructivos, de esos que se producen cada tanto. En la imagen de abajo
se pueden observar varias cosas interesantes: a) los valores en los ejes aumentan
exponencialmente. b) la distribución de huracanes y terremotos sigue una constante, que se
evidencia por la existencia de una representación lineal (roja y azul) c) La probabilidad de
que un huracán sea muy destructivo es inversamente proporcional a su probabilidad de
ocurrencia, es decir que es muy improbable que un huracán sea superdestructivo: le
pondremos un nombre.

Distribuciones Libres de Escala

Saltemos como Krugman. Estudiando la


tasa de crecimiento de bacterias (Colonias
De E. Coli) los biólogos encontraron
distribuciones tipo “Power Law” del
crecimiento de las bacterias a lo largo del
tiempo: dicho de otro modo crecían
logarítmicamente con un valor constante.
Hay que destacar que no importa el tamaña
alcanzado por la población de bacterias, es
decir que mas alla de la escala que usemos, la propiedad se sigue observando. No importa si
un fenómeno se produce en la familia, el barrio, la ciudad o el país. Y aquí viene lo
interesante (y molesto) del caso: la misma "Power Law" se encontró en la distribución
ciudades humanas. Colonizamos el planeta como si fuéramos bacterias!

El famoso escritor inglés de novelas futuristas H.G. Wells dijo en 1902: "En los cien
ultimos años hubo más cambios que durante los mil años anteriores. Y los que ocurrirán en
el nuevo siglo harán que los del siglo pasado apenas sean perceptibles”.

Resumiendo: cada evento puede ubicarse en un Ranking (R) de ocurrencia. Por ejemplo los
goleadores del torneo de fútbol se listan según un ranking de goles. Las ciudades por
cantidad de habitantes. A su vez estas ciudades tienen un tamaño (T) propio. Madrid 3
millones, Barcelona 1,6 millones, Sevilla 1,2 y así siguiendo. Lo interesante es que si
multiplicamos T x R = obtenemos un valor constante K que nos permite predecir el numero
de habitantes de una ciudad de la que sabemos por ejemplo su (R) pero no su (T).

Algunos son más argentinos

Recuerden el Efecto Mateo (Merton) que vimos la semana pasada. El texto evangélico
relata la distribución de los talentos (kgs de oro) que realizó un terrateniente a sus
capataces. Luego de un tiempo y según la rentabilidad que le dieron los administradores, de
acuerdo al caudal recibido, dio más a los que habían producido más y a los habían rendido
menos, hasta lo que les había dado les quitó y se justificó diciendo: "al que más tiene, más
se le dará; y al que menos tenga, aun lo poco que tiene se le quitará".

El irritante efecto Mateo se verifica en los campos mas disímiles: los científicos mas
citados serán mas citados en tanto que los menos citados serán olvidados, los que tienen
muchos amigos tendrán muchos mas y los que tienen pocos se quedarán solos, los que
tienen unas estancias tendrán muchas mas y el pequeño propietario de un departamentito
comprado en cuotas terminará... adivinen como. ¿Recuerdan la pregunta de Krugman sobre
la pobreza suburbana?

La Ley de Zipf o Ley del mínimo esfuerzo

Vamos llegando a nuestro campo, la comunicación social y específicamente como las


“power laws” se vinculan con nuestros modos de conocimiento. Dentro del campo del
“análisis de la información”, que consiste en el procesamiento automático asistido por
computadoras del lenguaje natural, clasificación y representación grafica del contenido
cognitivo textual, existe la infometría, que es el estudio puramente cuantitativo de la

2
información. Tres nombres están asociados a los inicios de los estudios cuantitativos de la
información: Zipf, Lotka (productividad de los autores) y Brandford (productividad de las
revistas). George Kipling Zipf era un lingüista de Harvard que publicó el libro “Human
Behavior and the Principle of Least Effort” en 1949 (un año antes de su prematura muerte a
la edad de 40 años) en el que describió que la palabra más usada en el inglés escrito (“the”)
se usa diez veces más que la décima palabra más utilizada. Entonces calculó que: “La
ocurrencia de un evento depende de su rango”. Existirían según Zipf tres conjuntos de
palabras:

1- Pocas palabras con frecuencia alta


2- Un número medio de palabras con valores de ocurrencia intermedios
3- Una gran cantidad de palabras que tienen un ranking bajísimo

Zipf lo relacionó con una tendencia humana a optar por la solución de menor energía,
aunque ahora tendemos a cosiderar que lo mas significativo de su aporte fue pensar
logaritmicamente la linguistica.
¿Se parece a los terremotos, no?
Fíjense sólo algunos de los temas de investigación donde se encontró que la Ley de Zipf
funcionaba:
La frecuencia de palabras en el Quijote de la Mancha.
Distribución de nombres propios en Corea.
La dispersión de superficies visuales en arquitectura (un paredón dice poco, mucho mas
dirá un farolito bien ubicado).
Estética: preferencia de colores en pintura.
Mnemotécnica.
Temas de newsgroups.
Tamaños de las páginas webs y de otros tipos de archivos (imágenes, audio, etc.)
Número de enlaces que salen de un sitio web (out).
Número de enlaces que llegan a un sitio web (in). La mayoría de las páginas tienen sólo un
enlace a ellas y hay pocas páginas con muchos enlaces.
Fecha de actualización de las páginas
Uso de las palabras en buscadores: la mayoría de las consultas son muy comunes y poco
significativas.

Dado que el esfuerzo en la Web se mide en Tiempo de Atención, cuantos más links deba
hacer el usuario para llegar a una página, ésta menos visitas recibirá.

Resumiendo y aplicando estas ideas a nuestro campo como hiciera Jacob Nielsen al
planeta-weblog: en el mundo de las páginas Web funciona como criterio de dispersión la
ley de Zipf que dice que en el lenguaje hay palabras que aparecen mucho y valen poco
porque son redundantes y hay palabras que aparecen poco y valen mucho. Con los sitios
webs pasa lo mismo. Hay pocos sitios que concitan la atención: con los weblogs también se
reproduce lo mismo.

La Ley de Bradford define la distribución y divulgación en las revistas científicas: Si las


revistas científicas se ordenan en secuencia decreciente de productividad de artículos sobre
un tema dado, éstas pueden dividirse en un núcleo de revistas dedicadas más en particular
al tema y otros grupos conteniendo el mismo número de artículos que el núcleo, donde el
número de revistas en el núcleo y las zonas sucesivas estará en la relación de constante.
Es decir las publicaciones se distribuyen en un núcleo y luego en una zona de dispersión
que Bradford dividió en 2 partes. Las primeras publicaciones se agruparán en el núcleo y
las siguientes en la zona de dispersión en esa relación matemática.

Por ejemplo la Ley de Bradford dice que encontraremos respecto a un tema X:


En el núcleo:
7 revistas publicarán 120 artículos sobre X
En zona de dispersión:
30 revistas publicaran 120 artículos
147 publicarán 162 artículos

La indexación temática cumple la misma distribución. En Internet se observa que a medida


que transcurre el tiempo, al principio hay un incremento sostenido en los enlaces a un tema,

3
pero luego sigue una abrupta y permanente reducción lo que confirma aquella presunción
de que los primeros que se instalaran con algún tema en Internet captarían mas visitas.

Ley de Lotka

Describe la frecuencia de publicación por autores en un campo dado, conocido como


productividad de los autores y expresa que el número de autores que hacen N
contribuciones es aproximadamente 1/N2 de aquellos que hacen sólo una contribución.

Estas leyes expresan la necesidad e importancia de conocer los sitios webs y weblogs o los
autores más productivos, que a su vez serán los más importantes en una rama determinada y
con ello, lograr un significativo ahorro de tiempo
al decidir de fuentes a consultar. Como supondrán a esta altura el ahorro de tiempo de
atención tambien crece logarítmicamente al aplicar estos principios.

Un párrafo aparte merece el Principio de Pareto

Wilfredo Pareto fue un empresario italiano que tardíamente inició lecturas académicas
especializadas en economía (hacia 1890) aunque terminó siendo uno de los fundadores de
la sociología matemática. Pareto es importante para la Argentina (era editorialista del diario
La Nación hasta su muerte en 1923), porque sus discípulos (entre ellos Raúl Prebisch)
participaron en importantes decisiones que marcaron la evolución de la economía argentina
durante el siglo XX.

Pareto decía que hay muchas cosas sin importancia y algunas claves (o graves) y que por lo
general, el 80% de las resoluciones de problemas se originan en el 20% de los elementos.
Concluye de aquí que el 20 % de la población se apoderará del 80 % de los recursos,
independientemente de la cultura estudiada.

Principio de Pareto e Internet

Siguiendo a Pareto podemos hacer las siguientes hipotesis:

Una minoría de internautas representarán la mayoría de las visitas.


Una minoría de archivos serán causantes de los mayores costos de edición.
Una minoría de problemas causarán el grueso del retraso de un proceso.
Una minoría de ideas que representarán la mayor causa de atracción de atención.
El 20% de los Motores de Búsqueda generarán el 80% de las visitas (Google + Yahoo por
ejemplo)
El 20% de las palabras clave generarán el 80% de las visitas a una pagina determinada.

¿Se cumplen estas presunciones? Si!

¿Conclusiones?

Luego de doce años de Web se empiezan a sedimentar esquemas que son más que la mera
cuantificación de datos sorprendentes o no tanto. Como mencionábamos en el otro teórico
llega un momento en el que la cantidad se convierte en calidad, cuestión en la que estaban
metidos hasta Hegel, McLuhan y Marx pero que no trataremos acá.

Lo que proponemos es que el acceso desigualitario no se explica exclusivamente a partir de


mecánicas discrimitorias de carácter económico-social, sino en una autonomización de
procesos de naturaleza redológica, accesibles a la comprensión por un tipo de pensamiento.

Las “power law” son la expresión de un tipo de pensamiento: exponencial o logarítmico


que permiten clarificar, graficar, clasificar datos por órdenes y extraer nuevas cualidades.
Podemos asignar órdenes de prioridades a problemas que aparecen ligados con otros
problemas asi como al tiempo que le dediquemos a cada uno.

Preguntas abiertas

4
¿Qué consecuencias tienen estas distribuciones en nuestros intentos de volver más
democráticos el conocimiento, la educación, el acceso a las redes, los sitios Web?

¿Cuan significativa resulta la topología redológica a la hora de reconocer los "posibles" de


la construcción y circulacion de información?

¿Cómo hacer para que los sitios más privilegiados tengan efecto de derrame si está en la
naturaleza de las redes derivar hacia las concentraciones?

Las leyes redológicas complican las interpretaciones con las que veníamos pensando el
Poder (y las resistencias). ¿Podremos extraer metáforas que nos permitan revitalizar nuestro
anhelo de un mundo más justo?

Bibliografía

KRUGMAN, PAUL. La organización espontánea de la economía. Barcelona : Bosch,


c1996.
ZIPF. Human Behavior and the Principle of Least Effort. Nova York: Addison-Wesley,
1946.
REYNOSO, Carlos. Teorías y métodos de la complejidad y el caos: Una exploración
antropológica. Barcelona, Gedisa. 2004.
SCHROEDER, Manfred. Fractals, Chaos, Power Laws: Minutes from an Infinite Paradise.
W. H. Freeman, 1992

Links externos

Bibliografia de la ley de Zipf

Introducción a Zipf

Pareto Zipf Power laws

Analisis de distribucion

Distribuciones parabolicas (frances)

Version PPT

Mario Lucas Kiektik

Publicado por Mario K el Mayo 3, 2005 02:01 PM | TrackBack

También podría gustarte