El cisne negro (47 page)

Read El cisne negro Online

Authors: Nassim Nicholas Taleb

BOOK: El cisne negro
7.38Mb size Format: txt, pdf, ePub

En el momento de escribir estas líneas, cuarenta y cuatro años después, nada ha ocurrido en la estadística de las ciencias sociales —a excepción de algún jugueteo superficial que trata el mundo como si únicamente estuviéramos sometidos a una aleatoriedad suave— y, pese a ello, se han ido repartiendo premios Nobel. Han aparecido artículos que aportaban pruebas de que Mandelbrot estaba equivocado, escritos por personas que no entienden la tesis central de este libro: uno siempre puede fabricar datos «que corroboren» que el proceso subyacente es gaussiano, buscando para ello períodos que no tengan sucesos raros, del mismo modo que sé puede encontrar una tarde en la que nadie mate a nadie y utilizarlo como «prueba» de una conducta honesta. Repetiré que, debido a la asimetría de la inducción, del mismo modo que es más fácil rechazar la inocencia que aceptarla, es más fácil rechazar un curva de campana que aceptarla; y al revés, es más difícil rechazar un fractal que aceptarlo. ¿Por qué? Porque un suceso particular puede desbaratar la tesis de que nos enfrentamos a una curva de Gauss.

En resumen, hace cuatro décadas, Mandelbrot ofreció perlas a los economistas y a los ignorantes ansiosos de hacer curriculum, unas perlas que rechazaron porque las ideas eran demasiado buenas para ellos. Eran, como reza el dicho, margaritas anteporcos, perlas a los cerdos.

En el resto de este capítulo explicaré cómo puedo refrendar los fractales de Mandelbrot en cuanto representación de gran parte de la aleatoriedad sin tener que aceptar necesariamente su uso preciso. Los fractales deben ser el elemento por defecto, la aproximación, el esquema. No solucionan el problema del Cisne Negro y no convierten todos los Cisnes Negros en sucesos predecibles, pero mitigan de modo significativo el problema del Cisne Negro, al hacer que esos grandes sucesos sean concebibles. (Los hacen grises. ¿Por qué grises? Porque sólo lo gaussiano nos da certezas. Volveremos a ello más adelante.)

La lógica de la aleatoriedad fractal (con una advertencia)*

En las listas de riqueza que expuse en el capítulo 15 he mostrado la lógica de una distribución fractal: si la riqueza se duplica y pasa de un millón a dos, la incidencia de personas con al menos esa cantidad de dinero se corta en cuatro, que es exponente de dos. Si el exponente fuera uno, entonces la incidencia de esa riqueza o más se cortaría en dos. Al exponente se le llama «potencia» (de ahí que algunos empleen la expresión ley potencial). Vamos a llamar «excedencia» al número de ocurrencias superiores a un determinado nivel: una excedencia de dos millones es el número de personas

con una riqueza mayor de dos millones. Una propiedad importante de estos fractales (u otra forma de expresar su principal propiedad, la escalabilidad) es que la ratio de dos excedencias
51
será la ratio de los dos números elevada a la potencia negativa del exponente. Vamos a ilustrarlo. Supongamos que «pensamos» que sólo de 96 libros se venderán más de 250.000 ejemplares al año (que es lo que ocurrió el año pasado), y que «pensamos» que el exponente está en torno a 1,5. Podemos extrapolar y calcular que de alrededor de 34 libros se venderán más de 500.000 ejemplares, es decir, 96 veces (500.000/250.000). Podemos seguir, y observar que de 8 libros se deberían vender más de un millón de ejemplares, esto es, 96 veces (1.000.000/250.000)
1,5
.

Déjeme que le diga por adelantado que estos exponentes significan muy poco desde la perspectiva de la precisión numérica. Enseguida veremos por qué, pero de momento señalemos simplemente que no observamos estos parámetros; sencillamente los adivinamos, o los inferimos para la información estadística, lo que a veces hace que resulte difícil conocer los auténticos parámetros, si es que realmente existen. Examinemos en primer lugar las consecuencias prácticas de un exponente.

Tabla 3. El significado del exponente

Exponente

Participación

Participación

del 1 % superior

del 20% superior

1

99,99%*

99,99%

1,1

66%

86%

V-

47%

76%

1,2

34%

69%

1,3

27%

63%

1.5

22%

58%

r

10%

45%

2,5

6%

38%

3

4,6%

34%

* Es evidente que, en una muestra finita, no aparece el 100%.

La tabla 3 ilustra el impacto de lo altamente improbable. Muestra las aportaciones al total del 1 % y del 20% superiores. Cuanto menor es el exponente, mayores son esas aportaciones. Pero observemos cuán sensible es el proceso: entre 1,1 y 1,3 pasamos del 66% del total al 34%. Una diferencia de sólo 0,2 en el exponente cambia el resultado de forma drástica, y esta diferencia puede proceder de un simple error de medición. No es una diferencia trivial: basta pensar en que no tenemos una idea precisa de cuál es el exponente porque no lo podemos medir directamente. Todo lo que hacemos es calcular a partir de datos anteriores, o apoyarnos en teorías que permiten construir algún tipo de modelo que nos dé alguna idea; pero estos modelos pueden esconder defectos que nos impidan aplicarlos ciegamente a la realidad.

Así pues, tengamos presente que el exponente 1,5 es una aproximación, que es difícil de computar, que no lo obtenemos de los dioses, al menos no fácilmente, y que tendremos un monstruoso error en la muestra. Observaremos que el número de libros de los que se venden más de un millón de ejemplares no siempre va a ser 8: podría ser tan elevado como 20, o tan bajo como 2.

Y lo que es más importante, este exponente empieza a aplicarse a partir de cierto número denominado «cruce» (crossover), y está referido a números mayores que dicho cruce. Puede empezar en los 200.000 libros, o quizá sólo en 400.000. Asimismo, la riqueza tiene unas propiedades diferentes respecto a, supongamos, 600 millones de dólares, cuando la desigualdad crece, que las que presenta por debajo de esta cantidad. ¿Cómo sabemos dónde se encuentra el punto de cruce? Esto plantea un problema. Mis colegas y yo trabajamos con unos veinte millones de datos financieros. Todos disponíamos del mismo conjunto de datos, pero nunca nos pusimos de acuerdo sobre cuál era exactamente el exponente de nuestros conjuntos. Sabíamos que los datos revelaban una ley potencial fractal, pero descubrimos que no se podía dar un número exacto. Sin embargo, lo que sabíamos —que la distribución es escalable y fractal— era suficiente para que pudiéramos operar y tomar decisiones.

El problema del límite superior

Algunas personas han estudiado y aceptado lo fractal «hasta cierto punto». Sostienen que la riqueza, la venta de libros y los beneficios de la Bolsa tienen un determinado nivel en que las cosas dejan de ser fractales. Lo que proponen es el «truncamiento». Estoy de acuerdo en que hay un nivel donde la fractalidadpuede cesar, pero ¿dónde? Decir que existe un límite superior pero no sé a qué altura se encuentra, y decir que no existe límite alguno tienen en la práctica las mismas consecuencias. Proponer un límite superior es altamente inseguro. Podríamos decir: vamos a establecer el límite superior de la riqueza en 150.000 millones de dólares en nuestros análisis. Entonces, otro podría decir; ¿por qué no 151.000 millones? O ¿por qué no 152.000 millones? También podemos considerar que la variable es ilimitada.

Cuidado con la precisión

La experiencia me ha enseñado algunos trucos: cualquier exponente que yo intente medir es probable que sea sobreestimado (recordemos que un exponente más elevado implica un papel menor para las grandes desviaciones); y es previsible que lo que vemos sea menos del estilo Cisne Negro que lo que no vemos. A esto lo llamo el problema de la mascarada.

Imaginemos que genero un proceso que tiene un exponente de 1,7. No vemos lo que hay dentro del motor, sólo los datos que salen. Si le pregunto al lector cuál es el exponente, lo más probable es que calcule en torno al 2,4. Y lo haría así aun en el caso de que dispusiera de un millón de puntos de datos. La razón es que un proceso fractal tarda mucho en desvelar sus propiedades, y por ello subestimamos la gravedad del impacto.

A veces, un fractal nos puede llevar a creer que es gaussiano, en particular cuando el punto de corte empieza en un número alto. Con las distribuciones fractales, las desviaciones extremas de este tipo son lo suficientemente raras como para ofuscarnos: no reconocemos la distribución como fractal.

Regreso al charco de agua

Como hemos visto, tenemos problemas para conocer los parámetros de cualquier modelo que supongamos que rige el mundo. Lo mismo ocurre con Extremistán; aquí asoma de nuevo el problema de la inducción, esta vez de forma aún más significativa que en cualquier otro momento de este libro. Simplemente, si un mecanismo es fractal puede originar errores grandes; por consiguiente es posible que existan grandes desviaciones, pero será difícil determinar con cierta exactitud en qué medida son posibles y con qué frecuencia se pueden producir. Es algo parecido al problema del charco de agua: lo ha podido generar una multitud de cubitos de hielo. Como alguien que va de la realidad a los modelos explicativos posibles, me enfrento a un aluvión de problemas completamente distintos de los de aquellos que hacen el recorrido inverso.

Acabo de leer tres libros de «ciencia popular» que resumen los estudios sobre sistemas complejos: Ubiquity, de Mark Buchanan; Critical Mass, de Philip Ball; y Why Most Things Fail, de Paul Ormerod. Estos tres autores presentan el mundo de las ciencias sociales como algo lleno de leyes potenciales, una idea con la que estoy completamente de acuerdo. Dicen también que existe una universalidad en muchos de estos fenómenos, que hay una hermosa similitud entre diversos procesos de la naturaleza y el comportamiento de los grupos sociales, punto en el que coincido. Basan sus estudios en las diversas teorías de las redes y demuestran la maravillosa correspondencia que hay entre los llamados fenómenos críticos de las ciencias sociales y la autoorganización de los grupos sociales. Reúnen los procesos que generan avalanchas, contagios sociales y lo que ellos llaman cascadas informativas, y aquí también estoy de acuerdo.

La universalidad es una de las razones de que los físicos encuentren particularmente interesante que las leyes potenciales estén asociadas a puntos críticos. Hay muchas situaciones, tanto en la teoría de los sistemas dinámicos como en la mecánica estadística, donde muchas de las propiedades de la dinámica en torno a puntos críticos son independientes de los detalles del sistema dinámico subyacente. El exponente en el punto crítico puede ser el mismo para muchos sistemas del mismo grupo, aunque muchos otros aspectos del sistema sean diferentes. Estoy casi de acuerdo con esta idea de universalidad. Por último, los tres autores nos animan a aplicar las técnicas de la física estadística, evitando, como si de la peste se tratara, la econometría y las distribuciones no escalables de estilo gaussiano, en lo que no podría estar yo más de acuerdo.

Pero los tres autores, al producir, o fomentar, la precisión, caen en la trampa de no diferenciar entre los procesos que van hacia delante y los que van hacia atrás (entre el problema y el problema inverso); en mi opinión, el mayor pecado científico y epistemológico. No son los únicos: casi todos los que trabajan con datos pero no coman decisiones a partir de ellos tienden a caer en el mismo pecado, una variación de la falacia narrativa. En ausencia de un proceso de retroalimentación, nos fijamos en los modelos y pensamos que confirman la realidad. Creo en las ideas de estos tres libros, pero no en la forma en que se utilizan, y desde luego no con la precisión que los autores les atribuyen. De hecho, la teoría de la complejidad nos debería hacer más cautos ante la defensa científica de unos modelos de la realidad. No se consigue con ello que todos los cisnes sean blancos; lo previsible es que los haga grises, y sólo grises.

Como he dicho antes, el mundo, en el sentido epistemológico, es literalmente un lugar distinto para el empirista que desde los detalles llega al concepto. No podemos permitirnos el lujo de sentarnos a interpretar la ecuación que rige el universo; nos limitamos a observar los datos y elaborar un supuesto sobre cuál pueda ser el proceso real, y luego «calibramos» ajustando nuestra ecuación de acuerdo con la información adicional. Cuando se nos presentan los sucesos, comparamos lo que vemos con lo que esperábamos ver. Descubrir que la historia va hacia delante, y no hacia atrás, suele ser un proceso humillante, en particular para quien sea consciente de la falacia narrativa. Del mismo modo que uno piensa que los hombres de negocios tienen un ego muy grande, estas personas a menudo se ven humilladas por quienes les recuerdan la diferencia entre la decisión y los resultados.

De lo que estoy hablando es de la opacidad, de lo incompleto de la información, de la invisibilidad del generador del mundo. La historia no nos desvela su mente; debemos adivinar qué hay dentro de ella.

Other books

Burying the Sun by Gloria Whelan
Brazil by Ross Kemp
Healer by Peter Dickinson
Leap of Faith by Tanya Stowe
The Case for Copyright Reform by Christian Engström, Rick Falkvinge
A Husband in Time by Maggie Shayne