Authors: Nassim Nicholas Taleb
Existe también el efecto del estudioso obsesivo, que nace de la eliminación mental de los riesgos que se salen de los modelos, o de centrarnos en lo que sabemos. Contemplamos el mundo desde el interior de un modelo. Pensamos que la mayoría de los retrasos y los excesos en los costes surgen de elementos inesperados que no formaban parte del plan —es decir, quedan fuera del modelo que tenemos entre manos—, como por ejemplo las huelgas, las restricciones de electricidad, los accidentes, el mal tiempo o el rumor de una invasión de marcianos. No parece que estos pequeños Cisnes Negros que amenazan con dificultar nuestros proyectos se tengan en cuenta. Son demasiado abstractos: no sabemos qué aspecto tienen ni podemos hablar de ellos de forma inteligente.
No podemos planificar de verdad porque no entendemos el futuro, lo cual no necesariamente es una mala noticia. Podríamos planificar si tuviéramos en cuenta estas limitaciones. No se requiere más que agallas.
No hace tanto, digamos que en los tiempos anteriores al ordenador, las proyecciones eran vagas y cualitativas: había que hacer un esfuerzo mental para seguirles el rastro, y resultaba difícil proyectar escenarios futuros. Para iniciarse en tal actividad, hacían falta lápices, gomas, resmas de papel e inmensas papeleras. Añadamos a ello el amor del contable por el trabajo lento y tedioso. Dicho brevemente, la actividad de proyectar requería mucho esfuerzo, era indeseable y se iba al traste cuando uno dudaba de sí mismo.
Pero las cosas cambiaron con la invasión de la hoja de cálculo. Cuando la ponemos en manos de alguien que sabe de ordenadores tenemos una «proyección de las ventas» que, sin esfuerzo alguno, se proyecta hasta el infinito. Una vez que está en una página o en la pantalla del ordenador o, peor aún, en una presentación con PowerPoint, la proyección cobra vida propia, pierde su vaguedad y abstracción y se convierte en lo que los filósofos llaman reificación, algo investido de la calidad de concreto; así adquiere una vida nueva como objeto tangible.
Mientras sudábamos en el gimnasio del barrio, mi amigo Brian Hinchcliffe me propuso la siguiente idea. Tal vez la facilidad con que uno puede proyectar en el futuro arrastrando celdas en esas holas de cálculo sea la responsable de que los ejércitos de previsores se sientan confiados al elaborar previsiones a más largo plazo (y siempre tunelando en sus supuestos). Nos hemos convertido en peores planificadores que los rusos soviéticos gracias a esos potentes programas informáticos, que se ponen en manos de quienes son incapaces de manejar sus conocimientos. Como ocurre con la mayoría de los comerciantes, Brian es un hombre de un realismo incisivo y a veces brutalmente doloroso.
Al parecer, aquí actúa un mecanismo mental clásico llamado anclaje. Para disminuir la ansiedad que nos produce la incertidumbre, tomamos un número y luego nos «anclamos» en él, como un objeto al que agarrarse en medio del vacío. Este mecanismo de anclaje lo descubrieron los padres de la psicología de la incertidumbre, Danny Kahneman y Amos Tversky, en los inicios de sus trabajos sobre heurística y sesgos. Funciona así: Kahneman y Tversky pedían a los sujetos de sus experimentos que hicieran girar la rueda de la fortuna. Los sujetos primero miraban el número que había en la rueda, que sabían que era aleatorio, y luego se les pedía que calcularan el número de países africanos que había en las Naciones Unidas. Quienes habían sacado un número bajo en la rueda decían una cantidad pequeña, y los que tenían un número alto hacían un cálculo superior.
De modo parecido, pidamos a alguien que nos diga los cuatro últimos dígitos de su número de la seguridad social. Luego digámosle que calcule el número de dentistas que hay en Manhattan. Descubriremos que, al hacerle consciente del número de cuatro dígitos, damos pie a una estimación relacionada con él.
Utilizamos puntos de referencia que tenemos en la cabeza, por ejemplo proyecciones sobre ventas, y empezamos a construir creencias en torno a ellos, porque se necesita menos esfuerzo mental para comparar una idea con un punco de referencia que para evaluarla en el absoluto [sistema 1 en acción). No podemos trabajar sin un punto de referencia.
De modo que la introducción de un punto de referencia en la mente de quien hace previsiones obrará maravillas. Este factor es idéntico al punto de partida en una negociación mercantil: uno empieza con una cantidad elevada («Quiero un millón por esta casa»), y el postor responderá: «Sólo daré ochocientos cincuenta mil». La discusión estará determinada por este nivel inicial.
Al igual que muchas variables biológicas, la esperanza de vida pertenece a Mediocristán, es decir, está sometida a un azar moderado. No es escalable, ya que cuanto mayores nos hacemos, menos probabilidades tenemos de vivir. En un país desarrollado, se calcula que una niña recién nacida fallecerá a los 79 años, según las tablas que manejan las compañías de seguros. Cuando alcanza su 79° cumpleaños, su esperanza de vida, suponiendo que su salud se encuentre en los parámetros habituales, es de otros 10 años. A los 90 años, debería disponer de otros 4,7 años de vida. A los 100, 2,5 años. A los 119 años, si milagrosamente alcanza esa edad, le quedarían unos nueve meses. A medida que sobrevive a la que se espera que sea la fecha de su muerte, el número de años de vida que le pueden quedar disminuye. Esto ilustra la principal propiedad de las variables aleatorias relacionadas con la curva de campana. La expectativa condicional de vida adicional cae a medida que la persona va envejeciendo.
En los proyectos y empresas humanos no sucede así, ya que éstos, como decía en el capítulo 3, suelen ser escalables. Con las variables escalables, las de Extremistán, seremos testigos del efecto opuesto. Supongamos que se espera terminar un trabajo en 79 días, la misma expectativa que la niña recién nacida tiene en años. El día 79, si el trabajo no está terminado, se estimará que se necesitan otros 25 días para concluirlo. Pero el día 90, si el trabajo sigue sin terminar, habría que contar con otros 58 días. El día 100, con 89 días más. El día 119, se debería disponer de otros 149 días. El día 600, si no se ha concluido el trabajo, se estimará que se requieren 1.590 días más. Como vemos, cuanto más se retrasa el proyecto, más se estima que se deberá esperar.
Imaginemos que somos refugiados que esperamos regresar a nuestra tierra natal. Cada día que pasa estamos más lelos, no más cerca, del día del triunfal retorno. Lo mismo ocurre con la fecha de conclusión de nuestro siguiente teatro de la ópera. Si se esperaba que llevaría dos años, y tres años después seguimos haciendo preguntas, no esperemos que la obra se concluya pronto. Si las guerras duran un promedio de seis meses, y el conflicto que nos afecta lleva abierto dos años, aun tendremos unos cuantos años más de enfrentamientos. El conflicto árabe-israelí dura ya sesenta años, y sigue contando; pero hace sesenta años se consideró «un problema sencillo». (Recordemos siempre que, en un entorno moderno, las guerras duran más y en ellas muere más gente de lo que se suele planificar.) Otro ejemplo: supongamos que mandamos una carta al autor que más nos gusta, sabedores de que está muy ocupado y de que suele responder al cabo de dos semanas. Si tres semanas después nuestro buzón sigue vacío, no esperemos que la carta llegue al día siguiente; como promedio, tardará otras tres semanas. Si tres meses después aún no hemos recibido respuesta, tendremos que esperar otro año. Cada día nos acercará más a la muerte, pero nos alejará de la recepción de la carta.
Esta propiedad de la aleatoriedad escalable, sutil pero trascendental en extremo, es inusualmente contraintuitiva. Interpretamos mal la lógica de las grandes desviaciones de la norma.
Voy a entrar en mayores detalles sobre las propiedades de la aleatoriedad escalable en la tercera parte. Pero, de momento, digamos que son fundamentales para comprender el tema de la predicción.
no cruces el río si tiene, de media, un metro de profundidad
Las proyecciones de las empresas y de los gobiernos tienen un fallo adicional fácil de detectar: no adjuntan a sus escenarios un índice de error posible. Incluso en ausencia de Cisnes Negros, tal omisión sería un error.
En cierta ocasión, impartí una conferencia a entusiastas de la política en el Woodrow Wilson Center de Washington, D. C., en la que les reté a que fueran conscientes de nuestra debilidad para ver lo que tenemos por delante.
Los asistentes eran dóciles y callados. Lo que les estaba diciendo iba en contra de todo lo que pensaban y defendían; me había dejado llevar por mi agresivo mensaje, pero el público parecía atento, en comparación con las personas cargadas de testosterona con que uno se encuentra en el mundo de la empresa. Me sentía culpable por mi postura agresiva; apenas me hicieron pocas preguntas. La persona que había organizado la conferencia y me había invitado debía de haberles gastado una broma a sus colegas. Yo me mostraba como un ateo agresivo que se defendía ante un sínodo de cardenales, aunque prescindía de sus característicos eufemismos expresivos.
No obstante, algunas de las personas del público comprendieron el mensaje. Una de ellas (empleada de un organismo gubernamental) me explicó en privado, después de la conferencia, que en enero de 2004 su departamento preveía que dentro de veinticinco años el precio del petróleo sería de 27 dólares el barril, levemente superior al que alcanzaba en aquellos días. Seis meses después, en junio de 2004, cuando el precio del petróleo se duplicó, tuvieron que revisar su estimación y situarla en 54 dólares (actualmente, mientras escribo estas líneas, el precio del petróleo se acerca a los 79 dólares el barril). No habían caído en la cuenta de que, dado que su primera previsión erró tan pronto y tan destacadamente, hacer una segunda era absurdo, ni en que de algún modo había que poner en entredicho el empeño por predecir. ¡Y sus cálculos se referían a veinticinco años\ Tampoco se les ocurrió que hay que tener en cuenta algo que se llama índice de error.
29
Hacer previsiones sin incorporar un índice de error revela tres falacias, todas ellas fruto de la misma concepción falsa acerca del carácter de la incertidumbre.
La primera falacia es que la variabilidad importa. El primer error está en tomarse demasiado en serio una proyección, haciendo caso omiso de su precisión. Sin embargo, para los fines de la planificación, la precisión en la predicción importa mucho más que la propia predicción. Lo explicaré como sigue.
Si a quien va a desplazarse a un destino remoto le decimos que se espera que la temperatura media sea de 22 °C, con un índice de error de 10 °C, se llevará un tipo de ropa diferente de la que se llevaría si le dijéramos que el margen de error es de sólo 1 °C. Las políticas sobre las que tenemos que tomar decisiones dependen mucho más de la diversidad de posibles resultados que de la cifra final que se espera obtener. Cuando trabajaba en la banca, veía que la gente hacía proyecciones sobre la liquidez de las empresas sin envolverlas con la más fina capa de incertidumbre. Vayamos al agente de Bolsa y comprobemos qué método emplea para prever que las ventas dentro de diez años «calibrarán» sus métodos de valuación. Averigüemos cómo los analistas prevén los déficits del Estado. Vayamos a un banco o sigamos un programa de formación en análisis de inversiones, y veamos cómo enseñan a hacer supuestos: no enseñan a construir un índice de error en torno a esos supuestos; sin embargo, su índice de error es tan grande que es mucho más importante que la propia proyección.
La segunda falacia la encontramos en el hecho de no tener en cuenta la degradación de la predicción a medida que el período proyectado se alarga. No nos percatamos de la medida de la diferencia entre el futuro cercano y el futuro lejano. Sin embargo, la degradación en este tipo de predicciones a lo largo del tiempo se hace evidente con un simple examen introspectivo, sin tener que recurrir siquiera a artículos científicos, que por lo demás apenas se ocupan del tema. Pensemos en las previsiones, económicas o tecnológicas, que se hicieron en 1905 para el siguiente cuarto de siglo. ¿En qué medida coincidieron con lo que ocurrió en 1925? Si se quiere tener una experiencia convincente, basta con leer 1984, de George Orwell. O fijémonos en predicciones más recientes, hechas en 1975 sobre perspectivas para el nuevo milenio. Han ocurrido muchas cosas y han aparecido muchas tecnologías que los previsores jamás imaginaron; de las previstas, fueron muchas más las que no ocurrieron ni aparecieron. Tradicionalmente, nuestros errores de previsión han sido enormes, y es posible que no existan razones para pensar que de repente nos encontramos en una situación más privilegiada para vislumbrar el futuro, en comparación con nuestros ciegos predecesores. Las previsiones de los burócratas se suelen emplear para aliviar la ansiedad, más que para una adecuada actuación política.
La tercera falacia, y quizá la más grave, se refiere a la falsa comprensión del carácter aleatorio de las variables que se predicen. Debido al Cisne Negro, estas variables pueden contener escenarios mucho más optimistas —o mucho más pesimistas— de lo que normalmente se espera. Recordemos de mi experimento con Dan Goldstein acerca de la especificidad de dominio de nuestras intuiciones, que tendemos a no cometer errores en Mediocristán, pero cometemos errores muy grandes en Extremistán pues no nos damos cuenta de las consecuencias del suceso raro.
¿Qué implicaciones conlleva esto? Pues que aunque estemos de acuerdo con cierta predicción, tendremos que considerar la posibilidad real de que exista una importante divergencia respecto a ella. Estas divergencias pueden alegrar al especulador, que no depende de unos ingresos filos; pero el jubilado, con unos atributos de riesgo concretos, no se puede permitir tales variaciones. Aún más: utilizando el símil de la profundidad de un río, me atrevería a decir que, cuando nos sumergimos en una política, lo que importa son los cálculos que tiran a la baja (es decir, el caso peor), ya que el caso peor es mucho más trascendental que la propia previsión. Así ocurre sobre todo cuando el escenario malo no es aceptable. Pero la actual fraseología no permite lo que acabo de decir. En ningún caso.
Se dice a menudo que «de sabios es ver venir las cosas». Tal vez el sabio sea quien sepa que no puede ver las cosas que están lelos.