Un espacio para aprender que no es necesario ser una empresa grande para ser una Gran Empresa
Home » Management » Cisnes negros: presupuestos y predicciones equivocadas

Cisnes negros: presupuestos y predicciones equivocadas

Es probable que no seas consciente de los límites de tus capacidades, que desestimes los desafíos que yacen por delante, y que estés desinformado de todo lo que puede salir mal. No te preocupes – no estás sólo. Michael Mauboussin

Hace unos días me sumergí en la lectura de un artículo escrito por Mauboussin llamado Smart People, Dumb Decisions [Gente Inteligente, Decisiones Estúpidas] en el número Marzo-Abril 2010 de la revista The Futurist. Me pareció excelente, así que le dediqué energía para traducir al menos una parte en anotaciones que publico en este posteo. Aunque el contenido es bastante extenso, creo que nadar cada tanto en estas aguas nos ayuda a fortalecer nuestra mente con ejercicio saludable. Sé que en este blog en general apunto a darle más de comer al corazón (¿será que por mucho tiempo lo mantuve en ayuno y casi se me muere de inanición?). Ahora me interesa comenzar a compartir algunas ideas con las que también alimento mi cabeza. Espero te aporte valor intelectual y práctico, ya que como dice un amigo: “No hay nada más práctico que una buena teoría”.

A TIEMPO Y DENTRO DEL PRESUPUESTO: QUIZÁS LA PRÓXIMA VEZ

El cerebro se aferra naturalmente a ciertas ilusiones, como el exceso de confianza, el control, y las suposiciones que hacemos sobre el nivel de desafío que nos presentará el futuro. Cuando nuestros cerebros falibles se encuentran con sistemas complejos, las posibilidades de tomar malas decisiones aumenta exponencialmente.

La expresión “cisne negro”, refleja la crítica del filósofo Karl Popper al proceso de inducción. Popper afirma que la observación de muchos cisnes blancos no demuestra que todos los cisnes sean blancos, pero que la observación de un cisne negro demuestra que no todos los cisnes son blancos. Con esta afirmación Popper nos indica que para comprender un fenómeno resulta mejor focalizarse en su falsificación, que en su verificación. [Esto significa que para Popper, constatar una teoría es intentar refutarla mediante un contraejemplo, o sea: demostrar que es falsa. Si no es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente, pero nunca verificada.]

La repetición del logro de buenos resultados nos proporciona evidencias para confirmar que nuestra estrategia es buena y que todo está bien. Esta ilusión nos adormece en una sensación injustificada de confianza y nos predispone para una sorpresa (por lo general negativa).

Puede resultar útil tener una leve comprensión de un aspecto del comportamiento de los sistemas complejos llamado “transición de fase”. La transición de fase es donde los pequeños cambios incrementales en las causas detonan efectos a gran escala. El físico Philip Ball llama a este aspecto el “gran pum-ah”. Coloque una bandeja de agua en el congelador y la temperatura desciende hasta el umbral del punto de congelación. El agua sigue siendo un líquido hasta que – ¡pum ah! – se convierte en hielo. Sólo un pequeño cambio incremental de la temperatura conduce a un cambio de líquido a sólido.

Lectura relacionada  Organizar la Pyme : Delegacion y descentralización

El “gran pum-ah” ocurre en muchos sistemas complejos en los que el comportamiento colectivo surge de la interacción de sus partes constituyentes. Es posible encontrar muchos de estos sistemas tanto en el mundo físico como el mundo social. Los ejemplos incluyen de todo, desde el comportamiento de las bolsas de valores hasta la popularidad de los temas músicales exitosos.

La presencia de transiciones de fase invita a que cometamos algunos errores comunes en la toma de decisiones. El primero es el error de la inducción (o cómo ir sacando lógicamente conclusiones generales a partir de observaciones particulares). Aun cuando los filósofos, de Sexto Empiricus a David Hume, nos adviertieron durante siglos en contra de la extrapolación de lo que vemos, nos sigue resultando muy difícil abstenernos de seguir este camino. Para reafirmar lo obvio: en sistemas complejos con transisiones de fase, la inducción falla – a veces con gran espectacularidad.

Para ilustrar este problema, el ex operador de bolsa y autor del best seller The Black Swan, Nassim Taleb relata una historia de Bertrand Russell [adaptada para el público estadounidense] sobre un pavo que es alimentado durante 1.000 días seguidos. La alimentación refuerza en el pavo su sensación de seguridad y bienestar, hasta que un día antes del día de Acción de Gracias le ocurre un evento inesperado. Toda la experiencia del pavo, así como su retroalimentación, es positiva, hasta que de pronto en un instante “el destino” le juega una mala pasada [y termina en el matadero].

El equivalente a la dinámica desafortunada del pavo – un período de prosperidad (el pavo se alimenta), seguido por fuertes pérdidas (el pavo pierde la cabeza) – se produce repetidamente en los negocios. Por ejemplo, Merrill Lynch (adquirida por el Bank of America) sufrió pérdidas en dos años (periodo 2007-2008) superiores en un tercio a los beneficios acumulados por la empresa en 36 años cotizando en bolsa. Tratar con un sistema regido por una ley tan poderosa es como ser alimentado por un granjero que mantiene un hacha escondido a la espalda. Tarde o temprano, el hacha te caerá encima.

Justamente lograr salir de una situación justo antes de la transición de fase – tanto si se trata de retirarse de un juego de póquer antes de que llegue la inevitable mala mano, o de desprenderse de una determinada inversión antes del estallido de una burbuja financiera – es una de las principales motivaciones de quienes buscan, y pagan, información sobre el futuro.

Lectura relacionada  El espejismo de la eficiencia en los negocios, una conversación con Martin Reeves

Los seres humanos tenemos un gran apetito por los pronósticos y las predicciones en un amplio espectro de ámbitos, pero hay que reconocer que la exactitud de los pronósticos en sistemas con transiciones de fase es pésima, incluso los realizados por los llamados “expertos” en cada uno de esos ámbitos.

Duncan Watts, un científico de Yahoo Research que realizó un desarrollo original sobre la teoría de redes, dice, “Creemos que existe algo que podemos llamar calidad … y por ende, los resultados que vemos en el mundo reflejan esta calidad. Pero,” añade, “me siento cómodo con la idea de que los resultados que obtenemos son, en gran medida y en la mayoría de los casos, arbitrarios”. El mejor curso de acción es reconocer la naturaleza del sistema y prepararse para todas las contingencias. Pero, ¿cómo hacerlo? Si durante los últimos 900 días estuvimos siendo alimentados por el granjero, ¿cómo anticipamos el punto de inflexión [tipping point]?

Tenemos que tratar con sistemas que se caracterizan por cambios abruptos e imprevisibles y por resultados improbables y extremos. En nuestro tratamiento hacia estos sistemas, somos todos especialmente propensos al error, porque intuitivamente queremos tratar al sistema como si fuera más simple de lo que es y extrapolar el pasado al futuro. Aprendamos a detectar estos sistemas, y cuando nos encontremos con ellos disminuyamos la velocidad de nuestros procesos de toma de decisiones.

Gracias a la insistencia Nassim Taleb, actuamente muchas personas asocian los eventos extremos con el cisne negro. Pero Taleb hace una cuidadosa, aunque desatendida, distinción: Si entendemos el aspecto de la distribución de probabilidades en toda su extensión – cuál es el mejor, el peor, y el más probable de los escenarios – incluso los resultados extremos deberían etiquetarse como cisnes grises, no cisnes negros. Él los llama “eventos extremos modelizables.” De hecho, los científicos realizaron un montón de trabajo para clasificar las distribuciones de los diferentes sistemas, incuyendo el mercado de valores, los actos terroristas, y las fallas en la red de distribución eléctrica. Así que, si se tiene la formación y las herramientas para entender estos sistemas, es posible obtener una visión general de cómo se comportan, aunque no tengamos una manera confiable de predecir un evento específico. La clave está en prepararnos adecuadamente para cualquier evento, extremo o no, que nos pueda arrojar el sistema. La mayor parte de las personas no son arruinadas por cisnes negros – las incógnitas desconocidas -, sino más bien por su falta de preparación para los cisnes grises.

Lectura relacionada  Transformación: ¿Por qué es tan difícil?

En decisiones que involucran a sistemas con muchas partes que interactúan, los vínculos causales son a menudo imprecisos. Por ejemplo, ¿qué pasará con el cambio climático? ¿Dónde y cuándo será el próximo terremoto? ¿Cuándo surgirá una nueva tecnología? ¿qué pasará con las cosechas en determinada zona?

Warren Buffett dijo: “Prácticamente todas las sorpresas son desagradables.” Tener en cuenta el peor de los escenarios es vital, aunque en tiempos de prosperidad, en general, se pasa por alto.

Hay una paradoja simpatica con la toma de decisiones: Casi todo el mundo se da cuenta de la importancia de estos temas, sin embargo, muy pocas personas los práctican para mejorar. ¿Por qué no entrenamos a los jóvenes estudiantes en la toma de decisiones? ¿Por qué son tan escasos los ejecutivos, los médicos, los abogados, los funcionarios del gobierno, versados en estas grandes ideas?

¿Cuál es la probabilidad de que en las próximas semanas siga estando vivo y que además postee algunas otras reflexiones sobre este tema, y que además también sigas vivo y que además leas esas nuevas reflexiones? ¿Será este acontecimiento un cisne negro?  

Fuente: http://andresubierna.com/2010/toma-de-decisiones-cisnes-negros-presupuestos-y-predicciones-equivocadas-2/

Si quieres ver más posts de la misma categoría, haz click aqui:


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.