¿Cómo ocurren los eventos del Cisne Negro en los modelos de ingeniería y cómo se pueden prevenir?

Bueno, la vida es un evento de cisne negro! ¿Cuáles son las probabilidades de que hayas nacido? De todos los espermatozoides y óvulos, ¿cuáles son las probabilidades de que los correctos se unieron y USTED se hizo? ¿Cuáles son las probabilidades de que la Tierra se forme con la cantidad justa de atmósfera que nos permita respirar, etc. Ahora no estamos tratando de obtener todo lo filosófico simplemente diciendo que los eventos extremadamente improbables no siempre son malos?

Los eventos del cisne negro son el resultado de imperfecciones en los modelos de ingeniería. Todo, todo en ingeniería es una aproximación. Incluso si los modelos matemáticos fueran exactos, y no lo son, las computadoras digitales estiman la respuesta porque la longitud de la palabra es finita.

Los modelos de ingeniería tratan de incluir cosas importantes para que las estimaciones estén cerca de la respuesta correcta.

Pero los eventos del cisne negro pueden y surgen. A menudo surgen porque las “cosas que no importan” se agregan de manera imprevista.

A un nivel más profundo, la indecidibilidad de Godel demuestra que los eventos del cisne negro son componentes intrínsecos de la realidad física …

En un nivel muy básico:

Los modelos de ingeniería son, los modelos.

Un modelo es una versión abstracta utilizada para calcular los resultados en la realidad física determinada por una combinación de factores / condiciones, y las cantidades y la calidad de estos factores.

Cómo se producen los cisnes negros

El modelo utilizado no tiene en cuenta un evento / factor real. Un evento de un rango de eventos y circunstancias improbables y / o extremas que podrían ocurrir.


La mayor parte del desarrollo científico y las exploraciones de los temas se realizan tratando de aislar algunos factores significativos (necesarios Y suficientes) que predicen un resultado. Si siempre tiene en cuenta todo, es muy difícil llegar a conclusiones o predicciones sobre lo que importa.

En Ingeniería, para agregar seguridad extra = robustez, se usa un factor de seguridad .

Un ejemplo típico es cuando se toma la fuerza de un cable de elevador . Calcula la resistencia real necesaria y luego la multiplica por un factor de alrededor de 10. Se supone que ese factor de seguridad “cubre” el desgaste, la antigüedad, el mal mantenimiento, uno de los otros cables que se rompen / fallan, etc. Por eso los ascensores son muy seguros. .

, Pero cuando el edificio se derrumba, el ascensor sufre el 100%.

Cómo prevenir los cisnes negros.

Si puedes evitarlo, no es un verdadero Cisne Negro.


Lo que puede hacer es asumir un conjunto de condiciones y circunstancias extremas y probar su sistema / construcción para ver qué sucede. Después de eso, puede decidir aumentar / fortalecer ciertos factores o agregar cosas que protejan mejor contra el potencial Black Swan.

Por supuesto, esto también puede llevar a una “sobre protección”, donde se prepara para cosas que nunca suceden.

Un ejemplo de esto que puede llamarse ingeniería en un nivel humano / social básico es el fenómeno de “preppers”, también conocido como Survivalism: Survivalism

A2A.

El lado de mí que hace uso de los enfoques computacionales para la exploración de espacios modelo aboga por el uso de los enfoques computacionales para generar casos de prueba que cubren ampliamente todos los rangos de posibilidades de eventos. Esto requiere un marco para generar secuencias de eventos con parámetros variables, lo cual es exhaustivo y no es fácil.

Pero a menudo este enfoque todavía no es factible debido a la gran cantidad de posibles secuencias de eventos y posibilidades de eventos, incluso si tenemos una forma de probarlos. Los enfoques de Monte Carlo y los algoritmos evolutivos a veces no logran encontrar esa ubicación en el espacio de la solución a pesar de las enormes cantidades de potencia computacional involucrada. Necesitamos experiencia en el dominio para limitar dónde estamos mirando, es decir, explorar al azar en áreas que darán más frutos. Pero los humanos tienden a ser parciales. El problema con los eventos del cisne negro es que a menudo ocurren donde incluso los expertos no están mirando. Nuestros procesos de inferencia a menudo están ligados a lo que ya sabemos. Necesitamos mirar en direcciones completamente nuevas.

Como un explorador de paradigmas (aunque en la actualidad es un fallo autocompasivo hasta que mi cerebro pospuesto para editar y terminar mi tesis) este problema está muy cerca del corazón. Intento encontrar formas de utilizar la experiencia en el dominio sin limitarme a lo que he enseñado. Una vez los llamé estrategias de hormigas negras. Un buen explorador se desviará de la ruta establecida hacia el espacio paradigmático de manera intermitente, hará una búsqueda y luego regresará si no se encuentra nada que se ramifique de nuevo en la ruta. ¿Cómo podemos hacer que nuestras mentes sesgadas se ramifiquen en direcciones realmente nuevas?

Hasta ahora, una de mis tácticas favoritas es el uso de la aleatorización imparcial durante la inferencia y el descubrimiento del conocimiento. Ahora mismo lo estoy llamando el diccionario o el enfoque de Wikipedia:

Dado un problema:
1. Generar entradas de un diccionario al azar o wikipedia.
2. Trata de hacer una conexión con lo que ya sabes.

Eso es. Añadimos aleatoriedad a nuestra búsqueda de paradigmas. Vigilamos e intentamos establecer conexiones con nuestra base de conocimientos actual utilizando nuevas fuentes de información imparciales .

Aplicado al problema de ingeniería de Fukishima:

  1. Haga que un grupo de ingenieros (scouts) participe en el enfoque de wikipedia para encontrar posibilidades de eventos que puedan usarse para generar nuevos casos de prueba para ver si potencialmente podrían causar una falla del sistema o un comportamiento no deseado.
  2. Utilice estas nuevas situaciones para establecer parámetros y secuencias de eventos que actúen como SEEDS para la continuación de las pruebas automatizadas. Estos sembrarán el modelo de exploración espacial.

Ejemplo:
Hice esto usando artículos de wikipedia al azar. Cada artículo desencadenó una idea para una posibilidad de evento que debería probarse. (lo más probable es que lo sea, y no soy un ingeniero, así que probablemente no sean los mejores, pero imagínese si un equipo hiciera esto por miles o artículos o conceptos aleatorios). Mi conocimiento de dominio limitado hizo uso de estas ideas, pero sin ese artículo aleatorio de wikipedia NUNCA Habría estado pensando en ellos.

a) Un artículo sobre cuerpos en órbita -> casos de prueba de huelga por meteorito
b) Un artículo sobre una película que involucra un robo -> casos de prueba para piezas de equipo o hardware que son robados
c) Un artículo sobre carreras de larga distancia -> casos de prueba, por supuesto, para un funcionamiento normal prolongado (o algo relacionado con las condiciones de una carrera debido al funcionamiento prolongado)
d) Paralímpicos de natación .. Puedo pensar en una pareja, ¿puedes pensar en una?
e) Cal Ken era el dueño de un equipo de béisbol llamado ‘Niagra Power’. Él era un jugador de fútbol retirado, siendo un respaldo durante la mayor parte de su vida antes de ser retirado. ¿Deberíamos probar el uso de equipos antiguos como respaldo en caso de que los respaldos actuales estén dañados?

Entonces, la solución es: hacer uso de la IA para inferir las causas que conducen a los casos de prueba de tal manera que la IA pueda conectar conceptos de estructuras y dominios de conocimiento previamente desvinculados.

😛 Blahblahblahblahblahblahblahblahblah.

Un reclutador de Martin Aircraft (1955) dijo una vez: “Si un avión (diseño) no provoca un accidente de vez en cuando, está sobre diseñado”.

El mensaje de que proporcionar más de unos pocos sigma como la variación permitida de las variables críticas conduce inevitablemente a un modelo difícil de manejar, también se aplica aquí.

La supuesta independencia de las variables cuando en ciertas situaciones, estas variables están altamente correlacionadas a menudo conduce al desastre. La caída en el precio de A que lleva a una venta por incendio que causa que el precio de B y C también caiga es un efecto dominó bien conocido en las inversiones del mercado.

La mejor protección es quizás una cascada de coberturas tales que las fallas sistémicas en un nivel pueden ser compensadas por las ganancias en el nivel superior.

portfolio_hedging2.pdf

Basado en los principios de cobertura basada en opciones y utilizando un modelo de probabilidad de múltiples fractales (distribución estable de Levy, con cola) para este mercado, este gráfico permite una evaluación rápida del saldo adecuado para una cartera de inversiones. La línea traza la fracción de una cartera total que está protegida para una fracción dada de las tenencias que puede considerarse “libre de riesgo”. Por ejemplo, si 0,4 (40%) de la cartera está en bonos, entonces podría protegerse 0,7 (70%) de la cartera total, asumiendo que se utilizó una cobertura dinámica activa para reinvertir las acciones si el mercado comenzara a desmoronarse.

Estas lecciones del mundo de las finanzas pueden aplicarse a los modelos de ingeniería de manera incómoda. Mi ejemplo favorito es un período lluvioso en Texas y Oklahoma (1957) que condujo a que el aliviadero del lago Texoma esté a un nivel de inundación de 100 años solo unos pocos años después de la construcción de la represa. La cobertura adecuada para ese evento del cisne negro hubiera sido un paracaídas de oro para el ingeniero jefe.

Estaré de acuerdo con todas las respuestas publicadas aquí, pero le daré un giro ligeramente diferente.

Para citar a Donald Rumsfeld con respecto a la guerra de Irak (hay conocidos conocidos):

“… Como sabemos, hay conocidos conocidos; Hay cosas que sabemos que sabemos. También sabemos que hay incógnitas conocidas; es decir, sabemos que hay algunas cosas que no sabemos. Pero también hay incógnitas desconocidas, las que no sabemos que no sabemos. Y si uno mira a lo largo de la historia de nuestro país y otros países libres, es la última categoría la que tiende a ser la más difícil “.

En esencia, un evento del Cisne Negro es un “desconocido” desconocido, algo que invalida uno o más de los supuestos utilizados para abstraer (es decir, simplificar las dimensiones de la realidad) y definir el modelo original. Como otras respuestas, y Wikipedia, han señalado, los eventos del Cisne Negro ocurren en todos los campos imaginables, ocurren en mercados con nuevos productos / servicios disruptivos, o en el mundo real con consecuencias imprevistas.

Cisne negro o eventos “emergentes” son de tres tipos:

  1. Complejo: comportamiento caótico del sistema real, lo que significa que es infinitamente sensible a la precisión, por lo que los resultados no se pueden modelar con precisión porque las entradas no se pueden especificar con suficiente precisión, o el sistema ha roto la simetría, y los agregados grandes son difíciles de modelar
  2. Complicado: cascada lineal de eventos en el sistema real (es decir, se podrían sumar cosas), debido a la interacción de las múltiples escalas y dimensiones en el sistema, pero el evento nunca fue modelado como suposiciones simplificadoras para reducir el número y rango de variables , eliminó las variables responsables (es decir, estadísticamente irrelevante) o redujo el rango (es decir, la magnitud estadísticamente improbable), por lo que nunca se evaluó la combinación exacta, aunque podría haber sido modelada en teoría. Esto también puede ocurrir cuando algunas variables en el sistema son desconocidas (no se pueden medir) y, por lo tanto, el modelo tiene poca fidelidad en el comportamiento real
  3. Combinación: el comportamiento caótico causó que uno de los supuestos subyacentes se invalidara, causando una condición fuera de los parámetros del modelo, que luego combina los factores de manera imprevista, o alguna otra combinación (es decir, tratar de ajustar un supuesto lineal a un sistema no lineal) .

Como los humanos han estado utilizando modelos mentales simplificados durante unos pocos miles de años, entonces se podría suponer que la incidencia de los eventos del Cisne Negro (es decir, las incógnitas conocidas y las incógnitas desconocidas) que producen eventos inesperados es ciertamente alta en casi todos los campos, y de hecho es La base para todas las mejoras del modelo.

Con respecto a los eventos del Cisne Negro en los modelos de ingeniería, entonces podría esperarse que la gran mayoría cayera en la canasta Complicada, donde la causalidad es intrincada y las suposiciones simplificadas significan que no se ha examinado una cascada específica de eventos, ya que se consideró demasiado improbable o Irrelevante.

Por lo tanto, la causa raíz de los eventos del Cisne Negro se encuentra en las suposiciones simplificadoras que uno elige en el modelo, pero puede resultar bastante complicado obtener suficiente objetividad para examinar críticamente las propias suposiciones subyacentes, y siempre existen las incógnitas desconocidas. Por lo tanto, predigo que los eventos del Cisne Negro continuarán sucediendo.

Cuando es importante, sabemos cómo construir algunos sistemas muy confiables. No necesitamos pensar en cada modo de falla posible, sino que diseñamos sistemas robustos. Hay varias maneras de hacerlo.

Ponemos en márgenes de seguridad significativos, muchos modos de falla no son fallas catastróficas instantáneas, sino más bien un rendimiento degradado o una demanda extrema. Al diseñar con grandes márgenes, proporcionamos buena resistencia contra muchos de estos eventos sin entenderlos o predecirlos.

Otra herramienta clave es eliminar puntos de falla singel. Tomamos un diseño de componentes de alto nivel y nos preguntamos qué sucede si falla cada componente. Nos gustaría que el sistema en su conjunto continúe funcionando. Nuevamente, evitamos tratar con cualquier modo de falla específico.

A veces, detenerse para hacer algo no es lo peor que puede hacer un componente. Aplicamos el pensamiento adversario, ¿qué podría hacer este componente a nuestro sistema si lo diseñé maliciosamente? Esto es útil en muchos casos desde la perspectiva de la seguridad, incluso cuando no existen preocupaciones de seguridad.

Un método común pero imperfecto para eliminar puntos únicos de falla es duplicar un componente. Sin embargo, cuando colocamos varias copias del mismo componente exacto, estamos resolviendo solo la mitad del problema, ya que no se puede esperar que sus fallas sean independientes. Si tenemos diferentes copias de diferentes fabricantes y diseños aumentamos su independencia.

A menudo no podemos hacer que todo sea redundante y terminamos con algo para armar todo. Para esto contamos con otra muy buena técnica para construir sistemas confiables. Sencillez. Las cosas simples son mucho más confiables y tenemos una mejor comprensión de sus modos de falla. Tratamos de hacer que todo sea lo más simple posible, especialmente cualquier posible punto de falla.

No tenemos que predecir los cisnes negros para ser resistentes a ellos. Y sin embargo, ningún sistema es perfecto. Puedo construir un sistema simple y encantador sin ningún punto de falla aparente y, sin embargo, fallará cuando sea golpeado por una bomba nuclear. Luego diría que en realidad tenía un solo punto de falla, todo estaba en la misma ciudad. Ahora sabemos que los sistemas resilientes necesitan ser distribuidos geográficamente porque hay muchos más escenarios que aplican el daño local.

El sistema es perfecto, pero algunos se acercan mucho.

Nassim es un viejo amigo: ¡trabajamos juntos para matematizar algunas de sus ideas sobre cisnes negros y eventos extremos hace doce años!

Como señaló JQ Veenstra, por definición, no puede predecir cisnes negros. Eso es cierto en el siguiente sentido: no podemos predecir el momento exacto o la magnitud de los eventos del cisne negro. Sin embargo, PODEMOS predecir un tiempo esperado antes de que un evento de cisne negro sea muy probable, es decir, podemos resolver la ecuación:

Probabilidad (x> valor umbral de cisne negro; t> T | valor de x hoy) = p

Para cualquier par (p, t). Por ejemplo, y solo con fines ilustrativos, sea Y (t) el valor del índice Dow Jones en el momento ‘t’. Ahora supongamos que consideramos como un evento extremo (cisne negro) el caso donde el índice Dow Jones crece K veces más rápido que el crecimiento del PIB. Entonces podemos definir X (t) = dY (t) / dt y nuestra ecuación de probabilidad se convierte en:

Prob (X (T)> K * crecimiento del PIB (0, T); t> T | GDP hoy) donde hoy corresponde a t = 0. En los modelos gaussianos, esta probabilidad decaerá rápidamente al aumentar K y aumentar T. En extremo modelos de valor (cisnes negros), esto decaerá menos rápidamente. Como tal, podemos resolver la ecuación:

Prob (X (T)> K * crecimiento del PIB (0, T); t> T | PIB hoy) = p

donde los parámetros son K y p para predecir T. En inglés llano, el valor predicho de T nos dirá cuánto tiempo tenemos que esperar antes de que un evento de cisne negro sea bastante probable. Los modelos de valor extremo son procesos estocásticos basados ​​en distribuciones de valor extremo, como las familias Frechet, Gumbel y Weibull (y muchas otras). La preocupación clave para un ingeniero será elegir la distribución correcta de valores extremos y estimar correctamente los parámetros de los datos anteriores.

¿Cómo se puede utilizar esto en aplicaciones de ingeniería? Asegurándose de que el tiempo anterior al siguiente mantenimiento sea inferior al tiempo calculado T y, como tal, se minimice el riesgo de un fallo catastrófico. Otras aplicaciones seguramente vendrán a la mente.

Los eventos del Cisne Negro no ocurren en los modelos de ingeniería. Cada modelo de ingeniería tiene supuestos de las condiciones bajo las cuales espera que funcione su diseño. El evento del cisne negro ocurre cuando algo que el diseñador no tenía idea podría ocurrir. Por ejemplo, si observa debajo de cada camión de tracción delantera con motor trasero que se construye hoy, verá el eje de transmisión a simple vista.

Como la mayoría de las piezas en el tren de rodaje de automóviles y camiones, está a la vista para que no tenga que desarmar algunas carcasas para darle servicio. Piénsalo. ¿Qué pasaría si los automóviles y camiones se construyeran de manera que además de tener que levantar el vehículo, también tuviera que quitar las placas de acero pesadas? Bueno, nadie tiene placas de acero pesadas que cubran todas estas partes. Se agregaría peso al vehículo que costaba el kilometraje del gas y los costos de mantenimiento, sin mencionar que el acero adicional cuesta más dinero. Así que aquí está el evento del cisne negro que evitaría al hacer este estándar en cada automóvil y camión:

Entonces, ¿cuáles son las posibilidades de que su automóvil o camión se involucre en un accidente que lo hace girar exactamente de lado y luego el vehículo que lo golpeó continúa empujando hacia adelante y encajando su eje de transmisión mientras su motor aún está acelerando a altas velocidades para que encaje? y vuela 150 yardas en una multitud? Nadie podría predecir que tal cosa suceda en un millón de años. Así que un millón de camiones tienen el diseño simple y útil. Nadie anticipa un evento de cisne negro y, por lo tanto, nadie diseña para lo que consideran circunstancias impensables.

Por lo tanto, Taleb recomienda que los mejores y más probados sean los mejores diseños, es decir, aquellos en los que las personas han confiado durante más tiempo. Porque son los diseños que han visto las circunstancias más inusuales, y no hay sustituto para la longevidad.

Si bien no sé nada sobre la predicción de ingeniería (aunque sé mucho sobre la predicción en general), la definición misma de un evento de cisne negro es que no se puede predecir .

Sin embargo, puede hacer que su proceso sea tan robusto al error como sea posible. Si tiene éxito con algún error en particular depende de un gran número de cosas.

Los eventos del Cisne Negro no ocurren en los modelos mismos. Los modelos están hechos para soportar las condiciones que pueda encontrar. Están diseñados para protegerse contra muchas circunstancias posibles. El evento eventual puede, al final, resultar más extremo o complicado de lo que pensábamos que era, que es donde “el modelo falló”. La única forma de evitarlo es hacer que el modelo sea aún más seguro, lo que lo hace más caro. El dilema es: ¿cuándo es un modelo lo suficientemente seguro? ¿Qué tan extremos pueden ser los eventos? ¿Debemos asegurarnos contra los eventos que suceden una vez cada cien años? Sí. ¿Una vez en mil años entonces? Hmmm, está bien. ¿Diez mil? No, esa oportunidad es muy pequeña … ¡Oh! Y luego resulta que sucede … Creo que los errores más grandes generalmente se cometen cuando los presupuestos son relativamente pequeños. No debemos asumir grandes riesgos, solo para ahorrar fondos. Y ahí es donde el mundo de hoy a menudo falla.