H ¿Una Nueva Ciencia?
En 2002, Stephen Wolfram publicó A New Kind of Science, donde presenta las suyas y las de otros trabaja en autómatas celulares y describe un enfoque científico para el estudio de la computación sistemas. Volveremos a Wolfram en el Capítulo 6, pero quiero tomar prestado su título para Algo un poco más amplio. Creo que la complejidad es un “nuevo tipo de ciencia” no porque aplique las herramientas de la ciencia a un nuevo tema, pero debido a que utiliza diferentes herramientas, permite diferentes tipos de trabajo, y en última instancia, cambia lo que entendemos por “ciencia”. Para demostrar la diferencia, comenzaré con un ejemplo de ciencia clásica: supongamos que alguien te preguntó por qué las órbitas planetarias son elípticas. Puede invocar la ley de Newton de gravitación universal y úsela para escribir una ecuación diferencial que describa planetario movimiento. Entonces podrías resolver la ecuación diferencial y demostrar que la solución es un elipse. Voilà! La mayoría de las personas encuentran este tipo de explicación satisfactoria. Incluye una matemática derivación, por lo que tiene algo del rigor de una prueba, y explica una observación específica, órbitas elípticas, apelando a un principio general, la gravitación. Permítanme contrastar eso con un tipo diferente de explicación. Supongamos que te mudas a una ciudad como Detroit, que está segregado racialmente, y quieres saber por qué es así. Si tu investigue un poco, puede encontrar un artículo de Thomas Schelling llamado “Modelos dinámicos de Segregación”, que propone un modelo simple de segregación racial (una copia está disponible en http://statistics.berkeley.edu/~aldous/157/Papers/Schelling_Seg_Models.pdf).
quí hay un resumen del documento (del Capítulo 10): El modelo Schelling de la ciudad es una matriz de celdas donde cada celda representa un casa. Las casas están ocupadas por dos tipos de “agentes”, etiquetados en rojo y azul, en números aproximadamente iguales. Alrededor del 10% de las casas están vacías. En cualquier momento, un agente puede ser feliz o infeliz, dependiendo del otros agentes en el barrio. En una versión del modelo, los agentes están contentos. si tienen al menos dos vecinos como ellos, e infelices si tienen uno o cero La simulación continúa eligiendo un agente al azar y verificando para ver si es feliz Si es así, no pasa nada; si no, el agente elige uno de los celdas desocupadas al azar y movimientos.
Si comienza con una ciudad simulada que está completamente desagregada y ejecuta el modelo para un poco tiempo, aparecen grupos de agentes similares. A medida que pasa el tiempo, los grupos crecen y se unen hasta que haya un pequeño número de grandes grupos y la mayoría de los agentes vivan en vecindarios homogéneos. El grado de segregación en el modelo es sorprendente, y sugiere una explicación de segregación en ciudades reales. Quizás Detroit está segregado porque la gente prefiere no serlo superados en gran medida y se moverán si la composición de sus vecindarios los hace infeliz. ¿Es esta explicación satisfactoria de la misma manera que la explicación del movimiento planetario? Más la gente diría que no, pero ¿por qué? Obviamente, el modelo de Schelling es muy abstracto, es decir, no realista. Es es tentador decir que las personas son más complejas que los planetas, pero cuando lo piensas, Los planetas son tan complejos como las personas (especialmente los que tienen personas). Ambos sistemas son complejos y ambos modelos se basan en simplificaciones; por ejemplo, en En el modelo de movimiento planetario incluimos fuerzas entre el planeta y su sol, e ignoramos interacciones entre planetas. La diferencia importante es que, para el movimiento planetario, podemos defender el modelo mostrando que las fuerzas que ignoramos son más pequeñas que las que incluimos. Y podemos extender el modelo para incluir otras interacciones y mostrar que el efecto es pequeño. Para el modelo de Schelling Es más difícil justificar las simplificaciones. Para empeorar las cosas, el modelo de Schelling no apela a ninguna ley física, y utiliza solo cálculo simple, no derivación matemática. Los modelos como Schelling no se ven como la ciencia clásica, y muchas personas los encuentran menos convincentes, al menos al principio. Pero como Trataré de demostrar que estos modelos hacen un trabajo útil, que incluye predicción, explicación, y diseño. Uno de los objetivos de este libro es explicar cómo.
H.1 ¿Cambio de Paradigma?
Cuando describo este libro a la gente, a menudo me preguntan si este nuevo tipo de ciencia es un cambio de paradigma. No lo creo, y aquí está el por qué. Thomas Kuhn introdujo el término “cambio de paradigma” en La estructura de las revoluciones científicas en 1962. Se refiere a un proceso en la historia de la ciencia donde los supuestos básicos de un campo cambio, o donde una teoría es reemplazada por otra. Presenta como ejemplos a los copernicanos. revolución, el desplazamiento del flogisto por el modelo de combustión de oxígeno, y El surgimiento de la relatividad. El desarrollo de la ciencia de la complejidad no es el reemplazo de un modelo anterior, sino (en mi opinión) un cambio gradual en los modelos de criterios son juzgados por, y en los tipos de modelos que se consideran aceptables Por ejemplo, los modelos clásicos tienden a estar basados en la ley, expresados en forma de ecuaciones, y resuelto por derivación matemática. Modelos que caen bajo el paraguas de la complejidad. a menudo se basan en reglas, se expresan como cálculos y se simulan en lugar de analizarse. No todos encuentran estos modelos satisfactorios. Por ejemplo, en Sincronización, Steven Strogatz escribe sobre su modelo de sincronización espontánea en algunas especies de luciérnagas. Presenta un simulación que demuestra el fenómeno, pero luego escribe:
Repetí la simulación docenas de veces, para otras condiciones iniciales aleatorias y para otros números de osciladores. Sincronizar siempre. […] El desafío ahora fue para probarlo. Solo una prueba blindada demostraría, de una manera que no computadora alguna vez pudo, esa sincronización era inevitable; y el mejor tipo de prueba sería aclarar por qué era inevitable. Strogatz es matemático, por lo que su entusiasmo por las pruebas es comprensible, pero su prueba no aborda lo que, para mí, es la parte más interesante del fenómeno. Para probar que “la sincronización era inevitable”, Strogatz hace varios supuestos simplificadores, en particular que cada luciérnaga puede ver a todas las demás. En mi opinión, es más interesante explicar cómo se puede sincronizar todo un valle de luciérnagas a pesar de que no todos pueden verse. Cómo este tipo de comportamiento global emerge de las interacciones locales es el tema del Capítulo 10. Explicaciones de estos fenómenos. a menudo usan modelos basados en agentes, que exploran (en formas que serían difíciles o imposible con el análisis matemático) las condiciones que permiten o impiden la sincronización. Soy un informático, por lo que mi entusiasmo por los modelos computacionales probablemente no sorpresa. No quiero decir que Strogatz esté equivocado, sino que la gente no está de acuerdo qué preguntas hacer y qué herramientas usar para responderlas. Estas decisiones se basan en juicios de valor, por lo que no hay razón para esperar un acuerdo. Sin embargo, existe un consenso general entre los científicos sobre qué modelos se consideran buena ciencia, y que otros son ciencia marginal, pseudociencia, o no ciencia en absoluto. Afirmo, y esta es una tesis central de este libro, que los criterios en los que se basa este consenso cambiar con el tiempo, y que el surgimiento de la ciencia de la complejidad refleja un cambio gradual en estos criterios
## Los ejes de los modelos científicos:
Se han descrito modelos clásicos basados en leyes físicas, expresadas en forma de ecuaciones, y resuelto por análisis matemático; por el contrario, los modelos de sistemas de complejidad son a menudo basado en reglas simples e implementado como cálculos. Podemos pensar en esta tendencia como un cambio en el tiempo a lo largo de dos ejes: Basado en ecuaciones! basado en simulación Análisis! cálculo El nuevo tipo de ciencia es diferente en muchas otras formas. Los presento aquí para que lo sepas lo que viene, pero algunos de ellos pueden no tener sentido hasta que hayas visto los ejemplos Más adelante en el libro. Continua! Los modelos clásicos discretos tienden a basarse en matemáticas continuas, como el cálculo; los modelos de sistemas complejos a menudo se basan en matemáticas discretas, incluyendo gráficos y autómatas celulares.
Lineal! los modelos clásicos no lineales son a menudo lineales, o usan aproximaciones lineales para sistemas no lineales; La ciencia de la complejidad es más amigable con los modelos no lineales. Uno ejemplo es la teoría del caos1. Determinista! Los modelos clásicos estocásticos suelen ser deterministas, lo que puede reflejar determinismo filosófico subyacente, discutido en el Capítulo 6; modelos complejos a menudo característica de aleatoriedad. Resumen ! detallado En los modelos clásicos, los planetas son masas puntuales, los planos no tienen fricción, y las vacas son esféricas (ver http://en.wikipedia.org/wiki/Spherical_cow). Simplificaciones como estos son a menudo necesarios para el análisis, pero los modelos computacionales pueden Sé más realista. Uno dos ! muchos En la mecánica celestial, el problema de los dos cuerpos puede resolverse analíticamente; El problema de los tres cuerpos no puede. Donde los modelos clásicos a menudo se limitan a pequeños números de elementos que interactúan, la ciencia de la complejidad trabaja con complejos más grandes (que es de donde viene el nombre). Homogéneo! compuesto En los modelos clásicos, los elementos tienden a ser intercambiables; Los modelos complejos incluyen con mayor frecuencia heterogeneidad. Estas son generalizaciones, por lo que no debemos tomarlas demasiado en serio. Y no pretendo despreciar la ciencia clásica. Un modelo más complicado no es necesariamente mejor; de hecho Suele ser peor. Además, no quiero decir que estos cambios sean abruptos o completos. Más bien, hay un migración gradual en la frontera de lo que se considera trabajo aceptable y respetable. Algunos Las herramientas que solían considerarse con recelo ahora son comunes, y algunos modelos que fueron ampliamente aceptados, ahora se consideran con escrutinio.
Por ejemplo, cuando Appel y Haken probaron el teorema de los cuatro colores en 1976, utilizaron una computadora para enumerar 1.936 casos especiales que fueron, en cierto sentido, lemas de sus prueba. En ese momento, muchos matemáticos no consideraron que el teorema fuera realmente probado. Ahora Las pruebas asistidas por computadora son comunes y generalmente (pero no universalmente) aceptadas. Por el contrario, un cuerpo sustancial de análisis económico se basa en un modelo de comportamiento humano. llamado “hombre económico” o, con la lengua en la mejilla, Homo economicus. Investigación basada en Este modelo fue muy apreciado durante varias décadas, especialmente si involucraba matemática virtuosidad. Más recientemente, este modelo se trata con más escepticismo y modelos que incluir información imperfecta y la racionalidad limitada son temas candentes.
H.2 Nuevas Clases de Modelos
Los modelos complejos a menudo son apropiados para diferentes propósitos e interpretaciones: Predictivo! El modelo explicativo de segregación de Schelling podría arrojar luz sobre un complejo fenómeno social, pero no es útil para la predicción. Por otro lado, un simple modelo de mecánica celeste puede predecir eclipses solares, hasta el segundo, años en el futuro. Realismo! instrumentalismo Los modelos clásicos se prestan a una interpretación realista; Por ejemplo, la mayoría de la gente acepta que los electrones son cosas reales que existen. Instrumentalismo es la opinión de que los modelos pueden ser útiles incluso si las entidades que postulan no existe. George Box escribió lo que podría ser el lema del instrumentalismo: “Todos los modelos están equivocados, pero algunos son útiles”. Reduccionismo! holismo El reduccionismo es la opinión de que el comportamiento de un sistema puede ser explicado entendiendo sus componentes. Por ejemplo, la tabla periódica de la elementos es un triunfo del reduccionismo, porque explica el comportamiento químico de elementos con un modelo simple de los electrones en un átomo. El holismo es la vista que algunos fenómenos que aparecen a nivel del sistema no existen a nivel de componentes, y no se pueden explicar en términos de nivel de componente. Volvemos a los modelos explicativos en el Capítulo 5, el instrumentalismo en el Capítulo 7 y el holismo. en el Capítulo 9.
H.3 Un nuevo tipo de Ingenieria
He estado hablando de sistemas complejos en el contexto de la ciencia, pero la complejidad también es causa y efecto de los cambios en la ingeniería y la organización de los sistemas sociales: Centralizado! Los sistemas centralizados descentralizados son conceptualmente simples y más fáciles de analizar, pero los sistemas descentralizados pueden ser más robustos. Por ejemplo, en el mundo Los clientes de Wide Web envían solicitudes a servidores centralizados; si los servidores están caídos, el El servicio no está disponible. En las redes punto a punto, cada nodo es tanto un cliente como un servidor. Para eliminar el servicio, debe eliminar todos los nodos. Aislamiento ! interacción En ingeniería clásica, se gestiona la complejidad de sistemas grandes aislando componentes y minimizando las interacciones. Esto sigue siendo un importante principio de ingeniería; sin embargo, la disponibilidad de computación barata lo hace cada vez más factible diseñar sistemas con interacciones complejas entre componentes. Uno a muchos ! muchos a muchos En muchos sistemas de comunicación, los servicios de difusión son siendo aumentado, y algunas veces reemplazado, por servicios que permiten a los usuarios comunicarse entre ellos y crear, compartir y modificar contenido. De arriba hacia abajo ! ascendente En los sistemas sociales, políticos y económicos, muchas actividades que normalmente estaría centralmente organizado ahora operan como movimientos de base. Incluso ejércitos, que son el ejemplo canónico de la estructura jerárquica, se están moviendo hacia mando y control delegado. Análisis! computación En ingeniería clásica, el espacio de diseños factibles es limitado por nuestra capacidad de análisis. Por ejemplo, diseñar la Torre Eiffel fue posible porque Gustave Eiffel desarrolló nuevas técnicas analíticas, en particular para tratar con carga de viento. Ahora las herramientas para el diseño y análisis asistidos por computadora lo hacen posible para construir casi cualquier cosa que se pueda imaginar. Museo Guggenheim de Frank Gehry Bilbao es mi ejemplo favorito.
Diseño ! La ingeniería de búsqueda a veces se describe como una búsqueda de soluciones en un paisaje de posibles diseños. Cada vez más, el proceso de búsqueda puede ser automatizado. Por ejemplo, Los algoritmos genéticos exploran grandes espacios de diseño y descubren soluciones humanas Los ingenieros no se lo imaginan (ni les gusta) El último algoritmo genético, evolución, notoriamente genera diseños que violan las reglas de la ingeniería humana.
H.4 Una nueva manera de pensar
Estamos avanzando más lejos ahora, pero los cambios que estoy postulando en los criterios científicos los modelos están relacionados con los desarrollos del siglo XX en lógica y epistemología. La lógica aristotélica! lógica de muchos valores En la lógica tradicional, cualquier proposición es verdadera o falso. Este sistema se presta a pruebas similares a las matemáticas, pero falla (de manera dramática) por Muchas aplicaciones del mundo real. Las alternativas incluyen lógica de muchos valores, lógica difusa, y otros sistemas diseñados para manejar la indeterminación, la vaguedad y la incertidumbre. Bart Kosko analiza algunos de estos sistemas en Fuzzy Thinking. ¡Probabilidad frecuente! Bayesianismo La probabilidad bayesiana ha existido durante siglos, pero no fue ampliamente utilizado hasta hace poco, facilitado por la disponibilidad de barato cómputo y la aceptación renuente de la subjetividad en afirmaciones probabilísticas. Sharon Bertsch McGrayne presenta esta historia en La teoría que no moriría. Objetivo! La Ilustración subjetiva, y el modernismo filosófico, se basan en creencia en la verdad objetiva; es decir, verdades que son independientes de las personas que sostienen ellos. Desarrollos del siglo XX, incluida la mecánica cuántica, la incompletitud de Gödel Teorema, y el estudio de Kuhn de la historia de la ciencia llamó la atención sobre subjetividad aparentemente inevitable en incluso “ciencias duras” y matemáticas. Rebecca Goldstein presenta el contexto histórico de la prueba de Gödel en Incompleteness.
Ley física! teoría! modelo Algunas personas distinguen entre leyes, teorías y modelos, pero creo que son lo mismo. Es probable que las personas que usan la “ley” cree que es objetivamente cierto e inmutable; las personas que usan la “teoría” conceden que está sujeto a revisión; y “modelo” admite que se basa en la simplificación y aproximación. Algunos conceptos que se llaman “leyes físicas” son realmente definiciones; otros son, en efecto, la afirmación de que un modelo predice o explica el comportamiento de un sistema particularmente bien. Volvemos a la naturaleza de los modelos físicos en las Secciones 5.7 y 9.5. El determinismo! indeterminismo El determinismo es la opinión de que todos los eventos son causados, inevitablemente, por eventos anteriores. Las formas de indeterminismo incluyen aleatoriedad, probabilidad causalidad e incertidumbre fundamental e indeterminación. Volvemos a esto tema en la Sección 6.6 y 10.7
Estas tendencias no son universales o completas, pero el centro de opinión está cambiando a lo largo de estas hachas. Como evidencia, considere la reacción a La estructura de las revoluciones científicas de Thomas Kuhn, que fue vilipendiado cuando se publicó y ahora se considera casi indiscutible. Estas tendencias son causa y efecto de la ciencia de la complejidad. Por ejemplo, altamente abstraído los modelos son más aceptables ahora debido a la expectativa disminuida de que hay debe ser el modelo correcto único para cada sistema. Por el contrario, desarrollos en complejos Los sistemas desafían el determinismo y el concepto relacionado de la ley física. Este capítulo es una descripción general de los temas que aparecen en el libro, pero no todos lo harán sentido antes de ver los ejemplos. Cuando llegue al final del libro, puede encontrarlo útil para leer este capítulo nuevamente.