4.3 El sentido estadístico-probabilista de la actualidad
Hacking (Hacking and Bixio 1995) describe la concepcion estadístico-probabilística de la realidad como un nuevo “estilo de razonamiento” (Piovani 2007). Hacking también afirma que el evento conceptual más decisivo del siglo veinte fue el descubrimiento de que el mundo no es determinístico. Otros prefieren recurrir al concepto de paradigma, que, desde su introducción en los años sesenta, ha pasado a ocupar un lugar fundamental, cuando se trata de entender que las ideas científicas compartidas en un momento determinado —y dadas por descontadas por las mayor parte de los científicos— son en realidad complejas construcciones sociales.
Muy habitualmente se atribuye la creación de las herramientas matemático-probabilísticas al interés de obtener mejores apuestas en los juegos de azar. Muchos textos de estadística y probabilidades comienzan hablando que los juegos de azar existen desde tiempos ancestrales, y de que se conocen ejemplos de pueblos que utilizaban el hueso astrágalo de animales para realizar una especie de antecedente del dado. Es muy probable, por lo tanto, que cualquier estadístico sepa pronunciar bien astrágalo
por raro que pueda parecer. A continuación, se habla de que Pascal y Fermat fueron básicamente los precursores de la teoría de la probabilidad, al intentar dar respuesta a las preguntas de un noble y conocido jugador francés, Antoine Gombaud, llamado Chevalier de Méré
. Aunque este hecho es rigurosamente cierto, sería incorrecto decir que el desarrollo del cálculo de probabilidades se motivó o surgió paralelamente a la creación de juegos de azar y/o de apuestas. En realidad, la teoría de la probabilidad nació a partir de la consideración de problemas científicos concretos, uno de ellos el de la medición en astronomía. Este problema favoreció el perfeccionamiento de los instrumentos conceptuales y heurísticos en los que se funda la teoría de los errores, que se “desarrolló en los siglos XVII y XVIII como un apéndice […] de la astronomía” (MacKenzie 1981).
Debido a la lógica complejidad de las mediciones en astronomía, y considerando las herramientas disponibles en los siglos XVI-XVII, ls astrónomos “debieron reconocer que era imposible medir algo con completa exactitud”. Sin embargo, el investigador podía aprovechar la posibilidad de repetir sus mediciones a los efectos de acrecentar la precisión. El objetivo de la teoría de los errores era justamente este: reducir al máximo posible el error en una cantidad dada, y dar una estimación confiable de su valor. Las aplicaciones de la teoría de los errores en astronomía se basaban en dos instrumentos de excepcional importancia, todavía hoy fundamentales en la investigación científica: la distribución normal y el método de los mínimos cuadrados.
En 1733, Abraham De Moivre (1667-1754) introdujo en la teoría de las probabilidades la función de la curva normal, entonces conocida como ley de los errores. Por primera vez era posible aplicar la teoría de las probabilidades a un número indefinidamente grande de sucesos independientes (Porter 1986).
References
Hacking, Ian, and Alberto L Bixio. 1995. La Domesticación Del Azar: La Erosión Del Determinismo Y El Nacimiento de Las Ciencias Del Caos. Gedisa Editorial.
MacKenzie, Donald A. 1981. Statistics in Britain: 1865-1930; the Social Construction of Scientific Knowledge. Edinburgh University Press.
Piovani, Juan Ignacio. 2007. “Los orígenes de La Estadística: De Investigación Socio-Política Empírica a Conjunto de Técnicas Para El análisis de Datos.” Revista de Ciencia Política Y Relaciones Internacionales 1 (1): 25–44.
Porter, Theodore M. 1986. The Rise of Statistical Thinking, 1820-1900. Princeton University Press.