miércoles, 18 de noviembre de 2015

PROBABILIDAD ESTADISTICA

La Edad media termina históricamente en el año1453 con la caída de Constantinopla por parte de los otomanes, dando paso a la etapa conocida como Renacimiento, la cual se destacó por la actividad mercantil, industrial, artística, arquitectónica, intelectual y científica, entre otras. En esta época surge una nueva relación del hombre con la naturaleza, que va unida a una concepción ideal y realista de la ciencia. La matemática se va a convertir en la principal ayuda de un arte y una sociedad que se preocupan incesantemente en fundamentar racionalmente su ideal de belleza. A partir de esta etapa con el avance en las matemáticas y la filosofía, se empieza a dar una explicación coherente a muchos fenómenos que no seguían un patrón determinístico, sino aleatorio. Es el caso de todos los fenómenos relativos a la probabilidad de los sucesos, concretados en este tiempo fundamentalmente en los juegos de azar.
En este periodo del Renacimiento es cuando empiezan a surgir de manera más seria inquietudes entorno a contabilizar el número de posibles resultados de un dado lanzado varias veces, o problemas más prácticos sobre cómo repartir las ganancias de los jugadores cuando el juego se interrumpe antes de finalizar. Como vemos estas inquietudes surgían más como intentos de resolver problemas “cotidianos” con el fin de ser justos en las apuestas y repartos o incluso de conocer las respuestas para obtener ventajas y en consecuencia mayores ganancias respecto a otros jugadores y mucho menos de inquietudes matemáticas verdaderas. De hecho la idea de modelizar el azar mediante las matemáticas aún no estaba plenamente presente en los intelectuales de la época.

Pacioli, Cardano y Tartaglia:

Uno de los primeros problemas dedicados a contabilizar el número de posibles resultados al lanzar un dado varias veces podemos encontrarlo aún en la Edad Media, en el poema De Vetula de Richard de Fournival (1200-1250) donde afirma correctamente que si se lanzan tres dados hay 216 combinaciones posibles y calcula acertadamente los diferentes valores para la suma de los tres dados. Aunque ahora puede parecer una cuestión trivial, en aquella época no lo era, y otros autores se equivocaron al intentar resolverla, generalmente porque no tenían en cuenta las posibles permutaciones de una misma combinación. Pero el problema más importante relativo a los juegos de azar era el conocido como “problema del reparto de apuestas” que distribuía las ganancias entre jugadores cuando la partida se interrumpía antes de finalizar.

Este problema fue abordado por Luca Pacioli (1445-1517) quien en 1487 propuso estos dos problemas particulares: un juego en el que el premio es de 22 ducados que consiste en alcanzar 60 puntos se interrumpe cuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un premio de 6 ducados lanzan flechas hasta que uno de ellos haga 6 dianas, siendo interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 y el tercero 2. ¿Cómo deben repartirse los premios entre los contendientes? Pacioli propuso que el premio debería ser repartido en función de las victorias obtenidas anteriormente: así, el premio del primer problema se dividía en 60×5/8 ducados para el primer equipo y en 3 60×3/8 para el segundo; para el problema de los arqueros, el premio se dividía en la proporción 4/9, 3/9 y 2/9. Como más tarde se pondría de manifiesto, esta solución obtenida por Pacioli es incorrecta.

Fue Girolamo Cardano (1501-1576) quien escribió la primera obra importante relacionada con el cálculo de probabilidades en los juegos de azar. Fue en 1565 y se llamaba Libro de los juegos de azar. Además Cardano se había ocupado anteriormente del problema del reparto de apuestas y en 1539 llegó a la conclusión de que la solución de Pacioli era incorrecta porque al considerar tan sólo el número de juegos ganados por cada equipo, no contaba cuántos juegos debían ganar para hacerse con el premio. Cardano propuso como solución del problema que si n es el número de juegos totales y a y b los juegos ganados por cada equipo, el premio debía repartirse de la siguiente manera: [1+2+…+(n-b)]: [1+2+…(n-a)]. Esta solución es, en general, incorrecta y sólo da resultados válidos en casos particulares.

Niccolo Tartaglia (1499–1557), también intentó resolver este problema y en 1556 publicó un libro en el que descartaba la solución dada por Pacioli y daba su propio solución: si un equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio total es P, las ganancias deberían repartirse de la forma: (P/2)±P[(a-b)/n] siendo la cantidad mayor para el equipo que tenga más victorias. Sin embargo, Tartaglia fue consciente de que su solución no era la correcta y en su libro dejaba claro que era buena para impartir justicia y equilibrio a un reparto, pero no era exacta desde el punto de vista matemático. Además de estos tres nombres importantes, entre los precursores de la probabilidad destacó también un hombre mucho más conocido en otros campos de las matemáticas y la física como fue Galileo Galilei, que durante su vida también resolvió problemas sobre dados, hasta tal punto que escribió un libro llamado Sobre la puntuación en tiradas de dados. Sin embargo, la mayor aportación de Galileo a los inicios de la probabilidad fue la invención de su teoría de la medida de errores. Clasificó los errores en dos tipos: “sistemáticos” y “aleatorios”, clasificación que se mantiene aún en la actualidad y estableció cuidadosamente las propiedades de los errores aleatorios. Con esto contribuyó sin saberlo a la creación de ramas fundamentales de la estadística y la probabilidad posterior.

NACIMIENTO Y EVOLUCIÓN DE LA TEORIA DE LA PROBABILIDAD

El problema del Caballero de Meré: Nacimiento de la probabilidad Cierto día del año 1654, Blaise Pascal (1623 - 1662) matemático francés, hacía un viaje en compañía de un jugador más o menos profesional conocido como el caballero de Meré, quien era una persona apasionada por todo lo relacionado con el juego de los dados y las cartas, siendo además un hombre noble e ilustrado. Este caballero creía que había encontrado una "falsedad" en los números al analizar el juego de los dados, observando que el comportamiento de los dados era diferente cuando se utilizaba un dado que cuando se empleaban dos dados. La "falsedad" partía simplemente de una comparación errónea entre las probabilidades de sacar un seis con un solo dado o de sacar un seis con dos dados. Para el caballero debía existir una relación proporcional entre el número de jugadas necesarias para conseguir el efecto deseado en uno y otro caso.

El problema estaba en que el citado caballero no tuvo en cuenta que en el segundo caso estaba analizando una probabilidad compuesta en donde las distintas probabilidades se deben calcular multiplicativamente. 
Este y otros problemas planteados por el caballero a Pascal sobre cuestiones relacionadas con diferentes juegos de azar, dieron origen a una correspondencia entre el propio Pascal y algunos de sus amigos matemáticos, sobre todo con Pierre de Fermat (1601-1665) de Toulouse, abogado de profesión, pero gran amante de las matemáticas. Esta correspondencia constituye el origen de la teoria moderna de la probabilidad. En una carta de Pascal a Fermat, en la que narraba la anécdota anteriormente mencionada, concluía que "el caballero de Meré tiene mucho talento, pero no es geómetra; ésto es, como sabéis un gran defecto" (carta del 29 de julio de 1654). Otro de los problemas famosos planteados por el caballero a Pascal fue resuelto por éste y Fermat tras el carteo de manera independiente, llegando ambos a la misma solución : En una partida de dados intervienen dos jugadores y apuestan 32 doblones de oro cada uno, eligiendo un número diferente, gana el juego el primero que obtenga tres veces el número que eligió.

Después de un rato de juego, el número elegido por el primer apostador ha salido dos veces mientras el otro jugador sólo una vez ha acertado, en este instante la partida debe suspenderse. ¿Cómo dividir los 64 doblones de oro apostados? ¿en qué proporción ha de ser compensado cada jugador?. En la correspondencia que siguió a este problema, tanto Pascal como Fermat estuvieron de acuerdo en que el primer jugador tiene derecho a 48 doblones de oro. Veamos también el último de los problemas históricos ( al ser su solución parte del inicio de la probabilidad actual) que propuso Meré y resolvieron Pascal y Fermat: El juego consistía en lanzar 24 veces un par de dados y el problema era decidir si es lo mismo apostar a favor o en contra de la aparición de por lo menos un seis doble. Solución: A= {No sacar un seis doble en una tirada de dos dados} , P(A)=35/36 P(A y A y A………24 veces….y A)= 24 ( )36/35 Este número vale 0´508596121 y por tanto la probabilidad del suceso contrario será 1- P(A y A….24 veces…y A)= 1- 0´508596121 = 0´491 5 Luego es más probable obtener una vez un seis doble en 24 tiradas que obtenerlo al menos una vez.

En cambio para 25 tiradas cambian las cosas pues. Pascal y Fermat resolvieron este problema y otros muchos y fueron los que empezaron a formalizar la teoría de las probabilidades, probando el desacuerdo con el caballero de Meré, este se debía a que era erróneo el cálculo que había efectuado, ya que se equivocó en considerar equiprobables sucesos que no lo eran, y sólo cuando los casos posibles son equiprobables tiene sentido aplicar la definición dada por Meré de probabilidad. Sin embargo, Pascal erró al intentar extender algunos de los resultados de los problemas del caballero al caso en el que hubiera tres o más jugadores. Ni Pascal ni Fermat expusieron sus resultados por escrito y fue el físico-matemático holandés Christian Huygens (1629-1695) quien en 1657 publicó un breve tratado titulado ”De Ratiocinnis in ludo aleae” (sobre los razonamientos relativos a los juegos de dados) inspirado en la correspondencia sostenida entre los dos creadores de la teoría de la probabilidad. Además Huygens extendió algunos resultados de Pascal y aclaró varios problemas para tres o más jugadores. En 1665, Pascal publicaba Tratado sobre el triángulo aritmético, la más importante contribución realizada hasta la fecha en el ámbito de la combinatoria. El libro se basa en la construcción y propiedades combinatorias del posteriormente llamado triángulo de Pascal.

Con esta construcción Pascal demostró que el valor de la k-ésima entrada de la n-ésima columna era el número combinatorio y enunció algunas propiedades importantes del triángulo como que cada elemento es la suma de todos los elementos de la columna anterior hasta la fila anterior o como que la suma de todos los elementos de la fila n-ésima. Las aportaciones de Pascal se extienden a muchos campos como el de la filosofía e incluso al de la teología, intentando argumentar la existencia de Dios en términos probabilísticas y gananciales ( probabilísticamente es mejor creer que no creer, es decir, es mejor actuar como si existiera, por si acaso existe). 6 Primeras definiciones y teoremas básicos: El primero en dar la definición clásica de probabilidad fue Jacob Bernoulli (1654– 1705), matemático suizo que trabajó en la universidad de Basilea en 1687, en su obra”Ars conjectandi” (El arte de la conjetura) que fue publicada algunos años después de la muerte del autor. En esta obra encontramos entre otras cosas la importante proposición conocida como el Teorema de Bernoulli mediante el cual la teoría de la probabilidad fue elevada por primera vez del nivel elemental de conjunto de soluciones de problemas particulares a un resultado de importancia general.
Bernoulli siempre detacó la importancia de que los fenómenos aleatorios dejaran de enfocarse como casos particulares y se intentara ver los conceptos generales que habías detrás de ellos, sólo así se avanzaría y profundizaría en el entendimiento de esta materia. Más adelante, el matemático francés exiliado en Inglaterra Abraham De Moivre (1667–1754) aceptó la definición dada por Bernoulli y la reformuló en términos más modernos para la época: «una fracción en la que el numerador es igual al número de apariciones del suceso y el denominador es igual al número total de casos en los que es suceso pueda o no pueda ocurrir. Tal fracción expresa la probabilidad de que ocurra el suceso». La definición clásica de la probabilidad, en su forma actual, está basada en el concepto de equiprobabilidad de los resultados, basado a su vez en la simetría. Se supone que un experimento se puede descomponer en n sucesos equiprobables y mutuamente excluyentes ,…., llamados sucesos básicos o ‘elementales’.

Así, la probabilidad de suceso A es el número del intervalo [0,1] que expresa el cociente entre los m sucesos elementales que componen A y el número total n de posibles sucesos elementales. La traba fundamental que encuentra esta interpretación de la probabilidad es la dificultad de descomponer un suceso en sucesos elementales equiprobables; lo que es fácil para problemas sencillos ( cartas, dados, etc…), pero es de gran dificultad en problemas más complicados. B1 Bn Además otro de los descubrimientos importantes de Bernoulli fue el saber obtener la probabilidad de ocurrencia de un suceso sin necesidad de contar los casos favorables (bien por omisión de datos o bien por la imposibilidad de contarlos). Para ello inventó la probabilidad a posteriori, es decir: “mediante la observación múltiple de los resultados de pruebas similares…” De esta manera, introdujo el concepto de probabilidad ‘estadística’: asignar como probabilidad de un suceso el resultado que se obtendría si el proceso se repitiera en condiciones similares un número grande de veces. Sin embargo, estas condiciones no eran muy concretas y con ellas no se podía dar lugar a una definición seria y rigurosa de todos los conceptos q manejaba Bernoulli. En primer lugar, se habla de un ‘número grande’ de veces, pero no se da ninguna indicación sobre cuál es ese número o lo suficientemente grande que debe ser, no se especifica tampoco que significa condiciones similares y tampoco se establece cuál es el error admitido respecto al resultado teórico.

Precisamente, fueron la necesidad de precisar con exactitud qué se entiende por un ‘número grande’ de repeticiones y de calcular el error del resultado obtenido respecto del resultado teórico, lo que llevaron a Jacob Bernoulli a idear, en su forma más intuitiva y básica, la Ley de los Grandes Números. 7 A continuación expondremos los tres teoremas más importantes de la probabilidad clásica. Estos teoremas los idearon Bernoulli (Teorema de la suma, formalizado por Bayes) , De Moivre (Teorema de la multiplicación) y Bayes (Teorema de la probabilidad condicionada), aunque todos los conceptos que se manejan en estos teoremas aparecen ya de forma implícita y muy frecuente en los diferentes trabajos de Pascal, Fermat y Huygens. -Teorema de la Suma: Pascal dio a entender implícitamente que sabía cómo calcular los casos favorables de un suceso

A si conocía los casos favorables de unos Aj disjuntos cuya unión es A (es decir, si los Aj son una partición de A). Jacob Bernoulli también fue consciente de ello, y fue más lejos al darse cuenta de que la probabilidad de la unión no es la suma de las probabilidades si los sucesos no son disjuntos, aunque no supo dar la razón. No fue ninguno de ellos quien formuló finalmente el teorema de la suma de la probabilidades, sino el reverendo inglés Thomas Bayes (1702–1761), cuyo trabajo fue leído póstumamente, en 1763. En esta obra, Bayes da la primera definición rigurosa y explícita de sucesos disjuntos y enunció la fórmula ahora conocida: P(A B) = P (A) + P(B)− P(A∩B) -Teorema de la Multiplicación: Al igual que el teorema anterior, el teorema de la multiplicación de probabilidades era conocido por casi todos los matemáticos anteriores a través de resultados particulares. No obstante, fue Abraham De Moivre el primero que lo enunció rigurosamente. De Moivre fue un hugonote francés que debido a su religión se ausentó de Francia y vivió como refugiado en Inglaterra. 

Allí publicó su obra The doctrine of chances (Doctrina de las Probabilidades) en 1711.
De Moivre presentó el importante concepto de independencia de sucesos aleatorios; así, escribió: “Diremos que dos sucesos son independientes, si el primero de ellos no tiene ninguna relación con el otro” y procedió a definir los sucesos dependientes: “Dos sucesos son dependientes si están ligados el uno al otro y la probabilidad de ocurrencia de uno de ellos influye en la probabilidad de ocurrencia del otro”. Una vez hecho esto, De Moivre lo aplicó al cálculo de probabilidades: «la probabilidad de ocurrencia de dos sucesos dependientes es igual a la probabilidad de ocurrencia de uno de ellos dividida por la probabilidad de que el otro ocurra si el primero ya ha ocurrido. Esta regla puede generalizarse para varios sucesos ». El caso de varios sucesos lo describía así: “Se necesita elegir uno de ellos como el primero, otro como el segundo, y así. Luego, la ocurrencia del primero debe considerarse independiente de todas las demás; el segundo debe considerarse con la condición de que el primero ha ocurrido: el tercero con la condición de que tanto el primero como el segundo han ocurrido, y así. De aquí, la probabilidad de las ocurrencias de todos los sucesos es igual al producto de todas las probabilidades” La obra de De Moivre contó con tres ediciones, lo que da una idea del gran interés que despertó esta materia en aquella época.
En las dos últimas ediciones de la obra el autor también da las primeras indicaciones acerca de la distribución normal de las 8 probabilidades, que más tarde desarrollaría un papel sumamente importante en el desarrollo la teoría de la probabilidad. -Teorema de Bayes: El trabajo de De Moivre fue seguido y difundido en la mayoría de los círculos científicos importantes de Europa y fue el británico Thomas Bayes, probablemente alumno de De Moivre en Londres, quien extendió el trabajo del francés y expresó la probabilidad condicional en función de la probabilidad de la intersección: P(A/B)= [P(B/A) P(A)] / P(B) Además, el teorema que lleva su nombre no es sólo suyo, ya que Bayes no estaba en condiciones de formular con probabilidades totales.


Fue Pierre–Simon Laplace (1749–1827) quien mejoró y desarrolló la mayor parte del teorema de Bayes en su Théorie analytique des probabilités (Experiencia en la Filosofía de la Teoría de la Probabilidad) en 1812. Sea A un suceso que ocurre en conjunción con uno y sólo uno de los n sucesos disjuntos . Si se sabe que el suceso A ha ocurrido, ¿cuál es la probabilidad de que el suceso también? Laplace respondió de la siguiente manera: “La probabilidad de existencia de una de esas causas es igual a una fracción con un numerador igual a la probabilidad del suceso que se sigue de esta causa y un denominador que es la suma de las probabilidades relativas a todas las posibles causas. Si estas diferentes causas a priori no son equiprobables, entonces en lugar de tomar la probabilidad del suceso que sigue a cada causa, se toma el producto de esta probabilidad por tantas veces la probabilidad de la causa”. Aparte de esta revisión importantísima del teorema de Bayes, Laplace incluye en su obra una exposición sistemática muy completa de la teoría matemática de los juegos de azar con aplicaciones a una gran variedad de cuestiones científicas y prácticas. En su libro citado anteriormente dedica una extensa introducción escrita para los lectores no matemáticos a explicar sus puntos de vista generales sobre todas las cuestiones y apreciaciones de los resultados alcanzados con la ayuda de la teoría de la probabilidad. El estudio de esta introducción es muy famoso y se recomienda a todos los interesados en la historia de la ciencia.

No hay comentarios.:

Publicar un comentario