La Edad media termina históricamente en el año1453 con la
caída de Constantinopla por parte de los otomanes, dando paso a la etapa
conocida como Renacimiento, la cual se destacó por la actividad mercantil,
industrial, artística, arquitectónica, intelectual y científica, entre otras.
En esta época surge una nueva relación del hombre con la naturaleza, que va
unida a una concepción ideal y realista de la ciencia. La matemática se va a convertir
en la principal ayuda de un arte y una sociedad que se preocupan incesantemente
en fundamentar racionalmente su ideal de belleza. A partir de esta etapa con el
avance en las matemáticas y la filosofía, se empieza a dar una explicación
coherente a muchos fenómenos que no seguían un patrón determinístico, sino
aleatorio. Es el caso de todos los fenómenos relativos a la probabilidad de los
sucesos, concretados en este tiempo fundamentalmente en los juegos de azar.
En este periodo del Renacimiento es cuando empiezan a
surgir de manera más seria inquietudes entorno a contabilizar el número de
posibles resultados de un dado lanzado varias veces, o problemas más prácticos
sobre cómo repartir las ganancias de los jugadores cuando el juego se
interrumpe antes de finalizar. Como vemos estas inquietudes surgían más como
intentos de resolver problemas “cotidianos” con el fin de ser justos en las
apuestas y repartos o incluso de conocer las respuestas para obtener ventajas y
en consecuencia mayores ganancias respecto a otros jugadores y mucho menos de
inquietudes matemáticas verdaderas. De hecho la idea de modelizar el azar
mediante las matemáticas aún no estaba plenamente presente en los intelectuales
de la época.
Pacioli, Cardano y Tartaglia:
Uno de los primeros problemas dedicados a contabilizar el
número de posibles resultados al lanzar un dado varias veces podemos
encontrarlo aún en la Edad Media, en el poema De Vetula de Richard de Fournival
(1200-1250) donde afirma correctamente que si se lanzan tres dados hay 216
combinaciones posibles y calcula acertadamente los diferentes valores para la
suma de los tres dados. Aunque ahora puede parecer una cuestión trivial, en
aquella época no lo era, y otros autores se equivocaron al intentar resolverla,
generalmente porque no tenían en cuenta las posibles permutaciones de una misma
combinación. Pero el problema más importante relativo a los juegos de azar era
el conocido como “problema del reparto de apuestas” que distribuía las
ganancias entre jugadores cuando la partida se interrumpía antes de finalizar.
Este problema fue abordado por Luca Pacioli (1445-1517)
quien en 1487 propuso estos dos problemas particulares: un juego en el que el
premio es de 22 ducados que consiste en alcanzar 60 puntos se interrumpe cuando
un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un
premio de 6 ducados lanzan flechas hasta que uno de ellos haga 6 dianas, siendo
interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 y el
tercero 2. ¿Cómo deben repartirse los premios entre los contendientes? Pacioli
propuso que el premio debería ser repartido en función de las victorias
obtenidas anteriormente: así, el premio del primer problema se dividía en
60×5/8 ducados para el primer equipo y en 3 60×3/8 para el segundo; para el
problema de los arqueros, el premio se dividía en la proporción 4/9, 3/9 y 2/9.
Como más tarde se pondría de manifiesto, esta solución obtenida por Pacioli es
incorrecta.
Fue Girolamo Cardano (1501-1576) quien escribió la
primera obra importante relacionada con el cálculo de probabilidades en los
juegos de azar. Fue en 1565 y se llamaba Libro de los juegos de azar. Además
Cardano se había ocupado anteriormente del problema del reparto de apuestas y
en 1539 llegó a la conclusión de que la solución de Pacioli era incorrecta
porque al considerar tan sólo el número de juegos ganados por cada equipo, no
contaba cuántos juegos debían ganar para hacerse con el premio. Cardano propuso
como solución del problema que si n es el número de juegos totales y a y b los
juegos ganados por cada equipo, el premio debía repartirse de la siguiente
manera: [1+2+…+(n-b)]: [1+2+…(n-a)]. Esta solución es, en general, incorrecta y
sólo da resultados válidos en casos particulares.
Niccolo Tartaglia (1499–1557), también intentó resolver
este problema y en 1556 publicó un libro en el que descartaba la solución dada
por Pacioli y daba su propio solución: si un equipo ha ganado a puntos y el
otro b, se juega a n puntos y el premio total es P, las ganancias deberían
repartirse de la forma: (P/2)±P[(a-b)/n] siendo la cantidad mayor para el
equipo que tenga más victorias. Sin embargo, Tartaglia fue consciente de que su
solución no era la correcta y en su libro dejaba claro que era buena para
impartir justicia y equilibrio a un reparto, pero no era exacta desde el punto
de vista matemático. Además de estos tres nombres importantes, entre los
precursores de la probabilidad destacó también un hombre mucho más conocido en
otros campos de las matemáticas y la física como fue Galileo Galilei, que
durante su vida también resolvió problemas sobre dados, hasta tal punto que
escribió un libro llamado Sobre la puntuación en tiradas de dados. Sin embargo,
la mayor aportación de Galileo a los inicios de la probabilidad fue la
invención de su teoría de la medida de errores. Clasificó los errores en dos
tipos: “sistemáticos” y “aleatorios”, clasificación que se mantiene aún en la
actualidad y estableció cuidadosamente las propiedades de los errores
aleatorios. Con esto contribuyó sin saberlo a la creación de ramas
fundamentales de la estadística y la probabilidad posterior.
NACIMIENTO Y EVOLUCIÓN DE LA TEORIA DE LA PROBABILIDAD
El problema del Caballero de Meré: Nacimiento de la
probabilidad Cierto día del año 1654, Blaise Pascal (1623 - 1662) matemático
francés, hacía un viaje en compañía de un jugador más o menos profesional
conocido como el caballero de Meré, quien era una persona apasionada por todo
lo relacionado con el juego de los dados y las cartas, siendo además un hombre
noble e ilustrado. Este caballero creía que había encontrado una
"falsedad" en los números al analizar el juego de los dados,
observando que el comportamiento de los dados era diferente cuando se utilizaba
un dado que cuando se empleaban dos dados. La "falsedad" partía simplemente
de una comparación errónea entre las probabilidades de sacar un seis con un
solo dado o de sacar un seis con dos dados. Para el caballero debía existir una
relación proporcional entre el número de jugadas necesarias para conseguir el
efecto deseado en uno y otro caso.
El problema estaba en que el citado caballero no tuvo en
cuenta que en el segundo caso estaba analizando una probabilidad compuesta en
donde las distintas probabilidades se deben calcular multiplicativamente.
Este
y otros problemas planteados por el caballero a Pascal sobre cuestiones
relacionadas con diferentes juegos de azar, dieron origen a una correspondencia
entre el propio Pascal y algunos de sus amigos matemáticos, sobre todo con
Pierre de Fermat (1601-1665) de Toulouse, abogado de profesión, pero gran
amante de las matemáticas. Esta correspondencia constituye el origen de la
teoria moderna de la probabilidad. En una carta de Pascal a Fermat, en la que
narraba la anécdota anteriormente mencionada, concluía que "el caballero
de Meré tiene mucho talento, pero no es geómetra; ésto es, como sabéis un gran
defecto" (carta del 29 de julio de 1654). Otro de los problemas famosos
planteados por el caballero a Pascal fue resuelto por éste y Fermat tras el
carteo de manera independiente, llegando ambos a la misma solución : En una
partida de dados intervienen dos jugadores y apuestan 32 doblones de oro cada
uno, eligiendo un número diferente, gana el juego el primero que obtenga tres
veces el número que eligió.
Después de un rato de juego, el número elegido por el
primer apostador ha salido dos veces mientras el otro jugador sólo una vez ha
acertado, en este instante la partida debe suspenderse. ¿Cómo dividir los 64
doblones de oro apostados? ¿en qué proporción ha de ser compensado cada jugador?.
En la correspondencia que siguió a este problema, tanto Pascal como Fermat
estuvieron de acuerdo en que el primer jugador tiene derecho a 48 doblones de
oro. Veamos también el último de los problemas históricos ( al ser su solución
parte del inicio de la probabilidad actual) que propuso Meré y resolvieron
Pascal y Fermat: El juego consistía en lanzar 24 veces un par de dados y el
problema era decidir si es lo mismo apostar a favor o en contra de la aparición
de por lo menos un seis doble. Solución: A= {No sacar un seis doble en una
tirada de dos dados} , P(A)=35/36 P(A y A y A………24 veces….y A)= 24 ( )36/35
Este número vale 0´508596121 y por tanto la probabilidad del suceso contrario
será 1- P(A y A….24 veces…y A)= 1- 0´508596121 = 0´491 5 Luego es más probable
obtener una vez un seis doble en 24 tiradas que obtenerlo al menos una vez.
En cambio para 25 tiradas cambian las cosas pues. Pascal
y Fermat resolvieron este problema y otros muchos y fueron los que empezaron a
formalizar la teoría de las probabilidades, probando el desacuerdo con el
caballero de Meré, este se debía a que era erróneo el cálculo que había
efectuado, ya que se equivocó en considerar equiprobables sucesos que no lo
eran, y sólo cuando los casos posibles son equiprobables tiene sentido aplicar
la definición dada por Meré de probabilidad. Sin embargo, Pascal erró al
intentar extender algunos de los resultados de los problemas del caballero al
caso en el que hubiera tres o más jugadores. Ni Pascal ni Fermat expusieron sus
resultados por escrito y fue el físico-matemático holandés Christian Huygens
(1629-1695) quien en 1657 publicó un breve tratado titulado ”De Ratiocinnis in
ludo aleae” (sobre los razonamientos relativos a los juegos de dados) inspirado
en la correspondencia sostenida entre los dos creadores de la teoría de la
probabilidad. Además Huygens extendió algunos resultados de Pascal y aclaró
varios problemas para tres o más jugadores. En 1665, Pascal publicaba Tratado
sobre el triángulo aritmético, la más importante contribución realizada hasta
la fecha en el ámbito de la combinatoria. El libro se basa en la construcción y
propiedades combinatorias del posteriormente llamado triángulo de Pascal.
Con esta construcción Pascal demostró que el valor de la
k-ésima entrada de la n-ésima columna era el número combinatorio y enunció algunas
propiedades importantes del triángulo como que cada elemento es la suma de
todos los elementos de la columna anterior hasta la fila anterior o como que la
suma de todos los elementos de la fila n-ésima. Las aportaciones de Pascal se
extienden a muchos campos como el de la filosofía e incluso al de la teología,
intentando argumentar la existencia de Dios en términos probabilísticas y
gananciales ( probabilísticamente es mejor creer que no creer, es decir, es
mejor actuar como si existiera, por si acaso existe). 6 Primeras definiciones y
teoremas básicos: El primero en dar la definición clásica de probabilidad fue
Jacob Bernoulli (1654– 1705), matemático suizo que trabajó en la universidad de
Basilea en 1687, en su obra”Ars conjectandi” (El arte de la conjetura) que fue
publicada algunos años después de la muerte del autor. En esta obra encontramos
entre otras cosas la importante proposición conocida como el Teorema de
Bernoulli mediante el cual la teoría de la probabilidad fue elevada por primera
vez del nivel elemental de conjunto de soluciones de problemas particulares a
un resultado de importancia general.
Bernoulli siempre detacó la importancia de que los
fenómenos aleatorios dejaran de enfocarse como casos particulares y se
intentara ver los conceptos generales que habías detrás de ellos, sólo así se
avanzaría y profundizaría en el entendimiento de esta materia. Más adelante, el
matemático francés exiliado en Inglaterra Abraham De Moivre (1667–1754) aceptó
la definición dada por Bernoulli y la reformuló en términos más modernos para
la época: «una fracción en la que el numerador es igual al número de
apariciones del suceso y el denominador es igual al número total de casos en
los que es suceso pueda o no pueda ocurrir. Tal fracción expresa la
probabilidad de que ocurra el suceso». La definición clásica de la
probabilidad, en su forma actual, está basada en el concepto de
equiprobabilidad de los resultados, basado a su vez en la simetría. Se supone
que un experimento se puede descomponer en n sucesos equiprobables y mutuamente
excluyentes ,…., llamados sucesos básicos o ‘elementales’.
Así, la probabilidad de suceso A es el número del
intervalo [0,1] que expresa el cociente entre los m sucesos elementales que
componen A y el número total n de posibles sucesos elementales. La traba
fundamental que encuentra esta interpretación de la probabilidad es la
dificultad de descomponer un suceso en sucesos elementales equiprobables; lo
que es fácil para problemas sencillos ( cartas, dados, etc…), pero es de gran
dificultad en problemas más complicados. B1 Bn Además otro de los
descubrimientos importantes de Bernoulli fue el saber obtener la probabilidad
de ocurrencia de un suceso sin necesidad de contar los casos favorables (bien
por omisión de datos o bien por la imposibilidad de contarlos). Para ello
inventó la probabilidad a posteriori, es decir: “mediante la observación
múltiple de los resultados de pruebas similares…” De esta manera, introdujo el
concepto de probabilidad ‘estadística’: asignar como probabilidad de un suceso
el resultado que se obtendría si el proceso se repitiera en condiciones
similares un número grande de veces. Sin embargo, estas condiciones no eran muy
concretas y con ellas no se podía dar lugar a una definición seria y rigurosa
de todos los conceptos q manejaba Bernoulli. En primer lugar, se habla de un
‘número grande’ de veces, pero no se da ninguna indicación sobre cuál es ese
número o lo suficientemente grande que debe ser, no se especifica tampoco que
significa condiciones similares y tampoco se establece cuál es el error
admitido respecto al resultado teórico.
Precisamente, fueron la necesidad de precisar con
exactitud qué se entiende por un ‘número grande’ de repeticiones y de calcular
el error del resultado obtenido respecto del resultado teórico, lo que llevaron
a Jacob Bernoulli a idear, en su forma más intuitiva y básica, la Ley de los
Grandes Números. 7 A continuación expondremos los tres teoremas más importantes
de la probabilidad clásica. Estos teoremas los idearon Bernoulli (Teorema de la
suma, formalizado por Bayes) , De Moivre (Teorema de la multiplicación) y Bayes
(Teorema de la probabilidad condicionada), aunque todos los conceptos que se
manejan en estos teoremas aparecen ya de forma implícita y muy frecuente en los
diferentes trabajos de Pascal, Fermat y Huygens. -Teorema de la Suma: Pascal
dio a entender implícitamente que sabía cómo calcular los casos favorables de
un suceso
A si conocía los
casos favorables de unos Aj disjuntos cuya unión es A (es decir, si los Aj son
una partición de A). Jacob Bernoulli también fue consciente de ello, y fue más
lejos al darse cuenta de que la probabilidad de la unión no es la suma de las
probabilidades si los sucesos no son disjuntos, aunque no supo dar la razón. No
fue ninguno de ellos quien formuló finalmente el teorema de la suma de la
probabilidades, sino el reverendo inglés Thomas Bayes (1702–1761), cuyo trabajo
fue leído póstumamente, en 1763. En esta obra, Bayes da la primera definición
rigurosa y explícita de sucesos disjuntos y enunció la fórmula ahora conocida:
P(A ∪ B) = P (A) + P(B)− P(A∩B)
-Teorema de la Multiplicación: Al igual que el teorema anterior, el teorema de
la multiplicación de probabilidades era conocido por casi todos los matemáticos
anteriores a través de resultados particulares. No obstante, fue Abraham De
Moivre el primero que lo enunció rigurosamente. De Moivre fue un hugonote
francés que debido a su religión se ausentó de Francia y vivió como refugiado
en Inglaterra.
Allí publicó su obra The doctrine of chances (Doctrina de las
Probabilidades) en 1711.
De Moivre presentó el importante concepto de
independencia de sucesos aleatorios; así, escribió: “Diremos que dos sucesos
son independientes, si el primero de ellos no tiene ninguna relación con el
otro” y procedió a definir los sucesos dependientes: “Dos sucesos son
dependientes si están ligados el uno al otro y la probabilidad de ocurrencia de
uno de ellos influye en la probabilidad de ocurrencia del otro”. Una vez hecho
esto, De Moivre lo aplicó al cálculo de probabilidades: «la probabilidad de
ocurrencia de dos sucesos dependientes es igual a la probabilidad de ocurrencia
de uno de ellos dividida por la probabilidad de que el otro ocurra si el
primero ya ha ocurrido. Esta regla puede generalizarse para varios sucesos ».
El caso de varios sucesos lo describía así: “Se necesita elegir uno de ellos
como el primero, otro como el segundo, y así. Luego, la ocurrencia del primero
debe considerarse independiente de todas las demás; el segundo debe considerarse
con la condición de que el primero ha ocurrido: el tercero con la condición de
que tanto el primero como el segundo han ocurrido, y así. De aquí, la
probabilidad de las ocurrencias de todos los sucesos es igual al producto de
todas las probabilidades” La obra de De Moivre contó con tres ediciones, lo que
da una idea del gran interés que despertó esta materia en aquella época.
En las dos últimas ediciones de la obra el autor también
da las primeras indicaciones acerca de la distribución normal de las 8
probabilidades, que más tarde desarrollaría un papel sumamente importante en el
desarrollo la teoría de la probabilidad. -Teorema de Bayes: El trabajo de De
Moivre fue seguido y difundido en la mayoría de los círculos científicos
importantes de Europa y fue el británico Thomas Bayes, probablemente alumno de
De Moivre en Londres, quien extendió el trabajo del francés y expresó la
probabilidad condicional en función de la probabilidad de la intersección:
P(A/B)= [P(B/A) P(A)] / P(B) Además, el teorema que lleva su nombre no es sólo
suyo, ya que Bayes no estaba en condiciones de formular con probabilidades
totales.
Fue Pierre–Simon Laplace (1749–1827) quien mejoró y desarrolló
la mayor parte del teorema de Bayes en su Théorie analytique des probabilités
(Experiencia en la Filosofía de la Teoría de la Probabilidad) en 1812. Sea A un
suceso que ocurre en conjunción con uno y sólo uno de los n sucesos disjuntos .
Si se sabe que el suceso A ha ocurrido, ¿cuál es la probabilidad de que el
suceso también? Laplace respondió de la siguiente manera: “La probabilidad de
existencia de una de esas causas es igual a una fracción con un numerador igual
a la probabilidad del suceso que se sigue de esta causa y un denominador que es
la suma de las probabilidades relativas a todas las posibles causas. Si estas
diferentes causas a priori no son equiprobables, entonces en lugar de tomar la
probabilidad del suceso que sigue a cada causa, se toma el producto de esta
probabilidad por tantas veces la probabilidad de la causa”. Aparte de esta
revisión importantísima del teorema de Bayes, Laplace incluye en su obra una
exposición sistemática muy completa de la teoría matemática de los juegos de
azar con aplicaciones a una gran variedad de cuestiones científicas y
prácticas. En su libro citado anteriormente dedica una extensa introducción
escrita para los lectores no matemáticos a explicar sus puntos de vista
generales sobre todas las cuestiones y apreciaciones de los resultados
alcanzados con la ayuda de la teoría de la probabilidad. El estudio de esta introducción
es muy famoso y se recomienda a todos los interesados en la historia de la
ciencia.
No hay comentarios.:
Publicar un comentario