Probabilidad

De Wikipedia, la enciclopedia libre
Saltar a: navegación , búsqueda

Probabilidad se utiliza normalmente para describir la actitud de la mente hacia una proposición de cuya verdad no estamos seguros. [1] La propuesta de interés suele ser del tipo "¿Una específicas evento ocurre? " La actitud de la mente es de la forma "¿Cómo estamos ciertos de que el evento ocurra?" La certeza de que adoptemos puede ser descrita en términos de una medida numérica, y este número, entre 0 y 1, que llamamos probabilidad. [2] La mayor es la probabilidad de un evento, más seguros estamos de que el evento ocurra. Por lo tanto, la probabilidad en un sentido se aplica una medida de la verosimilitud de que un evento ocurra.

El concepto se ha dado un axioma matemático de derivación de la teoría de probabilidad , que se utiliza ampliamente en tales áreas de estudio como las matemáticas , estadística , finanzas , juegos de azar , la ciencia , la inteligencia artificial / aprendizaje de las máquinas y la filosofía , por ejemplo, sacar conclusiones sobre la probabilidad de los acontecimientos. Probabilidad se utiliza para describir los mecanismos subyacentes y las regularidades de los sistemas complejos .

Contenido

[ editar ] Interpretaciones

La probabilidad de la palabra no tiene un singular directa definición para su aplicación práctica. De hecho, hay varias categorías de interpretaciones de probabilidad, cuyos adherentes poseen diferentes (ya veces contradictorias) puntos de vista sobre la naturaleza fundamental de la probabilidad. Por ejemplo:

  1. Frequentists hablar de probabilidades sólo cuando se trata de experimentos que son al azar y bien definido . La probabilidad de un suceso aleatorio indica la frecuencia relativa de ocurrencia de los resultados de un experimento es, cuando se repite el experimento. Frequentists considerar la probabilidad de que la frecuencia relativa "en el largo plazo" de los resultados. [3]
  2. Subjetivistas asignar números por la probabilidad subjetiva, es decir, como un grado de creencia. [4]
  3. Bayesianos incluyen el conocimiento de expertos, así como datos experimentales para producir probabilidades. El conocimiento experto es representado por una distribución de probabilidad a priori. Los datos se incorpora en una función de verosimilitud. El producto de la anterior y la probabilidad, normalizada, se traduce en una distribución de probabilidad posterior, que incorpora toda la información conocida hasta la fecha. [5]

[ editar ] Etimología

La probabilidad de la palabra deriva del latín probabilitas, que también puede significar la probidad , una medida de la autoridad de un testigo en un caso legal en Europa , y, a menudo relacionada con el testimonio de la nobleza . En cierto sentido, esto difiere mucho del significado moderno de la probabilidad, que, por el contrario, es una medida del peso de la evidencia empírica , y se llega a partir de razonamiento inductivo y la inferencia estadística . [6] [7]

[ editar ] Historia

El estudio científico de la probabilidad es un desarrollo moderno. juegos de azar muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante milenios, pero las descripciones matemáticas exactas surgió mucho más tarde. Las razones son, por supuesto, por el lento desarrollo de las matemáticas de la probabilidad. Mientras que los juegos de azar proporcionó el impulso para el estudio matemático de la probabilidad, los problemas fundamentales siguen siendo oscurecido por las supersticiones de los jugadores. [8]

Según Richard Jeffrey, "Antes de mediados del siglo XVII, el término" probable "(América probabilis) significaba aprobable, y se aplicó en ese sentido, unívocamente, a la opinión ya la acción. Una acción u opinión probable era una como las personas sensatas emprenderían o mantener, según las circunstancias. " [9] Sin embargo, en contextos legales, especialmente, "probable" podría aplicarse también a las proposiciones para las que no era una buena prueba. [10]

Además del trabajo de primaria por Girolamo Cardano en el siglo 16, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) dio los primeros tratamientos conocidos científicos de la materia. Jakob Bernoulli Ars Conjectandi (póstuma, 1713) y Abraham de Moivre Doctrine of Chances (1718) trata el tema como una rama de las matemáticas. [11] Véase Ian Hacking es el surgimiento de la Probabilidad y James Franklin, La ciencia de la Conjetura de las historias de los primeros desarrollos de la misma concepto de probabilidad matemática.

La teoría de los errores se puede remontar de nuevo a Roger Cotes Opera Miscellanea (póstuma, 1722), pero una memoria preparada por Thomas Simpson en 1755 (impreso 1756) aplicó por primera vez la teoría a la discusión de los errores de observación. La reimpresión (1757) de esta memoria se establecen los axiomas que los errores positivos y negativos son igualmente probables, y que los límites asignables ciertos definir el rango de todos los errores. Simpson también analiza los errores continuos y describe una curva de probabilidad.

Pierre-Simon Laplace (1774) intentó por primera vez para deducir una regla para la combinación de observaciones desde los principios de la teoría de las probabilidades. Representó a la ley de la probabilidad de errores mediante una curva y = ? (x), x es un error e y su probabilidad, y establece tres propiedades de esta curva:

  1. Es simétrica en cuanto a la eje-;
  2. El eje x es una asíntota , la probabilidad de error \ Infty es 0;
  3. El área cerrada es 1, es tener la certeza de que existe un error.

También proporcionó, en 1781, una fórmula para la ley de la instalación de error (un término utilizado Lagrange en 1774), pero llevado a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio de la máxima del producto de las probabilidades de un sistema de de errores concurrentes.

Adrien-Marie Legendre (1805) desarrolló el método de mínimos cuadrados , y lo introdujo en su méthodes Nouvelles pour la determinación des orbites Cometes des (Nuevos métodos para la determinación de las órbitas de los cometas). En la ignorancia de la contribución de Legendre, un escritor irlandés-americano, Robert Adrian , editor de "The Analyst" (1808), primero dedujo la ley de facilidad del error,

\ Phi (x) = ce ^ {-h ^ 2 x ^ 2},

h es una constante en función de la precisión de la observación, y c un factor de escala garantizar que el área bajo la curva es igual a 1. Dio dos pruebas, siendo la segunda esencialmente la misma que John Herschel (1850). Gauss dio la primera prueba de que parece haber sido conocida en Europa (la tercera después de Adrain) en 1809. Otras pruebas estuvieron a cargo de Laplace (1810, 1812), Gauss (1823), de James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), WF Donkin (1844, 1856), y Morgan Crofton (1870) . Otros colaboradores fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). (1856) Peters fórmula para r, el error probable de una única observación, es bien conocida.

En los autores del siglo XIX sobre la teoría general incluye Laplace , Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson . Augustus De Morgan y Boole George mejorado la exposición de la teoría.

Andrey Markov introdujo el concepto de cadenas de Markov (1906), que desempeñó un papel importante en los procesos estocásticos teoría y sus aplicaciones. La moderna teoría de la probabilidad basada en la teoría de la medida ha sido desarrollado por Andrey Kolmogorov (1931).

En el lado geométrico (ver geometría integral ) contribuyen a The Times Educación fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Martin Artemis ).

[ editar ] Teoría

Al igual que otras teorías , la teoría de la probabilidad es una representación de conceptos probabilísticos en términos formales, es decir, en términos que puedan considerarse por separado de su significado. Estos términos formales son manipuladas por las reglas de las matemáticas y la lógica, y los resultados son interpretados o traducidos de nuevo en el dominio del problema.

Ha habido por lo menos dos intentos exitosos para la formalización de la probabilidad, a saber, el de Kolmogorov y la formulación de Cox formulación. En la formulación de Kolmogorov (ver espacio de probabilidad ), conjuntos son interpretados como eventos y la probabilidad de sí misma como una medida de una clase de juegos. En el teorema de Cox , la probabilidad se toma como un primitivo (es decir, no más analizados) y el énfasis está en la construcción de una asignación constante de los valores de probabilidad de las proposiciones. En ambos casos, las leyes de la probabilidad es la misma, a excepción de los detalles técnicos.

Hay otros métodos para cuantificar la incertidumbre, como la teoría Dempster-Shafer , o teoría de la posibilidad , pero los que son esencialmente diferentes y no es compatible con las leyes de la probabilidad como generalmente se entiende.

[ editar ] Aplicaciones

Teoría de la probabilidad se aplica en la vida cotidiana en el riesgo de evaluación y en el comercio en los mercados de productos . Los gobiernos suelen aplicar los métodos probabilísticos en regulación ambiental , donde se le llama análisis de la vía. Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado en Oriente Medio en los precios del petróleo, que repercuten en la economía en su conjunto. Una evaluación realizada por un comerciante de productos básicos que una guerra es más probable vs probablemente menos envía los precios hacia arriba o hacia abajo, y las señales de otros operadores de dicho dictamen. En consecuencia, las probabilidades no son evaluados de forma independiente ni necesariamente muy racional. La teoría de las finanzas conductuales surgió para describir el efecto de tal pensamiento de grupo sobre los precios, la política, y en la paz y el conflicto. [12]

Que razonablemente se puede decir que el descubrimiento de métodos rigurosos para evaluar y combinar las evaluaciones de la probabilidad ha afectado profundamente a la sociedad moderna. En consecuencia, puede ser de cierta importancia para la mayoría de los ciudadanos a comprender cómo las probabilidades y las evaluaciones de probabilidad se hacen, y cómo contribuyen a la reputación ya las decisiones, especialmente en una democracia .

Otra aplicación importante de la teoría de la probabilidad en la vida cotidiana es la fiabilidad . Muchos productos de consumo, como automóviles y electrónica de consumo, uso de teoría de la confiabilidad en el diseño del producto para reducir la probabilidad de fracaso. Probabilidad de fallo puede influir en las decisiones de una empresa de fabricación en un producto de garantía . [13]

[ editar ] El tratamiento matemático

Considere un experimento que puede producir una serie de resultados. La colección de todos los resultados que se llama el espacio muestral del experimento. El conjunto potencia del espacio de la muestra está formada por considerar todas las colecciones diferentes de los resultados posibles. Por ejemplo, lanzar un dado se puede producir seis posibles resultados. Una colección de los resultados es posible, un número impar en el dado. Por lo tanto, el subconjunto {1,3,5} es un elemento de la alimentación en la posición del espacio muestral de tiradas de dados. Estas colecciones se llaman "eventos". En este caso, {1,3,5} es el caso de que el dado cae en un número impar. Si los resultados que realmente se enmarcan en un determinado evento, el evento se dice que se han producido.

Una probabilidad es una manera de asignar cada caso un valor entre cero y uno, con el requisito de que el evento compuesto por todos los resultados posibles. (En nuestro ejemplo, el suceso {1,2,3,4,5,6}) se le asigna un valor de uno.) Para calificar como una probabilidad, la asignación de valores debe satisfacer el requisito de que si nos fijamos en una colección de eventos mutuamente excluyentes (eventos sin resultados comunes, por ejemplo, los sucesos {1,6}, {3} y {2,4} son mutuamente excluyentes), la probabilidad de que al menos uno de los eventos que ocurren se le da por la suma de las probabilidades de todos los eventos individuales. [14]

La probabilidad de un evento A se escribe como P (A), P (A) o PR (A). [15] Esta definición matemática de la probabilidad se puede extender a los espacios infinitos de la muestra, y los espacios de la muestra, incluso incontables, utilizando el concepto de una medida.

Lo contrario o complemento de un evento A es el evento [no A] (es decir, el caso de que no ocurre);. La probabilidad está dada por P (no A) = 1 - P (A) [16] Como ejemplo, la probabilidad de no sacar un seis en un dado de seis caras es de 1 - (posibilidad de sacar un seis) = 1 - \ tfrac {1} {6} = \ tfrac {5} {6} . Ver eventos complementarios para un tratamiento más completo.

Si los dos eventos A y B ocurren en una sola actuación de un experimento, esto se llama la intersección o de probabilidad conjunta de A y B, denotada como P (A \ cap B) . Si dos eventos, A y B son independientes , entonces la probabilidad conjunta es

P (A \ mbox {y} B) = P (A \ cap B) = P (A) P (B), \,

por ejemplo, si dos monedas se da la vuelta la posibilidad de que las dos cabezas que se está \ Tfrac {1} {2} \ times \ tfrac {1} {2} = \ tfrac {1} {4}. [17]

Si cualquiera de los casos A o B o los hechos ambos se producen en una sola actuación de un experimento lo que se llama la unión de los eventos A y B denota como P (A \ copa B) . Si dos eventos son mutuamente excluyentes entonces la probabilidad de que se está produciendo ya sea

P (A \ mbox {o} B) = P (A \ copa B) = P (A) + P (B).

Por ejemplo, la posibilidad de sacar un 1 o 2 en un dado de seis caras es P (1 \ mbox {o} 2) = P (1) + P (2) = \ tfrac {1} {6} + \ tfrac {1} {6} = \ tfrac {1} {3}.

Si los eventos no son mutuamente excluyentes entonces

\ Mathrm {P} \ left (A \ hbox {o} B \ right) = \ mathrm {P} \ left (A \ right) + \ mathrm {P} \ left (B \ derecho) - \ mathrm {P} \ left (A \ mbox {y} B \ right).

Por ejemplo, al dibujar una sola tarjeta al azar de una baraja de cartas, la probabilidad de tener un corazón o una figura (J, Q, K) (o uno que es a la vez) es \ Tfrac {13} {52} + \ tfrac {12} {52} - \ tfrac {3} {52} = \ tfrac {11} {26} , Porque de las 52 cartas de una baraja de 13 son los corazones, 12 tarjetas de la cara, y 3 son las dos cosas: aquí las posibilidades que ofrecen los "tres que son a la vez" se incluyen en cada uno de los "13 corazones" y la cara "12 tarjetas ", pero sólo se cuentan una vez.

Probabilidad condicional es la probabilidad de algún evento A, dada la ocurrencia de algún evento B otros. Probabilidad condicional se escribe P (A | B), y se lee "la probabilidad de que A, B, teniendo en cuenta". Se define por

P (A \ mediados B) = \ frac {P (A \ cap B)} {P (B)}. \, [18]

Si P (B) = 0 entonces P (A \ mediados B) es indefinido . Tenga en cuenta que en este caso A y B son independientes.

Resumen de las probabilidades
Evento Probabilidad
A P (A) \ in [0,1] \
A no P (A ') = 1-P (A) \,
A o B \ Begin {align} P (A \ copa B) y = P (A) + P (B)-P (A \ cap B) \ \ & = P (A) + P (B) \ qquad \ mbox {if A y B son mutuamente excluyentes} \ \ \ end {align}
A y B \ Begin {align} P (A \ cap B) y = P (A | B) P (B) = P (B | A) P (A) \ \ & = P (A) P (B) \ qquad \ mbox {si A y B son independientes} \ \ \ end {align}
A dado B P (A \ mediados B) = \ frac {P (A \ cap B)} {P (B)} \,

[ editar ] Relación con el azar

En un determinista universo, basado en Newton conceptos, no habría probabilidad de si todas las condiciones son conocidas, ( demonio de Laplace ). En el caso de una ruleta, si la fuerza de la mano y el período de esa fuerza se conoce, el número en el que la bola se detiene sería una certeza. Por supuesto, esto también supone el conocimiento de la inercia y la fricción de la rueda, el peso, la suavidad y la redondez de la bola, las variaciones en la velocidad de la mano durante el giro y así sucesivamente. Una descripción probabilística por lo tanto puede ser más útil que la mecánica newtoniana para analizar el patrón de los resultados de los rollos repetidos de la ruleta. Los físicos se enfrentan la misma situación en la teoría cinética de los gases, donde el sistema, mientras que, en principio, determinista, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro 6.02 · 10 23) que sólo la descripción estadística de sus propiedades es factible.

Teoría de las probabilidades es necesario para describir la naturaleza. [19] Un descubrimiento revolucionario de principios del siglo 20 la física fue el carácter aleatorio de todos los procesos físicos que ocurren a escalas subatómicas y se rigen por las leyes de la mecánica cuántica . El objetivo de la función de onda evoluciona de manera determinista, pero, de acuerdo con la interpretación de Copenhague , el azar se explica por el colapso de la función de onda cuando se hace una observación. Sin embargo, la pérdida de determinismo por el bien de instrumentalismo no cumplió con la aprobación universal. Albert Einstein famoso comentó en una carta a Max Born :. "Estoy convencido de que Dios no juega a los dados" [20] Al igual que Einstein, Erwin Schrödinger , que descubrió la función de onda, que se cree la mecánica cuántica es una estadística aproximada de una realidad determinista subyacente. [21] En las interpretaciones modernas, decoherencia cuántica representa el comportamiento subjetivamente probabilístico.

[ editar ] Véase también

[ editar ] Notas

  1. ^ Teoría Avanzada de Kendall de Estadística, Volumen 1: Teoría de la Distribución, Alan Stuart y Ord Keith, 6 ª ed 2009
  2. ^ Una introducción a la teoría de la probabilidad y sus aplicaciones, William Feller. 3 ª Ed. 1968
  3. ^ Ian Hacking, (1965). La lógica de la inferencia estadística.  
  4. ^ Finetti, Bruno de (1970). "Fundamentos lógicos y la medición de la probabilidad subjetiva" Acta Psychologica 34:. 129-145. DOI : 10.1016/0001-6918 (70) 90012-0 .  
  5. ^ Hogg, Robert V., Craig Allen, McKean, Joseph W. (2004) Introducción a la Estadística Matemática (6 ª ed.).. Upper Saddle River:. Pearson ISBN 0130085073 .  
  6. ^ El surgimiento de la probabilidad: un estudio filosófico de las primeras ideas acerca de la probabilidad, la inducción y la inferencia estadística, Ian Hacking, Cambridge University Press, 2006, ISBN 0521685575 , 9780521685573
  7. ^ The Cambridge History of filosofía del siglo XVII, Daniel Garber, 2003
  8. ^ Freund, John. "Introducción a la probabilidad". 1973, p. 1.
  9. ^ Jeffrey, RC, la probabilidad y el arte de la Sentencia, Cambridge University Press. (1992). pp 54-55. ISBN 0-521-39459-7
  10. ^ Franklin, J., La ciencia de la conjetura: la evidencia y probabilidad Antes de Pascal, Johns Hopkins University Press. (2001). páginas 22, 113, 127
  11. ^ Ivancevic, Vladimir; Tijana Ivancevic. "Quantum Leap". 2008. p 16
  12. ^ Singh, Laurie. "¿A dónde los mercados eficientes? Teoría del mercado eficiente y Finanzas del comportamiento". Nota de los Profesionales de Finanzas de 2010.
  13. ^ Gorman, Michael. "Gestión de Insights". Gestión de la Ciencia, 2011.
  14. ^ Ross, Sheldon. Un primer curso de probabilidad, la 8 ª edición. Páginas 26-27.
  15. ^ Olofsson, Peter. (2005) Página 8.
  16. ^ Olofsson, página 9
  17. ^ Olofsson, página 35.
  18. ^ Olofsson, página 29.
  19. ^ Burgi, Mark. "Las interpretaciones de probabilidades negativas". 2009, p. 1.
  20. ^ Jedenfalls bin ich überzeugt, dass der würfelt nicht Alte.
  21. ^ Moore, WJ (1992) Schrödinger:. vida y pensamiento. Cambridge University Press . p. 479. ISBN 0-521-43767-9 .  

[ editar ] Referencias

[ editar ] Citas

[ editar ] Enlaces externos

Herramientas personales
Espacios de nombres
Variantes
Puntos de vista
Acciones
Navegación
Interacción
Caja de herramientas
Imprimir / exportar
Idiomas

mk.gd - Translate any webpage in real-time - This webpage has been translated in order to make it available in another language, view original page

View this page in: Afrikaans, Albanian, Arabic, Belarusian, Bulgarian, Catalan, Chinese (Simp), Chinese (Trad), Croatian, Czech, Danish, Dutch, English, Estonian, Filipino, Finnish, French, Galician, German, Greek, Hebrew, Hindi, Hungarian, Icelandic, Indonesian, Irish, Italian, Japanese, Korean, Latvian, Lithuanian, Macedonian, Malay, Maltese, Norwegian, Persian, Polish, Portuguese, Romanian, Russian, Serbian, Slovak, Slovenian, Spanish, Swahili, Swedish, Thai, Turkish, Ukrainian, Vietnamese, Welsh, Yiddish

Content and any subsequent copyright is upheld by the third-party - contact@mk.gd