Distribuciones de probabilidad típicas: la hoja de referencia de un científico de datos. Distribución binomial de una variable aleatoria discreta.

Sección 6. Leyes de distribución típicas y características numéricas de variables aleatorias.

La forma de las funciones F(x), p(x) o la enumeración p(x i) se denomina ley de distribución de una variable aleatoria. Aunque podemos imaginar una variedad infinita de variables aleatorias, existen muchas menos leyes de distribución. En primer lugar, diferentes variables aleatorias pueden tener exactamente las mismas leyes de distribución. Por ejemplo: dejemos que y tome solo 2 valores 1 y -1 con probabilidades de 0,5; el valor z = -y tiene exactamente la misma ley de distribución.
En segundo lugar, muy a menudo las variables aleatorias tienen leyes de distribución similares, es decir, por ejemplo, p(x) para ellas se expresa mediante fórmulas de la misma forma, que difieren sólo en una o más constantes. Estas constantes se denominan parámetros de distribución.

Aunque en principio son posibles una variedad de leyes de distribución, aquí se considerarán algunas de las leyes más típicas. Es importante prestar atención a las condiciones bajo las cuales surgen, los parámetros y propiedades de estas distribuciones.

1 . Distribución uniforme
Este es el nombre que se le da a la distribución de una variable aleatoria que puede tomar cualquier valor en el intervalo (a,b), y la probabilidad de que caiga en cualquier segmento dentro de (a,b) es proporcional a la longitud del segmento y no depende de su posición, y la probabilidad de valores fuera de (a,b ) es igual a 0.


Fig. 6.1 Función de distribución uniforme y densidad.

Parámetros de distribución: a, b

2. Distribución normal
Distribución con densidad descrita por la fórmula.

(6.1)

llamado normal.
Parámetros de distribución: a, σ


Figura 6.2 Función típica de densidad y distribución normal

3. Distribución de Bernoulli
Si se realiza una serie de ensayos independientes, en cada uno de los cuales el evento A puede aparecer con la misma probabilidad p, entonces el número de ocurrencias del evento es una variable aleatoria distribuida según la ley de Bernoulli, o según la ley del binomio. (otro nombre para distribución).

Aquí n es el número de ensayos de la serie, m es una variable aleatoria (el número de ocurrencias del evento A), P n (m) es la probabilidad de que A ocurra exactamente m veces, q = 1 - p (la probabilidad que A no comparecerá en el juicio).

Ejemplo 1: Se lanza un dado 5 veces, ¿cuál es la probabilidad de que se lance un 6 dos veces?
norte = 5, m = 2, p = 1/6, q = 5/6

Parámetros de distribución: n, p

4 . distribución de veneno
La distribución de Poisson se obtiene como caso límite de la distribución de Bernoulli, si p tiende a cero y n al infinito, pero de modo que su producto permanece constante: nр = а. Formalmente, tal paso al límite conduce a la fórmula

Parámetro de distribución: a

Muchas variables aleatorias que se encuentran en la ciencia y la vida práctica están sujetas a la distribución de Poisson.

Ejemplo 2: número de llamadas recibidas en una estación de ambulancias en una hora.
Dividamos el intervalo de tiempo T (1 hora) en pequeños intervalos dt, de modo que la probabilidad de recibir dos o más llamadas durante dt sea insignificante y la probabilidad de una llamada p sea proporcional a dt: p = μdt;
consideraremos la observación durante los momentos dt como ensayos independientes, el número de dichos ensayos durante el tiempo T: n = T / dt;
Si suponemos que las probabilidades de llegada de llamadas no cambian durante la hora, entonces el número total de llamadas obedece la ley de Bernoulli con los parámetros: n = T / dt, p = μdt. Habiendo dirigido dt a cero, encontramos que n tiende a infinito y el producto n×р permanece constante: a = n×р = μT.

Ejemplo 3: el número de moléculas de un gas ideal en un volumen fijo V.
Dividamos el volumen V en pequeños volúmenes dV de modo que la probabilidad de encontrar dos o más moléculas en dV sea insignificante y la probabilidad de encontrar una molécula sea proporcional a dV: p = μdV; consideraremos la observación de cada volumen dV como una prueba independiente, el número de dichas pruebas n=V/dV; Si asumimos que las probabilidades de encontrar una molécula en cualquier lugar dentro de V son las mismas, el número total de moléculas en el volumen V obedece la ley de Bernoulli con los parámetros: n = V / dV, p = μdV. Habiendo dirigido dV a cero, encontramos que n tiende a infinito y el producto n×р permanece constante: a = n×р =μV.

Características numéricas de variables aleatorias.

1 . Expectativa matemática (valor medio)

Definición:
La expectativa matemática se llama
  (6.4)

La suma se toma sobre todos los valores que toma la variable aleatoria. La serie debe ser absolutamente convergente (de lo contrario se dice que la variable aleatoria no tiene expectativa matemática)

;   (6.5)

La integral debe ser absolutamente convergente (de lo contrario se dice que la variable aleatoria no tiene expectativa matemática)


Propiedades de la expectativa matemática:

a. Si C es un valor constante, entonces MC = C
b. MCx = CMx
C. La expectativa matemática de la suma de variables aleatorias es siempre igual a la suma de sus expectativas matemáticas: M(x+y) = Mx + My d. Se introduce el concepto de expectativa matemática condicional. Si una variable aleatoria toma sus valores x i c diferentes probabilidades p(x i /H j) bajo diferentes condiciones H j , entonces se determina la expectativa condicional

Cómo o ; (6.6)

Si se conocen las probabilidades de los eventos H j, la evaluación completa

valor esperado: ; (6.7)

Ejemplo 4: En promedio, ¿cuántas veces se debe lanzar una moneda antes de que aparezca el primer símbolo? Este problema se puede resolver de frente.

xyo 1 2 3...k..
p(xi) :  ,

pero esta cantidad aún debe calcularse. Puede hacerlo de forma más sencilla utilizando los conceptos de expectativa matemática condicional y completa. Consideremos la hipótesis H 1: el escudo de armas se cayó la primera vez, H 2: el escudo de armas no se cayó la primera vez. Obviamente, p(H 1) = p(H 2) = ½; Mx/N1 = 1;
Mx/N 2 es 1 más que la expectativa total deseada, porque después del primer lanzamiento de la moneda la situación no ha cambiado, pero ya se ha lanzado una vez. Usando la fórmula para la expectativa matemática total, tenemos Мх = Мx / Н 1 ×р(Н 1) + Мx / Н 2 ×р(Н 2) = 1 × 0.5 + (Мх + 1) × 0.5, resolviendo la ecuación para Мх, obtenemos inmediatamente Mx = 2.

mi. Si f(x) es una función de una variable aleatoria x, entonces el concepto de expectativa matemática de una función de una variable aleatoria se define:

Para una variable aleatoria discreta: ;   (6.8)

La suma se toma sobre todos los valores que toma la variable aleatoria. La serie debe ser absolutamente convergente.

Para una variable aleatoria continua: ;   (6.9)

La integral debe ser absolutamente convergente.

2. Varianza de una variable aleatoria
Definición:
La varianza de una variable aleatoria x es la expectativa matemática de la desviación al cuadrado del valor del valor de su expectativa matemática: Dx = M(x-Mx) 2

Para una variable aleatoria discreta: ; (6.10)

La suma se toma sobre todos los valores que toma la variable aleatoria. La serie debe ser convergente (de lo contrario se dice que la variable aleatoria no tiene varianza)

Para una variable aleatoria continua: ; (6.11)

La integral debe ser convergente (de lo contrario se dice que la variable aleatoria no tiene varianza)

Propiedades de dispersión:
a. Si C es un valor constante, entonces DC = 0
b. DСх = С 2 Dх
C. La varianza de la suma de variables aleatorias siempre es igual a la suma de sus varianzas solo si estos valores son independientes (definición de variables independientes)
d. Para calcular la varianza es conveniente utilizar la fórmula:

Dx = Mx 2 - (Mx) 2 (6.12)

Relación entre características numéricas.
y parámetros de distribuciones típicas.

distribuciónopcionesfórmulamxdx
uniformea, b (b+a) / 2(b-a) 2 / 12
normala, σ as 2
bernoullinotario público notario público.npq
Poisona aa

La distribución de probabilidad es una medida de probabilidad en un espacio mensurable.

Sea W un conjunto no vacío de naturaleza arbitraria y Ƒ -s- álgebra sobre W, es decir, una colección de subconjuntos de W que contienen al propio W, el conjunto vacío Æ, y cerrado como máximo bajo un conjunto contable de operaciones de teoría de conjuntos (esto significa que para cualquier A Î Ƒ conjunto = W\ A pertenece de nuevo Ƒ y si A 1 , A 2 ,…О Ƒ , Eso Ƒ Y Ƒ ). par (W, Ƒ ) se llama espacio medible. Función no negativa P( A), definido para todos A Î Ƒ , se llama medida de probabilidad, probabilidad, P. probabilidades o simplemente P., si P(W) = 1 y P es contablemente aditivo, es decir, para cualquier secuencia A 1 , A 2 ,…О Ƒ tal que yo aj= Æ para todos i ¹ j, la igualdad P() = P( yo). Tres (W, Ƒ , P) se llama espacio de probabilidad. El espacio de probabilidad es el concepto original de la teoría de probabilidad axiomática propuesta por A.N. Kolmogorov a principios de los años 1930.

En cada espacio de probabilidad se pueden considerar funciones (reales) medibles X = X(w), wÎW, es decir, funciona tal que (w: X(w)О B} Î Ƒ para cualquier subconjunto de Borel B linea real R. Mensurabilidad de una función X es equivalente a (w: X(w)< X} Î Ƒ para cualquier real X. Las funciones medibles se llaman variables aleatorias. Cada variable aleatoria X, definido en el espacio de probabilidad (W, Ƒ , P), genera P. probabilidades

P X (B) = P( XÎ B) = P((w: X(w)О B}), B Î Ɓ ,
en el espacio mensurable ( R, Ɓ ), Dónde Ɓ R, y la función de distribución

F X(X) = P( X < X) = P((w: X(w)< X}), -¥ < X <¥,
que se llaman probabilidad probabilidad y función de distribución de una variable aleatoria X.

Función de distribución F cualquier variable aleatoria tiene las propiedades

1. F(X) no decreciente,

2. F(- ¥) = 0, F(¥) = 1,

3. F(X) se deja continuo en cada punto X.

A veces, en la definición de la función de distribución, la desigualdad< заменяется неравенством £; в этом случае функция распределения является непрерывной справа. В содержательных утверждениях теории вероятностей не важно, непрерывна функция распределения слева или справа, важны лишь положения ее точек разрыва X(si corresponde) y tamaños de incremento F(X+0) - F(X-0) en estos puntos; Si F X, entonces este incremento es P( X = X).

Cualquier función F, que tiene propiedades 1. - 3. se llama función de distribución. Correspondencia entre distribuciones en ( R, Ɓ ) y las funciones de distribución son uno a uno. Para cualquier R. PAG en ( R, Ɓ ) su función de distribución está determinada por la igualdad F(X) = PAG((-¥, X)), -¥ < X <¥, а для любой функции распределения F correspondiente a ella R. PAG se define en el álgebra £ de conjuntos que consisten en uniones de un número finito de intervalos disjuntos función F 1 (X) aumenta linealmente de 0 a 1. Para construir la función F 2 (X) el segmento se divide en segmento, intervalo (1/3, 2/3) y segmento. Función F 2 (X) en el intervalo (1/3, 2/3) es igual a 1/2 y aumenta linealmente de 0 a 1/2 y de 1/2 a 1 en los segmentos y, respectivamente. Este proceso continúa y la función fn+1 se obtiene usando la siguiente transformación de función fn, norte³ 2. En intervalos donde la función fn(X) es constante, fn +1 (X) coincide con fn(X). Cada segmento donde la función fn(X) aumenta linealmente desde a antes b, se divide en segmento , intervalo (a + (a - b)/3, a + 2(b - a)/3) y segmento . En el intervalo especificado fn +1 (X) es igual a ( a + b)/2, y en los segmentos indicados fn +1 (X) aumenta linealmente desde a antes ( a + b)/2y desde ( a + b)/2 a b respectivamente. Por cada 0€ X secuencia de £ 1 fn(X), norte= 1, 2,..., converge a algún número F(X). Secuencia de funciones de distribución. fn, norte= 1, 2,..., es equicontinuo, por lo tanto la función de distribución límite F(X) es continuo. Esta función es constante en un conjunto contable de intervalos (los valores de la función son diferentes en diferentes intervalos), en los que no hay puntos de crecimiento, y la longitud total de estos intervalos es 1. Por lo tanto, la medida de Lebesgue de la establecer apoyo F es igual a cero, es decir F singular.

Cada función de distribución se puede representar como

F(X) = pag C.A F CA ( X) + pag d F d ( X) + pag s F s ( X),
Dónde F C.A, F d y F s son funciones de distribución absolutamente continuas, discretas y singulares, y la suma de números no negativos pag C.A, pag d y p s es igual a uno. Esta representación se llama expansión de Lebesgue y las funciones F C.A, F d y F s - componentes de la descomposición.

La función de distribución se llama simétrica si F(-X) = 1 - F(X+ 0) para
X> 0. Si una función de distribución simétrica es absolutamente continua, entonces su densidad es una función par. Si la variable aleatoria X tiene una distribución simétrica, entonces las variables aleatorias X Y - X igualmente distribuida. Si la función de distribución simétrica F(X) es continua en cero, entonces F(0) = 1/2.

Entre las reglas absolutamente continuas que se utilizan a menudo en la teoría de la probabilidad se encuentran las reglas uniformes, las reglas normales (reglas de Gauss), las reglas exponenciales y las reglas de Cauchy.

R. se llama uniforme en el intervalo ( a, b) (o en el segmento [ a, b], o en intervalos [ a, b) Y ( a, b]), si su densidad es constante (e igual a 1/( b - a)) en ( a, b) y es igual a cero fuera de ( a, b). La mayoría de las veces se utiliza una distribución uniforme según (0, 1), su función de distribución F(X) es igual a cero en X£ 0, igual a uno en X>1 y F(X) = X en 0< X£ 1. Una variable aleatoria uniforme en (0, 1) tiene una variable aleatoria X(w) = w en un espacio de probabilidad que consta del intervalo (0, 1), un conjunto de subconjuntos de Borel de este intervalo y la medida de Lebesgue. Este espacio de probabilidad corresponde al experimento "arrojar un punto w al azar en el intervalo (0, 1)", donde la palabra "al azar" significa igualdad ("igualdad de oportunidades") de todos los puntos desde (0, 1). Si en el espacio de probabilidad (W, Ƒ , P) hay una variable aleatoria X con una distribución uniforme en (0, 1), luego en él para cualquier función de distribución F hay una variable aleatoria Y, para lo cual la función de distribución FY coincide con F. Por ejemplo, la función de distribución de una variable aleatoria. Y = F -1 (X) coincide con F. Aquí F -1 (y) = inf( X: F(X) > y}, 0 < y < 1; если функция F(X) es continua y estrictamente monótona en toda la línea real, entonces F-1 - función inversa F.

R. normal con parámetros ( a, s 2), -¥< a < ¥, s 2 >0, llamado R. con densidad, -¥< X < ¥. Чаще всего используется нормальное Р. с параметрами a= 0 y s 2 = 1, que se llama normal estándar R., su función de distribución F( X) no se expresa mediante superposiciones de funciones elementales y tenemos que utilizar su representación integral F( X) =, -¥ < X < ¥. Для фунции распределения F(X) Se compilaron tablas detalladas que eran necesarias antes de la modernidad. Ingeniería Informática(valores de función F( X) también se puede obtener utilizando tablas especiales. funciones erf( X)), valores F( X) Para X> 0 se puede obtener usando la suma de la serie

,
y para X < 0 можно воспользоваться симметричностью F(X). Valores de la función de distribución normal con parámetros. a y s 2 se puede obtener utilizando el hecho de que coincide con F(( X - a)/s). Si X 1 y X 2 independientes distribuidas normalmente con parámetros a 1 , s 1 2 y a 2 , s 2 2 variables aleatorias, luego la distribución de su suma X 1 + X 2 también está bien con los parámetros a= a 1 + a 2 y s 2 = s 1 2 + s 2 2 . La afirmación también es cierta, en cierto sentido, lo contrario: si una variable aleatoria X normalmente distribuido con parámetros a y s 2 y
X = X 1 + X 2 donde X 1 y X 2 son variables aleatorias independientes distintas de constantes, entonces X 1 y X 2 tienen distribuciones normales (teorema de Cramer). Opciones a 1 , s 1 2 y a 2 , s 2 2 distribuciones de variables aleatorias normales X 1 y X 2 relacionado con a y s 2 por las igualdades dadas anteriormente. La distribución normal estándar es un límite en el teorema del límite central.

La distribución exponencial es una distribución con densidad. pag(X) = 0 en X < 0 и pag(X) = l mi- yo X en X³ 0, donde l > 0 es un parámetro, su función de distribución F(X) = 0 en X£0 y F(X) = 1 - mi- yo X en X> 0 (a veces se utilizan parámetros exponenciales, que se diferencian del indicado por un desplazamiento a lo largo del eje real). Esta R. tiene una propiedad llamada ausencia de efecto secundario: si X es una variable aleatoria con exponencial R., entonces para cualquier positivo X Y t

PAG( X > X + t | X > X) = P( X > t).
Si X es el tiempo de funcionamiento de algún dispositivo antes de fallar, entonces la ausencia de efectos posteriores significa que la probabilidad de que el dispositivo, encendido en el momento 0, no falle hasta X + t siempre que no se negara hasta el momento X, no depende de X. Esta propiedad se interpreta como la ausencia de "envejecimiento". La ausencia de efecto secundario es una propiedad característica de la distribución exponencial: en la clase de distribuciones absolutamente continuas, la igualdad anterior es válida sólo para la distribución exponencial (con algún parámetro l > 0). R. exponencial aparece como límite R. en el esquema mínimo. Dejar X 1 , X 2 ,… - variables aleatorias independientes no negativas distribuidas idénticamente y para su función de distribución común F El punto 0 es el punto de crecimiento. Entonces en norte®¥ distribuciones de variables aleatorias Ynorte= mín( X 1 ,…, Xn) convergen débilmente a una distribución degenerada con un único punto de crecimiento 0 (esto es un análogo de la ley de los grandes números). Si además asumimos que para algún e > 0 la función de distribución F(X) en el intervalo (0, e) admite representación y pag(tu)®l en tu¯ 0, entonces las funciones de distribución de variables aleatorias Z norte = norte mín( X 1 ,…, Xn) en norte®¥ uniformemente a lo ancho -¥< X < ¥ сходятся к экспоненциальной функции распределения с параметром l (это - аналог центральной предельной теоремы).

R. Cauchy se llama R. con densidad. pag(X) = 1/(p(1 + X 2)), -¥< X < ¥, его функция рас-пределения F(X) = (arctg X+p/2)/p. Esta R. apareció en el trabajo de S. Poisson en 1832 en relación con la solución del siguiente problema: ¿existen variables aleatorias independientes distribuidas idénticamente? X 1 , X 2 ,... tal que la aritmética significa ( X 1 + … + Xn)/norte en cada norte tener la misma R. que cada una de las variables aleatorias X 1 , X 2 ,...? S. Poisson descubrió que las variables aleatorias con la densidad especificada tienen esta propiedad. Para estas variables aleatorias, no se cumple el enunciado de la ley de los grandes números, en la que la aritmética significa ( X 1 +…+ Xn)/norte con crecimiento norte degenerar. Sin embargo, esto no contradice la ley de los grandes números, ya que impone restricciones a las distribuciones de las variables aleatorias originales que no se satisfacen para la distribución especificada (para esta distribución hay momentos absolutos de todos los órdenes positivos menores que la unidad, pero el la expectativa matemática no existe). En las obras de O. Cauchy, R., que lleva su nombre, apareció en 1853. R. Cauchy está relacionado X/Y variables aleatorias independientes con P normal estándar.

Entre las variables discretas que se utilizan a menudo en la teoría de la probabilidad se encuentran R. Bernoulli, R. binomial y R. Poisson.

R. Bernoulli llama a cualquier distribución con dos puntos de crecimiento. La variable aleatoria más utilizada es R. X, tomando valores 0 y 1 con probabilidades
q = 1 - pag Y pag respectivamente, donde 0< pag < 1 - параметр. Первые формы закона больших чисел и центральной предельной теоремы были получены для случайных величин, имею-щих Р. Бернулли. Если на вероятностном пространстве (W, Ƒ , P) hay una secuencia X 1 , X 2,... variables aleatorias independientes que toman valores 0 y 1 con probabilidades de 1/2 cada una, entonces en este espacio de probabilidad existe una variable aleatoria con R uniforme en (0, 1). En particular, la variable aleatoria tiene una distribución uniforme en (0, 1).

Binomial R. con parámetros norte Y pag, norte- naturales, 0< pag < 1, называется Р., с точками роста 0, 1,..., norte, en el que se concentran las probabilidades C n k p k q n-k, k = 0, 1,…, norte,
q = 1 - pag. Es R. cantidad norte variables aleatorias independientes que tienen R. Bernoulli con puntos de crecimiento 0 y 1, en las que se concentran las probabilidades q Y pag. El estudio de esta distribución llevó a J. Bernoulli al descubrimiento de la ley de los grandes números y a A. Moivre al descubrimiento del teorema del límite central.

Se denomina fórmula de Poisson a una fórmula cuyo soporte es una secuencia de puntos 0, 1,..., en la que se concentran las probabilidades l. k e-l/ k!, k= 0, 1,…, donde l > 0 es un parámetro. La suma de dos variables aleatorias independientes que tienen una R. Poisson con parámetros l y m nuevamente tiene una R. Poisson con el parámetro l + m. R. Poisson es el límite para R. Bernoulli con parámetros norte Y pag = pag(norte) en norte®¥ si norte Y pag relacionado por la relación notario público.®l en norte®¥ (teorema de Poisson). Si la secuencia es 0< t 1 < t 2 < t 3 <… есть последовательность моментов времени, в которые происходят некоторые события (так. наз поток событий) и величины t 1 , t 2 -t 1 , t 3 - t 2 ,... son variables aleatorias independientes distribuidas idénticamente y su R. común es exponencial con parámetro l > 0, entonces la variable aleatoria xt, igual al número de eventos que ocurrieron en el intervalo (0, t), tiene R. Poisson con parámetro.l t(Este flujo se llama Poisson).

El concepto de R tiene numerosas generalizaciones; en particular, se extiende al caso multidimensional y a las estructuras algebraicas.

La distribución binomial es una de las distribuciones de probabilidad más importantes de una variable aleatoria que varía discretamente. La distribución binomial es la distribución de probabilidad del número. metro ocurrencia de un evento A V norte observaciones mutuamente independientes. A menudo un evento A se llama "éxito" de una observación, y el evento opuesto se llama "fracaso", pero esta designación es muy condicional.

Condiciones de distribución binomial.:

  • en total realizado norte juicios en los que el evento A puede ocurrir o no;
  • evento A en cada ensayo puede ocurrir con la misma probabilidad pag;
  • las pruebas son mutuamente independientes.

La probabilidad de que en norte evento de prueba A vendrá exactamente metro veces, se puede calcular usando la fórmula de Bernoulli:

,

Dónde pag- probabilidad de que ocurra un evento A;

q = 1 - pag- la probabilidad de que ocurra el evento opuesto.

Vamos a resolverlo ¿Por qué la distribución binomial está relacionada con la fórmula de Bernoulli de la manera descrita anteriormente? . Evento: número de éxitos en norte Las pruebas se dividen en una serie de opciones, en cada una de las cuales se logra el éxito en metro pruebas y fracasos - en norte - metro pruebas. Consideremos una de estas opciones: B1 . Usando la regla para sumar probabilidades, multiplicamos las probabilidades de eventos opuestos:

,

y si denotamos q = 1 - pag, Eso

.

Cualquier otra opción en la que metroéxito y norte - metro fracasos. El número de tales opciones es igual al número de formas en que uno puede norte prueba obtener metroéxito.

Suma de todas las probabilidades metro números de ocurrencia de eventos A(números del 0 al norte) es igual a uno:

donde cada término representa un término del binomio de Newton. Por lo tanto, la distribución considerada se llama distribución binomial.

En la práctica, a menudo es necesario calcular probabilidades "no más que metro el éxito en norte pruebas" o "al menos metro el éxito en norte pruebas". Para ello se utilizan las siguientes fórmulas.

La función integral, es decir probabilidad F(metro) que hay norte evento de observación A no vendrá más metro una vez, se puede calcular mediante la fórmula:

A su momento probabilidad F(≥metro) que hay norte evento de observación A no vendrá menos metro una vez, se calcula mediante la fórmula:

A veces es más conveniente calcular la probabilidad de que norte evento de observación A no vendrá más metro veces, a través de la probabilidad del evento opuesto:

.

La fórmula a utilizar depende de cuál de ellas tiene la suma que contiene menos términos.

Las características de la distribución binomial se calculan mediante las siguientes fórmulas .

Valor esperado: .

Dispersión: .

Desviación Estándar: .

Distribución binomial y cálculos en MS Excel.

Probabilidad binomial PAG norte ( metro) y los valores de la función integral F(metro) se puede calcular utilizando la función de MS Excel BINOM.DIST. La ventana para el cálculo correspondiente se muestra a continuación (haga clic izquierdo para ampliar).


MS Excel requiere que ingrese los siguientes datos:

  • número de éxitos;
  • número de pruebas;
  • probabilidad de éxito;
  • integral - valor lógico: 0 - si necesita calcular la probabilidad PAG norte ( metro) y 1 - si la probabilidad F(metro).

Ejemplo 1. El director de la empresa resumió la información sobre el número de cámaras vendidas en los últimos 100 días. La tabla resume la información y calcula las probabilidades de que se venda una determinada cantidad de cámaras por día.

El día termina con ganancias si se venden 13 o más cámaras. Probabilidad de que el día salga rentable:

Probabilidad de que se trabaje un día sin ganancias:

Sea la probabilidad de que un día se trabaje con ganancia sea constante e igual a 0,61, y el número de cámaras vendidas por día no depende del día. Entonces podemos usar la distribución binomial, donde el evento A- el día será trabajado con beneficio, - sin beneficio.

Probabilidad de que los 6 días se resuelvan con ganancias:

.

Obtenemos el mismo resultado usando la función BINOM.DIST de MS Excel (el valor del valor integral es 0):

PAG 6 (6 ) = DISTR.BINOM.(6; 6; 0,61; 0) = 0,052.

La probabilidad de que de 6 días se trabajen 4 o más días con ganancia:

Dónde ,

,

Usando la función DISTR.BINOM de MS Excel, calculamos la probabilidad de que de 6 días no se completen más de 3 días con ganancias (el valor del valor integral es 1):

PAG 6 (≤3 ) = DISTR.BINOM.(3; 6; 0,61; 1) = 0,435.

Probabilidad de que los 6 días se resuelvan con pérdidas:

,

Podemos calcular el mismo indicador usando la función de MS Excel BINOM.DIST:

PAG 6 (0 ) = DISTR.BINOM(0; 6; 0,61; 0) = 0,0035.

Resuelva el problema usted mismo y luego vea la solución.

Ejemplo 2. Hay 2 bolas blancas y 3 bolas negras en la urna. Se saca una bola de la urna, se fija el color y se vuelve a colocar. El intento se repite 5 veces. El número de apariciones de bolas blancas es una variable aleatoria discreta. X, distribuido según la ley del binomio. Elaborar una ley de distribución de una variable aleatoria. Definir moda, expectativa matemática y dispersión.

Sigamos resolviendo problemas juntos

Ejemplo 3. De servicio de mensajería fue a los sitios norte= 5 mensajeros. Es probable que cada mensajero pag= 0,3, independientemente de los demás, llega tarde al objeto. Variable aleatoria discreta X- número de mensajeros retrasados. Construya una serie de distribución para esta variable aleatoria. Encuentre su expectativa matemática, varianza y desviación estándar. Encuentre la probabilidad de que al menos dos mensajeros lleguen tarde a recoger los objetos.

A pesar de sus nombres exóticos, las distribuciones comunes se relacionan entre sí de maneras intuitivas e interesantes que las hacen fáciles de recordar y razonar con confianza. Algunos se derivan naturalmente, por ejemplo, de la distribución de Bernoulli. Es hora de mostrar un mapa de estas conexiones.

Cada distribución se ilustra con un ejemplo de su función de densidad de distribución (DFF). Este artículo trata únicamente sobre aquellas distribuciones cuyos resultados son números únicos. Por lo tanto, el eje horizontal de cada gráfico es un conjunto de posibles números de resultados. Vertical: la probabilidad de cada resultado. Algunas distribuciones son discretas: sus resultados deben ser números enteros, como 0 o 5. Estos se designan líneas dispersas, uno para cada resultado, con una altura correspondiente a la probabilidad de un resultado determinado. Algunos son continuos y sus resultados pueden tomar cualquier valor numérico, como -1,32 o 0,005. Éstas se muestran como curvas densas con áreas bajo las secciones de la curva que dan probabilidades. La suma de las alturas de las líneas y las áreas bajo las curvas es siempre 1.

Imprímelo, córtalo por la línea de puntos y llévalo contigo en tu cartera. Esta es su guía del país de distribución y sus parientes.

Bernoulli y el uniforme

Ya se ha encontrado con la distribución de Bernoulli anterior, con dos resultados: cara o cruz. Imagínelo ahora como una distribución entre 0 y 1, 0 es cara, 1 es cruz. Como ya está claro, ambos resultados son igualmente probables, y esto se refleja en el diagrama. El PDF de Bernoulli contiene dos líneas de igual altura, que representan 2 resultados igualmente probables: 0 y 1, respectivamente.

La distribución de Bernoulli también puede representar resultados desigualmente probables, como lanzar una moneda incorrecta. Entonces la probabilidad de que salga cara no será 0,5, sino algún otro valor p, y la probabilidad de que salga cruz será 1-p. Como muchas otras distribuciones, esta es en realidad una familia completa de distribuciones definidas por ciertos parámetros, como p arriba. Cuando piense en "Bernoulli", piense en "lanzar una moneda (posiblemente equivocada)".

A partir de aquí, es un paso muy pequeño representar la distribución además de varios resultados igualmente probables: una distribución uniforme caracterizada por una FDP plana. Imagina un dado normal. Sus resultados 1-6 son igualmente probables. Puede especificarse para cualquier número de resultados n, e incluso como una distribución continua.

Piense en una distribución uniforme como un "dado recto".

Binomial e hipergeométrica

La distribución binomial puede considerarse como la suma de los resultados de aquellos elementos que siguen la distribución de Bernoulli.

Lanza una moneda justa dos veces: ¿cuántas veces saldrá cara? Este es un número que sigue la distribución binomial. Sus parámetros son n, el número de intentos, y p, la probabilidad de "éxito" (en nuestro caso, cara o 1). Cada lanzamiento es un resultado o prueba distribuido por Bernoulli. Utilice la distribución binomial cuando cuente el número de éxitos en cosas como lanzar una moneda, donde cada lanzamiento es independiente de los demás y tiene la misma probabilidad de éxito.

O imagina una urna con la misma cantidad de bolas blancas y negras. Cierra los ojos, saca la pelota, anota su color y vuelve a colocarla. Repetir. ¿Cuántas veces se saca la bola negra? Este número también sigue la distribución binomial.

Presentamos esta extraña situación para que sea más fácil comprender el significado de la distribución hipergeométrica. Esta es la distribución del mismo número, pero en la situación si No devolvió las bolas. Ciertamente es prima de la distribución binomial, pero no es la misma ya que la probabilidad de éxito cambia con cada bola extraída. Si el número de bolas es suficientemente grande en comparación con el número de sorteos, entonces estas distribuciones son casi idénticas, ya que las posibilidades de éxito cambian muy ligeramente con cada sorteo.

Cuando alguien habla de sacar bolas de urnas sin devolverlas, casi siempre es seguro decir “sí, distribución hipergeométrica”, porque nunca he conocido a nadie en mi vida que realmente llenara urnas con bolas y luego las sacara y las devolviera. , o viceversa. Ni siquiera conozco a nadie que tenga botes de basura. Aún más a menudo, esta distribución debería surgir al seleccionar un subconjunto significativo de alguna población como muestra.

Nota traducción

Puede que aquí no quede muy claro, pero como el tutorial es un curso express para principiantes, conviene aclararlo. La población es algo que queremos evaluar estadísticamente. Para estimar, seleccionamos una determinada parte (subconjunto) y hacemos la estimación requerida sobre ella (luego este subconjunto se llama muestra), suponiendo que la estimación para toda la población será similar. Pero para que esto sea cierto, a menudo se requieren restricciones adicionales en la definición de un subconjunto de la muestra (o, por el contrario, a partir de una muestra conocida debemos evaluar si describe con suficiente precisión a la población).

Un ejemplo práctico: necesitamos seleccionar representantes de una empresa de 100 personas para viajar al E3. Se sabe que el año pasado ya viajaron allí 10 personas (pero nadie lo admite). ¿Cuánto mínimo se debe llevar para que haya una alta probabilidad de que haya al menos un compañero experimentado en el grupo? En este caso, la población es 100, la muestra es 10 y los requisitos de muestreo son al menos una persona que ya haya viajado en E3.

Wikipedia tiene un ejemplo menos divertido, pero más práctico, sobre piezas defectuosas en un lote.

Poison

¿Qué pasa con la cantidad de clientes que llaman a la línea directa de soporte técnico cada minuto? Este es un resultado cuya distribución parece ser binomial, si contamos cada segundo como una prueba de Bernoulli durante la cual el cliente no llama (0) o llama (1). Pero las empresas de suministro de energía lo saben muy bien: cuando se corta la electricidad, dos personas pueden llamar en un segundo. o incluso más de cien de la gente. Pensar en ello como pruebas de 60.000 milisegundos tampoco ayuda: hay más pruebas, la probabilidad de una llamada por milisegundo es menor, incluso si no cuentas dos o más al mismo tiempo, pero, técnicamente, esto sigue siendo No es una prueba de Bernoulli. Sin embargo, el razonamiento lógico con la transición al infinito funciona. Sea n tendiente al infinito y p a 0, de modo que np sea constante. Es como dividirse en fracciones de tiempo cada vez más pequeñas con una probabilidad cada vez menor de realizar una llamada. En el límite obtenemos la distribución de Poisson.

Al igual que la binomial, la distribución de Poisson es una distribución de conteo: el número de veces que sucederá algo. Está parametrizado no por la probabilidad p y el número de ensayos n, sino por la intensidad promedio λ, que, en analogía con el binomio, es simplemente un valor constante np. Distribución de Poisson: de qué se trata necesario Recuerde cuando hablamos de contar eventos durante un tiempo determinado con una intensidad determinada constante.

Cuando hay algo, como paquetes que llegan a un enrutador, o clientes que aparecen en una tienda, o algo esperando en la fila, piense en "Poisson".

Binomio geométrico y negativo

De pruebas simples de Bernoulli surge una distribución diferente. ¿Cuántas veces caerá cara una moneda antes de caer cara? El número de colas sigue una distribución geométrica. Al igual que la distribución de Bernoulli, está parametrizada por la probabilidad de un resultado exitoso, p. No está parametrizado por el número n, el número de pruebas de lanzamiento, porque el número de pruebas fallidas es precisamente el resultado.

Si la distribución binomial es "cuántos éxitos", entonces la distribución geométrica es "¿Cuántos fracasos antes del éxito?"

La distribución binomial negativa es una simple generalización de la anterior. Este es el número de fracasos antes de que haya r, no 1, éxitos. Por lo tanto, está parametrizado aún más por esta r. A veces se describe como el número de éxitos o fracasos. Pero, como dice mi coach de vida: “Tú decides qué es el éxito y qué es el fracaso”, es lo mismo, siempre y cuando recuerdes que la probabilidad p también debe ser la probabilidad correcta de éxito o fracaso, respectivamente.

Si necesita un chiste para aliviar la tensión, puede mencionar que las distribuciones binomial e hipergeométrica son un par obvio, pero la binomial geométrica y negativa también son bastante similares, y luego decir: “Bueno, ¿quién las llama así, eh? "

Exponencial y Weibula

De nuevo sobre las llamadas al soporte técnico: ¿cuánto tiempo pasará hasta la próxima llamada? La distribución de este tiempo de espera parece ser geométrica, porque cada segundo hasta que nadie llama es como un fracaso, hasta el segundo hasta que finalmente se produce la llamada. La cantidad de fallas es como la cantidad de segundos hasta que nadie llamó, y esto prácticamente Tiempo hasta la próxima llamada, pero “prácticamente” no nos alcanza. La cuestión es que este tiempo será la suma de segundos enteros y, por tanto, no será posible contar la espera dentro de este segundo antes de la llamada en sí.

Bueno, como antes, nos acercamos al límite de la distribución geométrica en lo que respecta al tiempo compartido, y listo. Obtenemos una distribución exponencial que describe con precisión el tiempo anterior a la llamada. Esta es una distribución continua, la primera de nuestro tipo, porque el resultado no es necesariamente en segundos completos. Al igual que la distribución de Poisson, está parametrizada por la intensidad λ.

Reiterando la conexión entre lo binomial y lo geométrico, el “¿cuántos eventos en el tiempo?” de Poisson. está relacionado con la exponencial "¿cuánto falta para el evento?" Si hay eventos cuyo número por unidad de tiempo obedece a la distribución de Poisson, entonces el tiempo entre ellos obedece a la distribución exponencial con el mismo parámetro λ. Esta correspondencia entre las dos distribuciones debe señalarse cuando se discute cualquiera de ellas.

La distribución exponencial debería venir a la mente cuando se piensa en el "tiempo hasta el evento", tal vez en el "tiempo hasta el fracaso". De hecho, esta es una situación tan importante que existen distribuciones más generalizadas para describir el MTBF, como la distribución de Weibull. Si bien la distribución exponencial es apropiada cuando la tasa de desgaste o la tasa de falla, por ejemplo, es constante, la distribución de Weibull puede modelar tasas de falla que aumentan (o disminuyen) con el tiempo. El exponencial es, en general, un caso especial.

Piense en "Weibull" cuando hable de MTBF.

Normal, lognormal, t de Student y chi-cuadrado

La distribución normal o gaussiana es probablemente una de las más importantes. Su forma de campana es inmediatamente reconocible. Al igual que , se trata de una entidad particularmente curiosa que se manifiesta en todas partes, incluso en las fuentes aparentemente más simples. Tome un conjunto de valores que sigan la misma distribución: ¡cualquiera! - y doblarlos. La distribución de su suma sigue (aproximadamente) una distribución normal. Cuantas más cosas se suman, más se acerca su suma a la distribución normal (el problema: la distribución de los términos debe ser predecible, independiente, tiende sólo a lo normal). Que esto sea cierto a pesar de la distribución original es sorprendente.

Nota traducción

Me sorprendió que el autor no escriba sobre la necesidad de una escala comparable de distribuciones sumadas: si una domina significativamente a las demás, la convergencia será extremadamente mala. Y, en general, la independencia mutua absoluta no es necesaria; una dependencia débil es suficiente.

Bueno, probablemente sea bueno para fiestas, como escribió.


Esto se llama "teorema del límite central" y necesitas saber qué es, por qué se llama así y qué significa; de lo contrario, te reirás instantáneamente.

En su contexto, la normalidad está asociada a todas las distribuciones. Aunque, básicamente, está asociado al reparto de todo tipo de cantidades. La suma de los ensayos de Bernoulli sigue una distribución binomial y, a medida que aumenta el número de ensayos, esta distribución binomial se acerca a una distribución normal. Asimismo, su prima es la distribución hipergeométrica. La distribución de Poisson, la forma límite del binomio, también se aproxima a la normalidad a medida que aumenta el parámetro de intensidad.

Los resultados que siguen una distribución lognormal producen valores cuyo logaritmo se distribuye normalmente. O en otras palabras: el exponente de un valor distribuido normalmente tiene una distribución lognormal. Si las sumas se distribuyen normalmente, recuerde que los productos se distribuyen lognormalmente.

La distribución t de Student es la base de la prueba t, que muchos no estadísticos estudian en otros campos. Se utiliza para hacer suposiciones sobre la media de una distribución normal y también tiende a la distribución normal a medida que aumenta su parámetro. Una característica distintiva de la distribución t son sus colas, que son más gruesas que las de la distribución normal.

Si el chiste de la cola gorda no conmovió lo suficiente a tu vecino, pasa a una historia bastante divertida sobre la cerveza. Hace más de 100 años, Guinness utilizó las estadísticas para mejorar su cerveza. Entonces William Seely Gosset inventó una teoría estadística completamente nueva para mejorar el cultivo de cebada. Gossett convenció a su jefe de que otros cerveceros no entenderían cómo utilizar sus ideas y recibió permiso para publicar, pero bajo el seudónimo de "Estudiante". El logro más famoso de Gosset es precisamente esta distribución t, que, se podría decir, lleva su nombre.

Finalmente, la distribución chi-cuadrado es la distribución de sumas de cuadrados de valores distribuidos normalmente. La prueba de chi-cuadrado se basa en esta distribución, que a su vez se basa en la suma de cuadrados de las diferencias, que deberían tener una distribución normal.

gamma y beta

En este punto, si ya has empezado a hablar de algo chi-cuadrado, la conversación comienza en serio. Es posible que ya estés hablando con verdaderos estadísticos y probablemente ya deberías retirarte, porque pueden surgir cosas como la distribución gamma. Esta es una generalización Y exponencial Y distribución chi-cuadrado. Al igual que la distribución exponencial, se utiliza para modelos complejos de tiempo de espera. Por ejemplo, aparece una distribución gamma cuando se simula el tiempo hasta los siguientes n eventos. Aparece en el aprendizaje automático como la "distribución previa adjunta" de un par de otras distribuciones.

No hables de estas distribuciones conjugadas, pero si es necesario, no olvides hablar de la distribución beta, porque es la conjugada anterior a la mayoría de las distribuciones mencionadas aquí. Los científicos de datos están seguros de que esto es exactamente para lo que fue creado. Menciona esto casualmente y ve a la puerta.

El comienzo de la sabiduría

Las distribuciones de probabilidad son algo sobre lo que no se puede saber demasiado. Los verdaderamente interesados ​​pueden consultar este mapa súper detallado de todas las distribuciones de probabilidad. Agregar etiquetas ¿Cuál es la idea detrás del razonamiento probabilístico?

El primer paso, el más natural, del razonamiento probabilístico es este: si tienes alguna variable que toma valores al azar, entonces te gustaría saber con qué probabilidades esa variable toma ciertos valores. La totalidad de estas probabilidades especifica la distribución de probabilidad. Por ejemplo, dado un dado, puedes A priori suponemos que con probabilidades iguales de 1/6 caerá en cualquier borde. Y esto sucede siempre que el hueso sea simétrico. Si el dado es asimétrico, entonces es posible determinar probabilidades más altas para aquellas caras que se caen con más frecuencia y probabilidades más bajas para aquellas caras que se caen con menos frecuencia, basándose en datos experimentales. Si alguna cara no aparece en absoluto, entonces se le puede asignar una probabilidad de 0. Ésta es la ley probabilística más simple que se puede utilizar para describir los resultados de lanzar un dado. Por supuesto, este es un ejemplo extremadamente simple, pero surgen problemas similares, por ejemplo, en los cálculos actuariales, cuando el riesgo real al emitir una póliza de seguro se calcula sobre la base de datos reales.

En este capítulo veremos las leyes probabilísticas que surgen con mayor frecuencia en la práctica.

Los gráficos de estas distribuciones se pueden trazar fácilmente en STATISTICA.

Distribución normal

La distribución de probabilidad normal se utiliza especialmente en estadística. La distribución normal da buen modelo para fenómenos reales en los que:

1) existe una fuerte tendencia a que los datos se agrupen alrededor de un centro;

2) positivo y desviaciones negativas desde el centro son igualmente probables;

3) la frecuencia de las desviaciones disminuye rápidamente cuando las desviaciones del centro aumentan.

El mecanismo subyacente a la distribución normal, explicado mediante el llamado teorema del límite central, se puede describir en sentido figurado de la siguiente manera. Imagina que tienes partículas de polen que dejas caer al azar en un vaso de agua. Al observar una sola partícula bajo un microscopio, verá un fenómeno sorprendente: la partícula se está moviendo. Por supuesto, esto sucede porque las moléculas de agua se mueven y transmiten su movimiento a las partículas de polen en suspensión.

Pero, ¿cómo se produce exactamente el movimiento? Aquí hay una pregunta más interesante. ¡Y este movimiento es muy extraño!

Hay un número infinito de influencias independientes sobre una partícula de polen individual en forma de impactos de moléculas de agua, que hacen que la partícula se mueva a lo largo de una trayectoria muy extraña. Bajo el microscopio, este movimiento se asemeja a una línea rota repetida y caóticamente. Estas torceduras no se pueden predecir; no hay ningún patrón en ellas que corresponda exactamente a los impactos caóticos de las moléculas sobre una partícula. Una partícula suspendida, después de haber experimentado el impacto de una molécula de agua en un momento aleatorio, cambia la dirección de su movimiento, luego se mueve por inercia durante un tiempo, luego vuelve a caer bajo el impacto de la siguiente molécula, y así sucesivamente. ¡Aparece un billar increíble en un vaso de agua!

Dado que el movimiento de las moléculas tiene una dirección y velocidad aleatorias, la magnitud y dirección de los giros en la trayectoria también son completamente aleatorias e impredecibles. Este asombroso fenómeno llamado movimiento browniano, descubierto en el siglo XIX, nos da mucho en qué pensar.

Si introducimos un sistema adecuado y marcamos las coordenadas de la partícula en determinados momentos de tiempo, obtendremos la ley normal. Más precisamente, los desplazamientos de la partícula de polen resultantes de impactos moleculares obedecerán a la ley normal.

Por primera vez, A. Einstein describió la ley del movimiento de una partícula de este tipo, llamada browniana, en un nivel físico de rigor. Luego, Lenzhevan desarrolló un enfoque más simple e intuitivo.

Los matemáticos del siglo XX dedicaron sus mejores páginas a esta teoría, y el primer paso se dio hace 300 años, cuando se descubrió la versión más simple del teorema del límite central.

En la teoría de la probabilidad, el teorema del límite central, originalmente conocido en la formulación de Moivre y Laplace en el siglo XVII como un desarrollo de la famosa ley de los grandes números de J. Bernoulli (1654-1705) (ver J. Bernoulli (1713) , Ars Conjectandi), actualmente está muy desarrollado y alcanzó su apogeo. en el principio moderno de invariancia, en cuya creación la escuela matemática rusa jugó un papel importante. Es en este principio que el movimiento de una partícula browniana encuentra su explicación matemática estricta.

La idea es que al sumar una gran cantidad de cantidades independientes (colisiones de moléculas sobre partículas de polen), bajo ciertas condiciones razonables, se obtienen cantidades distribuidas normalmente. Y esto sucede independientemente, es decir, invariantemente, de la distribución de los valores iniciales. En otras palabras, si una determinada variable está influenciada por muchos factores, estas influencias son independientes, relativamente pequeñas y se suman entre sí, entonces el valor resultante tiene una distribución normal.

Por ejemplo, un número casi infinito de factores determinan el peso de una persona (miles de genes, predisposición, enfermedades, etc.). Por tanto, se esperaría una distribución normal del peso en una población de todos los individuos.

Si usted es un financiero y juega en el mercado de valores, entonces, por supuesto, conoce casos en los que los precios de las acciones se comportan como partículas brownianas y experimentan impactos caóticos de muchos factores.

Formalmente, la densidad de distribución normal se escribe de la siguiente manera:

donde a y õ 2 son los parámetros de la ley, interpretados respectivamente como la media y la varianza de una variable aleatoria dada (debido al papel especial de la distribución normal, usaremos símbolos especiales para indicar su función de densidad y función de distribución). Visualmente, la gráfica de densidad normal es la famosa curva en forma de campana.

La función de distribución correspondiente de una variable aleatoria normal (a,õ 2) se denota por Ф(x; a,õ 2) y viene dada por la relación:


La ley normal con parámetros a = 0 y õ 2 = 1 se llama estándar.

Función inversa de la distribución normal estándar aplicada al valor z, 0

Utilice la calculadora de probabilidad de STATISTICA para calcular z a partir de x y viceversa.

Principales características de la ley normal:

Media, moda, mediana: E=x mod =x med =a;

Dispersión: D=õ 2 ;

Asimetría:

Exceso:

De las fórmulas se desprende claramente que la distribución normal se describe mediante dos parámetros:

a - media - promedio;

õ - desviación estándar - desviación estándar, léase: “sigma”.

A veces con la desviación estándar se llama desviación estándar, pero esta ya es una terminología obsoleta.

A continuación se presentan algunos datos útiles sobre la distribución normal.

El valor promedio determina la medida de ubicación de la densidad. La densidad de una distribución normal es simétrica con respecto a la media. La media de una distribución normal coincide con la mediana y la moda (ver gráficos).

Densidad de distribución normal con varianza 1 y media 1

Densidad de distribución normal con media 0 y varianza 0,01

Densidad de distribución normal con media 0 y varianza 4

A medida que aumenta la dispersión, la densidad de la distribución normal se expande o se extiende a lo largo del eje OX, cuando la dispersión disminuye, por el contrario, se contrae, concentrándose alrededor de un punto: el punto de valor máximo, que coincide con el valor promedio. . En el caso límite de varianza cero, la variable aleatoria degenera y toma un valor único igual a la media.

Es útil conocer las reglas de 2 y 3 sigma, o de 2 y 3 desviaciones estándar, que están relacionadas con la distribución normal y se utilizan en una variedad de aplicaciones. El significado de estas reglas es muy simple.

Si desde el punto de media o, lo que es lo mismo, desde el punto de máxima densidad de una distribución normal, ponemos dos y tres desviaciones estándar (2 y 3 sigma) a la derecha y a la izquierda, respectivamente, entonces la El área bajo el gráfico de densidad normal calculada a partir de este intervalo será, respectivamente, igual al 95,45% y al 99,73% de toda el área bajo el gráfico (¡compruébelo en la calculadora de probabilidad STATISTICA!).

En otras palabras, se puede expresar de la siguiente manera: el 95,45% y el 99,73% de todas las observaciones independientes en una población normal, como el tamaño de las piezas o el precio de las acciones, se encuentran entre 2 y 3 desviaciones estándar de la media.

Distribución uniforme

La distribución uniforme es útil cuando se describen variables en las que cada valor es igualmente probable; en otras palabras, los valores de la variable se distribuyen uniformemente en alguna región.

A continuación se muestran las fórmulas para la función de densidad y distribución de una variable aleatoria uniforme que toma valores en el intervalo [a, b].

A partir de estas fórmulas es fácil entender que la probabilidad de que una variable aleatoria uniforme tome valores del conjunto [c, d] [a, b], es igual a (d - c)/(b - a).

Pongamos a=0,b=1. A continuación se muestra un gráfico de una densidad de probabilidad uniforme centrada en el segmento.

Características numéricas de la ley uniforme:

Distribución exponencial

Ocurren acontecimientos que en el lenguaje cotidiano pueden denominarse raros. Si T es el tiempo entre las ocurrencias de eventos raros que ocurren en promedio con intensidad X, entonces el valor
T tiene una distribución exponencial con parámetro (lambda). La distribución exponencial se utiliza a menudo para describir los intervalos entre eventos aleatorios sucesivos, como los intervalos entre visitas a un sitio web impopular, ya que estas visitas son eventos raros.

Esta distribución tiene una propiedad muy interesante de ausencia de efecto secundario, o, como también se dice, la propiedad de Markov, en honor al famoso matemático ruso A. A. Markov, que se puede explicar de la siguiente manera. Si la distribución entre los momentos de ocurrencia de ciertos eventos es indicativa, entonces la distribución se cuenta desde cualquier momento. t hasta el próximo evento también tiene una distribución exponencial (con el mismo parámetro).

En otras palabras, para una secuencia de eventos raros, el tiempo de espera para el próximo visitante siempre se distribuye exponencialmente, independientemente de cuánto tiempo ya se haya esperado por él.

La distribución exponencial está relacionada con la distribución de Poisson: en un intervalo de tiempo unitario, el número de eventos, cuyos intervalos son independientes y distribuidos exponencialmente, tiene una distribución de Poisson. Si los intervalos entre visitas al sitio tienen una distribución exponencial, entonces el número de visitas, por ejemplo dentro de una hora, se distribuye según la ley de Poisson.

La distribución exponencial es un caso especial de la distribución de Weibull.

Si el tiempo no es continuo, sino discreto, entonces un análogo de la distribución exponencial es la distribución geométrica.

La densidad de distribución exponencial se describe mediante la fórmula:

Esta distribución tiene un solo parámetro, que determina sus características.

El gráfico de densidad de distribución exponencial se ve así:

Características numéricas básicas de la distribución exponencial:

Distribución de Erlang

Esta distribución continua está centrada en (0,1) y tiene la densidad:

La expectativa y la varianza son iguales respectivamente.

La distribución de Erlang lleva el nombre de A. Erlang, quien la utilizó por primera vez en problemas de teoría de colas y telefonía.

Una distribución de Erlang con parámetros µ y n es la distribución de la suma de n variables aleatorias independientes distribuidas idénticamente, cada una de las cuales tiene una distribución exponencial con parámetro nµ

En La distribución de Erlang n = 1 es igual que la distribución exponencial o exponencial.

Distribución de Laplace

La función de densidad de Laplace, o doble exponencial como también se la llama, se utiliza, por ejemplo, para describir la distribución del error en modelos de regresión. Si observa la gráfica de esta distribución, verá que consta de dos distribuciones exponenciales, simétricas con respecto al eje OY.

Si el parámetro de posición es 0, entonces la función de densidad de distribución de Laplace tiene la forma:

Las principales características numéricas de esta ley de distribución, suponiendo que el parámetro de posición sea cero, son las siguientes:

En general, la densidad de distribución de Laplace tiene la forma:

a es la media de la distribución; b - parámetro de escala; e - Número de Euler (2,71...).

Distribución gamma

La densidad de la distribución exponencial tiene una moda en el punto 0, lo que a veces resulta inconveniente para aplicaciones prácticas. En muchos ejemplos, se sabe de antemano que la moda de la variable aleatoria considerada no es igual a 0; por ejemplo, los intervalos entre los clientes que llegan a una tienda de comercio electrónico o visitan un sitio web tienen una moda pronunciada. Para modelar tales eventos, se utiliza la distribución gamma.

La densidad de distribución gamma tiene la forma:

donde Г es la función Г de Euler, a > 0 es el parámetro de “forma” y b > 0 es el parámetro de escala.

En un caso particular tenemos la distribución de Erlang y la distribución exponencial.

Principales características de la distribución gamma:

A continuación se muestran dos gráficos de densidad gamma con un parámetro de escala de 1 y parámetros de forma de 3 y 5.

Propiedad útil de la distribución gamma: la suma de cualquier número de variables aleatorias independientes distribuidas gamma (con el mismo parámetro de escala b)

(a l ,b) + (a 2 ,b) + --- +(a n ,b) también obedece a la distribución gamma, pero con parámetros a 1 + a 2 + + a n y b.

Distribución lognormal

Una variable aleatoria h se denomina logarítmicamente normal o lognormal si su logaritmo natural (lnh) está sujeto a la ley de distribución normal.

La distribución lognormal se utiliza, por ejemplo, al modelar variables como ingresos, edad de los recién casados ​​o tolerancia del estándar de sustancias nocivas en los alimentos.

Entonces, si el valor x tiene una distribución normal, entonces el valor y = e x tiene una distribución lognormal.

Si sustituye un valor normal en la potencia de un exponente, podrá comprender fácilmente que un valor lognormal es el resultado de multiplicaciones repetidas de variables independientes, del mismo modo que una variable aleatoria normal es el resultado de una suma repetida.

La densidad de distribución lognormal tiene la forma:

Principales características de la distribución lognormal:


Distribución chi-cuadrado

Suma de cuadrados m independiente valores normales con media 0 y varianza 1 tiene una distribución chi-cuadrado con m grados de libertad. Esta distribución se utiliza con mayor frecuencia en el análisis de datos.

Formalmente, la densidad de la distribución bien cuadrada con m grados de libertad tiene la forma:

por negativo La densidad x se vuelve 0.

Características numéricas básicas de la distribución chi-cuadrado:

El gráfico de densidad se muestra en la siguiente figura:

Distribución binomial

La distribución binomial es la distribución discreta más importante, que se concentra en unos pocos puntos. La distribución binomial asigna probabilidades positivas a estos puntos. Por tanto, la distribución binomial se diferencia de las distribuciones continuas (normal, chi-cuadrado, etc.), que asignan probabilidades cero a puntos seleccionados individualmente y se denominan continuas.

Puedes comprender mejor la distribución binomial considerando el siguiente juego.

Imagina que estás lanzando una moneda. Que exista la probabilidad de que se caiga el escudo de armas. p, y la probabilidad de que aterricen caras es q = 1 - p (estamos considerando el caso más general, cuando la moneda es asimétrica, tiene, por ejemplo, un centro de gravedad desplazado; hay un agujero en la moneda).

Conseguir un escudo de armas se considera un éxito, mientras que conseguir una cola se considera un fracaso. Entonces el número de caras (o cruces) extraídas tiene una distribución binomial.

Tenga en cuenta que la consideración de monedas asimétricas o dados irregulares es de interés práctico. Como señaló J. Neumann en su elegante libro "Un curso introductorio a la teoría de la probabilidad y la estadística matemática", la gente ha adivinado durante mucho tiempo que la frecuencia de los puntos de un dado depende de las propiedades del propio dado y puede modificarse artificialmente. Los arqueólogos descubrieron dos pares de dados en la tumba del faraón: los "honestos", con la misma probabilidad de que caigan todos los lados, y los falsos, con un cambio deliberado en el centro de gravedad, lo que aumentó la probabilidad de que cayesen seis.

Los parámetros de la distribución binomial son la probabilidad de éxito. p (q = 1 - p) y el número de pruebas n.

La distribución binomial es útil para describir la distribución de eventos binomiales, como el número de hombres y mujeres en empresas seleccionadas al azar. De particular importancia es el uso de la distribución binomial en problemas de juegos.

La fórmula exacta para la probabilidad m de éxito en n ensayos se escribe de la siguiente manera:

p-probabilidad de éxito

q es igual a 1-p, q>=0, p+q==1

n- número de pruebas, m =0,1...m

Principales características de la distribución binomial:

La gráfica de esta distribución para diferentes números de ensayos n y probabilidades de éxito p tiene la forma:

La distribución binomial está relacionada con las distribuciones normal y de Poisson (ver más abajo); en ciertos valores de parámetros en gran número pruebas que convierte en estas distribuciones. Esto es fácil de demostrar usando STATISTICA.

Por ejemplo, considerando una gráfica de una distribución binomial con parámetros p = 0,7, n = 100 (ver figura), utilizamos STATISTICA BASIC; puedes ver que el gráfico es muy similar a la densidad de una distribución normal (¡realmente lo es!).

Gráfico de distribución binomial con parámetros. p=0,05, n=100 es muy similar al gráfico de distribución de Poisson.

Como ya se mencionó, la distribución binomial surgió de la observación del juego de azar más simple: lanzar una moneda justa. En muchas situaciones este modelo sirve bueno primero aproximación para juegos más complejos y procesos aleatorios que surgen al jugar en la bolsa de valores. Es notable que las características esenciales de muchos procesos complejos puedan entenderse a partir de un modelo binomial simple.

Por ejemplo, considere la siguiente situación.

Marquemos la pérdida de un escudo de armas como 1, y la pérdida de una cola como menos 1 y sumaremos las ganancias y pérdidas en momentos sucesivos en el tiempo. Los gráficos muestran trayectorias típicas de un juego de este tipo para 1.000 lanzamientos, 5.000 lanzamientos y 10.000 lanzamientos. Observe cuánto tiempo está la trayectoria por encima o por debajo de cero; en otras palabras, el tiempo durante el cual un jugador gana en un juego completamente limpio es muy largo, y las transiciones de ganar a perder son relativamente raras, y esto es difícil de conciliar en el Mente desprevenida, para la cual la expresión “juego absolutamente limpio” suena como un hechizo mágico. Entonces, aunque el juego es justo en términos de sus condiciones, el comportamiento de una trayectoria típica no es justo en absoluto y no demuestra equilibrio.

Por supuesto, empíricamente este hecho es conocido por todos los jugadores; se asocia una estrategia cuando al jugador no se le permite irse con las ganancias, sino que se le obliga a jugar más.


Consideremos el número de lanzamientos durante los cuales un jugador gana (trayectoria superior a 0) y el segundo jugador pierde (trayectoria inferior a 0). A primera vista, parece que el número de lanzamientos de este tipo es aproximadamente el mismo. Sin embargo (ver el apasionante libro: Feller V. “Introducción a la teoría de la probabilidad y sus aplicaciones”. Moscú: Mir, 1984, p. 106) con 10.000 lanzamientos de una moneda ideal (es decir, para pruebas de Bernoulli con pag = q = 0,5, n=10.000) la probabilidad de que una de las partes esté a la cabeza durante más de 9.930 juicios y la otra menos de 70, supera el 0,1.

Sorprendentemente, en un juego de 10.000 lanzamientos de moneda justos, la probabilidad de que el liderazgo cambie como máximo 8 veces es mayor que 0,14, y la probabilidad de más de 78 cambios de liderazgo es aproximadamente 0,12.

Entonces, tenemos una situación paradójica: en una caminata simétrica de Bernoulli, las “ondas” en el gráfico entre retornos sucesivos a cero (ver gráficos) pueden ser sorprendentemente largas. Otra circunstancia está relacionada con esto, a saber, que para T n /n (fracción de tiempo en que la gráfica está por encima del eje x) los menos probables son valores cercanos a 1/2.

Los matemáticos descubrieron la llamada ley del arcoseno, según la cual por cada 0< а <1 вероятность неравенства , где Т n - число шагов, в течение которых первый игрок находится в выигрыше, стремится к

Distribución arcoseno

Esta distribución continua está centrada en el intervalo (0, 1) y tiene una densidad:

La distribución arcoseno está asociada con un paseo aleatorio. Esta es la distribución de la fracción de tiempo durante la cual el primer jugador gana al lanzar una moneda simétrica, es decir, una moneda que tiene iguales probabilidades. La S recae sobre el escudo y los fracs. De otra manera, un juego de este tipo puede considerarse como un paseo aleatorio de una partícula que, a partir de cero, realiza saltos individuales hacia la derecha o hacia la izquierda con la misma probabilidad. Dado que los saltos de partículas (caída de cara o cruz) son igualmente probables, este tipo de caminata a menudo se denomina simétrica. Si las probabilidades fueran diferentes, entonces tendríamos un paseo asimétrico.

El gráfico de densidad de distribución de arcoseno se muestra en la siguiente figura:

Lo más interesante es la interpretación cualitativa del gráfico, de la que se pueden sacar conclusiones sorprendentes sobre la serie de victorias y derrotas en un juego limpio. Mirando el gráfico, puedes ver que la densidad mínima está en el punto 1/2 "¡¿Y qué?!" - usted pregunta. Pero si piensas en esta observación, ¡tu sorpresa no tendrá límites! Resulta que, si bien el juego se define como justo, en realidad no lo es tanto como podría parecer a primera vista.

Las trayectorias aleatorias simétricas, en las que la partícula pasa el mismo tiempo tanto en el semieje positivo como en el negativo, es decir, a la derecha o a la izquierda del cero, son precisamente las menos probables. Pasando al lenguaje de los jugadores, podemos decir que cuando se lanza una moneda simétrica, los juegos en los que los jugadores pasan la misma cantidad de tiempo ganando y perdiendo son los menos probables.

Por el contrario, los juegos en los que un jugador tiene muchas más probabilidades de ganar y el otro de perder son los más probables. ¡Increíble paradoja!

Calcular la probabilidad de que la fracción de tiempo t durante la cual gana el primer jugador se encuentre entre t1 a t2, necesario del valor de la función de distribución F(t2) resta el valor de la función de distribución F(t1).

Formalmente obtenemos:

P(t1

Con base en este hecho, se puede calcular usando STATISTICA que en 10,000 pasos la partícula permanece en el lado positivo más de 9930 veces con una probabilidad de 0.1, es decir, en términos generales, tal posición se observará al menos en un caso. de cada diez (aunque, a primera vista, parece absurdo; véase la nota de Yu. V. Prokhorov, notable por su claridad, "El paseo de Bernoulli" en la enciclopedia "Probabilidad y estadística matemática", págs. 42-43, M.: Big Enciclopedia rusa, 1999).

Distribución binomial negativa

Esta es una distribución discreta que se asigna a puntos enteros. k = 0,1,2,... probabilidades:

p k =P(X=k)=C k r+k-1 p r (l-p) k ", donde 0<р<1,r>0.

La distribución binomial negativa se encuentra en muchas aplicaciones.

En general r > 0, la distribución binomial negativa se interpreta como la distribución del tiempo de espera para el r-ésimo “éxito” en un esquema de prueba de Bernoulli con la probabilidad de “éxito” p, por ejemplo, el número de tiradas que se deben realizar antes de dibujar el segundo emblema, en cuyo caso a veces se le llama distribución Pascal y es un análogo discreto de la distribución gamma.

En r = 1 distribución binomial negativa coincide con la distribución geométrica.

Si Y es una variable aleatoria que tiene una distribución de Poisson con un parámetro aleatorio, que a su vez tiene una distribución gamma con densidad

Entonces U tendrá una distribución binomial negativa con parámetros;

distribución de veneno

La distribución de Poisson a veces se denomina distribución de eventos raros. Ejemplos de variables distribuidas según la ley de Poisson son: el número de accidentes, el número de defectos en el proceso productivo, etc. La distribución de Poisson viene definida por la fórmula:

Principales características de una variable aleatoria de Poisson:

La distribución de Poisson está relacionada con la distribución exponencial y la distribución de Bernoulli.

Si el número de eventos tiene una distribución de Poisson, entonces los intervalos entre eventos tienen una distribución exponencial o exponencial.

Gráfico de distribución de Poisson:

Compare la gráfica de la distribución de Poisson con el parámetro 5 con la gráfica de la distribución de Bernoulli en p=q=0.5,n=100.

Verás que las gráficas son muy similares. En el caso general, existe el siguiente patrón (ver, por ejemplo, el excelente libro: Shiryaev A.N. “Probability”. Moscú: Nauka, p. 76): si en las pruebas de Bernoulli n toma valores grandes, y la probabilidad de éxito / ? es relativamente pequeño, de modo que el número promedio de éxitos (producto y nar) no es ni pequeño ni grande, entonces la distribución de Bernoulli con parámetros n, p se puede reemplazar por la distribución de Poisson con parámetro = np.

La distribución de Poisson se utiliza ampliamente en la práctica, por ejemplo, en gráficos de control de calidad como distribución de eventos raros.

Como otro ejemplo, considere el siguiente problema asociado con las líneas telefónicas y tomado de la práctica (ver: Feller V. Introducción a la teoría de la probabilidad y sus aplicaciones. Moscú: Mir, 1984, p. 205, así como Molina E. S. (1935) Probabilidad en ingeniería, Ingeniería eléctrica, 54, págs. 423-427; Monografía B-854 de publicaciones técnicas de Bell Telephone System). Esta tarea se puede traducir fácilmente a un lenguaje moderno, por ejemplo al lenguaje de las comunicaciones móviles, que es a lo que se invita a los lectores interesados.

El problema se formula de la siguiente manera. Sean dos centrales telefónicas: A y B.

La central telefónica A debe proporcionar comunicación entre 2000 suscriptores y la central B. La calidad de la comunicación debe ser tal que solo 1 llamada de cada 100 espere hasta que la línea esté libre.

La pregunta es: ¿cuántas líneas telefónicas es necesario instalar para garantizar la calidad de comunicación requerida? Evidentemente, es una estupidez crear 2.000 líneas, ya que muchas de ellas estarán libres durante mucho tiempo. De consideraciones intuitivas queda claro que, aparentemente, existe un número óptimo de líneas N. ¿Cómo calcular este número?

Comencemos con un modelo realista que describe la intensidad del acceso de un suscriptor a la red, teniendo en cuenta que la precisión del modelo, por supuesto, se puede verificar utilizando criterios estadísticos estándar.

Entonces, supongamos que cada abonado usa la línea en promedio 2 minutos por hora y las conexiones de los abonados son independientes (sin embargo, como bien señala Feller, esto último ocurre a menos que ocurra algún evento que afecte a todos los abonados, por ejemplo, una guerra o un huracán).

Luego tenemos 2000 ensayos de Bernoulli (lanzamientos de moneda) o conexiones de red con probabilidad de éxito p=2/60=1/30.

Necesitamos encontrar un N tal que la probabilidad de que más de N usuarios se conecten a la red al mismo tiempo no supere 0,01. Estos cálculos se pueden resolver fácilmente en el sistema STATISTICA.

Resolviendo el problema usando STATISTICA.

Paso 1. Abre el módulo Estadísticas Básicas. Cree un archivo binoml.sta que contenga 110 observaciones. Nombra la primera variable BINOMIO, la segunda variable - POISSON.

Paso 2. BINOMIO, Abrir la ventana Variable 1(ver imagen). Ingrese la fórmula en la ventana como se muestra en la figura. Clic en el botón DE ACUERDO.


Paso 3. Doble clic en el título POISSON, Abrir la ventana Variable 2(ver imagen)

Ingrese la fórmula en la ventana como se muestra en la figura. Tenga en cuenta que calculamos el parámetro de distribución de Poisson usando la fórmula =n×p. Por lo tanto = 2000 × 1/30. Clic en el botón DE ACUERDO.


STATISTICA calculará las probabilidades y las escribirá en el archivo generado.

Etapa 4. Desplácese hacia abajo hasta la observación número 86. Verá que la probabilidad de que haya 86 o más usuarios simultáneos entre 2000 usuarios de la red en una hora es 0,01347 si se utiliza la distribución binomial.

La probabilidad de que 86 o más personas de 2.000 usuarios de la red estén trabajando simultáneamente en una hora es de 0,01293, utilizando la aproximación de Poisson para la distribución binomial.

Dado que necesitamos una probabilidad no superior a 0,01, 87 líneas serán suficientes para proporcionar la calidad de comunicación requerida.

Se pueden obtener resultados similares si se utiliza la aproximación normal para la distribución binomial (¡mira esto!).

Tenga en cuenta que V. Feller no tenía el sistema STATISTICA a su disposición y utilizó tablas para distribuciones binomiales y normales.

Usando el mismo razonamiento, se puede resolver el siguiente problema discutido por W. Feller. Es necesario comprobar si se necesitan más o menos líneas para atender de forma fiable a los usuarios al dividirlos en 2 grupos de 1000 personas cada uno.

Resulta que cuando los usuarios se dividen en grupos, se necesitarán 10 líneas adicionales para lograr el mismo nivel de calidad.

También puedes tener en cuenta los cambios en la intensidad de la conexión de red a lo largo del día.

Distribución geométrica

Si se realizan pruebas independientes de Bernoulli y se cuenta el número de pruebas hasta el próximo "éxito", entonces este número tiene una distribución geométrica. Por lo tanto, si lanzas una moneda, el número de lanzamientos que necesitas hacer antes de que aparezca el siguiente escudo obedece a una ley geométrica.

La distribución geométrica está determinada por la fórmula:

F(x) = p(1-p) x-1

p - probabilidad de éxito, x = 1, 2,3...

El nombre de la distribución está relacionado con la progresión geométrica.

Entonces, la distribución geométrica especifica la probabilidad de que se haya producido el éxito en un determinado paso.

La distribución geométrica es un análogo discreto de la distribución exponencial. Si el tiempo cambia en cuantos, entonces la probabilidad de éxito en cada momento se describe mediante una ley geométrica. Si el tiempo es continuo, entonces la probabilidad se describe mediante una ley exponencial o exponencial.

Distribución hipergeométrica

Esta es una distribución de probabilidad discreta de una variable aleatoria X, tomando valores enteros m = 0, 1,2,...,n con probabilidades:

donde N, M y n son números enteros no negativos y M< N, n < N.

La distribución hipergeométrica generalmente se asocia con la elección sin reemplazo y determina, por ejemplo, la probabilidad de encontrar exactamente m bolas negras en una muestra aleatoria de tamaño n de una población que contiene N bolas, incluidas M negras y N - M blancas (ver, para ejemplo, la enciclopedia “Probabilidad” y estadística matemática”, M.: Gran Enciclopedia Rusa, p. 144).

La expectativa matemática de la distribución hipergeométrica no depende de N y coincide con la expectativa matemática µ=np de la distribución binomial correspondiente.

Varianza de la distribución hipergeométrica. no excede la varianza de la distribución binomial npq. En momentos de cualquier orden de la distribución hipergeométrica tienden a los valores correspondientes de los momentos de la distribución binomial.

Esta distribución ocurre con mucha frecuencia en aplicaciones de control de calidad.

Distribución polinomial

La distribución polinómica o multinomial naturalmente generaliza la distribución. Mientras que una distribución binomial ocurre cuando se lanza una moneda con dos resultados (cara o cresta), una distribución polinómica ocurre cuando se lanza un dado y hay más de dos resultados posibles. Formalmente, esta es una distribución de probabilidad conjunta de variables aleatorias X 1,...,X k, tomando valores enteros no negativos n 1,...,n k, que satisfacen la condición n 1 + ... + n k = n, con probabilidades:

El nombre "distribución multinomial" se explica por el hecho de que las probabilidades multinomiales surgen al expandir el polinomio (p 1 + ... + p k) n

Distribución beta

La distribución beta tiene una densidad de la forma:


La distribución beta estándar se centra en el intervalo de 0 a 1. Mediante transformaciones lineales, el valor beta se puede transformar para que tome valores en cualquier intervalo.

Características numéricas básicas de una cantidad que tiene una distribución beta:


Distribución de valores extremos.

La distribución de valores extremos (tipo I) tiene una densidad de la forma:

Esta distribución a veces también se denomina distribución de valores extremos.

La distribución de valores extremos se utiliza para modelar eventos extremos, por ejemplo, niveles de inundaciones, velocidades de remolinos, el máximo de los índices bursátiles para un año determinado, etc.

Esta distribución se utiliza, por ejemplo, en la teoría de la fiabilidad para describir el tiempo de fallo de los circuitos eléctricos, así como en cálculos actuariales.

Distribuciones de Rayleigh

La distribución de Rayleigh tiene una densidad de la forma:

donde b es el parámetro de escala.

La distribución de Rayleigh se concentra en el rango de 0 a infinito. En lugar del valor 0, STATISTICA le permite ingresar un valor diferente para el parámetro de umbral, que se restará de los datos originales antes de ajustar la distribución de Rayleigh. Por lo tanto, el valor del parámetro umbral debe ser menor que todos los valores observados.

Si dos variables 1 y 2 son independientes entre sí y se distribuyen normalmente con la misma varianza, entonces la variable tendrá una distribución de Rayleigh.

La distribución de Rayleigh se utiliza, por ejemplo, en la teoría del tiro.


Distribución Weibull

La distribución de Weibull lleva el nombre del investigador sueco Waloddi Weibull, quien utilizó esta distribución para describir tiempos de falla de varios tipos en la teoría de la confiabilidad.

Formalmente, la densidad de distribución de Weibull se escribe como:

A veces, la densidad de distribución de Weibull también se escribe como:

B - parámetro de escala;

C - parámetro de forma;

E es la constante de Euler (2,718...).

Parámetro de posición. Normalmente, la distribución de Weibull está centrada en el semieje de 0 a infinito. Si en lugar del límite 0 introducimos el parámetro a, que a menudo es necesario en la práctica, surge la llamada distribución de Weibull de tres parámetros.

La distribución de Weibull se utiliza ampliamente en la teoría de la confiabilidad y en los seguros.

Como se describió anteriormente, la distribución exponencial se usa a menudo como modelo para estimar el tiempo hasta la falla bajo el supuesto de que la probabilidad de falla de un objeto es constante. Si la probabilidad de falla cambia con el tiempo, se aplica la distribución de Weibull.

En con =1 o, en otra parametrización, con la distribución de Weibull, como se puede ver fácilmente en las fórmulas, se convierte en una distribución exponencial, y con - en la distribución de Rayleigh.

Se han desarrollado métodos especiales para estimar los parámetros de la distribución de Weibull (ver, por ejemplo, el libro: Lawless (1982) Statistical models and métodos for life data data, Belmont, CA: Lifetime Learning, que describe los métodos de estimación, así como los problemas que surgen al estimar el parámetro de posición para una distribución Weibull de tres parámetros).

A menudo, al realizar un análisis de confiabilidad es necesario considerar la probabilidad de falla dentro de un breve intervalo de tiempo después del momento en el que se produjo la falla. t siempre que hasta el momento No se produjo ninguna falla.

Esta función se denomina función de riesgo o función de tasa de fracaso y se define formalmente de la siguiente manera:

H(t) - función de tasa de falla o función de riesgo en el momento t;

f(t) - densidad de distribución de tiempos de falla;

F(t) - función de distribución de los tiempos de falla (integral de densidad en el intervalo).

En general, la función de tasa de fallas se escribe de la siguiente manera:

Cuando la función de riesgo es igual a una constante, que corresponde al funcionamiento normal del dispositivo (ver fórmulas).

Cuando la función de riesgo disminuye, lo que corresponde al rodaje del dispositivo.

Cuando la función de riesgo disminuye, lo que corresponde al envejecimiento del dispositivo. Las funciones de riesgo típicas se muestran en el gráfico.


A continuación se muestran gráficos de densidad de Weibull con varios parámetros. Es necesario prestar atención a tres rangos de valores del parámetro a:

En la primera región, la función de riesgo disminuye (período de ajuste), en la segunda región, la función de riesgo es igual a una constante, en la tercera región, la función de riesgo aumenta.

Se puede entender fácilmente lo dicho usando el ejemplo de la compra de un coche nuevo: primero viene un período de adaptación del coche, luego un largo período de funcionamiento normal, luego las piezas del coche se desgastan y existe el riesgo de que falle. aumenta bruscamente.

Es importante que todos los períodos de funcionamiento puedan ser descritos por la misma familia de distribución. Ésta es la idea detrás de la distribución Weibull.


Presentemos las principales características numéricas de la distribución de Weibull.


distribución de Pareto

En diversos problemas de estadística aplicada, las llamadas distribuciones truncadas son bastante comunes.

Por ejemplo, esta distribución se utiliza en seguros o en impuestos, cuando el interés es sobre ingresos que exceden un cierto valor c 0

Características numéricas básicas de la distribución de Pareto:


Distribución logística

La distribución logística tiene una función de densidad:

A - parámetro de posición;

B - parámetro de escala;

E - Número de Euler (2,71...).


Distribución Hotelling T 2

Esta distribución continua, centrada en el intervalo (0, Г), tiene la densidad:

donde estan los parametros n y k, n >_k >_1, se llaman grados de libertad.

En k = 1 Hotelling, la distribución P se reduce a la distribución de Student, y para cualquier k >1 puede considerarse como una generalización de la distribución de Student al caso multivariado.

La distribución de Hotelling se basa en la distribución normal.

Sea un vector aleatorio Y de k dimensiones una distribución normal con un vector de medias cero y una matriz de covarianza.

Consideremos la cantidad

donde los vectores aleatorios Z i son independientes entre sí y Y y se distribuyen de la misma manera que Y.

Entonces la variable aleatoria T 2 =Y T S -1 Y tiene una distribución T 2 -Hotelling con n grados de libertad (Y es un vector columna, T es el operador de transposición).

donde esta la variable aleatoria t n tiene una distribución de Student con n grados de libertad (ver “Probabilidad y estadística matemática”, Encyclopedia, p. 792).

Si Y tiene una distribución normal con media distinta de cero, entonces la distribución correspondiente se llama no central Hotelling T 2 -distribución con n grados de libertad y parámetro de no centralidad v.

La distribución T 2 de Hotelling se utiliza en estadística matemática en la misma situación que la distribución ^ de Student, pero sólo en el caso multivariado. Si los resultados de las observaciones X 1,..., X n son vectores aleatorios independientes, normalmente distribuidos, con un vector de medias µ y una matriz de covarianza no singular, entonces las estadísticas


tiene una distribución Hotelling T 2 con norte - 1 grados de libertad. Este hecho constituye la base del criterio de Hotelling.

En STATISTICA, la prueba de Hotelling está disponible, por ejemplo, en el módulo Estadísticas y tablas básicas (consulte el cuadro de diálogo a continuación).


Distribución Maxwell

La distribución de Maxwell surgió en física al describir la distribución de velocidades de las moléculas de un gas ideal.

Esta distribución continua está centrada en (0, ) y tiene la densidad:

La función de distribución tiene la forma:

donde Ф(x) es la función de distribución normal estándar. La distribución de Maxwell tiene un coeficiente de asimetría positivo y una moda única en un punto (es decir, la distribución es unimodal).

La distribución de Maxwell tiene momentos finales de cualquier orden; la expectativa matemática y la varianza son iguales, respectivamente, y

La distribución de Maxwell está naturalmente relacionada con la distribución normal.

Si X 1, X 2, X 3 son variables aleatorias independientes que tienen una distribución normal con parámetros 0 y õ 2, entonces la variable aleatoria Tiene una distribución Maxwell. Por tanto, la distribución de Maxwell puede considerarse como la distribución de la longitud de un vector aleatorio cuyas coordenadas en un sistema de coordenadas cartesianas en un espacio tridimensional son independientes y están normalmente distribuidas con media 0 y varianza õ 2.

Distribución de Cauchy

Esta sorprendente distribución a veces no tiene un valor medio, ya que su densidad tiende muy lentamente a cero a medida que x aumenta en valor absoluto. Estas distribuciones se denominan distribuciones de cola pesada. Si necesita encontrar una distribución que no tenga media, llámela inmediatamente distribución de Cauchy.

La distribución de Cauchy es unimodal y simétrica con respecto a la moda, que es a la vez la mediana y tiene una función de densidad de la forma:

Dónde c > 0 - parámetro de escala y a es el parámetro central, que determina simultáneamente los valores de la moda y la mediana.

La integral de densidad, es decir, la función de distribución, viene dada por la relación:

Distribución de estudiantes

El estadístico inglés W. Gosset, conocido con el seudónimo de “Student” y que comenzó su carrera con un estudio estadístico de la calidad de la cerveza inglesa, obtuvo en 1908 el siguiente resultado. Dejar x 0 , x 1 ,.., x m - independiente, (0, s 2) - variables aleatorias distribuidas normalmente:


Esta distribución, ahora conocida como distribución de Estudiantes (abreviada como La distribución t(m), donde m es el número de grados de libertad, es la base de la famosa prueba t, diseñada para comparar las medias de dos poblaciones.

Función de densidad f t (x) no depende de la varianza õ 2 de las variables aleatorias y, además, es unimodal y simétrica respecto al punto x = 0.

Características numéricas básicas de la distribución de Student:

La distribución t es importante en los casos en que se consideran estimaciones de la media y se desconoce la varianza muestral. En este caso, se utilizan la varianza muestral y la distribución t.

Para grandes grados de libertad (mayores que 30), la distribución t prácticamente coincide con la distribución normal estándar.

La gráfica de la función de densidad de distribución t se deforma a medida que aumenta el número de grados de libertad de la siguiente manera: el pico aumenta, las colas van más pronunciadamente hasta 0 y la gráfica de la función de densidad de distribución t parece estar comprimida lateralmente.


distribución F

Consideremos m 1 + m 2 cantidades independientes y (0, s 2) distribuidas normalmente

y pon

Obviamente, la misma variable aleatoria también se puede definir como la proporción de dos variables distribuidas chi-cuadrado independientes y apropiadamente normalizadas y , es decir

El famoso estadístico inglés R. Fisher demostró en 1924 que la densidad de probabilidad de una variable aleatoria F(m 1, m 2) viene dada por la función:


donde Г(у) es el valor de la función gamma de Euler. punto y, y la ley misma se llama distribución F con los números de grados de libertad del numerador y denominador iguales a m,1l m7, respectivamente

Características numéricas básicas de la distribución F:


La distribución F aparece en el análisis discriminante, el análisis de regresión, el análisis de varianza y otros tipos de análisis de datos multivariados.