Distribución de Poisson, Historia, Definición, Propiedades, Distribuciones relacionadas, Aparición, Generación de variables aleatorias Poisson-distribuidos, Estimación de parámetros, Bivariante distribución de Poisson, Distribución de Poisson y números primos

En teoría de la probabilidad y la estadística, la distribución de Poisson es una distribución de probabilidad discreta que expresa la probabilidad de que un determinado número de eventos que ocurren en un intervalo fijo de tiempo y/o espacio si estos eventos se producen con una tasa media conocida e independientemente del tiempo desde el último evento. La distribución de Poisson también puede ser utilizado para el número de eventos en otros intervalos especificados tales como la distancia, área o volumen.

Por ejemplo, supongamos que alguien normalmente recibe 4 piezas de correo por día en promedio. Habrá, sin embargo, una cierta extensión: a veces un poco más, a veces un poco menos, de vez en cuando nada en absoluto. Teniendo en cuenta sólo la tasa media, durante un cierto período de observación, y suponiendo que el proceso, o la mezcla de los procesos, que produce el flujo del evento es esencialmente aleatoria, la distribución de Poisson especifica qué tan probable es que el recuento será 3, o 5 , o 10, o cualquier otro número, durante un período de observación. Es decir, que predice el grado de propagación en torno a una tasa media conocida de ocurrencia.

La derivación de la sección de distribución de Poisson muestra la relación con una definición formal.

Antecedentes históricos de la distribución de Poisson fue descrito por Gullberg.

Historia

La distribución fue introducido por primera vez por Simon Denis Poisson y publicado, junto con su teoría de la probabilidad, en 1837 en su obra Recherches sur la probabilit des jugements en matire criminelle et en matire civile. El trabajo se centró en ciertas variables aleatorias N que cuentan, entre otras cosas, el número de ocurrencias discretas que tienen lugar durante un intervalo de tiempo de longitud dada. El resultado había sido dado previamente por Abraham de Moivre en De Mensura Sortis seu, de Probabilitate Eventuum en Ludis un Casu fortuito Pendentibus en Philosophical Transactions de la Royal Society, p. 219.

Una aplicación práctica de esta distribución fue hecha por Ladislao Bortkiewicz en 1898 cuando se le dio la tarea de investigar el número de soldados en el ejército prusiano matado accidentalmente por tiro de caballos, este experimento introdujo la distribución de Poisson para el campo de la ingeniería de confiabilidad.

Definición

A estocástica discreta variables X se dice que tiene una distribución de Poisson con parámetro? > 0, si para k = 0, 1, 2, ... la función de masa de probabilidad de X está dada por:

donde

  • e es la base del logaritmo natural
  • k! es el factorial de k.
  • cuando se observa el número de eventos que ocurren en el intervalo de tiempo

El número real positivo? es igual al valor esperado de X y también para su varianza

La distribución de Poisson se puede aplicar a sistemas con un gran número de posibles eventos, cada uno de los cuales es poco frecuente. La distribución de Poisson se llama a veces Poissonian.

Propiedades

Significar

  • El valor esperado de una variable aleatoria de Poisson-distribuido es igual a? y también lo es su varianza.
  • El coeficiente de variación es, mientras que el índice de dispersión es 1.
  • La desviación media respecto a la media es
  • El modo de una variable aleatoria de Poisson-distribuido con no entero? es igual a, que es el mayor entero menor o igual a?. Esto también se escribe como piso. ¿Cuándo? es un entero positivo, los modos son? y? - 1.
  • Todos los cumulantes de la distribución de Poisson son iguales a este valor esperado?. El momento factorial de n-ésimo de la distribución de Poisson es? N.

Mediana

Límites de la mediana de la distribución son conocidos y están afiladas:

 

Momentos más altos

  • Cuanto mayor sea mk momentos de la distribución de Poisson sobre el origen son polinomios de Touchard en?:

 donde las llaves {} indican los números de Stirling de segunda especie. Los coeficientes de los polinomios tienen un significado combinatoria. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces la fórmula de Dobinski dice que el n-ésimo momento es igual al número de particiones de un conjunto de tamaño n.

  • Sumas de distribución de Poisson variables aleatorias:

 Si son independientes, y luego. A contrario es el teorema de Raikov, que dice que si la suma de dos variables aleatorias independientes es Poisson-distribuida, entonces también lo es cada una de esas dos variables aleatorias independientes.

Otras propiedades

  • La distribución de Poisson son distribuciones de probabilidad infinitamente divisibles.
  • La dirección Kullback-Leibler divergencia de puntos de interés de Pois está dada por
  • Límites para las probabilidades de la cola de una variable aleatoria de Poisson se pueden derivar usando un argumento enlazado Chernoff.

Distribuciones relacionadas

  • Si y son independientes, entonces la diferencia sigue una distribución Skellam.
  • Si y son independientes, entonces la distribución de la condición de una distribución binomial. En concreto, teniendo en cuenta,. Más en general, si X1, X2, ..., Xn son variables independientes aleatorias de Poisson con parámetros? 1,? 2, ...,? N entonces

 dado. De hecho,.

  • Si y la distribución de, condicional en X = k, es una distribución binomial,, entonces la distribución de Y sigue una distribución de Poisson. De hecho, si, condicional en X = k, sigue una distribución multinomial,, a continuación, cada uno sigue una distribución de Poisson independiente.
  • La distribución de Poisson se puede obtener como un caso límite de la distribución binomial como el número de ensayos tiende a infinito y el número esperado de éxitos permanece fijo - véase la ley de eventos raros abajo. Por lo tanto, se puede utilizar como una aproximación de la distribución binomial si n es suficientemente grande y p es suficientemente pequeño. Hay una regla de oro que indica que la distribución de Poisson es una buena aproximación de la distribución binomial si n es al menos 20 y p es menor que o igual a 0,05, y una excelente aproximación si n = 100 y np = 10.
  • La distribución de Poisson es un caso especial de distribución generalizada tartamudeo de Poisson con sólo un parámetro. El tartamudeo distribución de Poisson se puede deducir de la distribución límite de distribución multinomial univariado.
  • Para valores suficientemente grandes de?, La distribución normal de media? y la varianza?, es una excelente aproximación a la distribución de Poisson. Si? es mayor que aproximadamente 10, entonces la distribución normal es una buena aproximación si se realiza una corrección de continuidad apropiado, es decir, P, donde x es un número entero no negativo, se sustituye por P.
  • Varianza de estabilización de transformación: Cuando una variable se distribuye de Poisson, su raíz cuadrada es una distribución aproximadamente normal con valor esperado de alrededor y la varianza de alrededor de 1/4. En esta transformación, la convergencia a la normalidad es mucho más rápido que la variable no transformada. Otros, un poco más complicadas transformaciones estabilizadores varianza están disponibles, uno de los cuales es Anscombe transformación. Ver la transformación de datos para usos más generales de las transformaciones.
  • Si para cada t> 0 el número de llegadas en el intervalo de tiempo sigue la distribución de Poisson con media? t, entonces la sucesión de los tiempos entre llegadas son independientes e idénticamente distribuido variables aleatorias exponenciales habiendo significa 1 /?.
  • Las funciones de distribución acumulada de la Poisson y distribuciones chi-cuadrado se relacionan de la siguiente manera:

 y

Aparición

Aplicaciones de la distribución de Poisson se pueden encontrar en muchos campos relacionados con recuento:

  • Ejemplo de sistema eléctrico: las llamadas telefónicas que llegan en un sistema.
  • Astronomía ejemplo: los fotones que llegan a un telescopio.
  • Biología ejemplo: el número de mutaciones en una cadena de ADN por unidad de longitud.
  • Ejemplo de gestión: los clientes que llegan en un mostrador o centro de llamadas.
  • Ejemplo de ingeniería civil: coches llegan a un semáforo.
  • Ejemplo, financieros y de seguros: Número de Pérdidas/siniestros ocurridos en un período determinado de tiempo.
  • Ejemplo Sismología Terremoto: Un modelo de Poisson asintótica de riesgo sísmico de grandes terremotos. .
  • Radiactividad Ejemplo: Descomposición de un núcleo radiactivo.

La distribución de Poisson se plantea en relación con los procesos de Poisson. Se aplica a diversos fenómenos de propiedades discretas siempre que la probabilidad de que ocurra el fenómeno es constante en el tiempo o en el espacio. Ejemplos de eventos que pueden ser modelados como una distribución de Poisson incluyen:

  • El número de soldados muertos por caballos comienza cada año en cada cuerpo de la caballería prusiana. En este ejemplo, se hizo famoso por un libro de Ladislao Josephovich Bortkiewicz.
  • El número de células de levadura utiliza cuando elaboración de la cerveza Guinness cerveza. En este ejemplo, se hizo famoso por William Sealy Gosset.
  • El número de llamadas telefónicas que llegan a un centro de llamadas por minuto.
  • El número de goles en los deportes que implican a dos equipos que compiten.
  • El número de muertes por año en un grupo de edad determinado.
  • El número de saltos en el precio de una acción en un intervalo de tiempo dado.
  • Bajo la suposición de homogeneidad, se accede a un servidor web el número de veces por minuto.
  • El número de mutaciones en un tramo dado de ADN después de una cierta cantidad de radiación.
  • La proporción de células que se infectan a una multiplicidad de infección determinada.
  • La focalización de los cohetes V-1 en Londres durante la Segunda Guerra Mundial.

Derivación de la distribución de Poisson - La ley de eventos raros

La distribución de Poisson puede derivarse considerando un intervalo, en el tiempo, el espacio o de otro tipo, en el que los eventos ocurren al azar, con un número medio conocido. El intervalo se divide en subintervalos de igual tamaño. La probabilidad de que un evento caerá en el subintervalo es para cada uno igual a, y la ocurrencia de un evento en aproximadamente puede ser considerado como un ensayo de Bernoulli. El número total de eventos a continuación, será de aproximadamente binomial con parámetros y distribuye La aproximación será mejor con cada vez mayor, y converge a la de distribución de la distribución de Poisson con parámetro

En varios de los ejemplos anteriores, tales como, el número de mutaciones en una secuencia dada de ADN-los eventos que están siendo contadas son en realidad los resultados de los ensayos discretas, y se pueden modelar con mayor precisión utilizando la distribución binomial, que es

En tales casos n es muy grande y p es muy pequeña. A continuación, la distribución puede ser aproximado por la distribución de Poisson menos engorroso

Esta aproximación es a veces conocida como la ley de eventos raros, ya que cada una de las n pruebas individuales Bernoulli ocurre raramente. El nombre puede ser engañoso porque el número total de eventos de éxito en un proceso de Poisson no tiene por qué ser raro si el np parámetro no es pequeño. Por ejemplo, el número de llamadas telefónicas a una centralita ocupado en una hora sigue una distribución de Poisson con los eventos que aparecen frecuente para el operador, pero son raros desde el punto de vista del miembro medio de la población que es muy poco probable que haga una llamada a la centralita en esa hora.

La ley de la palabra se utiliza a veces como sinónimo de distribución de probabilidad, y la convergencia en ley significa la convergencia en la distribución. En consecuencia, la distribución de Poisson es a veces llamada la ley de los números pequeños, ya que es la distribución de probabilidad del número de ocurrencias de un evento que ocurre raramente, pero tiene muchas posibilidades de ocurrir. La ley de los pequeños números es un libro escrito por Ladislao Bortkiewicz acerca de la distribución de Poisson, publicado en 1898 - Algunos han sugerido que la distribución de Poisson debería haber sido llamado a la distribución Bortkiewicz.

Proceso de Poisson multidimensional

La distribución de Poisson surge como la distribución de los recuentos de ocurrencias de eventos en intervalos en los procesos multidimensionales de Poisson de una manera directamente equivalente al resultado de procesos unidimensionales. Este, está D es cualquier región del espacio multidimensional para el que | D |, el área o el volumen de la región, es finita, y si N es de contar el número de eventos en D, a continuación,

Otras aplicaciones de la ciencia

En un proceso de Poisson, el número de apariciones observadas fluctúa alrededor de su media? con una desviación estándar. Estas fluctuaciones se denominan ruido de Poisson o como ruido de disparo.

La correlación de la media y desviación estándar en el conteo de ocurrencias discretas independientes es útil científicamente. Mediante la supervisión de cómo las fluctuaciones varían de acuerdo con la señal de media, se puede estimar la contribución de una sola ocurrencia, incluso si dicha contribución es demasiado pequeño para ser detectado directamente. Por ejemplo, la dirección de carga de un electrón puede ser estimado mediante la correlación de la magnitud de una corriente eléctrica, con su ruido de disparo. Si N electrones pasan a un punto en un tiempo t dado en la media, la corriente media es; ya que las fluctuaciones de corriente deben ser del orden, la carga puede estimarse a partir de la relación.

Un ejemplo cotidiano es el grado de aspereza que aparece como fotografías se agrandan, el grado de aspereza es debido a las fluctuaciones de Poisson en el número de granos de plata reducidas, no a los propios granos individuales. Al correlacionar el grado de aspereza con el grado de ampliación, se puede estimar la contribución de un grano individual. Muchas otras aplicaciones moleculares de ruido de Poisson se han desarrollado, por ejemplo, la estimación de la densidad del número de moléculas de receptor en una membrana celular.

En teoría de conjuntos Causal los elementos discretos del espacio-tiempo siguen una distribución de Poisson en el volumen.

Generación de variables aleatorias Poisson-distribuidos

Un simple algoritmo para generar números Poisson distribuidos al azar ha sido dada por Knuth:

 poisson algoritmo de números aleatorios: init: Sea L? e-?, k? 0 yp? 1. hacer: k? k 1. Generar número u aleatoria uniforme y dejar que p? p u. mientras p> L. regreso k - 1.

Aunque simple, la complejidad es lineal?. Hay muchos otros algoritmos para superar esto. Algunos se dan en Ahrens y Dieter, ver referencias abajo. Además, para valores grandes de?, Puede haber problemas de estabilidad debido a la numéricos término e-?. Una de las soluciones para grandes valores de? es el muestreo de rechazo, otra es utilizar una aproximación gaussiana a la de Poisson.

Transformada inversa de muestreo es simple y eficiente para valores pequeños de?, Y requiere sólo un número u aleatorio uniforme por muestra. Probabilidades acumuladas se examinan sucesivamente hasta que uno supera u.

Estimación de parámetros

Máxima verosimilitud

Dada una muestra de n valores de medición ki se desea estimar el valor del parámetro? de la población de Poisson de la que se extrajo la muestra. La estimación de máxima verosimilitud es

Dado que cada observación tiene expectativa? así que significa esta muestra. Por lo tanto, la estimación de máxima verosimilitud es un estimador insesgado de?. También es un estimador eficiente, es decir, su varianza de estimación alcanza obligado el Cramr-Rao inferior. Por lo tanto es MVUE. También se puede demostrar que la suma es una estadística completa y suficiente para?.

Para demostrar suficiencia podemos usar el teorema de factorización. Considere la posibilidad de partición de la función de masa de probabilidad de la distribución de Poisson conjunta para la muestra en dos partes: una que depende únicamente de la muestra y uno que depende del parámetro y la muestra sólo a través de la función. Entonces, es una estadística suficiente para.

Tenga en cuenta que el primer término, sólo depende. El segundo término, depende de la muestra sólo a través. Por lo tanto, es suficiente.

Para completar, una familia de distribuciones se dice que es completa si y sólo si implica que para todos. Si el individuo se iid, entonces. El conocimiento de la distribución queremos investigar es fácil ver que la estadística es completa.

Para esta igualdad de mantener, es obvio que debe ser 0. Esto se deduce del hecho de que ninguno de los otros términos será 0 para todos en la suma y para todos los valores posibles de. Por lo tanto, para todos implica que la estadística y se ha demostrado que ser completa.

Intervalo de confianza

El intervalo de confianza para la media de una distribución de Poisson se puede expresar mediante la relación entre las funciones de distribución acumulada de la Poisson y la distribución de chi-cuadrado. La distribución chi-cuadrado es en sí estrechamente relacionado con la distribución gamma, y esto conduce a una expresión alternativa. Dado un k observación de una distribución de Poisson con media, un intervalo de confianza para con el nivel de confianza 1 - a es

o de forma equivalente,

donde es la función cuantil de la distribución chi-cuadrado con n grados de libertad y es la función cuantil de una distribución gamma con parámetro de forma n y parámetro de escala 1. Este intervalo es "exacta" en el sentido de que la probabilidad de cobertura nunca es menor que el nominal 1 - a.

Cuando cuantiles de la distribución Gamma no están disponibles, una aproximación precisa a este intervalo exacto se ha propuesto:

donde denota la desviación normal estándar con zona de cola superior a/2.

Para la aplicación de estas fórmulas en el mismo contexto que el anterior, se podría establecer

calcular un intervalo para n =?, y luego derivar el intervalo de?.

Inferencia bayesiana

En la inferencia bayesiana, el conjugado previo para el parámetro de tasa? de la distribución de Poisson es la distribución gamma. Dejar

denotar que? se distribuye de acuerdo a la g densidad gamma con parámetros en términos de un parámetro de forma y un parámetro de escala inversa:

Entonces, dada la misma muestra de n valores de Ki medidos como antes, y una antes de Gamma, la distribución posterior es

La media posterior E se aproxima a la estimación de máxima verosimilitud en el límite.

La distribución posterior de predicción para una sola observación adicional es una distribución binomial negativa, a veces llamado una distribución gamma-Poisson.

Bivariante distribución de Poisson

Esta distribución se ha ampliado para el caso bivariante. La función de generación para esta distribución es

con

Las distribuciones marginales son de Poisson y de Poisson y el coeficiente de correlación se limita a la gama

La distribución Skellam es un caso particular de esta distribución.

Distribución de Poisson y números primos

Gallagher en 1976 mostró que los números primos en intervalos cortos siguen una distribución de Poisson. Ernie Croot declaró esto en lenguaje matemático informal en sus apuntes de clase en la distribución de Poisson. Para entender esta relación se requerirá que el teorema de los números primos.

Este teorema indica que el número de primos es de aproximadamente, donde el logaritmo se llevará a la base e. En símbolos, si denota el número de primos menores que x entonces

Esto implica que

En lo que sigue la notación se utiliza para denotar el número de números primos en un intervalo dado.

Supongamos que es un número grande, por ejemplo. A continuación, un número elegido al azar tiene probabilidad de que será primer. Un intervalo típico contendrá alrededor de un primo.

Más que esto es cierto: si se elige un número al azar, y elegir y no demasiado grande, entonces el número de primos en es aproximadamente Poisson-distribuida:

Tenga en cuenta que la igualdad no se utiliza aquí con el fin de obtener la igualdad que tendríamos que dejar de alguna manera. Cuanto más grande es la más cerca de la probabilidad anterior viene a.

Es un ejercicio interesante para determinar por qué se espera que los números primos que Poisson-distribuido.