Diskrete Gleichverteilung

Wahrscheinlichkeitsfunktion der diskreten Gleichverteilung auf { 0 , 1 , , 20 } {\displaystyle \{0,1,\dotsc ,20\}} , d. h. n = 21 {\displaystyle n=21}

Die diskrete Gleichverteilung ist eine spezielle Wahrscheinlichkeitsverteilung in der Stochastik. Eine diskrete Zufallsvariable X {\displaystyle X} mit endlich vielen Ausprägungen x 1 , , x n {\displaystyle x_{1},\dotsc ,x_{n}} hat eine diskrete Gleichverteilung, wenn die Wahrscheinlichkeit für jede ihrer Ausprägungen gleich ist. Es gilt dann P ( X = x i ) = 1 n {\displaystyle P(X=x_{i})={\tfrac {1}{n}}} für i { 1 , , n } {\displaystyle i\in \{1,\dotsc ,n\}} . Die diskrete Gleichverteilung ist univariat und zählt, wie ihr Name sagt, zu den diskreten Wahrscheinlichkeitsverteilungen.

Typischerweise findet diese Wahrscheinlichkeitsverteilung Anwendung bei Zufallsexperimenten, deren Ergebnisse gleichhäufig sind. Wenn man (mit oder ohne Begründung) annimmt, dass die n {\displaystyle n} Elementarereignisse gleich wahrscheinlich sind, spricht man von einem Laplace-Experiment. Gängige Beispiele für Laplace-Experimente sind das Werfen eines Laplace-Würfels (ein perfekter sechsseitiger Würfel, bei dem jede Zahl von eins bis sechs mit Wahrscheinlichkeit 1 6 {\displaystyle {\tfrac {1}{6}}} fällt) oder einer Laplace-Münze (eine perfekte Münze, bei der jede der beiden Seiten mit Wahrscheinlichkeit 1 2 {\displaystyle {\tfrac {1}{2}}} fällt). Siehe auch Stetige Gleichverteilung, Laplace-Formel.

Definition

Bei der diskreten Gleichverteilung werden verschiedene Fälle unterschieden. Diese unterscheiden sich durch die Ergebnismengen und dementsprechend unterschiedlich definierte Wahrscheinlichkeitsfunktionen und Verteilungsfunktionen. In allen Fällen wird die Gleichverteilung mit U T {\displaystyle {\mathcal {U}}_{T}} bezeichnet, wobei T {\displaystyle T} der Träger ist.

Allgemeiner Fall

Im allgemeinsten Fall sind die auftretenden Ergebnisse beliebige x i {\displaystyle x_{i}} mit i = 1 , , n {\displaystyle i=1,\dotsc ,n} und x i < x j {\displaystyle x_{i}<x_{j}} , wenn i < j {\displaystyle i<j} ist. Der Träger ist also T = { x 1 , , x n } {\displaystyle T=\{x_{1},\dotsc ,x_{n}\}} . Die Wahrscheinlichkeitsfunktion der diskreten Gleichverteilung ist dann

P ( X = x ) = f ( x ) = { 1 n für  x = x i ( i = 1 , , n ) , 0 sonst . {\displaystyle \operatorname {P} (X=x)=f(x)={\begin{cases}{\frac {1}{n}}&{\text{für }}x=x_{i}(i=1,\dotsc ,n),\\0&{\text{sonst}}.\end{cases}}}

und damit genügt sie der Verteilungsfunktion

F X ( t ) = P ( X t ) = | { k : x k t } | n {\displaystyle F_{X}(t)=P(X\leq t)={\frac {|\{k:x_{k}\leq t\}|}{n}}} .

Hier sind insbesondere auch nichtnatürliche Zahlen für die x i {\displaystyle x_{i}} zugelassen.

Auf beliebigen ganzen Zahlen

Wahrscheinlichkeitsfunktion für n = b a + 1 = 5 {\displaystyle n=b-a+1=5}
Die zugehörige Verteilungsfunktion

Wählt man zwei a < b Z {\displaystyle a<b\in \mathbb {Z} } mit b a = n 1 {\displaystyle b-a=n-1} , so wählt man als Träger die Menge

T := { a , a + 1 , a + 2 , , b 1 , b } {\displaystyle T:=\{a,a+1,a+2,\dotsc ,b-1,b\}}

und definiert die Wahrscheinlichkeitsfunktion

P ( X = x ) = f ( x ) = { 1 n für  x T , 0 sonst . {\displaystyle \operatorname {P} (X=x)=f(x)={\begin{cases}{\frac {1}{n}}&{\text{für }}x\in T,\\0&{\text{sonst}}.\end{cases}}}

und die Verteilungsfunktion

F X ( t ) = P ( X t ) = { 0 falls  t < a , t a + 1 b a + 1 falls  a t < b , 1 falls  t b . {\displaystyle F_{X}(t)=P(X\leq t)={\begin{cases}0&{\text{falls }}t<a,\\{\frac {\lfloor t\rfloor -a+1}{b-a+1}}&{\text{falls }}a\leq t<b,\\1&{\text{falls }}t\geq b.\end{cases}}}

Auf natürlichen Zahlen bis n

Als Spezialfall der beiden obigen Definitionen (setze x i = i {\displaystyle x_{i}=i} oder a = 1 , b = n {\displaystyle a=1,b=n} ) wählt man als Träger

T = { 1 , 2 , , n } {\displaystyle T=\{1,2,\dotsc ,n\}}

und erhält als Wahrscheinlichkeitsfunktion

P ( X = x ) = f ( x ) = { 1 n für  x N  und  x n , 0 sonst . {\displaystyle \operatorname {P} (X=x)=f(x)={\begin{cases}{\frac {1}{n}}&{\text{für }}x\in \mathbb {N} {\text{ und }}x\leq n,\\0&{\text{sonst}}.\end{cases}}}

sowie die Verteilungsfunktion

F X ( t ) = P ( X t ) = { 0 falls  t < 1 , t n falls  1 t < n , 1 falls  t n . {\displaystyle F_{X}(t)=P(X\leq t)={\begin{cases}0&{\text{falls }}t<1,\\{\frac {\lfloor t\rfloor }{n}}&{\text{falls }}1\leq t<n,\\1&{\text{falls }}t\geq n.\end{cases}}}

Hierbei bezeichnet t {\displaystyle \lfloor t\rfloor } die Abrundungsfunktion.

Eigenschaften

Erwartungswert

Der Erwartungswert ist im allgemeinen Fall

E ( X ) = 1 n i = 1 n x i {\displaystyle \operatorname {E} (X)={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}

Im zweiten Fall erhält man

E ( X ) = a + b 2 {\displaystyle \operatorname {E} (X)={\frac {a+b}{2}}} ,

was sich im dritten Fall zu

E ( X ) = n + 1 2 {\displaystyle \operatorname {E} (X)={\frac {n+1}{2}}}

vereinfacht. Diese Ergebnisse erhält man mithilfe der Gaußschen Summenformel.

Varianz

Die Darstellung der Varianz ist für den allgemeinen Fall bereits unübersichtlich, da keine Vereinfachungen möglich sind:

Var ( X ) = 1 n ( i = 1 n x i 2 1 n ( i = 1 n x i ) 2 ) {\displaystyle \operatorname {Var} (X)={\frac {1}{n}}\left(\sum _{i=1}^{n}x_{i}^{2}-{\frac {1}{n}}\left(\sum _{i=1}^{n}x_{i}\right)^{2}\right)} .

Für den zweiten Fall ergibt sich

Var ( X ) = ( b a + 1 ) 2 1 12 {\displaystyle \operatorname {Var} (X)={\frac {(b-a+1)^{2}-1}{12}}} .

Im dritten Fall gilt

Var ( X ) = n 2 1 12 {\displaystyle \operatorname {Var} (X)={\frac {n^{2}-1}{12}}} .

Symmetrie

Im zweiten und dritten Fall ist die diskrete Wahrscheinlichkeitsverteilung symmetrisch um ihren Erwartungswert. Im allgemeinen Fall ist keine Aussage möglich.

Schiefe

Für die letzten beiden Varianten ist die Schiefe gleich Null, im ersten Fall benötigt man eine symmetrische Verteilung, um auf die Schiefe Null schließen zu können.

v ( X ) = 0 {\displaystyle \operatorname {v} (X)=0}

Wölbung und Exzess

Die Exzess ist im zweiten Fall

γ = 1 , 2 0 , 2 Var ( X ) 1 = 6 5 12 5 ( b a + 2 ) ( b a ) {\displaystyle \gamma =-1{,}2-0{,}2\cdot \operatorname {Var} (X)^{-1}={\frac {-6}{5}}-{\frac {12}{5(b-a+2)(b-a)}}}

und damit ist die Wölbung

β 2 = 1 , 8 0 , 2 Var ( X ) 1 {\displaystyle \beta _{2}=1{,}8-0{,}2\cdot \operatorname {Var} (X)^{-1}}

Dies vereinfacht sich im dritten Fall zum Exzess

γ = 1 , 2 12 5 ( n 2 1 ) {\displaystyle \gamma =-1{,}2-{\frac {12}{5(n^{2}-1)}}}

und zur Wölbung

β 2 = 1 , 8 12 5 ( n 2 1 ) {\displaystyle \beta _{2}=1{,}8-{\frac {12}{5(n^{2}-1)}}}

Entropie

Die Entropie der diskreten Gleichverteilung ist für alle drei Varianten

H ( X ) = log 2 ( n ) {\displaystyle \mathrm {H} (X)=\log _{2}(n)}

gemessen in Bit. Unter allen diskreten Verteilungen ist die Gleichverteilung diejenige mit der größtmöglichen Entropie.[1]

Median

Im allgemeinen Fall fällt der Median der diskret gleich verteilten Zufallsvariable mit dem Median der Ausprägungen x 1 , , x n {\displaystyle x_{1},\dotsc ,x_{n}} zusammen:

m ~ = { x n + 1 2 n  ungerade 1 2 ( x n 2 + x n 2 + 1 ) n  gerade. {\displaystyle {\tilde {m}}={\begin{cases}x_{\frac {n+1}{2}}&n{\text{ ungerade}}\\{\frac {1}{2}}\left(x_{\frac {n}{2}}+x_{{\frac {n}{2}}+1}\right)&n{\text{ gerade.}}\end{cases}}} .

Im zweiten Fall ist dann

m ~ = a + b 2 {\displaystyle {\tilde {m}}={\frac {a+b}{2}}}

und dementsprechend im dritten Fall

m ~ = n + 1 2 {\displaystyle {\tilde {m}}={\frac {n+1}{2}}} .

Modus

Der Modus lässt sich zwar angeben, hat aber wenig Aussagekraft. Er entspricht genau dem Träger der Verteilung, sprich ( x i ) i = 1 , , n {\displaystyle (x_{i})_{i=1,\dots ,n}} , bzw. { a , , b } {\displaystyle \{a,\dots ,b\}} oder { 1 , , n } {\displaystyle \{1,\dots ,n\}} .

Wahrscheinlichkeitserzeugende Funktion

Sind im zweiten Fall a , b 0 {\displaystyle a,b\geq 0} , so ist die wahrscheinlichkeitserzeugende Funktion gegeben durch

m X ( t ) = t a t b + 1 n ( 1 t ) {\displaystyle m_{X}(t)={\frac {t^{a}-t^{b+1}}{n(1-t)}}} .

Im dritten Fall ergibt dies dann

m X ( t ) := t ( 1 t n ) n ( 1 t ) {\displaystyle m_{X}(t):={\frac {t(1-t^{n})}{n(1-t)}}}

Beide Fälle lassen sich elementar mittels der geometrischen Reihe zeigen.

Momenterzeugende Funktion

Die momenterzeugende Funktion ergibt sich für beliebige a < b Z {\displaystyle a<b\in \mathbb {Z} } als

M X ( t ) = e a t e ( b + 1 ) t n ( 1 e t ) {\displaystyle M_{X}(t)={\frac {e^{at}-e^{(b+1)t}}{n(1-e^{t})}}} bzw.
M X ( t ) = e t e ( n + 1 ) t n ( 1 e t ) {\displaystyle M_{X}(t)={\frac {e^{t}-e^{(n+1)t}}{n(1-e^{t})}}} .

Charakteristische Funktion

Die charakteristische Funktion ergibt sich für beliebige a < b Z {\displaystyle a<b\in \mathbb {Z} } als

φ X ( t ) = e i a t e i ( b + 1 ) t n ( 1 e i t ) {\displaystyle \varphi _{X}(t)={\frac {e^{iat}-e^{i(b+1)t}}{n(1-e^{it})}}} bzw.
φ X ( t ) = e i t e i ( n + 1 ) t n ( 1 e i t ) {\displaystyle \varphi _{X}(t)={\frac {e^{it}-e^{i(n+1)t}}{n(1-e^{it})}}} .

Schätzer

Das Problem, bei einer auf { 1 , , N } {\displaystyle \{1,\dotsc ,N\}} gleich verteilten Zufallsvariable den Parameter N {\displaystyle N} zu schätzen, wird auch das Taxiproblem genannt. Diese Bezeichnung entsteht aus der Überlegung, dass man am Bahnhof steht und die Nummern der Taxis beobachten kann. Geht man davon aus, dass alle Nummern gleich verteilt sind, entsprechen die Taxis dem Ziehen einer Stichprobe und der Parameter N {\displaystyle N} der Gesamtzahl der Taxis in der Stadt. Ist x = ( x 1 , , x n ) {\displaystyle x=(x_{1},\dotsc ,x_{n})} eine diskret gleich verteilte Stichprobe aus { 1 , , N } {\displaystyle \{1,\dotsc ,N\}} , so ist der Maximum-Likelihood-Schätzer für den Parameter N {\displaystyle N} gegeben durch

T M ( x ) = max i = 1 , , n x i {\displaystyle T_{M}(x)=\max _{i=1,\dotsc ,n}x_{i}} .

Er ist insbesondere nicht erwartungstreu, da er den wirklichen Wert tendenziell unterschätzt und nie überschätzt, sondern nur asymptotisch erwartungstreu. Die Einführung eines Korrekturterms führt zu dem Schätzer

T M ( x ) = n + 1 n ( max i = 1 , , n x i ) {\displaystyle T'_{M}(x)={\frac {n+1}{n}}\left(\max _{i=1,\dotsc ,n}x_{i}\right)} .

Oder aber man schätzt den mittleren Abstand der Werte in der Stichprobe durch min i = 1 , , n x i {\displaystyle \min _{i=1,\dots ,n}x_{i}} ab und erhält aufs Neue einen Schätzer

T I ( x ) = ( max i = 1 , , n x i ) + ( min i = 1 , , n x i ) 1 {\displaystyle T_{I}(x)=\left(\max _{i=1,\dotsc ,n}x_{i}\right)+\left(\min _{i=1,\dotsc ,n}x_{i}\right)-1} .

Dieser ist erwartungstreu, genauso wie

T S ( x ) = ( 2 n i = 1 n x i ) 1 {\displaystyle T_{S}(x)=\left({\frac {2}{n}}\sum _{i=1}^{n}x_{i}\right)-1} .

Das Taxiproblem ist ein Standardbeispiel der Schätztheorie, um zu zeigen, dass sich ohne Probleme mehrere verschiedene Schätzer für dasselbe Problem finden lassen, von denen a priori nicht klar ist, welcher besser ist.[2] Varianten des Taxiproblems waren im Zweiten Weltkrieg wichtig, um aus den Seriennummern abgeschossener Panzer Rückschlüsse auf die Anzahl der Panzer in der gegnerischen Armee zu ziehen (vgl. German tank problem). Dies entspräche dann dem Schätzen von a , b {\displaystyle a,b} , wenn man davon ausgeht, dass die Seriennummern auf { a , a + 1 , , b 1 , b } {\displaystyle \{a,a+1,\dotsc ,b-1,b\}} gleich verteilt sind.

Beziehung zu anderen Verteilungen

Beziehung zur Bernoulli-Verteilung

Die Bernoulli-Verteilung mit p = q = 1 2 {\displaystyle p=q={\tfrac {1}{2}}} ist eine diskrete Gleichverteilung auf { 0 , 1 } {\displaystyle \{0,1\}} .

Beziehung zur Beta-Binomialverteilung

Die Beta-Binomialverteilung mit a = b = 1 {\displaystyle a=b=1} ist eine diskrete Gleichverteilung auf { 0 , , n } {\displaystyle \{0,\dotsc ,n\}} .

Beziehung zur Zweipunktverteilung

Die Zweipunktverteilung ist für p = q = 1 2 {\displaystyle p=q={\tfrac {1}{2}}} eine diskrete Gleichverteilung auf { a , b } {\displaystyle \{a,b\}} .

Beziehung zur Rademacher-Verteilung

Die Rademacher-Verteilung ist eine diskrete Gleichverteilung auf { 1 , 1 } {\displaystyle \{-1,1\}}

Beziehung zum Urnenmodell

Die diskrete Gleichverteilung ist die Basis aller Überlegungen, die Im Urnenmodell angestellt werden, da das Ziehen jeder der Kugeln aus der Urne gleich wahrscheinlich sein soll. Je nachdem, wie die Kugeln gefärbt, nummeriert oder zurückgelegt werden (oder auch nicht), ergeben sich somit aus der diskreten Gleichverteilung eine Vielzahl anderer wichtiger Verteilungen wie z. B. die Binomialverteilung, Geometrische Verteilung, Hypergeometrische Verteilung, Negative Binomialverteilung und Multinomialverteilung.

Summe von gleichverteilten Zufallsgrößen

Die Summe zweier unabhängiger gleich verteilter Zufallsgrößen ist trapezverteilt, sind die Zufallsgrößen zudem identisch verteilt, so ist die Summe dreiecksverteilt.

Stetiger Fall

Die diskrete Gleichverteilung kann leicht auf reelle Intervalle oder beliebige messbare Mengen mit positivem Volumen verallgemeinert werden. Sie wird dann stetige Gleichverteilung genannt.

Beispiel

Sechsseitiger Laplace-Würfel

Das Zufallsexperiment ist: Ein Würfel wird einmal geworfen. Die möglichen Ausprägungen der Zufallsvariablen X {\displaystyle X} sind: x 1 = 1 , x 2 = 2 , , x 6 = 6 {\displaystyle x_{1}=1,x_{2}=2,\dotsc ,x_{6}=6} . Nach der klassischen Wahrscheinlichkeitsauffassung ist die Wahrscheinlichkeit für jede Ausprägung gleich. Sie hat dann die Wahrscheinlichkeitsfunktion

P ( X = x ) = f ( x ) = { 1 6 für x = x i ( i = 1 , , 6 ) 0 sonst {\displaystyle P(X=x)=f(x)={\begin{cases}{\frac {1}{6}}&{\text{für}}\;x=x_{i}(i=1,\dotsc ,6)\\0&{\text{sonst}}\end{cases}}}

mit dem Erwartungswert E ( X ) {\displaystyle \operatorname {E} (X)} für x i = i {\displaystyle x_{i}=i} und n = 6 {\displaystyle n=6} :

E ( X ) = 7 / 2 = 3 , 5 {\displaystyle E(X)=7/2=3{,}5}

und der Varianz

V ( X ) = 35 12 2 , 92 {\displaystyle V(X)={\frac {35}{12}}\approx 2{,}92} .

Entscheidungsproblem des Marketing

Eine Anwendung in der Praxis könnte etwa ein Problem des Operations Research (Marketing) sein. Ein Unternehmen möchte ein neues Produkt auf dem Markt einführen:

Man versucht, den Erfolg des Produkts quantitativ vorauszuschätzen. Es wird vereinfachend von 5 verschiedenen verkauften Stückzahlen ausgegangen: 0, 1.000, 5.000, 10.000 und 50.000. Da über die Wahrscheinlichkeit der einzelnen Absatzzahlen keine verlässliche Schätzung möglich ist, verwendet man der Einfachheit halber gleiche Wahrscheinlichkeiten.

Man kann nun den Entscheidungsprozess, d. h. die individuelle Kaufentscheidung objektivieren, also den erwarteten durchschnittlichen Absatz ermitteln und sich überlegen, etwa anhand von Entscheidungsbäumen, inwieweit erhöhte Werbeausgaben die Absatzzahlen erhöhen könnten.

Abgrenzung

Die diskrete Gleichverteilung wird oft auch nach Pierre-Simon Laplace benannt (Laplace-Würfel). Sie hat jedoch nichts mit der stetigen Laplace-Verteilung zu tun.

Weblinks

Einzelnachweise

  1. Andy Lawrence: Probability in Physics: An Introductory Guide. Springer, 2019, ISBN 978-3-03004544-9, S. 215. 
  2. Ann Largey, John E. Spencer: Estimation of the Parameter in the Discrete “Taxi” Problem, With and Without Replacement. In: The Economic and Social Review. Band 27, Nr. 2, 1996, S. 119–136 (tara.tcd.ie [PDF]). 
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart