Propagación de errores

En Estadística, la propagación de incertidumbre (o propagación de errores) es el efecto de variables de incertidumbre (o errores) en la incertidumbre de una función matemática basada en ellos. Cuando las variables son los valores de mediciones experimentales tienen incertidumbre debido a la medición de limitaciones (por ejemplo, instrumento de precisión), que se propagan a la combinación de variables en la función;

La incertidumbre es normalmente definida por el error absoluto. La incertidumbre también puede ser definida por el error relativo Δx/x, que usualmente es escrito como un porcentaje.

Más comúnmente, el error en una cantidad, Δ x {\displaystyle \Delta x} , está dado por la desviación estándar, σ {\displaystyle \sigma } . La desviación estándar es la raíz cuadrada positiva de la varianza, σ 2 {\displaystyle \sigma ^{2}} . El valor de una cantidad y su error son, a menudo, expresados como x ± Δ x {\displaystyle x\pm \Delta x} . Si la distribución de probabilidad estadística de la variable es conocida o puede ser asumida, es posible derivar el intervalo de confianza para describir la región dentro de la cual el valor verdadero de la variable puede ser encontrado. Por ejemplo, el intervalo de confianza de 68% de una variable perteneciente a una distribución normal es ± una desviación estándar del valor, esto es, existe un 68% de probabilidad que el valor verdadero se encuentre en la región x ± σ {\displaystyle x\pm \sigma } . Si las variables están correlacionadas, entonces la covarianza debe ser tomada en cuenta.

Combinaciones lineales

Sea f k ( x 1 , x 2 , , x n ) {\displaystyle f_{k}(x_{1},x_{2},\dots ,x_{n})} un conjunto de k funciones que son combinaciones lineales de n {\displaystyle n} variables x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\dots ,x_{n}} con coeficientes de combinación a 1 k , a 2 k , , a n k , ( k = 1.. m ) {\displaystyle a_{1k},a_{2k},\dots ,a_{nk},(k=1..m)} .

f k = i n a i k x i : f = a T x {\displaystyle f_{k}=\sum _{i}^{n}a_{ik}x_{i}:\mathbf {f=a^{T}x} \,}

y sea la matriz de covarianza en x denotada por M x {\displaystyle \mathbf {M^{x}} \,} .

M x = ( σ 1 2 COV 12 COV 13 COV 12 σ 2 2 COV 23 COV 13 COV 23 σ 3 2 ) {\displaystyle {\mathbf {M^{x}} }={\begin{pmatrix}\sigma _{1}^{2}&{\text{COV}}_{12}&{\text{COV}}_{13}&\dots \\{\text{COV}}_{12}&\sigma _{2}^{2}&{\text{COV}}_{23}&\dots \\{\text{COV}}_{13}&{\text{COV}}_{23}&\sigma _{3}^{2}&\dots \\\vdots &\vdots &\vdots &\ddots \\\end{pmatrix}}}

Entonces, la matriz de covarianaza M f {\displaystyle \mathbf {M} ^{f}\,} , de f está dada por

M i j f = k n l n a i k M k l x a l j : M f = a T M x a . {\displaystyle M_{ij}^{f}=\sum _{k}^{n}\sum _{l}^{n}a_{ik}M_{kl}^{x}a_{lj}:\mathbf {M^{f}=a^{T}M^{x}a} .}

Esta es la expresión más general para la propagación del error de un conjunto de variables a otro. Cuando los errores en x no están correlacionados, la expresión general se simplifica a

M i j f = k n a i k ( σ k 2 ) x a k j . {\displaystyle M_{ij}^{f}=\sum _{k}^{n}a_{ik}\left(\sigma _{k}^{2}\right)^{x}a_{kj}.}

Obsérvese que, incluso aunque los errores en x puedan estar no correlacionados, sus errores en f siempre lo están. Las expresiones generales para una función simple, f, son un poco más sencillas.

f = i n a i x i : f = a T x {\displaystyle f=\sum _{i}^{n}a_{i}x_{i}:f=\mathbf {a^{T}x} \,}
σ f 2 = i n j n a i M i j x a j = a T M x a {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}\sum _{j}^{n}a_{i}M_{ij}^{x}a_{j}=\mathbf {a^{T}M^{x}a} }

Cada término de covarianza, M i j {\displaystyle M_{ij}} puede ser expresado en términos del coeficiente de correlación ρ i j {\displaystyle \rho _{ij}\,} por M i j = ρ i j σ i σ j {\displaystyle M_{ij}=\rho _{ij}\sigma _{i}\sigma _{j}\,} , con lo que una expresión alternativa para la varianza de f es

σ f 2 = i n a i 2 σ i 2 + i n j ( j i ) n a i a j ρ i j σ i σ j . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}+\sum _{i}^{n}\sum _{j(j\neq i)}^{n}a_{i}a_{j}\rho _{ij}\sigma _{i}\sigma _{j}.}

En el caso de que las variables x estén no correlacionadas, esto se simplifica más aún a

σ f 2 = i n a i 2 σ i 2 . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}.}

Combinaciones no lineales

Cuando f es un conjunto de una combinación no lineal de las variables x, generalmente debe ser linealizada por aproximación a una expansión de la serie de Taylor de primer orden, aunque en algunos casos pueden derivarse fórmulas exactas que no dependen de la expansión.[1]

f k f k 0 + i n f k x i x i {\displaystyle f_{k}\approx f_{k}^{0}+\sum _{i}^{n}{\frac {\partial f_{k}}{\partial {x_{i}}}}x_{i}}

Donde f k x i {\displaystyle {\frac {\partial f_{k}}{\partial x_{i}}}} denota la derivada parcial de fk con respecto a la variable i-ésima. Puesto que f 0k es una constante, no contribuye al error en f. En consecuencia, la propagación del error sigue el caso lineal, visto anteriormente, pero reemplazando los coeficientes lineales, aik y ajk por las derivadas parciales, f k x i {\displaystyle {\frac {\partial f_{k}}{\partial x_{i}}}} y f k x j {\displaystyle {\frac {\partial f_{k}}{\partial x_{j}}}} .

Ejemplo

Cualquier función no lineal, f(a,b), de dos variables, a y b, puede ser expandida como

f f 0 + f a a + f b b {\displaystyle f\approx f^{0}+{\frac {\partial f}{\partial a}}a+{\frac {\partial f}{\partial b}}b}

de donde se tiene

σ f 2 = ( f a ) 2 σ a 2 + ( f b ) 2 σ b 2 + 2 f a f b C O V a b . {\displaystyle \sigma _{f}^{2}=\left({\frac {\partial f}{\partial a}}\right)^{2}\sigma _{a}^{2}+\left({\frac {\partial f}{\partial b}}\right)^{2}\sigma _{b}^{2}+2{\frac {\partial f}{\partial a}}{\frac {\partial f}{\partial b}}COV_{ab}.}

En el caso particular que f = a b {\displaystyle f=ab\!} , f a = b , f b = a {\displaystyle {\frac {\partial f}{\partial a}}=b,{\frac {\partial f}{\partial b}}=a} . Entonces

σ f 2 = b 2 σ a 2 + a 2 σ b 2 + 2 a b C O V a b {\displaystyle \sigma _{f}^{2}=b^{2}\sigma _{a}^{2}+a^{2}\sigma _{b}^{2}+2abCOV_{ab}}

o

( σ f f ) 2 = ( σ a a ) 2 + ( σ b b ) 2 + 2 ( σ a a ) ( σ b b ) ρ a b . {\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}=\left({\frac {\sigma _{a}}{a}}\right)^{2}+\left({\frac {\sigma _{b}}{b}}\right)^{2}+2\left({\frac {\sigma _{a}}{a}}\right)\left({\frac {\sigma _{b}}{b}}\right)\rho _{ab}.}

Advertencias

La estimación de errores para funciones no lineales está sesgada debido al uso de series de expansión truncadas. La extensión de este sesgo depende de la naturaleza de la función; por ejemplo, el sesgo en el error calculado para log x se incrementa si x aumenta, dado que la expansión de 1+x es una buena aproximación solo si x es pequeña.

En aplicaciones de data correspondiente, es a menudo posible asumir que los errores de medida no están correlacionados; sin embargo, los parámetros derivados de estas mediciones, tales como parámetros Mínimos cuadrados, estarán correlacionados. Por ejemplo, en una regresión lineal, los errores en la pendiente y la intercepción estarán correlacionados y esta correlación debe ser tomada en cuenta cuando se derive el error en un valor calculado.

y = m z + c : σ y 2 = z 2 σ m 2 + σ c 2 + 2 z ρ σ m σ c {\displaystyle y=mz+c:\sigma _{y}^{2}=z^{2}\sigma _{m}^{2}+\sigma _{c}^{2}+2z\rho \sigma _{m}\sigma _{c}}

En el caso especial de la inversa 1 / B {\displaystyle 1/B} donde B = N ( 0 , 1 ) {\displaystyle B=N(0,1)} , la distribución es una distribución de Cauchy y no hay una varianza definible. Para tales distribuciones de ratio, puede haber probabilidades definidas para intervalos que pueden ser definidos o bien por simulación Monte Carlo o, en algunos casos, usando la transformación Geary-Hinkley.[2]

Fórmulas de ejemplo

Esta tabla muestra las varianzas de funciones simples de las variables reales A , B {\displaystyle A,B\,} con desviaciones estándar σ A , σ B {\displaystyle \sigma _{A},\sigma _{B}\,} , coeficiente de correlación ρ A B {\displaystyle \rho _{AB}\,} y constantes de valores reales, conocidas precisamente, a , b {\displaystyle a,b\,} .

Función Varianza Desviación Estándar
f = a A {\displaystyle f=aA\,} σ f 2 = a 2 σ A 2 {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}} σ f = | a | σ A {\displaystyle \sigma _{f}=|a|\sigma _{A}}
f = a A + b B {\displaystyle f=aA+bB\,} σ f 2 = a 2 σ A 2 + b 2 σ B 2 + 2 a b σ A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}+2ab\,\sigma _{AB}} σ f = a 2 σ A 2 + b 2 σ B 2 + 2 a b σ A B {\displaystyle \sigma _{f}={\sqrt {a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}+2ab\,\sigma _{AB}}}}
f = a A b B {\displaystyle f=aA-bB\,} σ f 2 = a 2 σ A 2 + b 2 σ B 2 2 a b σ A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}-2ab\,\sigma _{AB}} σ f = a 2 σ A 2 + b 2 σ B 2 2 a b σ A B {\displaystyle \sigma _{f}={\sqrt {a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}-2ab\,\sigma _{AB}}}}
f = A B {\displaystyle f=AB\,} σ f 2 f 2 [ ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A B A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+2{\frac {\sigma _{AB}}{AB}}\right]} [3][4] σ f | f | ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A B A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+2{\frac {\sigma _{AB}}{AB}}}}}
f = A B {\displaystyle f={\frac {A}{B}}\,} σ f 2 f 2 [ ( σ A A ) 2 + ( σ B B ) 2 2 σ A B A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}-2{\frac {\sigma _{AB}}{AB}}\right]} [5] σ f | f | ( σ A A ) 2 + ( σ B B ) 2 2 σ A B A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}-2{\frac {\sigma _{AB}}{AB}}}}}
f = a A b {\displaystyle f=aA^{b}\,} σ f 2 ( a b A b 1 σ A ) 2 = ( f b σ A A ) 2 {\displaystyle \sigma _{f}^{2}\approx \left({a}{b}{A}^{b-1}{\sigma _{A}}\right)^{2}=\left({\frac {{f}{b}{\sigma _{A}}}{A}}\right)^{2}} σ f | a b A b 1 σ A | = | f b σ A A | {\displaystyle \sigma _{f}\approx \left|{a}{b}{A}^{b-1}{\sigma _{A}}\right|=\left|{\frac {{f}{b}{\sigma _{A}}}{A}}\right|}
f = a ln ( b A ) {\displaystyle f=a\ln(bA)\,} σ f 2 ( a σ A A ) 2 {\displaystyle \sigma _{f}^{2}\approx \left(a{\frac {\sigma _{A}}{A}}\right)^{2}} [6] σ f | a σ A A | {\displaystyle \sigma _{f}\approx \left|a{\frac {\sigma _{A}}{A}}\right|}
f = a log 10 ( b A ) {\displaystyle f=a\log _{10}(bA)\,} σ f 2 ( a σ A A ln ( 10 ) ) 2 {\displaystyle \sigma _{f}^{2}\approx \left(a{\frac {\sigma _{A}}{A\ln(10)}}\right)^{2}} [6] σ f | a σ A A ln ( 10 ) | {\displaystyle \sigma _{f}\approx \left|a{\frac {\sigma _{A}}{A\ln(10)}}\right|}
f = a e b A {\displaystyle f=ae^{bA}\,} σ f 2 f 2 ( b σ A ) 2 {\displaystyle \sigma _{f}^{2}\approx f^{2}\left(b\sigma _{A}\right)^{2}} [7] σ f | f | | ( b σ A ) | {\displaystyle \sigma _{f}\approx \left|f\right|\left|\left(b\sigma _{A}\right)\right|}
f = a b A {\displaystyle f=a^{bA}\,} σ f 2 f 2 ( b ln ( a ) σ A ) 2 {\displaystyle \sigma _{f}^{2}\approx f^{2}(b\ln(a)\sigma _{A})^{2}} σ f | f | | ( b ln ( a ) σ A ) | {\displaystyle \sigma _{f}\approx \left|f\right|\left|(b\ln(a)\sigma _{A})\right|}
f = a sin ( b A ) {\displaystyle f=a\sin(bA)\,} σ f 2 [ a b cos ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\approx \left[ab\cos(bA)\sigma _{A}\right]^{2}} σ f | a b cos ( b A ) σ A | {\displaystyle \sigma _{f}\approx \left|ab\cos(bA)\sigma _{A}\right|}
f = a cos ( b A ) {\displaystyle f=a\cos \left(bA\right)\,} σ f 2 [ a b sin ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\approx \left[ab\sin(bA)\sigma _{A}\right]^{2}} σ f | a b sin ( b A ) σ A | {\displaystyle \sigma _{f}\approx \left|ab\sin(bA)\sigma _{A}\right|}
f = a tan ( b A ) {\displaystyle f=a\tan \left(bA\right)\,} σ f 2 [ a b sec 2 ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\approx \left[ab\sec ^{2}(bA)\sigma _{A}\right]^{2}} σ f | a b sec 2 ( b A ) σ A | {\displaystyle \sigma _{f}\approx \left|ab\sec ^{2}(bA)\sigma _{A}\right|}
f = A B {\displaystyle f=A^{B}\,} σ f 2 f 2 [ ( B A σ A ) 2 + ( ln ( A ) σ B ) 2 + 2 B ln ( A ) A σ A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {B}{A}}\sigma _{A}\right)^{2}+\left(\ln(A)\sigma _{B}\right)^{2}+2{\frac {B\ln(A)}{A}}\sigma _{AB}\right]} σ f | f | ( B A σ A ) 2 + ( ln ( A ) σ B ) 2 + 2 B ln ( A ) A σ A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {B}{A}}\sigma _{A}\right)^{2}+\left(\ln(A)\sigma _{B}\right)^{2}+2{\frac {B\ln(A)}{A}}\sigma _{AB}}}}
f = a A 2 ± b B 2 {\displaystyle f={\sqrt {aA^{2}\pm bB^{2}}}\,} σ f 2 ( A f ) 2 a 2 σ A 2 + ( B f ) 2 b 2 σ B 2 ± 2 a b A B f 2 σ A B {\displaystyle \sigma _{f}^{2}\approx \left({\frac {A}{f}}\right)^{2}a^{2}\sigma _{A}^{2}+\left({\frac {B}{f}}\right)^{2}b^{2}\sigma _{B}^{2}\pm 2ab{\frac {AB}{f^{2}}}\,\sigma _{AB}} σ f ( A f ) 2 a 2 σ A 2 + ( B f ) 2 b 2 σ B 2 ± 2 a b A B f 2 σ A B {\displaystyle \sigma _{f}\approx {\sqrt {\left({\frac {A}{f}}\right)^{2}a^{2}\sigma _{A}^{2}+\left({\frac {B}{f}}\right)^{2}b^{2}\sigma _{B}^{2}\pm 2ab{\frac {AB}{f^{2}}}\,\sigma _{AB}}}}

Para variables no correlacionadas, los términos de covarianza son cero. Puede derivarse expresiones para funciones más complicadas por combinación de funciones más simples. Por ejemplo, la multiplicación repetida, asumiendo ninguna correlación, conduce a:

f = A B ( C ) : ( σ f f ) 2 = ( σ A A ) 2 + ( σ B B ) 2 + ( σ C C ) 2 . {\displaystyle f=AB(C):\left({\frac {\sigma _{f}}{f}}\right)^{2}=\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+\left({\frac {\sigma _{C}}{C}}\right)^{2}.}

Derivadas parciales

Dados X = f ( A , B , C , ) {\displaystyle X=f(A,B,C,\dots )}

Error Absoluto Varianza
Δ X = | f A | Δ A + | f B | Δ B + | f C | Δ C + {\displaystyle \Delta X=\left|{\frac {\partial f}{\partial A}}\right|\cdot \Delta A+\left|{\frac {\partial f}{\partial B}}\right|\cdot \Delta B+\left|{\frac {\partial f}{\partial C}}\right|\cdot \Delta C+\cdots } σ X 2 = ( f A σ A ) 2 + ( f B σ B ) 2 + ( f C σ C ) 2 + {\displaystyle \sigma _{X}^{2}=\left({\frac {\partial f}{\partial A}}\sigma _{A}\right)^{2}+\left({\frac {\partial f}{\partial B}}\sigma _{B}\right)^{2}+\left({\frac {\partial f}{\partial C}}\sigma _{C}\right)^{2}+\cdots } [8]

Ejemplos

Función tangente inversa

Se puede calcular la propagación de la incertidumbre para la función tangente inversa como ejemplo del uso de derivadas parciales para la propagación del error.

Definiendo

f ( θ ) = arctan θ , {\displaystyle f(\theta )=\arctan \theta ,}

donde σ θ {\displaystyle \sigma _{\theta }} es la incertidumbre absoluta en la medida de θ {\displaystyle \theta } .

La derivada parcial de f ( θ ) {\displaystyle f(\theta )} con respecto a θ {\displaystyle \theta } es

f θ = 1 1 + θ 2 . {\displaystyle {\frac {\partial f}{\partial \theta }}={\frac {1}{1+\theta ^{2}}}.}

En consecuencia, la incertidumbre propagada es

σ f = σ θ 1 + θ 2 , {\displaystyle \sigma _{f}={\frac {\sigma _{\theta }}{1+\theta ^{2}}},}

donde σ f {\displaystyle \sigma _{f}} es la incertidumbre absoluta propagada.

Medición de la resistencia

Una aplicación práctica es un experimento en el que se mide la corriente, I, y el voltaje de un resistor con el fin de determinar la resistencia, R, usando la ley de Ohm, R = V / I . {\displaystyle R=V/I.}

Dadas las variables medidas con sus incertidumbres, I±ΔI y V±ΔV, la incertidumbre en la cantidad calculada, ΔR, es

Δ R = | Δ V I | + | V I 2 Δ I | . {\displaystyle \Delta R=\left|{\frac {\Delta V}{I}}\right|+\left|{\frac {V}{I^{2}}}\Delta I\right|.}

Referencias

  1. Leo Goodman (1960). «On the Exact Variance of Products». Journal of the American Statistical Association 55 (292): 708-713. doi:10.2307/2281592. 
  2. Jack Hayya, Donald Armstrong y Nicolas Gressis (julio de 1975). «A Note on the Ratio of Two Normally Distributed Variables». Management Science 21 (11): 1338-1341. 
  3. «A Summary of Error Propagation». p. 2. Archivado desde el original el 13 de diciembre de 2016. Consultado el 4 de abril de 2016. 
  4. «Propagation of Uncertainty through Mathematical Operations». p. 5. Consultado el 4 de abril de 2016. 
  5. «Strategies for Variance Estimation». p. 37. Consultado el 18 de enero de 2013. 
  6. a b Harris, Daniel C. (2003), Quantitative chemical analysis (6th edición), Macmillan, p. 56, ISBN 978-0-7167-4464-1 .
  7. «Error Propagation tutorial». Foothill College. 9 de octubre de 2009. Consultado el 1 de marzo de 2012. 
  8. Vern Lindberg (5 de octubre de 2009). «Uncertainties and Error Propagation». Uncertainties, Graphing, and the Vernier Caliper (en eng). Rochester Institute of Technology. p. 1. Archivado desde el original el 27 de abril de 2007. Consultado el 20 de abril de 2007. «The guiding principle in all cases is to consider the most pessimistic situation.» 

Enlaces externos

  • Incertidumbre y propagación de errores, Apéndice V del Manual de Laboratorio de Mecánica, Case Western Reserve University.
  • Una discusión detallada de las medidas y la propagación de la incertidumbre explica los beneficios de usar fórmulas de propagación de errores y simulaciones Montecarlo, en lugar de simple aritmética significativa.
  • (en) (fr) Mathieu Rouaud, 2013. Probability, Statistics and Estimation Propagation of Uncertainties in Experimental Measurement.

Véase también

Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q1364905
  • Identificadores
  • GND: 4479158-6
  • Wd Datos: Q1364905