sábado, 19 de octubre de 2013

Error Numérico Total

 
       El error numérico total es la suma de los errores de redondeo y de truncamiento. La única forma de minimizar los errores de redondeo es la de incrementar el número de cifras significativas de la computadora.






       Representación gráfica de las ventajas entre errores de redondeo y truncamiento que en ocasiones influyen en el curso de un método numérico. El punto óptimo muestra donde el error de redondeo comienza a negar los beneficios dados por la reducción del tamaño de paso. 


Error por Truncamiento


      Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto. El truncamiento es usado para reducir el número de dígitos a la derecha del punto decimal. Estos tipos de errores son evaluados con una formulación matemática: la serie de Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en términos de la función y de sus derivadas en una vecindad del punto Xi. Siendo el termino final:

Rn= ((ƒ(n+1) (x))/(n+1)!)hn+1

En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como las exponenciales o senoidales, no se obtiene una estimación exacta mediante un número finito de términos. Cada una de los términos adicionales contribuye al mejoramiento de la aproximación, aunque sea un poco.

Ejemplos:

Dados los números reales:
3,14159265358979….
32,438191288
6,3444444444444

Para truncar estos números a dígitos decimales, solo se considera los 4 dígitos  a la derecha de la coma decimal. El resultado es:

3,1415
32,4381
6,3444

Nótese que en algunos casos el truncamiento dará el mismo resultado que el redondeo, pero el truncamiento no redondea hacia arriba ni hacia abajo los dígitos, meramente los corta en el digito especificado.  


Error por Redondeo


       Es aquel tipo de error en donde el número significativo de dígitos después del punto decimal se ajusta a un numero especifico provocando con ello un ajuste en el ultimo numero digito que se toma en cuenta.

Los errores de redondeo se deben a que las computadoras solo guardan un número finito de cifras significativas durante un cálculo. Las computadoras realizan esta función de maneras diferentes; esta técnica de retener solo los primeros siete términos es llamada “truncamiento” en el ambiente de computación. De preferencia se llamara de corte, para distinguirlo de los errores de truncamiento. Un corte ignora los términos restantes de la representación decimal completa.

      La mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones del por qué pueden resultar críticos en algunos métodos numéricos:
1) Ciertos métodos requieren cantidades extremadamente grandes para obtener una respuesta. Además, estos cálculos a menudo dependen entre si, es decir, los cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque un error de redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso de la gran cantidad de cálculos puede ser significativo.

2) El efecto de redondeo puede ser exagerado cuando se llevan a cabo operaciones algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya que este caso se presenta en muchos métodos numéricos, el error de redondeo puede resultar de mucha importancia.

Ejemplos:

1.- Si el siguiente decimal es menor que 5, el anterior no se modifica:

12,612. Redondeado a 2 decimales se debe tener en cuenta el tercer decimal:
12,612 = 12,61
2.- Si el siguiente decimal es mayor o igual que 5, el anterior no se incrementa una unidad:

12,618. Redondeado a 2 decimales se debe tener en cuenta el tercer decimal: 12,618 = 12,62

Error Relativo


      Es el coeficiente (división) entre el error absoluto y el exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) del error.
El error relativo normaliza el error absoluto respecto al valor verdadero de la cantidad medida:

e= |E/X| = |(X – X*)/X|

El error relativo es adimensional y puede quedar expresado asi, en forma fraccional, o en términos porcentuales:

e (%)=|E/X| x 100


El error relativo indica la calidad de la medida. Es decir es el coeficiente entre el valor absoluto y el valor que se le da como representativo (media aritmética)



Error Absoluto


Es la diferencia entre el valor de la medida y el valor tomado como exacta.

La relación entre un resultado exacto o verdadero X y el valor aproximado X* está dado por:

X=X* + error

El signo que tenga un error (positivo o negativo) generalmente no tiene mucha importancia, de manera que el error absoluto se define como el valor absoluto de la diferencia entre el valor verdadero y el valor aproximado:

E= |X – X*|

El error absoluto se expresa en las mismas unidades que X y no toma en cuenta el orden de magnitud de la cantidad que se está midiendo. Este indica el grado de aproximación y da un indicio de la calidad de la medida.

Que es un Error


       Un error es una incertidumbre en el resultado de una medida. Se define como la diferencia entre el valor real Vr y una aproximación a este valor Va:



e = Vr – Va


Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas.

Existen diferentes tipos errores, cada uno se puede expresar en forma absoluta o en forma relativa.


Incertidumbre y Sesgo


Sesgo:

      Es un alejamiento sistemático del valor verdadero a calcular. Así como el error, de acuerdo con las formas por las cuales se produce, puede minimizarse, la ocurrencia de sesgo también puede ser neutralizada o controlada. En ocasiones sin embargo, es imposible controlar el sesgo y por cierto el error. En tales circunstancias conviene al menos estar en antecedente y tener conciencia de su existencia.

Incertidumbre:

       Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. La incertidumbre puede derivarse de una falta de información o incluso por que exista desacuerdo sobre lo que se sabe o lo que podría saberse. Puede tener varios tipos de origen, desde errores cuantificables en los datos hasta terminología definida de forma ambigua o previsiones inciertas del comportamiento humano.
La incertidumbre puede, por lo tanto, ser representada por medidas cuantitativas (por ejemplo, un rango de valores calculados según distintos modelos) o por afirmaciones cualitativas (por ejemplo, al reflejar el juicio de un grupo de expertos).