sábado, 19 de octubre de 2013

Error Numérico Total

 
       El error numérico total es la suma de los errores de redondeo y de truncamiento. La única forma de minimizar los errores de redondeo es la de incrementar el número de cifras significativas de la computadora.






       Representación gráfica de las ventajas entre errores de redondeo y truncamiento que en ocasiones influyen en el curso de un método numérico. El punto óptimo muestra donde el error de redondeo comienza a negar los beneficios dados por la reducción del tamaño de paso. 


Error por Truncamiento


      Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto. El truncamiento es usado para reducir el número de dígitos a la derecha del punto decimal. Estos tipos de errores son evaluados con una formulación matemática: la serie de Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en términos de la función y de sus derivadas en una vecindad del punto Xi. Siendo el termino final:

Rn= ((ƒ(n+1) (x))/(n+1)!)hn+1

En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como las exponenciales o senoidales, no se obtiene una estimación exacta mediante un número finito de términos. Cada una de los términos adicionales contribuye al mejoramiento de la aproximación, aunque sea un poco.

Ejemplos:

Dados los números reales:
3,14159265358979….
32,438191288
6,3444444444444

Para truncar estos números a dígitos decimales, solo se considera los 4 dígitos  a la derecha de la coma decimal. El resultado es:

3,1415
32,4381
6,3444

Nótese que en algunos casos el truncamiento dará el mismo resultado que el redondeo, pero el truncamiento no redondea hacia arriba ni hacia abajo los dígitos, meramente los corta en el digito especificado.  


Error por Redondeo


       Es aquel tipo de error en donde el número significativo de dígitos después del punto decimal se ajusta a un numero especifico provocando con ello un ajuste en el ultimo numero digito que se toma en cuenta.

Los errores de redondeo se deben a que las computadoras solo guardan un número finito de cifras significativas durante un cálculo. Las computadoras realizan esta función de maneras diferentes; esta técnica de retener solo los primeros siete términos es llamada “truncamiento” en el ambiente de computación. De preferencia se llamara de corte, para distinguirlo de los errores de truncamiento. Un corte ignora los términos restantes de la representación decimal completa.

      La mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones del por qué pueden resultar críticos en algunos métodos numéricos:
1) Ciertos métodos requieren cantidades extremadamente grandes para obtener una respuesta. Además, estos cálculos a menudo dependen entre si, es decir, los cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque un error de redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso de la gran cantidad de cálculos puede ser significativo.

2) El efecto de redondeo puede ser exagerado cuando se llevan a cabo operaciones algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya que este caso se presenta en muchos métodos numéricos, el error de redondeo puede resultar de mucha importancia.

Ejemplos:

1.- Si el siguiente decimal es menor que 5, el anterior no se modifica:

12,612. Redondeado a 2 decimales se debe tener en cuenta el tercer decimal:
12,612 = 12,61
2.- Si el siguiente decimal es mayor o igual que 5, el anterior no se incrementa una unidad:

12,618. Redondeado a 2 decimales se debe tener en cuenta el tercer decimal: 12,618 = 12,62

Error Relativo


      Es el coeficiente (división) entre el error absoluto y el exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) del error.
El error relativo normaliza el error absoluto respecto al valor verdadero de la cantidad medida:

e= |E/X| = |(X – X*)/X|

El error relativo es adimensional y puede quedar expresado asi, en forma fraccional, o en términos porcentuales:

e (%)=|E/X| x 100


El error relativo indica la calidad de la medida. Es decir es el coeficiente entre el valor absoluto y el valor que se le da como representativo (media aritmética)



Error Absoluto


Es la diferencia entre el valor de la medida y el valor tomado como exacta.

La relación entre un resultado exacto o verdadero X y el valor aproximado X* está dado por:

X=X* + error

El signo que tenga un error (positivo o negativo) generalmente no tiene mucha importancia, de manera que el error absoluto se define como el valor absoluto de la diferencia entre el valor verdadero y el valor aproximado:

E= |X – X*|

El error absoluto se expresa en las mismas unidades que X y no toma en cuenta el orden de magnitud de la cantidad que se está midiendo. Este indica el grado de aproximación y da un indicio de la calidad de la medida.

Que es un Error


       Un error es una incertidumbre en el resultado de una medida. Se define como la diferencia entre el valor real Vr y una aproximación a este valor Va:



e = Vr – Va


Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas.

Existen diferentes tipos errores, cada uno se puede expresar en forma absoluta o en forma relativa.


Incertidumbre y Sesgo


Sesgo:

      Es un alejamiento sistemático del valor verdadero a calcular. Así como el error, de acuerdo con las formas por las cuales se produce, puede minimizarse, la ocurrencia de sesgo también puede ser neutralizada o controlada. En ocasiones sin embargo, es imposible controlar el sesgo y por cierto el error. En tales circunstancias conviene al menos estar en antecedente y tener conciencia de su existencia.

Incertidumbre:

       Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. La incertidumbre puede derivarse de una falta de información o incluso por que exista desacuerdo sobre lo que se sabe o lo que podría saberse. Puede tener varios tipos de origen, desde errores cuantificables en los datos hasta terminología definida de forma ambigua o previsiones inciertas del comportamiento humano.
La incertidumbre puede, por lo tanto, ser representada por medidas cuantitativas (por ejemplo, un rango de valores calculados según distintos modelos) o por afirmaciones cualitativas (por ejemplo, al reflejar el juicio de un grupo de expertos).

Grado de Exactitud


La exactitud depende del instrumento de medida.

Pero por regla general:
El grado de exactitud es la mitad de la unidad de medida. 




Si el instrumento mide en "unidades" entonces cualquier valor entre 6½ y 7½ se mide como "7"

Si el instrumento mide "de 2 en 2" entonces los valores entre 7 y 9 dan medida "8"


Exactitud y Precisión



Exactitud:

La exactitud es lo cerca que el resultado de una medición está del valor verdadero. Para expresar la exactitud de un resultado se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero.
Ejemplo: Una maquina exacta es aquella que si repetimos una medida varias veces nos arroja resultados próximos al valor real.


Precisión:

Se refiere al número de cifras significativas que representan una cantidad. La precisión es lo cerca que los valores medidos están unos de otros. Cuando menor es la dispersión mayor es la precisión.
Ejemplo: Una maquina precisa es aquella que si repetimos una medida varias veces nos arroja un resultado parecido.






Cifras significativas:


      Las cifras significativas son los dígitos de un número que consideramos no nulos y que aportan información no ambigua acerca de una determinada medida experimental.

Estas cifras significativas (o 'dígitos significativos') representan el uso de una o más escala de incertidumbre en determinadas aproximaciones. Se dice que 2,7 tiene 2 cifras significativas, mientras que 2,70 tiene 3. Para distinguir los ceros que son significativos de los que no son, estos últimos suelen indicarse como potencias de 10. También cuando no se pueden poner más de tres cifras simplemente se le agrega un numero a el otro si es 5 o mayor que 5 y si es menor simplemente se deja igual. Ejemplo 5,36789 solo se pueden mostrar tres cifras así que se le suma un numero a el 6 por que el 7 es mayor que 5 así que queda 5,37 y si el numero es menor que cinco así 5,36489 y se cortan queda 5,36 por que el 4 es menor que 5.


El uso de éstas considera que el último dígito de aproximación es incierto, por ejemplo, al determinar el volumen de un líquido con una probeta cuya resolución es de 1 ml, implica una escala de incertidumbre de 0,5 ml. Así se puede decir que el volumen de 6 ml será realmente de 5,5 ml a 6,5 ml. El volumen anterior se representará entonces como (6,0 ± 0,5) ml. En caso de determinar valores más próximos se tendrían que utilizar otros instrumentos de mayor resolución, por ejemplo, una probeta de divisiones más finas y así obtener (6,0 ± 0,1) ml o algo más satisfactorio según la resolución requerida.





Importancia de los Metodos Numericos

     A través de los métodos numéricos podemos adoptar u obtener las técnicas para entender esquemas numéricos a fin de resolver problemas matemáticos, de ingeniería y científicos en una computadora, reducir esquemas numéricos básicos, escribir programas, resolverlos en una computadora y usar correctamente el software existente para dichos métodos y no solo aumenta nuestra habilidad para el uso de computadoras sino que también amplia la pericia matemática y la comprensión de los principios científicos básicos.
El análisis numérico trata de diseñar métodos para “aproximar” de una manera eficiente las soluciones de problemas expresados matemáticamente.

El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático.
Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:
Ø  Cálculo de derivadas
Ø  Integrales
Ø  Ecuaciones diferenciales
Ø  Operaciones con matrices
Ø  Interpolaciones
Ø  Ajuste de curvas
Ø  Polinomios

Los métodos numéricos son adecuados para la solución de problemas comunes de ingeniería, ciencias y administración, utilizando computadoras electrónicas. Gracias  a estos se puede mantener de pie un edificio, una planta eléctrica produciendo energía constantemente, programas que faciliten la comunicación, interacción, la contabilidad, procesos médicos y la optimización de cada uno y muchos más de ellos, ya que los métodos numéricos abarcan los principios que permiten perfeccionar u optimizar aquellos procesos que desarrollan  el producto final, con menos porcentaje de error.



Que son los Métodos Numéricos

    Los Métodos Numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas.

     El análisis numérico trata de diseñar métodos para "aproximar" de una manera eficiente las soluciones de problemas expresados matemáticamente.


El objetivo principal del análisis numérico es encontrar soluciones "aproximadas" a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático.