jueves, 14 de febrero de 2008

TIPOS DE ERRORES

INTRODUCCION


A lo largo del tiempo, los métodos numéricos han sido desarrollados con el objeto de resolver problemas matemáticos cuya solución es difícil o imposible de obtener por medio de los procedimientos tradicionales.
Las soluciones que ofrecen los métodos numéricos son aproximaciones de los valores reales y, por tanto se tendrá un cierto grado de error que será conveniente determinar.

Aunque la perfección es una meta digna de alabarse es difícil si no imposible de alcanzarse.
Las aproximaciones numéricas pueden introducir errores la pregunta es ¿Qué error puede considerarse tolerable
?.

Cuando se emplea un número en el calculo, debe haber seguridad que pueda usarse con confianza
El concepto de cifras o digitos significativos se ha desarrollado para designar formalmente la contabilidad de un valor numérico. El numero de cifras significativas es el numero de digitos, más un digito estimado que se pueda usar con confianza; los ceros no siempre son cifras significativas ya que pueden usarse solo para ubicar el punto decimal.
1.-Los métodos numéricos obtienen resultados aproximados. Por lo tanto se debe desarrollar criterios para especificar que tan precisos son los resultados obtenidos. Una manera de hacerlo es en términos de cifras significativas. Por ejemplo se puede decir que la aproximación es aceptable siempre y cuando sea correcta hasta cuatro cifras significativas – esto es, debe existir seguridad que las primeras cuatro cifras son correctas.

2.-Aunque ciertas cantidades tales como π, e o √7 representan números específicos, no se puede expresar exactamente con un numero finitos de digitos. Debido a que las computadoras personales solo representan aproximadamente diez cifras significativas (comúnmente varian entre 7 y 14) tales números jamás se podrán representar exactamente. A la omision del resto de cifras significativas se le conoce como error de redondeo.

Los errores de redondeo y el uso de cifras significativas tienen mucha importancia en la identificación de exactitud y precisión.

EXACTITUD Y PRECISION


Los errores asociados con los cálculos y medidas se pueden caracterizar observando su precisión y exactitud. La precisión se refiere a 1) el numero de cifras significativas que representa una cantidad o 2) la extensión en las lecturas repetidas de un instrumento que mide alguna propiedad física. La exactitud se refiere a la aproximación de un número o de una medida al valor verdadero que se supone representa. La inexactitud ( conocida también como sesgo ) se define también como un alejamiento sistemático de la verdad . la precisión por otro lado se refiere a la magnitud del esparcimiento.
Los métodos números deben ser lo suficientemente exactos o sin sesgo para que cumplan los requisitos de un problema particular de ingeniería. También debe ser lo suficientemente preciso para el diseño en la ingeniería.
Usaremos el termino de error para representar la inexactitud y la precision de las predicciones.


FACTORES QUE CONTRIBUYEN AL ERROR EN LOS CÁLCULOS NUMÉRICOS.

DEFINICIÓN DE ERROR


Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas. Esto incluye errores de truncamiento que resultan de representar aproximadamente un procedimiento matematico exacto, y los errores de redondeo, que resultan de presentar aproximadamente números exactos. Para los tipos de errores, la relación entre el resultado exacto o verdadero y el aproximado esta dado por :

Valor verdadero = valor aproximado + error ( Ec.1 )

Reordenando la ecuación Ec.1, se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el valor aproximado esto es :

Ev = valor verdadero – valor aproximado

Donde Ev se usa para redondear el valor exacto del error. Se incluye el subíndice v par dar a entender que se trata del “verdadero” error.
Un defecto es que muchas veces no se toma en consideración el orden de magnitud del valor que se esta probando . Por ejemplo, un error de un centímetro es mucho mas significativo si se esta midiendo un remache que un puente. Una manera de medir las magnitudes de las cantidades que se están evaluendo es normalizar el error respecto al valor verdadero, como en:

Error relativo fraccional = error / valor verdadero

Donde:
Error = valor verdadero – valor aproximado.
El error relativo también se puede multiplicar por el 100% para expresarlo como Ev = (error verdadero/ valor verdadero ) 100; Donde Ev denota el error relativo porcentual. El subíndice v significa la normalización del error al valor verdadero .

Para los métodos numéricos el valor verdadero únicamente se conocerá cuando se habla de funciones que se pueden resolver analíticamente. Sin embargo, en aplicaciones reales, no se conoce la respuesta verdadera. En estos casos, normalizar el error es una alternativa usando la mejor estimación posible del valor verdadero, esto es a la aproximación misma, como:

Ea = (error aproximado/ valor aproximado)100

Donde el subíndice a significa que el error está normalizado a un valor aproximado .
Uno de los retos a que se enfrentas los métodos numéricos es el de determinar estimaciones del error en ausencia de conocimiento de los valores verdaderos. El error se calcula como la diferencia entre la aproximación previa y la actual. Por lo tanto, el error relativo porcentual está dado por
Ea =abs( ((aproximación actual- aproximación previa )/ aproximación actual) 100)
Si se cumple la relación anterior , entonces se considera que el resultado obtenido esta dentro del nivel aceptable, es decir, aun error previamente fijado(Es):
Abs(Ea) <>

ERRORES DE REDONDEO

Los errores de redondeo se deben a que las computadoras solo guardan un numero finito de cifras significativas durante un calculo. Las computadoras realizan esta función de maneras diferentes; esta técnica de retener solo los primeros siete términos se llamó “truncamiento” en el ambiente de computación. De preferencia se llamara de corte, para distinguirlo de los errores de truncamiento. Un corte ignora los términos restantes de la representación decimal completa.

La mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones del por qué pueden resultar críticos en algunos métodos numéricos:
1) Ciertos métodos requieren cantidades extremadamente grandes para obtener una respuesta. Además, estos cálculos a menudo dependen entre si, es decir, los cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque un error de redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso de la gran cantidad de cálculos puede ser significativo.
2) El efecto de redondeo puede ser exagerado cuando se llevan a cabo operaciones algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya que este caso se presenta en muchos métodos numéricos, el error de redondeo puede resultar de mucha importancia.

ERRORES DE TRUNCAMIENTO

Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto.
Estos tipos de errores son evaluados con una formulación matemática: la serie de Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en términos de la función y de sus derivadas en una vecindad del punto Xi.
Siendo el termino final:
Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1
En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aunpolinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como las exponenciales o senoidales, no se obtiene una estimación exacta mediante un numero finito de términos. Cada una de los términos adicionales contribuye al mejoramiento de la aproximación, aunque sea un poco.

ERROR NUMERICO TOTAL

El error numérico total es la suma de los errores de redondeo y de truncamiento. La única forma de minimizar los errores de redondeo es la de incrementar el número de cifras significativas de la computadora.

Repr

Representación grafica de las ventajas y desventajas entre errores de redondeo y truncamiento que en ocasiones influyen en el curso de un método numérico. El punto óptimo muestra donde el error de redondeo comienza a negar los beneficios dados por la reducción del tamaño de paso.

ERRORES POR EQUIVOCACIÓN

En los primeros años de la computación los resultados numéricos erróneos fueron atribuidos algunas veces al mal funcionamiento de la computadora misma. Hoy dia esta fuente de error es muy improbable y la mayor parte de las equivocaciones se atribuye a errores humanos.
Las equivocaciones ocurren a cualquier nivel del proceso de modelación matematica y pueden contribuir con todas las otras componentes del error. Las equivocaciones, por lo general se pasan por alto en la discución del método numérico. Esto sin duda prueba el hecho de que los errores de torpeza son, hasta cierto punto inevitables.

ERRORES DE FORMULACIÓN

Los errores de formulación o de modelamiento degeneran en lo que se podría considerar como un modelo matemático incompleto, ya que si se esta usando un modelo deficiente, ningún método numérico generara los resultados adecuados.

BIBLIOGRAFÍA

MÉTODOS NUMÉRICOS PARA INGENIEROS. C.Chapra, Steven, Et al.
Ed MC GRAW-HILL . México 1995. 641 pp.
METODOS NUMERICOS APLICADOS A LA INGENIERIA. Nieves Hurtado, Antonio, Et al.
Ed. Continental. Segunda reimpresión. México 1997. 602pp
METODOS NUMERICOS.Rafael Iriarte V. Balderrama
Ed. trillas. Primera edición. México 1990