lunes, 8 de septiembre de 2008

Unidad 2

II. Metodos de Solucion de ecuaciones.

2.1 Métodos de intervalo.
2.2 Método de bisección.
2.3 Método de aproximaciones sucesivas.
2.3.1 Iteración y convergencia de ecuaciones. Condición de Lipschitz.
2.4 Métodos de interpolación.
2.4.1 Método de Newton Raphson.
2.4.2 Método de la secante.
2.4.3 Método de Aitken.
2.5 Aplicaciones.


Métodos de Intervalos.

Los métodos de intervalos tambien llamados metodos cerrados. estos métodos aprovechan el hecho de que típicamente una función cambia de signo en el intervalo que encierra a la raíz. Cuando se analiza en un intervalo el cambio de signo de una función, se puede garantizar que existe una raíz.

Para el desarrollo de los algoritmos de estos métodos, es necesario tener dos valores iniciales entre estos se localizara la raíz.

2.2 Método de bisección.

Este método consiste en tomar un intervalo de valores [a, b] donde al evaluar la función en los extremos se presenta un cambio de signo, con lo cual se asegura que exista una raíz por lo menos dentro del intervalo.

Posteriormente se calcula el punto medio del intervalo [a, b], de esta manera el intervalo se divide en dos intervalos pequeños, se repite el análisis de cambio para desechar el intervalo en el que no se encuentra la raíz.

Para empezar hacemos a=a1 y b=b1 y calculamos el valor medio el intervalo [a, b] y lo llamamos:

m1 = (a1 + b1)/2

Si f(m1)=0, entonces m=m1;de lo contrario; f(m1) tiene el mismo signo que f(a1) o f(b1). Si f(m1) y f(a1) tienen el mismo signo, entonces m є[m1, b1], y tomamos a2=m1 y b2=b1. Si f(m1) y f(b1) tienen el mismo signo, entonces m є[a1, m1], y tomamos a2=a1 y b2=m1. Se repite este proceso para el siguiente intervalo [a2, b2].

Algoritmo.

1. Seleccionar los valores iníciales de a y b, y evaluar f(a) y f(b) de manera que la función en ese intervalo cambie de signo. Se establece la tolerancia de error.

2. Calcular la primera aproximación de la raíz por medio de la ecuación:

m =(a + b)/2

3. Realizar las siguientes evaluaciones para determinar si se encontró la raíz o en que intervalo se encuentra localizada.

a. Si f(a) • f(m)=0→la raíz es igual a m y se terminan los cálculos.

b. Si f(a) • f(m)>0→la raíz se encuentra entre m y b. Hacer a =m y saltar al punto 4.

c. Si f(a) • f(m)<0→la raíz la raíz se encuentra entre m y a. Hacer b = m y saltar al punto 4.

4. Calcular m del siguiente intervalo.

5. Calcular el error aproximado con la siguiente ecuación :

Para decidir si la aproximación cumple con el criterio de error establecido. En caso de ser así los cálculos terminan, de lo contrario regresar al paso 3.

Método de la Regla Falsa (o método de falsa posición).

El método de bisección tiene la ventaja de converger siempre que la función sea continua y cambie de signo en [a, b] pero la desventaja de que funciona igual (de bien o mal) independientemente de la información disponible sobre la función f(x): sólo importa el intervalo inicial y la localización de la raíz.

Un defecto del método de bisección, es que al dividir en dos el intervalo [a, b], no se toma en cuenta la magnitud de f(a) y de f(b); si por ejemplo f(a) está más cerca de cero que f(b), es seguro que la raíz se encuentre más cerca de a que de b, ya que f(m)=0.

El método de regla falsa es una modificación del método de bisección que utiliza valores de la función y no sólo el signo.

Este método aprovecha la idea de fusionar los puntos (a, f(a)) y (b, f(b)) con una recta. La intersección de esta recta proporciona una mejor estimación de la raíz. Igual que en el método de bisección se toma ese punto como el nuevo extremo del intervalo y se elimina el sub-intervalo que no tenga raíz. Este procedimiento se repite hasta que se logre una aproximación con un error cercano a cero. El reemplazo de la curva por una recta da una posición falsa de la raíz.

La fórmula para la predicción de la aproximación a la raíz se puede obtener de la ecuación de la línea recta que pasa por los puntos extremos del intervalo seleccionado: (a, f(a)) y (b, f(b)).

El punto donde la recta corta al eje x se obtiene mediante la siguiente ecuación.

Ecuación de la recta donde se conoce un punto sobre la misma y su pendiente es:

y - y1 =m(x - x1)


que en la recta de la figura es: f(x)-f(b) = ((f(a)-f(b))/(a-b))(x-b).

En la intersección de esta recta bon el eje x se cumple con la condición de que f(x)=0 por lo que al despejar x se obtiene que:

m=b-((f(b)(a-b))/f(a-f(b))

Algoritmo.

1. Seleccionar los valores de a y b y evaluar f(a) y f(b) en este intervalo, de manera que la función cambie de signo y establecer una tolerancia de error.

2. La primera aproximación de la raíz se calcula por medio de la siguiente ecuación.

m=b-((f(b)(a-b))/f(a-f(b))

3. Realizar las siguientes evaluaciones para determinar si se hayo la raíz o saber en qué intervalo localizarla.

a. Si f(a) • f(m)=0→la raíz es igual a m y se terminan los cálculos.

b. Si f(a) • f(m)>0→la raíz se encuentra entre m y b. Hacer a =m y saltar al punto 4.

c. Si f(a) • f(m)<0→la raíz la raíz se encuentra entre m y a. Hacer b = m y saltar al punto 4.

4. Calcular el nuevo m con la ecuación: m=b-((f(b)(a-b))/f(a-f(b))

5. Calcular el error aproximado con la siguiente ecuación :

Para decidir si la nueva aproximación cumple con el criterio de error establecido, de ser así se terminan los cálculos, de lo contrario seguir con el paso 3.

Métodos abiertos.

Los métodos abiertos se basan en formulas que requieren de un solo valor inicial o de un par de ellos para iniciar el proceso iterativo, sin embargo no es seguro que entre ellos se encuentre la raíz, en consecuencia algunas veces divergen o se alejan de la raíz a medida que aumenta el número de iteraciones. Cuando los métodos abiertos convergen, lo hacen en general mucho más rápido que los métodos que usan intervalos.

Método de punto fijo o de aproximaciones sucesivas.

Este método se utiliza para resolver ecuaciones de la forma:

x=g(x)

Si la ecuación es f(x)=0, se despeja x o se suma x en ambos lados de la ecuación para que la ecuación este en la forma adecuada.

Ejemplo:

Ecuación cos x –x =0.

Se le suma x en ambos lados, cos x –x +x= x.

Obtenemos cos x = x.

El método del punto fijo consiste en sustituir un valor inicial (x0) aproximado a la raíz. Si el valor inicial dado es la raíz, se deberá cumplir con:

g(x0)= x0

Como es difícil que eso ocurra, por que el valor inicial aproximado, x0 es solo un valor cercano a la raíz, por lo tanto, la nueva siguiente aproximación a la raíz será dada por:

x1=g(x0)

Al proceder en esta forma la n-ésima aproximación será xn=g(xn-1)n=1,2,3…

El método será convergente si la diferencia del valor absoluto entre los valores calculados en dos iteraciones sucesivas, sea cada vez menor en mediada de que n aumente.

Condición de Lipschitz

Criterio |g’(x)|<1.

Es importante analizar el por qué algunas formas equivalentes de la ecuación g(x)=x si conducen a una raíz y otras no (usando el mismo valor inicial en ambos casos).

Un método muy práctico de emplear este resultado es obtener distintas formas x=g(x) de la función f(x)=0, y posteriormente calcular |g’(x0)|<1;>las propuestas que cumplan con esta condición prometerán convergencia al aplicar este método.

Algoritmo

1. Seleccionar el valor inicial “x” el cual estará dentro del intervalo que se obtuvo del análisis de la convergencia de la función g(x).

2. Evaluar la función g(x) en el punto seleccionado.

3. Asignar el resultado de la evaluación de la función f(x) de la primera iteración como el valor de “x” para la siguiente iteración.

4. Calcular el valor relativo porcentual.

5. Repetir pasos del 2 al 4 hasta que se cumpla la tolerancia de error relativo porcentual.

Métodos De Interpolación

Se denomina interpolación a la construcción de nuevos puntos dados partiendo del conocimiento de un conjunto de puntos dados discretos. Está se utiliza para introducir datos dentro de una gráfica ya obtenida.

En ingeniería y ciencias es frecuente disponer de un cierto número de puntos obtenidos por muestreo o a partir de un muestreo o experimento y pretender construir una función que los ajuste.

Otro problema estrechamente ligado con el de la interpolación es la aproximación de una función complicada por una más simple. Si tenemos una función cuyo cálculo resulta costoso, podemos partir de un cierto número de sus valores e interpolar dichos datos construyendo una función más simple. En general, por supuesto, no obtendremos los mismos valores evaluando la función obtenida que si evaluáramos la función original, si bien dependiendo de las características del problema y del método de interpolación usado la ganancia en eficiencia puede compensar el error cometido.

Método de Newton Raphson

Este método parte de una aproximación inicial x0 y obtiene una aproximación mejor, x1, dada por la fórmula:

La expresión anterior puede derivarse a partir de un desarrollo en serie de Taylor. Efectivamente, sea r un cero de f y sea x una aproximación a r tal que r=x+h. Si f'' existe y es continua, por el teorema de Taylor tenemos:

0 = f(r) = f(x+h) = f(x) + hf'(x) + O(h2)

En donde h=r-x. Si x está próximo a r (es decir es pequeña), es razonable ignorar el término O(h2):

0 = f(x) + hf'(x)

Por lo que obtenemos la siguiente expresión para h:

Interpretación geométrica del método de Newton.

El método de Newton tiene una interpretación geométrica sencilla, como se puede apreciar del análisis de la figura anterior. De hecho, el método de Newton consiste en una alineación de la función, es decir, f se reemplaza por una recta tal que contiene al punto (x0,f(x0)) y cuya pendiente coincide con la derivada de la función en el punto, f'(x0). La nueva aproximación a la raíz, x1, se obtiene de la intersección de la función linear con el eje X de ordenadas.

Dos situaciones en las que el método de Newton no funciona adecuadamente: (a) el método no alcanza la convergencia y (b) el método converge hacia un punto que no es un cero de la ecuación.

El método de Newton es muy rápido y eficiente ya que la convergencia es de tipo cuadrático (el número de cifras significativas se duplica en cada iteración). Sin embargo, la convergencia depende en gran medida de la forma que adopta la función en las proximidades del punto de iteración. En la figura anterior se muestran dos situaciones en las que este método no es capaz de alcanzar la convergencia (figura (a)) o bien converge hacia un punto que no es un cero de la ecuación (figura (b)).

Algoritmo
1. Introducir la ecuación a resolver f(x).
2.
Introducir la derivada de la función a resolver f’(x).
3.
Introducir el máximo número de iteraciones Nmax.
4.
Introducir el valor máximo de error porcentual aproximado Tmax.

5. Seleccionar una aproximación inicial cercana a la raíz xi.

6. Iniciar el contador i=1.

7. Mientras que i<= Nmax seguir con pasos 8 al 11.

8. Calcular la siguiente aproximación a la raíz.

9. Calcular el error porcentual aproximado con la ecuación:

10. Verificar que se cumpla la condición |ep|<= Tmax. Si esto se cumple entonces, entonces se encontró la aproximación final, saltar al paso 13, de lo contrario continuar con paso 11.

11. Hacer i = i +1.

12. Verificar que se cumpla con la condición i<= Nmax. Si después de Nmax iteraciones no se ha cumplido con que |ep|<= Tmax, el método ha fracasado. Fin de algoritmo



No hay comentarios: