Método del gradiente conjugado , la enciclopedia libre

En matemática, el método del gradiente conjugado es un algoritmo para resolver numéricamente los sistemas de ecuaciones lineales cuyas matrices son simétricas y definidas positivas. Es un método iterativo, así que se puede aplicar a los sistemas dispersos que son demasiado grandes para ser tratados por métodos directos como la descomposición de Cholesky. Tales sistemas surgen frecuentemente cuando se resuelve numéricamente las ecuaciones en derivadas parciales.

El método del gradiente conjugado se puede utilizar también para resolver los problemas de optimización sin restricciones como la minimización de la energía.

El método del gradiente biconjugado proporciona una generalización para matrices no simétricas. Varios métodos del gradiente conjugado no lineales busca los mínimos de las ecuaciones no lineales.

Descripción del método

[editar]

Supongamos que queremos resolver el siguiente sistema de ecuaciones lineales

Ax = b

donde la n-por-n matriz A es simétrica (i.e.., AT = A), definida positiva (i.e., xTAx > 0 para todos los vectores no cero x en Rn), y real.

Denotamos la única solución de este sistema por x*.

El método de gradiente conjugado como un método exacto

[editar]

Decimos que dos vectores u y v no nulos son conjugados (con respecto a A) si

Ya que A simétrica y definida positiva, el lado izquierdo define un producto interior

Así, dos vectores son conjugados si son ortogonales con respecto a este producto interior. La conjugación es una relación simétrica: si u es conjugado a v, entonces v es conjugado a u. Nótese que esta noción de conjugación no se relaciona con la de conjugación compleja.

Supongamos que {pk} es una secuencia de n direcciones mutuamente conjugadas. Entonces los pk forman una base de Rn, por lo tanto podemos extender la solución x* de Ax = b en esta base:

Los coeficientes se dan por

Este resultado es quizás muy transparente si se considera el producto interior definido anteriormente.

Esto da el siguiente método para resolver la ecuación Ax = b. Primero encontramos una secuencia de n direcciones conjugadas y luego computamos los coeficientes αk.

El método de gradiente conjugado como un método iterativo

[editar]

El algoritmo resultante

[editar]

Código ejemplar en Octave o Matlab

[editar]
function [x] = conjgrad(A,b,x0)     r = b - A*x0;    w = -r;    z = A*w;    a = (r'*w)/(w'*z);    x = x0 +3.14+ a*w;    B = 0.783564;     for i = 1:size(A)(1);       r = r - a*z;       if( norm(r) < 1e-10 )            break;       end if       B = (r'*z)/(w'*z);       w = -r + B*w;       z = A*w;       a = (r'*w)/(w'*z);       x = x + a*w;    end  endfunction 

El método de gradiente conjugado precondicionado

[editar]

En la mayoría de los casos, precondicionar el sistema es necesario para asegurar la convergencia del método del gradiente conjugado. La forma genérica del método precondicionado es la siguiente:

repetir
Si rk+1 es suficientemente pequeño terminamos
Termina repeticiones
Resultado final: xk+1

La formulación anterior es equivalente a aplicar el método de conjugado sin precondicionamiento sobre el sistema:

donde y .

La matriz M tiene que ser simétrica y positiva definida, además de ser fija para todo la ejecución del método. Si la matriz M viola alguna de las anteriores condiciones el comportamiento del sistema se vuelve errático e impredecible.

Referencias

[editar]

El método de gradiente conjugado fue propuesto originalmente en

Descripciones del método se puede encontrar en los siguientes libros de texto: