sábado, 2 de agosto de 2014

CHISTE N° 28



TOMADO DE: http://rincones.educarex.es/matematicas/index.php/blog/lecturas

Cálculo de raíces de ecuaciones

El objeto del cálculo de las raíces de una ecuación es determinar los valores de x para los que se cumple:

 
f(x) = 0(28)


La determinación de las raíces de una ecuación es uno de los problemas más antiguos en matemáticas y se han realizado un gran número de esfuerzos en este sentido. Su importancia radica en que si podemos determinar las raíces de una ecuación también podemos determinar máximos y mínimos, valores propios de matrices, resolver sistemas de ecuaciones lineales y diferenciales, etc...
La determinación de las soluciones de la ecuación (28) puede llegar a ser un problema muy difícil. Si f(x) es una función polinómica de grado 1 ó 2, conocemos expresiones simples que nos permitirán determinar sus raíces. Para polinomios de grado 3 ó 4 es necesario emplear métodos complejos y laboriosos. Sin embargo, si f(x) es de grado mayor de cuatro o bien no es polinómica, no hay ninguna fórmula conocida que permita determinar los ceros de la ecuación (excepto en casos muy particulares).
Existen una serie de reglas que pueden ayudar a determinar las raíces de una ecuación:
  • El teorema de Bolzano, que establece que si una función continua, f(x), toma en los extremos del intervalo [a,b] valores de signo opuesto, entonces la función admite, al menos, una raíz en dicho intervalo.
  • En el caso en que f(x) sea una función algebraica (polinómica) de grado n y coeficientes reales, podemos afirmar que tendrá n raíces reales o complejas.
  • La propiedad más importante que verifican las raíces racionales de una ecuación algebraica establece que si p/q es una raíz racional de la ecuación de coeficientes enteros:

    \begin{eqnarray*}a_{0} + a_{1}x + a_{2}x^{2} + \dots + a_{n}x^{n} = 0 & (a_{i} \in
\mathcal{Z})
\end{eqnarray*}


    entonces el denominador q divide al coeficientes an y el numerador p divide al término independiente a0.Ejemplo: Pretendemos calcular las raíces racionales de la ecuación:

    3x3 + 3x2 - x - 1 = 0


    Primero es necesario efectuar un cambio de variable x = y/3:

    \begin{displaymath}3\frac{y^{3}}{3^{3}} + 3\frac{y^{2}}{3^{2}} - \frac{y}{3} - 1 = 0
\end{displaymath}


    y después multiplicamos por 32:

    y3 + 3y2 -3y -9 = 0


    con lo que los candidatos a raíz del polinomio son:

    \begin{eqnarray*}y = 9; & y = -9; \\
y = 3; & y = -3; \\
y = 1; & y = -1
\end{eqnarray*}


    Sustituyendo en la ecuación, obtenemos que la única raíz real es y = -3, es decir, $x = \frac{-3}{3} = -1$ (que es además la única raíz racional de la ecuación). Lógicamente, este método es muy poco potente, por lo que sólo nos puede servir a modo de orientación.
La mayoría de los métodos utilizados para el cálculo de las raíces de una ecuación son iterativos y se basan en modelos de aproximaciones sucesivas. Estos métodos trabajan del siguiente modo: a partir de una primera aproximación al valor de la raíz, determinamos una aproximación mejor aplicando una determinada regla de cálculo y así sucesivamente hasta que se determine el valor de la raíz con el grado de aproximación deseado.

4.1 Método de la bisección

Es el método más elemental y antiguo para determinar las raíces de una ecuación. Está basado directamente en el teorema de Bolzano explicado con anterioridad. Consiste en partir de un intervalo [x0,x1]tal que f(x0)f(x1) < 0, por lo que sabemos que existe, al menos, una raíz real. A partir de este punto se va reduciendo el intervalo sucesivamente hasta hacerlo tan pequeño como exija la precisión que hayamos decidido emplear.
 

  
Figure: Diagrama de flujo correspondiente a la implementación del método de la bisección.
[scale=0.9]eps/bisecc
 
El algoritmo empleado se esquematiza en la figura (3). Inicialmente, es necesario suministrar al programa el número máximo de iteraciones MaxIter, la tolerancia $\delta$, que representa las cifras significativas con las que queremos obtener la solución y dos valores de la variable independiente, x0 y x1, tales que cumplan la relación f(x0)f(x1) < 0. Una vez que se comprueba que el intervalo de partida es adecuado, lo dividimos en dos subintervalos tales que $[x_{0}, \frac{x_{0} + x_{1}}{2}]$ y $[\frac{x_{0} + x_{1}}{2}, x_{1}]$ y determinamos en qué subintervalo se encuentra la raíz (comprobando de nuevo el producto de las funciones). Repetimos el proceso hasta alcanzar la convergencia (hasta que $\Delta \leq \delta$) o bien hasta que se excede el número de iteraciones permitidas (Iter > MaxIter), en cuyo caso es necesario imprimir un mensaje de error indicando que el método no converge.
Dos operaciones representadas en el esquema de la figura (3) requieren una explicación adicional:
  • El punto medio del intervalo se calcula como $x_{m} = x_{0} +\frac{(x_{1}-x_{0})}{2}$ en lugar de emplear $x_{m} =\frac{x_{0}+x_{1}}{2}$. Se sigue de este modo una estrategia general al efectuar cálculos numéricos que indica que es mejor calcular una cantidad añadiendo un pequeño término de corrección a una aproximación obtenida previamente. Por ejemplo, en un computador de precisión limitada, existen valores de x0 y x1 para los cuales xm calculado mediante $\frac{x_{0}+x_{1}}{2}$ se sale del intervalo [x0,x1].
  • La convergencia ($\Delta$) se calcula mediante la expresión $\Delta = \mathrm{ABS}((x_{1}-x_{0})/x_{1})$. De este modo, el término $\Delta$, representa el número de cifras significativas con las que obtenemos el resultado.

4.2 Método de las aproximaciones sucesivas

Dada la ecuación f(x) = 0, el método de las aproximaciones sucesivas reemplaza esta ecuación por una equivalente, x=g(x), definida en la forma g(x)=f(x)+x. Para encontrar la solución, partimos de un valor inicial x0 y calculamos una nueva aproximación x1=g(x0). Reemplazamos el nuevo valor obtenido y repetimos el proceso. Esto da lugar a una sucesión de valores $\{x_{0},x_{1},\dots,x_{n}\}$, que si converge, tendrá como límite la solución del problema.
 
 
  Aproximaciones sucesivas
Figure: Interpretación geométrica del método de las aproximaciones sucesivas.
[scale=0.9]eps/as-1
  En la figura (4) se representa la interpretación geométrica del método. Partimos de un punto inicial x0 y calculamos y = g(x0). La intersección de esta solución con la recta y=x nos dará un nuevo valor x1 más próximo a la solución final.
Sin embargo, el método puede divergir fácilmente. Es fácil comprobar que el método sólo podrá converger si la derivada g'(x) es menor en valor absoluto que la unidad (que es la pendiente de la recta definida por y=x). Un ejemplo de este caso se muestra en la figura (5). Esta condición, que a priori puede considerarse una severa restricción del método, puede obviarse fácilmente. Para ello basta elegir la función g(x) del siguiente modo:
\begin{displaymath}g(x) = x + \alpha f(x)\end{displaymath}
de forma que tomando un valor de $\alpha$ adecuado, siempre podemos hacer que g(x) cumpla la condición de la derivada.
 

   Aproximaciones sucesivas
Figure: Demostración gráfica de que el método de las aproximaciones sucesivas diverge si la derivada g'(x) > 1.
[scale=0.9]eps/as-2


4.3 Método de Newton

Este método parte de una aproximación inicial x0 y obtiene una aproximación mejor, x1, dada por la fórmula:
 \begin{displaymath}x_{1} = x_{0} - \frac{f(x_{0})}{f'(x_{0})}\end{displaymath}(29)
 La expresión anterior puede derivarse a partir de un desarrollo en serie de Taylor. Efectivamente, sea r un cero de f y sea x una aproximación a r tal que r=x+h. Sif'' existe y es continua, por el teorema de Taylor tenemos:
 
0 = f(r) = f(x+h) = f(x) + hf'(x) + O(h2(30)
 en donde h=r-x. Si x está próximo a r (es decir hes pequeña), es razonable ignorar el término O(h2):
 
0 = f(x) + hf'(x(31)
 por lo que obtenemos la siguiente expresión para h:
 \begin{displaymath}h = -\frac{f(x)}{f'(x)}\end{displaymath}(32)
 A partir de la ecuación (32) y teniendo en cuenta que r=x+h es fácil derivar la ecuación (29).
 

   Metodo de Newton
Figure: Interpretación geométrica del método de Newton.
[scale=0.9]eps/new-1
  El método de Newton tiene una interpretación geométrica sencilla, como se puede apreciar del análisis de la figura (6). De hecho, el método de Newton consiste en una linealización de la función, es decir, f se reemplaza por una recta tal que contiene al punto (x0,f(x0)) y cuya pendiente coincide con la derivada de la función en el punto, f'(x0). La nueva aproximación a la raíz, x1, se obtiene de la intersección de la función linear con el eje X de ordenadas.
Veamos como podemos obtener la ecuación (29) a partir de lo dicho en el párrafo anterior. La ecuación de la recta que pasa por el punto (x0,f(x0)) y de pendientef'(x0) es:
 
y - f(x0) = f'(x0)(x-x0(33)
 de donde, haciendo y=0 y despejando x obtenemos la ecuación de Newton-Raphson (29).
 

   Metodo de Newton
Figure: Dos situaciones en las que el método de Newton no funciona adecuadamente: (a) el método no alcanza la convergencia y (b) el método converge hacia un punto que no es un cero de la ecuación.
[scale=0.9]eps/new-2
  El método de Newton es muy rápido y eficiente ya que la convergencia es de tipo cuadrático (el número de cifras significativas se duplica en cada iteración). Sin embargo, la convergencia depende en gran medida de la forma que adopta la función en las proximidades del punto de iteración. En la figura (7) se muestran dos situaciones en las que este método no es capaz de alcanzar la convergencia (figura (7a)) o bien converge hacia un punto que no es un cero de la ecuación (figura (7b)).


4.4 Método de la secante

El principal inconveniente del método de Newton estriba en que requiere conocer el valor de la primera derivada de la función en el punto. Sin embargo, la forma funcional de f(x) dificulta en ocasiones el cálculo de la derivada. En estos casos es más útil emplear el método de la secante.
El método de la secante parte de dos puntos (y no sólo uno como el método de Newton) y estima la tangente (es decir, la pendiente de la recta) por una aproximación de acuerdo con la expresión:
 \begin{displaymath}f'(x_{0}) = \frac{f(x_{1})-f(x_{0})}{x_{1}-x_{0}}\end{displaymath}(34)

Sustituyendo esta expresión en la ecuación (29) del método de Newton, obtenemos la expresión del método de la secante que nos proporciona el siguiente punto de iteración:
 \begin{displaymath}x_{2} = x_{0} - \frac{x_{1}-x_{0}}{f(x_{1})-f(x_{0})}f(x_{0})\end{displaymath}(35)
  
 

   
Figure: Representación geométrica del método de la secante.
[scale=0.9]eps/secante
 
En la siguiente iteración, emplearemos los puntos x1 y x2para estimar un nuevo punto más próximo a la raíz de acuerdo con la ecuación (35). En la figura (8) se representa geométricamente este método.
En general, el método de la secante presenta las mismas ventajas y limitaciones que el método de Newton-Raphson explicado anteriormente.

4.5 Método de Steffensen

El método de Steffensen presenta una convergencia rápida y no requiere, como en el caso del método de la secante, la evaluación de derivada alguna. Presenta además, la ventaja adicional de que el proceso de iteración sólo necesita un punto inicial. Este método calcula el siguiente punto de iteración a partir de la expresión:

 \begin{displaymath}x_{n+1} = x_{n} - \frac{[f(x_{n})]^{2}}{f(x_{n}+f(x_{n}))-f(x_{n})}
\end{displaymath}

4.6 Método de la falsa posición

El método de la falsa posición pretende conjugar la seguridad del método de la bisección con la rapidez del método de la secante. Este método, como en el método de la bisección, parte de dos puntos que rodean a la raíz f(x) = 0, es decir, dos puntos x0 y x1tales que f(x0)f(x1) < 0. La siguiente aproximación, x2, se calcula como la intersección con el eje X de la recta que une ambos puntos (empleando la ecuación (35) del método de la secante). La asignación del nuevo intervalo de búsqueda se realiza como en el método de la bisección: entre ambos intervalos, [x0,x2] y [x2,x1], se toma aquel que cumpla f(x)f(x2) < 0. En la figura (9) se representa geométricamente este método. 
  
 
   
Figure: Representación geométrica del método de la falsa posición.
[scale=0.9]eps/falpos
  
La elección guiada del intervalo representa una ventaja respecto al método de la secante ya que inhibe la posibilidad de una divergencia del método. Por otra parte y respecto al método de la bisección, mejora notablemente la elección del intervalo (ya que no se limita a partir el intervalo por la mitad).
 
 
   
Figure: Modificación del método de la falsa posición propuesta por Hamming. La aproximación a la raíz se toma a partir del punto de intersección con el eje X de la recta que une los puntos ( x0,f(x0)/2) y (x1,f(x1)) si la función es convexa en el intervalo (figura a) o bien a partir de la recta que une los puntos (x0,f(x0)) y (x1f(x1)/2) si la función es cóncava en el intervalo (figura b).
[scale=0.9]eps/hamming
  
Sin embargo, el método de la falsa posición tiene una convergencia muy lenta hacia la solución. Efectivamente, una vez iniciado el proceso iterativo, uno de los extremos del intervalo tiende a no modificarse (ver figura (9)). Para obviar este problema, se ha propuesto una modificación del método, denominada método de Hamming. Según este método, la aproximación a una raíz se encuentra a partir de la determinación del punto de intersección con el eje X de la recta que une los puntos ( x0,f(x0)/2) y (x1,f(x1)) si la función es convexa en el intervalo o bien a partir de la recta que une los puntos (x0,f(x0)) y (x1f(x1)/2) si la función es cóncava en el intervalo. En la figura (10) se representa gráficamente el método de Hamming.
Como hemos comentado, el método de Hamming requiere determinar la concavidad o convexidad de la función en el intervalo de iteración. Un método relativamente sencillo para determinar la curvatura de la función consiste en evaluar la función en el punto medio del intervalo, f(xm) (en donde xm se calcula como en el método de la bisección) y comparar este valor con la media de los valores de la función en los extremos del intervalo, $\overline{f} = (f(x_{0}) +f(x_{1}))/2$. Tenemos entonces que:
\begin{displaymath}f(x_{m}) \left\{\begin{array}{ll}\leq \overline{f} & \mbo......line{f} & \mbox{si la función es convexa}\end{array} \right.\end{displaymath}


TOMADO DE: http://www.uv.es/~diaz/mn/node17.html

Regla de L'Hôpital para límites.

La regla de L´Hôpital permite resolver muchos casos de indeterminación de límites de funciones en un punto x = a. En principio la vamos a enunciar así:
  Un límite indeterminado de la forma:
lho0.gif (301 bytes)
valdrá L, en caso de que también sea L el límite en x=a del cociente de las derivadas de numerador y denominador, es decir:
lho1.gif (571 bytes)
De esta manera podemos resolver indeterminaciones del tipo 0/0. Veamos un ejemplo.
  EJEMPLO 1:  Hallar el límite:
lho2.gif (232 bytes)
este límite tiene la forma indeterminada 0/0, por tanto, podemos aplicar la regla de L'Hôpital:
lho3.gif (674 bytes)
límite que sigue teniendo la forma indeterminada 0/0, pero a la cual se puede volver a aplicar la regla de L'Hôpital:
lho4.gif (256 bytes)
que es en definitiva el valor del límite.
  Pero la regla de L'Hôpital es mucho más general, pues es aplicable no sólo a la indeterminación 0/0, sino también a las indeterminaciones:  infinito.gif (65 bytes)infinito.gif (65 bytes), 0×infinito.gif (65 bytes)infinito.gif (65 bytes)-infinito.gif (65 bytes).
  Por ejemplo, una indeterminación del tipo infinito.gif (65 bytes)/infinito.gif (65 bytes), provendrá de un límite de la forma:
lho7.gif (309 bytes)
en donde las dos funciones f(x) y g(x) tiendan a infinito en x=a, y este límite obviamente no varía si lo expresamos en la forma:
lho8.gif (422 bytes)
y ahora sí tiene la forma 0/0. En definitiva, la indeterminación infinito.gif (65 bytes)/infinito.gif (65 bytes) no es diferente de la 0/0.
EJEMPLO 2:  Hallar el límite:
lho5.gif (224 bytes)
  Este límite en principio toma la forma indeterminada infinito.gif (65 bytes)/infinito.gif (65 bytes), y lo resolvemos aplicando directamente la regla de L'Hôpital:
lho6.gif (491 bytes)
OBSERVACIÓN:  No es necesario pasar el límite a la indeterminación 0/0 antes de aplicar la regla de L'Hôpital. Si bien  (f '/g') es distinto de (1/g)'/(1/f '), en cambio no son diferentes para nuestro caso de límites en el punto x=a.
  En cuanto a las indeterminaciones del tipo 0×infinito.gif (65 bytes), aparecen en límites de productos de funciones f(x)×g(x) cuando una de ellas, p.ej. la f(x) tiende a 0, y la otra, la g(x), tiende a infinito.gif (65 bytes). En este caso nosotros expresaremos el límite en la forma:
lho9.gif (459 bytes)
y como 1/g(x) tenderá a 0, se obtiene la forma típica 0/0, a la cual se puede aplicar directamente la regla de L'Hôpital.
EJEMPLO 3:  Hallar el límite:
lhoa.gif (275 bytes)
Este límite tiene la forma 0×infinito.gif (65 bytes), por lo tanto, operamos como hemos dicho:
lhob.gif (753 bytes)
habiendo expresado la inversa de la tangente como la cotangente, cuya derivada es: - 1/(seno)², esto es:
lhoc.gif (639 bytes)
  Otro tipo de indeterminación susceptible de realizarse por la regla de L'Hôpital es la forma infinito.gif (65 bytes)-infinito.gif (65 bytes), que aparece en límites de una resta, es decir, cuando tenemos: f(x) - g(x), y ambas funciones en x=a se hacen +infinito.gif (65 bytes). Para este caso hay que tener en cuenta la siguiente identidad:
lhod.gif (322 bytes)
y si en en x=a las funciones f y g son infinito, la expresión con sus inversas será 0, por lo que f-g equivaldrá a 0/0; no obstante para aplicar la regla de L'Hôpital, en este caso deberemos transformar f-g como una expresión que incluya un cociente, tal como en el ejemplo siguiente:
EJEMPLO 4:  Hallar el límite:
lhoe.gif (385 bytes)
Este límite tiene la forma infinito.gif (65 bytes)-infinito.gif (65 bytes), y ántes de aplicar la regla de L'Hôpital debemos ponerlo en forma de cociente:
lhof.gif (571 bytes)
así expresado el cociente tiene la forma 0/0, y se puede aplicar esta regla:
lhog.gif (559 bytes)
  Finalmente, vamos a ver unos ejemplos en los que la regla de L'Hôpital ha de aplicarse sobre el exponente. Se trata de indeterminaciones del tipo: 0°, infinito.gif (65 bytes)°, unoinf.gif (66 bytes),  que proceden de límites de una función f(x) elevada a otra función g(x), para su resolución es conveniente tener en cuenta la siguiente identidad:
identie.gif (118 bytes)
teniendo en cuenta esta identidad, la cual suele escribirse por comodidad: A = exp(log A), podemos poner:
identif.gif (395 bytes)
y ahora si estamos hallando un límite en x=a de esa función exponencial, nosotros calcularemos el límite en el exponente, es decir, dentro del paréntesis de "exp", en concreto el límite de (g×log f), el cual puede ser, por ejemplo, de la forma 0×infinito.gif (65 bytes), cuya forma de resolverse es la del ejemplo 3.
EJEMPLO 5:  Hallar el límite:
lhoh.gif (145 bytes)
  Este límite tiene la forma indeterminada 0°, y tal como hemos dicho, puede expresarse:
lhoi.gif (424 bytes)
en el interior del paréntesis (la exponencial) tenemos una indeterminación 0×infinito.gif (65 bytes), y ahora procederemos así:
lhoj.gif (771 bytes)
lhok.gif (586 bytes)
NOTA:  Algunos, este tipo de límites los suelen hacer de otra manera -equivalente a la que hemos visto aquí- que vamos a pasar a exponer:
  Partiendo de la equivalencia:
lhol.gif (306 bytes)
y ahora resuelven el límite de (g×log f) por la regla de L'Hôpital, tal como lo hacemos aquí, y si el resultado de este límite es "A", entonces:
log y = A
por tanto, el límite pedido, y, será e elevado a ese número A. En nuestro ejemplo 5, como el límite de (g×log f), es decir, el límite de (3x . log x) es 0, el límite pedido es e "elevado a 0", como ya lo hemos visto antes
lhom.gif (2463 bytes)
SOLUCIONES:
a)  0.   b) -1/3  c)  4p³   d)  -1  e) 2/p   f) 0  g) 1/2  h) 1/e i) 1  j) 1.

TOMADO DE: http://www.ehu.es/juancarlos.gorostizaga/apoyo/lim_lhopital.htm
.

Archivo del blog