Clase Principio Hamilton

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 21

Cálculo de variaciones o Cálculo variacional y

multiplicadores de Lagrange
(Mecánica Analítica Notas de Clase.pdf)

Existen muchos problemas de minimización o maximización que requieren de extender


las herramientas tradicionales del cálculo.

Funcional
Es frecuente encontrar problemas en los cuales una trayectoria completa se mapea en
un número real y queremos encontrar la trayectoria que minimiza o maximiza dicho
número.

En el presente capítulo estudiaremos el cálculo variacional, como herramienta para


resolver esta clase de situaciones.

Por otra parte, cuando un proceso de optimización está sujeto a ligaduras, el método de
multiplicadores de Lagrange es una herramienta sistemática para encontrar los extremos
de una función sin violar las ligaduras impuestas.
Veremos más adelante que la combinación de las dos herramientas nos generará una
formulación lagrangiana con la capacidad de incluír y resolver las fuerzas de ligadura.

Algunos problemas prácticos de naturaleza variacional


Vamos a enunciar algunos problemas de índole práctica que no se pueden resolver con
los métodos tradicionales del cálculo.

Aunque el principal objetivo del desarrollo del cálculo variacional en este texto será la
discusión del principio variacional de Hamilton, esta herramienta matemática tiene muchas
otras aplicaciones de modo que lo desarrollaremos en forma independiente al tema central.

Minimización del tiempo de caída de una partícula


Consideremos una partícula que se mueve en un campo gravitacional constante y que
partiendo del reposo viaja desde un punto x 1 , y 1  hasta otro punto más bajo x 2 , y 2  con la
condición de que los puntos no se encuentran sobre la misma vertical.
Encontremos la curva que permita que la partícula haga este recorrido en el menor
tiempo posible.
Planteamiento:
Tomemos a X como el eje vertical hacia abajo y a Y como el eje horizontal a la derecha.
Por simplicidad hacemos coincidir al punto x 1 , y 1  con el origen.
Tomando el cero de potencial en el origen, y teniendo en cuenta que la partícula parte
del reposo, se tiene que la energía mecánica de la partícula viene dada por

T  V  1 m  v2  m  g  x  E  0
2
de modo que la velocidad está dada por v  2  g  x , el tiempo de recorrido es
x 2 ,y 2 
t
tf
t
i
dt   x ,y  ds
v
1 1

pues v  ds
dt
, por lo que dt  ds
v , donde ds denota un diferencial de la trayectoria de la
partícula
dy 2
x 2 ,y 2  dx 2  dy 2 x 2 ,y 2  1
 x ,y    x ,y  dx
dx
1 1 2gx 1 1 2gx
 dy
denotando y dx
2
x 2 ,y 2  1 y
 x ,y  dx
1 1 2gx

por tanto será necesario encontrar el valor de yx que hace que esta integral nos dé el
menor valor posible.
En cálculo ordinario los problemas de minimización usualmente consisten en encontrar
el valor de un punto (por ejemplo sobre la recta real) de modo que una cierta cantidad
(función) nos de un valor mínimo al evaluarla en ese punto.
En contraste, aquí requerimos encontrar una trayectoria completa que haga que cierta
cantidad sea mínima, puesto que lo que tenemos en este problema es una trayectoria
completa que se mapea en un número, que en este ejemplo es el tiempo, pero bien podría
ser otro observable.

Minimización de una superficie de revolución


Consideremos la superficie lateral generada por una curva que une dos puntos fijos
x 1 , y 1  y x 2 , y 2  cuando se revoluciona alrededor de un eje coplanar con los puntos y la
curva (ver Figura).
La idea es encontrar la ecuación de la curva en cuestión a fin de que el área lateral
generada por este sólido de revolución sea mínima.
Planteamiento: Asumiremos que la curva con extremos fijos revoluciona alrededor del
eje Y .

Sólido de revolución generado alrededor de Y . x 1 , y 1  y x 2 , y 2  son puntos fijos y se


busca la curva generadora que pase por estos puntos y que minimice la superficie lateral
del sólido.
Para calcular el área lateral total de revolución, calculamos primero el diferencial de
área dA sobre una pequeña tira como se muestra en la Figura.
Dicho diferencial viene dado por
2
dy
dA  2π  x  ds  2π  x  dx 2  dy 2  2π  x 1  dx
dx
nuevamente ds es la longitud infinitesimal de arco asociada a la curva.
La expresión final para el área queda

A  2π  x  1 y
x2 2 dy 
dx; con y
x1 dx
de nuevo la minimización del área consiste en encontrar una trayectoria completa que
minimice tal cantidad.
Aspectos fundamentales del cálculo de variaciones
Un rasgo general de estos ejemplos hasta aquí propuestos es que es necesario
resolver el problema de como hallar la trayectoria que hace que el valor de una cierta
cantidad (tiempo de caída, superficie, etc.) sea un extremo (mínimo, máximo, punto de
inflexión etc.).
Este es uno de los problemas fundamentales del cálculo variacional.
Si denotamos por S a la cantidad genérica (tiempo de caída, superficie, etc.) que
queremos minimizar podemos ver que las Ecuaciones planteadas, tienen la siguiente
estructura genérica
S   fy, y, x  dx; con y  yx, y
x2   dy
x1 dx
a la cantidad y la llamaremos coordenada generalizada y la variable independiente x
será considerada un parámetro que modula la forma de la trayectoria yx y de su derivada

y x.
Para propósitos futuros es útil considerar el caso en el cual tenemos más de una
coordenada generalizada, de modo que esta relación se extiende en la forma
x
x2   
S fy 1 x, y 1 x, . . . , y n x, y 1 x, y 2 x, . . . , y n x, x  dx
1

donde las y i son coordendas generalizadas independientes entre sí y sólo pueden


depender del parámetro x.
Definimos un Espacio de las Configuraciones, que se contruye asignando un eje a cada
coordenada generalizada independiente y i , de modo que tenemos un espacio
n dimensional.

Es necesario enfatizar que NO se asigna un eje asociado al parámetro x.

Para un valor fijo de x una configuración completa de coordenadas y i corresponde a


una n-upla y por tanto a un punto en el Espacio de Configuraciones.

Cuando se mueve el parámetro x cambia la posición del punto en el espacio de


configuraciones trazando una trayectoria en dicho espacio.
Si queremos minimizar o maximizar S debemos encontrar el conjunto de trayectorias
unidimensionales y i x que hagan que la integral de S, sea mínima o máxima.
Nótese que en el lenguaje del Espacio de Configuraciones, el problema de minimizar o
maximizar S se convierte en el problema de encontrar la trayectoria en el Espacio de
Configuraciones que minimice tal cantidad.
Esta visión del problema resulta útil en la medida que nos permite visualizar una única
trayectoria de minimización o maximización en lugar de muchas trayectorias
independientes.

Replanteando el problema de la minimización de S, tal minimización significa que entre


todas las trayectorias posibles que el sistema puede seguir en el espacio de
configuraciones al barrer el parámetro entre los extremos x 1 y x 2 , el sistema trazará la
trayectoria que haga que el valor de la integral sea estacionario (extremado, estrictamente
no sabemos aún si es mínimo, máximo o punto de inflexión).

Para una integral de línea, el término estacionario significa que el valor de la integral,
cuando se toma un cierto camino, tiene el mismo valor dentro de infinitesimales de primer
orden, que cuando se toman caminos vecinos a éste (caminos que difieren del original por
desplazamientos generalizados infinitesimales).

Recordemos que las trayectorias de las que hablamos aquí, son hipertrayectorias en el
espacio n dimensional de configuraciones.

Para integrales de línea, éste es el equivalente en funciones ordinarias, a puntos con


derivada cero. En este caso en lugar de un punto tenemos una trayectoria entera.

Cálculo variacional en una dimensión

Trabajaremos el problema inicialmente en una dimensión.


Sea una función fy, y, x definida sobre un camino y  yx donde x actúa como un

parámetro, e y es una coordenada generalizada. y denota la derivada respecto al
parámetro x.

Queremos encontrar un camino particular yx de tal modo que la integral de línea S de
la función f entre x 1 y x 2 .

S   fy, y, x  dx; y  yx; y


x2   dy
x1 dx

adquiera un valor estacionario relativo a caminos vecinos que difieren


infinitesimalmente del original.

En nuestro caso, consideraremos solo los caminos que cumplen la condición yx 1   y 1 ,
yx 2   y 2 .
Esto se denomina condición de extremos fijos conocido como Principio de Hamilton.

Si hacemos una gráfica de y vs x, para varias trayectorias posibles, encontramos que


todas ellas deben converger en los extremos de la gráfica, a los puntos x 1 , y 1  y x 2 , y 2 .

Nótese que la gráfica y vs x no representa el Espacio de Configuraciones, ya que este


último no contiene ningún eje que represente al parámetro, sino representa las funciones
de movimientos.
En este caso, el espacio de configuraciones es de una sola dimensión, todos los
caminos posibles son líneas rectas que conectan a y 1 con y 2 .
En consecuencia, lo que distingue a los diferentes caminos es su dependencia con el
parámetro x.
Vale decir que la coordenada y es generalizada y por tanto no tiene necesariamente
dimensiones de longitud.
Ahora parametrizaremos el problema de tal manera que se pueda hacer uso del calculo
ordinario.

Cuando partimos del camino correcto, la variación de S debe ser cero con respecto al
cambio a una familia de caminos vecinos que rotularemos con alguna variable infinitesimal
α.

Denotaremos a las trayectorias vecinas como yx, α, donde yx, 0 es el camino
correcto.

Por ejemplo, si seleccionamos una función arbitraria ηx pero que cumpla con la
condición de que se anula en los extremos i.e. en x  x 1 y x  x 2 una posible familia de
caminos vecinos estaría definida por

yx, α  yx, 0  α  ηx


(Eq. 4.6)

claramente, esta familia de funciones converge en sus extremos gracias a la condición


impuesta a ηx de nulidad en los extremos.

Asumiremos de aquí en adelante que el camino correcto yx, 0 y la función ηx son de
clase C 2 , es decir: contínuas y no singulares hasta la segunda derivada en todos sus
argumentos, en el intervalo x 1 , x 2 .

Con cualquier familia de curvas en la vecindad de yx, el variacional S es función de α

x
x2 
S  fyx, , y x, , x  dx
1
dado que hemos definido que la curva correcta se encuentre cuando α  0, la condición
de punto estacionario para S se puede ahora expresar en términos de cantidades del
cálculo ordinario en la forma
dS 0
dα α0
por lo que si derivamos la ecuación de S, bajo el signo integral de la forma usual,
tenemos


f y f  y
x
dS x2
    dx
d 1 y   y 
(Eq. 4.9)

naturalmente se asume que x/α  0 ya que α es un parámetro que caracteriza cada


curva en tanto que x se mueve a lo largo de cada curva (con α fijo) claramente los dos son
independientes.

Veamos la segunda integral en el miembro derecho de la Ecuación


f  y f y f y
x x x
x2 x2 x2
 dx    dx    dx
  
1  y d 1 y  dx 1 y x d
(Eq. 4.10)

para integrar por partes elegiremos

f  y
u  ; dv   dx
y x 

con lo cual
f d f
du  d    dx
y dx y

puesto que en la integral solo se hace variación en el parámetro x.


Por otro lado,
y
v
α
y al integrar por partes queda
x2
f y f y f y
x 
x2 x2
  dx  d dx
  
1 y x d  y  x1 dx y 
x1

donde la continuidad hasta segundas derivadas de yx, α asegura que el intercambio de


las derivadas parciales es posible.

Teniendo en cuenta que todas las curvas deben pasar a través de los puntos x 1 , y 1  y
x 2 , y 2 , se llega a que la derivada parcial de y con respecto a α deben ser cero en x 1 y en
x 2 , es decir que y no debe variar según , en los puntos x 1 , y 1  y x 2 , y 2 .
En consecuencia, el primer término de la derecha en la ecuación se anula y por tanto, la
integral (Eq. 4.10) queda


f  y f y
x  dx   
x2 x2
d dx
 
1  y d x1 dx y 

reemplazando lo anterior, se obtiene de la (Eq.4.9)

f f y
x
x2
dS   d dx

d 1 y dx y 

Combinando estas ecuaciones se ve que la condición para que S adquiera un valor


estacionario es
f f y
x
x2
dS   d dx  0

d 0 1 y dx y  0

por otro lado, la expresión y/α α0 es una función arbitraria de x, excepto por

exigencias de continuidad hasta la segunda derivada y la condición de extremos fijos.


Por ejemplo, para el conjunto particular de familias definidas por la Eq. 4.6, el factor
y/α α0 viene dado por la función arbitraria ηx.
De esta manera, la función que extrema a S debe satisfacer las ecuaciones
f d f
  0 #
y dx y

que son conocidas como las Ecuaciones de Euler Lagrange.

Cálculo de variaciones multidimensional

Veamos la extensión al caso de n coordenadas generalizadas.


El variacional lo escribimos como

 1 fy 1 x, . . . , y n x, y 1 x, . . . , y n x, xdx


2
S

donde todas las variables y i , y i son independientes entre sí, y solo pueden depender del
parámetro x. En este caso tenemos una hipertrayectoria correcta y una familia posible de
hipertrayectorias vecinas.

Donde análogamente al caso unidimensional


y i
δy i  dα
α α0

se llega a que la condición de estacionaridad δS  0 nos lleva a


f d f
  0
y i dx  yi
con i  1, . . . , n

Solución de los problemas de aplicación planteados

Las Ecuaciones obtenidas, denominadas de Euler-Lagrange, son generales y aplicables


a muchos sistemas incluso no mecánicos. Estamos entonces preparados para resolver los
problemas propuestos al principio del tema y otros de características similares.

Minimización de la longitud de arco

Antes de resolver los problemas planteados, veamos un problema de gran simplicidad y


valor pedagógico.
Dados dos puntos fijos en un plano, encontrar la trayectoria que minimiza la longitud de
arco.
La longitud de arco diferencial para una curva bidimensional se obtiene fácilmente
2  dy
ds 2  dx 2  dy 2  ds  1 y dx; con y
dx

la longitud de arco total se escribe entonces como

x
x2 2
s 1 y dx
1

donde es claro que que f se define como

 2
fy, y, x  1 y

de las expresiones


f f y
 0; d   d
y dx y dx 2
1 y
usando la Ecuación 4.16 resulta

d y
0
dx 2
1 y
por lo que el término entre paréntesis debe ser constante

y
c
2
1 y

para que se cumpla esta relación es necesario que a su vez y sea constante, de lo cual

se obtiene la ecuación de la trayectoria



y a  y  ax  b
que corresponde a una línea recta, las constantes de integración a y b se determinan
con los puntos fijos de la trayectoria.
Estrictamente, solo se ha demostrado que la trayectoria da un valor estacionario para la
longitud de arco pero sabemos por intuición que corresponde a un mínimo.
Minimización del tiempo de caída de una partícula: la
braquistócrona

Al comienzo planteábamos el problema de una partícula que se mueve en un campo


gravitacional constante desde un punto fijo inicial a otro final y se pedía encontrar la curva
que minimice el tiempo de caída.
El planteamiento del problema nos llevó a la Ecuación
2
1 y
0
x2
t dx
2gx

dado que la constante 2g no afecta el problema, identificamos la función f como

2
1 y
f x
f
como y
 0, pues no depende de y, la ecuación de Euler Lagrange queda

d f f 1
 0   cte 
dx y y 2a

la parametrización de la constante de integración se hace por comodidad.


Realizando
 2
f y 1  y 2 2
   2
 1  2a y  x 1 y
y 2 2a x 1 y 2a
x 1 y

2 x x2
y  
2a  x 2ax  x 2 
que se puede escribir en la forma
y  x  dx
2ax  x 2
haciendo el cambio de variable
x  a  1  cosθ; dx  a  sinθdθ
la integral queda de la forma
a  1  cosa  sind a  1  cos sind
y   
2aa1  cos  a1  cos 2
2  2 cos  1  2 cos  cos 2 

y  sin
a  1  cosd   a1  cosd
1  cos 2 
cuya solución es

y  aθ  sinθ  b
Con θ  0, los resultados nos dan x  0 y y  b.
Si el punto inicial coincide con el origen entonces y  0 cuando x  0.
Por tanto b  0, y la constante a se ajusta para que la curva pase por el punto x2, y2.
Las ecuaciones para x e y quedan entonces
x  a1  cosθ; y  aθ  sinθ

que coinciden con las ecuaciones paramétricas del cicloide, con parámetro θ. Este perfil
específico del cicloide se denomina una braquistócrona.

Principio de Hamilton
Sea un sistema de coordenadas generalizadas q 1 , q 2 , ..., q n (suponemos que, si
hubiere, las ligaduras son holonómicas).
Cada punto de coordenadas q1, . . . , qn en un espacio de n dimensiones, que
llamamos Espacio de Configuración o q-espacio, que fija la posición del sistema
unívocamente.
El Principio de Hamilton afirma que todo sistema viene caracterizado por una función de
estado
 
Lq 1 , . . . , q n ; q 1 , . . . , q n ; t


el Lagrangiano del Sistema, Lq, q, t, tal que el movimiento del sistema cumple:
* En t  t 1 , t  t 2 , ocupa posiciones dadas q 1 , q 2 , respectivamente.
* El sistema se mueve tal que el funcional,

t
t2 
S Lq, q, t  dt
1

que se llamamos Acción, es un extremo para la trayectoria real del sistema entre todas
las trayectorias posibles entre los puntos q 1 y q 2 , ver Figura 4.02, en donde la trayectoria
real de sistema se indica mediante la línea continua. La línea discontinua indica una
trayectoria próxima a la anterior.
Sea δqt la variación infinitesimal del camino respecto a la trayectoria real del sistema,
tal que
δqt1  δqt2  0,

t 
t2
t 
t2
δS  L q a  L  q  dt  L q a  L d q a  dt
 
1 q a  qa
a
1 q a  q a dt
a a

integrando por parte el último tramo


t2

t 
t2

t2
L q  dt   L q  d L q a  dt

1 q a
a
 qa
a
t1 dt  q
a a t1 a a

t 
t2
 d L  L  q a  dt  0

1 dt  qa q a
a

En donde fue considerado que


dδq a 
 δ qa
dt
con δq a t y como son arbitrarios, pues tenemos ligaduras holonómicas,

d L  L  0

dt  qa q a

que son las Ecuaciones de Lagrange, conocidas también como de Euler-Lagrange.


Observemos que si tenemos dos sistemas aislados, no interactuantes, es decir que no
hay relación entre las coordenadas generalizadas de ambos sistemas, podemos expresar
el Lagrangiano del sistema global
L  LA  LB
que es la Propiedad Aditiva del Lagrangiano.

Recordando L  y L,
  dfq, t
L  q, q, t  Lq, q, t 
dt

y calculando la Accion a partir de ellos

t
t2
t
t2
Lq, q, t  dt  
  t2 dfq, t
S  L  q, q, t  dt   dt
1 1 t1 dt
S   S  fq 2 , t 2   fq 1 , t 1 

Si ahora hacemos un variacional de S y S  , deberíamos tener S  S   0, para la


misma trayectoria extremal.

Por lo que la Acción extremada, es independiente de una función que sera diferencial
total del tiempo.

Ligaduras y multiplicadores de Lagrange


A continuación estudiaremos un método sistemático para tratar problemas en los que
se pretende encontrar
los extremos de una función en donde sus argumentos están sujetos a ligaduras.

La técnica de los multiplicadores de Lagrange que ilustraremos aquí, no está


necesariamente asociada a problemas variacionales, pero se puede combinar con estos
últimos, especialmente cuando tenemos ligaduras integrales.
Supongamos que queremos encontrar el extremo de una función de tres variables
independientes x 1 , x 2 , x 3 ; en tal caso la condición de extremo (o punto de silla) es
df  0 4.30
es decir
f f f
df  dx 1  dx 2  dx 3  0 4.31
x 1 x 2 x 3
dado que las variables son independientes, podemos variar por ejemplo x 1 sin variar x 2
y x 3 de modo que
dx 2  dx 3  0 con lo cual  x1 f  0.
En algunos casos de abrevia

f
  x1 f #
x 1
Procediendo idénticamente con las otras variables vemos que la condición necesaria y
suficiente para tener un extremo es
 x1 f   x2 f   x3 f  0 4.32

sin embargo ocurre con frecuencia que las variables que se utilizan a priori para
describir al sistema no son independientes.

En muchos casos la ligadura se puede escribir en forma de una ecuación de la forma


ϕx 1 , x 2 , x 3   0 4.33

en este caso la Ec. (4.32) no necesariamente se cumple ya que las variables no se


pueden mover independientemente.
Una forma de tratar el problema es despejar una variable de modo que nos quedamos
con dos variables independientes y hacemos el tratamiento normal con dos variables
independientes.

Sin embargo, este despeje puede ser muy difícil en la práctica, por lo cual exploraremos
un método alternativo conocido como el método de los multiplicadores indeterminados de
Lagrange.
De la Ecuación (4.33), es claro que dϕ  0, de modo que se cumple una relación similar
a (4.31) que escribiremosen la forma

  
 dx 3  dx 1  dx 2 #
x 3 x 1 x 2
así
f f f  
df  dx 1  dx 2  dx 1  dx 2 #
x 1 x 2  x 1 x 2
f f  
df  dx 1  dx 2   dx 1  dx 2 #
x 1 x 2 x 1 x 2
con

f
 4.34


Escribamos ahora
f f f ϕ ϕ ϕ
df  λdϕ  dx 1  dx 2  dx 3  λ  dx 1  dx2  dx3 #
x 1 x 2 x 3 x 1 x 2 x 3

puesto que df  dϕ  0tenemos que df  λdϕ  0.

Teniendo en cuenta esto y redistribuyendo términos, se tiene


f ϕ f ϕ f ϕ
λ dx 1  λ dx 2  λ dx 3  0 4.35
x 1 x 1 x 2 x 2 x3 x 3

ahora tenemos en cuenta que dos de las variables son independientes, digamos x 1 , x 2 .
Nótese que el multiplicador λ en la Eq. (4.34) ha sido definido de modo que
f ϕ
λ 0 4.36
x 3 x 3
La Eq. (4.35) queda de la forma
f ϕ f ϕ
λ dx 1  λ dx 2  0 4.37
x 1 x 1 x 2 x 2
y dado que x 1 y x 2 se pueden variar independientemente, cada término entre paréntesis
debe anularse.

Cuando se cumplen las Ecs. (4.36, 4.37) se tiene que df  0 y f es un extremo (o punto
de silla).

Si añadimos la ecuación de ligadura (4.33) tendremos cuatro ecuaciones con cuatro


incógnitas x 1 , x 2 , x 3 , λ.

Nótese sin embargo que en general nuestro interés es calcular los x i , de modo que λ no
necesita ser hallado.

Por esta razón, a λ se le denomina multiplicador indeterminado de Lagrange.

Es claro que el método falla cuando todos los coeficientes de λ se anulan en el extremo
i.e. si

0 #
x i x i x i,o
para i  1, 2, 3; donde x 1,0 , x 2,0 , x 3,0  es el punto donde se ubica el extremo de f.
En este caso resulta imposible despejar λ.
En lo anterior hemos identificado a f como la función que toma un valor extremo y ϕ la
ecuación que expresa la ligadura.

Sin embargo, la forma de las Ecs. (4.36, 4.37) nos muestran que podemos intercambiar
los papeles de estas funciones.

La generalización a un conjunto arbitrario de variables y de ligaduras es inmediata.

Minimización de la superficie de un cilindro con volumen constante


Encontraremos el radio R y la altura H de un cilindro circular recto, que minimice su
área superficial total, manteniendo constante el volumen V 0 del cilindro.
La función a minimizar es el área superficial total del cilindro que depende de las
variables R y H
fR, H  2πR 2  2πRH #

la ecuación de ligadura (4.38) corresponde en este caso a la restricción de mantener el


volumen constante, y se puede escribir como

ϕR, H  πR 2 H  V 0  0 #

puesto que solo hay una ecuación de ligadura, hay un solo multiplicador indeterminado
λ. Reemplazando (4.43,
4.44) en (4.42) las ecuaciones para fR, H con multiplicadores para las variables R y H
son
fR, H ϕ fR, H ϕ
λ  0; λ 0 #
H H R R

2πR  λπR 2  0; πR  2πλRH  0 #


2  λR  0; 1  2λH  0 #

en la última línea hemos tomado la solución no trivial R  0, con lo cual se obtiene

λ   2 ; R  4H #
R

reemplazando esto último en la ecuación de ligadura (4.44)


π4H 2 H  V0  #

H 3
V0 ; R  4V0 4.45
16π π

Problemas variacionales con ligaduras


Tomemos de nuevo el problema variacional en el cual buscamos un camino que haga
que la integral sea estacionaria

x
x2 
S  fyx, , y x, , x  dx 4.45
1

Siendo las y i coordenadas generalizadas que solo pueden depender del parámetro x.
La codición de estacionaridad es

S    fyx, , y x, , x  dx  0


x2 
4.46
x1

asumamos sin embargo, que el problema debe respetar ciertas restricciones que se
manifiestan en ecuaciones de ligadura de la forma
 k y, x  0 4.47
con k  1, 2, . . . , m
multiplicando cada una de las ecuaciones (4.47) por un multiplicador indeterminado que
en general depende del parámetro, i.e. λ k  λ k x, sumando sobre k e integrando en el
mismo rango que en la ecuación 4.45, se obtiene
m
 x   k x k y, xdx  0
x2
#
1
k1

es claro por tanto que

m

x2

x1
  k x k y, xdx  0 #
k1

en algunas ocasiones, las ligaduras de por sí adquieren forma integral i.e.


x
x2
 k y, xdx  cte #
1

en este caso podemos multiplicar cada una de estas ecuaciones por un λ k (que en este
caso no dependería del parámetro x), sumar sobre k y aplicar la variación quedando
m

x2

x1
  k  k y, xdx  0 4.49
k1

nótese que las Ecs. (4.48, 4.49) son esencialmente idénticas excepto por la
dependencia de λ k del parámetro x en la Ec. (4.48).

Sumando cualquiera de estas dos ecuaciones con la Ec. (4.46) resulta

m

x2 
fy, y, x    k  k y, x dx  0 #
x1
k1

redefiniendo
m
 
gy, y, x  fy, y, x    k  k y, x #
k1

tenemos que

  gy, y, xdx  0
x2 
#
x1

y con el mismo procedimiento que nos llevó de la Ec. (4.20) a la Ec. (4.23), obtenemos

n
g g
  gy, y, xdx 
x2
 x
 x2
 d y i dx 4.50

x1
i1 1 y i dx  yi

en esta caso no podemos decir que cada integrando es cero ya que los
desplazamientos virtuales δy i no son independientes.

De nuevo, usamos el carácter indeterminado de los multiplicadores de Lagrange para


exigir que los términos asociados a las coordenadas dependientes se anulen

g d g
  0 4.51
y i dx  yi
i  n  m  1, . . . , n

con lo cual la Ec. (4.50) queda

nm
g g
 x
x2
 d y i dx  0 #

i1 1 y i dx  yi

y dado que las coordenadas que quedan son independientes, podemos afirmar que
cada integrando es cero, y junto a las Ecs. (4.51) esto nos lleva a
g d g
 0 4.52
y i dx y i
i  1, . . . , n

m

gy i , x  fy i , y i , x    k  k y i , x 4.53
k1

los multiplicadores de Lagrange tienen aplicaciones en múltiples escenarios de la Física


más allá de los que utilizaremos en el presente curso.

También podría gustarte