Vai al contenuto

Differenziale (matematica)

Da Wikipedia, l'enciclopedia libera.

In matematica, in particolare nel calcolo infinitesimale, il differenziale di una funzione quantifica la variazione infinitesimale della funzione rispetto ad una variabile indipendente. Per una funzione di una sola variabile , per esempio, il differenziale di è definito dalla 1-forma:

dove denota la derivata di rispetto a , ovvero il limite del rapporto incrementale per indefinitamente piccolo, e l'incremento della variabile indipendente.

Se si considera una funzione derivabile, con aperto in , essa può essere approssimata in un intorno di un qualsiasi punto del dominio mediante la funzione

il cui grafico è la retta tangente al grafico di in . La funzione è un'applicazione affine da in sé, cioè un'applicazione lineare sulla distanza da composta con una traslazione (l'aggiunta del termine ). Il differenziale è allora la parte lineare di .

Le derivate direzionali di una funzione indicano di quanto varia la funzione al primo ordine lungo un determinato vettore, mentre il differenziale è l'applicazione lineare che associa a quel vettore la variazione al primo ordine. Si tratta pertanto di un oggetto utile per avere informazioni locali sulla funzione di partenza, ad esempio mostra se è localmente invertibile.

Nella trattazione moderna del calcolo differenziale, il differenziale di una funzione di una sola variabile è la funzione di due variabili indipendenti e data da:

dove è la derivata di . Tale nozione trova la sua principale applicazione nell'approssimazione lineare di una funzione.

Siano e due spazi di Banach (ad esempio può coincidere con e con ) ed aperto.

Una funzione si dice differenziabile in se la sua variazione quando si allontana da è approssimabile tramite una applicazione lineare continua (se ha dimensione finita la continuità è assicurata). In modo esplicito, esistono lineare e tali che:[1]

usando la notazione con o-piccolo si ha, in modo equivalente:

Se è differenziabile in , l'applicazione lineare si chiama differenziale di in ed è talvolta denotata con , o anche .

Il differenziale è la parte lineare dell'applicazione affine che ha il grafico tangente a quello della funzione

La presenza dell'o-piccolo indica che i grafici di e sono tangenti in . Intuitivamente si può pensare che sia una funzione da in , e quindi che il grafico di sia una superficie e quello di un piano. In tal caso, se i due grafici incontrandosi in formassero un angolo allora la differenza:

dovrebbe essere lineare avvicinandosi ad in una certa direzione e il rapporto tenderebbe alla tangente dell'angolo formato tra il piano e la superficie nella direzione considerata.

Segue che se è differenziabile in il differenziale è la parte lineare della applicazione affine il cui grafico è tangente a quello di in .

In modo equivalente, se è differenziabile in si può scrivere:

e per definizione di o-piccolo:

Considerando tale espressione come definizione, è differenziabile in se esiste tale per cui il limite sia nullo (l'altra implicazione per dimostrarne l'equivalenza si ottiene prendendo

Scelte delle basi per e , se questi sono di dimensione finita, allora si può rappresentare con una matrice detta matrice jacobiana. Si possono distinguere, in particolare, tre sottocasi:

  • Sia . Il concetto di differenziale coincide con quello di derivata, essendo il differenziale di in un'applicazione lineare e quindi una funzione del tipo per qualche numero reale (tutte le applicazioni lineari sono di tale forma fissata la base canonica). Il numero è la derivata di in , infatti per definizione:
Dividendo per e considerando il limite si ottiene in quanto .
  • Sia . La jacobiana è in tal caso una matrice perché rappresenta un'applicazione lineare (prese sempre le basi canoniche per dominio e codominio), ed è pertanto un vettore riga detto gradiente. Tale vettore può essere considerato un vettore colonna (prendendone la trasposta), ed in questo caso si calcola l'immagine di tramite il gradiente di facendone il prodotto scalare, e non la moltiplicazione tra matrici.
Solitamente si usano funzioni per definire implicitamente delle ipersuperfici su . Ad esempio, per si può definire una curva come l'insieme degli per cui , mentre per si avrebbe una superficie. È inoltre possibile dimostrare che se il gradiente di una funzione non è nullo il nucleo della funzione, opportunamente traslato, è il sottospazio affine tangente all'ipersuperficie in (quando si prende come gradiente il vettore colonna il nucleo è il sottospazio ortogonale al gradiente).
  • Sia . L'immagine di è una curva in . La jacobiana ha le stesse componenti del vettore che si ottiene come limite del rapporto incrementale. Quando rappresenta la posizione di un punto materiale nello spazio, per esempio, è la velocità. Così è una retta che opportunamente traslata è tangente in alla curva.

La notazione di Leibniz nel caso di funzioni reali

[modifica | modifica wikitesto]
Giustificazione della notazione di Leibniz in termini del differenziale della funzione

La funzione identità associa a sé stesso ed è lineare e differenziabile. Come ogni funzione lineare, il suo differenziale è uguale alla funzione stessa e indipendente dal punto in cui lo si calcola. Se lo si indica con si ha, indipendentemente da :

Dal momento che la derivata è la jacobiana del differenziale per funzioni da in si ottiene:

da cui:

Quindi, il rapporto delle due funzioni lineari (i due differenziali) è costante ed è uguale alla derivata nel punto. In questo modo è possibile dare un senso rigoroso alla notazione di Leibniz, che esprime la derivata di una funzione come il quoziente tra il differenziale della funzione e quello della variabile indipendente. Tuttavia, la trattazione svolta in questa forma non è in grado di giustificare le operazioni aritmetiche sui differenziali che, nella notazione di Leibniz, nonostante la mancanza di una base rigorosa forniscono un metodo mnemonico semplice per la scrittura di proprietà delle derivate. Per un recupero rigoroso dei metodi leibniziani è invece necessario rifarsi a metodi che appartengono all'analisi non standard, formulata da Abraham Robinson negli anni sessanta.

Differenziale in più variabili

[modifica | modifica wikitesto]

Data una funzione , il differenziale parziale di rispetto ad ognuna delle variabili è , dove è la derivata parziale rispetto all'-esima coordinata. Il differenziale totale della funzione è dato dalla somma dei differenziali parziali relativi a tutte le variabili indipendenti:

In maniera più compatta si può indicare come:

dove con si indica il gradiente di , con la variazione infinitesima che è un vettore con componenti infinitesime e con il prodotto scalare.

In un contesto più formale, se è una funzione differenziabile l'incremento è dato da:

dove i termini di errore si annullano all'annullarsi di . In modo rigoroso si definisce quindi il differenziale totale nel modo seguente:

Con tale definizione si ha:

e quindi si può scrivere:

Analogamente al caso di una sola variabile vale l'approssimazione

in cui l'errore totale può essere reso piccolo a piacere relativamente a considerato incrementi sufficientemente piccoli.

Differenziali di ordine superiore

[modifica | modifica wikitesto]

I differenziali di ordine superiore di una funzione di una sola variabile possono essere definiti nel modo seguente:

e più in generale:

Informalmente, questo giustifica l'utilizzo della notazione di Leibniz per derivate di ordine superiore:

Quando la variabile indipendente dipende da altre variabili l'espressione diventa più complessa, ad esempio:

Considerazioni simili permettono di definire differenziali di ordine superiore di funzioni in più variabili. Ad esempio, se dipende da due variabili e si ha:

dove è il coefficiente binomiale. In più variabili l'espressione è analoga a patto di utilizzare l'appropriata espansione multinomiale.

I differenziali di ordine superiore in più variabili diventano ulteriormente complessi quando le variabili indipendenti dipendono a loro volta da altre variabili. Ad esempio, se e dipendono da altre variabili:

Il differenziale dell'n-esimo ordine di una funzione ed un incremento può essere anche definito come:

o, in modo equivalente, come , dove è una differenza finita in avanti con incremento . Tale definizione ha senso anche per una di più variabili.

Push-forward di una curva

Differenziale di morfismi tra varietà

[modifica | modifica wikitesto]

Si considerino due varietà lisce e , ed un morfismo tra esse, ovvero una applicazione differenziabile . Si può definire il differenziale di in come l'applicazione lineare dallo spazio tangente a in allo spazio tangente a in che manda in , con

per ogni , dove si sono considerati i vettori tangenti come derivazioni.[2] Considerando i vettori tangenti come classi di equivalenza di curve passanti per si ottiene la definizione corrispondente:

La mappa (scritta anche come , , , ) è detta anche mappa tangente, perché il simbolo definisce un funtore covariante dalla categoria delle varietà differenziabili in quella dei fibrati vettoriali.

Differenziale esatto

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Differenziale esatto.

Un differenziale esatto è una 1-forma:

tale per cui esiste una funzione , detta potenziale, che soddisfa:[3]

In altri termini, considerando uno spazio tridimensionale e una forma differenziale , essa è una forma esatta su un dominio se esiste una qualche funzione scalare definita su tale che:

su tutto . Questo è equivalente a dire a che il campo vettoriale è un campo vettoriale conservativo, corrispondente al gradiente di un campo scalare (chiamato potenziale) .

In una dimensione, una forma differenziale è esatta se ha una primitiva. Altrimenti, se non possiede primitiva non si può scrivere e la forma non è esatta.

  1. ^ W. Rudin, Pag. 213.
  2. ^ M. Abate, F. Tovena, p. 83.
  3. ^ Differenziale, in Treccani.it – Enciclopedie on line, Roma, Istituto dell'Enciclopedia Italiana.
  • Nicola Fusco, Paolo Marcellini, Carlo Sbordone, Lezioni di Analisi Matematica Due, Bologna, Zanichelli, 2020, ISBN 9788808520203. (capitolo 3, paragrafo 29)
  • Nicola Fusco, Paolo Marcellini, Carlo Sbordone, Elementi di Analisi Matematica Due, Napoli, Liguori Editore, 2001, ISBN 9788820731373. (capitolo 2, paragrafo 13)
  • M. Abate, F. Tovena, Geometria Differenziale, Springer, 2011, ISBN 978-88-470-1919-5.
  • Walter Rudin, Principi di analisi matematica, Milano, McGraw-Hill, 1991, ISBN 88-386-0647-1.
  • Giuseppe De Marco, Analisi Due, Decibel-Zanichelli, 1999.
  • (EN) Serge Lang, Undergraduate Analysis, Springer, 1997.
  • (EN) Serge Lang, Real and Functional Analysis, Springer, 1993.
  • (EN) James Munkres, Analysis on Manifolds, Westview Press, 1991.
  • (EN) Frank Warner, Foundations of Differentiable Manifolds and Lie Groups, Springer, 1983.

Voci correlate

[modifica | modifica wikitesto]

Altri progetti

[modifica | modifica wikitesto]

Collegamenti esterni

[modifica | modifica wikitesto]
Controllo di autoritàThesaurus BNCF 33889 · GND (DE4149768-5
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica