RSS

Archivi tag: funzione armonica

Funzione armonica

Salvatore Di Lucia

°°°°°

Funzione armonica

In analisi matematica,

una funzione armonica è una funzione differenziabile fino al secondo ordine   che soddisfa l’equazione di Laplace:

ossia l’insieme delle funzioni armoniche costituisce il nucleo dell’operatore di Laplace.

Nell’ambito della teoria del potenziale le funzioni armoniche sono spesso dette funzioni potenziale, o potenziali, e sono utilizzate in fisica e ingegneria,

ad esempio,

per ricondurre lo studio di un campo vettoriale in tre dimensioni al caso di un campo scalare in una dimensione. In tale contesto, una funzione armonica scalare viene detta potenziale scalare, mentre una funzione armonica vettoriale è chiamata potenziale vettore.

Le funzioni armoniche rivestono particolare importanza in analisi complessa, in quanto se una funzione armonica definita in un certo spazio viene trasformata con una mappa conforme in un altro spazio, allora tale trasformazione è armonica.

Per tale ragione,

ogni funzione definita con un potenziale può subire una trasformazione conforme, e rimane ancora vincolata a un potenziale.

Definizione

Una funzione  definita su un dominio   si dice armonica se è di classe   e soddisfa l’equazione di Laplace:

Per la linearità dell’operatore di Laplace, la somma di due funzioni armoniche e il prodotto di esse per uno scalare restituiscono un’altra funzione armonica.

Ad esempio,

la funzione  , definita su un qualsiasi aperto di  , è armonica.

Infatti:

 

 

e la somma delle derivate parziali seconde è sempre nulla.

Proprietà del valor medio

Ogni funzione armonica soddisfa la proprietà del valor medio.

Si fissi un dominio  e sia   una funzione armonica.

Si indichi   il volume della sfera unitaria in  .

Allora per ogni sfera chiusa di raggio  e centro  , contenuta in  , denotata con  ¯, vale la seguente uguaglianza:

Inoltre, vale anche:

Dimostrazione

Si fissi  . Applicando il teorema della divergenza al campo vettoriale   si ottiene:

 

Passando dalle coordinate cartesiane  a quelle polari   con:

 

si ha  , e si verifica:

 

Calcolando l’integrale della derivata normale di  e riscalando rispetto a   si ottiene:

 

ed è possibile scambiare derivata e integrale:

 

Considerando l’integrale di superficie:

 

se ne deduce che per ogni   si ha:

 

e passando al limite per  si ottiene la prima uguaglianza. La seconda si ottiene integrando rispetto a  .

Principio del massimo

Magnifying_glass_icon_mgx2.svg Lo stesso argomento in dettaglio: Principio del massimo.

Il principio del massimo afferma che massimi e minimi stretti di una funzione armonica, se esistenti, vengono assunti al bordo.

Più precisamente, si consideri  una funzione armonica, dove   è un dominio aperto e connesso di  .

Si supponga che esista  in   tale che   per ogni  .

Allora   è costante.

La dimostrazione usa la proprietà del valor medio.

Sia  e si consideri l’insieme  .

Per ipotesi, esso è non vuoto; inoltre, per la continuità di  , è chiuso (nella topologia indotta) in quanto controimmagine di un insieme chiuso.

Considerando la funzione  , essa è negativa e armonica: si scelga una palla  di raggio   e si applichi la proprietà del valor medio a  .

Si ottiene:

Dato che l’integrando è non positivo, l’uguaglianza è soddisfatta se e solo se  nella palla  

Quindi  e   è aperto in   in quanto

(ovvero , unione di insiemi aperti).

  è quindi contemporaneamente aperto e chiuso in  , ma, poiché  è connesso,   e   sono i soli sottoinsiemi aperti e chiusi. Ne consegue  .

Armonicità delle funzioni complesse analitiche

Nel caso di funzioni di variabile complessa,

il concetto di funzione armonica entra come particolare teorema soddisfatto dalle funzioni analitiche.

Sia infatti:

una funzione analitica.

Allora sia la  sia la   sono funzioni armoniche delle due variabili   e  :

Infatti,

è sufficiente calcolare le derivate seconde delle equazioni di Cauchy-Riemann e confrontarle, ricordando che:

si ha:

Sommando la prima e l’ultima e la seconda e la terza e utilizzando il teorema di Schwarz sull’invertibilità delle derivate parziali:

 

Si ha così che date due funzioni  e   armoniche in un aperto   che soddisfano le condizioni di Cauchy-Riemann allora   è detta armonica coniugata di  , ma non è vero il contrario.

Una conseguenza di questo teorema è che una funzione è analitica in un aperto  del piano complesso se e solo se   è l’armonica coniugata di  .

Ciò significa che una funzione analitica può essere costruita a partire dall’assegnazione della sua parte reale   e ricavando la sua parte immaginaria a meno di una costante.

Per un esempio di come calcolare l’armonica coniugata di una funzione  si consideri la funzione  .

Questa funzione è armonica poiché:

Volendo trovare l’armonica coniugata  , utilizzando le condizioni di Cauchy-Riemann  si ha:

Si può integrare  mantenendo fissata la variabile   (considerandola come una costante):

dove  ) è una funzione arbitraria dipendente da  .

Per utilizzare la condizione di Cauchy-Riemann    si deriva  ottenuta per integrazione rispetto a  :

e si calcola la derivata  dalla funzione di partenza:

Uguagliando si ricava il valore di  :

dalla quale per integrazione:

dove   è la costante di integrazione.

Si ha dunque:

cioè si è ricavata l’armonica coniugata di  a meno di una costante  .

In tal modo la funzione:

è una funzione analitica uguale a .

°°°°°

Link Lezione precedente

Read the rest of this entry »

 
Lascia un commento

Pubblicato da su 17 settembre 2023 in MATEMATICA

 

Tag:

Funzione Armonica

°°°°°

“La matematica non conosce razze o confini geografici; per la matematica, il mondo culturale è una singola nazione.”

DAVID HILBERT

Classificazione delle funzioni nell’ambito dell’analisi matematica

 

 

 

 

Segue …

Read the rest of this entry »

 
Lascia un commento

Pubblicato da su 9 agosto 2021 in MATEMATICA

 

Tag:

Funzioni : Classificazione insiemistica

°°°°°

“La matematica non conosce razze o confini geografici; per la matematica, il mondo culturale è una singola nazione.”

DAVID HILBERT

°°°°°

Classificazione puramente insiemistica

Endofunzione

In matematica

una endofunzione è una funzione avente il codominio contenuto o coincidente con il dominio.

In molti contesti risulta utile considerare l’insieme delle endofunzioni entro un dato insieme S, insieme che denotiamo, come talora si usa fare, con Endo(S).

Prime classificazioni e primi esempi

Può essere opportuno sia considerare le endofunzioni entro insiemi ai quali non si assegna alcuna struttura, sia le endofunzioni entro insiemi strutturati.

Dal primo punto di vista occorre distinguere le endofunzioni con dominio e codominio coincidenti dalle endofunzioni con codominio strettamente contenuto nel dominio;

inoltre occorre distinguere le endofunzioni invertibili dalle non invertibili.

Le endofunzioni entro S con dominio e codominio coincidenti ed invertibili sono le permutazioni di S, ossia le funzioni biiettive di S con sé stesso.

Un esempio di endofunzione con dominio e codominio coincidenti non invertibile è la endofunzione entro l’insieme degli interi naturali che ad ogni k= 0, 1, 2, 3, … fa corrispondere la parte intera di k/2.

Le endofunzioni entro un insieme finito con dominio e codominio coincidenti devono essere invertibili, cioè sono le permutazioni del codominio.

Tra le endofunzioni con codominio strettamente contenuto nel dominio ed invertibili si trova la funzione esponenziale considerata endofunzione entro l’insieme dei numeri reali.

Tra le endofunzioni entro S con codominio strettamente contenuto nel dominio vi sono le funzioni costanti di S in sé stesso, chiamate anche collassi o ‘resets’.

Funzioni costanti e permutazioni costituiscono due casi estremi:

le permutazioni hanno il codominio più esteso, l’intero S, le funzioni costanti hanno il codominio ridotto ad un solo elemento.

Se S ha cardinalità finita n, le sue permutazioni sono n!, mentre le sue endofunzioni costanti sono n, in corrispondenza biunivoca con S stesso.

Endofunzioni finite

Le endofunzioni finite, cioè quelle con dominio finito, si possono classificare abbastanza facilmente. Per questo è utile visualizzare una tale endofunzione f sull’insieme finito S con il digrafo monogeno equivalente, digrafo i cui nodi sono gli elementi di S e i cui archi sono le coppie .

Per la endofunzione f si possono individuare tutti i sottoinsiemi che sono trasformati dalla f in una parte di sé stessi e tra questi sottoinsiemi si possono distinguere i massimali; queste manovre si effettuano senza difficoltà servendosi degli archi opposti a quelli determinati dalla f.

Per ogni restrizione della f a un tale insieme Q, si individuano

  • elementi di Q che vengono permutati ciclicamente in sé stessi (elementi periodici), il cui insieme scriviamo P;

  • elementi di Q \ P, d chiamare non periodici, i quali applicando la f una o più volte sono trasformati in un elemento periodico.

Casi particolari dei sottodigrafi determinati dai sottoinsiemi Q sono i digrafi delle permutazioni cicliche di Q e i collassi su Q.

Sottodigrafi più generali dei collassi sono le controarborescenze, digrafi che presentano vari cammini che si concludono in un unico nodo dotato di cappio, la controradice.

In generale su un sottoinsieme Q si ha un ciclo di uno o più nodi periodici e delle controarborescenze formate da nodi non periodici dai quali si può raggiungere uno dei nodi periodici di cui sopra.

Involuzioni come endofunzioni

Casi particolari di endofunzioni sono le involuzioni, cioè le funzioni coincidenti con le proprie inverse; queste sono evidentemente funzioni biiettive.

Il digrafo di una involuzione finita non può presentare nodi non periodici (che andrebbero contro la biunivocità) e può presentare solo cicli con uno o due nodi (altri cicli implicherebbero biiezioni diverse dalle rispettive inverse).

I nodi dotati di un cappio sono i punti fissi dell’involuzione ovvero gli elementi autoduali; i nodi costituenti cicli di due elementi costituiscono coppie di elementi duali (v. dualità).

Altri esempi

Esempi

di endofunzioni biiettive che non sono involuzioni sono le funzioni espresse da x3, da x2n+1 per ogni n intero positivo e da Sinh(x)

Permutazione

Una permutazione è un modo di ordinare in successione oggetti distinti, come nell’anagramma di una parola.

In termini matematici una permutazione di un insieme X si definisce come una funzione biiettiva :

Elencare e contare le permutazioni

Il numero delle permutazioni di  oggetti è pari al fattoriale di :

infatti ci sono  modi di scegliere l’oggetto che occupa la prima posizione, per ciascuno di essi ci sono  modi di scegliere l’oggetto che occupa la seconda posizione, poi per ogni coppia di oggetti fissati nelle prime due posizioni ci sono  modi di scegliere l’oggetto nella terza posizione, e così via, fino ad occupare tutte le posizioni.

Ad esempio, le permutazioni possibili della serie di quattro lettere “ABCD” sono 24 e si presentano come:

ABCD BACD CABD DABC

ABDC BADC CADB DACB

ACBD BCAD CBAD DBAC

ACDB BCDA CBDA DBCA

ADBC BDAC CDAB DCAB

ADCB BDCA CDBA DCBA

Insiemi con ripetizioni

Se nell’insieme di partenza vi sono degli elementi ripetuti, alcune permutazioni danno la stessa sequenza.

Ad esempio

le permutazioni della serie di quattro lettere “ABAB” forniscono soltanto 6 risultati distinti:

AABB ABAB ABBA

BBAA BABA BAAB

In generale, se l’insieme è formato da  oggetti, di cui  sono di un tipo,  di un altro tipo, ecc. fino a , con , il numero di risultati distinti è

che viene detto coefficiente multinomiale.

Nell’esempio mostrato,  e , e si ottiene quindi

Dimostrazione

Si inseriscano in una tabella tutte le permutazioni semplici di n oggetti in cui solo k si ripetono trattandoli come diversi tra loro in modo da avere sulle righe le permutazioni delle lettere non uguali e sulle colonne le permutazioni delle lettere uguali. Procedendo in questo modo su ogni riga ci saranno le stesse permutazioni, quindi se si calcola il prodotto righe e colonne[il prodotto del numero di righe per il numero di colonne?] si ottengono le permutazioni semplici[il numero di permutazioni o le permutazioni?]:

Ci saranno quindi tante righe quante permutazioni delle lettere ripetute e tante colonne quante permutazioni con ripetizione

Se gli oggetti che si ripetono sono di più tipi allora si eliminano prima gli elementi di un tipo trattandoli come diversi da quelli di altro tipo. Quindi si applica la formula sopra ottenendo le permutazioni semplici degli oggetti comprese quelle del tipo rimanente su cui sarà possibile applicare nuovamente la formula ottenendo le permutazioni con ripetizione cercate. Generalizzando si ottiene la formula

Composizione

Una permutazione è una funzione biettiva .

Due permutazioni  e  possono quindi essere composte e il risultato è ancora una permutazione.

L’insieme  delle permutazioni di  con l’operazione di composizione forma un gruppo, detto gruppo simmetrico.

L’elemento neutro è la permutazione che lascia fissi tutti gli elementi.

Cicli

Sia  una successione di elementi distinti di X. Il ciclo

è la permutazione che sposta in avanti di uno tutti gli  e tiene fissi gli altri. Più formalmente è definita nel modo seguente:

 per gli altri 

L’ordine del ciclo è il numero n.

Una trasposizione è un ciclo  di ordine 2: consiste semplicemente nello scambiare gli elementi a e b, lasciando fissi tutti gli altri.

Due cicli  e  sono indipendenti se  per ogni i e j.

Due cicli indipendenti a e b commutano, cioè .

L’importanza dei cicli sta nel seguente teorema:

Ogni permutazione si scrive in modo unico come prodotto di cicli indipendenti.

Poiché cicli indipendenti commutano, l’unicità è da intendersi a meno di scambiare l’ordine dei cicli.

Notiamo infine che le notazioni  e  definiscono lo stesso ciclo, mentre  e  sono cicli diversi.

Notazione

Ci sono due notazioni per scrivere una permutazione. Si considerino ad esempio una permutazione dell’insieme {1, 2, 3, 4, 5}. Si può scrivere sotto ad ogni numero la posizione in cui questo viene spostato:

Alternativamente, si può codificare la stessa permutazione sfruttando il teorema enunciato sopra, scrivendola come prodotto di cicli. Nel caso in esempio si ottiene (1 2 5)(3 4).

Con la notazione ciclica due permutazioni possono essere composte in modo agevole: ad esempio (1 2 5)(3 4) e (1 2 3) danno (1 2 5)(3 4)(1 2 3) = (1 5)(2 4 3). Si noti che composizione è fatta da destra verso sinistra. Per esempio, per vedere dove viene mandato 1 dalla composizione (1 2 5)(3 4)(1 2 3) si vede che (1 2 3) lo manda in 2, (3 4) non muove 2, e infine (1 2 5) manda 2 in 5. Quindi 1 va in 5.

Segno di una permutazione

Definizione

Ogni ciclo è prodotto di trasposizioni. Infatti, sempre con la composizione da destra verso sinistra, si ha:

Ne segue che ogni permutazione è prodotto di trasposizioni. Il numero di queste trasposizioni non è univocamente determinato dalla permutazione: per esempio si può scrivere la trasposizione anche come  o . Si può dimostrare che se una stessa permutazione  può essere scritta sia come prodotto di  trasposizioni, sia come prodotto di  trasposizioni, allora  e  hanno la stessa parità, cioè sono entrambi pari o entrambi dispari.

Una permutazione p è detta pari o dispari a seconda che sia ottenibile come prodotto di un numero pari o dispari di trasposizioni. Il segno di p è definito rispettivamente come +1 e -1.

Esempi

  • Tutte le trasposizioni sono dispari.

  • Tra le 6=3! permutazioni degli elementi {1, 2, 3} vi sono:

    id, (1 2 3), (1 3 2) sono pari;

    (1 2), (1 3), (2 3) sono dispari.

Proprietà

Definito il prodotto di due permutazioni come la composizione delle stesse, si può dire che la funzione “segno” è moltiplicativa, cioè:

Gruppo alternante

Metà delle n! permutazioni di un insieme di n elementi sono pari. Poiché la funzione segno è moltiplicativa, le permutazioni pari formano un sottogruppo normale del gruppo S(X) delle permutazioni di X di indice due, detto gruppo alternante e indicato con A(X).

Si tratta del nucleo dell’omomorfismo di gruppi

L’immagine è un gruppo ciclico con due elementi.

Formula per il segno

Il segno di una permutazione  può essere calcolato tramite la formula seguente:

°°°°°

Involuzione (teoria degli insiemi)

In matematica ,

un’involuzione è una funzione, dotata dalla proprietà di essere l’ inversa di se stessa.

Se applicata due volte, quindi, il risultato coincide con l’elemento di partenza.

Definizione

Un’involuzione è una funzione

racconto che

Ogni involuzione è necessariamente una funzione biiettiva .

Il concetto di involuzione è talvolta utilizzato al posto di idempotenza , che riguarda più propriamente funzioni tali che . 

Esempi

La funzione identità è un’involuzione banale.

Esempi meno banali includono la moltiplicazione per -1 di un numero reale , l’inverso di un numero razionale , l’ insieme complemento di un sottoinsieme , il coniugato di un numero reale e l’operatore di trasposizione .

In algebra lineare , tranne che in caratteristica due, un”applicazione lineare che sia un’involuzione è sempre diagonalizzabile .

In teoria dei gruppi , una permutazione è un’involuzione se è prodotto di trasposizioni indipendenti.

Conteggio delle involuzioni

Il numero di involuzioni in un insieme con n elementi è dato dalla seguente relazione ricorsiva :

I primi termini della sequenza sono 1, 1, 2, 4, 10, 26, 76, 232 (sequenza A000085 nella Enciclopedia in linea delle sequenze intere ).

Per calcolare il numero di involuzioni in un insieme con “n” elementi si può ricorrere anche a questa formula, non ricollegata ad altri insiemi.

Classificazione delle funzioni nell’ambito della teoria della calcolabilità

°°°°°

Teoria della calcolabilità

La teoria della calcolabilitàdella computabilità, e della ricorsione cerca di comprendere quali funzioni possono essere calcolate tramite un procedimento automatico. In altre parole, essa cerca di determinare se una data funzione è teoricamente calcolabile a prescindere dal fatto che sia anche trattabile, cioè a prescindere dalla quantità di risorse che la sua esecuzione richiede in termini di tempo o di memoria, che a livello pratico potrebbero essere proibitive. Questa disciplina è comune sia alla matematica sia all’informatica.

Di conseguenza l’obiettivo principale è dare una definizione formale e matematicamente rigorosa dell’idea intuitiva di funzione calcolabile. Da una parte l’approccio è quello di approfondire il concetto di calcolabilità, cercando di individuare le categorie di problemi che sono teoricamente risolvibili, e dall’altra mappare questo concetto su ciò che è teoricamente calcolabile sui computer, sempre senza considerare le limitazioni imposte dai costi, dal tempo e dalla quantità di memoria impiegata.

Un altro importante aspetto è quello di definire matematicamente il concetto di algoritmo in modo che i programmi possano essere concretamente pensati in termini di oggetti matematici, più precisamente come funzioni che restituiscono un determinato risultato a partire da un certo insieme di dati in ingresso.

Cos’è un algoritmo

Una prima definizione di algoritmo è la seguente: un algoritmo è una sequenza finita di istruzioni che definiscono in modo chiaro e non ambiguo le operazioni da eseguire per raggiungere un risultato. Per esempio, ragionando ad un alto livello di astrazione,

  • Avanza 5 passi

  • Gira a sinistra

  • Avanza 7 passi

può essere un algoritmo per raggiungere una determinata posizione. Questa definizione però non esaurisce pienamente il concetto di che cosa sia un algoritmo. Per ottenere una definizione accettabile sono stati pensati diversi modi equivalenti, ad esempio mediante le macchine di Turing, le funzioni parziali ricorsive, i sistemi di Post e Markov e le macchine a registri, parenti stretti dei moderni elaboratori. Tutti questi metodi sono stati dimostrati fra loro equivalenti, con la conseguenza che la potenza di calcolo, cioè che cosa possono calcolare in linea di principio, è la stessa.

Poiché quando si scrive un programma in un qualsiasi linguaggio di programmazione si fornisce una sequenza di istruzioni per produrre un certo risultato, si può dire che un algoritmo è ciò che nasconde una funzione che prende in ingresso dei numeri naturali e restituisce in uscita numeri naturali. Se un algoritmo computa su un insieme qualunque A, è possibile associare ad esso una funzione parziale:

Funzioni parziali ricorsive

Le funzioni parziali ricorsive sono un esempio di un formalismo atto a definire il concetto di funzione intuitivamente calcolabile.

Si può dimostrare che il formalismo delle funzioni parziali ricorsive ha la stessa espressività di quello della macchina di Turing.

La dimostrazione si basa sull’implementazione di un interprete per una macchina di Turing tramite funzioni parziali ricorsive.

Tesi di Church-Turing

Se una funzione è calcolabile secondo un qualsiasi formalismo esistente e non, allora lo è anche con una macchina di Turing.

Funzione ricorsiva primitiva

Nella teoria della calcolabilità, le funzioni ricorsive primitive sono una classe di funzioni che possono essere definite applicando un numero finito di volte la ricorsione e la composizione a partire da particolari funzioni base (funzioni zero, funzione successore e funzioni selettive o proiettive) e costituiscono un passo fondamentale nella costruzione di una completa formalizzazione della calcolabilità.

Le funzioni ricorsive primitive sono un sottoinsieme stretto delle funzioni ricorsive (queste ultime corrispondono esattamente alle funzioni calcolabili).

La classe più ampia delle funzioni ricorsive è definita aggiungendo la possibilità di avere funzioni parziali e introducendo un operatore di ricerca non limitato.

Molte delle funzioni solitamente studiate nella teoria dei numeri, e le approssimazioni di funzioni a valori reali, sono primitive ricorsive, come l’addizione, la divisione, il fattoriale, l’esponenziale, la ricerca dell’ennesimo numero primo, e molte altre (Brainerd and Landweber, 1974).

Infatti è difficile progettare una funzione che sia ricorsiva totale ma non primitiva ricorsiva, anche se se ne conoscono alcune, come la funzione di Ackermann.

Perciò studiando questo particolare tipo di funzioni è possibile scoprire proprietà che hanno conseguenza di ampia portata.

Le funzioni ricorsive primitive possono essere calcolate dalle macchine che terminano sempre, mentre le funzioni ricorsive richiedono sistemi con la stessa potenza di calcolo delle macchine di Turing.

Definizione

Definiamo primitiva ricorsiva una funzione che o fa parte delle funzioni base, oppure può essere ottenuta a partire dalle funzioni base applicando la composizione e la ricorsione primitiva un numero finito di volte; equivalentemente, l’insieme  delle funzioni ricorsive primitive è definito come il più piccolo insieme contenente le funzioni ricorsive di base e che sia chiuso per composizione e ricorsione primitiva.

Le funzioni ricorsive vanno dai naturali ai naturali: . In generale prendono come argomenti una tupla di n numeri naturali e restituiscono un numero naturale.

Una funzione che prende n argomenti si dice n-aria.

Funzioni base

Definiamo come funzioni base le seguenti funzioni:

  • Le funzioni zero, che prendono n argomenti (con ), e che restituiscono sempre 0.

  • Sono perciò funzioni costanti.

  • La funzione successore S, che prende un argomento e restituisce il numero successivo

  • Le funzioni di proiezione (dette anche funzioni selettive o funzioni identità), che prendono n argomenti () e restituiscono l’i-esimo tra essi ().

e prendiamo come tre assiomi il fatto che siano tutte ricorsive primitive.

Composizione e ricorsione

È possibile ottenere funzioni ricorsive primitive più complesse di quelle base, applicando a queste ultime i seguenti operatori:

  • L’operatore di composizione (o sostituzione):

se  è una funzione a  argomenti, e  sono funzioni tutte a  argomenti, allora la funzione  a  argomenti:

è ottenuta per composizione (o sostituzione) da  e 

  • L’operatore di ricorsione primitiva:

  • se  è una funzione a  argomenti, e  è una funzione a  argomenti, allora la funzione  a  argomenti così definita:

è ottenuta per ricorsione primitiva da  e 

Si noti che, grazie alle funzioni di proiezione, possiamo aggirare l’apparente rigidità del numero di argomenti delle funzioni suddette, dato che, grazie alla composizione, possiamo passare qualunque sottoinsieme degli argomenti.

Esempi

AddizioneLa funzione Addizione  in quanto funzione ricorsiva può essere definita mediante ricorsione primitiva a partire dalla funzione di base Successore  nel seguente modo:

SottrazionePer definire la funzione Sottrazione () come funzione ricorsiva ci si appoggia alla definizione della funzione ricorsiva Predecessore , definita a sua volta per ricorsione primitiva a partire dalla funzione di base Identità :

Si ricava quindi la funzione Sottrazione :

MoltiplicazioneLa funzione Moltiplicazione  in quanto funzione ricorsiva può essere definita mediante l’ausilio della già definita funzione Addizione  e precisamente:

FattorialeLa funzione Fattoriale(!) in quanto funzione ricorsiva può essere definita mediante l’ausilio della già definita funzione Moltiplicazione (·) e precisamente:

Limitazioni

Sebbene tutte le funzioni primitive ricorsive siano totali, esistono funzioni totali che non sono primitive ricorsive: un esempio è la funzione di Ackermann, che è calcolabile, totale, ma non ricorsiva primitiva.

Esistendo quindi delle funzioni non descrivibili da questo formalismo, esso non è adeguato a rappresentare quelle che intuitivamente sono le funzioni calcolabili.

L’estensione delle funzioni primitive ricorsive che rappresenta tutte le funzioni calcolabili (ovvero ha la stessa espressività della macchina di Turing), è quella delle funzioni ricorsive.

°°°°°

Integrale di Itō

Lo stesso argomento in dettaglio:

Lemma di Itō.

L’integrale di Itō fa parte dell’analisi di Itō per i processi stocastici.

In letteratura è introdotto utilizzando varie notazioni, una delle quali è la seguente:

dove  è il processo di Wiener. L’integrale non è definito come un integrale ordinario, in quanto il processo di Wiener ha variazione totale infinita. In particolare, gli strumenti canonici di integrazione di funzioni continue non sono sufficienti. L’utilizzo principale di tale strumento matematico è nel calcolo differenziale di equazioni in cui sono coinvolti integrali stocastici, che inseriti in equazioni volte a modellizzare un particolare fenomeno (come il moto aleatorio delle particelle o il prezzo delle azioni nei mercati finanziari) rappresentano il contributo aleatorio sommabile (rumore) dell’evoluzione del fenomeno stesso.

Esempi di calcolo di un integrale

  • In base alle informazioni fornite dal primo teorema fondamentale del calcolo integrale si può effettuare il calcolo di un integrale cercando una funzione la cui derivata coincide con la funzione da integrare.
  • A questo scopo possono essere d’aiuto le tavole d’integrazione.
  • Così per effettuare il calcolo dell’integrale della funzione vista in precedenza  attraverso la ricerca di una primitiva si ricorre alla formula:
la cui derivata coincide proprio con . Prendendo in considerazione la (già esaminata precedentemente) funzione  e integrandola si ottiene:
Mentre per quanto concerne l’integrale definito nel compatto  si ha, in forza del secondo teorema fondamentale del calcolo integrale
esattamente lo stesso risultato ottenuto in precedenza.
  • Si supponga di fissare un sistema di riferimento cartesiano attraverso le rette ortogonali e orientate delle ascisse e delle ordinate. Si supponga ora che su tale sistema di assi sia definita una retta la cui equazione esplicita è .
  • Si vuole calcolare l’integrale di tale retta definita sul compatto  situato sull’asse delle ascisse. Si supponga per semplicità che i punti  e  si trovino sul semiasse positivo delle ascisse e siano entrambi positivi.
  • Allora l’area sottesa alla retta considerata nel compatto  è uguale all’area di un trapezio che “poggiato” in orizzontale sull’asse delle ascisse è caratterizzato da un’altezza uguale a , base maggiore  e base minore .
  • L’area di tale figura è data, come noto dalla geometria elementare, dalla formula , ovvero .
Nell’ottica del calcolo dell’integrale di questa retta definita nel compatto  si effettua una partizione di tale intervallo, dividendolo in  parti uguali:
Nel generico intervallo  si sceglie come punto arbitrario il punto più esterno  (ma andrebbe bene qualsiasi punto dell’intervallo), considerando la funzione  nel generico punto  interno all’intervallo . Si avrà quindi , e la somma integrale di Riemann diventa:
nella quale la progressione aritmetica  restituisce un’espressione delle somme di Riemann uguale a:
Per passare dalle somme integrali di Riemann all’integrale vero e proprio è ora necessario, in conformità con la definizione di integrale, il passaggio al limite di suddette somme.
Ovvero:
Calcolando il limite per , dato che , si ottiene:
dalla quale, eseguendo la somma si ricava:
la quale è esattamente l’area del trapezio costruito dalla retta  sul piano insieme all’asse delle ascisse.
°°°°°

Funzione cilindrica

Una funzione cilindrica è una funzione a 2 variabili che dipende solo da una delle due; è, quindi, molto semplice da graficare.

Sia  e sia noto il grafico di g; considerando una serie di punti generici  ottengo una retta in quanto il valore della x rimane costante (proprio perché la funzione non dipende da questa variabile).

Ne consegue che il grafico di f è un cilindro ottenuto componendo tutte le rette; è sufficiente quindi graficare g nel piano zy (o zx se ) e tracciare delle rette parallele (si veda il grafico di  ottenibile disegnando cos(y) [funzione dalla traccia nota] e unendo quindi le rette prolungate, parallele all’asse x).

Grafico di f(x,y)=cos(y), realizzato con Maple 9.5
Grafico di f(x,y)=cos(y), realizzato con Maple 9.5
Alcune funzioni notevoli:
Funzione Beta

Esistono diversi tipi di funzione beta in matematica:

Funzione Gamma

In matematica, la funzione Gamma, nota anche come funzione gamma di Eulero è una funzione meromorfacontinua sui numeri reali positivi, che estende il concetto di fattoriale ai numeri complessi, nel senso che per ogni numero intero non negativo  si ha:

,

dove  denota il fattoriale di  cioè il prodotto dei numeri interi da  a .

Definizione

Valore assoluto della funzione gamma sul piano complesso
Valore assoluto della funzione gamma sul piano complesso

La notazione  è dovuta a Legendre.

Se la parte reale del numero complesso  è positiva, allora l’integrale

converge assolutamente. Comunque, usando la continuazione analitica, si può estendere la definizione della  a tutti i numeri complessi , anche con parte reale non positiva, ad eccezione degli interi minori o uguali a zero. Usando l’integrazione per parti, in effetti, si può dimostrare che:

per cui si ha:

.

In questo modo, la definizione della  può essere estesa dal semipiano  a quello  (ad eccezione del polo in ), e successivamente a tutto il piano complesso (con poli in ).

Siccome , la relazione riportata sopra implica, per tutti i numeri naturali , che:

In statistica si incontra di frequente (per esempio nella variabile casuale normale) l’integrale:

che si ottiene ponendo , e quindi , ottenendo quindi 

Espressioni alternative

Le seguenti espressioni alternative per la funzione Gamma, sono valide su tutto il piano complesso (ad eccezione dei poli):

dovuta a Gauss,

dove  è la costante di Eulero-Mascheroni, dovuta a Schlömilch e ottenibile applicando il teorema di fattorizzazione di Weierstrass alla funzione 

Un’ulteriore espressione alternativa è la seguente:

In questa formula sono espliciti i poli di ordine  e residuo  che la funzione Gamma ha in , per ogni  intero non negativo.

La singolarità nell’origine può essere anche dedotta dalla relazione di ricorrenza. Infatti

dove è stato fatto uso della relazione .

Proprietà

Altre importanti proprietà della funzione Gamma sono la formula di riflessione di Eulero:

e quella di duplicazione:

che a sua volta è un caso particolare della formula di moltiplicazione:

la quale per  diventa:

Quest’ultima identità è ottenibile anche dalla formula di riflessione e dall’identità trigonometrica  .

Le derivate della funzione Gamma:

possono essere espresse in funzione della stessa funzione Gamma e di altre funzioni, per esempio:

dove  è la funzione poligamma di ordine zero. In particolare,

dove  è la costante di Eulero-Mascheroni.

Si ha, inoltre:

che per  intero positivo si riduce ad una somma finita

dove  è l'(m-1)-esimo numero armonico.

Derivando membro a membro rispetto a  si ha, ancora,

che per  diverge, mentre per  diviene la serie armonica generalizzata di ordine 2

Lukacs studiò altre proprietà nell’opera A Characterization of the Gamma Distribution negli Annals of Mathematical Statistics del 1955.

Ricordiamo anche che, a partire dalla funzione Gamma, la funzione poligamma di ordine  è definita nel modo seguente:

 .

Valori notevoli

Probabilmente, il più noto valore che la funzione Gamma assume su numeri non interi è:

che si può trovare ponendo  nella formula di riflessione.

Oltre a questo e al già citato valore assunto sui numeri naturali, sono interessanti anche le seguenti proprietà, che interessano i multipli dispari di 

dove  denota il semifattoriale e la parentesi tonda a due livelli il coefficiente binomiale.

Teorema di unicità

Lo stesso argomento in dettaglio:

Teorema di Bohr-Mollerup.

Il teorema di Bohr-Mollerup afferma che, tra tutte le funzioni che estendono la funzione fattoriale, solo la funzione Gamma è tale che il suo logaritmo è una funzione convessa.

°°°°°

Funzione zeta di Riemann

In matematica, la funzione zeta di Riemann è una funzione che riveste una fondamentale importanza nella teoria analitica dei numeri e ha notevoli risvolti in fisicateoria della probabilità e statistica.

I primi risultati riguardanti questa funzione furono ottenuti da Leonhard Euler nel diciottesimo secolo, ma il nome deriva da Bernhard Riemann, che nel testo Über die Anzahl der Primzahlen unter einer gegebenen Grösse, pubblicato nel 1859, avanzò l’ipotesi di una relazione tra gli zeri della funzione e la distribuzione dei numeri primi, la celebre congettura di Riemann.

Definizione e prime proprietà

La funzione zeta di Riemann è definita prolungando analiticamente la serie di Dirichlet

convergente per ogni numero complesso  di parte reale maggiore di . Tramite il prolungamento trovato da Riemann la serie di Dirichelet è estesa ad una funzione olomorfa su tutto il piano complesso ad eccezione di , dove ha un polo semplice.

La funzione zeta possiede zeri semplici negli interi pari negativi, detti zeri banali, mentre tutti gli altri zeri sono disposti simmetricamente rispetto alla retta , detta retta critica, e sono tutti contenuti nella striscia , detta striscia critica.

Storia

Bernhard Riemann fu il primo ad evidenziare la connessione tra gli zeri della funzione zeta di Riemann e la distribuzione dei numeri primi.
Bernhard Riemann fu il primo ad evidenziare la connessione tra gli zeri della funzione zeta di Riemann e la distribuzione dei numeri primi.

Il primo a notare l’importanza della funzione zeta nello studio dei numeri primi fu Eulero che, nel 1737, dimostrò l’identità, nota come prodotto di Eulero:

ove  è un numero reale maggiore di . Grazie a questa formula, Eulero dedusse che la serie

diverge, e quindi che i numeri primi sono piuttosto densi nell’insieme dei numeri naturali, più dei quadrati perfetti; ad esempio si può notare come il ragionamento di Eulero fornisca anche una diversa dimostrazione del teorema dell’infinità dei numeri primi, già elegantemente dimostrato dalla matematica greca.

Nel secolo seguente Čebyšëv e altri matematici si dedicarono allo studio della comprensione della distribuzione dei numeri primi, utilizzando per lo più metodi di combinatoria e la formula prodotto di Eulero, senza tuttavia riuscire a dimostrare la relazione asintotica

congetturata da Legendre e ora nota come teorema dei numeri primi.

Fu però con Bernhard Riemann che la funzione zeta iniziò ad assumere un ruolo centrale nella teoria dei numeri. Nel suo unico articolo sull’argomento, Ueber die Anzahl der Primzahlen unter einer gegebenen Grösse, Riemann considerò la funzione zeta non più solo per una variabile reale , ma per una variabile complessa , e la studiò utilizzando metodi di analisi complessa. I risultati principali ottenuti da Riemann furono:

  • la dimostrazione del fatto che la funzione  si possa prolungare analiticamente su tutto il piano complesso, ad eccezione di , in cui la funzione ha un polo semplice;

  • la scoperta di un’equazione funzionale (dimostrata in due diversi modi) che permette di mettere in relazione i valori della funzione zeta a destra e a sinistra della retta Re(s)=1/2;[3]

  • una formula esatta che mostra la dipendenza della funzione enumerativa dei primi dagli zeri della funzione zeta.

  • L’introduzione di una nuova funzione olomorfa intera, ξ(s), strettamente legata alla ζ(s), e un abbozzo di dimostrazione di una formula prodotto per ξ(s) (questa formula fu dimostrata rigorosamente solo 34 anni dopo, da Jacques Hadamard).

Oltre a questi risultati, Riemann diede alcune formule senza dimostrazione, tra cui una formula con una stima asintotica del numero di zeri non banali della funzione zeta, e scrisse che è “molto probabile” che tutti questi zeri abbiano parte reale uguale a 1/2. Questa congettura ha preso il nome di ipotesi di Riemann ed è tuttora uno dei problemi aperti più importanti di tutta la matematica, grazie alle conseguenze che implicherebbe sulla distribuzione dei numeri primi.

Negli anni a seguire, vari matematici svilupparono ulteriormente le idee di Riemann, e fornirono dimostrazioni rigorose per alcune sue formule. In particolare i risultati più importanti furono ottenuti da von Mangoldt e soprattutto da Hadamard e de la Vallée Poussin. Questi ultimi infatti riuscirono a dimostrare che la funzione zeta non ha zeri nella retta  e da questo ottenere come corollario il teorema dei numeri primi.

Da allora, grossi sforzi sono stati fatti per dimostrare l’ipotesi di Riemann, ma sono stati ottenuti solo risultati parziali che restano molto lontani da quanto previsto da Riemann. Nell’impossibilità di fare ulteriori progressi in questa direzione, lo sforzo dei teorici dei numeri si è spostato su altri importanti problemi relativi alla funzione zeta: lo studio della crescita della funzione zeta lungo la retta critica, lo studio dei suoi momenti e sulla trascendenza o razionalità dei suoi valori sui numeri naturali dispari.

Proprietà principali

Il grafico cartesiano della funzione zeta per i numeri reali tra -18,5 e 10
Il grafico cartesiano della funzione zeta per i numeri reali tra -18,5 e 10

Il prodotto di Eulero

Lo stesso argomento in dettaglio:

Formula prodotto di Eulero.

Una delle proprietà fondamentali della funzione zeta di Riemann, è il prodotto di Eulero,

valida per , e dove il prodotto è effettuato su tutti i numeri primi . La dimostrazione di questa identità usa solo la formula per la somma della serie geometrica e il teorema fondamentale dell’aritmetica. Infatti, per , si può calcolare la somma geometrica

per ogni primo . Moltiplicando tra loro queste identità per tutti i primi per  (questa ulteriore restrizione serve per assicurare la convergenza) si ha:

dato che per il teorema fondamentale dell’aritmetica ogni numero naturale si può decomporre in maniera unica come prodotto di potenze di primi.

È interessante notare che la formula di Eulero ha come conseguenza che vi sono infiniti numeri primi. Infatti, se vi fosse solo un numero finito di numeri primi allora il prodotto di Eulero sarebbe un prodotto finito e quindi sarebbe definito anche per , mentre in tale punto la funzione zeta ha un polo. Sebbene possa sembrare esageratamente complicata per un teorema di cui esistono dimostrazioni elementari, questa dimostrazione è molto importante in quanto una sua generalizzazione è stata usata da Dirichlet per dimostrare il teorema dell’infinità dei numeri primi nelle progressioni aritmetiche.

Questo prodotto è all’origine del collegamento tra funzione zeta e numeri primi.

Alcune serie correlate

Oltre alla serie che viene solitamente usata per definirla, la funzione zeta di Riemann è strettamente collegata anche con alcune altre serie di Dirichlet. Tra queste, è di fondamentale importanza la serie per la derivata logaritmica della funzione zeta,

che si ottiene derivando il logaritmo del prodotto di Eulero. La funzione  è la Funzione di von Mangoldt, una funzione che è diversa da zero solo nelle potenze dei numeri primi. Da questa identità si può ricavare facilmente, attraverso l’uso della somma per parti, la formula

dove

è la funzione ψ di Čebyšëv, sostanzialmente una versione pesata della funzione enumerativa dei primi.

Altre serie di Dirichlet importanti collegate con la funzione zeta sono

dove  è la funzione di Möbius, e

dove  è il numero di rappresentazioni di  come prodotto di  interi maggiori di . In particolare,

dove  è la funzione divisore.

Anche la funzione eta di Dirichlet

è legata alla funzione zeta di Riemann, tramite la relazione

e può essere usata per prolungare analiticamente la funzione zeta sul semipiano .

Equazione funzionale

Una delle proprietà più importanti della funzione zeta di Riemann è che soddisfa la seguente equazione funzionale:

ove  è la funzione Gamma. Questa formula è un’uguaglianza tra funzioni meromorfe valida su tutto il piano complesso. Per  di parte reale negativa, tutte le funzioni a destra dell’uguaglianza non hanno poli e negli interi pari, la funzione seno ha zeri semplici; da ciò segue che la funzione zeta ha zeri semplici (detti zeri banali) negli interi negativi.

Questa equazione può essere vista come una formula di riflessione rispetto a s = 1/2 e permette di esprimere la funzione zeta a sinistra della retta Re(s) = 1/2 in termine della funzione zeta a destra di tale retta e di alcune funzioni ben note. La funzione zeta di Riemann si può “completare”, andando a formare la funzione Xi di Riemann,

che è olomorfa intera, ha gli stessi zeri della funzione zeta, ad eccezione degli zeri banali, e soddisfa l’equazione funzionale simmetrica

[6]

Gli zeri e l’ipotesi di Riemann

Lo stesso argomento in dettaglio:

Ipotesi di Riemann.

A parte gli zeri "banali", presenti negli interi pari negativi, la funzione zeta non ha zeri a destra di σ=1 e a sinistra di σ=0 (né possono esserci zeri "vicini" a tali due rette). Inoltre, gli zeri non banali sono simmetrici rispetto alle rette σ=1/2 e t=0 e, secondo quanto ipotizzato da Riemann, appartengono tutti alla retta σ=1/2.

A parte gli zeri “banali”, presenti negli interi pari negativi, la funzione zeta non ha zeri a destra di σ=1 e a sinistra di σ=0 (né possono esserci zeri “vicini” a tali due rette). Inoltre, gli zeri non banali sono simmetrici rispetto alle rette σ=1/2 e t=0 e, secondo quanto ipotizzato da Riemann, appartengono tutti alla retta σ=1/2.

Il prodotto di Eulero ha come immediata conseguenza che la funzione zeta non ha zeri nel semipiano Re(s) > 1.

Inoltre, grazie all’equazione funzionale, da ciò segue che gli unici zeri che la funzione zeta ha nel semipiano Re(s) < 0 sono gli zeri banali.

Gli zeri restanti possono quindi essere solo nella striscia 0 ≤ Re(s) ≤ 1 e, sempre grazie all’equazione funzionale, sono simmetrici rispetto a s = 1/2 e anche rispetto alla retta Im(s) = 0.

Di conseguenza, per ogni zero non banale σ + it ve n’è un altro in σ – it ed altri due in 1 -σ ± it (questi zeri coincidono con i precedenti se σ = 1/2).

Inoltre, nelle loro dimostrazioni del teorema dei numeri primiHadamard e de la Vallée Poussin mostrarono che la funzione zeta non ha zeri neanche nella retta Re(s) = 1 (e dunque, per l’equazione funzionale, neanche in Re(s) = 0).

In particolare, tutti gli zeri non banali della funzione zeta sono nella striscia 0 < Re(s) < 1, che viene dunque detta striscia critica. Nella sua memoria del 1859,

Riemann ha espresso la sua convinzione che gli zeri siano disposti proprio al centro di tale striscia, nella retta Re(s) = 1/2 (la retta critica); questa congettura è tuttora aperta ed ha preso il nome di ipotesi di Riemann (in inglese Riemann hypothesis o RH).

I valori assoluti della funzione zeta nel piano complesso. A un valore più scuro corrisponde un valore assoluto più piccolo

I valori assoluti della funzione zeta nel piano complesso. A un valore più scuro corrisponde un valore assoluto più piccolo

L’ipotesi di Riemann è molto lontana dall’essere dimostrata e non è ancora noto se esista un ε > 0 tale che tutti gli zeri σ + it di ζ stiano in σ <1-ε (l’ipotesi di Riemann corrisponde a ε = 1/2 e, grazie al teorema di Hadamard e de la Vallée Poussin l’asserzione è dimostrata essere vera per ε = 0). Tuttavia, qualche risultato parziale è stato ottenuto; il primo ad estendere la regione priva di zeri (zero-free region) è stato de la Vallée Poussin, che nel 1899 ha provato che gli zeri della funzione zeta di Riemann soddisfano la disequazione

per una costante . Questo risultato è stato leggermente migliorato nel corso degli anni, con progressi portati da John Edensor Littlewood, Nikolai Chudakov, Nikolai Mikhailovich Korobov e Ivan Matveevič Vinogradov. Quest’ultimo nel 1958 ha dimostrato che

per t > 3 e per una costante C >0. Se si eccettua per alcuni miglioramenti alla costante C (il più recente dei quali è dovuto a Ford, che ha dimostrato che si può prendere C = 1/57.54), il teorema di Vinogradov è tuttora la migliore disuguaglianza nota per la regione priva di zeri.

La formula di Riemann-von MangoldtNella memoria di Riemann è presente una stima asintotica per il numero di zeri non banali con parte immaginaria compresa tra  e  per  che tende all’infinito.

Definito

dove  denota la cardinalità dell’insieme, si ha

dove  denota il simbolo di Landau

e

 indica l’argomento.

Questa formula, enunciata da Riemann, è stata dimostrata da von Mangoldt nel 1905 ed è nota come formula di Riemann-von Mangoldt.

È chiaro che l’ipotesi di Riemann è vera se e solo se  coincide con

Sono stati ottenuti alcuni risultati parziali in questa direzione, i più importanti dei quali sono dovuti ad Hardy e Littlewood, che hanno provato che

Selberg che ha provato che

per una qualche costante κ > 0, e a Levinson e Conrey che hanno migliorato tale costante, portandola rispettivamente a 1/3 e poco più di 2/5.

Un’altra importante congettura sulla funzione zeta di Riemann (detta congettura degli zeri semplici o, in inglese, Simple Zeros Conjecture) asserisce che tutti gli zeri della funzione sono semplici.

I risultati ottenuti a proposito della percentuale degli zeri semplici sono molto simili a quelli per la percentuale degli zeri sulla retta critica ed anche in questo caso è stato provato che

per una costante κ* > 2/5.[9][11]

Correlazione tra gli zeriDalla formula asintotica per N(T) è facile dimostrare che, assumendo l’ipotesi di Riemann, la distanza media tra due zeri consecutivi di ζ(s) ad altezza T è 2Π/logT.

Ci possono però essere intervalli insolitamente lunghi ed insolitamente corti senza zeri ed infatti, assumendo l’ipotesi di Riemann ed indicando con  l’n-esimo zero non banale (di parte immaginaria positiva) della funzione zeta di Riemann, si ha che esistono due costanti λ1 < 1 e λ2 > 1 tali che

e

[12][13]

Un’importante congettura sugli zeri della funzione zeta di Riemann è la congettura della correlazione delle coppie di Hugh Montgomery (in inglese, pair correlation conjecture).

Questa congettura afferma che, per ogni β > α > 0, si ha

per  che tende all’infinito.[14]

Serie di Laurent

La funzione zeta di Riemann ha un polo semplice in s = 1, la sua serie di Laurent in tale punto è

dove le costanti sono chiamate costanti di Stieltjes e sono definite come:

La costante γ0 è dunque la Costante di Eulero-Mascheroni.

°°°°°

Prodotto di Hadamard

Sulla base del teorema di fattorizzazione di WeierstrassJacques Hadamard dimostrò che:

dove  è la costante di Eulero-Mascheroni e  sono gli zeri non banali della funzione zeta.

Relazione con la funzione digamma

La funzione zeta compare nello sviluppo in serie di Taylor della funzione digamma:

Relazione con la trasformata di Mellin

Lo stesso argomento in dettaglio: Trasformata di Mellin.

La trasformata di Mellin di una funzione  è definita come:

Essa è collegata alla funzione zeta. Infatti:

dove  è la funzione Gamma di Eulero.

Ciò equivale a dire che:

Questa rappresentazione converge per  e non può essere dunque usata per estendere il dominio della funzione.

Se π(x) è il numero di numeri primi compresi tra  e  allora possiamo scrivere che:

E considerando la funzione  come  abbiamo che:

I valori della funzione zeta

Lo stesso argomento in dettaglio:

Costanti zeta.

L'immagine mostra i valori per la parte reale ed immaginaria di ζ ( 1 / 2 + i y ) {\displaystyle \zeta (1/2+iy)} con y che varia tra 0 e 50.

L’immagine mostra i valori per la parte reale ed immaginaria di  con y che varia tra 0 e 50.

Il calcolo dei valori esatti della funzione zeta è stato un compito piuttosto difficile: Eulero riuscì nel 1735 ad avere una formula esatta per la funzione zeta di . Il suo metodo si poteva applicare per tutti gli  pari:

;

la dimostrazione di questo fatto è la soluzione del problema di Basilea.

Più in generale è stato dimostrato che:

dove  è l’-esimo numero di Bernoulli.

Non sono note formule analoghe, per i valori della funzione zeta in corrispondenza di  né per altri valori dispari (e maggiori di ) di . Sommando i primi termini della serie che definisce la funzione zeta si possono però ottenere valori approssimati:

La razionalità e la trascendenza di questi valori è da molti anni al centro dell’interesse di molti studiosi di teoria dei numeri trascendenti.

Al 2014, non è noto se essi siano trascendenti o meno, mentre l’irrazionalità è stata dimostrata solo per la costante di Apéry ζ(3) da Roger Apéry nel 1978.

Ci sono inoltre altri risultati parziali sull’irrazionalità di queste costanti; ad esempio, è stato dimostrato che almeno uno tra ζ(5), ζ(7), ζ(9), e ζ(11) è irrazionale.

Altri valori

Il lavoro di Riemann

Molto prima che Hadamard e de la Vallée Poussin dimostrassero il teorema dei numeri primiBernhard Riemann pubblicò nel 1859 (come accennato) un articolo in cui trattava la funzione zeta.

Oltre a estendere il dominio della funzione tramite prolungamenti analitici Riemann, partendo dal Prodotto di Eulero, dimostrò una formula straordinaria che esprimeva appieno la correlazione tra numeri primi e funzione zeta

dove

e la serie sulla destra è sommata su tutti gli zeri non banali  della funzione zeta di Riemann. La formula dà sempre un valore numerico reale anche se i  sono numeri complessi.

Questo è dovuto al fatto che le parti immaginarie degli zeri sono simmetriche rispetto all’origine.

In altre parole se ζ(a+bi)=0 anche ζ(a-bi)=0 e questa proprietà si estende anche a .

Sommando dunque queste quantità la parte immaginaria si annulla.

°°°°°

Funzione identità 

In matematica si chiama funzione identità su un insieme la funzione che associa ad ogni elemento l’elemento stesso. 

La funzione identità su si indica con . Essa ha dunque come dominio e codominio ed è racconto per cui per ogni si ha . 

Proprietà

La funzione identità è la più semplice tra le funzioni definibili su un insieme, ed è inoltre compatibile con praticamente tutte le strutture matematiche possedute dall’insieme; viene infatti utilizzata come prototipo per definire gli automorfismi , ovvero le funzioni interne ad un insieme, che ne conservano le strutture. All’interno del gruppo degli automorfismi di una data struttura, l’identità costituente l’ elemento neutro rispetto alla composizione di morfismi.

A seconda delle strutture su cui è applicata, la funzione identità riveste quindi diverse caratteristiche:

Rappresentazioni

La funzione identità può venire rappresentata in modi diversi a seconda delle caratteristiche degli insiemi su cui è definita; ad esempio:

°°°°°

Funzioni di interesse probabilistico e statistico

Funzione di ripartizione

In statistica e teoria della probabilità, la funzione di ripartizione (o funzione cumulativa) è una funzione di variabile reale che racchiude le informazioni su un fenomeno (un insieme di dati, un evento casuale) riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto.

Nel calcolo delle probabilità

Nel calcolo delle probabilità la funzione di ripartizione, o funzione di probabilità cumulata, di una variabile casuale  a valori reali è la funzione che associa a ciascun valore  la probabilità del seguente evento: “la variabile casuale  assume valori minori o uguali ad “.

In altre parole, è la funzione  con dominio la retta reale e immagine nell’intervallo  definita da

Una funzione F è una valida funzione di ripartizione se è non decrescentecontinua a destra e

Una funzione di ripartizione non è necessariamente continua a sinistra (e dunque continua globalmente): se  è una variabile casuale discreta e  un punto del suo supporto, allora  è una funzione a gradino e dunque

(ponendo senza restrizioni di generalità ) poiché è una costante indipendente da , mentre

dunque essendo  si ha che  non è continua.

Più in generale, una funzione di ripartizione individua univocamente una intera distribuzione di probabilità, cioè una funzione che ad ogni sottoinsieme misurabile  associa la probabilità che  cada in .

Proprietà

Si può dimostrare dalla definizione che valgono le seguenti uguaglianze, ponendo per semplicità di notazione :

Se  è una variabile casuale assolutamente continua la funzione di ripartizione di  può essere espressa come funzione integrale:

ove  è detta funzione di densità di .

Si può anche considerare la relazione inversa:

Se  è una variabile casuale discreta (ossia ammette una collezione numerabile di possibili valori )

dove  è detta funzione di probabilità di .

Esempi

Grafico della funzione di ripartizione relativa alla distribuzione uniforme
Grafico della funzione di ripartizione relativa alla distribuzione uniforme

Se  è la variabile aleatoria risultato del lancio di un dado a sei facce si ha

dove con  si indica la parte intera di x.

Se  è la variabile casuale uniforme continua in  si ha

.

Funzione di sopravvivenza

In alcuni modelli è più utile analizzare la probabilità che un certo dato numerico valga più del valore  (come nella vita di un organismo, biologico o meccanico): questi casi sono trattati dalla branca chiamata analisi di sopravvivenza. Si definisce allora la funzione di sopravvivenza  (dal termine inglese survival) come il complemento della funzione di ripartizione:

Nei casi rispettivamente continuo e discreto, valgono naturalmente delle identità speculari a quelle della ripartizione:

e

Ogni funzione di sopravvivenza  è una funzione monotona decrescente, vale a dire  per 

Il tempo  rappresenta l’origine, in genere l’inizio di uno studio o l’inizio del funzionamento di alcuni sistemi.

Variabili aleatorie multivariate

Più in generale la funzione di ripartizione di una variabile aleatoria  a valori in  è la funzione  con dominio  e codominio l’intervallo  definita da

dove  sono le componenti di .

Questa funzione possiede la proprietà di essere continua a destra separatamente per ogni variabile. Valgono inoltre le seguenti formule, derivanti dalla definizione:

  • Per qualsiasi 
  •  è monotona crescente separatamente in ogni variabile, cioè se 
  • se  per semplicità, 
  •  dove  è la funzione di ripartizione della variabile -variata .

Da quest’ultima proprietà viene anche l’uguaglianza

e l’affermazione vale ovviamente anche per ogni permutazione degli indici .

In statistica descrittiva

Lo stesso argomento in dettaglio:

Statistica descrittiva.

In statistica la funzione di ripartizione empirica, o funzione di distribuzione cumulata, viene usata per descrivere fenomeni quantitativi o comunque descritti con valori misurati su scale ordinaliintervallari o proporzionali, ma non se misurati con una scala nominale.

La funzione di ripartizione viene indicata solitamente con  e rappresenta il numero di osservazioni del fenomeno minori o uguali del valore .

Se  sono le osservazioni (ordinate in senso crescente), con frequenze relative  la funzione di ripartizione ha espressione analitica

Le  sono dette frequenze relative cumulate.

°°°°°

Funzione di probabilità

Nella teoria della probabilità, la funzione di probabilità , o funzione di massa di probabilità, o densità discreta di una variabile casuale discreta  è una funzione di variabile reale che assegna ad ogni valore possibile di  la probabilità dell’evento elementare .

Nel caso in cui la variabile casuale  sia continua, cioè l’insieme dei possibili valori ha la potenza del continuo, allora tale probabilità è sempre nulla, quindi questa definizione è inutile. Al contrario, si utilizza la funzione di densità di probabilità.

Definizione

Data una variabile casuale discreta , la funzione di probabilità è la funzione

che associa ad ogni punto  dello spazio campionario la probabilità che la variabile  assuma esattamente quel valore. Inoltre, deve essere soddisfatta la seguente equazione: 
Per estendere tale definizione a tutta la retta reale, si assume che per ogni valore  che  non può assumere (cioè non contenuto nel supporto di ) essa vale 0, cioè:

Dato che , il supporto di , è un insieme numerabile, la  è una funzione nulla quasi ovunque.

Nel caso di variabili multivariate discrete (cioè con supporto un sottoinsieme discreto di , la funzione di probabilità congiunta è definita come segue:

Il secondo membro spesso, per comodità di notazione, si scrive più semplicemente 

La funzione di probabilità marginale della i-esima componente si ricava grazie al teorema della probabilità assoluta. Sia n=2 per semplicità; allora da  ne deriva

Relazioni con la funzione di ripartizione

Se indichiamo con  la funzione di ripartizione di , allora:

Da ciò si deduce che, se  è una variabile casuale continua, tale valore è nullo in ogni punto, poiché la sua funzione di ripartizione è continua. Dunque ha senso definire tale funzione solo per variabili aletorie discrete.

Un caso molto particolare di densità

Lo stesso argomento in dettaglio:

Funzione di densità di probabilità.

La funzione di probabilità può essere pensata come una densità, cioè in termini integrali, grazie all’approccio assiomatico di Kolmogorov che si basa sulla teoria della misura: se si pensa infatti di munire lo spazio campionario  della misura del conteggio (counting measure in inglese risulta:

cioè la funzione di probabilità risulta essere una densità rispetto alla misura del conteggio, diversa da quella di Lebesgue.

Questa osservazione permette innanzitutto di unificare, quando conveniente, le due grandi classi di variabili discrete e continue in un’unica trattazione in termini di densità (per una opportuna misura) e poi evita di far nascere problemi di natura teorica quando si vanno a considerare variabili casuali vettoriali del tipo , dove una delle due è discreta e l’altra è continua: basta fornire lo spazio campionario prodotto della misura  (nel caso  discreta), dove  sarà l’usuale misura di Lebesgue.

°°°°°

Funzione di densità di probabilitàIn matematica , Una Funzione di densita di Probabilità (o dall’inglese PDF funzione densità di probabilità ) e L’Analogo della Funzione di Probabilità Di Una variabile Casuale nel Caso in cui la variabile Casuale SIA continua , cioè l’Insieme dei Valori Possibili Che ha la potenza del continuo . Essa descrive la “densità” di probabilità in ogni punto nello spazio campionario .

 

Definizione

La funzione di densità di probabilità di una variabile casuale è un’applicazione non negativa integrabile secondo Lebesgue e reale di variabile reale tale che la probabilità dell’insieme A sia data da 

per tutti i sottinsiemi A dello spazio campionario . Intuitivamente, se una distribuzione di probabilità ha densità , allora l’ intervallo ha probabilità .

Da ciò deriva che la funzione è definita come  

Assumendo , ciò corrisponde al limite della probabilità che si trovi nell’intervallo per che tende a zero.

Di qui il nome di funzione di ‘densità’, in quanto essa rappresenta il rapporto tra una probabilità e un’ampiezza. 

Per la condizione di normalizzazione l’integrale su tutto lo spazio di deve essere 1.

Di conseguenza ogni funzione non negativa, integrabile secondo Lebesgue, con integrale su tutto lo spazio uguale a 1, è la funzione densità di probabilità di una ben definita distribuzione di probabilità.

Una variabile casuale che possiede densità si dice ” variabile casuale continua “. 

Per le variabili casuali multivariate (o vettoriali) la trattazione formale è assolutamente identica: si dice assolutamente continua se esiste una funzione a valori reali definita in , detta densità congiunta , tale che per ogni sottoinsieme A dello spazio campionario 

Conserva tutte le proprietà di una densità scalare: è una funzione non negativa a integrale unitario su tutto lo spazio.

Una proprietà importante è che se è assolutamente continua allora lo è ogni sua componente; il viceversa invece non vale.

La densità di un componente, detta densità marginale , si ottiene con un ragionamento analogo al teorema della probabilità assoluta , cioè fissando l’insieme dei suoi valori di cui si vuole determinare la probabilità e la disponibilità di variare tutte le altre componenti.

Infatti (nel Caso bivariato per semplicità) l’evento e l’evento ,

dunque 

utilizzando il teorema di Fubini . La densità marginale di è data dunque da 

.

Esempi

Esempio di gaussiana
Esempio di gaussiana

La funzione di densità della variabile casuale normale di media 0 e varianza 1 (detta normale standard ), di cui a destra è riportato il grafico e l’espressione analitica della corrispondente densità nel caso generico (media e varianza ). 

Un altro esempio può essere dato dalla densità di probabilità uniforme su un segmento (0,1). Si può verificare immediatamente che è densità di probabilità facendo l’integrale tra (0,1).

°°°°°

°°°°°

Segue …

Read the rest of this entry »

 
Lascia un commento

Pubblicato da su 18 novembre 2020 in MATEMATICA

 

Tag: , , , , , , , , , , ,

FUNZIONE ARMONICA

FUNZIONE ARMONICA

In analisi matematica,

una funzione armonica indica una funzione f: U \to \mathbb R definita su un dominio U\subset \mathbb R^n che sia derivabile parzialmente due volte e che soddisfi l’equazione di Laplace, cioè tale che

\sum_{i=1}^n \frac {\partial^2 f(x) } {\partial x_i^2} = 0, \quad \forall x \in U.

Le funzioni armoniche sono importanti in molti aspetti della matematica e della fisica, e sono l’oggetto principale dell’analisi armonica.

Esempio

La funzione

f(x, y) = ekx sin(ky)

definita su un qualsiasi aperto di  \R^2 , è armonica. Infatti

\frac{\partial f}{\partial x} = k e^{kx} \sin(ky), \frac{\partial^2 f}{\partial x^2} = k^2 \sin(ky) e^{kx}

\frac{\partial f}{\partial y} = k e^{kx} \cos(ky), \frac{\partial^2 f}{\partial y^2} = -k^2 \sin(ky) e^{kx}

e la somma delle derivate parziali seconde è sempre 0.

Proprietà del valor medio

Ogni funzione armonica soddisfa la proprietà del valor medio.

Si fissi un dominio U\,\! e sia f \in C^2(U) una funzione armonica.

Si indichi \omega_n\,\! il volume della palla unitaria in \mathbb R^n\,\!.

Allora per ogni palla chiusa di raggio R e centro y, che denotiamo B=B_R(y)\,\!, vale la seguente uguaglianza:

f(y)=\frac{1}{n \omega_n R^{n-1}}\oint_{\partial B} f(x) ds.

Inoltre vale anche

f(y)=\frac{1}{\omega_n R^n} \int_B f(x) dx.

Dimostrazione:

Si fissi \rho\in (0,R). Applicando il teorema della divergenza al campo vettoriale \nabla f si ottiene

 \oint_{\partial B_\rho} \frac{\partial f(x)}{\partial \nu} ds = \int_{B_\rho}\Delta f(x)dx=0.

Si passi dalle coordinate cartesiane (x, y) a quelle polari (r,ω), con r = | x − y | , \omega=\frac{x-y}{r}.

Quindi f(x) = f(y + rω) e si verifica.

 \oint_{\partial B_\rho} f(x) ds=\oint_{\partial B_\rho} f(y+r \omega) ds.

Calcoliamo l’integrale della derivata normale di f.

Riscalando rispetto ad ω si ottiene

 \oint_{\partial B_\rho} \frac{\partial f(y+r \omega)}{\partial \nu} ds = \rho^{n-1}\int_{|\omega|=1} \frac{\partial f(y+r\omega)}{\partial r} d\omega .

È possibile scambiare derivata e integrale, quindi

 \rho^{n-1}\int_{|\omega|=1} \frac{\partial f(y+r\omega)}{\partial r} d\omega =\rho^{n-1}\frac{\partial}{\partial \rho} \int_{|\omega|=1} f(y+r\omega) d\omega.

Per concludere, si torni all’integrale di superficie

 \rho^{n-1}\frac{\partial}{\partial \rho} \int_{|\omega|=1} f(y+r\omega) d\omega =\rho^{n-1}\frac{\partial}{\partial \rho}(\rho^{1-n} \oint_{\partial B_\rho} u(x) ds)

Se ne deduce che per ogni ρ si ha \rho^{1-n} \int_{\partial B_\rho} f(x) ds= R^{1-n} \int_{\partial B_\rho} f(x) ds

Passando al limite per \rho \to 0 si ottiene la prima uguaglianza. La seconda si ottiene integrando rispetto a ρ.

Principio del massimo

Il principio del massimo è, forse, la proprietà più importante della funzioni armoniche.

Esso afferma che massimi e minimi stretti di una funzione armonica, se esistenti, vengono assunti al bordo.

Più precisamente, si consideri f:U \to \mathbb R una funzione armonica, dove U\,\! è un dominio di R^n\,\!.

Si supponga che esista x_0\,\! in U\,\! tale che f(x)\leq f(x_0) per ogni x \in U. Allora f\,\! è costante.

Dimostrazione:

La dimostrazione usa la proprietà del valor medio.

Sia M:=\sup f e si consideri l’insieme U_M:=f^{-1}(M)\,\!.

Per ipotesi, esso è non vuoto, ed è chiuso in U\,\! per la continuità di f\,\!.

Si consideri adesso la funzione f-M\,\!. Essa è negativa ed armonica.

Si scelga una palla B_R(x_0)\subset U e si applichi la proprietà del valor medio a f-M\,\!.

Si ottiene

0=f(x_0)-M =\frac{1}{\omega_n R^n}\int_{B_R(x_0)} (f(x)-M) dx

Dato che l’integrando è negativo, l’uguaglianza è soddisfatta se e solo se f(x)=M\,\! nella palla B_R(x_0)\,\!.

Quindi B_R(x_0)\subset U_M, cioè U_M\,\! è aperto in U\,\!.

Ne consegue U_M=U\,\!.

Armonicità delle funzioni complesse analitiche

Nel caso di funzioni di variabile complessa, il concetto di funzione armonica entra come particolare teorema soddisfatto dalle funzioni analitiche.

Sia infatti f(x + iy) = ω(z) = u(x,y) + iv(x,y) una funzione analitica.

Allora sia la u(x,y) che la v(x,y) sono funzioni armoniche delle due variabili x e y:

\begin{cases}\frac {\partial^2 u(x,y)} {\partial x^2}+\frac {\partial^2 u(x,y)} {\partial y^2} = 0 \\ \frac {\partial^2 v(x,y)} {\partial x^2}+\frac {\partial^2 v(x,y)} {\partial y^2} = 0 \end{cases}

Dimostrazione:

Basta calcolare le derivate seconde delle equazioni di Cauchy – Riemann e confrontarle, ricordando che:

(2) \ u_x = v_y\quad;\quad u_y = - v_x

\begin{cases} u_{xx} = v_{yx} \\ u_{xy} = v_{yy} \\ u_{yx} = - v_{xx} \\ u_{yy} = - v_{xy} \end{cases}

Sommando la prima e l’ultima e la seconda e la terza ed utilizzando il teorema di Schwarz sull’invertibilità delle derivate parziali:

(3) \ \begin{cases} u_{xx} + u_{yy} = 0 \\ v_{xx} + v_{yy} =0\end{cases}

c.v.d.

Abbiamo così un importante teorema:

date due funzioni u e v armoniche in un aperto D che soddisfano le condizioni di Cauchy-Riemann allora v è detta armonica coniugata di u, ma non è vero il contrario.

Una conseguenza di questo teorema è che una funzione è analitica in un aperto D del piano complesso se e solo se v è l’armonica coniugata di u.

Ciò significa che una funzione analitica può essere costruita a partire dall’assegnazione della sua parte reale u(x,y) e ricavando la sua parte immaginaria a meno di una costante.

Vediamo come calcolare l’armonica coniugata di una funzione u(x, y) con un esempio.

Sia u(x, y) = y3 − 3x2y.

Questa funzione è armonica poiché:

uxx + uyy = − 6y + 6y = 0

Volendo trovare l’armonica coniugata v(x,y), utilizziamo le condizioni di Cauchy-Riemann: ux = vy, dunque:

ux = − 6xy = vy

Possiamo integrare questa vy mantenendo fissata la variabile x (cioè considerandola come una costante):

v(x,y) = \int - 6 x y \, dy = - 3 x y^2 + \phi(x)

dove φ(x) è una funzione arbitraria dipendente da x.

Ora utilizziamo la condizione di Cauchy-Riemann uy = − vx, per farlo deriviamo v(x, y) ottenuta per integrazione rispetto a x:

vx = − 3y2 + φ(x)

e calcoliamo la derivata uy dalla funzione di partenza:

uy = 3y2 − 3x2

quindi uguagliamo e ricaviamo il valore di φ(x):

3 y^2 - 3 x^2 = 3 y^2 - \phi^{'} (x) \; \rightarrow \; \phi^{'} (x) = 3 x^2

dalla quale per integrazione:

φ(x) = x3 + C

dove C è la costante di integrazione. Abbiamo terminato:

v(x,y) = − 3xy2 + x3 + C

cioè abbiamo ricavato l’armonica coniugata di u(x, y) a meno di una costante C; in tal modo la funzione:

f(z) = u(x,y) + iv(x,y) = (y3 − 3x2y) + i(x3 − 3xy2 + C)

è una funzione analitica uguale a f(z) = i(z3 + C).

°°°°°

Read the rest of this entry »

 
Lascia un commento

Pubblicato da su 30 giugno 2011 in MATEMATICA

 

Tag: