Calcolo probabilità e statistica matematica
Questa è una pagina di introduzione al corso: contiene i turni, le modalità d'insegnamento, alcune informazioni generali ed eventuali giudizi sul corso in questione. Se sei giunto qui passando da un link, puoi tornare indietro e correggerlo in modo che punti direttamente alla voce appropriata. |
Indice
- 1 Turni
- 2 A.A. passati
- 3 Informazioni
- 4 Diario del corso
- 4.1 Lezioni fino al 6/11/06 compreso
- 4.2 Lezione del 10/11/06
- 4.3 Lezione del 13/11/06
- 4.4 Lezione del 20/11/06
- 4.5 Lezione del 24/11/06
- 4.6 Lezione del 27/11/06
- 4.7 Lezione del 1/12/06
- 4.8 Lezione del 4/12/06
- 4.9 Lezione dell'11/12/06
- 4.10 Lezione del 15/12/06
- 4.11 Lezione del 18/12/06
- 4.12 Lezione del 21/12/06
Turni
A.A. passati
Informazioni
Corso del primo semestre, il superamento di quest'esame da diritto a 6 CFU.
- Docente: Bruno Apolloni
- Url del corso [1]
Obiettivi del corso
Fornire gli elementi di base per la costruzione di modelli probabilistici e per l’analisi statistica di fenomeni aleatori.
Modalità d'esame
- Scritto
- Orale
Propedeuticità consigliate e prerequisiti
- Istituzioni matematiche
- Rudimenti di insiemistica e di calcolo differenziale ed integrale.
Programma del corso
- Legame tra conoscenza e aleatorietà
- Proprietà corrette su insiemi di dati incerti
- Misure di probabilità
- Elementi di calcolo combinatorio
- Variabili aleatorie
- Da uno a più bit per definire una variabile
- Aggregati di variabili aleatorie
- Funzioni di variabili aleatorie
- Teoremi limiti
- Inferenza statistica
- L’approccio predittivo
- Intervalli di confidenza
- Stimatori puntuali
- Test di ipotesi
Metodi didattici
Il corso si articola attraverso lezioni teoriche volte spiegare i ragionamenti alla base della modellistica probabilistica e dell’inferenza statistica ed esercitazioni nelle quali a questi ragionamenti si da un riscontro operativo, in termini di regole ed algoritmi per definire quantitativamente decisioni in ambito incerto.
Giudizio sul corso
I giudizi di seguito espressi sono il parere personale degli studenti, e potrebbero non rispecchiare il parere medio dei frequentanti. Non vi è comunque alcun intento di mettere alla gogna i docenti del corso!
Diario del corso
Lezioni fino al 6/11/06 compreso
Le trovate a questo link.
Lezione del 10/11/06
- Errore quadratico medio (MSE)
- Definizioni "formali" (come da Mood) di valore atteso e varianza
- Forma più generale della disuguaglianza di Tchebycheff
- Valutazione del valore atteso di Sm/m
- MSE(Sm/m) = var(Sm/m) con dimostrazione
- var(aZ) = a^2 * var(Z) con dimostrazione
- Valutazione della var(Sm)
- p stimatore non distorto di E(Sm/m)
Lezione del 13/11/06
- Altre considerazioni sulla dis. di Tcheycheff alla luce del fatto che var(Sm/m) = 1/m^2 * var(Sm)
- Valutazione di var(Z+W) --> cov(Z,W)
- Per var. cas. bernoulliane, var(Z) = pq (dimostrazione)
- In generale: cov(Z,W) = E(Z*W) - E(Z)*E(W)
- Nel caso di estr. con reimmissione --> cov(Z,W) = 0
- Nel caso di estr. senza reimmissione --> cov(Z,W) = b/n*((b-1)/(n-1)*(b/n))
Lezione del 20/11/06
- Valutazione di MSE(Sm/m)
- Considerazioni su var(Z) --> grafico, punto di massimo...
- limite all'infinito del primo membro della dis. di Tchebycheff = 1 --> "legge dei grandi numeri"
- Valutazione di varianza e valore atteso per distribuzione binomiale (con reimm) e per distribuzioni senza reimmissione
- confronto dell'andamento dei due tipi di varianza sulla base dei grafici (per valori piccoli rispetto a n/2 le due varianze vanno allo stesso modo)
- cov(Z,W) = ... nel caso di estrazioni con contagio.
- var(Sm/m) nel caso con contagio (andamento per m-->+inf)
- dimostrazione formale che E(Z+W) = E(Z) + E(W)
Lezione del 24/11/06
- "Svolgimento" dell'esercizio IV del tema d'esame del 18/2/04
- Concetto di indipendenza
- Probabilità condizionata (valutazione dei tre casi: con reimm, senza reimm e con contagio)
- Teoremi vari sulla probabilità condizionata
Lezione del 27/11/06
- Teorema: lo "spazio" (Omega, Sigma, Ps)che si viene a creare con la nuova funzione di probabilità condizionata su P è uno spazio di probabilità
- Stima della funzione di probabilità condizionata Ps
LEZIONE INTERROTTA!! Argomenti scritti alla lavagna:
- Regola a catena
- Teorema di Bayes
- Teorema della probabilità totali
Mood paragrafo 1.3.6
Lezione del 1/12/06
Qualcuno per favore completi
Lezione del 4/12/06
- Tempi di attesa (solito esempio dei mezzi pubblici a Milano e a Napoli, "solito" per chi non è la prima volta che frequenta :D)
- P(T > k) ovvero probabilità che avvenga il primo successo dopo la k-esima prova = q^k
- Definizione di funzione di ripartizione
- grafico di una funzione di ripartizione (non ho capito quale! vedi Mood pag. 67)
- P(T = k) = p * q^(k-1) con dimostrazione
- P(T > a+b | T>a) = P(T>b) --> «Convinciamo vostra zia che non conviene puntare sui numeri ritardarari» --> la probabilità di successo dopo a+b prove è uguale alla probabilità dopo b prove, se la variabile casuale gode della "assenza di memoria"
- "Assenza di memoria" --> P(T > k) = P(T > 1)^k
Lezione dell'11/12/06
"Riassunto delle puntate precedenti": panoramica sulle varie distribuzioni di probabilità sinora affrontate. DISCRETE: bernoulliana, binomiale, ipergeometrica (Polya), discreta uniforme --> stimiamo la probabilità attraverso la legge dei grandi numeri --> coinvolge concetti quali Valore Atteso, Varianza, dis. di Tchebycheff. CONTINUE: distr. continua uniforme (la storia del bersaglio rettangolare sul quale veniva sparato un proiettile, risale ad una delle prime lezioni), geometrica. Precisazione sulla distr. geometrica: una var. cas. geometrica indica il numero della prima prova nella quale avrò successo dopo una certa serie di prove indipendenti.
Oggi:
- distribuzione esponenziale (si consiglia di ripassare i concetti di funzione esponenziale, derivata e integrale)
- grafico della distr. continua uniforme U
- data una var. cas. U che segue la distribuzione continua uniforme, stima di P(U=a)
- data una var. cas. D che segue la distribuzione esponenziale, stima di P(D=a)
- "nuove definizioni" di Valore Atteso utilizzando la funzione di ripartizione (Mood pag. 75)
Lezione del 15/12/06
- Tabella comparativa tra le varie distribuzioni
- Distribuzione di Poisson
- Esercizio 3 - Esame del 17/02/2005
- Mood 7.2: "Metodi di ricerca degli stimatori"
- Metodo dei momenti
- Funzione di densità per una variabile casuale continua (ro)
- Esercizio 2 del suddetto esame
- Confronto tra distribuzioni geometrica ed esponenziale:
- Funzione di ripartizione
- Funzione di densità
- Giudizio sull'utilità dei due tipi di funzioni
- Calcolo del valore atteso utilizzando le due funzioni
- Media aritmetica dei valori registrati come stimatore di (1/ni):
- (Esercizio 3 - Strategia 2 - Esame del 17/02/2005)
- Indipendenza di variabili casuali continue
- Covarianza di variabili casuali continue (sul libro "Funzione di ripartizione congiunta)
Lezione del 18/12/06
La scorsa lezione non è stata - per ammissione del prof stesso - assimilata molto bene. Quindi oggi per gran parte della lezione sono stati ripresi gli argomenti della scorsa lezione che sono però stati trattati in modo diverso, a mio avviso più chiaramente.
- Confronto tra distribuzioni geometrica ed esponenziale:
- grafico
- funzione di densità (discreta) e densità («senza aggettivo») rispettivamente per geom. ed esp.
- funzione di ripartizione
- Valore atteso (definizione comprendente la funzione di ripartizione)
- Per l'esponenziale: stima del valore atteso. Dimostrazione del fatto che è consistente e non distorto.
- Definizione di variabili casuali indipendenti (che valga anche nel caso di var. cas. continue)
- Linearità del valore atteso di variabili casuali continue
- Covarianza di var. cas. continue (è nulla)
- utilizzo dello stimatore del valore atteso di una var. cas. continua nella disuguaglianza di Tchabycheff (per dimostrare che è un buon stimatore --> consistente e non distorto)
Sono stati inoltre citati i seguenti concetti di analisi matematica:
- Teorema fondamentale del calcolo integrale (formula fondamentale)
- Teorema della media integrale
Lezione del 21/12/06
Oggi il prof ha comunicato che verso metà gennaio (non ricordo il giorno) il programma «cesserà di crescere», in coincidenza con la fine del semestre. Rimane da affrontare la distribuzione normale. A programma terminato, ci saranno cmq delle "esercitazioni" pre-esame.
- Funzione generatrice dei momenti
- Uso della funzione generatrice dei momenti per trovare valore atteso e varianza di una variabile casuale
- Calcolo della funzione generatrice dei momenti per la legge binomiale: E[e^(t*Sm)]
- Dalla funzione generatrice dei momenti alla legge di probabilità della distribuzione binomiale.
- Dalla funzione generatrice dei momenti al valore atteso e varianza della distribuzione binomiale.
- Distribuzione di Poisson: definita a partire dalla funzione generatrice dei momenti, ricavata in precedenza da quella della binomiale con m-->infinito e p-->0. [Nel definirla il prof ha posto lamda = vt. Vedi Mood pag. 105 teorema 3.7]
- Poisson: valore atteso e varianza (coincidono).
- Stima del parametro "ni".