Differenze tra le versioni di "Calcolo probabilità e statistica matematica"
(→Lezione del 4/12/06) |
|||
Riga 121: | Riga 121: | ||
* data una var. cas. D che segue la distribuzione esponenziale, stima di P(D=a) | * data una var. cas. D che segue la distribuzione esponenziale, stima di P(D=a) | ||
* "nuove definizioni" di Valore Atteso utilizzando la funzione di ripartizione (Mood pag. 75) | * "nuove definizioni" di Valore Atteso utilizzando la funzione di ripartizione (Mood pag. 75) | ||
+ | |||
+ | ===Lezione del 15/12/06=== | ||
+ | * Tabella comparativa tra le varie distribuzioni | ||
+ | * Distribuzione di Poisson | ||
+ | * Esercizio 3 - Esame del 17/02/2005 | ||
+ | * Mood 7.2: "Metodi di ricerca degli stimatori" | ||
+ | * Metodo dei momenti | ||
+ | * Funzione di densità per una variabile casuale continua (RO) | ||
+ | * Esercizio 2 dell'esame precedente | ||
+ | |||
+ | ===Lezione del 15/12/06=== | ||
+ | * Confronto tra distribuzioni geometrica ed esponenziale: | ||
+ | ** Funzione di ripartizione | ||
+ | ** Funzione di densità | ||
+ | ** Giudizio sull'utilità dei due tipi di funzioni | ||
+ | ** Calcolo del valore atteso utilizzando le due funzioni | ||
+ | * Media aritmetica dei valori registrati come stimatore di (1/ni): | ||
+ | ** (Esercizio 3 - Strategia 2 - Esame del 17/02/2005) | ||
+ | * Indipendenza di variabili casuali continue | ||
+ | * Covarianza di variabili casuali continue (sul libro "Funzione di ripartizione congiunta) | ||
+ | |||
[[Categoria:Corsi Informatica]][[Categoria:Corsi Primo Semestre]] | [[Categoria:Corsi Informatica]][[Categoria:Corsi Primo Semestre]] |
Versione delle 13:45, 18 dic 2006
Questa è una pagina di introduzione al corso: contiene i turni, le modalità d'insegnamento, alcune informazioni generali ed eventuali giudizi sul corso in questione. Se sei giunto qui passando da un link, puoi tornare indietro e correggerlo in modo che punti direttamente alla voce appropriata. |
Turni
A.A. passati
Informazioni
Corso del primo semestre, il superamento di quest'esame da diritto a 6 CFU.
- Docente: Bruno Apolloni
- Url del corso [1]
Obiettivi del corso
Fornire gli elementi di base per la costruzione di modelli probabilistici e per l’analisi statistica di fenomeni aleatori.
Modalità d'esame
- Scritto
- Orale
Propedeuticità consigliate e prerequisiti
- Istituzioni matematiche
- Rudimenti di insiemistica e di calcolo differenziale ed integrale.
Programma del corso
- Legame tra conoscenza e aleatorietà
- Proprietà corrette su insiemi di dati incerti
- Misure di probabilità
- Elementi di calcolo combinatorio
- Variabili aleatorie
- Da uno a più bit per definire una variabile
- Aggregati di variabili aleatorie
- Funzioni di variabili aleatorie
- Teoremi limiti
- Inferenza statistica
- L’approccio predittivo
- Intervalli di confidenza
- Stimatori puntuali
- Test di ipotesi
Metodi didattici
Il corso si articola attraverso lezioni teoriche volte spiegare i ragionamenti alla base della modellistica probabilistica e dell’inferenza statistica ed esercitazioni nelle quali a questi ragionamenti si da un riscontro operativo, in termini di regole ed algoritmi per definire quantitativamente decisioni in ambito incerto.
Giudizio sul corso
I giudizi di seguito espressi sono il parere personale degli studenti, e potrebbero non rispecchiare il parere medio dei frequentanti. Non vi è comunque alcun intento di mettere alla gogna i docenti del corso!
Diario del corso
Lezioni fino al 6/11/06 compreso
Le trovate a questo link.
Lezione del 10/11/06
- Errore quadratico medio (MSE)
- Definizioni "formali" (come da Mood) di valore atteso e varianza
- Forma più generale della disuguaglianza di Tchebycheff
- Valutazione del valore atteso di Sm/m
- MSE(Sm/m) = var(Sm/m) con dimostrazione
- var(aZ) = a^2 * var(Z) con dimostrazione
- Valutazione della var(Sm)
- p stimatore non distorto di E(Sm/m)
Lezione del 13/11/06
- Altre considerazioni sulla dis. di Tcheycheff alla luce del fatto che var(Sm/m) = 1/m^2 * var(Sm)
- Valutazione di var(Z+W) --> cov(Z,W)
- Per var. cas. bernoulliane, var(Z) = pq (dimostrazione)
- In generale: cov(Z,W) = E(Z*W) - E(Z)*E(W)
- Nel caso di estr. con reimmissione --> cov(Z,W) = 0
- Nel caso di estr. senza reimmissione --> cov(Z,W) = b/n*((b-1)/(n-1)*(b/n))
Lezione del 20/11/06
- Valutazione di MSE(Sm/m)
- Considerazioni su var(Z) --> grafico, punto di massimo...
- limite all'infinito del primo membro della dis. di Tchebycheff = 1 --> "legge dei grandi numeri"
- Valutazione di varianza e valore atteso per distribuzione binomiale (con reimm) e per distribuzioni senza reimmissione
- confronto dell'andamento dei due tipi di varianza sulla base dei grafici (per valori piccoli rispetto a n/2 le due varianze vanno allo stesso modo)
- cov(Z,W) = ... nel caso di estrazioni con contagio.
- var(Sm/m) nel caso con contagio (andamento per m-->+inf)
- dimostrazione formale che E(Z+W) = E(Z) + E(W)
Lezione del 24/11/06
- "Svolgimento" dell'esercizio IV del tema d'esame del 18/2/04
- Concetto di indipendenza
- Probabilità condizionata (valutazione dei tre casi: con reimm, senza reimm e con contagio)
- Teoremi vari sulla probabilità condizionata
Lezione del 27/11/06
- Teorema: lo "spazio" (Omega, Sigma, Ps)che si viene a creare con la nuova funzione di probabilità condizionata su P è uno spazio di probabilità
- Stima della funzione di probabilità condizionata Ps
LEZIONE INTERROTTA!! Argomenti scritti alla lavagna:
- Regola a catena
- Teorema di Bayes
- Teorema della probabilità totali
Lezione del 1/12/06
Lezione del 4/12/06
- Tempi di attesa (solito esempio dei mezzi pubblici a Milano e a Napoli, "solito" per chi non è la prima volta che frequenta :D)
- P(T > k) ovvero probabilità che avvenga il primo successo dopo la k-esima prova = q^k
- Definizione di funzione di ripartizione
- grafico di una funzione di ripartizione (non ho capito quale! vedi Mood pag. 67)
- P(T = k) = p * q^(k-1) con dimostrazione
- P(T > a+b | T>a) = P(T>b) --> «Convinciamo vostra zia che non conviene puntare sui numeri ritardarari» --> la probabilità di successo dopo a+b prove è uguale alla probabilità dopo b prove, se la variabile casuale gode della "assenza di memoria"
- "Assenza di memoria" --> P(T > k) = P(T > 1)^k
Lezione dell'11/12/06
"Riassunto delle puntate precedenti": panoramica sulle varie distribuzioni di probabilità sinora affrontate. DISCRETE: bernoulliana, binomiale, ipergeometrica (Polya), discreta uniforme --> stimiamo la probabilità attraverso la legge dei grandi numeri --> coinvolge concetti quali Valore Atteso, Varianza, dis. di Tchebycheff. CONTINUE: distr. continua uniforme (la storia del bersaglio rettangolare sul quale veniva sparato un proiettile, risale ad una delle prime lezioni), geometrica. Precisazione sulla distr. geometrica: una var. cas. geometrica indica il numero della prima prova nella quale avrò successo dopo una certa serie di prove indipendenti.
Oggi:
- distribuzione esponenziale (si consiglia di ripassare i concetti di funzione esponenziale, derivata e integrale)
- grafico della distr. continua uniforme U
- data una var. cas. U che segue la distribuzione continua uniforme, stima di P(U=a)
- data una var. cas. D che segue la distribuzione esponenziale, stima di P(D=a)
- "nuove definizioni" di Valore Atteso utilizzando la funzione di ripartizione (Mood pag. 75)
Lezione del 15/12/06
- Tabella comparativa tra le varie distribuzioni
- Distribuzione di Poisson
- Esercizio 3 - Esame del 17/02/2005
- Mood 7.2: "Metodi di ricerca degli stimatori"
- Metodo dei momenti
- Funzione di densità per una variabile casuale continua (RO)
- Esercizio 2 dell'esame precedente
Lezione del 15/12/06
- Confronto tra distribuzioni geometrica ed esponenziale:
- Funzione di ripartizione
- Funzione di densità
- Giudizio sull'utilità dei due tipi di funzioni
- Calcolo del valore atteso utilizzando le due funzioni
- Media aritmetica dei valori registrati come stimatore di (1/ni):
- (Esercizio 3 - Strategia 2 - Esame del 17/02/2005)
- Indipendenza di variabili casuali continue
- Covarianza di variabili casuali continue (sul libro "Funzione di ripartizione congiunta)