Differenze tra le versioni di "Calcolo probabilità e statistica matematica"

Da WikiDsy.
(Lezione del 18/12/06)
(Lezione del 18/12/06)
Riga 158: Riga 158:
  
 
Sono stati inoltre citati i seguenti concetti di analisi matematica:
 
Sono stati inoltre citati i seguenti concetti di analisi matematica:
* [http://it.wikipedia.org/wiki/Teorema_fondamentale_del_calcolo_integrale#Secondo_Teorema Teorema fondamentale del calcolo integrale ](formula fondamentale)
+
* [http://it.wikipedia.org/wiki/Teorema_fondamentale_del_calcolo_integrale#Secondo_Teorema Teorema fondamentale del calcolo integrale] (formula fondamentale)
 
* [http://it.wikipedia.org/wiki/Teorema_della_media_integrale Teorema della media integrale]
 
* [http://it.wikipedia.org/wiki/Teorema_della_media_integrale Teorema della media integrale]
  
 
[[Categoria:Corsi Informatica]][[Categoria:Corsi Primo Semestre]]
 
[[Categoria:Corsi Informatica]][[Categoria:Corsi Primo Semestre]]

Versione delle 15:26, 18 dic 2006

Disambigua compass.PNG
Questa è una pagina di introduzione al corso: contiene i turni, le modalità d'insegnamento, alcune informazioni generali ed eventuali giudizi sul corso in questione. Se sei giunto qui passando da un link, puoi tornare indietro e correggerlo in modo che punti direttamente alla voce appropriata.

Turni


A.A. passati

Informazioni

Corso del primo semestre, il superamento di quest'esame da diritto a 6 CFU.

  • Docente: Bruno Apolloni
  • Url del corso [1]

Obiettivi del corso

Fornire gli elementi di base per la costruzione di modelli probabilistici e per l’analisi statistica di fenomeni aleatori.

Modalità d'esame

  • Scritto
  • Orale

Propedeuticità consigliate e prerequisiti

  • Istituzioni matematiche
  • Rudimenti di insiemistica e di calcolo differenziale ed integrale.

Programma del corso

  • Legame tra conoscenza e aleatorietà
    • Proprietà corrette su insiemi di dati incerti
    • Misure di probabilità
    • Elementi di calcolo combinatorio
    • Variabili aleatorie
    • Da uno a più bit per definire una variabile
    • Aggregati di variabili aleatorie
    • Funzioni di variabili aleatorie
    • Teoremi limiti
  • Inferenza statistica
    • L’approccio predittivo
    • Intervalli di confidenza
    • Stimatori puntuali
    • Test di ipotesi

Metodi didattici

Il corso si articola attraverso lezioni teoriche volte spiegare i ragionamenti alla base della modellistica probabilistica e dell’inferenza statistica ed esercitazioni nelle quali a questi ragionamenti si da un riscontro operativo, in termini di regole ed algoritmi per definire quantitativamente decisioni in ambito incerto.

Giudizio sul corso

I giudizi di seguito espressi sono il parere personale degli studenti,
e potrebbero non rispecchiare il parere medio dei frequentanti.
Non vi è comunque alcun intento di mettere alla gogna i docenti del corso!
Interesse della materia (da 1 a 5 - aiuto)
_3___________________
Difficoltà del corso (da 1 a 5 - aiuto)
_5___________________
Difficoltà del corso per non frequentanti (da 1 a 5 - aiuto)
_5___________________
Ore di studio richieste (da 1 a 5 - aiuto)
_5___________________

Diario del corso

Lezioni fino al 6/11/06 compreso

Le trovate a questo link.

Lezione del 10/11/06

  • Errore quadratico medio (MSE)
  • Definizioni "formali" (come da Mood) di valore atteso e varianza
  • Forma più generale della disuguaglianza di Tchebycheff
  • Valutazione del valore atteso di Sm/m
  • MSE(Sm/m) = var(Sm/m) con dimostrazione
  • var(aZ) = a^2 * var(Z) con dimostrazione
  • Valutazione della var(Sm)
  • p stimatore non distorto di E(Sm/m)

Lezione del 13/11/06

  • Altre considerazioni sulla dis. di Tcheycheff alla luce del fatto che var(Sm/m) = 1/m^2 * var(Sm)
  • Valutazione di var(Z+W) --> cov(Z,W)
  • Per var. cas. bernoulliane, var(Z) = pq (dimostrazione)
  • In generale: cov(Z,W) = E(Z*W) - E(Z)*E(W)
  • Nel caso di estr. con reimmissione --> cov(Z,W) = 0
  • Nel caso di estr. senza reimmissione --> cov(Z,W) = b/n*((b-1)/(n-1)*(b/n))

Lezione del 20/11/06

  • Valutazione di MSE(Sm/m)
  • Considerazioni su var(Z) --> grafico, punto di massimo...
  • limite all'infinito del primo membro della dis. di Tchebycheff = 1 --> "legge dei grandi numeri"
  • Valutazione di varianza e valore atteso per distribuzione binomiale (con reimm) e per distribuzioni senza reimmissione
  • confronto dell'andamento dei due tipi di varianza sulla base dei grafici (per valori piccoli rispetto a n/2 le due varianze vanno allo stesso modo)
  • cov(Z,W) = ... nel caso di estrazioni con contagio.
  • var(Sm/m) nel caso con contagio (andamento per m-->+inf)
  • dimostrazione formale che E(Z+W) = E(Z) + E(W)

Lezione del 24/11/06

  • "Svolgimento" dell'esercizio IV del tema d'esame del 18/2/04
  • Concetto di indipendenza
  • Probabilità condizionata (valutazione dei tre casi: con reimm, senza reimm e con contagio)
  • Teoremi vari sulla probabilità condizionata

Lezione del 27/11/06

  • Teorema: lo "spazio" (Omega, Sigma, Ps)che si viene a creare con la nuova funzione di probabilità condizionata su P è uno spazio di probabilità
  • Stima della funzione di probabilità condizionata Ps

LEZIONE INTERROTTA!! Argomenti scritti alla lavagna:

  • Regola a catena
  • Teorema di Bayes
  • Teorema della probabilità totali

Mood paragrafo 1.3.6

Lezione del 1/12/06

Qualcuno per favore completi

Lezione del 4/12/06

  • Tempi di attesa (solito esempio dei mezzi pubblici a Milano e a Napoli, "solito" per chi non è la prima volta che frequenta :D)
  • P(T > k) ovvero probabilità che avvenga il primo successo dopo la k-esima prova = q^k
  • Definizione di funzione di ripartizione
  • grafico di una funzione di ripartizione (non ho capito quale! vedi Mood pag. 67)
  • P(T = k) = p * q^(k-1) con dimostrazione
  • P(T > a+b | T>a) = P(T>b) --> «Convinciamo vostra zia che non conviene puntare sui numeri ritardarari» --> la probabilità di successo dopo a+b prove è uguale alla probabilità dopo b prove, se la variabile casuale gode della "assenza di memoria"
  • "Assenza di memoria" --> P(T > k) = P(T > 1)^k

Lezione dell'11/12/06

"Riassunto delle puntate precedenti": panoramica sulle varie distribuzioni di probabilità sinora affrontate. DISCRETE: bernoulliana, binomiale, ipergeometrica (Polya), discreta uniforme --> stimiamo la probabilità attraverso la legge dei grandi numeri --> coinvolge concetti quali Valore Atteso, Varianza, dis. di Tchebycheff. CONTINUE: distr. continua uniforme (la storia del bersaglio rettangolare sul quale veniva sparato un proiettile, risale ad una delle prime lezioni), geometrica. Precisazione sulla distr. geometrica: una var. cas. geometrica indica il numero della prima prova nella quale avrò successo dopo una certa serie di prove indipendenti.

Oggi:

  • distribuzione esponenziale (si consiglia di ripassare i concetti di funzione esponenziale, derivata e integrale)
  • grafico della distr. continua uniforme U
  • data una var. cas. U che segue la distribuzione continua uniforme, stima di P(U=a)
  • data una var. cas. D che segue la distribuzione esponenziale, stima di P(D=a)
  • "nuove definizioni" di Valore Atteso utilizzando la funzione di ripartizione (Mood pag. 75)

Lezione del 15/12/06

  • Tabella comparativa tra le varie distribuzioni
  • Distribuzione di Poisson
  • Esercizio 3 - Esame del 17/02/2005
  • Mood 7.2: "Metodi di ricerca degli stimatori"
  • Metodo dei momenti
  • Funzione di densità per una variabile casuale continua (ro)
  • Esercizio 2 del suddetto esame


  • Confronto tra distribuzioni geometrica ed esponenziale:
    • Funzione di ripartizione
    • Funzione di densità
    • Giudizio sull'utilità dei due tipi di funzioni
    • Calcolo del valore atteso utilizzando le due funzioni
  • Media aritmetica dei valori registrati come stimatore di (1/ni):
    • (Esercizio 3 - Strategia 2 - Esame del 17/02/2005)
  • Indipendenza di variabili casuali continue
  • Covarianza di variabili casuali continue (sul libro "Funzione di ripartizione congiunta)

Lezione del 18/12/06

La scorsa lezione non è stata - per ammissione del prof stesso - assimilata molto bene. Quindi oggi per gran parte della lezione sono stati ripresi gli argomenti della scorsa lezione che sono però stati trattati in modo diverso, a mio avviso più chiaramente.

  • Confronto tra distribuzioni geometrica ed esponenziale:
    • grafico
    • funzione di densità (discreta) e densità («senza aggettivo») rispettivamente per geom. ed esp.
    • funzione di ripartizione
    • Valore atteso (definizione comprendente la funzione di ripartizione)
  • Per l'esponenziale: stima del valore atteso. Dimostrazione del fatto che è consistente e non distorto.
  • Definizione di variabili casuali indipendenti (che valga anche nel caso di var. cas. continue)
  • Linearità del valore atteso di variabili casuali continue
  • Covarianza di var. cas. continue (è nulla)
  • utilizzo dello stimatore del valore atteso di una var. cas. continua nella disuguaglianza di Tchabycheff (per dimostrare che è un buon stimatore --> consistente e non distorto)

Sono stati inoltre citati i seguenti concetti di analisi matematica: