|
|
| Riga 1: |
Riga 1: |
| − | [[Categoria:Corsi]][[Categoria:Corsi Secondo Semestre]][[Categoria:Corsi Magistrale]]
| + | {{introduzione}} |
| | | | |
| − | == News == | + | == Turni == |
| − | http://www.dico.unimi.it/avvisi.php?z=0;pagina=avvisistudenti
| |
| − | <!--
| |
| − | === Lezioni cancellate/spostate ===
| |
| − | v. anche http://www.dico.unimi.it/orario.php?z=0;id_corso=10 '''''correggere eventualmente il corso'''''
| |
| − | === Appelli ===
| |
| − | Link alla pg ufficiale ''(v. anche Modalità d'esame + avanti)''
| |
| − | Dubbi, variazioni, ecc.
| |
| − | Si possono usare gli appositi avvisi da http://www.dico.unimi.it/avvisi.php?z=0;pagina=avvisistudenti
| |
| − | == Anni precedenti ==
| |
| − | info salvate dagli anni precedenti - possibilmente in sottopagine
| |
| − | * <nowiki>[[Nome del Corso/2004-2005]]</nowiki>
| |
| − | * <nowiki>[[Nome del Corso/2003-2004]]</nowiki>
| |
| − | -->
| |
| − | == Informazioni generali ==
| |
| − | === Docenti ===
| |
| − | [http://www.dsi.unimi.it/persona.php?z=0;id=50 Anastasia Pagnoni]
| |
| − | === Corsi di laurea ===
| |
| − | Corso di laurea magistrale in Informatica
| |
| − | === Modalità d'esame ===
| |
| − | Esame orale
| |
| − | * sugli argomenti trattati a lezione, per i frequentanti
| |
| − | * sugli argomenti indicati nel programma d'esame disponibile sul [http://homes.dico.unimi.it/pagnoni/pagina%20Informazione%20e%20Trasmissione.htm sito del corso]
| |
| − | === Orari e luogo delle lezioni ===
| |
| − | * Mercoledì 11.45 - 13.15 Aula Alfa
| |
| − | * Venerdì 10.45 - 12.15 Aula Alfa
| |
| | | | |
| − | === Orario di ricevimento studenti ===
| + | * '''[[Informazione e trasmissione/2006-2007|Informazione e trasmissione]]''' |
| − | Indicato [http://www.dsi.unimi.it/persona.php?z=0;id=50 qui]
| |
| | | | |
| − | == Informazioni specifiche == | + | == A.A. passati == |
| − | === Siti del corso ===
| |
| − | http://homes.dico.unimi.it/pagnoni/pagina%20Informazione%20e%20Trasmissione.htm
| |
| − | === Forum del corso, e affini ===
| |
| − | [http://www.dsy.it/forum/forumdisplay.php?forumid=236 Forum DSY del corso]
| |
| − | == Materiale didattico ==
| |
| − | === Programma del corso ===
| |
| − | Disponibile [http://homes.dico.unimi.it/pagnoni/Tutti_programmi%202005-06/Informazione%20e%20Trasmissione_programma%2005-06.doc qui] (formato DOC)
| |
| − | === Slides ===
| |
| − | Messe a disposizione dal docente solo agli studenti frequentanti
| |
| | | | |
| − | === Testi === | + | === 2005-2006 === |
| − | Francesco Fabris, Teoria dell’informazione, codici, cifrari, Bollati-Boringhieri, 2001
| + | * '''[[Informazione e trasmissione/2005-2006|(Anastasia Pagnoni), A.A. 2005/06]]''' |
| − | Thomas M. Cover, Joy A. Thomas, Elements of Information Theory, John Wiley & Sons, New York, 1991
| |
| | | | |
| − | === Links utili === | + | == Informazioni generali == |
| − | [[wikipedia:Information_theory|Information theory on Wikipedia]]
| |
| − | | |
| − | == Diario del corso ==
| |
| − | === Lezione del giorno 8/3/2006 ===
| |
| − | * introduzione generale al corso
| |
| − | * contributi storici di Morse, Hartley e Wiener alla trasmissione dell'informazione
| |
| − | * Shannon
| |
| − | ** modello
| |
| − | ** primo teorema
| |
| − | ** teorema fondamentale
| |
| − | * sorgente
| |
| − | * sorgente uniforme
| |
| − | * sorgente deterministica
| |
| − | * Interpretazione I(p)
| |
| − | * la funzione logaritmica considerata da Shannon come funzione I(p)
| |
| − | * teorema di unicità della soluzione di Cauchy
| |
| − | | |
| − | === Lezione del giorno 10/3/2006 ===
| |
| − | * ripasso dei logaritmi e delle loro principali proprietà
| |
| − | * funzione entropia <math>H(S)</math>
| |
| − | ** definizioni
| |
| − | ** esempi di calcolo
| |
| − | * disuguaglianza di Gibbs
| |
| − | * valore massimo della funzione entropia
| |
| − | | |
| − | === Lezione del giorno 15/3/2006 ===
| |
| − | * codifica
| |
| − | ** sorgente
| |
| − | ** canale
| |
| − | * introduzione ai codici
| |
| − | ** a lunghezza variabile
| |
| − | ** a blocco
| |
| − | ** istantanei
| |
| − | ** compatti
| |
| − | ** binari
| |
| − | ** a virgola
| |
| − | * alberi rappresentativi dei codici
| |
| − | * teorema di Kraft (solo enunciato)
| |
| − | | |
| − | === Lezione del giorno 17/3/2006 ===
| |
| − | * algoritmo di Sardinas-Patterson
| |
| − | ** enunciato
| |
| − | ** dimostrazione
| |
| − | * codice efficiente
| |
| − | * codice ottimale
| |
| − | * teorema di Kraft (dimostrazione)
| |
| − | * teorema di McMillan (enunciato)
| |
| − | | |
| − | === Lezione del giorno 22/3/2006 ===
| |
| − | * teorema di McMillan (dimostrazione)
| |
| − | * lunghezza media di un codice sorgente
| |
| − | * codice ottimale
| |
| − | * codice e algoritmo di Huffman
| |
| − | | |
| − | === Lezione del giorno 24/3/2006 ===
| |
| − | * esercizi sui codici di Huffman
| |
| − | * enunciato e dimostrazione del teorema del lower bound della lunghezza media di un codice istantaneo ed efficiente
| |
| − | | |
| − | === Lezione del giorno 29/3/2006 ===
| |
| − | * codice di Shannon-Fano
| |
| − | * estensione <math>S^n</math> di una sorgente
| |
| − | * enunciato del teorema <math>H\left(S^n\right) = n H(S)</math>
| |
| − | | |
| − | === Lezione del giorno 31/3/2006 ===
| |
| − | * dimostrazione del teorema <math>H\left(S^n\right) = n H(S)</math>
| |
| − | * canale
| |
| − | * matrice di canale
| |
| − | * introduzione ai codici a riconoscimento e a correzione d'errore
| |
| − | | |
| − | === Lezione del giorno 5/4/2006 ===
| |
| − | * entropia
| |
| − | ** della sorgente
| |
| − | ** del ricevente
| |
| − | ** congiunta (della sorgente e del ricevente)
| |
| − | ** della sorgente, posto il ricevente
| |
| − | ** del ricevente, posta la sorgente
| |
| − | | |
| − | Venerdì 14, Mercoledì 19 e Venerdì 21 Aprile non si terrà lezione.
| |
| − | Il corso si concluderà probabilmente il giorno 26 Maggio.
| |
| | | | |
| − | === Lezione del giorno 7/4/2006 === | + | == Giudizio sul corso == |
| − | * esercizi di calcolo delle entropie spiegate durante la lezione precedente
| + | {{Giudizio}} |
| − | * teorema (con dimostrazione)
| + | {{Giudizio/Interesse|}} |
| − | ** H(S,R) = H(S) + H(R|S)
| + | {{Giudizio/Difficoltà|}} |
| − | ** H(S,R) = H(R) + H(S|R)
| + | {{Giudizio/Nonfrequentanti|}} |
| − | ** H(S) - H(S|R) = H(R) - H(R|S)
| + | {{Giudizio/Ore|}} |
| | | | |
| − | === Restanti argomenti del corso, nell'ordine in cui sono presentati sulle slides ===
| + | [[Categoria:Corsi Secondo Semestre]][[Categoria:Corsi Magistrale]] |
| − | * informazione mutua (o di sistema o transinformazione)
| |
| − | * diagramma di Berger
| |
| − | * capacità di canale
| |
| − | * canale uniforme in ingresso/uscita, doppiamente uniforme
| |
| − | * BSC (Bynary Symmetric Channel)
| |
| − | * regole di decisione del ricevente
| |
| − | * massima verosimiglianza condizionata al ricevente, alla sorgente
| |
| − | * codice correttore di ordine n
| |
| − | * codice per una sorgente
| |
| − | * ridondanza
| |
| − | * rumore bianco
| |
| − | * probabilità di errore singolo
| |
| − | * probabilità di due o più errori
| |
| − | * probabilità di al più k errori, di nessun errore
| |
| − | * operazioni sui messaggi
| |
| − | * codici lineari binari e di ordine n
| |
| − | * schema d'errore, peso di Hamming
| |
| − | * distanza di Hamming, polinomio contapeso
| |
| − | * numero parole pari/dispari di un codice lineare
| |
| − | * la distanza minima di un codice lineare è uguale al suo peso minimo
| |
| − | * rilevazione e correzione di errori
| |
| − | * condizioni necessarie e sufficienti per la rivelazione di z errori e la correzione di t errori
| |
| − | * codici di Hamming, codifica e decodifica
| |
| − | * codici perfetti
| |
| − | * matrice parità
| |
| − | * codici equivalenti
| |
| − | * sindrome
| |
| − | * matrice generatrice e sua forma canonica
| |
| − | * codice sistematico, codice duale
| |
| − | * secondo teorema di Shannon
| |
| − | * codici di Ziv-Lempel
| |
| − | * processi stocastici
| |