Ingegneria dell'informazione, informatica e statistica

Canale 1 Lettere A-L

A chi è rivolto il corso. Il corso è di 9 crediti, ed è rivolto agli studenti del terzo anno del Corso di Laurea in Ingegneria dell'Informazione.

Prerequisiti. Si richiede la conoscenza dei fondamenti della programmazione, dei linguaggi di programmazione, delle strutture di dati, e dei sistemi operativi.

Obiettivi. L'obiettivo del corso è lo studio degli aspetti fondamentali dei sistemi di gestione di basi di dati, delle metodologie di progettazione di basi di dati, l’acquisizione delle nozioni di base dell'Ingegneria del Software e la loro applicazione alla progettazione di sistemi software mediante un linguaggio di modellazione (UML). Alla fine del corso lo studente dovrebbe avere acquisito tecniche e metodi per affrontare problemi di progettazione di basi di dati, e per utilizzare le funzionalità di base (definizione della base di dati, aggiornamento della base di dati, interrogazioni sulla base di dati) dei sistemi di gestione di basi di dati nell'ambito dello sviluppo e dell'esercizio di sistemi informatici. Inoltre, lo studente dovrebbe avere acquisito: (i) conoscenze sulle caratteristiche e le tecniche relative alle diverse metodologie di produzione del software; (ii)i concetti di base relativi al ciclo di vita del software (iii) capacità di usare UML nella progettazione di (parti di) sistemi software. Per quanto riguarda gli aspetti relativi alle basi di dati, il corso fa esplicito riferimento alle basi di dati relazionali, e ai relativi sistemi di gestione fondati sul linguaggio SQL. Tuttavia, i metodi ed i principi impartiti nel corso hanno validità generale, e possono essere applicati anche in contesti in cui si utilizzano modelli di dati e sistemi di gestione diversi dai modelli e dai sistemi relazionali.

Docenti
Domenico Lembo (lembo@dis.uniroma1.it)

Mario Vacca (mario.vacca.uniroma1.it)


Dealing with Big Data in the context of Official Statistics requires considering complexity of using Big Data in governing perspectives. The kind of knowledge is twofold:

-        knowledge able to enrich the traditional statistics in order to make them more timely and differentiated from the territorial and/or social point of view (e.g., nowcasting)

-        knowledge to be added to the traditional statistics by observing phenomena from different angles through an ex-post perspective

Both approaches may have deep consequences in Official Statistics, in terms of challenges, opportunities, needs and risks.


CORSO DI LAUREA IN INGEGNERIA INFORMATICA

DIRITTO NELLA SOCIETÁ DELL'INFORMAZIONE (A.A.2014-15)

(6 CFU)

prof. Eleonora Rinaldi

L'ordinamento dell'informazione e della comunicazione si caratterizza in Italia per il carattere disorganico degli interventi legislativi in materia.

Numerosi sono stati, negli ultimi anni, gli interventi normativi dell'Unione Europea che, a partire dalla direttiva 89/552/CEE (c.d. direttiva televisione senza frontiere) hanno portato alla direttiva 2007/65/CE (c.d. direttiva servizi di media audiovisivi).

Gli obbiettivi fissati dal legislatore europeo non hanno sempre trovato solerte attuazione sul versante nazionale, malgrado nell'ultimo decennio si siano susseguiti importanti interventi normativi: il codice in materia di protezione dei dati personali (d.lgs. 196/2003), il nuovo codice delle comunicazioni (d.lgs. 259/2003) e la disciplina di riforma delle attività cinematografiche (d.lgs. 28/2004).

Alle fonti normative appena indicate va affiancata la legge n. 112/2004 (c.d. legge Gasparri) seguita, ad un anno di distanza, dal d.lgs. 177/2005 (Testo Unico della radiotelevisione) che, senza disegnare un sistema nuovo e completo, ne ha riprodotto in larga parte le disposizioni, imponendo all'interprete compiti delicatissimi di coordinamento.

Infine, nel 2010, l'adozione del Testo Unico dei servizi di media audiovisivi e radiofonici (d.lgs. n. 44/2010) ha finalmente consentito di recepire la direttiva europea del 2007.

Obbiettivo del corso è quello di fornire una visione delle problematiche fondamentali in materia di libertà di informazione e comunicazione alla luce dei principi costituzionali rilevanti ed un quadro ricostruttivo, per quanto possibile sistematico, dei più importanti interventi legislativi, in ragione della fondamentale incidenza degli stessi sull'attività dei professionisti destinati ad operare nel campo dell'information technology.

Optimization techniques are used in all kinds of machine learning problems. This course gives an overview of many concepts, techniques, and optimization algorithms in machine learning and statistical pattern recognition. We also touch theory behind these methods (e.g., optimality conditions and duality theory). We also discuss how to choose and to set up the right optimization methods for different machine learning applications.

LM in Data Science

STATISTICAL LEARNING

The Goal: expose you to a variety of (statistical) methods and models and give you a flavor of some interesting theoretical results, under different assumptions, that support and clarify their practical relevance and performance.

Prerequisites:
all the topics covered in Stat4DS Part I, the basics of Linear Algebra and Calculus, and a data-analytic oriented knowledge of at least one programming language.

Some of the topic we will cover (not necessarily in order):

  1. Review of basic probability and inference + Concentration of measure + basics of convex analysis.
  2. Statistical functional: bootstrap & subsampling.
  3. (Non)parametric Regression and Density estimation: kernels and RKHS.
  4. (Non)parametric Classification.
  5. Nonparametric Clustering: k-means, density clustering.
  6. Graphical Models and their applications: parametric and nonparametric approaches.
  7. Hints of Nonparametric Bayes
  8. Minimaxity & Sparsity Theory

LM in Data Science

STATISTICAL METHODS IN DATA SCIENCE AND LABORATORY I

In this course we will review the basics of stat & prob (+ going a bit further!) with the aim at providing the fundamentals tools for:

  • setting up a suitable probabilistic model;
  • understanding the principles behind the main inferential problems: estimation, testing, model checking and forecasting, uncertainty quantification;
  • implementing inference on observed data through the likelihood function using both optimization and simulation-based approximations (e.g. resampling, bootstrap, Monte Carlo ecc.)
  • developing statistical computations within a suitable software environment (mainly R)