PROGRAMMA DEL PERCORSO FORMATIVO
International Management Institute presenta il “Master Executive in Big Data”, che offre una larga panoramica del mondo dei Big Data, soffermandosi in particolare sull’impatto rivoluzionario che hanno avuto nel mondo dell’analisi dei dati e della statistica in generale. Avere a disposizione una mole notevole di dati consente l’applicazione a pieno regime di modelli statistici con una forte affidabilità, permettendo l’applicazione degli stessi nei settori più disparati (manifatturiero, commerciale, sportivo, medico ecc…) e per scopi totalmente nuovi nel mondo del business. Conoscere quali siano i passaggi fondamentali nella gestione dei Big Data è diventato un requisito indispensabile non solo per programmatori e tecnici informatici, ma anche per manager che vogliano sfruttare a pieno la risorsa di dati a loro disposizione. Data l’eterogeneità di applicazioni e strumenti a disposizione, il master non si sofferma eccessivamente su tecnicismi, lasciando spazi ad approfondimenti personali a seconda di interessi specifici, ma offre un’esaustiva descrizione sulle modalità di trattamento dei Dati.
Imparerai inoltre i principi alla base del Machine Learning, gli algoritmi più diffusi ed i comandi R per poter creare modelli sia per problemi di Regressione, sia di Classificazione, sia di Clustering.
In questa parte del master presenteremo ed utilizzeremo 8 diversi algoritmi. Avrai inoltre a disposizione quasi 300 pagine di slide in formato pdf che potrai scaricare divise per sezioni e consultare in ogni momento. Anche il codice sorgente degli script R che realizzeremo durante il corso sarà a tua disposizione, e potrai scaricarlo ed usarlo nella tua console di R.
ARGOMENTI DEL PERCORSO FORMATIVO
- Presentazione Master Big Data Analysis (5:15)
- Definizione e origine dei Big Data (9:43)
- Materiale didattico del corso
- Il ruolo del Data Scientist (11:32)
- L'approccio della Business Intelligence (7:36)
- Struttura di dati e basi dati (8:37)
- Prime applicazioni di Big Data (8:30)
- Dato vs informazione (5:09)
- Dimensioni e caratteristiche dei Big Data (13:50)
- Come trattare i Big Data e il processo di creazione (7:04)
- Big Data nell'industria 4.0 e Internet of Things (14:21)
- Tecniche statistiche di Data Mining (10:03)
- Definizione di Data Mining (10:28)
- Tipologie di approccio al Data Mining (9:07)
- Applicazioni di Data Mining nel marketing (9:01)
- Il Web Mining (5:59)
- Web Mining: case history (10:57)
- Concetto di variabile aleatoria e distribuzione di frequenza (14:26)
- Teorema del limite centrale (9:16)
- Strumenti statistici descrittivi (15:52)
- La media mobile (16:40)
- Indici di variabilità (14:42)
- Indici di variabilità (2) (14:45)
- Indici di forma (10:23)
- Indici di forma (2) (9:45)
- Outlier e carte di controllo (16:39)
- Outlier e carte di controllo (2) (14:58)
- Outlier e carte di controllo (3) (10:33)
- Interpolazione e perequazione (14:24)
- Interpolazione e perequazione (2) (12:56)
- Interpolazione e perequazione (3) (7:16)
- Impostazione dei metodi di previsione (6:43)
- Fasi dei metodi di previsione (16:25)
- Il rumore (16:42)
- Correlazioni tra variabili (13:34)
- Correlazioni tra variabili (2) (11:31)
- Correlazioni tra variabili (3) (11:48)
- Il modello di regressione (9:51)
- La regressione lineare - metodo dei minimi quadrati (11:38)
- Esempi di regressione lineare (4:42)
- Trasformazioni di variabili e adeguatezza del modello (13:59)
- Ipotesi per il modello di regressione lineare (14:44)
- Regressione lineare multipla (13:59)
- Algoritmi di previsione (16:53)
- Algoritmi di previsione (2) (4:20)
- Algoritmi di classificazione (15:10)
- Algoritmi di classificazione (2) (10:28)
- Algoritmi di classificazione (3) (17:41)
- Supervisione del modello (11:02)
- Criticità (10:33)
- L'importanza della Normale nei Big Data (11:35)
- Variabili casuali continue (13:52)
- Variabile casuale Normale (15:34)
- Standardizzazione della variabile casuale Normale (17:00)
- Approssimazioni alla variabile casuale Normale (15:17)
- Istogrammi e approssimazioni alla Normale (7:53)
- Diagrammi a dispersione (6:33)
- Boxplot e Corrplot (7:21)
- Altre rappresentazioni (13:07)
- Quale grafico scegliere (5:42)
- Benvenuti (1:33)
- Obiettivi del corso (3:38)
- Materiale didattico del corso
- Installazione strumenti (8:10)
- Dataset (3:59)
- Modello (6:46)
- Training (7:28)
- Previsioni (4:09)
- Un modello di ML in 4 passi (8:01)
- Presentazione della Sezione (1:22)
- Cosa è il Machine Learning? (12:18)
- Casi d'uso reali (8:08)
- Tipi di Machine Learning - per apprendimento (9:27)
- Tipi di Machine Learning - per output (6:16)
- Algoritmi (7:06)
- Gli Errori nel Machine Learning (8:14)
- Gli Errori nel Machine Learning - Bias e Varianza (9:09)
- Introduzione alle Sezioni sulla Regressione (2:49)
- Altri modelli di Machine Learning (5:58)
- Comando lm - input (3:09)
- Comando lm - output (6:45)
- SLR - Definizione (5:15)
- SLR - Modello (4:32)
- SLR - Minimi Quadrati (6:18)
- Significato dei coefficienti (6:19)
- Intervalli di confidenza (6:29)
- Riepilogo Finale (1:25)
- Introduzione alla Sezione (1:11)
- Definizione MLR (5:38)
- Importare dati da fonti esterne (3:45)
- Breve esplorazione del dataset (7:07)
- Inizia il viaggio (0:31)
- Un modello di MLR (5:07)
- Confronto tra 4 modelli (6:13)
- Interpretazione del modello di MLR (3:52)
- Aldilà di un grande potere (1:23)
- Come implementare le Sinergie in R (2:55)
- La formula delle Sinergie (2:57)
- Altri modelli (3:06)
- Il p-value (2:59)
- Descrizione delle non linearità nella MLR (1:54)
- Come costruire un modello quadratico in R (0:32)
- Come rappresentare un modello quadratico in R (5:54)
- [bonus] Come studiare 10 modelli in una volta sola! (7:07)
- Trattazione teorica delle non linearità (3:29)
- Contesto della Scelta delle Variabili (1:32)
- Numero di variabili (6:45)
- Significatività e p-value (8:35)
- Numero Modelli (4:39)
- Metodo Forward (10:52)
- Metodo Backward (8:04)
- Metodo Ibrido (3:19)
- Scelta Finale (2:54)
- Valutare un modello (3:51)
- Test Error (5:33)
- Metodi Indiretti (8:46)
- Akaike Information Criterion (AIC) (3:30)
- Non solo BIC (4:17)
- Due modi per calcolare il Cp di Mallows (10:27)
- Forward e Backward in un colpo solo! (4:03)
- L'importanza della Cross Validation (3:49)
- Validation Set 1 - Calcolo MSE (9:51)
- Validation Set 2 - Calcolo Ripetuto (8:13)
- Validation Set 3 - Plot e Limiti (7:56)
- Leave One Out Cross Validation (6:46)
- LOO CV in R (10:08)
- I limiti della LOO CV (2:34)
- K-fold Cross Validation (5:03)
- I vantaggi della k-fold CV (6:44)
- Come eseguire la k-fold CV in R (6:23)
- Valutiamo n modelli con un ciclo "for" (1:35)
- Come visualizzare i risultati della k-fold CV (6:30)
- Chi è Grande? (1:34)
- Introduzione alla Classificazione (5:33)
- Introduzione alla Logistic Regression (1:48)
- Confronto tra Logistic e Linear Regression (8:27)
- Variabili binarie (7:31)
- Definizione del Metodo (3:19)
- Logistic Function e ... scommesse! (7:11)
- Un nuovo dataset (9:59)
- Fattori e istogrammi (8:49)
- Boxplot e grafici misti (8:13)
- Maximum Likelihood (6:21)
- Primo Modello di Classificazione (5:32)
- Matrice di Confusione (!) (7:43)
- Valutazione Grafica (6:17)
- Ancora due ... (5:21)
- Formula magica? (4:25)
- Multiple Logistic Regression (3:13)
- Selezione per passi ibrida con la Regressione Logistica Multipla (4:29)
- Matrice di confusione e Accuracy sui dati di test (5:29)
- Un altro successo, un altro obiettivo! No anzi due! (2:38)
- Funzionamento di base (2:59)
- Tre probabilità (7:25)
- Teorema di Bayes (2:36)
- Metodo e Campane ... (5:21)
- Linear e Quadratic DA (3:39)
- Due nuovi modelli (6:44)
- Predizioni e Accuracy dei modelli (5:33)
- Modelli multipli (5:23)
- Validazione (8:48)
- Un algoritmo speciale (1:06)
- Apprendimento Pigro e Non Parametrico (5:31)
- Come funziona KNN (5:02)
- KNN per regressione (3:50)
- La Maledizione della Dimensionalità (2:32)
- Come scegliere K? (3:25)
- KNN in pratica: modello con un predittore (4:46)
- 1, 10, 100 K (4:38)
- K-fold CV con caret (6:15)
- 100 modelli KNN multi-predittore (6:47)
- 10.000 valutazioni!!!
- Grande^2 (1:06)
- Definizione e sfide dei modelli non supervisionati (4:46)
- Esempi (6:28)
- Descrizione breve (3:15)
- Principio alla base di K-Means (4:22)
- Algoritmo di K-Means (6:39)
- Punti Critici (9:32)
- Creiamo il dataset (6:44)
- Due modelli di K-Means (6:48)
- Elbow Method e Fluttuazioni (8:42)
- Conclusioni del corso (5:41)