Adidas celebra la reunion degli Oasis
Che cos’è la Big Data Analytics, spiegato con una mini-serie TV
Nella nuova puntata della serie realizzata da Societing 4.0 e promossa dalla Rai, Antonio Picariello, docente di Sistemi per l’elaborazione dell’informazione, ci spiega cosa dovremmo sapere oggi sui Big Data
6 Aprile 2020
- “Societing4.0 – Che cosa sono le tecnologie 4.0″ è una miniserie per capire le principali tecnologie 4.0 (Robotica all’Intelligenza Artificiale, dalla Stampa 3D alla Realtà Aumentata/Virtuale, dai Big Data all’Internet delle cose) e per dare maggiore consapevolezza e strumenti critici sulla loro applicazione a cittadini curiosi, PMI, studenti e insegnanti.
- Per ciascuna tecnologia le telecamere dei giovani ricercatori entrano nei laboratori dell’Università Federico II dove sono studiate le tecnologie e dove sei luminari rispondono alle domande dei ragazzi ,sotto la direzione scientifica del Professore Alex Giordano.

Approfondimenti
A cura dei giovani ricercatori dell’Università degli Studi di Napoli Federico II Al giorno d’oggi, l’accesso a Internet è considerabile un bene di prima necessità e la connessione ha raggiunto livelli di quasi ubiquità su scala globale. Difatti, secondo il Global Digital Report 2019, resoconto annuale circa i comportamenti di consumo nell’ambito delle tecnologie informatiche e digitali, gli utenti Internet sono cresciuti- e crescono- a un ritmo esponenziale, dando forma ad uno scenario planetario sempre più digitale e interconnesso. Secondo il report, realizzato dalla creative agency internazionale We Are Social e dalla piattaforma di social media management Hootsuite, oggi gli utenti di Internet sono circa 4,39 miliardi, con un aumento del 9% (366 milioni) rispetto a gennaio 2018; inoltre, globalmente si registrano circa 5,11 miliardi di utenti unici di telefonia mobile, con un incremento nell’ultimo anno del 2% (vale a dire circa 100 milioni). La novità fondamentale degli ultimi anni, infatti, è la diffusione delle tecnologie digitali ed informatiche mobile (dispositivi come smartphone e tablet) e l’estensione della connettività a Internet a device fisici e di uso quotidiano, i quali vanno a formare vanno a formare il cosiddetto Internet of Things: il sistema composto da tutti i dispositivi connessi alla rete Internet che, grazie a tale connessione, possono interagire fra di loro ed essere controllati on remote. Nel mondo dunque, si registra una crescita esponenziale e continua dei dispositivi che si servono della connessione a Internet per comunicare fra di loro e con gli utenti. Tali devices connessi funzionano anche come data points: ovvero, essi sono costantemente impegnati nella produzione, nella raccolta e nella condivisione di grandi quantità di dati in formato digitale.

Data Science: analisi e applicazioni dei Big Data
Il valore dei big data è dunque legato all’utilizzo che ne viene fatto, vale a dire alla loro analisi. I processi di analisi che fanno parte della disciplina definita come data science consentono di estrarre informazioni dalle grandi moli di dati al fine di ricavarne supporto per guidare i processi decisionali; monitorare logistica e attività; elaborare modelli di reazione a imprevisti; valutare performance e tanti altri task. È possibile distinguere diverse tipologie base di Big Data Analytics applicate all’ambito del business: descriptive analytics; predictive analytics; prescriptive analytics. La descriptive analytics (cioè l’analisi descrittiva) impiega gli strumenti analitici al fine di descrivere la situazione passata ed attuale del contesto di riferimento. Tale modello costituisce una risposta alla domanda ‘cosa è accaduto? /cosa sta accadendo?’ La predictive analytics (analisi predittiva) è un modello atto a rispondere a domande circa il futuro e a restituire previsioni sulle possibili circostanze realizzabili. Essa è dunque volta a rispondere alla domanda ‘cosa è probabile che accada?’. Infine, c’è la prescriptive analytics (analisi prescrittiva): anch’essa, come la precedente, getta uno sguardo al futuro e, nello specifico, si caratterizza per l’obiettivo di restituire soluzioni operative e strategiche sulla base delle analisi eseguite. Risponde dunque all’ipotetica domanda ‘come fare che questo accada?’. Sebbene l’analisi dei dati non sia una disciplina completamente nuova, ciò che costituisce la novità risposta al passato è la grande disponibilità dei dati, la quale permette di applicare modelli più sofisticati e avere quindi risultati molto più accurati che in passato. Il Professore Antonio Picariello, docente di Sistemi di Elaborazione delle Informazioni presso il DIETI (Dipartimento di Ingegneria Elettrica e di Tecnologie dell’Informazione) dell’Università degli Studi di Napoli Federico II, sostiene che la vastità della mole di dati oggi disponibile è destinata a cambiare il mondo della ricerca e quello dell’impresa. La quantità delle informazioni continuamente prodotte sia dall’interazione degli oggetti connessi sia sotto forma di user generated content, è un fattore determinante – anche se non l’unico- nel dare forma e caratterizzare la moderna data science. Nel caso dei big data, dunque, la maggior parte delle volte bigger significherà anche smarter poiché, secondo Picariello, i grandi dataset permetteranno agli algoritmi di lavorare meglio, tollerando gli errori e scoprendo le long tails (modelli di distribuzione diffusi) e i corner cases (casi isolati e specifici). Più dati, di contro, significa (e significherà sempre di più) anche più problemi: maggiore eterogeneità da gestire, necessità di software e algoritmi più potenti, esigenza di sistemi di storage più capienti ed efficienti e, soprattutto, urgenza di misure di protezione della privacy estese e funzionali.