From Big Data to Fast Data: Apache Spark

Stefano Baghino

Nello scorso decennio sono nate soluzioni per affrontare l'elaborazione di grandi quantità di dati con strumenti nuovi che sfruttassero la possibilità di scalare orizzontalmente, Hadoop in primis. Oggi a questa necessità si aggiunge quella di elaborare flussi ininterrotti di dati in tempo reale e Apache Spark è uno cluster computing framework alternativo a MapReduce che mira a dare gli strumenti per rendere facile questo compito. In questo talk introdurremo Spark e il suo ecosistema, con qualche breve esempio.

Language: Italian

Level: Beginner

Go to speaker's detail