Introduzione all’architettura ed approcci applicativi
Messina, 21/03/2015 Dario Catalano
Di cosa parleremo
Messina, 21/03/2015 Dario Catalano
• Cos’è Apache Hadoop?
• Un po’ di storia
• L’algoritmo Map-Reduce
• L’architettura
• Cloudera
• Esempio Applicativo
• Configurazione
• Amministrazione
• Sicurezza
• «Estensioni» di
Hadoop
• Bibliografia
Cosa è Hadoop?
Messina, 21/03/2015 Dario Catalano
FrameworkCluster
BigData
MapReduce
DistribuitedFile System
API
Fault tollerant
Cloud
Scalable
Cost effective
Extensible
Flexibile
Java
Un po’ di storia
Messina, 21/03/2015 Dario Catalano
2003 Google File System
Un po’ di storia
Messina, 21/03/2015 Dario Catalano
2004 Google Map Reduce
Un po’ di storia
Messina, 21/03/2015 Dario Catalano
2005
Doug Cutting Mike Cafarella
Un po’ di storia
Messina, 21/03/2015 Dario Catalano
2006 2011 2013
Map Reduce » Step I
Messina, 21/03/2015 Dario Catalano
…
…
…
…
…
Mapper
Mapper
Mapper
Mapper
Datas
…
Intermediate Datas
Record
Record
Record
Record
Record
Record
Record
Partitionated Datas
Record
Record
Record
Record
Record
Record
Record
Record
Record
Map Tasks
(K1,Va) (K2,Vb)(K3,Vc) (K4,Vd)(K5,Ve) (K6,Vf)
…
(K1,Vc) (K5,Vc)(K5,Vf) (K2,Vd)(K1,Ve) (K1,Vf)
…
(K3,Va) (K2,Va)(K1,Vc) (K7,Vd)(K2,Vb) (K3,Vf)
…
(K4,Va) (K2,Vb)(K8,Vc) (K7,Vf)(K2,Ve) (K5,Vf)
Map Reduce » Step II
Messina, 21/03/2015 Dario Catalano
…
Intermediate Datas
(K1,Va) (K2,Vb)(K3,Vc) (K4,Vd)(K5,Ve) (K6,Vf)
…
(K1,Vc) (K5,Vc)(K5,Vf) (K2,Vd)(K1,Ve) (K1,Vf)
…
(K3,Va) (K2,Va)(K1,Vc) (K7,Vd)(K2,Vb) (K3,Vf)
…
(K4,Va) (K1,Vb)(K8,Vc) (K7,Vf)(K2,Ve) (K5,Vf)
K1 Va Ve
K2
K3
K4
Vf Vb
K5 Ve Vf Vc Vf
K6
K7 Vd
K8 Vc
Vc
Vb
Vc
Va Vd Ve Vb
Vc Va Vf
Vd Va
Vf
Vf
Intermediate DatasShuffle, Partitionig and Sorting
Map Reduce » Step III
Messina, 21/03/2015 Dario Catalano
K1 Va Ve
K2
K3
K4
Vf Vb
K5 Ve Vf Vc Vf
K6
K7 Vd
K8 Vc
Vc
Vb
Vc
Va Vd Ve Vb
Vc Va Vf
Vd Va
Vf
Vf
Intermediate Datas
Reducer …Record
Record
Reducer …Record
Record
Reduce Tasks
…
Record
Record
Record
Record
Record
Record
Record
Record
Output Datas
Map Reduce » Esempio
Messina, 21/03/2015 Dario Catalano
the, 3brown,2fox, 2how, 1now, 1
quick, 1ate, 1mouse, 1cow, 1
Architettura » Visione ad alto livello
Messina, 21/03/2015 Dario Catalano
HDFS MapReduce
Java Client
Architettura » HDFS
Messina, 21/03/2015 Dario Catalano
• Distribuito
• Master/Slave
• Blocchi solitamente >= 64 Mb (grande mole
di dati)
• Ridondante (3 copie)
• Facilmente scalabile
Architettura » HDFS
Messina, 21/03/2015 Dario Catalano
Architettura » HDFS » NameNode
Messina, 21/03/2015 Dario Catalano
• Ruolo Master
• Responsabile dei Metadata Struttura directory, file e relativi permessi Posizione dei blocchi Stato dei files Identità dei DataNode caricata al boot Filename dei blocchi nei fs locale dei DataNode
• Dati in memoria
Architettura » HDFS » Scrittura file
Messina, 21/03/2015 Dario Catalano
Architettura » HDFS » Lettura file
Messina, 21/03/2015 Dario Catalano
Architettura » HDFS » Secondary NameNode
Messina, 21/03/2015 Dario Catalano
Architettura » HDFS » Comandi
Messina, 21/03/2015 Dario Catalano
hadoop fs –cat file:///file2hadoop fs –mkdir /user/hadoop/dir1 /user/hadoop/dir2
hadoop fs –copyFromLocal <fromDir> <toDir>hadoop fs –put <localfile> hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs –ls /user/hadoop/dir1hadoop fs –cat hdfs://nn1.example.com/file1hadoop fs –get /user/hadoop/file <localfile>sudo hadoop jar <jarFileName> <method> <fromDir> <toDir>
Architettura » HDFS » Affidabilità
Messina, 21/03/2015 Dario Catalano
• DataNode Heartbeat
• Trade-off replicazione blocchi (1 locale e 2 in un altro rack)Fattore di replicazione configurabile per file (in heartbeat)
• Checksum dei blocchi
• Cancellazione: Trash directory (6 ore) » Cancellazione fisica
• NameNode collo di bottiglia in Hadoop 1.xDimensioni dei metadatiMancanza di replicazione
Architettura » Map Reduce v1
Messina, 21/03/2015 Dario Catalano
Architettura » Map Reduce v1
Messina, 21/03/2015 Dario Catalano
Architettura » Map Reduce v1
Messina, 21/03/2015 Dario Catalano
• Master / Slave
• TaskTracker:Creazione task slot-based JVM forkHeartbeat
• JobTracker: Responsabile/Gestore del JobColloquia con il NameNodeEffettua recovery di task fallitiPunto debole dell’architettura
Architettura » Master / Slave
Messina, 21/03/2015 Dario Catalano
• Hdfs e MapReduce nello stesso nodo = minore traffico di rete = maggiore performance
Architettura » YARN
Messina, 21/03/2015 Dario Catalano
• Container Unità computazionale Controlla CPU e RAM assegnate
• Node Manager Riceve richieste del RS (Slave) Gestisce ciclo vita dei container Gestisce logging e servizi ausiliari
• Resource Manager: Riceve richieste da AM Schedula con politiche variabili
(Fair, Capacity,…)
• Application Master Dipende dal tipo di applicazione Separazione delle responsabilità =
Scalabilità
Architettura » YARN
Messina, 21/03/2015 Dario Catalano
1. CL -> RM (inizio applicazione)
2. RM -> NM (richiesta nuovo AM)
3. AM -> RM (registrazione)4. AM -> RM (richiesta risorse)5. AM -> NM(s) (avvio
containers)6. CS -> AM (containers
eseguono il codice ed inviano checks)
7. CL -> AM (client chiede stato applicazione)
8. AM -> RM (shutdown)
Architettura » YARN
Messina, 21/03/2015 Dario Catalano
Hadoop 1.x Hadoop 2.x
Tipo di elaborazione Solo Map Reduce Implementazioni multiple
Gestione delle risorsee delle elaborazioni Unica (JobTracker) Separata (ResourceManager e
Application Master)
Scalabilità di HDFS Singolo NameNode HDFS Federation
Affidabilità di HDFS Singolo NameNode HDFS High Availability
Limite Nodi 4.000 10.000
HostHostProcesso
Modalità di Esecuzione
Messina, 21/03/2015 Dario Catalano
Singolo Processo
NameNode
JobTracker
TaskTracker
Pseudo Distribuita
DataNode
SecondaryNameNode
Host
NN
JT
Host
DN
TT
M
Host
DN
TT
R
Distribuita
Prima del codice…
Messina, 21/03/2015 Dario Catalano
• Servizi, architetture e formazione su Apache Hadoop
• Apache Main Contributor
• CDH (ClouderaDistribution with Hadoop)
Cloudera Quickstart VM
Messina, 21/03/2015 Dario Catalano
• CDH 5 è basata su Linux Centos 6.4
• Contiene:HDFS, MapReduce, Hadoop Common, Hbase, Hive, Pig, Oozie, Sqoop, Flume, ZooKeeper, Hue, Whirr, Mahout, Cloudera Manager
• Disponibile per VMWare, KVM, Oracle Virtualbox
• Requisititi Minimi:4 Gb RAM (8 raccomandati)64 bit host OS
• Scaricabile da:http://www.cloudera.com/content/cloudera/en/downloads/quickstart_vms/
cdh-5-3-x.html
Word Count API «vecchia»
Messina, 21/03/2015 Dario Catalano
import java.io.IOException;...import org.apache.hadoop.mapred.TextOutputFormat;
public class WordCountOldAPI {public static void main(String[] args) throws Exception {JobConf conf = new JobConf(WordCountOldAPI.class);conf.setJobName("wordcount");conf.setOutputKeyClass(Text.class);conf.setOutputValueClass(IntWritable.class);conf.setMapperClass(MyMapper.class);conf.setCombinerClass(MyReducer.class);conf.setReducerClass(MyReducer.class);conf.setNumReduceTasks(1);conf.setInputFormat(TextInputFormat.class);conf.setOutputFormat(TextOutputFormat.class);FileInputFormat.setInputPaths(conf, new Path(args[0]));FileOutputFormat.setOutputPath(conf, new Path(args[1]));JobClient.runJob(conf);}
Word Count API «vecchia»
Messina, 21/03/2015 Dario Catalano
public static class MyMapper extends MapReduceBase implements Mapper<LongWritable, Text, Text, IntWritable> {public void map(LongWritable key, Text value,OutputCollector<Text, IntWritable> output, Reporter reporter) throws IOException {
output.collect(new Text(value.toString()), new IntWritable(1));}
}
public static class MyReducer extends MapReduceBase implements Reducer<Text, IntWritable, Text, IntWritable> {public void reduce(Text key, Iterator<IntWritable> values, OutputCollector<Text, IntWritable> output, Reporter reporter) throws IOException {
int sum = 0;while (values.hasNext()) {
sum += values.next().get();}output.collect(key, new IntWritable(sum));
}}}
La «nuova» API
Messina, 21/03/2015 Dario Catalano
• Introdotta con Hadoop 0.20 (2009)
• Nuovo package
• Più concisa e compatta
• Più pulita e leggibile
• Permette un controllo del Job più completo ed accurato
• Non confondere versione API con versione dell’architettura (1.x o 2.x)
Word Count API «nuova»
Messina, 21/03/2015 Dario Catalano
import java.io.IOException;...import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;public class WordCountNewAPI {
public static void main(String[] args) throws Exception {Job job = Job.getInstance(new Configuration());job.setJarByClass(WordCountNewAPI.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);job.setMapperClass(MyMapper.class);job.setReducerClass(MyReducer.class);job.setInputFormatClass(TextInputFormat.class);job.setOutputFormatClass(TextOutputFormat.class);FileInputFormat.setInputPaths(job, new Path(args[0]));FileOutputFormat.setOutputPath(job, new Path(args[1]));boolean status = job.waitForCompletion(true);if (status) System.exit(0)else System.exit(1);
}
Word Count API «nuova»
Messina, 21/03/2015 Dario Catalano
public static class MyMapper extends Mapper<LongWritable, Text, Text, IntWritable> {public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
String w = value.toString();context.write(new Text(w), new IntWritable(1));
}}
public static class MyReducer extends Reducer<Text, IntWritable, Text, IntWritable> {public void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
int sum = 0;for (IntWritable val : values) {sum += val.get();
}context.write(key, new IntWritable(sum));
}}
}
E adesso…
Messina, 21/03/2015 Dario Catalano
…un po’ di pratica
Configurazione
Messina, 21/03/2015 Dario Catalano
• Configurazione XML per ogni nodo• *‐default.xml nei JAR di Hadoop, *‐site.xml nella cartella di
configurazione• 4 tipi file principali: core‐*.xml hdfs‐*.xml mapred‐*.xml yarn‐*.xml
• Precedenza delle proprietà definite in varie posizioni: Oggetto Job o JobConf all’interno del codice File *‐site.xml all’interno del nodo Client File *‐site.xml all’interno del nodo Slave File *‐default.xml nei JAR (uguali in tutti i nodi)
Amministrazione e Monitoring
Messina, 21/03/2015 Dario Catalano
• Command Line Interface
• Log files
• Interfacce Web per ogni processo
• YARN REST API
• JMX
• Manager Tools Cloudera Manager Ambari
Sicurezza
Messina, 21/03/2015 Dario Catalano
• Inizialmente trascurata (solo dati pubblici)• Hadoop solo su reti private• Sviluppo software di terze parti: Cloudera Sentry, IBM InfoSphere Optim Data Masking, Intel's secure Hadoop
distribution, DataStax Enterprise, DataGuise for Hadoop,ecc.• Dalla versione 0.20.x: Autenticazione tra servizi Kerberos Autenticazione Web Console personalizzabile HDFS Permessi ed ACL Autenticazioni Token based per diminuire overhead Possibile crittazione delle connessioni
• Problemi ancora da risolvere HDFS non crittato Difficile integrazione in ambienti non Kerberos Regole di autorizzazione non sufficientemente flessibili Modello complessivo della sicurezza complicato
• Intel Project Rhino
Estensioni
Messina, 21/03/2015 Dario Catalano
HBase
Messina, 21/03/2015 Dario Catalano
• NoSql Datastore
• Chiavi multidimensionali
• Schema dinamico
• Obiettivo : massime performance
• Visione logica: Tabelle, righe, colonne e famiglie di colonne
HIVE
Messina, 21/03/2015 Dario Catalano
• Database
• Data wharehouse e BI
• Linguaggio dichiarativo
• Tabelle -> File su HDFS
• SQL-like query -> MapReduce
• Tabelle (managed ed esterne), viste, partizioni, … = flessibilità organizzativa.
Pig
Messina, 21/03/2015 Dario Catalano
• Scripting
• Data flow e Pipelining
• ETL oriented
• Linguaggio procedurale
• LOAD, FILTER, JOIN, GROUP, STORE,… = controllo del dato step by step
HCatalog
Messina, 21/03/2015 Dario Catalano
• Integrazione di varie tecnologie Hadoopbased (HIVE, Pig, MapReduce)
• Astrazione per rendere uniformi BI e ETL
• REST API
Sqoop
Messina, 21/03/2015 Dario Catalano
HAMA
Messina, 21/03/2015 Dario Catalano
• Bulk SynchronousParallel
• Yarn-based
• Fasi Processing Exchange
Messages Barrier
Synchronization
Spark
Messina, 21/03/2015 Dario Catalano
• Obiettivo performance(10x più veloce di MR)
• Scala based (Java, Scala, Python API)
• Resilient Distributed Dataset (Scala Seq)
• Hadoop, Mesos, Stand-alone
Mahout
Messina, 21/03/2015 Dario Catalano
• Machine Learning (IA) Classificazione Clusterizzazione Fuzzy Logic Neural Network …
• Data Mininig
• 2 Fasi Apprendimento Applicazione
Bibliografia
Messina, 21/03/2015 Dario Catalano
• Libri Pro Hadoop Second Edition, Sameer Wadkar, Madhu Siddalingaiah, Jason Venner , Apress Hadoop: The Definitive Guide Third Edition, Tom White, O’ Reilly
• Web Apache Hadoop Official Site, https://hadoop.apache.org/ What is Hadoop?, http://www-01.ibm.com/software/data/infosphere/hadoop/ Cloudera, http://www.cloudera.com/ Introduzione ad Hadoop, https://paolobernardi.wordpress.com/2011/10/09/introduzione-ad-
hadoop/ Introduction to Hadoop 2.0 and advantages of Hadoop 2.0,
http://www.edureka.co/blog/introduction-to-hadoop-2-0-and-advantages-of-hadoop-2-0/ The New Hadoop API 0.20.x, http://sonerbalkir.blogspot.it/2010/01/new-hadoop-api-020x.html Big Data Security: The Evolution of Hadoop’s Security Model,
http://www.infoq.com/articles/HadoopSecurityModel