Elaborazione di Big Data con Apache Spark e Scala



Apache Spark si è presentato come un grande sviluppo nell'elaborazione dei big data.

come eseguire il test del database

IST: 7:00 AM - 08:00 AM, 17 ottobre'14





PDT: 18:30 - 19:30, 16 ottobre '14

Posti limitati !! Compila il modulo a destra e prenota oggi stesso il tuo posto.



Salve a tutti, il 18 ottobre 14 terremo un webinar gratuito su Apache Spark e Scala. Il titolo del webinar è 'Elaborazione di Big Data con Apache Spark e Scala' . In questo webinar verranno discussi gli argomenti essenziali riguardanti Apache Spark e Scala. Eventuali domande o dubbi possono essere chiariti durante la sessione.

Argomenti da trattare:

  • Cosa sono i Big Data?
  • Cos'è Spark?
  • Perché Spark?
  • Spark Ecosystem
  • Una nota su Scala
  • Perché Scala?
  • Hello Spark - Hands on

Perché Spark?

Apache Spark è un framework di elaborazione cluster open source per i cluster della comunità Hadoop. Si qualifica per essere uno dei migliori motori di analisi e elaborazione dei dati per dati su larga scala con la sua velocità ineguagliabile, facilità d'uso e analisi sofisticate. Di seguito sono riportati i vantaggi e le caratteristiche che rendono Apache Spark un successo crossover per l'analisi operativa e investigativa:

  • I programmi sviluppati su Spark vengono eseguiti 100 volte più velocemente di quelli sviluppati in Hadoop MapReduce.
  • Spark compila 80 operatori di alto livello.
  • Spark Streaming consente l'elaborazione dei dati in tempo reale.
  • GraphX ​​è una libreria per calcoli grafici.
  • MLib è la libreria di machine learning per Spark.
  • Scritto principalmente in Scala, Spark può essere incorporato in qualsiasi sistema operativo basato su JVM, allo stesso tempo può essere utilizzato anche in modalità REPL (Read, Evaluate, Process and Load).
  • Ha potenti capacità di memorizzazione nella cache e di persistenza del disco.
  • Spark SQL gli consente di gestire in modo efficiente le query SQL
  • Apache Spark può essere distribuito tramite Apache Mesos, Yarn in HDFS, HBase, Cassandra o Spark Cluster Manager (il gestore cluster di Spark).
  • Spark simula lo stile funzionale e l'API delle raccolte di Scala, il che è un grande vantaggio per gli sviluppatori Scala e Java.

Necessità di Apache Spark:

Spark offre enormi vantaggi al settore in termini di velocità, varietà di attività che può eseguire, flessibilità, analisi dei dati di qualità, rapporto costi-benefici, ecc., Che sono le esigenze del giorno. Fornisce soluzioni di analisi dei big data di fascia alta e in tempo reale al settore IT, soddisfacendo la crescente domanda dei clienti. L'analisi in tempo reale sfrutta le capacità aziendali in quantità enormi. La sua compatibilità con Hadoop rende molto facile per le aziende adottarlo rapidamente. C'è un forte bisogno di esperti e sviluppatori di Spark, poiché si tratta di una tecnologia relativamente nuova, che viene adottata sempre più.