Quali sono le terminologie chiave in Hadoop Security?



Questo blog di Edureka ti aiuta con una conoscenza dettagliata e completa della sicurezza hadoop che viene implementata in tempo reale.

è una delle principali preoccupazioni quando si tratta di trattare dati riservati. essere il migliore nelle operazioni di trattamento dei dati deve affrontare lo stesso problema. Non dispone di una propria sicurezza dedicata. Cerchiamo di capire come è stato risolto il problema attraverso questo Hadoop Security articolo.

Perché abbiamo bisogno di Hadoop Security?

hadoop-security-perché è importante la sicurezza hadoop





è il framework di elaborazione dei big data più potente, robusto e altamente scalabile in grado di farlo crunch petabyte di dati facilmente. A causa delle sue capacità ineguagliate, all'epoca tutti i dipartimenti del settore aziendale, sanitario, militare e finanziario hanno iniziato a utilizzare Hadoop.

Hadoop ha iniziato a guadagnare popolarità. Questo è quando gli sviluppatori di Hadoop hanno trovato un file monumentale errore di calcolo. Hadoop non disponeva di un software di sicurezza dedicato dentro. Ciò ha interessato molte aree in cui Hadoop era in uso.



  • Molteplici settori di attività

  • Sicurezza nazionale

  • Dipartimenti sanitari e medici



  • Social media

  • Militare

Le aree sopra menzionate sono i principali utenti di Hadoop. Adesso, Sicurezza è il grande passo che Hadoop deve compiere.

Cos'è Hadoop Security?

Hadoop Security è generalmente definito come una procedura per sicuro l'unità di archiviazione dati Hadoop, offrendo un muro di sicurezza praticamente impenetrabile contro qualsiasi potenziale minaccia informatica. Hadoop raggiunge questo muro di sicurezza di alto livello seguendo quanto segue protocollo di sicurezza.

Autenticazione

Autenticazione è la prima fase in cui vengono verificate le credenziali dell'utente. Le credenziali in genere includono quelle dedicate dell'utente Nome utente e a password segreta. Entratole credenziali verranno verificate rispetto ai dettagli disponibili nel database di sicurezza. Se valido, l'utente sarà autenticato.

operatore di risoluzione dell'ambito c ++

Autorizzazione

Autorizzazione è la seconda fase in cui il sistema decide se fornire il permesso all'utente, per accedere ai dati o meno. Si basa sull'elenco di controllo degli accessi predefinito. Confidenzialele informazioni sono mantenute sicure e uniche personale autorizzato può accedervi.

Auditing

Auditing è l'ultima fase, tiene semplicemente traccia delle operazioni eseguite dall'utente autenticato durante il periodo in cui è stato loggato nel cluster. Questo èfatto esclusivamente per sicurezza solo scopi.

Tipi di sicurezza Hadoop

  • Kerberos Security

Kerberos è uno dei principali protocolli di autenticazione di rete progettato per fornire potenti servizi di autenticazione a entrambi server e Client-end attraverso Chiave segreta tecniche di crittografia. È dimostrato di essere altamente sicuro poiché utilizza ticket di servizio crittografati durante l'intera sessione.

  • Crittografia HDFS

Crittografia HDFS è un formidabile progresso che Hadoop abbia mai abbracciato. Qui, i dati di fonte per destinazione (HDFS) viene completamente crittografato. Questa procedura non richiede modifiche all'applicazione Hadoop originale, rendendo il file cliente essere l'unico personale autorizzato a accesso i dati.

  • Crittografia del traffico

Crittografia del traffico non è altro che HTTPS (HyperText Transfer Protocol Secure). Questa procedura viene utilizzata per proteggere la trasmissione dei dati, dal sito web così come trasmissione dei dati al sito web . Molti gateway di online banking utilizzano questo metodo per proteggere le transazioni su un file Certificato di sicurezza

  • Autorizzazioni per file e directory HDFS

Autorizzazioni della directory dei file HDFS lavorare in modo semplice POSIX formato. Il Leggere e Scrivi le autorizzazioni sono fornite come r e S rispettivamente. Le autorizzazioni per il Super utente e Cliente sono impostati in modo diverso in base alla riservatezza del file.

Kerberos

test guidati dai dati nel selenio

Kerberos è una delle reti più semplici e sicure protocollo di autenticazione utilizzato da Hadoop per i suoi dati e la sicurezza della rete. È stato inventato da CON. L'obiettivo principale di Kerberos è eliminare la necessità di scambiare password su una rete e, inoltre, proteggere la rete da qualsiasi potenziale cyber sniffing.

Per comprendere la terminologia Kerberos, dobbiamo prima conoscere i componenti coinvolti nel software Kerberos.

KDC o Key Distribution Center è il cuore di Kerberos. Si compone principalmente di tre componenti. Vale a dire:

  • Banca dati

Il Banca dati memorizza le credenziali dell'utente come nome utente e il suo rispettivo Le password. Memorizza anche il file accedere ai diritti di accesso fornito all'utente. L'unità Kerberos KDC memorizza anche informazioni aggiuntive come Chiave di crittografia, validità del biglietto eccetera.

  • Server di autenticazione

Le credenziali utente inserite verranno verificate. Se valido, il file Server di autenticazione provvederà TGT o Ticket Generation Ticket. Un TGT può essere generato solo se l'utente entra credenziali valide.

  • Ticket Granting Server

La fase successiva è il TGS o Ticket Granting Server. È fondamentalmente un server delle applicazioni di KDC che ti fornirà il Ticket di servizio. Il ticket di servizio è richiesto dall'utente per interagire con Hadoop e ottenere il servizio di cui ha bisogno o per eseguire un'operazione su Hadoop.

Puoi installare Kerberos con il seguente comando:

sudo apt-get install krb5-kdc krb5-admin-server

Supponiamo ora di voler accedere a un cluster Hadoop protetto da Kerberos. È necessario eseguire le seguenti fasi per accedere al cluster Hadoop come descritto nei passaggi seguenti:

  • Devi ottenere autenticazione del cluster Hadoop. Puoi essere autenticato eseguendo Kinit comando sul cluster Hadoop.

kinit root / admin
  • Il Kinit L'esecuzione del comando ti reindirizzerà al file Credenziali di accesso pagina in cui dovresti inserire il tuo nome utente e parola d'ordine.

  • Il Kinit invierà un Richiesta di autenticazione al Server di autenticazione.

  • Se le tue credenziali sono valido, quindi il server di autenticazione risponderà con un file Ticket Generation Ticket (TGT).

  • Il Kinit memorizzerà il file TGT nelle tue credenziali Cache Memoria. Il seguente comando ti aiuterà a leggere le tue credenziali

klist
  • Ora sei stato autenticato con successo nel file KDS.

  • Prima di accedere al cluster Hadoop, è necessario configurare i client Kerberos. per farlo, usa il seguente comando.

sudo apt-get install krb5-user libpam-krb5 libpam-ccreds auth-client-config
  • Ora, provi a eseguire un file Comando Hadoop. Cioè un Client Hadoop.

  • Il Client Hadoop userà il tuo TGT e richieste TGS per l'approvazione.

  • Il TGS approverà la richiesta e ti fornirà un Ticket di servizio.

  • Questo Ticket di servizio verrà memorizzato nella cache da Client Hadoop.

  • Questo Ticket di servizio verrà utilizzato dal client Hadoop per comunicare con Hadoop Namenode.

  • Il Namenode si identificherà con il suo Biglietto.

  • Entrambi i file Biglietto Namenode e Hadoop Client Biglietti di servizio saranno sottoposti a controlli incrociati.

  • Entrambi sono sicuri di comunicare con un file entità autenticata.

  • Questo è chiamato Autenticazione reciproca.

  • La fase successiva è Autorizzazione. Il Namenode ti fornirà il file servizio per cui hai ricevuto il autorizzazione.

  • Infine, l'ultima fase è Auditing. Qui il tuo attività sarà registrato per scopi di sicurezza.

Con questo, arriviamo alla fine di questo articolo . Spero di aver messo in luce le tue conoscenze su a Hadoop Security.

Ora che hai compreso Hadoop e la sua sicurezza, controlla il file da Edureka, una società di formazione online affidabile con una rete di oltre 250.000 studenti soddisfatti sparsi in tutto il mondo. Il corso di formazione sulla certificazione Edureka Big Data Hadoop aiuta gli studenti a diventare esperti in HDFS, Yarn, Riduci mappa , Pig, Hive, HBase, Oozie, Flume e Sqoop utilizzando casi d'uso in tempo reale su domini Retail, Social Media, Aviation, Tourism, Finance.

Se hai qualche domanda relativa a questo 'Hadoop Security' articolo, quindi scrivici nella sezione commenti qui sotto e ti risponderemo il prima possibile.