Comandi utili della shell Hadoop



Questo blog descrive tutti gli utili comandi della shell di Hadoop. Insieme ai comandi della shell di Hadoop, include anche screenshot per semplificare l'apprendimento. Continuare a leggere!

HDFS sta per ' H adoop D distribuito F con S ystem '. L'HDFS è un sottoprogetto del progetto Apache Hadoop. Questo progetto Apache Software Foundation è progettato per fornire un file system a tolleranza di errore progettato per essere eseguito su hardware comune. Si accede a HDFS tramite una serie di comandi della shell che verranno discussi in questo post.





Una breve nota prima di iniziare: tutti i comandi della shell Hadoop vengono richiamati dallo script bin / hadoop.

Comandi utente:

  • Esegui il file system DFS:

Utilizzo: hadoop fsck - /



Esegui-file-system-DFS (1)

  • C diamine versione di Hadoop :

Utilizzo: versione Hadoop



Comandi della shell di FS:

Il comando Hadoop fs esegue un client utente generico del file system che interagisce con il file system MapR (MapR-FS).

  • Visualizza elenchi di file:

Utilizzo: hadoop fs -ls hdfs: /

  • Controlla lo stato della memoria:

Utilizzo: hadoop fs -df hdfs: /

come impostare il percorso java
  • Conteggio di directory, file e byte nel percorso e modello di file specificati:

Utilizzo: hadoop fs -count hdfs: /

  • Sposta il file da una posizione a un'altra:

Utilizzo: -mv

  • Copia il file dall'origine alla destinazione :

Utilizzo: -cp

  • Cancella il file:

Utilizzo: -rm

  • Metti il ​​file dal file system locale al file system distribuito Hadoop:

Utilizzo: -put ...

fibonacci c ++ ricorsivo

  • Copia file da locale a HDFS:

Utilizzo: -copyFromLocal ...

  • Visualizza il file nel file system distribuito Hadoop :

Utilizzo: -cat

Comandi di amministrazione:

  • Formatta lo scopo :

Utilizzo: hadoop scopo -format

  • Iniziare scopi secondari:

Utilizzo: hadoop secondrynamenode

  • Corri apposta :

Utilizzo: scopo hadoop

  • Correre nodo dati :

Utilizzo: hadoop datanode

  • Bilanciamento dei cluster :

Utilizzo: bilanciatore hadoop

  • Esegui il nodo di tracciamento lavori MapReduce:

Utilizzo: hadoop job tracker

  • Esegui il nodo del tracker delle attività MapReduce:

Utilizzo: tasktracker hadoop

Hai domande per noi? Per favore menzionali nella sezione commenti e ti risponderemo.

Post correlati:

cosa sono hashmap e hashtable in java

Operatori in Apache Pig