Envoi de fichier sur HDFS

Apprenez à envoyer un fichier local sur HDFS en utilisant la commande hdfs dfs-put.

Détails de la leçon

Description de la leçon

Dans cette leçon, nous allons aborder le processus d'envoi d'un fichier local vers le Hadoop Distributed File System (HDFS). Tout d'abord, nous créerons un fichier en local. Ensuite, nous utiliserons la commande hdfs dfs-put pour transférer ce fichier vers le HDFS en spécifiant son nom et le répertoire de destination. Une fois cette opération effectuée, nous vérifierons la présence du fichier sur l'interface du NameNode.

Objectifs de cette leçon

Les objectifs de cette vidéo sont d'apprendre à créer un fichier local, à utiliser la commande hdfs dfs-put, et à vérifier la présence du fichier dans HDFS.

Prérequis pour cette leçon

Pour suivre cette vidéo, il est recommandé d'avoir des connaissances de base en Hadoop et en systèmes de fichiers distribués.

Métiers concernés

Les compétences acquises dans cette leçon sont applicables aux métiers de data engineer, d'administrateur système et de développeur big data.

Alternatives et ressources

Des alternatives à HDFS incluent Amazon S3 et Google Cloud Storage, qui peuvent être utilisées pour le stockage distribué.

Questions & Réponses

HDFS (Hadoop Distributed File System) est un système de fichiers distribué conçu pour stocker de grandes quantités de données sur des clusters de serveurs.
La commande utilisée est hdfs dfs-put suivie du nom du fichier et du répertoire de destination.
Vous pouvez vérifier la présence du fichier en utilisant l'interface du NameNode et en actualisant le répertoire de destination.