티스토리 뷰
하둡(Hadoop)의 파일시스템인 HDFS의 명령어를 모두 정리해 보려고 합니다.
하둡의 명령어는 다음과 같은 구조를 가지고 있습니다.
hdfs dfs -cmd <args>
cmd가 지정한 파일 명령어이고 <args>는 각 명령에 따른 인자들을 나타냅니다.
hadoop fs를 제외하면 일반적인 리눅스 명령어와 유사하다고 볼 수 있습니다.
그럼 정리해보도록 하겠습니다. (도서 "거침없이 배우는 하둡"의 부록을 참고했습니다.)
cat
hdfs dfs -cat FILE [FILE ...]
파일의 내용을 나타낸다. 압축된 파일을 읽기 위해서는 fs 대신에 text 명령어를 사용해야 한다.
chgrp
hdfs dfs -chgrp [-R] GROUP PATH [PATH ...]
파일과 디렉토리에 대한 그룹을 변경한다. -R 옵션은 하위 디렉토리까지 재귀적으로 해당 변경을 적용한다. 사용자는 해당 파일의 소유자이거나 슈퍼유저여야 한다.
chmod
hdfs dfs -chmod [-R] MODE [, MODE ...] PATH [PATH ...]
파일과 디렉토리의 권한을 변경한다. 유닉스와 유사하게 권한 모드는 세 자리 8진수 모드 또는 +/- {rwxX}이다. -R 옵션은 변경을 재귀적으로 적용한다. 사용자는 해당 파일의 소유자이거나 슈퍼유저여야 한다.
chown
hdfs dfs -chown [-R] [OWNER] [ :[GROUP]] PATH [PATH ...]
파일과 디렉토리의 소유자를 변경한다. -R 옵션은 재귀적으로 하위 디렉토리에 설정을 반영한다. 사용자는 슈퍼유저여야 한다.
copyFromLocal
hdfs dfs -copyFromLocal LOCALSRC [ LOCALSRC ...] DST
put과 동일하다. 로컬 파일 시스템으로부터 파일들을 복사한다.
copyToLocal
hdfs dfs -copyToLocal [-ignorecrc] [-crc] SRC [SRC ...] LOCALDST
get과 동일하다. 파일들을 로컬 파일 시스템으로 복사한다.
count
hdfs dfs -count [-q] PATH [PATH ...]
PATH에 있는 모든 파일과 디렉토리에 대한 이름, 사용된 바이트 수, 파일 개수, 하위 디렉토리 개수를 출력한다. -q 옵션은 할당 정보를 나타낸다.
cp
hdfs dfs -cp SRC [SRC ...] DST
소스에 있는 파일들을 목적지로 복사한다. 만약 다수의 소스 파일들이 지정되면, 목적지는 디렉토리여야 한다.
du
hdfs dfs -du PATH [PATH ...]
파일 크기를 나타낸다. 만약 PATH가 디렉토리이면, 그 디렉토리에 있는 각 파일의 크기가 리포트된다. 파일명 앞에 전체 URI 프로토콜이 붙는다. 비록 du는 디스크 사용량을 나타내지만 있는 그대로 받아들여서는 안 된다. 디스크 사용량은 블록 크기와 복제 요소들에 따라 다르기 때문이다.
dus
hdfs dfs -dus PATH [PATH ...]
du와 비슷하다. 그런데 디렉토리에 대해서 dus는 개별적으로 나타내기보다는 합계 (파일 크기)를 리포트한다.
expunge
hdfs dfs -expunge
휴지통을 비운다. 만약 휴지통 기능이 활성화 되어 있으면, 파일이 삭제되었을 때 우선 임시 .Trash/ 폴더로 이동하게 된다. 그리고 사용자가 설정한 시간 후에 .Trash/에 있는 파일이 완전히 삭제된다. expunge 명령어는 .Trash/ 폴더에 있는 파일들을 강제적으로 삭제한다. .Trash/ 폴더에 파일이 존재하는 한 그것을 원래 위치로 이동시켜 해당 파일을 복구 할 수 있다.
get
hdfs dfs -get [-ignorecrc] [-crc] SRC [SRC ...] LOCALDST
파일들을 로컬 파일 시스템으로 복사할 때, 만약 다수의 소스 파일들이 지정되면 로컬 목적지는 디렉토리여야 한다. 만약 LOCALDST가 -이면, 그 파일들은 stdout으로 복사된다. HDFS는 파일에 대한 각 블록의 체크섬을 계산한다. 파일에 대한 체크섬은 숨김 파일에 저장되고, 해당 파일이 HDFS에서 읽힐 때 숨김 파일에 있는 체크섬들은 해당 파일의 무결성을 확인하는데 사용된다. get 명령어에서 -crc 옵션을 사용하면, 숨김 파일도 복사하고, -ignorecrc 옵션은 복사할 때 체크섬을 확인하는 과정을 건너뛴다.
getmerge
hdfs dfs -getmerge SRC [SRC ...] LOCALDST [addnl]
SRC에서 확인된 모든 파일을 가져와 합치고, 로컬 파일 시스템에 존재하는 하나의 LOCALDST 파일에 기록한다. addnl 옵션은 각 파일의 끝을 나타내는 개행 문자를 LOCALDST 파일에 추가한다.
help
hdfs dfs -help [CMD]
해당 명령어(CMD)에 대한 사용법을 나타낸다. 만약 CMD 없이 해당 명령어를 사용하면 모든 명령어에 대한 사용법을 출력한다.
ls
hdfs dfs -ls PATH [PATH ...]
파일과 디렉토리를 조회한다. 각 엔트리는 명칭, 권한, 소유자, 그룹, 크기, 수정일을 나타낸다. 파일 엔트리는 복제 요소도 포함해서 보여준다.
lsr
hdfs dfs -lsr PATH [PATH ...]
ls의 재귀적 버전이다.
mkdir
hdfs dfs -mkdir PATH [PATH ...]
디렉토리를 생성한다. 유닉스의 mdir -p와 같이 상위 디렉토리를 지정하지 않아도 해당 디렉토리까지 포함해서 생성한다.
moveFromLocal
hdfs dfs -moveFromLocal LOCALSRC [LOCALSRC ...] DST
LOCALSRC가 성공적으로 HDFS에 복사된 후에 해당 파일이 삭제되는 것만 빼고는 put과 유사하다.
moveToLocal
hdfs dfs -moveToLocal [-crc] SRC [SRC ...] LOCALDST
아직 구현되어 있지 않다.
mv
hdfs dfs -mv SRC [SRC ...] DST
SRC에 있는 파일들을 DST로 옮긴다. 만약 다수의 소스 파일들이 지정되면, 목적지는 디렉토리여야 한다. 파일 시스템들 간 이동은 허가되지 않는다.
put
hdfs dfs -put LOCALSRC [LOCALSRC ...] DST
로컬 시스템으로부터 파일과 디렉토리를 목적지 파일 시스템으로 복사한다. 만약 LOCALSRC가 -로 설정되어 있으면 입력은 stdin으로 지정되고, DST는 파일이어야 한다.
rm
hdfs dfs -rm PATH [PATH ...]
파일과 빈 디렉토리를 삭제한다.
rmr
hdfs dfs -rmr PATH [PATH ...]
rm의 재귀적 버전이다.
setrep
hdfs dfs -setrep [-R] [-w] REP PATH [PATH ...]
주어진 파일들에 대한 대상 복제 계수를 REP로 설정한다. -R 옵션은 PATH에 의해 확인된 디렉토리들에 대한 파일들의 대상 복제 계수를 재귀적으로 적용한다.
stat
hdfs dfs -stat [FORMAT] PATH [PATH ...]
파일의 통계 정보를 나타낸다. 아래 포맷 지정자에 따른 FORMAT 문자열에 맞게 형식화되어 해당 정보가 출력된다.
%b 파일 크기 (블록 단위)
%F 파일 형식에 따른 "디렉토리" 또는 "일반 파일"
%n 파일명
%o 블록 크기
%r 복제
%y UTC 날짜 yyyy-MM-dd HH:mm:ss 형식
%Y 1970년 1월 1일 (UTC) 이후 경과한 밀리세컨드
tail
hdfs dfs -tail [-f] FILE
파일의 마지막 1KB의 내용을 출력한다.
test
hdfs dfs -test -[ezd] PATH
PATH에서 다음의 형식 점검을 수행한다.
-e PATH 존재 유무, PATH가 존재하면 0을 반환한다.
-z 빈 파일 여부, 파일 길이가 0이면 0을 반환한다.
-d PATH가 디렉토리이면 0을 반환한다.
text
hdfs dfs -text FILE [FILE ...]
파일의 텍스트 내용을 나타낸다. 만약 파일이 텍스트 파일이라면 cat 명령과 동일하다. 압축 형식(gzip과 하둡의 바이너리 시퀀스 파일 포맷)으로 알려진 파일들은 우선 압축을 해제한다.
touchz
hdfs dfs -touchz FILE [FILE ...]
길이가 0인 파일을 생성한다. 만약 길이가 0이 아닌 파일이 이미 존재하면 에러가 발생한다.
하둡 (Hadoop) 더 알아보기
하둡의 핵심인 맵(Map)과 리듀스(Reduce)의 기본 개념을 이해해 보세요.
하둡을 설치하는 방법부터 간단한 테스트까지 확인해 보세요.
하둡 개발 환경 구축을 위한 이클립스 플러그인 설정 방법입니다.
하둡 개발 환경을 이클립스에 직접 설정해 보세요.
하둡을 Pseudo Mode가 아닌 로컬 환경(Standalone Mode)에서 실행해 보세요.
하둡 에코 시스템의 주요 기술인 주키퍼, 피크, HBase에 대한 내용입니다.
하둡 맵리듀스를 보다 편하게 만들어주는 하이브(Hive)와 피그(Pig) 예제입니다.
R에 대한 기본적인 설치와 활용입니다. 하둡과 함께 활용해 보면 어떨까요?
하둡 이외에 빅데이터 분석 기술은 어떤 것이 있을까요? Mahout, CEP 등 살펴보세요.
CEP(Complex Event Processing) 기술의 대표적인 오픈소스 에스퍼(Esper)에 대한 내용입니다.
실시간 처리를 위한 분산 메시징 시스템 카프카까지 한번 보세요~
'Cloud&BigData > 하둡(Hadoop)' 카테고리의 다른 글
Hive & Pig - 하둡(Hadoop)의 맵리듀스를 보다 편하게~ (0) | 2014.08.15 |
---|---|
Cloudera Impala - 하둡 기반의 SQL 쿼리 엔진으로 실시간 분석을 (0) | 2014.08.12 |
하둡(hadoop) 맵리듀스 로컬에서 테스트 하기 (0) | 2012.06.13 |
하둡(hadoop) 맵리듀스 프로그래밍을 위한 이클립스 설정 및 맵리듀스 개발 #2 (3) | 2012.05.25 |
하둡 맵리듀스 프로그래밍을 위한 이클립스 플러그인 설정 #1 (0) | 2012.05.22 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- XML
- 분석
- 구글
- Hadoop
- 맥
- SCORM
- 하둡
- 아이폰
- 모바일
- 통계
- java
- 도서
- 클라우드
- 자바
- 애플
- 디자인
- 세미나
- 빅데이터
- 자바스크립트
- r
- 안드로이드
- 마케팅
- mysql
- 웹
- 책
- fingra.ph
- ms
- 프로젝트
- HTML
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함