一 安装Hadoopjava
<configuration>node <property>git <name>fs.defaultFS</name>github <value>hdfs://localhost:9000</value>apache </property>安全 </configuration>jvm |
<configuration>分布式 <property>工具 <name>mapreduce.framework.name</name>oop <value>yarn</value> </property> </configuration> |
在C:\Hadoop\data路径下建立“namenode”子目录;
在C:\Hadoop\data路径下建立“datanode”子目录。
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>C:\hadoop\data\namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>C:\hadoop\data\datanode</value> </property> </configuration> |
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration> |
“set JAVA_HOME=%JAVA_HOME%”
修改成“set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_192”。
(注意:此处有坑。若是将hadoop-env.cmd中的JAVA_HOME设置为“C:\Program Files\Java\jdk1.8.0_192”,将会出错,由于路径中不能含有空格。)
通过前面15步,Hadoop安装结束。
运行以下命令测试Hadoop是否能够正常运行:
hadoop fs –ls / |
显示根目录下的全部文件和目录 |
hadoop fs –mkdir /test |
建立子目录/test,建立多级目录 加上 –p |
hadoop fs -rm /test1.txt |
删除文件 |
hadoop fs -rm -r /test |
删除子目录(要加-r参数) |
hadoop fs -put C:\tmp\test.txt \test |
将本地文件上传到HDFS分布式文件系统 |
hadoop fs -cat \test\test.txt |
查看文件内容 |
hadoop fs -cp URI [URI …] <dest> |
cp 复制系统内文件 |
hadoop fs -get[-ignorecrc] [-crc] <src> <localdst> |
下载文件到本地 |
hadoop fs -mv URI [URI …] <dest> |
将文件从源路径移动到目标路径 |
hadoop fs -du URI [URI …] |
显示文件大小 |
注意:如下操做必须以管理员身份执行。