1、VMware安装
我们使用Vmware 14的版本,傻瓜式安装即可。(只要)
双击
如过
2. 安装xshell
双击
3.安装镜像:
解压centos6.5-empty解压
双击打开CentOS6.5.vmx
如果打不开,在cmd窗口中输入:netsh winsock reset
然后重启电脑。
进入登录界面,点击other
用户名:root
密码:root
然后右键open in terminal
输入ifconfig 回车
查看ip地址
打开xshell
点击链接
如果有提示,则接受
输入用户名:root
输入密码:root
4. xshell连接虚拟机
打开虚拟机,通过ifconfig查看ip
5. 安装jkd
1. 解压Linux版本的JDK压缩包
mkdir:创建目录的命令
rm -rf 目录/文件 删除目录命令
cd 目录 进入指定目录
rz 可以上传本地文件到当前的linux目录中(也可以直接将安装包拖到xshell窗口)
ls 可以查看当前目录中的所有文件
tar 解压压缩包(Tab键可以自动补齐文件名)
pwd 可以查看当前路径
文档编辑命令:
vim 文件 编辑命令
i:进入编辑状态
Esc(左上角):退出编辑状态
做视频用什么软件好:wq 保存并退出
:q! 不保存退出
mkdir /home/software #按习惯用户自己安装的软件存放到/home/software目录下
cd /home/software #进入刚刚创建的目录
rz 上传jdk tar包 #利用xshell的rz命令上传文件(如果rz命令不能用,先执行yum install lrzsz -y ,需要联网)
tar -xvf #解压压缩包
2. 配置环境变量
1)vim /etc/profile
2)在尾行添加
烟机品牌#set java environment
JAVA_HOME=/home/software/jdk1.8.0_65
JAVA_BIN=/home/software/jdk1.8.0_65/bin
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME JAVA_BIN PATH CLASSPATH
Esc 退出编辑状态
:wq #保存退出
注意JAVA_HOME要和自己系统中的jdk目录保持一致,如果是使用的rpm包安装的jdk,安装完之后jdk的根目录为:/usr/java/jdk1.8.0_111,也可以通过命令:rpm -qal|grep jdk 来查看目录
3)source /etc/profile 使更改的配置立即生效中国十大童装品牌
4)java -version 查看JDK版本信息。如显示版本号则证明成功。
6.安装hadoop
1. 安装配置jdk、关闭防火墙
service iptables stop
执行该命令可以关闭防火墙,但是如果虚拟机重启的话,防火墙会重新开启。
chkconfig iptables off
执行该命令可以永久关闭防火墙。
两个命令配合使用
2. 修改主机名
vim /etc/sysconfig/network
以后的Hadoop会有多台主机,因此需要根据主机名来区分这些系统。
注意:主机名里不能有下滑线,或者特殊字符#$,不然会不到主机,从而导致无法启动。这种方式更改主机名需要重启才能永久生效,因为主机名属于内核参数。如果不想重启,可以执行:hostname hadoop01。但是这种更改是临时的,重启后会恢复原主机名。
所以可以结合使用。先修改配置文件,然后执行:hostname hadoop01 。可以达到不重启或重启都是主机名都是同一个的目的
3. 配置hosts文件
vim /etc/hosts
修改hosts文件,以后用到IP连接的地方就可以直接使用hadoop01代替IP地址了。
4. 配置免密码登录
ssh-keygen
这里只需要回车,无需输入。
ssh-copy-id root@hadoop01 想从这台机器免密登录哪个机器,就把公钥文件发送到
哪个机器上。
5. 安装配置jdk(省略)
6. 上传和解压hadoop安装包
过程省略,解压路径为:
要记着这个路径,后面的配置要用到。
bin目录:命令脚本
etc/hadoop:存放hadoop的配置文件
lib目录:hadoop运行的依赖jar包
sbin目录:启动和关闭hadoop等命令都在这里
libexec目录:存放的也是hadoop命令,但一般不常用
最常用的就是bin和etc目录
7. 在hadoop根目录下创建tmp目录
mkdir tmp 存放Hadoop运行时产生的文件目录
8. 配置hadoop-env.s件
cd etc/hadoop
vim hadoop-env.sh
修改JAVA_HOME路径和HADOOP_CONF_DIR 路径,注意路径一定要写对,里面原始的获取系统路径的方式不起作用。(修改两个地方)
export JAVA_HOME=/home/software/jdk1.8.0_65 # The jsvc implementation to use. Jsvc is required to run secure datanodes # data transfer protocol using non-privileged ports. #export JSVC_HOME=${JSVC_HOME} export HADOOP_CONF_DIR=/home/software/hadoop-2.7.1/etc/hadoop |
:wq 退出
source hadoop-env.sh 让配置立即生效
9. 修改l
l 在<configuration></configuration>标签中添加如下代码
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:9000</value>
</property>
<property>
<name>p.dir</name>
<value>/home/software/hadoop-2.7.1/tmp</value>
</property>
</configuration>
<!--第一个property参数用来指定hdfs的老大,namenode的地址-->
<!--第二个property参数用来指定hadoop运行时产生文件的存放目录-->
10. 修改 hdfs-site .xml
l 在<configuration></configuration>标签中添加如下代码
<configuration>
<property>
<name>plication</name>
<value>1</value>
</property>
<property>
<name中国橱柜排名>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
<!--第一个property参数指定hdfs保存数据副本的数量,包括自己,默认值是3。如果是伪分布模式,此值是1 -->
<!--第二个property参数设置hdfs的操作权限,false表示任何用户都可以在hdfs上操作文件 -->
11. 修改 l
l.l调解协议书 拷贝模板文件并重命名
l 在<configuration></configuration>标签中添加如下代码
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn是Hadoop的资源协调工具。
12. 修改l
l 在<configuration></configuration>标签中添加如下代码
<configuration>
<property>
<name>sourcemanager.hostname</name>
<value>hadoop01</value>
</property>
<property>
<name>demanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
<!--第一个property参数送好朋友的生日礼物用来指定yarn的老大resoucemanager的地址 -->
<!--第二个property参数用来指定NodeManager获取数据的方式 -->
13. 配置slaves文件
vim slaves
hadoop01
14. 配置hadoop的环境变量
vim /etc/profile 修改配置文件,使hadoop命令可以在任何目录下执行,下面是修改后的代码
JAVA_HOME=/home/software/jdk1.8.0_111
HADOOP_HOME=/home/software/hadoop-2.7.1
JAVA_BIN=/home/software/jdk1.8.0_111/bin
PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论