九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
Ubuntu14.04 hadoop2.5.2完全分布式集群搭建

1.ubuntu創(chuàng)建新用戶并增加管理員權(quán)限(所有主機(jī)

$是普通管員,#是系統(tǒng)管理員,在Ubuntu下,root用戶默認(rèn)是沒有密碼的,因此也就無法使用(據(jù)說是為了安全)。想用root的話,得給root用戶設(shè)置一個(gè)密碼:
sudo passwd root
然后登錄時(shí)用戶名輸入root,再輸入密碼就行了。
ubuntu建用戶最好用adduser,雖然adduser和useradd是一樣的在別的linux糸統(tǒng)下,但是我在ubuntu下用useradd時(shí),并沒有創(chuàng)建同名的用戶主目錄。
例子:adduser user1
這樣他就會(huì)自動(dòng)創(chuàng)建用戶主目錄,創(chuàng)建用戶同名的組。
root@ubuntu:~# sudo adduser aboutyun
[sudo] password for xx:
輸入xx用戶的密碼,出現(xiàn)如下信息
正在添加用戶'aboutyun'…
正在添加新組'aboutyun' (1006)…
正在添加新用戶'aboutyun' (1006) 到組'db'…
創(chuàng)建主目錄'/home/aboutyun'…
正在從'/etc/skel'復(fù)制文件…
輸入新的 UNIX 口令:
重新輸入新的 UNIX 口令:
兩次輸入db的初始密碼,出現(xiàn)的信息如下
passwd: password updated successfully
Changing the user information for db
Enter the new value, or press ENTER for the default
Full Name []:
Room Number []:
Work Phone []:
Home Phone []:
Other []:
Full Name []:等信息一路回車
這個(gè)信息是否正確? [Y/n] y
到此,用戶添加成功。如果需要讓此用戶有root權(quán)限,執(zhí)行命令:
root@ubuntu:~# sudo vim /etc/sudoers
修改文件如下:
# User privilege specification
root ALL=(ALL) ALL
aboutyun ALL=(ALL) ALL
保存退出,db用戶就擁有了root權(quán)限。


2. 修改/etc/hostname 和/etc/hosts(所有主機(jī))

172.16.77.15     aboutyun/123456      master
172.16.77.16     aboutyun/123456      slave1
172.16.77.17     aboutyun/123456      slave1
上面各列分別為IP、user/passwd、hostname

下面是master的修改:通過命令
sudo vim /etc/hosts


下面修改hostname
sudo vim /etc/hostname


修改主機(jī)名重啟后生效。
上面hosts都一樣,只不過hostname有所差別。

3、打通master到slave節(jié)點(diǎn)的SSH無密碼登陸
3.1 安裝ssh
一般系統(tǒng)是默認(rèn)安裝了ssh命令的。如果沒有,或者版本比較老,則可以重新安裝:
sudo apt-get install ssh

3.2

首先生成 master 的公匙,在 master 節(jié)點(diǎn)終端中執(zhí)行:

  1. cd ~/.ssh # 如果沒有該目錄,先執(zhí)行一次ssh localhost
  2. ssh-keygen -t rsa # 一直按回車就可以,生成的密鑰保存為.ssh/id_rsa

master 節(jié)點(diǎn)需能無密碼 ssh 本機(jī),這一步還是在 master 節(jié)點(diǎn)上執(zhí)行:

  1. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

完成后可以使用 ssh Master 驗(yàn)證一下。接著將公匙傳輸?shù)?Slave1 節(jié)點(diǎn):

  1. scp ~/.ssh/id_rsa.pub aboutyun@slave1:/home/aboutyun/

scp時(shí)會(huì)要求輸入slave1上aboutyun用戶的密碼,輸入完成后會(huì)提示傳輸完畢。

接著在 slave1節(jié)點(diǎn) 上將ssh公匙保存到相應(yīng)位置,執(zhí)行

  1. cat ~/id_rsa.pub >> ~/.ssh/authorized_keys

如果有其他 slave 節(jié)點(diǎn),也要執(zhí)行 將公匙傳輸?shù)?slave 節(jié)點(diǎn)、在 slave 節(jié)點(diǎn)上加入授權(quán) 這兩步

最后在 master 節(jié)點(diǎn)上就可以無密碼SSH到slave1節(jié)點(diǎn)了。

  1. ssh Slave1
4.安裝jdk(這里以.tar.gz版本,64位系統(tǒng)為例)

4.1.有安裝包直接解壓
這里直接解壓到了/usr/java/jdk1.7下面:
在/usr下并沒有java目錄,這需要我們?nèi)?chuàng)建一個(gè)java文件夾 

cd /usr
sudo mkdir java
tar -xzf jdk-7u67-linux-x64.tar.gz 解壓到了/usr/java/jdk1.7


4.2.無安裝包需要下載

下載jdk

wget http://download.Oracle.com/otn-pub/java/jdk/7u67-b01/jdk-7u67-linux-x64.tar.gz?AuthParam=1412395049_5ee2894e196e935ec18e4b2a6236bf28

重命名

mv jdk-7u67-linux-x64.tar.gz\?AuthParam\=1412395049_5ee2894e196e935ec18e4b2a6236bf28 jdk-7u67-linux-x64.tar.gz

解壓

tar -xzf jdk-7u67-linux-x64.tar.gz

4.3設(shè)置環(huán)境變量

環(huán)境變量分為用戶變量和系統(tǒng)變量。

用戶變量配置文件:~/.bashrc(在當(dāng)前用戶主目錄下的隱藏文件,可以通過`ls -a`查看到)

系統(tǒng)環(huán)境配置文件:/etc/profile

用戶變量和系統(tǒng)變量的配置方法一樣,本文以配置用戶變量為例。

編輯配置文件.bashrc:

vi .bashrc

在文件末尾追加:

# set java environmentexport JAVA_HOME=/usr/java/jdk1.7export JRE_HOME=$JAVA_HOME/jreexport CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATHexport PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

4.4使環(huán)境變量生效

source .bashrc

4.5驗(yàn)證

驗(yàn)證java是否安裝成功。

$ java -versionjava version '1.7.0_67'Java(TM) SE Runtime Environment (build 1.7.0_67-b01)Java HotSpot(TM) 64-Bit Server VM (build 24.65-b04, mixed mode)

5.關(guān)閉每臺(tái)機(jī)器的防火墻
sudo ufw disable (重啟生效)

6.hadoop安裝

6.1、需要注意的問題
看不到進(jìn)程大致有兩個(gè)原因:
1.你的配置文件有問題。
對于配置文件,主機(jī)名,空格之類的這些都不要帶上。仔細(xì)檢查
2.Linux的權(quán)限不正確。
最常出問題的是core-site.xml,與hdfs-site.xml。

core-site.xml
  1.       
  2.               hadoop.tmp.dir
  3.               file:/home/aboutyun/tmp
  4.                Abase forother temporary directories.
  5.       
復(fù)制代碼
說一下上面參數(shù)的含義,這里是hadoop的臨時(shí)文件目錄,file的含義是使用本地目錄。也就是使用的是Linux的目錄,一定確保下面目錄
  1. /home/aboutyun/tmp
復(fù)制代碼
的權(quán)限所屬為你創(chuàng)建的用戶。并且這里面我也要會(huì)變通,aboutyun,為我創(chuàng)建的用戶名,如果你創(chuàng)建了zhangsan或則lisi,那么這個(gè)目錄就會(huì)變?yōu)?/div>
  1. /home/zhangsan/tmp
復(fù)制代碼
這里不熟悉,是因?yàn)閷inux的不熟悉的原因。這里在來張圖:
注意:1和2對比。如果你所創(chuàng)建的tmp屬于root,那么你會(huì)看不到進(jìn)程。


hdfs-site.xml
同樣也是:要注意下面,你是需要改成自己的用戶名的

  
             dfs.namenode.name.dir
             file:/home/aboutyun/dfs/name
      
      
              dfs.datanode.data.dir
              file:/home/aboutyun/dfs/data
      

上面講完,我們開始配置

6.2
hadoop集群中每個(gè)機(jī)器上面的配置基本相同,所以我們先在master上面進(jìn)行配置部署,然后再復(fù)制到其他節(jié)點(diǎn)。所以這里的安裝過程相當(dāng)于在每臺(tái)機(jī)器上面都要執(zhí)行。

【注意】:master和slaves安裝的hadoop路徑要完全一樣,用戶和組也要完全一致

1、 解壓文件
將第一部分中下載的
  1. tar zxvf hadoop-2.5.2_x64.tar.gz
復(fù)制代碼
  1. mv hadoop-2.5.2  hadoop
復(fù)制代碼

解壓到/home/aboutyun路徑下

2、 hadoop配置過程

配置之前,需要在master本地文件系統(tǒng)創(chuàng)建以下文件夾:
~/dfs/name
~/dfs/data
~/tmp
這里文件權(quán)限:創(chuàng)建完畢,你會(huì)看到紅線部分,注意所屬用戶及用戶組。如果不再新建的用戶組下面,可以使用下面命令來修改:
sudo chown -R aboutyun:aboutyun ~/dfs/
sudo chown -R aboutyun:aboutyun ~/tmp

這里要涉及到的配置文件有7個(gè):
~/hadoop-2.2.0/etc/hadoop/hadoop-env.sh
~/hadoop-2.2.0/etc/hadoop/yarn-env.sh
~/hadoop-2.2.0/etc/hadoop/slaves
~/hadoop-2.2.0/etc/hadoop/core-site.xml
~/hadoop-2.2.0/etc/hadoop/hdfs-site.xml
~/hadoop-2.2.0/etc/hadoop/mapred-site.xml
~/hadoop-2.2.0/etc/hadoop/yarn-site.xml
以上文件默認(rèn)不存在的,可以復(fù)制相應(yīng)的template文件獲得。

配置文件1:hadoop-env.sh
修改JAVA_HOME值(export JAVA_HOME=/usr/java/jdk1.7)
配置文件2:yarn-env.sh

修改JAVA_HOME值(export JAVA_HOME=/usr/java/jdk1.7)

配置文件3:slaves (這個(gè)文件里面保存所有slave節(jié)點(diǎn))


配置文件4:core-site.xml

  1.       
  2.                 fs.defaultFS
  3.                 hdfs://master:8020
  4.       
  5.       
  6.                 io.file.buffer.size
  7.                 131072
  8.         
  9.       
  10.                hadoop.tmp.dir
  11.                file:/home/aboutyun/tmp
  12.                Abase for other temporary   directories.
  13.       
  14.         
  15.                hadoop.proxyuser.aboutyun.hosts
  16.                *
  17.       
  18.       
  19.                hadoop.proxyuser.aboutyun.groups
  20.                *
  21.       


復(fù)制代碼


配置文件5:hdfs-site.xml

  1.       
  2.                 dfs.namenode.secondary.http-address
  3.                master:9001
  4.       
  5.      
  6.              dfs.namenode.name.dir
  7.              file:/home/aboutyun/dfs/name
  8.       
  9.       
  10.               dfs.datanode.data.dir
  11.               file:/home/aboutyun/dfs/data
  12.       
  13.       
  14.                dfs.replication
  15.                1
  16.         
  17.         
  18.                  dfs.webhdfs.enabled
  19.                   true
  20.          


復(fù)制代碼


配置文件6:mapred-site.xml

  1.                                                                             mapreduce.framework.name
  2.                 yarn
  3.            
  4.          
  5.                   mapreduce.jobhistory.address
  6.                   master:10020
  7.          
  8.          
  9.                 mapreduce.jobhistory.webapp.address
  10.                 master:19888
  11.       


復(fù)制代碼



配置文件7:yarn-site.xml

  1.         
  2.                yarn.nodemanager.aux-services
  3.                mapreduce_shuffle
  4.         
  5.                                                                         
  6. yarn.nodemanager.aux-services.mapreduce.shuffle.class
  7.                org.apache.hadoop.mapred.ShuffleHandler
  8.         
  9.         
  10.                yarn.resourcemanager.address
  11.                master:8032
  12.       
  13.       
  14.                yarn.resourcemanager.scheduler.address
  15.                master:8030
  16.       
  17.       
  18.             yarn.resourcemanager.resource-tracker.address
  19.              master:8031
  20.       
  21.       
  22.               yarn.resourcemanager.admin.address
  23.                master:8033
  24.       
  25.       
  26.                yarn.resourcemanager.webapp.address
  27.                master:8088
  28.       


復(fù)制代碼

3、復(fù)制到其他節(jié)點(diǎn)
上面配置完畢,我們基本上完成了90%了剩下就是復(fù)制。我們可以把整個(gè)hadoop復(fù)制過去:使用如下命令:
  1. sudo scp -r /home/aboutyun/hadoop aboutyun@slave1:~/
復(fù)制代碼
4.配置環(huán)境變量
第一步:
  1. vi /etc/environment
復(fù)制代碼
第二步:添加如下內(nèi)容:記得如果你的路徑改變了,你也許需要做相應(yīng)的改變。


紅框中改為“/home/aboutyun/hadoop/bin:/home/aboutyun/hadoop/sbin:
5、啟動(dòng)驗(yàn)證

5.1 啟動(dòng)hadoop
格式化namenode:
  1. hdfs namenode –format
復(fù)制代碼
或則使用下面命令:
  1. hadoop namenode format
復(fù)制代碼

啟動(dòng)hdfs:
  1. start-dfs.sh
復(fù)制代碼

此時(shí)在master上面運(yùn)行的進(jìn)程有:
namenode
secondarynamenode

slave節(jié)點(diǎn)上面運(yùn)行的進(jìn)程有:datanode

啟動(dòng)yarn:
  1. start-yarn.sh
復(fù)制代碼
我們看到如下效果:
master有如下進(jìn)程:
 

slave1有如下進(jìn)程
 
此時(shí)hadoop集群已全部配置完成?。。?/div>
【注意】:而且所有的配置文件節(jié)點(diǎn)處不要有空格,否則會(huì)報(bào)錯(cuò)!
然后我們輸入:(這里有的同學(xué)沒有配置hosts,所以輸出master訪問不到,如果訪問不到輸入ip地址即可)
  1. http://master:8088/
復(fù)制代碼


本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服