OS:LINUX ubuntu server 9.10

1.安裝JDK,並移除gci

apt-get purge java-gci-compat

apt-get -y install sun-java6-bin sun-java6-jdk sun-java6-jre

2.下載Hadoop套件,解壓縮到/opt目錄

cd /opt

wget http://ftp.twaren.net/Unix/Web/apache/hadoop/core/hadoop-0.18.3/hadoop-0.18.3.tar.gz

tar zxvf hadoop-0.18.3.tar.gz

mv  hadoop-0.18.3/ hadoop

chown -R 使用者帳號:hadooper hadoop

記得要先設hadooper這個群組 可用 vi /etc/group 新增這個group

3.修改設定檔 hadoop-env.sh hadoop-site.xml

cd /opt/hadoop

vi hadoop-env.sh 編輯此檔並在最後加入

export JAVA_HOME=/usr/lib/jvm/java-6-sun

export HADOOP_HOME=/opt/hadoop

export HADOOP_CONF_DIR=/opt/hadoop/conf

vi hadoop-site.xml 編輯此檔

<configuration>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
    <description> default file system for NDFS </description>
  </property>
  <property>
    <name>mapred.job.tracker</name>
    <value>localhost:9001</value>
    <description>The host:port that job tracker runs at.</description>
  </property>
</configuration>
localhost:9000 為namenode localhost:9001 為jobtracker
4.格式化HDFS
bin/hadoop namenode -format
可以看到namenode的資訊
host可以在 /etc/hosts裡修改
5.啟動
bin/start-all.sh
如可看到以下三個頁面則成功執行
http://localhost:50030 管理介面
http://localhost:50060 tasktracker狀態
http://localhost:50060 HDFS狀態
arrow
arrow
    全站熱搜

    caramels 發表在 痞客邦 留言(0) 人氣()