mysileng
posts - 200, comments - 8, trackbacks - 0, articles - 0
導航
C++博客
首頁
新隨筆
聯系
聚合
管理
<
2013年5月
>
日
一
二
三
四
五
六
28
29
30
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
6
7
8
常用鏈接
我的隨筆
我的評論
我參與的隨筆
留言簿
給我留言
查看公開留言
查看私人留言
隨筆分類
C(4)
c++(9)
Hadoop(12)
HBASE(2)
hibernate(1)
Java(4)
JULY_程序員編程藝術(17)
LIBEVENT(13)
linux編程(28)
linux多線程專題(8)
linux基礎(15)
linux進程通信專題(9)
linux內核(13)
Myeclipse(3)
redis(6)
STL(5)
本人分析研究(3)
分布式(3)
海量數據處理(10)
前臺(1)
設計模式(2)
數據結構與算法(14)
數據挖掘(1)
學習方法與路線(2)
楊強linux視頻筆記系列(13)
隨筆檔案
2015年1月 (1)
2014年9月 (5)
2014年8月 (2)
2014年7月 (1)
2014年4月 (2)
2013年10月 (1)
2013年9月 (1)
2013年6月 (10)
2013年5月 (15)
2013年4月 (13)
2013年3月 (5)
2013年2月 (12)
2013年1月 (23)
2012年12月 (49)
2012年11月 (28)
2012年10月 (10)
2012年9月 (8)
2012年8月 (4)
2012年7月 (2)
2012年1月 (2)
2011年12月 (1)
2011年11月 (1)
2011年9月 (1)
2011年5月 (2)
2011年3月 (1)
搜索
最新評論
1.?re: select函數與stdio混用的不良后果 (原)
贊!
--2b程序員
2.?re: 最長上升子序列 O(nlogn)解法 (轉)
寫的不錯 謝謝
--無憂
3.?re: 進程并發服務器中,sigchld信號引發的血案?(原)
評論內容較長,點擊標題查看
--anonymous
4.?re: 翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)[未登錄]
不錯,學習了
--zz
5.?re: 最小堆&&最大堆的實現(c++)(轉)[未登錄]
錯誤也太多了吧。
--ccc
閱讀排行榜
1.?最長上升子序列 O(nlogn)解法 (轉)(14925)
2.?libevent: evbuffer緩沖 (轉)(14059)
3.?Skip List(跳躍表)原理詳解與實現(13450)
4.?翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)(10004)
5.?__builtin_expect 解惑(7714)
評論排行榜
1.?慢系統調用與信號中斷(轉)(2)
2.?select函數與stdio混用的不良后果 (原)(1)
3.?翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)(1)
4.?HADOOP_CLASSPATH設置(轉)(1)
5.?最小堆&&最大堆的實現(c++)(轉)(1)
HBASE安裝和簡單測試
Posted on 2013-04-15 20:45
鑫龍
閱讀(323)
評論(0)
編輯
收藏
引用
所屬分類:
HBASE
轉自:
http://blog.chinaunix.net/uid-451-id-3156060.html
1. 修改HDFSS設置
vi conf/hdfs-site.xml
增加下面的設置,HBASE需要訪問大量的文件
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
2. 設置NTP同步
rpm -qa |grep ntp
master用缺省配置
slaves:
vi /etc/ntp.conf
server 192.168.110.127
把缺省配置的server都去掉,改為master的地址
chkconfig ntpd on
service ntpd restart
另外:最好使用同一時區
ln -sf /usr/share/zoneinfo/posix/Asia/Shanghai /etc/localtime
3. 修改nofile和nproc設置
HBase需要使用很多文件,每次flush都是寫一個新文件,缺省1024遠遠不夠
vi /etc/security/limits.conf
hadoop - nofile 32768
hadoop - nproc 32768
重新登錄hadoop,驗證一下
ulimit -a
4.下載和安裝
到http://hbase.apache.org去下載最新的穩定版本
tar zxf hbase-0.92.1.tar.gz
5. 設置環境變量
export HBASE_HOME=$HOME/hbase-0.92.1
export HBASE_CONF_DIR=$HOME/hbase-conf
同時設置添加到PATH和CLASSPATH
6. 配置
cp -r $HBASE_HOME/conf $HOME/hbase-conf
vi hbase-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0.x86_64/jre
export HBASE_HEAPSIZE=300
export HBASE_OPTS="-XX:+UseConcMarkSweepGC"
export HBASE_LOG_DIR=${HBASE_HOME}/logs
export HBASE_MANAGES_ZK=true
vi hdfs-site.xml
添加下面的配置,開啟durable sync特性,Hadoop 0.20.205以上的版本有的功能
開啟這個功能十分重要,否則HBASE會丟失數據。(本人猜測,這是些Hlog的需要,需要隨時appdend redo log,而HDFS一般只能建新文件)
<configuration>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
</configuration>
在Hadoop -.20.205的elease notes上有這么一句:
* This release includes a merge of append/hsynch/hflush capabilities from 0.20-append branch, to support HBase in secure mode.
7. 設置Fully-distributed模式
vi hdfs-site.xml
設置hbase.rootdir和hbase.cluster.distributed=true
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
8. 設置RegionServers
cat regionservers
slave1
slave2
9. 配置ZooKeepers
vi hbase-env.sh
export HBASE_MANAGES_ZK=true
vi hdfs-site.xml
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2222</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/zookeeper</value>
</property>
10. 復制安裝配置到其他節點
scp -r conf slave1:
scp -r conf slave2:
scp -r hbase-conf slave1:
scp -r hbase-conf slave2:
scp -r hbase-0.92.1 slave1:
scp -r hbase-0.92.1 slave2:
scp -r .bash_profile slave1:
scp -r .bash_profile slave2:
11. 重新登錄,重啟hadoop
stop-all.sh
start-all.sh
jps
12. 啟動HBASE
start-hbase.sh
驗證,
用jps命令查看java進程
Master上有
11420 HMaster
ZoomKeeper上有
575 HQuorumPeer
RegionServer上有
686 HRegionServer
13 簡單測試
hbase shell
hbase(main):006:0> create 'test','data'
0 row(s) in 1.1190 seconds
hbase(main):007:0> list
TABLE
test
1 row(s) in 0.0270 seconds
hbase(main):009:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.1220 seconds
hbase(main):010:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.0120 seconds
hbase(main):011:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.0120 seconds
hbase(main):015:0* put 'test','2','data:2','yyy'
0 row(s) in 0.0080 seconds
hbase(main):016:0> put 'test','3','data:3','zzz'
0 row(s) in 0.0070 seconds
hbase(main):017:0>
hbase(main):018:0*
hbase(main):019:0* scan 'test'
ROW COLUMN+CELL
1 column=data:1, timestamp=1333160616029, value=xxxx
2 column=data:2, timestamp=1333160650780, value=yyy
3 column=data:3, timestamp=1333160664490, value=zzz
3 row(s) in 0.0260 seconds
hbase(main):020:0>
14. 查看了HDFS上建立的文件
./hadoop dfs -lsr /hbase
Warning: $HADOOP_HOME is deprecated.
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-
-rw-r--r-- 2 hadoop supergroup 551 2012-03-31 10:07 /hbase/-ROOT-/.tableinfo.0000000001
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/.tmp
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052/.oldlogs
-rw-r--r-- 2 hadoop supergroup 411 2012-03-31 10:07 /hbase/-ROOT-/70236052/.oldlogs/hlog.1333159627476
-rw-r--r-- 2 hadoop supergroup 109 2012-03-31 10:07 /hbase/-ROOT-/70236052/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052/info
-rw-r--r-- 2 hadoop supergroup 714 2012-03-31 10:07 /hbase/-ROOT-/70236052/info/bd225e173164476f88111f622f5a7839
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META.
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192/.oldlogs
-rw-r--r-- 2 hadoop supergroup 124 2012-03-31 10:07 /hbase/.META./1028785192/.oldlogs/hlog.1333159627741
-rw-r--r-- 2 hadoop supergroup 111 2012-03-31 10:07 /hbase/.META./1028785192/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192/info
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316
-rw-r--r-- 3 hadoop supergroup 293 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316/slave1%2C60020%2C1333159627316.1333159637444
-rw-r--r-- 3 hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316/slave1%2C60020%2C1333159627316.1333159637904
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave2,60020,1333159627438
-rw-r--r-- 3 hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave2,60020,1333159627438/slave2%2C60020%2C1333159627438.1333159638583
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:18 /hbase/.oldlogs
-rw-r--r-- 2 hadoop supergroup 38 2012-03-31 10:07 /hbase/hbase.id
-rw-r--r-- 2 hadoop supergroup 3 2012-03-31 10:07 /hbase/hbase.version
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test
-rw-r--r-- 2 hadoop supergroup 513 2012-03-31 10:22 /hbase/test/.tableinfo.0000000001
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/.tmp
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.oldlogs
-rw-r--r-- 2 hadoop supergroup 124 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.oldlogs/hlog.1333160541983
-rw-r--r-- 2 hadoop supergroup 219 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/data
Error
==========================================
slave1: java.io.IOException: Could not find my address: db1 in list of ZooKeeper quorum servers
slave1: at org.apache.hadoop.hbase.zookeeper.HQuorumPeer.writeMyID(HQuorumPeer.java:133)
slave1: at org.apache.hadoop.hbase.zookeeper.HQuorumPeer.main(HQuorumPeer.java:60)
Reason:hostname是db1,但是我配置的名字是slave1,但是是同一個IP.HBase會用hostname取得的主機名來方向方向解析DNS
Solution:
修改hostname為slave1重新啟動server
只有注冊用戶
登錄
后才能發表評論。
【推薦】100%開源!大型工業跨平臺軟件C++源碼提供,建模,組態!
相關文章:
HBase簡介(很好的梳理資料)
HBASE安裝和簡單測試
網站導航:
博客園
IT新聞
BlogJava
博問
Chat2DB
管理
Powered by:
C++博客
Copyright © 鑫龍
无夜精品久久久久久
|
亚洲午夜久久久久久久久久
|
青青国产成人久久91网
|
狠狠狠色丁香婷婷综合久久五月
|
久久超乳爆乳中文字幕
|
精品久久综合1区2区3区激情
|
欧美国产成人久久精品
|
久久中文娱乐网
|
亚洲成色WWW久久网站
|
四虎国产精品成人免费久久
|
国产成人精品久久一区二区三区
|
亚洲?V乱码久久精品蜜桃
|
久久亚洲精品国产亚洲老地址
|
精品久久久久香蕉网
|
久久婷婷是五月综合色狠狠
|
久久99精品九九九久久婷婷
|
久久精品亚洲中文字幕无码麻豆
|
激情综合色综合久久综合
|
久久精品国产亚洲AV麻豆网站
|
亚洲国产成人精品女人久久久
|
青青青青久久精品国产h
|
久久精品国产亚洲av影院
|
国产精品久久久久久久久软件
|
久久亚洲电影
|
久久99精品久久久久久9蜜桃
|
亚洲欧美日韩久久精品
|
久久久久国产一区二区三区
|
国产成人久久精品二区三区
|
亚洲国产成人久久精品影视
|
久久线看观看精品香蕉国产
|
久久精品aⅴ无码中文字字幕不卡
|
人人狠狠综合久久亚洲高清
|
久久99精品久久久久久野外
|
国产精品九九久久免费视频
|
蜜臀久久99精品久久久久久小说
|
久久国产精品无
|
国产亚洲美女精品久久久2020
|
青青草原综合久久大伊人
|
久久久久亚洲AV成人网人人网站
|
91精品免费久久久久久久久
|
99久久精品免费
|