`
liyonghui160com
  • 浏览: 758679 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

ZooKeeper伪分布式集群安装及简单使用 java api

阅读更多

 

ZooKeeper整体介绍

 

一:环境

centos

jdk1.6

zookeeper-3.4.3 下载

二:配置

将解压出来的zookeeper 复制三份,这里分别叫做 zookeeper-1,zookeeper-2和zookeeper-3。

1.  zookeeper-1 配置:

创建data目录:/home/java2000_wl/hadoop/zookeeper-1/data
创建log目录:/home/java2000_wl/hadoop/zookeeper-1/logs
创建myid文件:/home/java2000_wl/hadoop/zookeeper-1/data/myid
内容:
1

创建/home/java2000_wl/hadoop/zookeeper-1/conf/zoo.cfg文件

内容:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/java2000_wl/hadoop/zookeeper-1/data
clientPort=2181
dataLogDir=/home/java2000_wl/hadoop/zookeeper-1/logs

server.1=127.0.0.1:4000:5000 
server.2=127.0.0.1:4001:5001
server.3=127.0.0.1:4002:5002



2.zookeeper-2 配置:

创建data目录:/home/java2000_wl/hadoop/zookeeper-2/data
创建log目录:/home/java2000_wl/hadoop/zookeeper-2/logs
创建myid文件:/home/java2000_wl/hadoop/zookeeper-2/data/myid
内容:
2

创建/home/java2000_wl/hadoop/zookeeper-2/conf/zoo.cfg文件
内容:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/java2000_wl/hadoop/zookeeper-2/data
clientPort=2182
dataLogDir=/home/java2000_wl/hadoop/zookeeper-2/logs

server.1=127.0.0.1:4000:5000 
server.2=127.0.0.1:4001:5001 
server.3=127.0.0.1:4002:5002


3.zookeeper-3 配置:

创建data目录:/home/java2000_wl/hadoop/zookeeper-3/data
创建log目录:/home/java2000_wl/hadoop/zookeeper-3/logs
创建myid文件:/home/java2000_wl/hadoop/zookeeper-3/data/myid
内容:
3

创建/home/java2000_wl/hadoop/zookeeper-3/conf/zoo.cfg文件
内容:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/java2000_wl/hadoop/zookeeper-3/data
clientPort=2183
dataLogDir=/home/java2000_wl/hadoop/zookeeper-3/logs

server.1=127.0.0.1:4000:5000 
server.2=127.0.0.1:4001:5001 
server.3=127.0.0.1:4002:5002


三:启动服务

分别进入三个服务的bin目录 启动服务

bin/zkServer.sh start

出现如下:
JMX enabled by default
Using config: D:\cygwin64\home\zookeeper-3.4.5_1\conf\zoo.cfg
Starting zookeeper ... STARTED

 

通过jps命令可以查看ZooKeeper服务器进程,名称为QuorumPeerMain。

四:客户端连接

成功启动zookeeper服务之后,输入下述命令,连接到zookeeper服务

./zkCli.sh -server 127.0.0.1:2181


WATCHER::

WatchedEvent state:SyncConnected type:N
[zk: localhost:2181(CONNECTED) 0] ls /
ZooKeeper -server host:port cmd args
        connect host:port
        get path [watch]
        ls path [watch]
        set path data [version]
        rmr path
        delquota [-n|-b] path
        quit
        printwatches on|off
        create [-s] [-e] path data acl
        stat path [watch]
        close
        ls2 path [watch]
        history
        listquota path
        setAcl path acl
        getAcl path
        sync path
        redo cmdno
        addauth scheme auth
        delete path [version]
        setquota -n|-b val path
[zk: localhost:2181(CONNECTED) 1]

可以通过ZooKeeper的脚本来查看启动状态,包括集群中各个结点的角色(或是Leader,或是Follower),如下所示,是在ZooKeeper集群中的每个结点上查询的结果


bin/zkServer.sh status

五:参数说明

 

参数名

说明

clientPort 客户端连接server的端口,即对外服务端口,一般设置为2181吧。
dataDir 存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数dataLogDir, 事务日志的写性能直接影响zk性能。
tickTime ZK中的一个时间单元。ZK中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime。
dataLogDir 事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升ZK性能。
(No Java system property)
globalOutstandingLimit 最大请求堆积数。默认是1000。ZK运行的时候, 尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。
(Java system property:zookeeper.globalOutstandingLimit.)
preAllocSize 预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。如果ZK的快照频率较大的话,建议适当减小这个参数。(Java system property:zookeeper.preAllocSize)
snapCount 每 进行snapCount次事务日志输出后,触发一次快照(snapshot), 此时,ZK会生成一个snapshot.*文件,同时创建一个新的事务日志文件log.*。默认是100000.(真正的代码实现中,会进行一定的随机数 处理,以避免所有服务器在同一时间进行快照而影响性能)(Java system property:zookeeper.snapCount)
traceFile 用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(Java system property:?requestTraceFile)
maxClientCnxns 单 个客户端与单台服务器之间的连接数的限制,是ip级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端 机器与单台ZK服务器之间的连接数限制,不是针对指定客户端IP,也不是ZK集群的连接数限制,也不是单台ZK对所有客户端的连接数限制。指定客户端IP 的限制策略,这里有一个patch,可以尝试一下:http://rdc.taobao.com/team/jm/archives/1334(No Java system property)
clientPortAddress 对于多网卡的机器,可以为每个IP指定不同的监听端口。默认情况是所有IP都监听clientPort指定的端口。New in 3.3.0
minSessionTimeoutmaxSessionTimeout Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 * tickTime ~ 20 * tickTime这个范围 New in 3.3.0
fsync.warningthresholdms 事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。(Java system property:fsync.warningthresholdms)New in 3.3.4
autopurge.purgeInterval 在上文中已经提到,3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(No Java system property) New in 3.4.0
autopurge.snapRetainCount 这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(No Java system property) New in 3.4.0
electionAlg 在 之前的版本中, 这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“TCP-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(No Java system property)
initLimit Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许F在initLimit时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(No Java system property)
syncLimit 在 运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果L发出心跳包在syncLimit之 后,还没有从F那里收到响应,那么就认为这个F已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(No Java system property)
leaderServes 默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(Java system property: zookeeper.leaderServes)。
server.x=[hostname]:nnnnn[:nnnnn] 这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于F和L之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。
(No Java system property)
group.x=nnnnn[:nnnnn]weight.x=nnnnn 对机器分组和权重设置,可以 参见这里(No Java system property)
cnxTimeout Leader选举过程中,打开一次连接的超时时间,默认是5s。(Java system property: zookeeper.cnxTimeout)
zookeeper.DigestAuthenticationProvider
.superDigest
ZK权限设置相关,具体参见使用super身份对有权限的节点进行操作 和 ZooKeeper权限控制
skipACL 对所有客户端请求都不作ACL检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(Java system property:zookeeper.skipACL)
forceSync 这个参数确定了是否需要在事务日志提交的时候调用FileChannel.force来保证数据完全同步到磁盘。(Java system property:zookeeper.forceSync)
jute.maxbuffer 每个节点最大数据量,是默认是1M。这个限制必须在server和client端都进行设置才会生效。(Java system property:jute.maxbuffer)




六:常用的四字命令

参数名

说明

conf 输出server的详细配置信息。New in 3.3.0

 

$>echo conf|nc localhost 2181
clientPort=2181
dataDir=/home/test/taokeeper/zk_data/version-2
dataLogDir=/test/admin/taokeeper/zk_log/version-2
tickTime=2000
maxClientCnxns=1000
minSessionTimeout=4000
maxSessionTimeout=40000
serverId=2
initLimit=10
syncLimit=5
electionAlg=3
electionPort=3888
quorumPort=2888
peerType=0

cons 输出指定server上所有客户端连接的详细信息,包括客户端IP,会话ID等。
New in 3.3.0类似于这样的信息:

 

$>echo cons|nc localhost 2181
/1.2.3.4:43527[1](queued=0,recved=152802,sent=152806,sid=0x2389e662b98c424,lop=PING,
est=1350385542196,to=6000,lcxid=0×114,lzxid=0xffffffffffffffff,lresp=1350690663308,
llat=0,minlat=0,avglat=0,maxlat=483)
……

crst 功能性命令。重置所有连接的统计信息。New in 3.3.0
dump 这个命令针对Leader执行,用于输出所有等待队列中的会话和临时节点的信息。
envi 用于输出server的环境变量。包括操作系统环境和Java环境。
ruok 用于测试server是否处于无错状态。如果正常,则返回“imok”,否则没有任何响应。
注意:ruok不是一个特别有用的命令,它不能反映一个server是否处于正常工作。“stat”命令更靠谱。
stat 输出server简要状态和连接的客户端信息。
srvr 和stat类似,New in 3.3.0

 

$>echo stat|nc localhost 2181
Zookeeper version: 3.3.5-1301095, built on 03/15/2012 19:48 GMT
Clients:
/10.2.3.4:59179[1](queued=0,recved=44845,sent=44845)

Latency min/avg/max: 0/0/1036
Received: 2274602238
Sent: 2277795620
Outstanding: 0
Zxid: 0xa1b3503dd
Mode: leader
Node count: 37473

$>echo srvr|nc localhost 2181
Zookeeper version: 3.3.5-1301095, built on 03/15/2012 19:48 GMT
Latency min/avg/max: 0/0/980
Received: 2592698547
Sent: 2597713974
Outstanding: 0
Zxid: 0xa1b356b5b
Mode: follower
Node count: 37473

srst 重置server的统计信息。
wchs 列出所有watcher信息概要信息,数量等:New in 3.3.0

 

$>echo wchs|nc localhost 2181
3890 connections watching 537 paths
Total watches:6909

wchc 列出所有watcher信息,以watcher的session为归组单元排列,列出该会话订阅了哪些path:New in 3.3.0

 

$>echo wchc|nc localhost 2181
0x2389e662b97917f
/mytest/test/path1/node1
0x3389e65c83cd790
/mytest/test/path1/node2
0x1389e65c7ef6313
/mytest/test/path1/node3
/mytest/test/path1/node1

wchp 列出所有watcher信息,以watcher的path为归组单元排列,列出该path被哪些会话订阅着:New in 3.3.0

 

$>echo wchp|nc localhost 2181
/mytest/test/path1/node
0x1389e65c7eea4f5
0x1389e65c7ee2f68
/mytest/test/path1/node2
0x2389e662b967c29
/mytest/test/path1/node3
0x3389e65c83dd2e0
0x1389e65c7f0c37c
0x1389e65c7f0c364

注意,wchc和wchp这两个命令执行的输出结果都是针对session的,对于运维人员来说可视化效果并不理想,可以尝试将cons命令执行输出的信息整合起来,就可以用客户端IP来代替会话ID了,具体可以看这个实现:http://rdc.taobao.com/team/jm/archives/1450

mntr 输出一些ZK运行时信息,通过对这些返回结果的解析,可以达到监控的效果。New in 3.4.0

 

$ echo mntr | nc localhost 2185
zk_version 3.4.0
zk_avg_latency 0
zk_max_latency 0
zk_min_latency 0
zk_packets_received 70
zk_packets_sent 69
zk_outstanding_requests 0
zk_server_state leader
zk_znode_count 4
zk_watch_count 0
zk_ephemerals_count 0
zk_approximate_data_size 27
zk_followers 4 – only exposed by the Leader
zk_synced_followers 4 – only exposed by the Leader
zk_pending_syncs 0 – only exposed by the Leader
zk_open_file_descriptor_count 23 – only available on Unix platforms
zk_max_file_descriptor_count 1024 – only available on Unix platforms


七:客户端简单操作

1.  连接到zookeeper服务

    [java2000_wl@localhost zookeeper-3]$ bin/zkCli.sh -server 127.0.0.1:2181

2.  使用ls命令查看当前zookeeper中包含的内容

    [zk: 127.0.0.1:2181(CONNECTED) 1] ls /

    [zookeeper]


3.  创建新的znode,使用create命令

    [zk:127.0.0.1:2181(CONNECTED) 2] create /zk testData

    Created /zk


4.  获取节点中的值  get命令

    [zk:127.0.0.1:2181(CONNECTED) 4] get /zk

    testData

    cZxid = 0x700000008

    ctime = Sat Mar 0923:01:24 CST 2013

    mZxid = 0x700000008

    mtime = Sat Mar 0923:01:24 CST 2013

    pZxid = 0x700000008

    cversion = 0

    dataVersion = 0

    aclVersion = 0

    ephemeralOwner = 0x0

    dataLength = 8

    numChildren = 0


5.  使用set命令来对znode关联的字符串进行设置

    [zk: 127.0.0.1:2181(CONNECTED) 5] set /zk mydata

    cZxid = 0x700000008

    ctime = Sat Mar 09 23:01:24 CST 2013

    mZxid = 0x700000009

    mtime = Sat Mar 09 23:06:03 CST 2013

    pZxid = 0x700000008

    cversion = 0

    dataVersion = 1

    aclVersion = 0

    ephemeralOwner = 0x0

    dataLength = 6

    numChildren = 0


6.  删除znode节点

    [zk: 127.0.0.1:2181(CONNECTED) 7]delete /zk

javaapi


znode创建类型(CreateMode):

    PERSISTENT               持久化节点
      
    PERSISTENT_SEQUENTIAL     顺序自动编号持久化节点,这种节点会根据当前已存在的节点数自动加 1
      
    EPHEMERAL    临时节点, 客户端session超时这类节点就会被自动删除
     

    EPHEMERAL_SEQUENTIAL   临时自动编号节点


八 :开发(Zookeeper API操作)
  

 

    /* 
     * ZookeeperTest.java 
     */  
    package com.x.zookeeper;  
      
    import java.io.IOException;  
    import java.util.List;  
      
    import org.apache.zookeeper.CreateMode;  
    import org.apache.zookeeper.WatchedEvent;  
    import org.apache.zookeeper.Watcher;  
    import org.apache.zookeeper.ZooKeeper;  
    import org.apache.zookeeper.ZooDefs.Ids;  
    import org.apache.zookeeper.data.Stat;  
    import org.junit.After;  
    import org.junit.Assert;  
    import org.junit.Before;  
    import org.junit.Test;  
    import org.slf4j.Logger;  
    import org.slf4j.LoggerFactory;  
      
    /** 
     *  
     * @author http://blog.csdn.net/java2000_wl 
     * @version <b>1.0</b> 
     */  
    public class ZookeeperTest {  
          
        private static final int SESSION_TIMEOUT = 30000;  
          
        public static final Logger LOGGER = LoggerFactory.getLogger(ZookeeperTest.class);  
          
        private Watcher watcher =  new Watcher() {  
      
            public void process(WatchedEvent event) {  
                LOGGER.info("process : " + event.getType());  
            }  
        };  
          
        private ZooKeeper zooKeeper;  
          
        /** 
         *  连接zookeeper 
         * <br>------------------------------<br> 
         * @throws IOException 
         */  
        @Before  
        public void connect() throws IOException {  
            zooKeeper  = new ZooKeeper("localhost:2181,localhost:2182,localhost:2183", SESSION_TIMEOUT, watcher);  
        }  
          
        /** 
         *  关闭连接 
         * <br>------------------------------<br> 
         */  
        @After  
        public void close() {  
            try {  
                zooKeeper.close();  
            } catch (InterruptedException e) {  
                e.printStackTrace();  
            }  
        }  
      
        /** 
         * 创建一个znode  
         *  1.CreateMode 取值   
         *  PERSISTENT:持久化,这个目录节点存储的数据不会丢失 
         *  PERSISTENT_SEQUENTIAL:顺序自动编号的目录节点,这种目录节点会根据当前已近存在的节点数自动加 1,然后返回给客户端已经成功创建的目录节点名; 
         *  EPHEMERAL:临时目录节点,一旦创建这个节点的客户端与服务器端口也就是 session过期超时,这种节点会被自动删除 
         *  EPHEMERAL_SEQUENTIAL:临时自动编号节点 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testCreate() {  
            String result = null;  
             try {  
                 result = zooKeeper.create("/zk001", "zk001data".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
             LOGGER.info("create result : {}", result);  
         }  
          
        /** 
         * 删除节点  忽略版本 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testDelete() {  
             try {  
                zooKeeper.delete("/zk001", -1);  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
        }  
          
        /** 
         *   获取数据 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testGetData() {  
            String result = null;  
             try {  
                 byte[] bytes = zooKeeper.getData("/zk001", null, null);  
                 result = new String(bytes);  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
             LOGGER.info("getdata result : {}", result);  
        }  
          
        /** 
         *   获取数据  设置watch 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testGetDataWatch() {  
            String result = null;  
             try {  
                 byte[] bytes = zooKeeper.getData("/zk001", new Watcher() {  
                    public void process(WatchedEvent event) {  
                        LOGGER.info("testGetDataWatch  watch : {}", event.getType());  
                    }  
                 }, null);  
                 result = new String(bytes);  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
             LOGGER.info("getdata result : {}", result);  
               
             // 触发wacth  NodeDataChanged  
             try {  
                 zooKeeper.setData("/zk001", "testSetData".getBytes(), -1);  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
        }  
          
        /** 
         *    判断节点是否存在 
         *    设置是否监控这个目录节点,这里的 watcher 是在创建 ZooKeeper实例时指定的 watcher 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testExists() {  
            Stat stat = null;  
             try {  
                 stat = zooKeeper.exists("/zk001", false);  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
             Assert.assertNotNull(stat);  
             LOGGER.info("exists result : {}", stat.getCzxid());  
        }  
          
        /** 
         *     设置对应znode下的数据  ,  -1表示匹配所有版本 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testSetData() {  
            Stat stat = null;  
             try {  
                 stat = zooKeeper.setData("/zk001", "testSetData".getBytes(), -1);  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
             Assert.assertNotNull(stat);  
             LOGGER.info("exists result : {}", stat.getVersion());    
        }  
          
        /** 
         *    判断节点是否存在,  
         *    设置是否监控这个目录节点,这里的 watcher 是在创建 ZooKeeper实例时指定的 watcher 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testExistsWatch1() {  
            Stat stat = null;  
             try {  
                 stat = zooKeeper.exists("/zk001", true);  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
             Assert.assertNotNull(stat);  
               
             try {  
                zooKeeper.delete("/zk001", -1);  
            } catch (Exception e) {  
                e.printStackTrace();  
            }  
        }  
          
        /** 
         *    判断节点是否存在,  
         *    设置监控这个目录节点的 Watcher 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testExistsWatch2() {  
            Stat stat = null;  
             try {  
                 stat = zooKeeper.exists("/zk002", new Watcher() {  
                    @Override  
                    public void process(WatchedEvent event) {  
                        LOGGER.info("testExistsWatch2  watch : {}", event.getType());  
                    }  
                 });  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
             Assert.assertNotNull(stat);  
               
             // 触发watch 中的process方法   NodeDataChanged  
             try {  
                zooKeeper.setData("/zk002", "testExistsWatch2".getBytes(), -1);  
            } catch (Exception e) {  
                e.printStackTrace();  
            }  
               
             // 不会触发watch 只会触发一次  
             try {  
                zooKeeper.delete("/zk002", -1);  
            } catch (Exception e) {  
                e.printStackTrace();  
            }  
        }  
          
        /** 
         *  获取指定节点下的子节点 
         * <br>------------------------------<br> 
         */  
        @Test  
        public void testGetChild() {  
             try {  
                 zooKeeper.create("/zk/001", "001".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);  
                 zooKeeper.create("/zk/002", "002".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);  
                   
                 List<String> list = zooKeeper.getChildren("/zk", true);  
                for (String node : list) {  
                    LOGGER.info("node {}", node);  
                }  
            } catch (Exception e) {  
                 LOGGER.error(e.getMessage());  
                 Assert.fail();  
            }  
        }  
    }  

 

分享到:
评论

相关推荐

    ZooKeeper-分布式过程协同技术详解

    第7章介绍C语言版的API接口,也可以作为非Java语言实现的ZooKeeperAPI的基础,对非Java语言的开发人员非常有帮助。第8章介绍一款更高层级的封装的ZooKeeper接口。第三部分(第9~10章)主要介绍ZooKeeper内部原理及...

    Hadoop+Hive+Spark+Kafka+Zookeeper+Flume+Sqoop+Azkaban+Scala

    Java API 的使用 基于 Zookeeper 搭建 Hadoop 高可用集群 二、Hive 简介及核心概念 Linux 环境下 Hive 的安装部署 CLI 和 Beeline 命令行的基本使用 常用 DDL 操作 分区表和分桶表 视图和索引 常用 DML 操作 数据...

    java版商城源码下载-yifeng-shop:一丰商城(SpringBoot+Dubbo+Zookeeper的分布式微服务架构解决方案项目)

    ,并使用Zookeeper分布式协调技术来实现分布式锁来解决服务中的单点故障问题 目前暂时只完成项目基本架构。 目前已完成的功能有 Dubbo的远程方法调用/智能容错/负载均衡/服务自动注册和发现/高速序列化/服务熔断/熔...

    Java思维导图xmind文件+导出图片

    MongoDB可视化客户端及JavaApi实践 手写基于MongoDB的ORM框架 MongoDB企业级集解决方案 MongoDB聚合、索引及基本执行命令 MongoDB数据分片、转存及恢复策略 MyCat MySQL主从复制及读写分离实战 MySQL+...

    Hbase+Spring boot实战分布式文件存储

    2-1 HBase简介及其在大数据生态圈的位置 2-2 HBase数据存储模型及与关系型数据库的区别 2-3 Hadoop伪分布式集群安装 2-4 HBase伪分布式集群安装 2-5 HBase基础架构 2-6 HBase阶段小结 第3章 HBase原理与实战 介绍...

    大数据学习路线 大数据技术栈思维导图 大数据常用软件安装指南

    HDFS Java API 的使用 基于 Zookeeper 搭建 Hadoop 高可用集群 Hive Hive 简介及核心概念 Linux 环境下 Hive 的安装部署 Hive CLI 和 Beeline 命令行的基本使用 Hive 常用 DDL 操作 Hive 分区表和分桶表 Hive 视图...

    dubbo+zk 分发全套教程 附两套实战项目(40G)

    --第05章选举模式和ZooKeeper的集群安装---第06章使用ZooKeeper原生JavaAPI进行客户端开发---第07章ApacheCurator客户端的使用---第08章Dubbo入门到重构服务---第09章分布式锁---第10章课程总结---project.zip---zk_...

    分布式专题-04分布式协调服务之Zookeeper实践及与原理分析

    目录导航前言数据存储基于Java API初探zookeeper的使用事件机制如何注册事件机制watcher 事件类型什么样的操作会产生什么类型的事件呢?事务的实现原理深入分析Watcher机制的实现原理ClientCnxn 初始化客户端通过 ...

    新版Hadoop视频教程 段海涛老师Hadoop八天完全攻克Hadoop视频教程 Hadoop开发

    第五天 hadoop2.x中HA机制的原理和全分布式集群安装部署及维护 01-zookeeper.avi 02-zookeeper2.avi 03-NN高可用方案的要点1.avi 04-hadoop-HA机制的配置文件.avi 05-hadoop分布式集群HA模式部署.avi 06-hdfs...

    非常好的大数据入门目资源,分享出来.zip

    HDFS Java API 的使用 基于 Zookeeper 搭建 Hadoop 高可用集群 二、Hive Hive 简介及核心概念 Linux 环境下 Hive 的安装部署 Hive CLI 和 Beeline 命令行的基本使用 Hive 常用 DDL 操作 Hive 分区表和分桶表 Hive ...

    jcm:JCM是分布式名称服务(集群地图管理器)

    JCM是基于ZooKeeper的分布式名称服务实现。 特征 管理超过十万个节点(ip) 将集群名称映射到node(ip)列表 每个节点上的运行状况检查 持久存储群集列表进入Zookeeper 完全分布,读写每个JCM服务器 基于JSON的...

    java8stream源码-dempsy-commons:用于分布式处理的实用程序

    java8流源码Dempsy 通用 API 该项目包含一组作为项目一部分生成的 API 和有用的实用程序。 我目前正在专业地使用它们,并认为将它们分开并使它们普遍可用是有意义的。 内容 - 编写集群数据管理代码的工具。 关于 ...

    Zookeeper学习资源和笔记(附代码)

    适合初学入门,知识巩固。涵盖安装配置、命令操作、Java API操作、事件监听、分布式锁、集群搭建等知识

    大型分布式网站架构与实践

     分布式缓存memcache的使用及分布式策略,包括Hash算法的选择。  常见的分布式系统存储解决方案,包括MySQL的分布式扩展、HBase的API及使用场景、Redis的使用等。  如何使用分布式消息系统ActiveMQ来降低系统之间...

    Hadoop之高可用HA

    1.深入理解zookeeper的使用场景及概念 2.熟练使用zookeeper的java api 3.理解监听集群主机上下线案例代码

    Java微服务架构163课

    全套微服务架构,视频学习java微服务架构,包括如下 第1章 微服务简介 001构建单体应用 002微服务解决复杂问题 003微服务的优点 004微服务的缺点 第2章 Linux使用 005Linux 简介 006Linux 与 Windows ...

    Java微服务架构l零从基础到精通高清视频教程全套 163课

    Java微服务架构l零从基础到精通高清视频教程全套 第1章 微服务简介 001构建单体应用 002微服务解决复杂问题 003微服务的优点 004微服务的缺点 第2章 Linux使用 005Linux 简介 006Linux 与 Windows 比较 007...

    Hadoop权威指南 第二版(中文版)

     本书是Hadoop权威参考,程序员可从中探索如何分析海量数据集,管理员可以从中了解如何安装与运行Hadoop集群。 目录 第1章 初识Hadoop  数据!数据!  数据存储与分析  与其他系统相比  关系型数据库管理系统...

    word源码java-learn_java:学习测试模块

    分布式集群下实现session共享 通过继承HttpServletSession和redis缓存session方式共享Session word   office文件相关操作 目前支持对xls/xlsx/docx/txt添加水印。 dubbo[api consumer provide] springboot+dubbo+...

Global site tag (gtag.js) - Google Analytics