文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

Java Zookeeper分布式分片算法源码分析

2023-07-05 07:57

关注

这篇文章主要介绍了Java Zookeeper分布式分片算法源码分析的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Java Zookeeper分布式分片算法源码分析文章都会有所收获,下面我们一起来看看吧。

背景

公司的一个服务需要做类似于分片的逻辑,一开始服务基于传统部署方式通过本地配置文件配置的方式就可以指定该机器服务的分片内容如:0,1,2,3,随着系统的升级迭代,该服务进行了容器化部署,所以原来基于本地配置文件各自配置分片数据的方式就不适用了,原来的部署方式使得服务是有状态,是一种非云原生的方式,所以该服务要重新设计实现一套分布式服务分片逻辑。

技术方案

分布式协调中间件

要实现分布式服务分片的能力,需要有一个分布式中间件,如:RedisMysqlZookeeper等等都可以,我们选用Zookeeper

基于Zookeeper的技术方案

使用Zookeeper主要是基于Zookeeper的临时节点和节点变化监听机制,具体的技术设计如下:

服务注册目录设计

Zookeeper的数据存储结构类似于目录,服务注册后的目录类似如下结构:

解释下该目录结构,首先/xxxx/xxxx/sharding是区别于其他业务的的目录,该目录节点是持久的,service是服务目录,标识一个服务,该节点也是持久的,ip1ip2是该服务注册到Zookeeper的机器列表节点,该节点是临时节点。

/xxxx/xxxx/sharding/service/ip1
-----|----|--------|-------/ip2

服务分片处理流程
编码实现

ZookeeperConfig

Zookeeper的配置信息

@Datapublic class ZookeeperConfig {        private String zkAddress;        private String nodePath;        private String serviceName;        private Integer shardingCount;    public ZookeeperConfig(String zkAddress, String nodePath, String serviceName, Integer shardingCount) {        this.zkAddress = zkAddress;        this.nodePath = nodePath;        this.serviceName = "/" + serviceName;        this.shardingCount = shardingCount;    }        private int baseSleepTimeMilliseconds = 1000;        private int maxSleepTimeMilliseconds = 3000;        private int maxRetries = 3;        private int sessionTimeoutMilliseconds;        private int connectionTimeoutMilliseconds;}

InstanceInfo注册机器

@AllArgsConstructor@EqualsAndHashCode()public class InstanceInfo {    private String ip;    public String getInstance() {        return ip;    }}

ZookeeperShardingService分片服务

@Slf4jpublic class ZookeeperShardingService {    public final Map<String, List<Integer>> caches = new HashMap<>(16);    private final CuratorFramework client;    private final ZookeeperConfig zkConfig;    private final ShardingStrategy shardingStrategy;    private final InstanceInfo instanceInfo;    private static final CountDownLatch COUNT_DOWN_LATCH = new CountDownLatch(1);    public ZookeeperShardingService(ZookeeperConfig zkConfig, ShardingStrategy shardingStrategy) {        this.zkConfig = zkConfig;        log.info("开始初始化zk, ip列表是: {}.", zkConfig.getZkAddress());        CuratorFrameworkFactory.Builder builder = CuratorFrameworkFactory.builder()                .connectString(zkConfig.getZkAddress())                .retryPolicy(new ExponentialBackoffRetry(zkConfig.getBaseSleepTimeMilliseconds(), zkConfig.getMaxRetries(), zkConfig.getMaxSleepTimeMilliseconds()));        if (0 != zkConfig.getSessionTimeoutMilliseconds()) {            builder.sessionTimeoutMs(zkConfig.getSessionTimeoutMilliseconds());        }        if (0 != zkConfig.getConnectionTimeoutMilliseconds()) {            builder.connectionTimeoutMs(zkConfig.getConnectionTimeoutMilliseconds());        }        this.shardingStrategy = shardingStrategy;        HostInfo host = new HostInfo();        this.instanceInfo = new InstanceInfo(host.getAddress());        client = builder.build();        client.getConnectionStateListenable().addListener(new ConnectionListener());        client.start();        try {            COUNT_DOWN_LATCH.await();        } catch (InterruptedException e) {            e.printStackTrace();        }        // 注册服务节点监听        registerPathChildListener(zkConfig.getNodePath() + zkConfig.getServiceName(), new ChildrenPathListener());        try {            if (!client.blockUntilConnected(zkConfig.getMaxSleepTimeMilliseconds() * zkConfig.getMaxRetries(), TimeUnit.MILLISECONDS)) {                client.close();                throw new KeeperException.OperationTimeoutException();            }        } catch (final Exception ex) {            ex.printStackTrace();            throw new RuntimeException(ex);        }    }        private void registerPathChildListener(String nodePath, PathChildrenCacheListener listener) {        try {            // 1. 创建一个PathChildrenCache            PathChildrenCache pathChildrenCache = new PathChildrenCache(client, nodePath, true);            // 2. 添加目录监听器            pathChildrenCache.getListenable().addListener(listener);            // 3. 启动监听器            pathChildrenCache.start(PathChildrenCache.StartMode.BUILD_INITIAL_CACHE);        } catch (Exception e) {            log.error("注册子目录监听器出现异常,nodePath:{}",nodePath,e);            throw new RuntimeException(e);        }    }        private void zkOp() throws Exception {        // 是否存在ruubypay-sharding主节点        if (null == client.checkExists().forPath(zkConfig.getNodePath())) {            client.create().creatingParentsIfNeeded().withMode(CreateMode.PERSISTENT).forPath(zkConfig.getNodePath(), Hashing.sha1().hashString("sharding", Charsets.UTF_8).toString().getBytes());        }        // 是否存服务主节点        if (null == client.checkExists().forPath(zkConfig.getNodePath() + zkConfig.getServiceName())) {            // 创建服务主节点            client.create().creatingParentsIfNeeded().withMode(CreateMode.PERSISTENT).forPath(zkConfig.getNodePath() + zkConfig.getServiceName());        }        // 检查是否存在临时节点        if (null == client.checkExists().forPath(zkConfig.getNodePath() + zkConfig.getServiceName() + "/" + instanceInfo.getInstance())) {            System.out.println(zkConfig.getNodePath() + zkConfig.getServiceName() +  "/" + instanceInfo.getInstance());            // 创建临时节点            client.create().creatingParentsIfNeeded().withMode(CreateMode.EPHEMERAL).forPath(zkConfig.getNodePath() + zkConfig.getServiceName() +                    "/" + instanceInfo.getInstance(), zkConfig.getShardingCount().toString().getBytes(StandardCharsets.UTF_8));        }        shardingFromZk();    }        private void shardingFromZk() throws Exception {        // 从 serviceName 节点下获取所有Ip列表        final GetChildrenBuilder childrenBuilder = client.getChildren();        final List<String> instanceList = childrenBuilder.watched().forPath(zkConfig.getNodePath() + zkConfig.getServiceName());        List<InstanceInfo> res = new ArrayList<>();        instanceList.forEach(s -> {            res.add(new InstanceInfo(s));        });        Map<InstanceInfo, List<Integer>> shardingResult = shardingStrategy.sharding(res, zkConfig.getShardingCount());        // 先清一遍缓存        caches.clear();        shardingResult.forEach((k, v) -> {            caches.put(k.getInstance().split("-")[0], v);        });    }        private class ConnectionListener implements ConnectionStateListener {        @Override        public void stateChanged(CuratorFramework client, ConnectionState newState) {            if (newState == ConnectionState.CONNECTED || newState == ConnectionState.LOST || newState == ConnectionState.RECONNECTED) {                try {                    zkOp();                } catch (Exception e) {                    e.printStackTrace();                    throw new RuntimeException(e);                } finally {                    COUNT_DOWN_LATCH.countDown();                }            }        }    }        private class ChildrenPathListener implements PathChildrenCacheListener {        @Override        public void childEvent(CuratorFramework client, PathChildrenCacheEvent event) {            PathChildrenCacheEvent.Type type = event.getType();            if (PathChildrenCacheEvent.Type.CHILD_ADDED == type || PathChildrenCacheEvent.Type.CHILD_REMOVED == type) {                try {                    shardingFromZk();                } catch (Exception e) {                    e.printStackTrace();                    throw new RuntimeException(e);                }            }        }    }}

分片算法

采用平均分配的算法

public interface ShardingStrategy {    Map<InstanceInfo, List<Integer>> sharding(final List<InstanceInfo> list, Integer shardingCount);}public class AverageAllocationShardingStrategy implements ShardingStrategy {    @Override    public Map<InstanceInfo, List<Integer>> sharding(List<InstanceInfo> list, Integer shardingCount) {        if (list.isEmpty()) {            return null;        }        Map<InstanceInfo, List<Integer>> result = shardingAliquot(list, shardingCount);        addAliquant(list, shardingCount, result);        return result;    }    private Map<InstanceInfo, List<Integer>> shardingAliquot(final List<InstanceInfo> instanceInfos, final int shardingTotalCount) {        Map<InstanceInfo, List<Integer>> result = new LinkedHashMap<>(shardingTotalCount, 1);        int itemCountPerSharding = shardingTotalCount / instanceInfos.size();        int count = 0;        for (InstanceInfo each : instanceInfos) {            List<Integer> shardingItems = new ArrayList<>(itemCountPerSharding + 1);            for (int i = count * itemCountPerSharding; i < (count + 1) * itemCountPerSharding; i++) {                shardingItems.add(i);            }            result.put(each, shardingItems);            count++;        }        return result;    }    private void addAliquant(final List<InstanceInfo> instanceInfos, final int shardingTotalCount, final Map<InstanceInfo, List<Integer>> shardingResults) {        int aliquant = shardingTotalCount % instanceInfos.size();        int count = 0;        for (Map.Entry<InstanceInfo, List<Integer>> entry : shardingResults.entrySet()) {            if (count < aliquant) {                entry.getValue().add(shardingTotalCount / instanceInfos.size() * instanceInfos.size() + count);            }            count++;        }    }}

关于“Java Zookeeper分布式分片算法源码分析”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“Java Zookeeper分布式分片算法源码分析”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注编程网行业资讯频道。

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     801人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     348人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     311人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     432人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     220人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯