Ceph开发每周谈 Vol 67 | Hyper Converged Cache for Distributed Storage

2017年03月 · 麦子迈

这是Ceph开发每周谈的第六十七篇文章,记录从17年3月20号到17年3月26号的社区开发情况。笔者从前年开始做Ceph的技术模块分析到今年中告一段落,想必有挺多人期待下一篇Ceph技术分析。考虑到Ceph的发展已经从前年的一穷二白到现在的如火如荼,但对于社区的方向和实况仍有所脱节,笔者考虑开始Ceph开发每周谈这个系列。每篇文章都会综述上周技术更新,围绕几个热点进行深度解析,如果正好有产业届新闻的话就进行解读,最后有读者反馈问题的话并且值得一聊的话,就附上答疑部分。

  • 一句话消息

Linux Vault slides: http://events.linuxfoundation.org/events/vault/program/slides

  • Hyper Converged Cache for Distributed Storage

vol67-1

这次 Linux Vault 里由 Intel 提出的 Hyper Converged Cache 是不错的亮点,主要思路是在 Client Side 有 SSD 来进行读写加速,将后端 Ceph 作为一个慢存储来使用。在 RBD,RGW 场景中,作为读缓存问题不大,主要是期望能不能作为写缓存提供,这就涉及到写缓存的冗余问题。因此在设计中也提到了类似 DRBD 的双拷贝架构:

vol67-2

该架构最大的顾虑是大大弱化了 Ceph 集群提供的冗余和弹性能力,造成 Client 数据绑定到指定 Host 的问题,同时对管理上也造成较大挑战。不过带来的性能是可观的:

vol67-3

这个写缓存架构在商业公司 Datrium 的产品中发挥极大作用,但是该架构会促使整个分布式存储弱化后端持久化集群的空间,同时加大缓存层的设计,意味着缓存层要再实现一次众多分布式管理逻辑,这个对于 Ceph 来说很难接受。因此,一个可选的方式是在 Client Side 实现读缓存为主。