Tag Archives: SSD

SSD 以及其它

在微博上说起了 SSD 和高端存储的话题。在 SSD 出现之前,高端存储厂商很多年都在安稳的赚钱,尽管互相之间也有竞争,但单个设备动辄上百万,总有钱可赚。SSD + PC 服务器这个组合的出现终将革掉他们的命。EMC / HDS / IBM 这几家公司卖存储的朋友恐怕日子都比较难过。

据说苹果新的数据中心买了 EMC Isilon 的设备作为存储解决方案,12 PB 的存储(refer),不差钱的主总是有的。这也让我对苹果是否有足够的技术实力做好 iCloud 产生怀疑。

五年前,即使是价值两百万人民币的存储设备,一旦 I/O 透过 Cache (Miss) 打到磁盘上, 基本上就是拼磁盘数量。1块磁盘100多次 IOPS 就差不多撑不住了,现在单个物理磁盘 IOPS 尽管也有提升,但已到极限。而 SSD 的话,比如 Fusion-IO 的单盘都比几年前整个存储能支撑更多的 IOPS,二三十年来,物理磁盘终于被革命了。

尽管 SSD 会有擦写限制的问题,不用担心,这个限制会被厂商不断的改进(有心人可以隔半年回顾一次看看),所以,更快、更稳定、更大容量、更便宜,是个必然的趋势。随着 I/O 层压力陡然减轻,架构师、DBA 可以有更多的精力放在数据库逻辑设计上,可以减少对物理设计的依赖。生产力也必将提升。

国内已经有互联网公司,比如淘宝,在 SSD 使用上积累了大量经验,这个经验对其它公司来说,就是竞争优势,就是一定的壁垒,当然,也给技术决策者带来了信心 :) 不知道再有多少年,量子计算机能投产被普通用户启用,除此之外,计算机关键组件还会有别的飞跃么?

传统数据库厂商现在基本没有针对 SSD 优化的技术改进(求证)。个人预测 Oracle 在未来6个月内会收购一家NoSQL技术的公司(会是 10gen 么? ),以弥补自己的产品线,但是 Oracle RDBMS 针对 SSD 的改进恐怕要等很久,I/O层的代码改进,优化器算法调整,都不是短时间内就能搞定的事情,甚至是以一种”伪技术”形式出现。同样,IBM 的 DB2 与 微软的 SQL Server 也是这样。相比之下,MySQL 相关的改进就太快了。哦,Oracle之外的 MySQL,比如 Percona 。

重提旧话,SSD 不是银弹,不可能靠这一个组件解决你的所有问题。

如果你的网站各项指标每 18 个月没有翻一翻,那么摩尔定律或许真的能帮你解决大部分技术上的压力。

EOF

此文作者:, 位于 Review 分类 标签: on .
转载须以超链接形式标明文章原始出处和作者信息及版权声明.

SSD 趋势小窥

Image representing Andy Bechtolsheim as depict...

Image by idg.com.au via CrunchBase

来自 Sun 的大牛 Andy Bechtolsheim (Sun创始人之一)在 HPTS 2009 上做了题为 Memory Technologies for Data Intensive Computing 的演讲。其中对硬件趋势的演绎很有参考价值。

摩尔定律在未来十年内仍然有效。但是对物理磁盘来说某些方面是需要修改的–速度得不到质上的飞跃了 :)

传统 2.5 寸物理磁盘,能够提供 180 个写 IOPS,320 个读 IOPS,平均一个 IOPS 的价格是 $1(这里指价格处以 IOPS 的平均值,不是累积)。而现在主流 SSD 能够提供 8000 个写 IOPS ,3.5万个读 IOPS,每个IOPS 的成本大约是 $0.1。从性价比上看,SSD 的优势逐渐明显。根据来自 NetApp 的信息,SSD 目前一 GB 大约 $3,而磁盘则为 $ 0.10

而实际上,要想达到百万级别的 IOPS 并非易事,I/O 控制器的处理能力毕竟还有限。SSD 写能力仍然是目前的一大问题,随着时间而写能力下降,”均匀磨损算法”(Wear leveling algorithms)目前也不够完美。

密度每年翻倍,内部延时在未来几年将以每年 50% 的速度减小(现在小于100 usec,磁盘则是大于 5000 usec),而传输能力将每年翻倍。成本也将每年减少 50%。这些都是好事情。未来几年,是 SSD 的天下。而传统物理磁盘将成为磁带,SSD 将成为磁盘。(Disk is Tape,Flash is Disk。这话不是我说的,这是 Jim Gray 的名言)

Tape is Dead
Disk is Tape
Flash is Disk
RAM Locality is King
--Jim Gray 2006

EOF
延伸观看:MySQLConf 09: Andreas von Bechtolsheim, “The Solid State Storage Revolution”

OLTP Database Machine with Sun FlashFire Technology

Oracle 的这个 “the World’s First OLTP Database Machine with Sun FlashFire Technology” 有些唬人。FlashFire 是个什么东西? 看名字有些像 SSD 产品。可能是 Sun 原来的 F5100 系列的产品,号称 1U 闪存阵列能达到 100 万 IOPS ,10 GB/秒吞吐,听起来足够强悍。(refer)

至于之前和 HP 合作的 Exadata 产品线看来要没戏了(因为芯片用得是 Intel 的),个人不太看好Exadata ,总觉得会在公司角力中牺牲掉这个东西,何况技术上没有什么大的优势,尤其是 SSD 存储要起来的时候。

做个记号,等 Larry 大爷把谜底揭开后再补充…

EOF

更新:神秘兮兮的遮掩了好一段时间,原来还叫作 Exadata ,只不过是 Exadata 第二版。新的 Exadata 可以跑 OLTP,芯片就是 Intel Xeon (Nehalem) –我之前的猜测都不靠谱。至于软件方面,主要是 Oracle 11gR2 的新特性 Hybrid columnar 压缩有点意思,当然,这东西还不是彻底的列存储。

Jametong 同学推荐关于 Exadata 最权威的信息可以翻墙订阅:Kevin Closson’s Oracle Blog

更新:FlashFire 是 SLC(单层式储存) 的 SSD 。可以与 ZFS 友好集成。(refer)

关于 I/O 的五分钟法则(Five-Minute Rule)

去年在对 SSD 做调查的时候就关注过这个五分钟法则,今天又发现了这篇文章的修订版(为了纪念 Jim Gray),这个话题倒是可以简单介绍一下,对架构师衡量 I/O 能力、Cache 评估和做硬件选型还是会有一些帮助的。

在 1987 年,Jim Gray 与 Gianfranco Putzolu 发表了这个”五分钟法则”的观点,简而言之,如果一条记录频繁被访问,就应该放到内存里,否则的话就应该待在硬盘上按需要再访问。这个临界点就是五分钟。看上去像一条经验性的法则,实际上五分钟的评估标准是根据投入成本判断的,根据当时的硬件发展水准,在内存中保持 1KB 的数据成本相当于硬盘中存储同样大小数据 400 秒的开销(接近五分钟)。这个法则在 1997 年左右的时候进行过一次回顾,证实了五分钟法则依然有效(硬盘、内存实际上没有质的飞跃),而这次的回顾则是针对 SSD 这个”新的旧硬件”可能带来的影响。

graefe_table3.gif

随着闪存时代的来临,五分钟法则一分为二:是把 SSD 当成较慢的内存(extended buffer pool )使用还是当成较快的硬盘(extended disk)使用。小内存页在内存和闪存之间的移动对比大内存页在闪存和磁盘之间的移动。在这个法则首次提出的 20 年之后,在闪存时代,5 分钟法则依然有效,只不过适合更大的内存页(适合 64KB 的页,这个页大小的变化恰恰体现了计算机硬件工艺的发展,以及带宽、延时)。

根据数据结构和数据特点的不同,对于文件系统来说, 操作系统倾向于将 SSD 当作瞬时内存(cache)来使用。而对于数据库,倾向于将 SSD 当作一致性存储来用。

这是一篇非常重要的文章(所以,建议读一下原文),其中对于数据库一节的描述尤其有趣(针对 DB 也有个五分钟)。限于篇幅,就不罗嗦了。

EOF