宁海在线

 找回密码
 立即注册

QQ登录

只需一步,快速开始

快捷登录

客服电话:0574-65520000
搜索
查看: 14606|回复: 9

[电脑] 硬盘发展简史、当今主流硬盘知识介绍、未来硬盘技术前瞻

[复制链接]

962

主题

3万

帖子

17万

积分

Lv.22 皇后

战狼!爱我中华!

Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22

积分
177284
在线时间
759 小时
发表于 2009-1-10 10:10:47 | 显示全部楼层 |阅读模式 | 来自上海
注:五楼的『全息存储技术』、『蛋白质存储』、『探针存储与Millipede 』等原图已失效,想进一步了解请使用google自己动手!

尽管硬盘不能用摩尔定律来给他定义发展历程,但是更新换代是肯定必不可少的,不管是自身的发展需要也好,还是其它设备给硬盘行业的间接施压也好我们总是需要看到发展看到进步。

硬盘是一个半导体与机械的集合体所以他的发展并不能如半导体那样迅猛,虽然我们仍然看到的是一个技术稳步发展的局面,但是硬盘技术又开始前进了,并且加大了步伐。

因为太多的周边发展已经将硬盘推到了一个不得不进行革命的悬崖边上,不光是接口速度,还有硬盘的容量。我们的宽带的发展,千兆网卡平民化应用。DVD影音文件,刻录机的兴起也都很快可以将我们的现有硬盘蚕食待尽,难说等HDTV普及的时候又会是一个什么样的格局。

硬盘要走的路还任重而道远,他并没有像显卡“兔子”那样跑的那么快,还有的时间坐下来休息,尽管如此相信伴随着我们生活质量的提高硬盘也不会辜负我们对她的期望。

硬盘的发展简史

1956年9月:第一块硬盘诞生
IBM 的公司的一个工程小组将世界上首个“硬盘”展示给了大家,它并不是我们现在所说的完整意义上的硬盘,它仅仅是一个磁盘储存系统,现在来看较为落后的机械组件,庞大的占地面积,不由让人胆寒。他的名字叫做IBM 350 RAMAC(Random Access Method of Accounting and Control)。
user posted image
我们可以看到图中左边的那个机轨,中间的一个圆柱体容器,就是我们现在硬盘盘片的雏形。
user posted image
史上第一块硬盘
他的磁头可以直接移动到盘片上的任何一块存储区域,从而成功地实现了随机存储,大家别看他个子比较大,以为容量就吓人,其实他不过才有5M的空间。
user posted image
一共使用了50个直径为24英寸的磁盘,这些盘片表面涂有一层磁性物质,并且堆叠在一起,通过一个传动轴承是他可以顺利的工作(真想看看那个时候的电机有多大。)盘片由一台电动机带动,只有一个磁头,磁头上下前后运动寻找要读写的磁道。盘片上每平方英寸的数据密度只有2000bit,数据处理能力为 1.1KB/s。
此款RAMAC在那时主要用于飞机预约、自动银行、医学诊断及太空领域内,推出之后便让人大为震惊,不光是因为他的技术理念,因为有了他才有了后来的温彻斯特,还有他的价格,当时推出的售价是35,000美元,平均每M要有7000美元的成本,想想现在我们真实太幸福了,每M连7 分的成本都用不了。就是由此开始硬盘的发展之路。

1968年:"温彻斯特"技术横空出世
IBM 颠覆了之前自己的设计,重新提出了“温彻斯特”(Winchester)技术的可行性,这次的提出的技术则奠定了以后硬盘所发展的方向,。“温彻斯特”技术的精隋在于提出了:“密封、固定并高速旋转的镀磁盘片,磁头沿盘片径向移动,磁头悬浮在高速转动的盘片上方,而不与盘片直接接触”,这也同样是我们现在硬盘所走的道路。
温彻斯特技术的主要内容还有是:头盘组合件,磁头、盘片、主轴等运动部分密封在一个壳体中,形成一个头盘组合件(HDA),与外界环境隔绝,避免了灰尘的污染。磁头浮动块,采用小型化轻浮力的磁头浮动块,盘片表面涂润滑剂,实行接触起停。即平常盘片不转时,磁头停靠在盘片上,当盘片转速达一定值时,磁头浮起并保持一定的浮动间隙。
user posted image
这样简化了机械结构,缩短了起动时间。而这种设计的磁头与磁盘是一一对应的,磁头读出的就是它本身写入的,信噪比等等都比从前好很多,因此存储密度得到了提高,存储容量同样也随之增加了。“温彻斯特(Winchester)”技术的发明,无疑是为现在的硬盘发展打下了一个很好的契机。就是现在的上百G的硬盘仍然在使用这种“技术”,在5年之后也就是1973年IBM终于推出了使用温彻斯特技术的第一块硬盘,型号为3340,它采用14英寸的规格,由两个分离的盘片构成(一个固定的和一个可移动的),每张盘片容量为30MB。并且硬盘首次使用了封闭的内部环境,并进一步发展了气动学磁头技术,将磁头与盘片之间的距离缩短到了17微英寸。
user posted image

1973年:第一块"温彻期特"硬盘诞生
在这一年,IBM公司制造出第一台采用"温彻期特"技术的硬盘,成功实现技术到产品的转换,实现硬盘制造的一大突破,奠定硬盘技术的发展有了正确的结构基础。它仍是14英寸的规格,由两个分离的盘片构成(一个固定的和一个可移动的),每张碟片容量为30MB。温彻斯特"硬盘首次使用了封闭的内部环境,并进一步发展了气动学磁头技术,将磁头与盘片之间的距离缩短到了17微英寸。今天的硬盘容量虽然高达上百GB,但仍没有脱离"温彻斯特"硬盘的工作模式,依然使用着当时的许多技术,因此"温彻斯特硬盘"可称为"现代硬盘之父"。
现在大家所用的硬盘大多是此技术的延伸。
  
1979年:IBM发明薄膜磁头
IBM公司再次走在硬盘开发技术的前列,发明了薄膜磁头(Thinfilm Head),为进一步减小硬盘体积、增大容量、提高读写速度提供了可能。
同年,IBM的两位员工 AlanShugart和FinisConner离开IBM后成立了希捷公司(Shugart Technology公司,也就是后来的Seagate希捷公司)开发了像5.25英寸软驱那样大小的硬盘驱动器。次年,希捷发布了第一款适合于微型计算机使用的硬盘,容量为5MB,体积与软驱相仿。

80年代末期:IBM发明了MR磁头
IBM 又一次为电脑行业做出了巨大的贡献,推出了名为MR HEAD((Magneto Resistive))的东西,这种磁头在读取数据时对信号变化相当敏感,使得盘片的存储密度能够比以往每英寸20MB的容量提高了数十倍,他工作方式在于将读写两个磁头分开,读写磁头不再具电感特性,而是对磁场变化相当敏感的电阻特性磁头。
另外,不再受限于磁场切割速度的问题,而可以针对读写的不同特性来进行适应以达到最佳状态,因此可以突破薄膜磁头在磁盘密度的瓶颈,大幅度提升磁盘的密度。另外,MR磁头是通过阻值变化而并不是电流变化来感应信号的幅度,因而对信号变化相当敏感,读取数据的准确性也大大的得到提高提高。并且由于读取的信号幅度与磁道宽窄无关,所以磁道可以做得很窄,从而提高了盘片密度,达到200MB/平方英寸,而使用传统的磁头只能达到20MB/平方英寸,这也是MR磁头的先进之处,也是后来被广泛应用的原因。

1991年:IBM生产3.5英寸的硬盘,硬盘的容量首次达到了1GB 
1991 年IBM生产的3.5英寸的硬盘使用了MR磁头,使硬盘的容量首次达到了1GB,从此硬盘容量开始进入了GB数量级。硬盘的发展逐渐加快了脚步,真正的步入了G时代,IBM公司这样的业界巨头作出这样的产品(0663-E12)其实一点也不让人觉得奇怪。这款硬盘应用了先进的MR磁头,当然他不光是打破了 G的硬盘记录这个简单,同时它还是首个3.5寸的硬盘。由此3.5寸也成为了现代台式计算机的结构标准。

90年代后期:GMR磁头技术问世
GMR 是GiantMagnetoresistive的缩写,中文名称被我们叫做巨磁阻磁头,他与MR磁头同样是采用了特殊材料的电阻值随磁场变化的原理来读取盘片上的数据,但唯一的不同之处在于巨磁阻磁头使用了磁阻效应(关于磁阻效应我想我不用多做介绍上过大学的朋友估计对这个磁电效应的分枝是很清楚的)更好的材料和多层薄膜结构,所以他更增强了读取的敏感度,相同的磁场变化能引起更大的电阻值变化,从而可以实现更高的存储密度,现有的MR磁头能够达到的盘片密度为3Gbit-5Gbit/in2(千兆位每平方英寸),而GMR磁头可以达到10Gbit-40Gbit/in2以上。

1999年:单碟容量高达10GB的ATA硬盘面世
1999 年这是我们与历史产生隔膜的一年相信不少的电脑爱好者都是从这年以后才开始接触电脑的,然而在这之前硬盘还一直在6.4G左右打转。一直没有新的突破,然而就在这年著名的硬盘公司Maxtor,也就是迈拓推出了他的DiamondMax 40产品,也就是钻石九代。单碟磁盘容量达到了10G这样前所未有的情况(现在看似乎有些可笑了)也就是这样的情况促使了大容量硬盘的诞生。从此硬盘发展的脚步又开始放快,一直不停歇的到了2003年。经历了价格波动,接口波动,电机转速等等。基本已经将我们带入了一个民用硬盘暂时的顶峰状态。

2000年:高速硬盘问世;新材质硬盘诞生
2000 年2月23日,希捷又推出转速高达15000RPM的Cheetah X15系列硬盘,其平均寻道时间只有3.9ms,这可算是当时世界上最快的硬盘了,同时它也是到目前为止转速最高的硬盘。当时来讲家用硬盘已经开始攀比速度,希捷的这次SCSI速度革命不外乎,树立自己在SCSI行业中形象之外,还有就是要彻底拉开SCSI硬盘与IDE家用硬盘之间的差别,以来保证 SCSI硬盘在行业中的地位,同自己的利润增长点。
Cheetah X15系列硬盘的性能确实让人YY,就是现在也可以说YY程度不减当年,他相当于阅读一整部Shakespeare只花.15秒。此系列产品的内部数据传输率高达48MB/s,数据缓存为4~16MB,支持Ultra160/m SCSI及Fibre Channel(光纤通道),这将硬盘外部数据传输率提高到了160MB~200MB/s。总得来说,希捷的此款Cheetah X15系列将硬盘的性能提高到了一个新的里程碑。
user posted image

2000 年3月16日又到了盘片革命的时间了,IBM将自己苦心研究多年的“玻璃盘片”拿出来台面,并且推出了两款采用这个盘片的硬盘这就是IBM的 Deskstar 75GXP及Deskstar 40GV此两款硬盘均使用玻璃取代传统的铝作为盘片材料,这能为硬盘带来更大的平滑性及更高的坚固性。
另外玻璃材料在高转速时具有更高的稳定性。此外Deskstar 75GXP系列产品的最高容量达75GB,是当时最大容量的硬盘,而Deskstar 40GV的数据存储密度则高达14.3十亿数据位/每平方英寸,这再次涮新数据存储密度世界记录。然而好景不长,这为之后IBM的倒掉埋下了伏笔,时隔两年之后腾龙系列的硬盘纷纷出现问题,暴露出了玻璃盘片的严重质量缺陷。
虽然此时IBM开始悬崖勒马,开始当腾龙5推出的时候继续采用了铝质盘片。但这些都无法挽救这个品牌给消费者所带来的心理阴影。作了几十年的老大一失足成千古恨阿。至今不得不将硬盘部门转手日立了。

2001年:新的磁头技术,仙尘技术
此时的全部硬盘几乎均采用GMR,该技术目前最新的为第四代GMR磁头技术。另外还有一种叫做TMR (tunnelingmagnetoresisitive)磁头技术,该技术是由TDK公司采用TMR薄膜试制成功的,并制造出了硬盘设备。据悉,该 TMR磁头的再生输出以及面密度均与GMR磁头相同。
同年5月,IBM发布“仙尘”技术(Pixie Dust),这种技术通过一种名为AFC的抗铁磁耦合介质,在硬盘内部存储数据的盘面上加上薄薄的一层钌元素。它能够克服当存储设备的存储密度到达一定限度的时候所出现的超磁效应。这样磁盘的存储密度就能进一步上升,能使磁盘存储更多的数据。

2002年:转速、容量和接口巨大突破
转速:相比起其他技术参数,IDE硬盘的主轴转速自从由5400RPM发展到7200RPM之后就似乎到了极限,以至于让人认为7200RPM就是IDE硬盘的终极转速。进入2002年,我们看到5400转硬盘由于受到7200转硬盘的价格压迫以及自身的性能劣势似乎已经走到了尽头,一个时代的终结时候暗示着另一个时代的开始呢?西数名为RAPTOR的万转SATA硬盘的发布打破了多年以来的沉静,10000RPM的设计使这款硬盘超越了目前7200转硬盘的发展潜能,定必会将桌面硬盘的发展推向一个新的高峰,让我们拭目以待!
碟片与容量:世界上第一块温彻斯特硬盘IBM 3340的容量是60M,而今天主流硬盘的容量大约是它的1000倍。虽然单从速度衡量,当今的主流存储设备的发展并不能让人满意,与人们的期望仍然存在不少的差距,但另一方面我们也不能否定了存储设备正在不断进步,而且进步的幅度越来越大。在这一年里,我们很高兴的看到了硬盘在容量方面取得了长足的进步,这归功于磁介质存储技术在存储密度方面的突破。一年内硬盘的单碟容量从40GB提高到了80GB,整整翻了一番,其速度绝不亚于摩尔定律。更令人兴奋的是,在迈拓的Big Drive技术突破了137GB的容量限制之后,目前的桌面硬盘容量记录已经达到了200GB(Maxtor针对数据服务用途的MaXLine系列更达到 300GB),对于一般用户而言这绝对算得上是“海量”了。但遗憾的是容量和速度这两大要素在存储设备身上是相对独立的,彼此之间关系不大,所以我们看到主流硬盘的外部数据传输率的提升在10MB/s以内,与容量的提升幅度相比实在有些说不过去。正如我们前面所说的,存储设备要想有所突破就必须在技术上有所创新。
接口:为了在速度上实现突破,我们迎来了SerialATA。SerialATA是今年硬盘业界的焦点,这项由Intel和 Seagate两大巨头牵头的接口技术与传统的并行ATA技术相比有着明显的优势。鉴于“服役”了超过10年的IDE接口无论在寻址能力还是在传输带宽方面都接近了技术极限,为了为硬盘的速度的进一步提高扫清障碍,发展未来的硬盘传输接口十分重要。SerialATA高频率、大容量和高带宽的特点是未来硬盘发展所必须的,有望解决未来几年内硬盘传输界面问题。与接口的发展一日千里相比,让人感到遗憾的是,在这一年里我们并没有看到任何在存储介质和磁头技术上的突破,毕竟这才是束缚硬盘发展的关键所在。希望今年业界能让我们有所惊喜。
缓存:相信一年之前没有人会想到小小的缓存在硬盘的性能上会扮演如此重要的角色。西数的大胆尝试取得了意想不到的成功,也给各大厂商带来了很好的借鉴。毕竟要从磁头、介质这些核心部分去提高硬盘的性能需要花费更多的技术力量,而适当的增大缓存的容量不但简单可行,而且成本方面也不会有太大增加,但性能的提升却十分明显。酷鱼V,IBM 180GXP,还有金钻9都提供了8MB缓存设计,当然少不了的还有西数的JB系列。8MB缓存硬盘大有普及高性能桌面系统的趋势,它的全面铺开相信会给用户带来一个全新的速度冲击。

计算机历史上最长寿的技术架构:“温彻斯特”

早在1956年,国际商用机器公司(IBM)发明了世界上第一个磁盘存储系统IBM 305 RAMAC,这个只有5MB的存储设备却拥有50个24英寸的盘片。在那个时代,RAMAC是令人吃惊的计算机设备——就其笨拙程度而言,在今天毫无疑问也是令人吃惊的。
1973 年,IBM研制成功了一种新型的硬盘IBM 3340。这种硬盘拥有几个同轴的金属盘片,盘片上涂着磁性材料。它们和可以移动的磁头共同密封在一个盒子里面,磁头能从旋转的盘片上读出磁信号的变化- -这就是我们今天是用的硬盘的祖先,IBM把它叫做温彻斯特硬盘。
user posted image

“温彻斯特”这个名字还有个小小的来历。IBM 3340拥有两个30MB的存储单元,而当时一种很有名的“温彻斯特来复枪”的口径和装药也恰好包含了两个数字“30”。于是这种硬盘的内部代号就被定为“温彻斯特”。  

温彻斯特硬盘采用了一个了不起的技术:它的磁头并不与盘片接触。可以想象,如果要提高存取数据的速度,硬盘的盘片就应该越转越快。但是如果磁头与盘片接触,那么无论采用什么材料都不可能胜任这种工作。技术人员想到让磁头在盘片上方“飞行”,与盘片保持一个非常近的距离。这个想法是可行的,因为盘片高速旋转会产生流动的风,只要磁头的形状合适,它就能像飞机一样飞行。这样,盘片就能旋转的很快而不必担心磨擦造成的灾难。磁头被固定在一个能沿盘片径向运动的臂上。由于磁头相对盘片高速运动,并且二者距离很近,哪怕是一丁点灰尘也会造成磁盘的损坏。所以,盘片、磁头和驱动机构被密封在了一个盒子里。
1980年,希捷(Seagate)公司制造出了个人电脑上的第一块温彻斯特硬盘,这个硬盘与当时的软驱体积相仿,容量5MB(可以想象,这种容量在今天什么也做不了,但是在当时对于个人电脑却是个天文数字)。
硬盘容量的提高依赖于磁头的灵敏度。如果磁头越灵敏,就能在单位面积的区域上读出更多的信息。80年代的硬盘使用所谓的薄膜磁头,后来,研究人员找到了一种材料,这种材料的电阻能随磁场的变化而变化,这就是现在通用的“磁阻”磁头。高灵敏度的磁头为高密度的存储提供了可能。
  今天,尽管我们的硬盘能够储存数十甚至上百GB的信息,它们的实质与1973年IBM发明的温彻斯特硬盘没有区别。那个盛有高速旋转的碟子的方盒,仍然是快速大量存取数据的最好选择。



一些老硬盘的图片


20M@1979


446M@1981(富士通制造的10.5寸硬盘,3600转,446MB的容量,81年的产品)


400M@1982(NEC制造的8寸硬盘,3000转,400MB的容量,82年出品)


2.7G@1983(NEC制造的14寸硬盘DKU800,3620转,2.7GB的容量)


2.2G@1987


2.8G@1992(富士通的8寸硬盘,3600转,2.8GB的容量,92年出品)


2.5寸60G@2002.4


历史上第一台内置硬盘的PC


[ 本帖最后由 古色古香米花糖 于 2009-1-10 10:34 编辑 ]
下载宁海在线客户端

962

主题

3万

帖子

17万

积分

Lv.22 皇后

战狼!爱我中华!

Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22

积分
177284
在线时间
759 小时
 楼主| 发表于 2009-1-10 10:13:46 | 显示全部楼层 | 来自上海
主流硬盘相关知识介绍

■ 相关名词介绍
1. 单碟容量(storage per disk):
这也是划分硬盘档次的一个指标,由于硬盘都是由一个或几个盘片组成的,所以单碟容量就是指包括正反两面在内的每个盘片的总容量。单碟容量的提高意味着生产厂商研发技术的提高,这所带来的好处不仅是使硬盘容量得以增加,而且还会带来硬盘性能的相应提升。因为单碟容量的提高就是盘片磁道密度每英寸的磁道数)的提高,磁道密度的提高不但意味着提高了盘片的磁道数量,而且在磁道上的扇区数量也得到了提高,所以盘片转动一周,就会有更多的扇区经过磁头而被读出来,这也是相同转速的硬盘单碟容量越大内部数据传输率就越快的一个重要原因。此外单碟容量的提高使线性密度(每英寸磁道上的位数)也得以提高,有利于硬盘寻道时间的缩短。

2.硬盘的转速(Rotationl Speed):
也就是硬盘电机主轴的转速。主轴转速(rotational speed或spindle speed),这是划分硬盘档次的一个重要指标。以每分钟硬盘盘片的旋转圈数来表示,单位rpm,目前常见的硬盘转速有5400rpm、7200rpm和 10000rpm等。理论上转速越高,硬盘性能相对就越好,因为较高的转速能缩短硬盘的平均等待时间并提高硬盘的内部传输速度。但是转速越快的硬盘发热量和噪音相对也越大。为了解决这一系列的负面影响,应用在精密机械工业上的液态轴承马达(Fluid dynamic bearing motors)便被引入到硬盘技术中。液态轴承马达使用的是黏膜液油轴承,以油膜代替滚珠。这样可以避免金属面的直接磨擦,将噪声及温度被减至最低;同时油膜可有效吸收震动,使抗震能力得到提高;此外这还能减少磨损,提高硬盘寿命。这里值得特别关注的是西部数据名为RAPTOR的万转SATA硬盘的发布打破了多年以来的沉静,10000RPM的设计使这款硬盘超越了目前7200转硬盘的发展潜能,定必会将桌面硬盘的发展推向一个新的高峰,让我们拭目以待!

3.平均寻道时间(Average seek time):
指硬盘在盘面上移动读写头至指定磁道寻找相应目标数据所用的时间,它描述硬盘读取数据的能力,单位毫秒(ms)。当单碟片容量增大时,磁头的寻道动作和移动距离减少,从而使平均寻道时间减少,加快硬盘速度。目前市场上主流硬盘的平均寻道时间一般在9ms左右,但现在市面上新火球一代,以及美钻2代,平均寻道时间在12ms左右,都是5400转的产品,大家购买时要考虑到这一点。

4.平均潜伏时间(Average latency time):
指当磁头移动到数据所在的磁道后,等待指定的数据扇区转动到磁头下方的时间,单位为毫秒(ms)。平均潜伏期时间是越小越好,潜伏期短代表硬盘在读取数据时的等待时间更短,转速越快的硬盘具有更低的平均潜伏期,而与单碟容量关系不大。一般来说,5400rpm硬盘的平均潜伏期为5.6ms,而 7200rpm硬盘的平均潜伏期为4.2ms。

5.平均访问时间(Average access time):
指磁头从起始位置到达目标磁道位置,并且从目标磁道上找到指定的数据扇区所需的时间,单位为毫秒(ms)。平均访问时间最能够代表硬盘找到某一数据所用的时间,越短的平均访问时间越好,一般在11ms-18ms之间。。平均访问时间体现了硬盘的读写速度,它包括了硬盘的平均寻道时间和平均潜伏期,即:平均访问时间=平均寻道时间+平均潜伏期。
注意:现在不少硬盘广告之中所说的平均访问时间大部分都是用平均寻道时间所代替的。

6.道-道间寻道时间(single track seek):
指磁头从一磁道移动至另一磁道的时间,单位为毫秒(ms)。

7. 数据传输率(Data Transfer Rate) :
计算机通过IDE接口从硬盘的缓存中将数据读出交给相应的控制器的速度与硬盘将数据从盘片上读取出交给硬盘上的缓冲存储器的速度相比,前者要比后者快得多,前者是外部数据传输率(External Transfer Rate),而后者是内部数据传输率(Internal Transfer Rate),两者之间用一块缓冲存储器作为桥梁来缓解速度的差距。通常也把外部数据传输率称为突发数据传输率(Burst data Transfer Rate),指的是电脑通过数据总线从硬盘内部缓存区中所读取数据的最高速率突发数据传输率(Burst data transfer rate)。以目前IDE硬盘的发展现状来看,理论上采用ATA-100传输协议的硬盘外部传输率已经达到100MB/s,然而最新的采用ATA-133 的传输率以后,传输率又可达133MB/s。
内部数据传输率也被称作硬盘的持续传输率(Sustained Transfer Rate),指磁头至硬盘缓存间的数据传输率,一般取决于硬盘的盘片转速和盘片数据线密度(指同一磁道上的数据间隔度)。也叫持续数据传输率(sustained transfer rate)。
由于内部数据传输率才是系统真正的瓶颈,因此大家在购买时要分清这两个概念。不过一般来讲,硬盘的转速相同时,单碟容量大的内部传输率高;在单碟容量相同时,转速高的硬盘的内部传输率高。一般取决于硬盘的转速和盘片线性密度。应该清楚的是只有内部传输率向外部传输率接近靠拢,有效地提高硬盘的内部传输率才能对磁盘子系统的性能有最直接、最明显的提升。目前各硬盘生产厂家努力提高硬盘的内部传输率,除了改进信号处理技术、提高转速以外,最主要的就是不断的提高单碟容量以提高线性密度。由于单碟容量越大的硬盘线性密度越高,磁头的寻道频率与移动距离可以相应的减少,从而减少了平均寻道时间,内部传输速率也就提高了。

8. 自动检测分析及报告技术(Self-Monitoring Analysis and Report Technology,简称S.M.A.R.T):
目前硬盘的平均无故障运行时间(MTBF)已达50000小时以上,但这对于挑剔的专业用户来说还是不够的,因为他们储存在硬盘中的数据才是最有价值的,因此专业用户所需要的就是能提前对故障进行预测的功能。正是这种需求才使S.M.A.R.T.技术得以应运而生。
现在出厂的硬盘基本上都支持S.M.A.R.T技术。这种技术可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,它由硬盘的监测电路和主机上的监测软件对被监测对象的运行情况与历史记录及预设的安全值进行分析、比较,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。S.M.A.R.T技术必须在主板支持的前提下才能发生作用,而且同时也应该看到S.M.A.R.T. 技术并不是万能的,对渐发性的故障的监测是它的用武之地,而对于一些突发性的故障,如对盘片的突然冲击等,S.M.A.R.T.技术也同样是无能为力的。

9.磁阻磁头技术MR(Magneto-Resistive Head):
MR(MagnetoResistive) 磁头,即磁阻磁头技术。MR技术可以更高的实际记录密度、记录数据,从而增加硬盘容量,提高数据吞吐率。目前的MR技术已有几代产品。MAXTOR的钻石三代/四代等均采用了最新的MR技术。磁阻磁头的工作原理是基于磁阻效应来工作的,其核心是一小片金属材料,其电阻随磁场变化而变化,虽然其变化率不足 2%,但因为磁阻元件连着一个非常灵敏的放大器,所以可测出该微小的电阻变化。MR技术可使硬盘容量提高 40%以上。GMR(GiantMagnetoresistive)巨磁阻磁头GMR磁头与MR磁头一样,是利用特殊材料的电阻值随磁场变化的原理来读取盘片上的数据,但是GMR磁头使用了磁阻效应更好的材料和多层薄膜结构,比MR磁头更为敏感,相同的磁场变化能引起更大的电阻值变化,从而可以实现更高的存储密度,现有的MR磁头能够达到的盘片密度为3Gbit-5Gbit/in2(千兆位每平方英寸),而GMR磁头可以达到10Gbit- 40Gbit/in2以上。目前GMR磁头已经处于成熟推广期,在今后的数年中,它将会逐步取代MR磁头,成为最流行的磁头技术。当然单碟容量的提高并不是单靠磁头就能解决的,这还要有相应盘片材料的改进才行,比如IBM早在去年率先在75GXP硬盘中采用玻璃介质的盘片。

10.缓存:
全称是数据缓冲存储器(cache buffer)指的是硬盘的高速缓冲存储器,是硬盘与外部总线交换数据的场所。硬盘的读数据的过程是将磁信号转化为电信号后,通过缓存一次次地填充与清空,再填充,再清空,一步步按照PCI总线的周期送出,可见,缓存的作用是相当重要的。在接口技术已经发展到一个相对成熟的阶段的时候,缓存的大小与速度是直接关系到硬盘的传输速度的重要因素。它一般使用7~10ns的SDRAM,目前主流IDE硬盘的数据缓存是2MB,但以西部数据得JB系列为代表的硬盘缓存达到了8MB,性能非常优秀。

11.连续无故障时间(MTBF):
指硬盘从开始运行到出现故障的最长时间,单位为小时。一般硬盘的MTBF都在30000或50000小时之间,算下来如果一个硬盘每天工作10小时,一年工作365天,它的寿命至少也有8年,所以用户大可不必为硬盘的寿命而担心。不过出于对数据安全方面的考虑,最好将硬盘的使用寿命控制在5年以内。

12.部分响应完全匹配技术(PRML):
它能使盘片存储更多的信息,同时可以有效地提高数据的读取和数据传输率。是当前应用于硬盘数据读取通道中的先进技术之一。PRML技术是将硬盘数据读取电路分成两段"操作流水线",流水线第一段将磁头读取的信号进行数字化处理然后只选取部分"标准"信号移交第二段继续处理,第二段将所接收的信号与 PRML芯片预置信号模型进行对比,然后选取差异最小的信号进行组合后输出以完成数据的读取过程。PRML技术可以降低硬盘读取数据的错误率,因此可以进一步提高磁盘数据密集度。

13.单磁道时间(Single track seek time):
指磁头从一磁道转移至另一磁道所用的时间。

14.超级数字信号处理器(Ultra DSP)技术:
应用Ultra DSP进行数学运算,其速度较一般CPU快10到50倍。采用Ultra DSP技术,单个的DSP芯片可以同时提供处理器及驱动接口的双重功能,以减少其它电子元件的使用,可大幅度地提高硬盘的速度和可靠性。接口技术可以极大地提高硬盘的最大外部传输率,最大的益处在于可以把数据从硬盘直接传输到主内存而不占用更多的CPU资源,提高系统性能。

15.硬盘表面温度:
指硬盘工作时产生的温度使硬盘密封壳温度上升情况。硬盘工作时产生的温度过高将影响薄膜式磁头(包括MR磁头)的数据读取灵敏度,因此硬盘工作表面温度较低的硬盘有更好的数据读、写稳定性。

16.全程访问时间(Max full seek time):
指磁头开始移动直到最后找到所需要的数据块所用的全部时间。

■ 硬盘接口种类详解
1.ST-506/412接口:
最早的硬盘接口是ST-506/412接口,它是由希捷开发的,首先使用这种接口的硬盘为希捷的ST-506及ST-412。ST-506接口使用起来相当简便,它不需要任何特殊的电缆及接头,但是它支持的传输速度很低,因此到了1987年左右这种接口就基本上被淘汰了,采用该接口的老硬盘容量多数都低于 200MB。早期IBM PC/XT和PC/AT机器使用的硬盘就是ST-506/412硬盘或称MFM硬盘,MFM(Modified Frequency Modulation)是指一种编码方案 。
  
2.ESDI接口
紧随是ST-506/412接口后发布得是:ESDI(Enhanced Small Drive Interface)接口,它是迈拓公司于1983年开发的。其特点是将编解码器放在硬盘本身之中,而不是在控制卡上,理论传输速度是前面所述的ST- 506的2~4倍,一般可达到10Mbps。但其成本较高,与后来产生的IDE接口相比无优势可言,因此在九十年代后就补淘汰了。
  
3.IDE与EIDE接口
此技术的本意实际上是指把控制器与盘体集成在一起的硬盘驱动器,我们常说的IDE接口,也叫ATA(Advanced Technology Attachment)接口,现在PC机使用的硬盘大多数都是IDE兼容的,只需用一根电缆将它们与主板或接口卡连起来就可以了。把盘体与控制器集成在一起的做法减少了硬盘接口的电缆数目与长度,数据传输的可靠性得到了增强,硬盘制造起来变得更容易,因为厂商不需要再担心自己的硬盘是否与其它厂商生产的控制器兼容,对用户而言,硬盘安装起来也更为方便。因此,这技术得到广泛的应用。 
  
4.ATA-1(俗称:ATA/IDE)
1994 年制定的ATA-1是所有IDE规格之祖。ATA-1提供一个通道供2个硬盘使用(主盘master和从盘slave)。ATA-1支持PIO (程序化输出入,Programmed I/O)模式0.1.2,DMA(直接内存存取,Direct Memory Access)模式0.1.2以及Multiword-DMA模式0。由于它已经是老旧的规格,ATA-1并无法支持采用ATAPI规格(ATA-4起)的光驱。它不支持大幅提升性能的区块传送模式(block mode)或是LBA(逻辑区块寻址,logical block addressing),这也导致它的可用最大硬盘容量被限制在528 MB。
  
5.ATA-2(俗称:ATA/IDE)
由于规格的进步速度对硬盘厂商来说实在太慢,所以Seagate(希捷)和Western Digital(西部数据)分别决定推出自己的规格,Seagate称为Fast-ATA,而Western Digital则命名为加强型IDE(Enhanced IDE)。到了1996年,ANSI正式制定ATA-2规格,这项「扩充版的ATA接口」规格包括下列的改良:
追加PIO模式3.4以及Multiword-DMA模式1.2。另外ATA-2还支持区块传送模式与LBA硬盘寻址功能。ATA-2也首次内建了对磁盘驱动器的简单识别功能,让BIOS能够独立检测硬盘以及硬盘的各项参数。
不过由不同厂商所提出的不同名词,就这样残留在市面上了。
  
6.ATA-3(俗称:ATA/IDE)
这项规格是在1997年制定的(X3.298-1997),不过追加的改良点并不多。这些大多数是用来改善高速传输模式(Multiword-DMA 2与PIO 4)下的数据可靠性,因为传统的40-pin IDE数据线是造成数据错误的主要因素。ATA-3规格中首次加入了改善数据可靠性的功能:自1998年起,SMART(自我检测分析与报告技术, Self-Monitoring Analysis And Reporting Technology)功能让硬盘能够自我检测,并将错误回报给BIOS。
这项规格本身由于缺乏更快的传输模式,所以正式采用的厂商很少。相对的厂商决定只采用像SMART这类的功能,而不完全遵守ATA-3的规格,这也是兼容性问题仍旧存在的原因。
  
7.ATA/ ATAPI-4(俗称:UltraDMA/33)
1998 年ANSI将ATAPI规格(NCITS 317,请对照下表)纳入最新版的ATA规格当中,让ATA-4能够连接光驱与其它储存媒体。另外改良点还包括UltraDMA模式0.1.2的采用,以及建议使用80-pin IDE数据线以大幅提高资料可靠性等部份。不过要使用更高速的传输模式(ATA-4),较高等级的数据线也是不可或缺的一部份。
为了维持资料的完整性,传输协议也获得扩充,加入了CRC(循环冗余检查,Cyclical Redundancy Checking)功能,并且定义了额外的指令,包括命令队列(Command Queuing)以及指令多任务(command overlapping)的可能性。由于UltraDMA模式2的最大传输速率为每秒33 MB,所以通常称作UltraDMA/33。另一方面模式0与1则从来没有厂商采用过。
  
8.ATA/ ATAPI-5(俗称:UltraDMA/66.ATA/66)
ATA-5是在2000年以NCITS 340之名制定的。这项规格当中以UltraDMA模式3.4最让人感兴趣。为了达到每秒44或66 MB的带宽速度,必须使用80-pin的IDE数据线。
在ATA-5规格中部份老旧的ATA指令已经废止,另外其它指令则经过修改,以适应更高的性能需求。
  
9.ATA/ ATAPI-6(俗称:UltraDMA/100.ATA/100)
这项目前相当普遍的ATA规格,包括了UltraDMA模式5,以及将LBA模式的寻址能力由28位(每个硬盘最大可用容量为137 GB)扩充到48位。ATA-6也加入了噪音管理(Acoustic Management)功能,可以藉由软件来控制今日硬盘的存取速度,以有效降低运转中的噪音。这可以说是头一次在ATA规格内加入了符合人体工学的重要设计。另外针对影音流式数据所需的高速处理内建指令,也已经在研发阶段。
  
10.ATA133
2001年7月,迈拓发布了新一代的硬盘规范,这个由整个存储设备工业联盟认可的规范,标准名称ATA133,或者是迈拓口中的FastDrive。
目前在ATA133硬盘和控制器之间最大理论传输速率是133MB/秒,在我们以前的测试中表明,磁盘控制器和硬盘之间的内部传输速率是非常不足的,单纯依靠增加外部传输速率对性能的提升并没有真正意义,对于现在的硬盘来说,可能UDMA66就足以满足他们的需要。当然,如果你把两个硬盘接在同一个接口时,66MB/秒或者100MB/秒的数据通道也可能不能确保两个硬盘平常连接时的需要。
ATA133规范给我们带来的重大改变是增加了扇区地址长度,从原来28bit增加到48bit,使得现在研究中的硬盘容量可以高达144Petabyte(1Petabyte= 1024Terabyte=1048576GB),这是一个难以想象的数字,不过谁又知道在快速发展的今天,我们会在哪一天需要用上这么大的硬盘呢?
  
11.ATA7
这项规格尚未存在,因为序列ATA(Serial ATA)的产品很快就将问世,所以ATA-7并未受到大部分厂商的支持。不过要是ATA-7将来正式获得制定,那将会支持UltraDMA模式6。
  
12.Serial ATA接口
新的Serial ATA(即串行ATA),是英特尔公司在2000年2月IDF(Intel Developer Forum,英特尔开发者论坛)首次提出的。并联合业内众多有影响的公司,如IBM.Dell.APT.Maxtor.Quantum(其硬盘部门已与 Maxtor公司合并)和Seagate公司,合作开发了取代并行ATA的新技术:Serial ATA(串行ATA)。
2001年 8月,Seagate在IDF Fall 2001大会上宣布了Serial ATA 1.0标准,Serial ATA规范正式确立。在1.0版规范中规定的Serial ATA数据传输速度为150MB/s,比目前主流的并行ATA标准ATA/100高出50%,比最新的ATA/133还要高出约13%。而且随着未来后续版本的发展,其接口速率还可扩展到2X和4X(300MB/s和600MB/s)。从其发展计划来看,未来Serial ATA的也将通过提升时钟频率来提高接口传输速率。串行ATA在系统复杂程度及拓展性方面,是并行ATA所无法比拟的。因为在Serial ATA标准中,实际只需要四个针脚就能够完成所有工作,第1针供电,第2针接地,第3针作为数据发送端,第4针充当数据接收端,由于Serial ATA使用这样的点对点传输协议,所以不存在主/从问题,并且每个驱动器是独享数据带宽。从此来看,它的优点是显而易见的。第一.用户不需要再为设置硬盘主从跳线器而苦恼;第二.由于串行 ATA采用点对点的传输模式,所以串行系统将不再受限于单通道只能连接两块硬盘,这对于想连接多硬盘的用户来说,无非是一大福音。


user posted image

此外,Serial ATA的硬盘将不再有主从盘之分,这个新的规范是一种点对点协议,它将每个硬盘直接连接到了IDE控制器上,这样可以让IDE控制器对硬盘提供更好的控制能力,由于采用了点对点模式,Serial ATA将能非常方便地提升性能规范。我们可以预见:Serial ATA硬盘成为主流的日子已指日可待。

13.SCSI接口
SCSI(Small Computer System Interface)是一种与ATA完全不同的接口,它不是专门为硬盘设计的,而是一种总线型的系统接口,每个SCSI总线上可以连接包括SCSI控制卡在内的8个SCSI设备。早期PC机的BIOS不支持SCSI,各个厂商都按照自己对SCSI的理解来制造产品,造成了一个厂商生产的SCSI设备很难与其它厂商生产的SCSI控制卡共同工作,加上SCSI的生产成本比较高,因此没有像ATA接口那样迅速得到普及。SCSI接口的优势在于它支持多种设备,传输速率比ATA接口高,独立的总线使得SCSI设备的CPU占用率很低,所以SCSI更多地被用于服务器等高端应用场合。
ANSI分别于 1986年和1994年制订了SCSI-1和SCSI-2标准,一些厂商在这些标准的基础上开发了Fast SCSI、Ultra SCSI、Ultra2 SCSI(LVD)和Ultra160/m等事实上的标准,它们支持的传输速率如表2所示。与Ultra ATA相似,Ultra SCSI、Ultra2 SCSI和Ultra160/m也是处于SCSI-2和SCSI-3(仍然还未正式确定)两种标准之间的产物。昆腾、希捷、IBM等厂商都有自己的 SCSI硬盘系列产品,由于目标市场不同,这些SCSI硬盘的转速、缓存大小等指标要比同时期的IDE硬盘高得多。

■RAID详解
RAID的英文全称为:Redundant Array of Independent Disks。翻译成中文即为独立磁盘冗余阵列,或简称磁盘阵列。由美国加州大学在1987年开发成功。
RAID 的初衷主要是为大型服务器提供高端的存储功能和冗余的数据安全。我们可以这样来理解,RAID是一种把多块独立的硬盘(物理硬盘)按不同方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据冗余的技术。组成磁盘阵列的不同方式成为RAID级别(RAID Levels)。在用户看起来,组成的磁盘组就像是一个硬盘,用户可以对它进行分区,格式化等等。总之,对磁盘阵列的操作与单个硬盘一模一样。不同的是,磁盘阵列的存储性能要比单个硬盘高很多,而且在很多RAID模式中都有较为完备的相互校检/恢复的措施,甚至是直接相互的镜象备份,从而大大提高了 RAID系统的容错度,提高了系统的稳定冗余性,这也是Redundant一词由来。
不过,所有的RAID系统最大的优点则是"热交换"能力:用户可以取出一个存在缺陷的驱动器,并插入一个新的予以更换。对大多数类型的RAID来说,可以利用镜像或奇偶信息来从剩余的驱动器重建数据不必中断服务器或系统,就可以自动重建某个出现故障的磁盘上的数据。这一点,对服务器用户以及其他高要求的用户是至关重要的。
数据冗余的功能指的是:在用户数据一旦发生损坏后,利用冗余信息可以使损坏数据得以恢复,从而保障了用户数据的安全性。
RAID 以前一直是SCSI领域独有的产品,因为它当时的技术与成本也限制了其在低端市场的发展。今天,随着RAID技术的不断成熟与厂商的不断努力,我们已经能够享受到相对成本低廉的多的IDE-RAID系统,虽然稳定与可靠性还不能与SCSI-RAID相比,但它相对于单个硬盘的性能优势对广大玩家是一个不小的诱惑。随着相关设备的拥有成本和使用成本不断下降,这项技术也已获得一般电脑用户的青睐。
RAID技术是一种工业标准,下面我们就一起来对各主要RAID级别做一个大致了解。

RAID 0
RAID 0又称为Stripe或Striping,中译为集带工作方式。它代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个磁盘上存取。系统传输来的数据,经过RAID控制器通常是平均分配到几个磁盘中,而这一切对于系统来说是完全不用干预的,每个磁盘执行属于它自己的那部分数据请求。这样,系统有数据请求就可以被多个磁盘并行的执行。这种数据上的并行操作可以充分利用总线的带宽,显著提高磁盘整体存取性能。我们可以这样简单的认为:N个硬盘是一个容量为N个硬盘容量之和的"大"硬盘。RAID0的主要工作目的是获得更大的"单个"磁盘容量。另一方面就是多个硬盘同时读取,从而获得更高的存取速度。例如一个由两个硬盘组成的Raid系统中,系统向两个磁盘组成的逻辑硬盘(RADI 0 磁盘组)发出的I/O数据请求被转化为2项操作,其中的每一项操作都对应于一块物理硬盘。通过建立RAID 0,原先顺序的数据请求被分散到所有的两块硬盘中同时执行。从理论上讲,两块硬盘的并行操作使同一时间内磁盘读写速度提升了2倍。虽然由于总线带宽等多种因素的影响,实际的提升速率肯定会低于理论值。但是,大量数据并行传输与串行传输比较,提速效果还是非常明显的。RAID 0最大的缺点是不提供数据冗余,其安全性大大降低,构成阵列的任何一块硬盘的损坏都将带来灾难性的数据损失。
RAID 0具有的特点,使其不适用于关键任务环境,但是,它却非常适合于特别适用于对性能要求较高的视频生产和编辑或图像编辑领域。对个人用户,RAID 0也是提高硬盘存储性能的绝佳选择。

[ 本帖最后由 古色古香米花糖 于 2009-1-10 10:16 编辑 ]
回复 支持 反对

使用道具 举报

962

主题

3万

帖子

17万

积分

Lv.22 皇后

战狼!爱我中华!

Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22

积分
177284
在线时间
759 小时
 楼主| 发表于 2009-1-10 10:14:34 | 显示全部楼层 | 来自上海
RAID 1
RAID1又称为Mirror或Mirroring,中译为镜像方式。这种工作方式的出现完全是为了数据安全考虑的,因为在整个镜像的过程中,只有一半的磁盘容量是有效的,因为另一半用来存放同这一半完全一样的数据,也就是数据的冗余了。同RAID0相比,它是另一个极端。RAID0首要考虑的是磁盘的速度和容量,忽略安全;而RAID1首要考虑的是数据的安全性,容量可以减半、速度可以不变。它的宗旨是最大限度的保证用户数据的可用性和可修复性。
RAID 1的操作方式是把用户写入硬盘的数据百分之百地自动复制到另外一个硬盘上。当读取数据时,系统先从RAID0的源盘读取数据,如果读取数据成功,则系统不去管备份盘上的数据;如果读取源盘数据失败,则系统自动转而读取备份盘上的数据,不会造成用户工作任务的中断。当然,我们应当及时地更换损坏的硬盘并利用备份数据重新建立Mirror,避免备份盘在发生损坏时,造成不可挽回的数据损失。由于对存储的数据进行百分之百的备份,在所有RAID级别中,RAID1提供最高的数据安全保障。同样,由于数据的百分之百备份,备份数据占了总存储空间的一半,因而,Mirror的磁盘空间利用率低,存储成本高。
Mirror虽不能提高存储性能,但由于其具有的高数据安全性,使其尤其适用于存放重要数据,如服务器和数据库存储等领域。
  
RAID 0+1
正如其名字一样RAID 0+1是RAID 0和RAID 1的组合形式,也称为RAID 10。它的出现就是为了达到既高速又安全目的, RAID10也可以简单的理解成两个分别由多个磁盘组成的 RAID0阵列再进行镜像;其实反过来理解也没有错。
以四个磁盘组成的RAID 0+1为例,RAID 0+1是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。
由于RAID 0+1也通过数据的100%备份提供数据安全保障,因此RAID 0+1的磁盘空间利用率与RAID 1相同,存储成本高。
构建RAID 0+1阵列的成本投入大,数据空间利用率低。不是种经济高效的磁盘阵列解决方案。但特别适用于既有大量数据需要存取,同时又对数据安全性要求严格的领域,如银行、金融、商业超市、政府各种档案管理等。
  
RAID 3
RAID 3 采用的是一种较为简单的校验实现方式。将数据做XOR 运算,产生Parity Data后,在将数据和ParityData以并行存取模式写入一个专门的存放所有校验数据的磁盘中,而在剩余的磁盘中创建带区集分散数据的读写操作。因此具备并行存取模式的优点和缺点。RAID 3所存在的最大一个不足同时也是导致RAID 3很少被人们采用的原因就是校验盘很容易成为整个系统的瓶颈。我们已经知道RAID3会把数据的写入操作分散到多个磁盘上进行,然而不管是向哪一个数据盘写入数据,都需要同时重写校验盘中的相关信息。因此,对于那些经常需要执行大量写入操作的应用来说,校验盘的负载将会很大,无法满足程序的运行速度,从而导致整个RAID系统性能的下降。RAID 3的并行存取模式,需要RAID控制器特别功能的支持,才能达到磁盘驱动器同步控制,而且上述写入性能的优点,以目前的Caching技术,都可以将其取而代之,因此一般认为RAID 3的应用,将逐渐淡出市场。  
  
RAID 4
RAID 4 是采取独立存取模式,它的每一笔传输﹝Strip﹞资料较长,而且可以执行OverlappedI/O,因此其读取的性能很好。但是由于使用单一专属的Parity Disk 来存放ParityData,因此每次写操作都需要访问奇偶盘,就会造成系统很大的瓶颈。RAID 4在商业应用中很少使用.
  
RAID 5
RAID 5 是一种存储性能、数据安全和存储成本兼顾的存储解决方案。
RAID5也是目前应用最广泛的RAID技术。各块独立硬盘进行条带化分割,相同的条带区进行奇偶校验(异或运算),校验数据平均分布在每块硬盘上。以n块硬盘构建的RAID 5阵列可以有n-1块硬盘的容量,存储空间利用率非常高。RAID5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当RAID5的任何一块硬盘上的数据丢失,均可以通过校验数据推算出来它和RAI D3最大的区别在于校验数据是否平均分布到各块硬盘上。RAID5具有数据安全、读写速度快,空间利用率高等优点,应用非常广泛,但不足之处是如果1块硬盘出现故障以后,整个系统的性能将大大降低。RAID5可以为系统提供数据安全保障,但保障程度要比Mirror低而磁盘空间利用率要比Mirror高。RAID 5具有和RAID0相近似的数据读取速度,只是多了一个奇偶校验信息,写入数据的速度比对单个磁盘进行写入操作稍慢。同时由于多个数据对应一个奇偶校验信息,RAID5的磁盘空间利用率要比RAID 1高,存储成本相对较低。
RAID 5模式适合多人多任务的存取频繁,数据量不是很大的环境,例如企业档案服务器、WEB 服务器、在线交易系统、电子商务等等。
  
RAID 6
RAID 6 与RAID 5相比,增加了第二个独立的奇偶校验信息块. 两个独立的奇偶系统使用不同的算法, 数据的可靠性非常高.即使两块磁盘同时失效,也不会影响数据的使用. 但需要分配给奇偶校验信息更大的磁盘空间, 相对于RAID 5有更大的"写损失". RAID 6的写性能非常差, 较差的性能和复杂的实施使得RAID 6很少使用。

■当今硬盘的发展趋势
最近一年间,硬盘技术方面没有什么太大的突破,容量的增加和性能的增强更多的来源于工艺水平的提高和设计能力的加强。不过SATA接口已经顺利的全面取代了 PATA接口,而10000转桌面硬盘和SATA2 接口也开始崭露头角。而更多的新技术则有待今后逐步投入使用,继续提高硬盘的容量和速度。

一、新技术突破硬盘容量极限
毫无疑问,硬盘最重要的技术指标是存储容量,大多数硬盘被淘汰,不是因为损坏或速度不够快,而是容量不足。硬盘容量发展主线是记录密度的提高,记录密度的提高不仅让硬盘容量继续提升成为可能,而且还可在不提高转速的情况下提高性能,同时也让小型、微型硬盘的应用更加普及。尽管通过改进现有技术可以在一定幅度内继续提高,但已经接近理论极限,因此必需有新技术来支撑记录密度的继续提升。今后将从新型磁头技术、新型记录媒体技术、垂直记录技术以及"HAMR"热磁技术等方面进行发展和应用,下面就给大家谈谈这些新技术的具体情况。

单牒容量133GB 的酷鱼7200.8  

目前硬盘广泛使用GMR(巨磁阻)磁头,利用了把盘片上的磁信息识别为电阻的MR(磁阻)效应,单牒容量可以做到100GB以上,但很快将达到极限。目前新型磁头技术主要有TMR磁头和CPP磁头等。提高硬盘记录密度不仅要求提高读取磁头的性能,另一方面,记录位缩小后更容易受到噪音的影响。为解决这种"磁转变"噪音,可以通过缩小粒子粒径减少交错区域来解决。另外盘片的改进也在不断进行,比如通过减小记录层的膜厚度降低粒子高度,从而不会轻易受到相邻记录位的影响。
今后硬盘容量的提高将会越来越缓慢。因为已经使用了目前磁场强度最高的磁体,通过改进磁头和盘片结构提高记录密度正在逐渐接近水平记录方式磁体本身的极限。要突破这一极限,可以采用垂直磁记录方式,通过使磁场方向垂直于盘面,不仅能够进一步缩小磁体粒径,同时还能够确保一定的体积。这种方式的另一个效果是利用相邻记录位的磁场就能使记录位磁场保持稳定。垂直磁记录方式作为未来的高密度技术已开始被业界寄予厚望。与水平记录方式不同,采用这种方式不必把膜设计得非常薄,还可以确保粒子的大小,避免受热搅动的影响。
几年前提出的“湿盘”(wetdisk)技术,也在继续都到关注。当我们要把磁盘密度进一步增大,目前以金属薄膜盘片以及玻璃基片的"温盘技术"便无能为力了。我们知道,当磁盘密度达到一定程度时,信号便会变得更加微弱,并且相邻信号之间的干扰也更为严重。要解决只能把磁头进一步贴近盘片,但目前的磁头飞高已不到0.08微米,要进一步令磁头靠近盘片非常困难,因为这要克服磁头抖动及盘片细微凹凸等引起问题。为此,有人提出干脆把磁头紧贴磁盘(Contactrecording),于是一种全新的盘片技术“湿盘”(wetdisk)被提上的研发日程,“湿盘”可以最大限度地减少磁头与盘片的磨擦,但其中还有不少技术上与工艺上的问题有待解决。我们期待着这种新型磁盘材料的早日问世。
希捷公司则在今年发布了一种可在一平方英寸介质上存储 50TB数据的技术,通过这一技术,超大容量的硬盘可能在不久的将来面世。这就是HeatAssisted MagneticRecording(热辅助磁记录HAMR)的技术。这种技术使用激光热辅助手段,通过磁记录方式将数据记录到高稳定性介质上,从而大大提高了每平方英寸的存储量,使磁记录极限进一步超越人们的想象。HAMR结合了铁铂粒子自排列的磁阵列技术,将把所谓的磁记录超顺磁极限提高100倍以上,最终可以实现每平方英寸50TB的存储密度。具体说HAMR技术在将要记录数据位的位置,用激光束精确地加热介质,就容易将数据写到它上面了,而且随后的快速冷却又可以使已写入的数据变得稳定,从而大大提高磁盘面密度纪录。

二、串行接口技术进一步发展
由于具备诸多优点,SATA接口在今年已经顺利普及,预计其生命期为十年左右,计划推出三代产品。目前使用的SATA1.0提供了150MB/s的传输速度。而 SATA2.0能提供300MB/s的传输率, SATA3.0的速度至少可以达到600MB/s,且具备其他一些新特性,将目标瞄准了高端企业市场。


为真正体现出SATA接口优势,人们都期待着SATA 2.0的推出和应用。但是由于种种原因SATA2.0普及的步骤还不够快,今年市场上出现了一些采用"SATAII"接口的新款硬盘,这里要明确一点,SATA II并不是真正意义上的SATA2.0,最显著的一点是,其接口速度依然保持在150MB/s。大家知道SATA硬盘分为原生(Native)与桥接(Bridge)两类,使用桥接方式的SATA接口,本质上仍为PATA,实际性能受到一定影响。真正原生串行硬盘是指接口速率为150MB/s,并支持命令队列等新功能、采用真正SATA控制器的产品。SATAII硬盘可以简单被视为是由桥接模式到原生模式的升级。
SATAII代表产品是迈拓最新推出的MaXLineIII。这是是迈拓第一款真正意义上的SATA接口硬盘,所以在这款产品上大家将不会看到4针的电源接口,只使用15针符合SATA标准的电源接口。尽管接口速度仍然维持在150MB/s,但这款硬盘使用了部分SATA2.0的新技术,其中最引人注目的是本机命令排队(Native CommandQueuing,NCQ),NCQ技术可以最大限度的消除硬盘的转动延迟和减少寻道距离。NCQ技术在SCSI硬盘中早就得到了广泛的应用,但到现在才正式引用到ATA硬盘中。

使用SATAII的MaXLineIII  SATA2.0真正的发展不是在Desktop平台,而是在企业应用中。在服务器领域SAS(Serial AttachedSCSI)技术将得到广泛应用,但由于SCSIUltra640标准一直没有被业界所采纳,所以相关厂商把SATA2.0作为SAS的一部分。长期以来,ATA只是在功能上被视为SCSI的子集,两者之间并不兼容。如今SAS在软硬件层面上都涵盖了SATA,企业级用户可以在同一环境中混用SAS和SATA驱动器,保持性能及价格的均衡。SAS就是SCSI,却有串行连接的特性,SAS技术将会对光纤通道技术发起挑战,使企业磁盘市场又多一种选择。
外部SATA接口在今年也得到了初步发展,串行ATA技术在制定之初就未局限于机箱内部设备的使用。目前相关组织开始为外部SATA接口制定明确的标准,其中包括:高速的传输接口、不受噪音干扰的电缆、简单的层次架构和一些其他参数。
除了SATA,今年还有其他新型硬盘接口新标准得到了发展。英特尔在2004秋季IDF上推出了全新的CE-ATA接口,CE是消费电子(Consumer Electronics)的英文缩写。新规范概念上与个人电脑和服务器硬盘的Serial ATA接口相似。这意味 CE-ATA将取代并行接口和大家熟悉的缎带式排线,改用小而薄的线缆和连接器形成串列,所需针脚数目也会减少,这将有助于降低耗电量和成本,并提高系统稳定性。

三、笔记本电脑硬盘新发展
近些年随着移动计算技术的发展,笔记本电脑硬盘也在向着更小体积、更高速度、更省电、更安全 方向发展。
笔记本硬盘由于单蝶容量和转速的先天不足,其容量和性能与台式机硬盘相比有相当大的差距。不过7200转的2.5寸笔记本硬盘目前已经上市,配合8MB以上的大容量高速缓存,性能有较大的提升。为进一步提高笔记本电脑硬盘性能,目前甚至有厂家考虑使用两块1.8英寸硬盘组成RAID0,随着新技术的不断应用,突破笔记本电脑性能瓶颈指日可待。
除了性能提升,笔记本电脑硬盘也采用了很多新技术来提升容量,象日立硬盘采用的 Femto Slider Head(毫微微米级滑行读写头)技术,使读写头与盘面之间的距离缩短了40%,增加了大约10%的纪录区域,实现了高密度化。此外还采用了IBM开发的一项所谓"仙尘技术",(PixieDust),使硬盘的可靠性和存储密度大幅增加。仙尘技术实际上是IBM发明的一种稀有金属涂层,它能够克服当磁存储设备的存储密度到达一定限度的时候所出现的超磁效应。这样磁盘的存储密度就能进一步上升。为实现更高的记录密度,可以利用特殊的"钌层":使用1到2层磁体膜,在每个磁体膜之间夹入反铁磁体即钌膜。记录层磁场穿过钌膜时其磁性会发生反转。这样一来,钌膜正下方的磁体膜就会具备与记录层磁性正相反的磁场。由于磁场反向,因此就能够稳定地保持记录层的磁场强度。由于这些技术的采用,今年笔记本硬盘容量已经提升到100GB以上。

采用CF接口的微形硬盘
  
除了容量和性能的提升,小型化也是笔记本硬盘发展的一个趋势,随着超便携笔记本电脑的发展,1.8英寸笔记本硬盘今后将得到更广泛的应用,同时容量也将提升到60G以上。而更小的1英寸HDD(MicroDrive),容量已达到了5GB,当然,这种硬盘目前还只能作为笔记本电脑的辅助存储设备,随着今后容量提升到20G以上,应用在特殊的超小型笔记本电脑中也不无可能。
在安全性方面,由于硬盘是笔记本电脑中最容易受损的部件,而它又装载了用户的系统和数据,意外的跌落、撞击乃至晃动都有可能造成笔记本电脑数据丢失或硬盘损毁。针对这一问题,IBM研发了革命性的主动硬盘保护技术- -APS(Active ProtectionSystem,主动保护系统),使其对硬盘的保护由过去的被动方式转化为主动方式。APS是由内嵌于主板上的加速度感应芯片和预装在系统中的震动预测管理软件所组成,通过对笔记本各角度、震动、撞击的监测即对横纵加速度变化的监测,来决定是否将硬盘磁头从工作状态收回到磁头停止区(ParkingZone),从而减小撞击对硬盘的损害,保护硬盘及硬盘内的数据。
除了APS技术,硬盘"保护区域"也在保护笔记本硬盘数据安全上发挥作用。所谓"保护区域"简单说就是PC硬盘上一个特殊的隐藏区域,现在有一些笔记本电脑在出厂之前将硬盘的一部分容量做成“保护区域”,并将操作系统、预装软件备份在其中;当用户按住特定按键或者用恢复软盘启动主机时,硬盘收到ATA命令打开"保护区域";再用特定的软件将备份数据恢复到用户区域,系统就得到了恢复。

四、硬盘微型化发展趋势
硬盘在PC中的应用已经达到了顶峰,为拓展新的应用空间,微型硬盘得到了很快发展,而且硬盘也开始进入了消费电子领域。
随着数码产品对大容量和小体积存储介质的要求,早在1998年IBM就凭借强大的研发实力最早推出容量为170/340MB的微型硬盘。而现在,日立、东芝等公司,继续推出了4GB甚至更大的微型硬盘。微型硬盘最大的特点就是体积小巧容量适中,大多采用CFII插槽,只比普通CF卡稍厚一些。微型硬盘可以说是凝聚了磁储技术方面的精髓,其内部结构与普通硬盘几乎完全相同,在有限的体积里包含有相当多的部件:如磁盘片、巨磁阻磁头、控制电路、主轴电机和接口电路等。其转速为3600/4500rpm,工作电压为3.3V或者5V。可直接用于支持CFII标准的产品,或通过专用PC适配器使用到对有PCMCIAII插槽的产品中。新第一代1英寸以下的硬盘也上市,东芝将是最早推出这种硬盘的公司之一,其直径仅为0.8英寸左右(SD卡大小),容量却高达4GB以上,有研究表明,容量为4GB的微型硬盘可满足一般用户绝大多数数据的存储、移动及备份要求。
现在PC和消费类电子设备的界限越来越小,过去被认为只用于PC的硬盘如今也开始步入影音播放器、游戏机等消费类电子设备。硬盘的高容量、低价格、高速度优势是目前其他存储部件所无法比拟的,今后必将成为这些产品最重要的数据存储装置,值得我们关注。微型硬盘作为一种特殊类型的硬盘从诞生之日便与便携设备结下不解之缘。

采用CFII接口的神达Mio558   

微型硬盘大多采用了标准的CFII接口,因此在大多数具有CFII接口的设备上都能正常使用。小型和微型硬盘已经在MP3播放器中大量应用,而随着数码相机像素的增加和录像拍摄能力的增强,不少准专业数码相机不仅具有CFII接口,还提供了对FAT32格式的支持,因此在这类产品上可以使用2GB以上大容量的微型硬盘。另外具有CFII接口的掌上电脑也可以使用微型硬盘存储影音文件,使得随身观看一部完整的“大片”成为可能。除了上述产品,目前微型硬盘已经开始在数码摄象机等新领域中开始应用。
未来是一个嵌入计算无处不在的世界,也将对嵌入存储提出越来越高的性能要求,硬盘、光存储和半导体闪存将在不同的嵌入式计算系统中发挥自身优势或在同一系统中相互弥补。半导体闪存在嵌入式系统中的应用比较成熟,光存储的发展也很迅猛,而相比之下硬盘在消费电子设备中只是刚刚开始应用,但今后数字设备中肯定会出现更多硬盘的身影。而随着由于数字电视标准普及,机顶盒将很快成为炙手可热的产品。未来机顶盒功能将全面丰富,作为各类数据的暂存或录制工具,在机顶盒中使用硬盘将大大提高其存储能力。此外,有厂商已在考虑将更小尺寸的微型硬盘置入未来新款手机当中。今后硬盘甚至还将会出现在汽车、冰箱等我们意想不到的设备和电器中。

五、RVS技术和流媒体应用
振动是对硬盘的性能产生影响的重要因素之一。在数据的读写过程中,硬盘上的磁头必须在盘片上的磁道间移动。物理振动有可能让磁头偏离磁道,尽管传动系统会让磁头自动回到正确的位置,但这就造成了硬盘数据读取的延迟。尤其是环形的旋转振动,会对硬盘磁头的运作产生巨大的影响。目前应用了一种“反馈磁头位置控制器”(feedback head position controller)来对付振动对硬盘的影响,但这会造成数据读取的延迟。
为解决此问题,日立开发了RVS(Rotational VibrationSafeguard,旋转振动保护技术)。这种RVS技术采用了在硬盘的边缘配置数个振动传感器的解决方案,当检测到有振动传向硬盘时,这些传感器会向硬盘上控制磁头位置的传动系统"前馈"发送一个信号,传动系统立即对振动做出响应,而传动系统的即时响应减少了振动对硬盘产生的影响。通过上述方法,硬盘上的磁头就有可能主动地对抗振动。同时配置有"反馈"和"前馈"防振动系统的硬盘有更好的稳定性。
在应用了RVS后,由于硬盘磁头的传动装置能够在振动到来之前得到信号,这样就能够事先做出反馈,更有效地确保磁头的准确位置。在振动发生时,硬盘的磁头受到较小的影响,就能够确保磁头更多地处在正确的位置,从而大大地提高数据读写的速度。在振动的条件下,在打开了硬盘的RVS功能后,硬盘性能的提高超过70%。
目前硬盘越来越多地被应用到音频和视频设备中。但是为电脑应用而设计的硬盘必须在AV(音频视频)流媒体应用性能上有所改进,才能满足音频或视频等设备的特殊应用需求。最主要是AV设备以数据流的形式播放和录制信号。如果发生数据流中断,就会造成音频或视频信息的丢失。
在数据流的传输中,少量的数据错误或较长的数据传输延迟,都会对AV应用产生不利的影响,但后者的影响更大。短暂的数据流传输延迟,可能只会造成图像画面上几个像素点的丢失。而长时间的数据流传输延迟,则可能造成大量信息的丢失,观众可以轻易地发现由于这种信息丢失所产生的结果。为了满足AV产品的应用需求,人们为硬盘开发了一套全新的流媒体指令集。流媒体指令集让AV系统能够发挥硬盘的最好性能。流媒体配置指令让AV系统可以通知硬盘将同时进行几个流媒体应用,并且可以让硬盘事先知道将要进行读或写。通过这些信息,硬盘就可以对它的缓存管理进行优化,从而使其性能得到更好地发挥。

六、iSCSI 让硬盘搭上网络快车
2004年2月,IEFT(国际互联网工程任务组)在经过反复争论和妥协后终于正式通过了iSCSI协议标准,并发布了iSCSI协议的RFC草案。随后包括IBM、Intel、微软等业界巨头在内的多家IT厂商立即声称将在各种层面上支持该技术。
所谓iSCSI,简单就是一种在SCSI接口基础上发展起来的、基于TCP/IP协议的存储接口技术,作为IP存储领域本身,还包括FCIP、iFCP和iSNS等几个技术方向,iSCSI技术是其中较早成熟的一个。对于无法承担光纤通道SAN环境高成本的中小型用户来说,iSCSI具有巨大的吸引力。iSCSI最大的特点在于其对成熟的以太网的借用,这种借用体现在低成本实施和易管理维护,为存储区域网络(SAN)提供一种低价位的传输模式,为中端服务器提供了良好的存储解决方案。iSCSI能提供容灾、备份和中级存储解决方案。


iSCSI协议定义了在TCP/IP网络发送、接收block(数据块)级的存储数据的规则和方法。Initiator(发送端)将SCSI命令和数据封装到TCP/IP包中再通过网络转发,target(接收端)收到TCP/IP包之后,将其还原为SCSI命令和数据并执行,完成之后将返回的SCSI命令和数据再封装到TCP/IP包中再传送回发送端,而整个过程在用户看来,使用远端的存储设备就像访问本地的SCSI设备一样简单。支持iSCSI技术的服务器和存储设备能够直接连接到现有的IP交换机和路由器上,因此iSCSI技术具有易于安装、成本低廉、不受地理位置限制、良好的互操作性、管理方便等优势。
总的来说,iSCSI就是在低成本的以太网上提供网络存储服务,iSCSI可以如下领域获得广泛应用:通过IP合并提供SAN所具有的功能:例如存储虚拟化、Capacity-on-Demand镜像、TimeMark/TimeView(磁盘日志)、复制、备份和恢复、StorageVaulting等刀片式服务器存储架构。随着iSCSI技术的完善,数据块级的存储应用将变得更为普遍,存储资源的通用性、数据共享能力都将大大增强,并且更加易于管理。随着千兆以太网的成熟以及万兆以太网络的开发,IP存储必然会以其性价比、通用性、无地理位置限制等优势飞速发展,iSCSI技术将联合SCSI、 TCP/IP这两大经典技术,共同开创网络存储的新局面。

[ 本帖最后由 古色古香米花糖 于 2009-1-10 10:19 编辑 ]
回复 支持 反对

使用道具 举报

962

主题

3万

帖子

17万

积分

Lv.22 皇后

战狼!爱我中华!

Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22

积分
177284
在线时间
759 小时
 楼主| 发表于 2009-1-10 10:21:17 | 显示全部楼层 | 来自上海
硬盘技术前瞻

现在的硬盘发展已经接近了一个极限水平,要想在容量和性能上继续有所突破,就必须找到限制硬盘发展的幕后黑手是谁,只有清楚地认识到了它,我们才能更好的对付它,它就是超顺磁效应。

■超顺磁效应
要了解为什么需要新的硬盘技术,首先需要了解我们现在使用的硬盘技术。下图所示的是我们现在所使用的硬盘的结构,主要包括:读写磁头/悬挂装置、盘片、马达、外壳和电路板。电路板上的控制器接收并且解释计算机磁盘控制器(对于PC来说,就是主板南侨中的硬盘控制器)的指令,然后根据指令通过驱动马达和磁头在盘片上进行读写。

现代硬盘构成


现代硬盘的主要组成部分
盘片是在铝制合金或者玻璃基层的超平滑表面上依次涂敷薄磁涂层、保护涂层和表面润滑剂等形成的。盘片以5400RPM-15000RPM的转速转动,磁头则做往复的直线运动,而可以在盘片上的任何位置读取或者写入信息。微观的来看,盘片上的薄磁涂层是由数量众多的、体积极为细小的磁颗粒组成。多个磁颗粒(约100个左右)组成一个记录单元来记录1bit的信息——0或者1。
http://publish.it168.com/diy/showBigPic.as...icid=384011.jpg
水平记录技术示意图
  
这些微小的磁颗粒极性可以被磁头快速的改变,而且一旦改变之后可以较为稳定的保持,磁记录单元间的磁通量或者磁阻的变化来分别代表二进制中的0或者1。磁颗粒的单轴异向性和体积会明显的磁颗粒的热稳定性,而热稳定性的高低则决定了磁颗粒状态的稳定性,也就是决定了所储存数据的正确性和稳定性。但是,磁颗粒的单轴异向性和体积也不能一味的提高,它们受限于磁头能提供的写入场以及介质信噪比(SNR)的限制。

磁头的信噪比、热稳定性及写入能力三权制衡
  
现在对于磁记录设备的要求是体积越来越小,容量越来越大,也就是区域密度越来越高,这样磁颗粒当然也就越来越小,比如当区域密度为20Gbpsi时,磁颗粒直径约为13纳米,而当达到100Gbpsi时,直径缩小到了9.5纳米。当磁颗粒的体积太小的时候,能影响其磁滞的因素就不仅仅是外部磁场了,些许的热量就会影响磁颗粒的磁滞,从而导致磁记录设备上的数据丢失,这种现象就是“超顺磁效应”。

超顺磁效应

为了尽可能的降低“超顺磁效应”,业界通过提高磁颗粒异向性、增加热稳定性来解决。磁颗粒异向性的提高固然使得磁记录介质更加稳定,但是必需同时提高写入磁头的写入能力。另外,磁颗粒体积的缩小,也需要进一步提高读取磁头的灵敏度,于是MR(磁阻磁头)和GMR(巨磁阻磁头)相继应运而生,GMR磁头技术的帮助下,水平记录区域密度已经达到了100Gbpsi以上。
不过,磁记录业界公认水平记录技术已经达到了极限,再通过开发不同的磁性材料、磁头技术来提升区域记录密度已经不再是经济、有效、可行的途径了。

■垂直记录技术(Perpendicular Magnetic Recording)
一直以来,硬盘都是采用纵向记录(LongitudinalRecording)技术,但是,随着存储密度的快速提升,“超顺磁效应”的出现使纵向记录技术终于走到了尽头。在硬盘中,记录介质是由很多微小的磁粒构成的,磁单元(1bit)被写入这些磁粒中,每个磁单元大约需要100个磁粒。为了提高磁盘存储密度,每个磁单元和磁粒本身的体积就要相应地减小。而当密度增加到一定程度时,只需要很小的能量就可以将其翻转,甚至当磁粒过小时,它们会因为室温下的热能而自动反转磁路,也就是说,那些保存在磁盘中的数据将遭到破坏,不能正确地读出。这就是所谓的“超顺磁效应(SuperparamagneticEffect)”。研究人员发现,纵向记录技术在存储密度高于120Gb/in2时,已无法保存完整的数据。
正是纵向记录技术的饱和而催生了另一种技术的诞生和发展,这就是垂直记录技术(Perpendicular MagneticRecording)。如果把一个磁单元比作一个小小的骨牌,那么,纵向记录就是将骨牌(即磁单元)以水平模式存放,因此占用了较多的空间。而垂直记录技术则是将骨牌直立起来,从而有效地提升了磁盘表面每平方英寸的磁单元数量,增加了整体的存储容量。无论是垂直记录技术还是纵向记录技术,硬盘的基本原理和结构都没有发生改变,垂直记录技术所带来的重要的技术变革在于介质、磁头和读写电子器件上,与纵向技术最大的不同在于,垂直技术的磁路垂直于磁盘表面,而不是位于磁盘表面。

垂直记录技术示意图


垂直记录技术的磁单元在磁头的作用下反转磁极的示意图

除了上述优点外,使用垂直记录还可以减小超顺磁效应的影响。目前硬盘使用的水平记录技术,磁粒子裸露在外面,受热后容易升温,而改用垂直记录技术后,磁体将被埋藏,热量很难迅速作用于整个磁体,升温效应自然被降低,磁粒子之间的距离可以进一步被缩短。在“双重优势”的作用下,垂直记录技术把硬盘带上了一个新台阶。
由于记录方式的改变,硬盘的读写磁头自然也会发生变化。图2所示是使用水平记录技术的硬盘,其结构是具有两个磁极的马蹄形;图3所示是使用垂直记录技术的硬盘,我们可以看到它同传统硬盘的明显区别,其使用了单极的读写磁头,该磁头就像一枚针头那样改变磁粒子的极性,在磁存储单元的下面,我们还可以看到传统硬盘所没有的一种磁性材料,这种材料被称为“软层”,它可以让电流顺畅通过。目前软层厚度已经减少至100纳米左右,为垂直记录硬盘走上量产之路奠定了基础。

目前硬盘使用的“水平记录”方式和未来硬盘使用的“垂直记录”方式的对比

采用垂直记录技术可以大幅提升存储密度,从而提升硬盘的存储容量。今年4月,日立环球存储科技公司(Hitachi Global StorageTechnologies,HGST)宣布,该公司已在实验室实现了采用垂直记录技术的高达230Gb/in2的存储密度,为推出20GB的微硬盘和1TB的3.5英寸硬盘实现了技术上的突破。这是迄今为止最高的磁记录密度,它比现有的纵向记录最高密度高出两倍。据悉,这一新技术及其配套的磁头和盘片将于今年年底开始被采用,预计在2007年将广泛投入生产,应用于各种商业性的硬盘产品上。当这种技术在未来5~7年被广泛应用后,其存储密度将比纵向记录高出10倍以上,为开发更大容量的硬盘产品(如60GB的1英寸硬盘)奠定了基础。目前,1英寸硬盘的最大容量为6GB。

日立垂直记录技术硬盘

■热辅助记录技术(Heat-Assisted Magnetic Recording)
热辅助记录技术可以从另外的角度实现超高密度记录的目标。最近,世界最大的硬磁盘驱动器制造商之一的Seagate(希捷)科技提出工种称之为热辅助磁记录(Heat-Assisted MopeticRecording,HAMR)的居里点记录技术。其原理是,所有磁性材料都具有一个居里点温度,当磁性材料被加热到该温度时,材料的矫顽力降为零。介质材料的矫顽力较低时,容易记录,但信号不稳定;相反,当介质材料的矫顽力较高时,记录信号稳定,但要求记录磁头具有强度更高的记录磁场,采用传统磁头几乎不可能完成记录。对于高矫顽力介质,在记录过程中,如果采用激光照射等手段将记录介质上一个非常小的区域瞬时加热,使其温度达到居里点附近,由于介质的矫顽力降低,容易用记录磁场相对较低的磁头在该位置记录一位信息。当热源除去以后,随着记录区域的冷却,该记录区域将很快恢复到原来的高矫顽力状态,所以该记录位将是非常稳定的。采用这种方法既可以克服高矫顽力介质记录的困难,又能改善信息位的热稳定性,从而获得非常高的面记录密度。

热辅助记录示意图

希捷准备将这项技术用于新的硬磁盘驱动器中。据称,采用这种技术将显著提高硬磁盘的面记录密度,预计可以比现行面密度提高约两个数量级,达到50Tb/in2。如果实现这一记录密度,那将意味着一台单碟的3.5英寸硬磁盘驱动器即可达到81Gbytes的存储容量。虽然希捷的HAMR技术在短时间内不大可能成为现实,但由于该技术是建立在目前已经熟知的技术的基础上的,所以专家认为,在2010年之前出现HAMR硬磁盘驱动器是完全可能的。

■晶格介质(Patterned Media)
晶格介质技术可以使每个磁性颗粒携带1bit,而不像现在这样1bit的数据由100多个磁性颗粒共同表示,大大提高了存储面密度。这种技术需要在储存盘上蚀刻出一定的图案来储存数据。

晶格介质原理图

■新型记剥读出磁头
上世纪90年代初磁电阻型读出磁头在硬磁盘驱动器中的应用,大大推进了硬磁盘驱动器性能的提高,使其面记录密度达到了Gb/in2级。10几年来,磁电阻磁头已从当初一的各向异性AMR磁头发展到巨磁电阻GMR磁头和隧道型TMR磁头等性能更高的品种。在目前的各种高性能硬磁盘驱动器中,以电流方向在平面内的(current-in-plane)CIP-GMR型磁头的应用最为普遍。为了进一步提高记录密度,要求磁头具有更高的磁电阻变化ΔR,更高的磁电阻比(ΔR/R)。这是因为:第 1,磁头的效率V随读头缝隙长度和磁道宽度的减小而下降;第2,为避免磁头几何参数的缩小引起温度的上升和电子迁移性能(EM)的恶化,需要采用较小的读出电流IS。但是,读出磁头的输出电压是由η×Is×ΔR决定的,所以,必须通过提高ΔR来补偿IS和η的减小对输出电压的影响。
目前,采用纳米氧化层的CIP-GMR薄膜的MR比(ΔR/R)已从10%提高到20%,磁电阻变化ΔR达到2~4Ω,这似乎已经达到材料的性能极限。采取磁电阻比20%的GMR薄膜材料可以达到100~200Gb/in2的面记录密度,但对于100~200Gb/in2以上的密度,需要开发新一代更高性能的读出磁头薄膜材料。电流垂直于平面(Perpencular to plane)的巨磁电阻薄膜 CPP-GMR就是1种新的磁头材料。其优点是,(1)CPPGMR固有的磁电阻比大于CIP-GMR;(2)读出电流的横截面大于CIP-GMR,因而在热性能和EM性能方面优于CIP-GMR;(3)在不提高薄膜的性能ΔRA(ΔR和元件面积乘积)的条件下,按比例缩小元件面积能够得到较高的磁电阻变化,这将使输出电压随面密度的增加而自然增加,因此可望获得更高的面记录密度。Fuitsu已经采用 CPP-GMR磁头和垂直记录技术成功实现了300Gb/in2的记录密度.
隧道型磁电阻磁头TMR磁头是有望成为下1代高密度读出元件的另1种磁头。这种磁头材料的主要优点是磁电阻比高于GMR,所以具有更高的灵敏度,而且由于其几何结构属于CPP型,所以适合于超薄的缝隙间隔。近几年来,对隧道磁电阻材料及其制备工艺,阻挡层的可靠性,信号的不稳定性以及磁隧道结电阻的减小等问题进行了广泛的研究,实验制备的TMR磁头已经达到了50Gb/in2以上的记录密度。
硬磁盘驱动器采用的双元磁头中,磁电阻型元件只能用作读出磁头。作为写元件,目前仍然采用传统的感应式磁头。写元件的改进除了材料性能的提高外,主要采用先进制造技术按比例缩小缝隙长度和磁道宽度,以满足高密度记录的要求。较窄的磁道和较小的缝隙将使写磁场变小。另一方面,为了改善高密度记录时的热稳定性,记录介质应具有较高的各向异性常数KU;从而使介质的矫顽力Hc升高。为保证良好的写性能,要求写磁头具有较高的记录磁场。此外,在高道密度条件下,还要求写磁场在沿磁道截面方向急剧衰减。但是,在道宽、缝长和磁头材料不变的情况下,无论写磁场强度还是写磁场在磁道横截面的衰减均难以获得明显的改进。作为解决这一矛盾的方法之一,K.S.Kim等提出了二种新的平面型磁头(Planatype head)。这种单一的平面型磁头可以产生高达1114kA/m(14k Oe)的写磁场,能够在矫顽力高于796kA/m(10kOe)他的介质上写人非常好的位图形。但这种磁头的磁头场分布较宽,这将使过渡区变长,位形状扭曲。为克服这些缺点,他们通过优化设计,调整磁头结构,使磁头的记录性能获得了明显改进。YasushiKarm等提出了1种带有侧屏蔽的新型平面型写磁头,通过三维有限元方法使其结构达到了最优化。该磁头具有记录场强高。记录场梯度大。沿磁道横截面方向的磁场衰减陡峭等特点,适用于100Gb/in2以上的记录密度。

■图形化介质
采用图形化介质是克服超顺磁极限,提高磁记录介质记录密度的另一途径。在图形化介质中,介质是由非磁母体隔离的纳米级岛状单畴磁性斑点阵列组成的,每位信息存储在一个单畴磁斑上。这既避免了与连续介质相关的噪声,又可使单畴颗粒的尺寸增加几百倍,从而大大提高了记录信息的温度稳定性。随着纳米制造技术的发展,近年来提出了多种制备图形化介质的方法,如冲压法(Stamping),离子束刻蚀法(Ion beametching),光刻法(Lithog-ranhy),地形学刻蚀法(Tbtiqranhicaletching),在阳极化铝孔中电镀法(Plaing inanwhzed allnumoe)等方法。CharesT.Rettner等采用聚焦离子束的方法(Foced IonBeam,FIB)在薄膜颗粒状垂直Co70Cr18Pt12。介质上制备出单畴岛状图形化介质,并实现了140Gb/in2的记录密度。T.Aoyama等采用电子束光刻法和反应离子刻蚀工艺制备了CoPt连续膜的图形化介质。研究表明,当岛状磁斑的直径大于160nm时,磁斑为多畴结构2而对于磁斑直径为80nm的磁斑阵列。每一磁斑均呈现稳定的单畴状态。该阵列组成的图形化介质具有优良的热稳定性,在温度350K和反转磁场40kA/m(0.5k Oe)的条件下,其磁化衰减小于传统纵向记录介质的1/5。K.Naito等采用人工辅助自组装方法(AASA)在直径2.5英寸的玻璃基片上制备出了适合于硬磁盘的圆周形图形化介质。已经证明,介质中每一个磁斑均为直径40urn的垂直取向单畴颗粒。
回复 支持 反对

使用道具 举报

962

主题

3万

帖子

17万

积分

Lv.22 皇后

战狼!爱我中华!

Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22

积分
177284
在线时间
759 小时
 楼主| 发表于 2009-1-10 10:30:39 | 显示全部楼层 | 来自上海
未来计算的记忆之门

■全息存储技术——硬盘的接班人
全息存储(Holographicmemory,也称为“holostore”)是一项非常新颖的存储技术,它的原理与“全息照相”完全相同。熟悉高中物理知识的读者应该都了解“全息照相”的概念,无论银盐相机还是数码相机,所照出的照片都是二维平面的、没有任何立体感,而真实的影像都存在于三维空间。换句话说,相机在拍摄的过程中并没有捕捉到所有信息,只是记录下二维数据而已。在人类掌握激光技术之后,拍摄出包含完整三维影像的全息照片才成为可能,这也就是所说的“全息照相技术”。

全息照相技术

全息照相利用了光的干涉原理,通过两束光的干涉来记录被摄物体反射或透射光波中的全部信息,它所对应的拍摄设备也不是普通的照相机,而是一台激光器。拍摄时,激光束被分光镜一分为二,其中一束直接照射到被拍摄的物体上,该光束就被称为“物光束”;另一束则直接照到感光胶片上,它被称为“参考光束”。当物光束被所摄物体反射之后,形成的反射光束也会照射在胶片上,胶片将这些信息完整记录下来,这样就完成了全息照相的摄制过程。从外观上看,全息照片和普通照片截然不同,普通照片上是清晰的拍摄图像,而全息照片上只有一些乱七八糟的条纹。但如果利用一束激光去照射全息照片,眼前就会出现非常逼真的立体景物。更加美妙的是,如果从不同的角度观察,我们将可以看到原始物体的不同侧面。展现在你面前的,完完全全是真实的原始图像,倘若不加以提醒,你也许会认为面前出现的就是真实景物。更令人匪夷所思的是,即使你不小心将全息照片弄碎,影像内容也不会受丝毫影响,随便拿起一小块碎片,用同样的激光照射,被摄物体依然可以完整无缺地显示出来。除此之外,利用全息技术还可以很方便拍摄三维动画。只要记录时改变激光的角度或波长,就可以将该物体的许多变化都记录在同一个感光片上,由此可产生完全真实的动画场景,而全息动画的每一帧都可以通过改变入射光的角度来存储。
在基础原理上,全息存储与全息照相完全相同,只是它并不是将激光用于物体拍摄。在全息存储系统中,一束激光被用于传输数据,另一束仍然是参考光束。被存储的数据预先被编码为数据页,可以用多路复用的方式直接记录到由感光材料制造的存储介质上。这种独特的工作机制赋予全息存储匪夷所思的先进特性,理论上说,它的存储密度可轻松突破1TB以上,平均数据传输率达到10GBps的惊人水平。加之全息存储器不需要任何移动部件,数据读写操作为非接触式,使用寿命、数据可靠性、安全性都达到理想的状况。有鉴于此,全息存储成为科研机构热衷研究的对象,一些具有前瞻目光的存储企业纷纷投身其中。早些年,奥勒冈大学曾经使用Tm3+:YAG(注:Tm,thulium,化学元素铥;YAG,yttrium aluminum garnet,钇铝石榴石,是一种可用于产生激光束的氧化铝合成晶石)作为记录材料进行全息存储实验。在实验中,研究人员成功地将1760位数据序列进行编码、并输入激光束中,然后将它们存储在Tm3+:YAG晶体上、并成功进行多次反复读取,从而证明全息存储是可行的。虽然在该试验中,研究人员仅仅实现了大约每平方英寸8Gbit的存储密度,指标很难拿出手。不过研究人员表示,这种情况主要是由于额外的仪器因素造成的,如果加以实用化改进,Tm3+:YAG晶体的存储密度完全可以提升到每平方英寸100Gbit水平,数据传输率也可增加到1Gbps以上。当然,光谱的全息存储极限远远高于该值,TB级容量和10GBps高速率是一个完全可实现的目标。

图中为全息照相所用的感光胶片,全息存储也将使用类似的存储材料。
   
除了高密度、高速度和高可靠性外,全息存储技术还存在大量的优点。如它可以对不同页的数据进行并行存取,同时具有数据库查找与数据挖掘的超高效率,因为数据是以光的形式进行比较、而不必将它读入内存中作程序运算,使它在指纹匹配、照片识别等场合具有明显的优势。再者,全息存储几乎可以永久保存数据,在切断电能供应的条件下,数据可在感光介质中保存数百年之久,这一点也远优于硬盘。但与其他任何新技术一样,全息存储在发展过程中同样要面对一些困难,例如很难制造出高质量的大尺寸晶体,成本极其高昂;读写数据时都有可能对原有的数据造成损害等等。相信随着时间的推移,这些困难将会陆续得到解决。
除了前面介绍的奥勒冈大学外,从事全息存储研究的还有许多科研机构和企业,如加州工学院、斯坦福大学、亚历桑那大学、卡内基梅隆大学、IBM公司等等,它们分属于“全息数据存储系统协会(HDSS)”和“光折射信息存储材料协会(PRISM)”—这二者也是全息存储技术的两个工作组。不过,该领域成就最突出的应该是日立麦克赛尔公司,它旗下的InPhase公司在全息存储研究方面已经进入到实用阶段。该公司表示,将在2005年秋季开始试生产存储容量为200GB的全息硬盘,这可以说是全息存储技术迈出的历史性一步。虽然还是被称作“硬盘”,但它与目前基于磁性存储原理的硬盘没有任何相同之处。这种全息硬盘组成上类似于光存储设备,采用分离的驱动器和存储碟片,且使用407纳米波长的蓝色激光作为数据读写的工具。存储碟片由1.5毫米厚的两层光敏聚合物共同组成,直径5英寸,它被一个塑料外壳严密保护起来。从图3中大家可以看到,日立的全息硬盘系统在外观上同软驱和软盘有些类似。

InPhase公司的全息硬盘样品

按照计划,日立麦克赛尔公司将在2007年开发出存储容量为400GB的第二代全息硬盘。光从容量上考虑,这样的数字并不比现在的硬盘来得高明,但我们要明确的是这仅是全息存储的初级应用方案。InPhase公司已展出1.6TB容量的全息硬盘样机,只是其成本过高,短时间内难以进入实用阶段。在速度方面,全息硬盘已经表现出明显的优势,10GBps的超高性能在未来若干年内完全可以实现,这样的速度甚至比现在的双通道DDR2-533内存系统还要快得多。一旦全息存储技术进入成熟阶段,超过50年历史的硬盘将因此被终结,计算机的存储系统将进入一个崭新的时代。

■蛋白质存储——生物与激光技术的结合体
以蛋白质作为计算机的存储介质无疑是一个匪夷所思的想法,但它并非不可实现。我们知道,不论是视频、音频、图像、文本还是其他什么格式的文件,归根结底都是由二进制数据所组成,任何一种设备,只要能够稳定表达出“0”、“1”两种状态,就可以实现数据运算和存储功能。对目前使用的电子计算机来说,晶体管的通断状态、电压的高低可作为二进制数据的明晰表达,而蛋白质存储所借助的则是蛋白质分子本身的光吸收率特性。

蛋白质存储器的概念模型
   
蛋白质存储的最基本单元是从细菌中抽取出来的Bacteriorhodopsin(噬菌调理素),它是一种能以多种化学状态稳定存在的有机分子,这种有机分子可以有多个不同的状态,而每种状态都对应不同的光吸收率。这样通过光技术的帮助,我们就可以很容易检测出特定位置的分子处于何种状态,如果从中挑选出两种状态,一种设定为二进制数“0”,另一种设定为二进制数“1”,这样就实现了数据的表达。如果要对数据进行读取,我们只要通过检测分子状态即可;如果要将数据写入到相应的存储设备中,也只要借助光技术来改变这些分子的存在状态即可。这样,一套蛋白质存储方案由此建立。
研究人员在实验室中成功制造出蛋白质存储设备的原型。从外观上看,这种设备只是一个尺寸为1×1×2英寸的透明立方体,其内装满了Bacteriorhodopsin有机分子和用于固定这些分子的惰性透明胶化体。两束激光产生设备紧挨着该立方体放置,其中一束红色的激光(680纳米波长)将垂直地经过立方体,另一束绿色激光(570纳米波长)则水平地经过该立方体,在每束激光与立方体之间都有一个LCD显示屏。工作时绿色的激光照射一个垂直的薄切片,该切片也被称为“存储页”,绿色激光所起的其实是选址的作用;红色激光则用于数据的写入,它可以将显示在LCD上的图样直接投射到立方体介质上。这样,被红色激光和绿色激光照射的部分就会形成一个交叉区域,该区域内的Bacteriorhodopsin有机分子将会因此发生状态改变,LCD上显示图样所表示的二进制数据就这样被保存下来。至于那些只被绿色激光或只被红色激光照射的部分,则不会发生任何的改变。
如果要将数据读取出来,就需要一个CCD探测器的帮助,该CCD探测器被安置在红色激光照射方向上、位于立方体的另一侧。如果只有红色激光照射,所有分子的光吸收率相同,CCD就无法探测到有什么异常;当绿色激光也开始照射时,两种色光交叉区域的有机分子会表现出不同的光吸收率特征,CCD探测器可以精确探测到这些特征并将它们转变为二进制电信号,并传给计算机系统,由此完成一个存储页的数据读取。
由于尚处在基础研究阶段,蛋白质存储的优点并未十分明了,不过我们知道它的存储密度和速度都将优于现有的硬盘技术。首先是具有很好的温度适应性,可以在很宽的温度范围内工作、远比半导体存储器优越;再者,基于蛋白质构建的特性让它的生产成本极其低廉,一旦进入实用化便很容易为用户所接受。不过,蛋白质存储最为人看重的地方还是其生物特性。早在20世纪70年代,科学家就发现可以利用DNA的不同状态来代表信息的有或无,而DNA分子的生化反应可以用来表示一个二进制数据的运算过程,由此萌生DNA生物计算机的概念。理论上说,生物计算机在10微微秒时间内就可以完成一则运算,比人的思维速度还快出100万倍,而它的能耗仅仅是现有电子计算机的十亿分之一。更重要的是,生物计算机可以同人体直接联结,让每一个人都拥有与生俱来的庞大知识获取能力,这显然意味着人类社会的超高速进化。有鉴于它的巨大意义,相当多的科研机构都进行这方面的基础研究,作为生物计算机系统的一环,蛋白质存储可以说是进度最快的部分,当然,它距离严格意义上的生物存储还是有一段距离。
从技术上讨论,蛋白质存储还很不成熟,原型产品基本无法稳定工作,原因在于那些把蛋白质凝聚在一起的聚合胶化体非常容易分解,在接受一定量激光照射后,聚合胶化体就无法继续起到固定Bacteriorhodopsin有机分子的作用,存储系统自然无法继续工作。再者,生物异变将会影响蛋白质的光化学性质,导致存储的数据无法保持稳定。显而易见,解决这些问题需要花费大量的时间精力,不过幸好,业界对于生物存储并没有迫切的需求,我们还有足够的时间让它慢慢从概念到原型、再从原型进入实用化开发。

■探针存储与Millipede——纳米尺度的“海量”
探针存储是一种原子尺度的概念存储技术,它的原理类似于穿孔卡片系统。这种孔位是在原子尺度,且它是以原子的晶态特性不同来表示二进制数据。由于原子是物质构成的基本单位,即便在一个极小的面积上原子的数量也是极其惊人的,探针存储由此具有超越TB级别的高密度,成为概念存储技术的又一个新方向。
探针存储的操作层面在原子级别,技术难度之大显而易见。困难主要集中在以下几个方面:第一,如何实现精确寻址?探针存储要求不同的原子群可表示不同的数据,在读写操作之前势必要对其进行精确定位,而这在原子尺度难度超乎想象—我们如何才能将相邻的两个原子群准确分隔开来?毕竟这二者的距离可能仅有区区几个纳米;第二,寻址完毕之后,将以何种机制实现二进制数据的表达,并且要顺利实现数据的写入与读取操作。为此,研究人员动用了包括扫描隧道显微镜(STM-scanning tunnelling microscope)、区域发射探针(FEB-field emissionprobe)和原子力显微镜(AFM-atomic forcemicroscope)在内的高精度实验设备,它们在实验室中成功证明了探针存储的原理可行性。以区域发射探针作为数据的读写头,借助扫描隧道显微镜和原子力显微镜实现了原子尺度的寻址操作—如果要实现数据写入,只要给区域发射探针施加电压,探针尖就会发射出一束电子到指定的区域上,这束电子将对目标位置的原子群产生加热效应,使之从一种状态变成另外一种状态(如从无晶态到结晶态),这样就实现了二进制数据的写入操作。而如果要将数据读取出来,探针可通过检测目标原子群的一些电相关特征值(如电阻),由此产生对应的反激电流,数据就这样被成功读取。
相比全息技术和蛋白质存储,探针存储目前还停留在概念阶段,距离实际原型产品仍然相当遥远,未来还有大量的问题需要解决。例如要找到一种可在室温下保持稳定、且具一定温差耐受力的存储材料,该种材料同时要求具有两个明显的状态;工作部件要求在真空或受控的环境下,以减少电子散失和数据点之间的热流动,确保数据安全可靠;存储器件必须同计算机的电子电路集成在一起,实现与计算机系统的协作。不过最大的麻烦也许是速度问题,探针存储的速度非常缓慢,性能水平甚至还远落后于现在的硬盘,这将成为其实用化的最大挑战。



Millipede存储器的工作原理示意:读写头阵列通过加热灼烧方式记录数据,并通过存储介质作X-Y方向的平面运动实现寻址

相比之下,IBM的Millipede技术是一个更现实的方案。在基本原理上,Millipede与研究中的探针存储有些类似,都是在纳米尺度对存储介质进行加热烧熔来记录数据,但二者的实现方式截然不同。Millipede存储器有一个特殊的读写头阵列,该阵列由32×32个独立的读写头构成,读写头最尖端的直径只有10纳米,相当于头发丝粗细的万分之一,其对应的存储介质则是一种由双层有机材料薄膜和硅基层联合构成的多层结构。如果要写入数据,读写头的尖端会在几毫秒时间内被加热电阻快速加热到400摄氏度高温,同时读写头向下运动接触到存储介质的有机材料薄膜表面,瞬间即灼烧出一个直径10纳米的凹坑—每个凹坑都代表一个二进制数据。若要将数据读取出来,只要将读写头插入到这些数据凹坑,接着读写头尖端被加热电阻加热到300摄氏度左右,此时便可在不破坏凹坑结构的条件下将数据读出。另外,为了实现数据的寻址,Millipede采用一种读写头阵列固定,存储介质则以一定的频率和振幅作“X-Y”方向的平面移动。
相对而言,Millipede的存储密度比探针存储要小一些,它可以在1平方英寸(约6.45平方厘米)大小的芯片上获得125GB的数据容量,密度达到现有硬盘技术的十几倍之多。只要加大存储器的面积或采用立体结构,实现1TB以上的大容量完全可能。此外,Millipede也具有探针存储技术低能耗的优点,在非工作状态下无需消耗能源,很适合用于移动设备中。但不幸的是,尽管以读写头阵列实现并行工作,Millipede存储器还是无法摆脱读写速度慢的缺陷,这也是IBM未来的技术重点。
在实用化研究方面,Millipede远远超越还停留在原理实验阶段的探针存储。早在2002年,IBM就拿出Millipede存储器原型,从外观上看它只是一枚小小的芯片,存储密度达到每平方英寸400Gb,速度仅有可怜的32Kbps。IBM表示,Millipede技术在未来十年内可能都不会投入到实际应用中,它更多是作为一种前瞻性的基础研究,一旦该系统能得到完善将产生巨大的影响力。

图6:IBM Millipede存储器芯片类型

结语:尽管都存在不同程度的困难,但以全息存储、蛋白质存储、探针存储/Millipede、多层光盘为代表的新概念存储技术都努力朝向实用化迈进。与其它应用型技术不同,这些前卫的存储技术都是从零起步,提出最基本的原理,科研人员在实验室中证明其可行性之后才能进入到原型样品的研究,并一一解决凸现出的大量技术难题。最后,才是考虑如何进入批量生产阶段。当这些工作都完成之后,上述技术才可能真正从概念走入现实。然而,这其中的每一个环节都需要耗费大量的精力和漫长的时间,几乎没有多少企业愿意在一种不确定的技术上“浪费时间”,大学实验室和一些科研机构往往承担起这个职责,在某项技术可获得预期实用化之后企业才会跟进。由于每一种概念技术的研究都极具挑战性,在研究过程中往往会出现许多戏剧化的转折,以全息存储为例,早在上个世纪70年代人们就试图让其进入实用,但在实验室研究多年之后依然没有突破性进展,导致人们对它的可行性提出广泛质疑,美国政府干脆就放弃了对该项目的赞助。峰回路转,InPhase公司的卓越成就让全息存储获得飞跃,它也由此成为最早可进入应用阶段的“概念存储技术”,并极有机会完全代替硬盘、成为计算机的主力存储系统。相比之下,蛋白质存储、探针存储就没那么幸运,它们都停留在原理论证和实验原型的设计阶段,距离实用尚有非常遥远的距离。IBM的Millipede固然是领先一步,但它仍然存在巨大的技术难题需要解决,估计10年之内都无法付诸实用。

让我们一起见证计算存储技术的下一次飞越!
回复 支持 反对

使用道具 举报

53

主题

941

帖子

5984

积分

历届版主

威豪百货商店

Rank: 26Rank: 26Rank: 26Rank: 26Rank: 26Rank: 26Rank: 26

积分
5984
在线时间
538 小时
QQ
发表于 2009-1-10 10:53:10 | 显示全部楼层 | 来自浙江

慢慢学
回复 支持 反对

使用道具 举报

13

主题

513

帖子

3839

积分

Lv.9 状元

Rank: 9Rank: 9Rank: 9

积分
3839
在线时间
379 小时
发表于 2009-1-12 16:18:41 | 显示全部楼层 | 来自浙江
下一步就是SSD了
回复 支持 反对

使用道具 举报

962

主题

3万

帖子

17万

积分

Lv.22 皇后

战狼!爱我中华!

Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22Rank: 22

积分
177284
在线时间
759 小时
 楼主| 发表于 2009-1-12 19:04:26 | 显示全部楼层 | 来自上海

回复 7# nemofor 的帖子

乖乖用机械的吧~~~我是不指望2年内出现在我的机箱里。
回复 支持 反对

使用道具 举报

53

主题

941

帖子

5984

积分

历届版主

威豪百货商店

Rank: 26Rank: 26Rank: 26Rank: 26Rank: 26Rank: 26Rank: 26

积分
5984
在线时间
538 小时
QQ
发表于 2009-1-12 19:44:44 | 显示全部楼层 | 来自浙江
原帖由 nemofor 于 2009-1-12 16:18 发表
下一步就是SSD了


看了篇文章
xp对SSD支持很差很差,特别是MLC构架的SSD
写入延时长不说
还频繁假死
据说vista假死情况会少很多
真正解决要等到windows 7了
回复 支持 反对

使用道具 举报

13

主题

513

帖子

3839

积分

Lv.9 状元

Rank: 9Rank: 9Rank: 9

积分
3839
在线时间
379 小时
发表于 2009-1-13 12:44:42 | 显示全部楼层 | 来自浙江
总的来说SSD是一个趋势,只是目前不实用。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|客户端|浙公网安备案 33022602000116|宁海在线 ( 浙B2-20200368

关于我们|电话:0574-65520000 ,GMT+8, 2024-4-28 21:54 , Processed in 0.106620 second(s), 21 queries , Apc On.

Powered by Discuz! X3.4

© 2000-2015 NHZJ Inc.

违法和不良信息举报电话:13819844444  邮箱:admin@nhzj.com
 未成年人保护服务电话:13819844444  邮箱:admin@nhzj.com
快速回复 返回顶部 返回列表