我们正在为VMware VSphere设置两个虚拟化服务器(DELL VSphere,双四核Xeon,2.3GHz,48 GB内存),存储在SAN上(戴尔PowervaMD3000i,10x500 GB SAS驱动器,RAID 5),它将通过Gbit以太网交换机上的iSCSI连接(戴尔Powerconnect 5424,他们称之为“iSCSI优化”)。
有人能给出基于光纤通道的解决方案的速度(或更好的“感觉”)吗?我不是指名义上的速度优势,而是指虚拟机有效工作的速度有多快?
我们说的是速度的两倍,五倍,十倍?这个价格合理吗?
PS:我们讨论的不是大量使用的数据库服务器或交换服务器。大多数虚拟化服务器的平均CPU负载低于3-5% .
发布于 2009-06-02 10:44:44
在这里,有很多决定性的因素会影响到表演的感觉。您可能会考虑的一个调整是设置Jumbo框架。Scott最近有一篇博客文章这里展示了他为实现这一目标所做的一些事情。
您提到客户将运行较低的CPU负载--这些都是虚拟化的最佳选择--但是FiberChannel和iSCSI之间的区别还没有真正发挥出来。
如果您的vm客户机将运行存储密集型操作,那么您必须考虑将读/写操作从VM主机传输到存储数组的速度可能成为您的瓶颈。
由于您典型的iSCSI传输速率是1 1Gbps (通过以太网),而FC通常在2-4 1Gbps左右(取决于您愿意花费多少现金),那么您可以说FC的传输速度大约是前者的两倍。
也有新的10 There开关,但你的电源库和Powerconnect还不支持这一点。
然而,这并不意味着机器的工作速度会更快,就好像它们在运行低I/O的应用程序一样,它们的执行速度可能是相同的。
关于哪个更好的争论永远不会结束,它基本上将取决于你自己的评价和结果。
我们有多种基于FC的迷你云和基于iSCSI的迷你云的部署,它们都工作得很好。我们发现瓶颈在存储数组级别,而不是1Gb以太网上的iSCSI通信量。
发布于 2009-06-03 01:59:34
比起你的运输速度,你更有可能在纺锤数量上遇到瓶颈。
也就是说,是的,FC的原始速度比iSCSI快,但是如果您(假设)试图在6个纺锤体(物理磁盘)上运行200个VM,那么性能将比在iSCSI上运行200个VM时差。在我们近乎空闲的实验室环境中,我们每VM运行大约2次NFS操作(240 IO vs 117),因此这可能会给出您将拥有多少IO的概念。
我认为您不会看到基于传输的差别,除非您知道您有非常高的连续IO (重仪器数据日志流?视频存档?,老实说,我不知道真实世界的场景可能是这样的)。
我真的不认为你会注意到传输,除非磁盘的IOPS大大超过你的负载。我会采用其他的标准来做决定(容易管理,成本等)。
上次添加存储时,我们在NetApp上使用了NFS。
发布于 2009-06-02 10:42:35
这是一个非常明显的变化。尽管说实话,当我的上一家公司推出基于iSCSI的共享主机时,我们正从基于Linux的VMware (假iscsi)转向光纤,也就是一个测试环境到生产。我们的VMware代表指出,当涉及到单个ESX主机上需要访问共享存储的多个VM时,光纤的开销要小得多。我注意到,Win2k3 VM实例的一般使用性能提高了一倍,但我在VM上使用hd调优测试的磁盘IO比我们的Dell2850‘S标准IO (如果内存满足我的话,在perc 4上的RAID 5中有3x73GB的RAID 5)要快。当然,我们在每个ESX主机上运行了大约5个VM,而且使用率很低,因为我们正在接受有关它的培训。
您的VMware代表应该有大量关于Fibervs.iSCSI的文档,包括一些总体基准,或者至少是真实的实现故事/比较。我们的代表确实这么做了。
https://serverfault.com/questions/17590
复制相似问题