首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用VMware vSphere时对san-via-iSCSI速度优势的粗略估计

使用VMware vSphere时对san-via-iSCSI速度优势的粗略估计
EN

Server Fault用户
提问于 2009-06-02 09:21:23
回答 7查看 1.5K关注 0票数 6

我们正在为VMware VSphere设置两个虚拟化服务器(DELL VSphere,双四核Xeon,2.3GHz,48 GB内存),存储在SAN上(戴尔PowervaMD3000i,10x500 GB SAS驱动器,RAID 5),它将通过Gbit以太网交换机上的iSCSI连接(戴尔Powerconnect 5424,他们称之为“iSCSI优化”)。

有人能给出基于光纤通道的解决方案的速度(或更好的“感觉”)吗?我不是指名义上的速度优势,而是指虚拟机有效工作的速度有多快?

我们说的是速度的两倍,五倍,十倍?这个价格合理吗?

PS:我们讨论的不是大量使用的数据库服务器或交换服务器。大多数虚拟化服务器的平均CPU负载低于3-5% .

EN

回答 7

Server Fault用户

回答已采纳

发布于 2009-06-02 10:44:44

在这里,有很多决定性的因素会影响到表演的感觉。您可能会考虑的一个调整是设置Jumbo框架。Scott最近有一篇博客文章这里展示了他为实现这一目标所做的一些事情。

您提到客户将运行较低的CPU负载--这些都是虚拟化的最佳选择--但是FiberChannel和iSCSI之间的区别还没有真正发挥出来。

如果您的vm客户机将运行存储密集型操作,那么您必须考虑将读/写操作从VM主机传输到存储数组的速度可能成为您的瓶颈。

由于您典型的iSCSI传输速率是1 1Gbps (通过以太网),而FC通常在2-4 1Gbps左右(取决于您愿意花费多少现金),那么您可以说FC的传输速度大约是前者的两倍。

也有新的10 There开关,但你的电源库和Powerconnect还不支持这一点。

然而,这并不意味着机器的工作速度会更快,就好像它们在运行低I/O的应用程序一样,它们的执行速度可能是相同的。

关于哪个更好的争论永远不会结束,它基本上将取决于你自己的评价和结果。

我们有多种基于FC的迷你云和基于iSCSI的迷你云的部署,它们都工作得很好。我们发现瓶颈在存储数组级别,而不是1Gb以太网上的iSCSI通信量。

票数 7
EN

Server Fault用户

发布于 2009-06-03 01:59:34

比起你的运输速度,你更有可能在纺锤数量上遇到瓶颈。

也就是说,是的,FC的原始速度比iSCSI快,但是如果您(假设)试图在6个纺锤体(物理磁盘)上运行200个VM,那么性能将比在iSCSI上运行200个VM时差。在我们近乎空闲的实验室环境中,我们每VM运行大约2次NFS操作(240 IO vs 117),因此这可能会给出您将拥有多少IO的概念。

我认为您不会看到基于传输的差别,除非您知道您有非常高的连续IO (重仪器数据日志流?视频存档?,老实说,我不知道真实世界的场景可能是这样的)。

我真的不认为你会注意到传输,除非磁盘的IOPS大大超过你的负载。我会采用其他的标准来做决定(容易管理,成本等)。

上次添加存储时,我们在NetApp上使用了NFS。

票数 6
EN

Server Fault用户

发布于 2009-06-02 10:42:35

这是一个非常明显的变化。尽管说实话,当我的上一家公司推出基于iSCSI的共享主机时,我们正从基于Linux的VMware (假iscsi)转向光纤,也就是一个测试环境到生产。我们的VMware代表指出,当涉及到单个ESX主机上需要访问共享存储的多个VM时,光纤的开销要小得多。我注意到,Win2k3 VM实例的一般使用性能提高了一倍,但我在VM上使用hd调优测试的磁盘IO比我们的Dell2850‘S标准IO (如果内存满足我的话,在perc 4上的RAID 5中有3x73GB的RAID 5)要快。当然,我们在每个ESX主机上运行了大约5个VM,而且使用率很低,因为我们正在接受有关它的培训。

您的VMware代表应该有大量关于Fibervs.iSCSI的文档,包括一些总体基准,或者至少是真实的实现故事/比较。我们的代表确实这么做了。

票数 3
EN
页面原文内容由Server Fault提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://serverfault.com/questions/17590

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档