原创:项目中关于FC存储的讨论

2,510 Views

上一个章节,我们讨论了项目实施时iSCSI存储问题,本节我们再来讨论一下FC存储问题,不少人问何老师,现在的数据中心还有必要上FC存储吗?为什么不上超融合,针对这一系列问题,做一些简单的回复。

  • 生产环境上FC存储还是超融合

其实这是一个选择的问题,从目前情况来看,超融合得到了很好的应用,逐渐在一些数据中心上开始使用,但是从反馈的信息来看,特别是何老师所熟悉的金融行业,目前核心数据还没有存放在超融合上,依旧上还使用FC存储,为什么?毕竟超融合出现的时间太短,其稳定性以及故障恢复等还需要市场检验,何老师并不排斥使用超融合,包括何老师项目也在使用,使用超融合,无论是VMware VSAN、路坦力、深信服、华为等产品,强烈推荐使用超融合一体机,这样可以避免项目中出现问题后软、硬件厂商相互扯皮的情况,同时,一定要做好备份,不是说上了超融合后就不需要备份了,17-18年一些生产环境超融合出现的重大问题我们就不讨论了,最后再补充下个人观点:超融合可以作为传统存储(iSCSI存储、FC存储等)的补充,至少现在还无法全面取代传统存储。

  • FC存储能否DIY

曾经在一些项目有人问过何老师,由于厂商的FC存储服务器较贵,是否能够DIY自建,答案是肯定的,何老师测试过几款开源软件 Nexenta,OPEN-E等,整体评测OPEN-E存储服务支持FC效果不错,但是需要单独购买LIC,推荐的做法是:

  • 配置X86服务器,硬盘位根据项目的实际环境决定,特别注意购置FC HBA卡,推荐双口以上;
  • 安装OPEN-E存储软件,购买FC许可;
  • 启用配FC存储服务;
  • DIY FC存储环境很难做到双机热备,那么其他备份必不可少;
  • 不使用FC交换机直连

在前面章节讲FC拓扑的时候有直连的方式,就是环境中服务器直接连接FC存储,不使用FC交换机,其实上这样的方式在一些中小企业中比较常见,在服务器不多的情况下,这样的连接可以节省FC交换机费用,那么这种连接模式是否推荐,何老师认为应该结合项目的实际情况决定:

  • 项目中服务器数量:如果项目只有2-3台服务器连接FC存储,这样的连接没有问题,节省FC交换机;
  • FC存储服务器接口数量:一些小规模项目使用的FC存储服务器,可能只配置一个主控制器,主控制器一般提供2-4个FC接口,如果现在连接的服务器超过4台,很明显无法满足其需求;
  • 负载冗余:不使用FC交换机直连FC存储,FC存储服务器与服务器之间的负载以及冗余不方便规划设计;

整体来说,对于小规模环境,不使用FC交换机直连FC存储没有问题,如果出于对负载均衡,管理等方面考虑,建议使用FC交换机分别连接FC存储以及服务器。

  • FC存储双控以及速率

何老师在项目中遇到不少只使用单控的FC存储,其理由是节省费用,个人建议,既然已经购置FC存储,没有必要去节省另外一个控制器的费用,FC存储使用双控不单能够实现负载,还能够实现故障切换,当一个控制器出现故障时可以切换到另外一个控制器,当然,这也得结合整体FC配置。

关于FC 速率,目前主流都是8GB或16GB,项目中还能够看到不少4GB的FC,新建FC存储推荐使用8GB以上的FC,这样可以保证在FC网络传输上不存在瓶颈。

  • 吐槽一下FC存储硬盘

各大厂商推出的FC存储一般不能使用其他硬盘代替,虽然硬盘都是代工,但没有所谓“微码”的硬盘在FC存储上是无法使用的,美其名曰为保证存储服务器的稳定性有,我们都知道,购买原厂硬盘价格较高,但从目前的情况看,还没有多少办法,不推荐购买所谓代写入的硬盘,何老师在这方面出过问题。

对于FC存储阵列来说,DELL、华为等厂商都有其推荐的方式,结合实际情况配置即可,对于读写要求较高的还是推荐RAID 10或者是RAID 50模式,当然其他RAID模式也是可以选择的,特别注意热备盘的设置。

发表评论

邮箱地址不会被公开。 必填项已用*标注