NetApp 技术报告采用 Oracle Real Application Clusters 11g 的 Flash Pool 的功能和灵活性演示.docx
《NetApp 技术报告采用 Oracle Real Application Clusters 11g 的 Flash Pool 的功能和灵活性演示.docx》由会员分享,可在线阅读,更多相关《NetApp 技术报告采用 Oracle Real Application Clusters 11g 的 Flash Pool 的功能和灵活性演示.docx(18页珍藏版)》请在三一文库上搜索。
1、NetApp技术报告采用OracleRealApplicationClustersIlg的FlashPool的功能和灵活性演示NetApp公司ChadMorgenstern2013年7月TR4195极具吸引力的FlashPool体验本技术报告演示了对联机事务处理(OnlineTransactionProcessing,OTLP)工作负载使用NetAppsFlashPool技术的优势。本报告借助于在NetApp集群模式DataC)NTAP8.1.2上运行C)LTP工作负载的OracleIIgR2RealApplicationCluster(RAC)数据库,展示了可实现的超群数据库性能,不仅减少了
2、磁盘轴数量,而且还可以领略一致的存储故障转移体验。目录1简介和内容提要41.1 简介41.2 配置41.3 目标受众42研究配置43结果与分析53.1 OLTP工作负载53.2 详细测试结果53.3 OLTP为何成为采用FlashPool的最佳候选系统64配置详细信息84.1使用集群模式DataONTAP8.1.2的OracIeRAC配置85结论13附录13硬件13所有研究配置的存储布局14在RAC配置研究中使用的Oracle初始化参数15在RAC配置研究中使用的Unux内核参数16其他Unux操作系统设置17声明17表格目录表1)OracleRAC配置所采用的硬件。9表2)在OracleRA
3、C研究中使用的数据库服务器硬件规格。13表3)NetAppFAS6240A存储系统规格。13表4)在RAC配置研究中使用的Oracle初始化参数。15表5)在RAC配置研究中使用的Linux非默认内核参数。16表6)Oracle的Linuxshell限制。17插图目录图1)使用性能HDD和FlashPool聚合时的OET和数据库文件顺序读取延迟。5图2)使用容量HDD和FlashPool聚合时的OET和数据库文件顺序读取延迟。6图3)显示随机读取工作集。7图4)显示IlTB数据库的随机写入工作集。7图5)在SATAFlashPool聚合中,执行FlashPool缓存逐出以及对OLTP执行缓存转
4、存的影响下,吞吐量和延迟保持不变。8图6)对四个物理服务器使用集群模式DataONTAP8.1.2的OracleRAC配置。9图7)在使用集群模式DataONTAP8.1.2的OracleRAC研究中使用的DNFS卷布局。141简介和内容提要1.1 简介NetAppFlashPool可将固态驱动器(SolidStateDrive,SSD)和硬盘驱动器(HardDiskDrive,HDD)配置为一个聚合,这些驱动器可能是性能磁盘驱动器(通常指串行连接SCSISAS或光纤通道FC),也可能是容量磁盘驱动器(通常称为串行ATASATA)0(聚合是NetApp用于指示存储池的术语。)SSD用于缓存在聚
5、合上配置的所有卷的数据。在FlashPool聚合上配置卷具有以下一项或多项优势: 对于大型活动数据集可确保持久快速读取响应。与未配置基于闪存的缓存的环境相比,配置了FlashPool的NetApp系统可缓存多达100倍的数据,并且数据的读取速度比从磁盘驱动器读取要快2到10倍。此外,在FlashPool聚合上缓存的数据可通过计划内和计划外控制器接管进行访问,从而可通过这些事件实现始终如一的读取性能。 可为其他工作负载提供更多的HDD操作。重复随机读取和随机覆盖操作可利用SSD缓存,从而使HDD可以为其他工作负载处理更多读取和写入,例如,顺序读取和写入。 可增加系统吞吐量(每秒输入/输出OPS)
6、0如果由于系统的磁盘驱动器利用率高而使吞吐量受到限制,则添加FlashPool缓存后,可通过SSD缓存处理一部分随机请求,从而增加总的IOPS。 可减少HDD数量。与未配置FlashPool的系统相比,为支持一组给定工作负载而配置了FlashPool的存储系统通常会使用较少的相同类型HDD,并且每个TBHDD的成本往往会更低。FlashPool专门用于加快重复随机读取操作速度,并减少HDD上小型块随机覆盖操作(一类特定的写入操作)的工作负载,此类工作负载通常由OLTP数据库系统生成。OLTP具有小规模操作随机读-写一读的特征,从而成为采用FlashPool的最佳候选系统。1.2 配置本报告所述
7、配置环境由以下要素构成: 虚拟化RedHatEnterpriseLinux5U9上的OracleIIgR2RAC 运行集群模式DataONTAP8.1.2的NetApp存储系统 VMwareVSphereESX5.0本报告所述的研究将在通过万兆以太网(WGbE)连接运行的OraCle直接网络文件系统(DirectNetworkFileSystem,DNFS)上使用Oracle自动化存储管理(AutomatedStorageManagemenlASM)O使用ASM可利用该功能提供的负载平衡属性,从而在所有存储控制器之间均衡分布。DNFS作为Oracle数据库软件的一部分运行,并专门针对数据库工作
8、负载进行了优化。因此,DNFS仅用于访问Oracle数据库文件。1.3 目标受众本报告的目标受众是存储决策者和管理员,这些人员需要研究可能的FlaShPOol部署方案,以便在采用NetApp存储(运行集群模式DataONTAP8.1.2)的Oracle数据库中使用。2研究配置本节概述了此研究的配置详细信息。此研究重点探讨如何衡量生成OLTP工作负载的Oraclel1gR2RAC数据库的性能,该数据库将连接到运行集群模式DataONTAP8.1.2的NetAppFAS6240双控制器高可用性(HighAvailability,HA)系统。对于连接到在FAS6240存储节点中安装的NetAppWG
9、bE统一目标适配器(UMiedTargetAdapter,UTA)的数据库服务器,我们使用了QLogic8152WGbE融合网络适配器(ConvergedNetworkAdapter,CNA)o服务器和存储通过CiscoNexus5548交换机进行连接。在纯HDD聚合上测试的工作负载性能结果将与在FlashPool聚合上测试的结果进行比较。我们将对包含性能驱动器或容量驱动器两者之一的聚合以及同时包含这两种驱动器的FlashPool聚合进行测试。数据库服务器与NetAppFAS6240存储系统之间将使用基于DNFS的ASM,OracleDNFS是一个经过优化的NFS客户端,与基于主机的NFS相比
10、此客户端访问网络连接存储(Network-AttachedStorage,NAS)设备上的NFS存储的速度更快,并且可扩展性更强。DNFS直接内置在数据库内核中,因此可绕过操作系统,并且仅生成完成手头任务所需的请求。DNFS可通过TCP/IP进行访问。3结果与分析在对研究结果进行分析之前,先了解一下研究方法以及所采用的工作负载非常重要。所有研究案例均采用统一的研究方法。该方法将使用OLTP工作负载来演示采用集群模式DataONTAP8.1.2的配置的功能。经过设计的测试将模拟运行典型应用程序工作负载的客户环境。测试目的并不是要演示每种配置可达到的最大吞吐量。3.1 OLTP工作负载为OLTP
11、工作负载创建的数据库将使用一个为订单输入事务(OrderEntryTranSaCtion,OET)处理设计的数据模型。OLTP数据库的大小约为11TB,大约包含48,000个仓库。在每项OLTP研究期间,我们将混合使用不同类型的事务。这些事务类型包括订单输入、付款、订单状态、交付和库存水平。每分钟完成的OET数量是用于衡量应用程序吞吐量的主要指标。OLTP工作负载的混合I/O包括约65%的读取、35%的写入以及95%的随机。3.2 详细测试结果图1显示了每分钟的OET总数以及平均数据库文件顺序读取等待时间,这些数据是在使用15,000RPMHDD的每项测试中由Oracle数据库报告的。数据库文
12、件顺序读取等待时间反映了在数据库级别观察到的I/O延迟,并指示数据库从存储中读取单个数据库块(即,物理读取)所花费的时间量(毫秒)。图1中的工作负载会在高可用性配置中的两个存储控制器之间均衡分布。在图1中,在由八十个15,000RPM驱动器组成的聚合中,每分钟10,000个事务(TranSaCtiOnSPerMinute,TPM)超出了6毫秒物理读取响应时间。响应时间增加之后,HDD的利用率会很高,而存储节点的利用率仍较低。图中最右侧的条形显示了FlashPool聚合的结果,该聚合包含同样八十个15,000RPMHDD以及二十二个SSD作为缓存。此处实现了5毫秒响应时间以及79,000TPM的
13、吞吐量,比仅使用HDD的基准结果(请参见图1最左侧的条形)高出九倍。图2显示了每分钟的OET总数以及平均数据库文件顺序读取等待时间,这些数据是在使用7,200RPMHDD的每项测试中由Oracle数据库报告的。图2显示的所有工作负载均由高可用性对中的一个节点提供。由11个SSD和108个HDD组成的FlashPool聚合实现了5毫秒响应时间以及32,000TPM的吞吐量。在配对节点上配置相似的FlashPool聚合中运行同样的工作负载,在5毫秒响应时间的情况下,系统吞吐量翻倍达到64,000TPM,注:与图1显示的15,000RPM驱动器测试相比,7,200RPMHDD的数量更多,而用户数更少
14、图2)使用容量HDD和FlashPool聚合时的OET和数据库文件顺序读取延迟。OET和数据库文件1*序遣取时间(毫的) (7.200 RPM HDD Flash Pool)1 个 c max (Flash Pool)夺9 7R0 NPM RGrrte*H 11 rA3240A*Mfl3.3 OLTP为何成为采用FlashPool的最佳候选系统OLTP工作负载主要由小型块随机读取和随机写入工作负载组成,但重做和归档日志记录除外。通常,此工作负载采用读写读模式,但工作集会有所不同。以自动取款机(AutomatedTellerMachine,ATM)工作负载为例,数据库必须运行一系列数据操纵语言
15、DataManipulationLanguage5DML)语旬,这些语句由大量的读写读操作构成,其布局如下:1 .验证账户详细信息2 .接受取款请求3 .检查余额4 .更新余额5 .出钞6 .出具回执图3显示了所有读取操作的93%由SSD提供,在这些读取操作中,93%来自写入缓存。通过这一示例,我们展示了OLTP工作负载中采用读-写-读模式的稳定状态OLTP工作负载的读取模式。请注意,SSD读取缓存提供的读取比例大致等于HDD提供的读取总数。虽然从读取缓存提供的总SSD读取命中比例很小,但与替换的总HDD磁盘操作数相比,该读取缓存实际上执行了大量工作。该测试对所有FlashPool设置(仅读
16、取缓存、仅写入缓存等)进行了试验,发现已启用读取缓存和写入缓存的默认设置提供的性能最佳。图3)显示随机读取工作集所有SsD缓存命中的7%来自读取屐存所有SSD缓存命中的93%来自M入存0%HDD提供的百分比磁盘读取的原始位置读取缓存提供的百分比 写入缓存提供的百分比图4显示了另一个值得关注的OLTP和FlashPool统计信息:虽然所有非重做曰志写入操作的四分之三都写入到写入缓存,而不是写入HDD,但对SSD的写入操作的98%被写入多次。这一示例进一步证实了OLTP工作集的变化特性。读取会在写入之后进行,直到写入停止,并且这些块在缓存中过期。剩余的2%表示新的工作集或新的热数据。图4)显示Il
17、TB数据库的随机写入工作集。工作集(即,重复访问的数据集部分)会随时间发生变化,如图5所示。对于加入到FlashPoolSSD缓存中的工作集,在访问模式发生变化时,不常访问的块将从该工作集中退出。这些“冷块”最终将从缓存中被逐出,或者如果它们在写入缓存中是有效数据,则会转存到HDD中,以便为新的“热”数据留出空间。本报告中的测试所生成的工作负载就是这种情况。逐出和转存都是正常行为,不影响存储延迟,如图5所示。此类工作负载的一个示例是销售库存系统,在此系统中,一部分库存由热销货品组成。在这种情况下,部分存货的库存会不断更新。销售模式会随着时间发生变化,不再热销的货品将退出工作集,而被其他更畅销的
18、货品所替换。图5)在SATA Flash Pool聚合中,执行Flash Pool缓存逐出以及对OLTP执行缓存转存的影响下,吞吐量和 延迟保持不变。WtMMaojM-Jl.wwjw*AteH9.MB4配置详细信息4.1 使用集群模式DataONTAP8.1.2的OraCIeRAC配置对此配置进行测试时,我们将通过Inteh双端口IOGbE网络接口卡(NetworkInterfaceCard,NIC)对DNFS使用标准的WGbE1该接口卡位于连接到NetAppWGbE统一目标适配器(NetWorkInterfaCeCard,UTA)的服务器上。这些适配器安装在FAS6240控制器中,并通过Ci
19、scoNexus5548UP交换机进行连接。我们将使用以下配置:DNFS使用4节点OraCleRAC实施方法,此实施方法在使用四个物理服务器的vSphere5.0环境中进行配置。在这种情况下,每个物理服务器都包含一个安装了OracleRAC软件的VMo我们将使用在单独的服务器上配置的VMwarevCenter5.0对该环境进行管理。RedHatEnterpriseLinux5.9将安装在为托管四个RAC节点而创建的每个VM上。每个VM都包含一个用于操作系统分区的虚拟磁盘,该虚拟磁盘通过ESX5.0NFS堆栈映射到FAS6240存储系统。为了使用DNFS访问Oracle数据库和相关文件,我们将通
20、过在子操作系统中使用NFS客户端来配置每个VM1以便直接在FAS6240系统上装载卷,从而有效地绕过托管RAC节点的ESX服务器的NFS服务。网络配置图6)对四个物理服务器使用集群模式DataONTAP8.1.2的OraCIeRAC配置RX300S62.4GHZmwXE564M表1列出了对两个或四个物理服务器使用集群模式DataONTAP8.1.2的OraCIeRAC配置所采用的硬件,该配置采用基于WGbE的DNFSo表1)OracleRAC配置所采用的硬件.硬件卜兑明数据库服务器每个服务器4个FujitsuPrimergyRX300S6双16核2.4GHZCPU、48GBRAM、RHEL5U
21、9和2个双端口IOGbElnteI82599EBNlC用于数据流量的交换机基础架构1个CiscoNexus5548IOGbE交换机用于DataONTAP集群流量的交换机基础架构2个CiscoNexus52001OGbE交换机NetApp控制器FAS6240A控制器,采用使用多路径高可用性(MultipathHighAvailability,MPHA)的集群配置,每个存储控制器1个NetApp10GbEUTA硬件说明存储架每个控制器2个DS4243SAS存储架,15,000RPM的450GB磁盘(磁盘总数:96)控制器间共享1个DS4246SAS存储架,200GBSSD磁盘(磁盘总数:24)一个
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- NetApp 技术报告采用 Oracle Real Application Clusters 11g Flash Pool 的功能和灵活性演示 技术 报告 采用 11 功能 灵活性 演示

链接地址:https://www.31doc.com/p-493098.html