FCo oE an d iSC Vi SI Per irtualiz rforma zation ance A n Syste
Transcrição
FCo oE an d iSC Vi SI Per irtualiz rforma zation ance A n Syste
FCooE and iSCSI Perrformaance Analys A sis in T Tape Viirtualizzationn Systeems M. B. P. Martins M and W W. L. Zucchhi Abstract— Tape virtualiization system ms’ I/O perforrmance haave become almost the same as thosee observed in n disk su ubsystems. How wever, few stu udies can be foound in the liteerature on n iSCSI perforrmance with taape virtualizatiion subsystemss. Fibre Channel over Ethernet (FCoE E) has been prooposed recentlyy as an allternative to booth iSCSI and d FC, but it reemains challenging to fin nd FCoE perrformance stud dies. Considerring this gap in the litterature, we d did a comparrative perform mance study b between FC CoE and iSCS SI by executin ng I/O operatiions in virtuaal tapes ussing different block sizes. T The goal was tto determine tthe I/O avverage through hput, protocol overhead, I/O latency varian nce and reelation between n average throu ughput and CP PU usage. The results sh howed an equivalent I/O thrroughput betweeen FCoE and d iSCSI op perations, butt FCoE surpaassed iSCSI considering its lower ovverhead, proceessing and I/O latency varian nce values. It was w also nooted that FCoE E software imp plementation m must be enhanceed. Keywords— Storage area networks, Pllatform virtuallization. O C Como alternattiva aos protoocolos FCP e iSCSI, o comitê técnnico INCITS T T11 formalizoou o padrão Fiibre Channel over Etheernet (FCoE) [9]. O FCoE E encapsula oss quadros FC C das cam madas 2, 3 ou F em quadros E Ethernet. A caamada 1 do FC C foi mappeada para a caamada IEEE 8802.3 MAC e a camada 0 doo FC paraa a IEEE 802.33 PHY, conforrme a Fig. 1. Performance an nalysis, I. INTR RODUÇÃO CRESCIM MENTO expoonencial de daados armazennados e as limitaçõões intrísecas da tecnologiaa de armazenaamento diireto (Direct A Attached Storaage - DAS) leevaram à criaação de reedes integradaas de armazennamento de ddados. Denom minadas Sttorage Area Networks (SA ANs), estas redes são baaseadas prrincipalmente em infrastrrutura de fibbras óticas (Fiber C Channel - FC)) e no empreego do protoccolo Fiber C Channel (F FCP) para eexecutar o trransporte da camada SC CSI de arrmazenamentoo de dados, connforme explicca Almeida [1]]. Apesar de seu s amplo usoo e aceitação, as redes FC-SANs poossuem alto custo, dem mandam profi fissionais altaamente esspecializados e apresentam limitações de extensão em longas diistâncias. Essses obstáculoss, bem comoo a onipresennça do paadrão Etherneet e das reddes TCP/IP, levaram o IE ETF a coonceber o prootocolo iSCSII, capaz de trransportar a ccamada SC CSI sobre o TCP/IP T em LA AN, MAN ou W WAN [2] [3]. Entretanto, existe a posssibilidade doo iSCSI apreesentar deesempenho meenor quando ccomparado ao FCP, consideerandosee a sobrecargga de encappsulamento e processamennto do TCP/IP. Com o objetivo dee investigar eesta questão, alguns esstudos foram executados e paara medir o deesempenho do iSCSI naas operações dde entrada e saaída em discos magnéticos [4] [5] [66] [7] [8]. Os eestudos concluuíram que o deesempenho dee vazão doo iSCSI foi praticamente o mesmo ddo FCP, senddo que Foonseca e Netoo [4] demonstrraram que o iSCSI implem mentado em m software apresenta desem mpenho 30% suuperior em rellação à pllaca controladdora iSCSI (haardware). M. B. P. Martinns, Montreal, Quéébec, Canadá, maarcio.bodnar@gm mail.com W. L. Zucchi, Escola Politécnica da Universidaade de São Pauloo (USP), Sãão Paulo, São Pauulo, Brasil, [email protected] Figurra 1. Mapeamentoo FC-BB_E. O padrão FCooE define o ttransporte doss quadros FC C em quaddros Ethernett, permitindo preservar os investimentos da infraa-estrutura FC C e seu moodelo de gerrenciamento [10]. [ Quaando combinaddo com as reddes 10-Gigabit Ethernet, o FCoE cria a possibiliidade de coonsolidação dos d tráfegos de mazenamento, rrede e clusterring sobre um m mesmo enlaace e arm estruutura física, segundo o IEE EE [11]. Essa rede é conheecida com mo Ethernet M Melhorada Connvergida (Connverged Enhannced Etheernet - CEE), sendo baseadda no IEEE 8002.3 com recuursos adiccionais de gerenciamentto de conggestionamentoss e diferrentes classess de tráfego, funcionalidade f es essenciais para perm mitir o empreggo do FCoE em instalações de grande esccala, confforme Ko, Eissenhauer e Reccio [12]. D Diferentementee do iSCSI,, o FCoE nnão apresentta a sobrrecarga de proocessamento e encapsulameento do protoocolo TCP P/IP, porque oos quadros FC C são encapsuulados diretam mente em quadros Etheernet. Além ddisso, o FCoE E e as redes CEE C integgram-se mais facilmente quue o iSCSI na infra-estruturaa FC exisstente, por meio de ttécnicas de chaveamentoo e encaaminhamento do FCoE E. Segundo Gai [10], eessas vanttagens do FCooE podem resttringir ou até m mesmo eliminnar o iSCSI em instalaçções de grandee porte. U Um artigo puublicado por Kale et al [13] demonsstrou concceitos básicoos do FCoE E e um pprocedimento de conffiguração do software FCooE, mas não foram realizaados testees de desempeenho. T Tong [14] coomparou o ddesempenho de operaçõess de entrrada e saída usando FCoE e iSCSI em ddiscos magnétiicos, empregando variação dos blocos de dados de 512 Bytes a 1 Megabyte. O protótipo foi composto por dois computadores conectados ponto-a-ponto, com quatro processadores lógicos cada um. Os resultados indicaram que, dos quatro processadores, apenas um esteve ativo durante os experimentos e apresentou aproximadamente 50% de uso de CPU. Mesmo com o uso de CPU considerado baixo, 70% da carga de processamento foi consumida pelo cálculo de CRC do protocolo FCoE. Esse processamento foi responsável pelo desempenho de vazão levemente inferior do FCoE em relação ao iSCSI, indicando que o software FCoE precisaria ser otimizado. Apesar dos avanços atuais na tecnologia de armazenamento em fitas magnéticas, como a virtualização de dispositivos, existe dificuldade em encontrar estudos de desempenho de entrada e saída (E/S) em fitas. Os estudos anteriores empregaram discos magnéticos no lugar de fitas, porque os dispositivos físicos de fitas eram o gargalo do caminho de E/S, segundo Mu et al [15]. Entretanto, o armazenamento em fitas magnéticas apresenta um papel essencial na tecnologia da informação. Em 2004, 90% dos dados mundiais estavam armazenados em fitas, conforme Mu et al [15]. Posteriormente, em 2008, Moore [16] indicou que 43% dos dados estavam em fitas porque o custos dos discos magnéticos haviam diminuído. Projeções futuras realizadas por Moore em outra publicação [17] sugerem que 55% dos dados estarão armazenados em fitas, considerando que estes dispositivos apresentam menores impactos ecológicos que os discos. Para superar o baixo desempenho dos dispositivos de fitas e reduzir os tempos de backup, Mu et al [15] apresentaram uma arquitetura com uso de discos magnéticos como dispositivos primários e bibliotecas de fita como dispositivos secundários na hierarquia de E/S. Entretanto, segundo Preston [18] essa arquitetura apresenta alguns problemas: complexidade em transferir dados dos discos para as fitas, fragmentação de dados, inflexibilidade dos softwares de backup na utilização de sistemas de arquivos, complexidade na geração de cópias para off-site, ausência de compressão de dados baseada em hardware e problemas de provisionamento. Mu et al [15] apontam os problemas elencados anteriormente como motivação para criação dos sistemas de emulação de fitas conhecidos como Virtual Tape Systems (VTS), denominados Virtual Tape Libraries (VTL) por Preston [18]. Estes sistemas convertem os comandos SCSI sequênciais dos dispositivos de fita em comandos SCSI em blocos, apresentando-se para aplicação de backup como unidades de fitas, mas encapsulando e armazenando os dados fisicamente em discos magnéticos. Preston [18] e Hodge [19] mostraram que nestes sistemas (VTLs) o desempenho é aproximadamente 10 vezes superior ao das fitas físicas e praticamente igual ao desempenho de discos, resultando em redução dos tempos de backup e restore. Como o desempenho das VTLs apresenta-se praticamente o mesmo dos discos magnéticos, o gargalho do caminho de E/S poderia ser causado por outros elementos do sistema, como a rede ou a eficiência dos protocolos de transporte da camada SCSI. Portanto, é interessante analisar o desempenho dos protocolos iSCSI e FCoE nas operações de E/S e, por consequência, nos tempos de backup e restore. Para realização deste análise, foi configurado um protótipo de testes e executados dois casos de estudo, descritos a seguir. II. PROTÓTIPO DE TESTES E CASOS DE ESTUDO O protótipo de testes, denominado VTL-LAB, consistiu em dois computadores pessoais, um deles atuando como um cliente e o outro como servidor de dispositivos, ambos com uma interface Intel Gigabit PRO GT Desktop PWLA8391GT, conectados ponto-a-ponto por meio de um cabo cruzado Ethernet CAT-6. Os elementos físicos do protótipo VTL-LAB são listados na tabela I. TABELA I. CONFIGURAÇÃO DO PROTÓTIPO VTL-LAB. Cliente CPU Servidor 1x Intel Core 2 Duo E6550 2.33 GHz 1x Intel Xeon Core 2 Duo E3110 3 GHz 2 GB DDR2 667 MHz 1x Disco ATA Western Digital WDC WD1600AABB-0 160 GB 1 placa Intel modelo DQ35J0 2 GB DDR2 667 MHz 1x Disco ATA Western Digital WDC WD2500AAJS-0 250 GB 1 placa Intel modelo D945GCPE Barramento E/S PCI convencional 32 bits @ 66 MHz PCI convencional 32 bits @ 66 MHz 1 placa Intel Gigabit PRO/1000 GT Desktop PWLA8391GT 1 placa Intel Gigabit PRO/1000 GT Desktop PWLA8391GT Memória Disco Placa mãe Rede Cada elemento da configuração de hardware do VTL-LAB apresenta um valor de vazão máxima nominal de E/S informado na documentação [20][21][22][23][24][25]. Dentre estes elementos, a placa de rede Intel Gigabit PWLA8391GT apresenta a menor vazão nominal máxima de 125 Megabytes por segundo (MBps), apresentando o potencial de se tornar o gargalo do sistema. Por essa razão, optou-se pela monitoração de desempenho da interface de rede do cliente. Como os quadros FCoE podem atingir 2.148 Bytes, a unidade máxima de transmissão Ethernet (MTU) foi configurada com um valor de 2.500 Bytes. O sistema operacional utilizado no VTL-LAB é o Linux Fedora 14 [26] núcleo 2.6.37 [27] e as aplicações abertas: • Open FCoE [28] • Open iSCSI [29] • SCST-SCSI target subsystem [30] • iSCSI-SCST driver [30] • FCST-SCST FCoE driver [30] • Linux virtual tape library mhvtl [31] O emprego do sistema Linux em detrimento a outros sistemas justifica-se pelo uso das aplicações abertas da camada servidor (SCST-SCSI target subsystem), as quais são disponibilizadas apenas para Linux. O procedimento completo de configuração do protótipo de testes está documentado na dissertação de minha autoria [32]. As operações de E/S foram geradas com o utilitário dd [33] e as respectivas saídas foram usadas para medir a vazão e a latência de E/S. A sobrecarga dos protocolos nos blocos de E/S foi medida com a ferramenta wireshark [34] enquanto a vazão de rede e o uso de CPU foram analisados com o utilitário nmon [35]. Todas os dados foram coletados no cliente, porém o uso de CPU foi analisado também no servidor para identificar possíveis gargalos. As métricas do grupo de controle SCSI local foram observadas apenas no servidor, no qual foram executadas operações de E/S nas mesmas condições das operações com os protocolos FCoE e iSCSI. O desempenho do FCoE e do iSCSI foi medido por meio de operações de E/S em fitas virtuais com uma massa de dados de 315 MegaBytes por cada operação. Definiram-se dois estudos de caso: Caso 1 - Operações de E/S de baixo nível executadas no cliente, normalmente presentes em testes de laboratório como documentados no guia técnico de Gilbert [36], usando dados aleatórios. Os dados são lidos e escritos diretamente em memória, tanto no cliente quanto no servidor. Apenas as operações básicas do sistema operacional acessam os discos magnéticos. Caso 2 - Operações de E/S de alto nível executadas no cliente, representando um ambiente empresarial, baseado no caso proposto por Hodge [19], no qual realiza-se um backup e restore de um arquivo de dados Oracle. Neste caso, os dados são lidos e escritos nos discos físicos do cliente e do servidor. Em ambos os casos, empregou-se um grupo de controle composto de operações sequênciais locais SCSI no servidor. Os tamanhos de bloco usados em todas as operações possuíam tamanhos de 64, 128, 256, 512 e 1.024 KB. Cada tipo de operação de E/S foi repetida 50 vezes para calcular o valor das métricas. No total, foram executadas 3.000 operações de E/S, resultantes da combinação de operações de leitura e escrita, dois casos de estudo, três protocolos (FCoE, iSCSI e SCSI local), cinco tamanhos de bloco e 50 repetições de cada operação. Determinaram-se as seguintes métricas: M1 - Vazão média e desvio padrão de E/S (MBps) M2 - Sobrecarga de protocolo por bloco de E/S (%) M3 - Desvio padrão da latência de E/S (ms) M4 - Relação do uso de CPU e vazão de E/S (%uso/MBps) M5 - Vazão média e desvio padrão de E/S SCSI local (MBps) A latência de E/S define-se como o intervalo de tempo entre cada bloco de dados em uma operação de E/S. As métricas de vazao de rede (MBps - Megabytes por segundo) e uso de CPU (%uso) tambem foram aferidas para detectar possíveis gargalos de sistema. III. RESULTADOS E ANÁLISE A. Caso 1 Conforme esperado, a vazão média de E/S do protocolos iSCSI e FCoE (M1) aumentou proporcionalmente ao tamanho de bloco, conforme mostra a Fig. 2. Caso 1 Vazão média de E/S (M1) 80 70 60 50 MBps 40 30 20 FCoE Escrita FCoE Leitura iSCSI Escrita iSCSI Leitura 10 0 64 KB 128 KB 256 KB 512 KB 1.024 KB Tamanho de bloco de E/S Figura 2. Caso 1 - Vazão média de E/S (M1). A vazão de leitura do iSCSI ultrapassou os resultados do FCoE com uso de blocos de 64, 256 e 512 KB, atingindo um pico de 74,11 MBps. O FCoE atingiu o máximo de 60,77 MBps como vazão média de leitura, com blocos de 1.024 KB. Nas operações de escrita, o iSCSI apresentou uma vazão de E/S ligeiramente superior ao FCoE com uso de blocos de 64 e 512 KB. A vazão dos dois protocolos praticamente se iguala com blocos de 128, 256 e 1.024 KB. O iSCSI atingiu um pico de vazão de 46,91 MBps contra 46,60 MBps do FCoE, ambos empregando blocos de 1.024 KB. Entretanto, como o software FCoE travou o protótipo nas operações de escrita com blocos de 1.024 KB, foi necessário estimar o valor de vazão usando como parâmetro de cálculo os valores obtidos com blocos menores. O desvio padrão da vazão de E/S foi 0,65 MBps no caso do FCoE e 3,41 MBps para o iSCSI. Estes valores foram considerados pequenos em relação à média, indicando que o protótipo permaneceu estável e confirmando que a amostra de 50 repetições por operação determinou a vazão média de E/S com dispersão desprezível. Os resultados de M1 deveriam ser inversamente proporcionais aos resultados de M2, ou seja, quanto menor a sobrecarga do protocolo maior sua capacidade de vazão. Entretanto, ocorre uma disparidade porque a sobrecarga do FCoE (M2) diminui nas operações de leitura e mantém-se constante nas operações de escrita, enquanto o iSCSI apresenta sobrecarga decrescente em ambas operações. Esses resultados apontavam que a vazão de leitura do FCoE deveria ser maior em relação ao iSCSI e também que a vazão de escrita do FCoE seria menor, de acordo com a sobrecarga por bloco mostrada na tabela II. TABELA II. CASO 1 - SOBRECARGA DE PROTOCOLO POR BLOCO DE E/S (M2). Operação FCoE leitura iSCSI leitura FCoE escrita iSCSI escrita Métrica Sobrecarga de protocolo por bloco de E/S (%) Sobrecarga de protocolo por bloco de E/S (%) Sobrecarga de protocolo por bloco de E/S (%) Sobrecarga de protocolo por bloco de E/S (%) 64 KB 128 KB 256 KB 512 KB 1.024 KB 2,93 4,00 2,93 1,21 2,88 4,01 2,93 1,16 2,86 4,05 2,93 0,86 2,85 4,06 2,93 0,80 2,84 4,06 2,93 0,63 Os valores de desvio padrão da latência de E/S (M3) do FCoE nas operações de leitura apresentaram-se menores com blocos de 64, 128 e 256 KB. Nas operações de escrita, os valores do FCoE foram menores com blocos de 64, 256, 512 e 1.024 KB, conforme a tabela III. TABELA III. CASO 1 - DESVIO PADRÃO DA LATÊNCIA DE E/S (M3). Operação FCoE leitura iSCSI leitura FCoE escrita iSCSI escrita Métrica Desvio padrão da latência de E/S (ms) Desvio padrão da latência de E/S (ms) Desvio padrão da latência de E/S (ms) Desvio padrão da latência de E/S (ms) 64 KB 128 KB 256 KB 512 KB 1.024 KB 0,01 0,04 0,01 0,03 0,01 0,01 0,01 0,01 0,01 0,28 0,01 0,09 0,14 0,05 0,03 0,18 0,13 0,08 0,03 0,07 Os resultados de M3 são diretamente proporcionais ao tempo de resposta das operações de E/S. Pode-se considerar que quanto menor o desvio padrão de M3 mais confiável o protocolo é, tendo em vista que o tempo de resposta das operações de E/S será mais uniforme [5]. Portanto, pode-se afirmar que o FCoE foi mais confiável que o iSCSI em 70% das operações. A métrica M4 (relação do uso de CPU e vazão de E/S) mostrou que o FCoE usa menos CPU que o iSCSI em todas as operações. Os valores são mostrados na tabela IV. dispositivo lógico a cada segundo enquanto dados não são detectados, reduzindo o intervalo de exame para 10 microsegundos quando existem dados no dispositivo. Este mecanismo dinâmico causa instabilidade do protótipo em situações de alta carga, justificando os altos valores do desvio padrão nas operações de controle SCSI local. B. Caso 2 De modo similar ao observado no caso 1, a vazão média e desvio padrão de E/S (M1) aumentou proporcionalmente ao tamanho de bloco, conforme verificado na Fig. 3. Caso 2 Vazão média de E/S (M1) 70 60 50 40 MBps 30 TABELA IV. CASO 1 - RELAÇÃO DO USO CPU E VAZÃO DE E/S (M4). Operação FCoE leitura iSCSI leitura FCoE escrita iSCSI escrita Métrica Relação do uso de CPU e vazão de E/S (%uso/MBps) Relação do uso de CPU e vazão de E/S (%uso/MBps) Relação do uso de CPU e vazão de E/S (%uso/MBps) Relação do uso de CPU e vazão de E/S (%uso/MBps) 64 KB 128 KB 256 KB 512 KB 1.024 KB 0,03 0,04 0,04 0,08 0,02 0,02 0,03 0,06 0,02 0,02 0,03 0,05 0,02 0,02 0,02 0,05 0,03 0,03 0,02 0,19 O pico de uso de CPU no cliente foi de 16,05% nos experimentos com iSCSI e 10,26% com FCoE. No servidor, o uso de CPU atingiu um máximo de 31,30% durante a execução de operações com iSCSI, contra 45,52 % de uso com FCoE e 73,42% nas operações do grupo de controle SCSI local. A vazão máxima de rede medida na interface do cliente foi 61,4 MBps com o protocolo FCoE contra 77,4 MBps do protocolo iSCSI. Concluiu-se que não ocorreram gargalos nestes dois elementos do sistema (rede e CPU) em nenhuma operação, porque as capacidades téoricas máximas não foram excedidas. Os experimentos do grupo de controle SCSI local apresentaram valores maiores de vazão média de E/S que os resultados obtidos com FCoE e iSCSI. O desvio padrão da vazão de E/S, por outro lado, apresentou-se muito alto (tabela V). Isso indicou que o protótipo apresentou comportamento instável, mesmo com consumo de CPU menor que 100%. TABELA V. CASO 1 - VAZÃO MÉDIA E DESVIO PADRÃO DE E/S SCSI LOCAL (M5). Operação L-SCSI leitura L-SCSI leitura L-SCSI escrita L-SCSI escrita Métrica Vazão média de E/S (MBps) Desvio padrão de E/S (MBps) Vazão média de E/S (MBps) Desvio padrão de E/S (MBps) 64 KB 128 KB 256 KB 512 KB 1.024 KB 343,92 100,10 147,61 8,88 539,63 588,81 486,86 365,03 117,03 135,59 123,48 8,67 146,51 161,80 161,41 126,25 13,36 7,84 6,69 3,17 Analisando-se o protótipo durante a execução das operações SCSI local, notou-se que as operações sobrecarregaram o dispositivo lógico (char device) usado pelo software mhvtl. Harvey [37], desenvolvedor do mhvtl, esclareceu que este problema é causado pelo código que processa os dados no dispositivo lógico. O algoritmo do código examina o 20 FCoE Escrita FCoE Leitura iSCSI Escrita iSCSI Leitura 10 0 64 KB 128 KB 256 KB 512 KB 1.024 KB Tamanho de bloco de E/S Figura 3. Caso 2 - Vazão média de E/S (M1). Os resultados da vazão média, entretanto, foram menores que os verificados no caso 1, por conta da introdução de discos magnéticos no caminho de E/S. A vazão de leitura do iSCSI, que atingiu pico de 59,33 MBps com bloco de 1.024KB, sendo 25% maior que a do FCoE. O FCoE atingiu pico de 47,07 MBps com bloco de 512 KB. Os valores de vazão dos dois protocolos se igualam com blocos de 64, 128, 256 e 512 KB. Nas operações de escrita, a vazão de E/S dos dois protocolos foi praticamente igual para todos os tamanhos de blocos. O pico de vazão foi atingido com bloco de 1.024 KB, sendo 44,93 MBps para o iSCSI e 44,72 MBps para o FCoE. Este pico de vazão do FCoE foi novamente estimado, porque o protótipo travou novamente nas operações de escrita com bloco de 1.024 KB. O desvio padrão da vazão de E/S foi 0,65 MBps no caso do FCoE e 2,58 MBps para o iSCSI. Estes valores foram considerados mínimos, indicando que o protótipo permaneceu estável e confirmando novamente que a amostra de 50 repetições por operação determinou a vazão média de E/S com dispersão desprezível. Entretanto, de maneira similar ao caso 1, a sobrecarga de protocolo por bloco de E/S (M2), não corroborou os resultados de M1, considerando-se que a sobrecarga do FCoE decresceu na leitura e manteve-se constante na escrita. A sobrecarga do iSCSI, por outro lado, aumentou na leitura e diminuiu na escrita, conforme mostra a tabela VI. TABELA VI. CASO 2 - SOBRECARGA DE PROTOCOLO POR BLOCO DE E/S (M2). Operação FCoE leitura iSCSI leitura FCoE escrita iSCSI escrita Métrica Sobrecarga de protocolo por bloco de E/S (%) Sobrecarga de protocolo por bloco de E/S (%) Sobrecarga de protocolo por bloco de E/S (%) Sobrecarga de protocolo por bloco de E/S (%) 64 KB 128 KB 256 KB 512 KB 1.024 KB 2,93 4,00 2,93 1,01 2,88 4,01 2,93 1,16 2,86 4,05 2,93 0,86 2,85 4,06 2,93 0,77 2,84 4,06 2,93 0,70 Estes resultados apontam que a vazão de leitura do FCoE deveria ser maior que a do iSCSI. Seguindo o mesmo raciocínio, a vazão de escrita do FCoE deveria ser menor que a do iSCSI. Porém, as vazões de leitura e escrita foram praticamente iguais em todos as operações, com exceção da escrita com bloco de 1.024 KB, na qual o iSCSI apresentou vazão superior. O desvio padrão da latência de E/S (M3) do FCoE apresentou dispersões menores que o iSCSI na leitura com blocos de 128, 512 e 1.024 KB e na escrita com todos os tamanhos de bloco. Deste modo, pode-se considerar que o FCoE apresentou-se mais confiável em 80% das operações, conforme verificado na tabela VII. TABELA VII. CASO 2 - DESVIO PADRÃO DA LATÊNCIA DE E/S (M3). Operação FCoE leitura iSCSI leitura FCoE escrita iSCSI escrita Métrica Desvio padrão da latência de E/S (ms) Desvio padrão da latência de E/S (ms) Desvio padrão da latência de E/S (ms) Desvio padrão da latência de E/S (ms) 64 KB 128 KB 256 KB 512 KB 1.024 KB 0,08 0,01 0,04 0,05 0,05 0,06 0,05 0,06 0,09 0,03 0,08 0,13 0,09 0,14 0,22 0,26 0,98 1,04 0,24 0,39 A relação do uso de CPU e vazão de E/S (M4) indicou que o FCoE usou menos CPU que o iSCSI em 70% das operações, conforme mostra a tabela VIII. TABELA VIII. CASO 2 - RELAÇÃO DO USO DE CPU E VAZÃO DE E/S (M4). Operação FCoE leitura iSCSI leitura FCoE escrita iSCSI escrita Métrica 64 KB 128 KB Relação do uso de CPU e vazão de E/S (%uso/MBps) 0,14 0,13 Relação do uso de CPU e vazão de E/S (%uso/MBps) 0,17 0,12 Relação do uso de CPU e vazão de E/S (%uso/MBps) 0,06 0,05 Relação do uso de CPU e vazão de E/S (%uso/MBps) 0,11 0,05 256 KB 512 KB 1.024 KB 0,13 0,12 0,05 0,07 0,12 0,13 0,05 0,08 0,14 0,15 0,04 0,24 O uso de CPU atingiu o máximo de 42,08 % com iSCSI e 8,70 % com FCoE. No servidor, o pico de CPU foi 99,05 % nas operações com iSCSI e 40,39 % com FCoE. A vazão de rede no cliente atingiu pico de 65,23 MBps com FCoE e 78,38 MBps com iSCSI. Portanto, não ocorreram gargalos de rede nem de CPU em nenhum dos experimentos. As operações de controle SCSI local, por outro lado, apresentaram 99,97% de uso de CPU na escrita com bloco de 1.024 KB. A vazão média de E/S SCSI local (M5) apresentou-se mais elevada que os resultados do iSCSI e FCoE (tabela IX). TABELA IX. CASO 2 - VAZÃO MÉDIA E DESVIO PADRÃO DE E/S SCSI LOCAL (M5). Operação L-SCSI leitura L-SCSI leitura L-SCSI escrita L-SCSI escrita Métrica Vazão média de E/S (MBps) Desvio padrão de E/S (MBps) Vazão média de E/S (MBps) Desvio padrão de E/S (MBps) 256 KB 512 KB 1.024 KB 100,24 109,02 109,76 3,88 16,73 15,99 77,67 78,44 78,08 3,82 3,11 2,55 64 KB 128 KB 107,88 14,50 79,02 2,48 77,67 3,82 75,03 14,14 Entretanto, estes valores de M5 do caso 2 são inferiores aos valores do caso 1 por conta do processamento adicional introduzido pelos discos magnéticos no caminho de E/S. O desvio padrão de E/S SCSI local também foi superior aos valores do FCoE e iSCSI, devido à limitação do software mhvtl já explicada anteriormente. C. Análise comparativa entre os casos 1 e 2 Considerando-se que os resultados do caso 2 apresentam a mesma tendência dos resultados do caso 1, pode-se afirmar que não existe relação direta entre os tipos de dados e o desempenho apresentado pelos protocolos FCoE e iSCSI. Entretanto, a inclusão de discos magnéticos no caminho de E/S do caso 2 introduz uma sobrecarga significativa no sistema em relação ao caso 1, justificando os valores de vazão de E/S até 20% inferiores e desvio padrão de E/S maior em relação ao caso 1. O processamento adicional introduzido pelos discos magnéticos no caminho de E/S afetou também o desempenho do grupo de controle SCSI local do caso 2, no qual constatouse o maior pico de CPU de todos os experimentos, apresentando um valor de 99,97% nas operações de escrita com blocos de 1.024 KB. O caso 2, representando um ambiente de produção empresarial, mostrou resultados mais uniformes nas operações de leitura com iSCSI e blocos de 256 KB e 512 KB. A vazão de E/S do iSCSI no caso 2 também apresenta valores mais próximos aos obtidos com o uso de FCoE. A métrica M2 mostrou que, nos casos 1 e 2, a sobrecarga do FCoE na leitura foi menor que a do iSCSI. Apesar disso, ambos protocolos apresentaram a mesma vazão de leitura no caso 2. Os resultados de M4, em ambos os casos, indicavam que a vazão de E/S do FCoE deveria ser melhor que a do iSCSI que consome mais CPU. Com o objetivo de investigar elementos que afetaram os resultados da vazão de E/S e não puderam ser determinados pelos resultados de M2, M3 e M4, analisou-se o processamento do VTL-LAB e o conteúdo da camada 2 dos quadros Ethernet. A primeira análise, focada no caso 1, verificou a causa da vazão de leitura do iSCSI apresentar-se praticamente o dobro do FCoE com blocos de 256 KB e 512 KB. O alto desempenho da vazão de leitura do iSCSI em situação de baixa carga de processamento no sistema também foi notado em estudo anterior [14]. Entretanto, este estudo não apresentou operações similares ao caso 2 deste artigo, em que a vazão do iSCSI e FCoE é praticamente a mesma. Esta situação dos valores de vazão elevada do iSCSI inexiste nas operações de escrita do caso 1 e também em todas as operações do caso 2. Explicou-se essa discrepância pelo fato de que o iSCSI, no caso 1, não concorre com outros processos pelo uso de CPU, tendo em vista que os dados são lidos do servidor e escritos no dispositivo lógico /dev/zero do cliente. A operação de escrita no /dev/zero gera processamento desprezível porque o Linux apenas confirma a escrita e descarta os dados. Por outro lado, esta característica mudou nas operações de escrita do caso 1, porque passa a existir uma carga de processamento concorrente que consiste em ler caracteres 0x00 do /dev/zero, criar os pacotes de dados, enquadrá-los e enviá-los pela rede para o servidor. Esse processamento concorrente fez desaparecer os picos de vazão do iSCSI, que também foram ausentes no caso 2, no qual ocorreu a introdução de carga adicional pelos discos magnéticos no caminho de E/S. O aprofundamento da análise dos quadros Ethernet por meio de dumps wireshark permitiu notar que os quadros que transportam o FCoE apresentavam um tamanho fixo de 2.172 bytes, dos quais 2.112 continham a carga útil (dados). Os quadros que transportam o iSCSI, por outro lado, tinham 2.514 bytes de tamanho, dos quais 2.448 continham carga útil. Esta situação permitiu ao iSCSI transportar 16% a mais de dados que o FCoE por cada quadro Ethernet. O FCoE usa quadros de tamanho fixo (2.172 bytes), portanto não tem seu desempenho alterado por aumentos da unidade máxima de transmissão Ethernet, conforme confirmado também notado anteriormente por Tong [14]. Como a unidade máxima de transmissão (MTU) foi configurada com 2.500 bytes de tamanho, o iSCSI apresentou valores maiores de vazão, compensando assim o possível efeito colateral de seu processamento TCP/IP. O código FCoE apresentou instabilidade e travou no cliente nas operações de escrita com bloco de 1.024 KB, indicando a necessidade de melhorias de código, também apontado anteriormente por Tong [14]. Apesar deste problema, deve-se considerar que o Open FCoE está progredindo e já apresenta valores de vazão praticamente iguais aos obtidos com o Open iSCSI no caso 2. backup e restore e os resultados de vazão de E/S, pode-se afirmar que não existem diferenças quantitativas no emprego de FCoE ou iSCSI. As variações de latência de E/S verificadas no iSCSI não afetam os tempos de processamento das rotinas de backup ou restore, tendo em vista sua natureza elástica sequencial e as janelas de execução noturnas que normalmente não concorrem com outros tipos de processamento. Os resultados também mostraram que, como a vazão do FCoE e do iSCSI é praticamente igual em fitas virtuais, o FCoE ainda não representa uma ameaça real ao iSCSI, eliminando a idéia mercadológica que aposta no desaparecimento do iSCSI em favor ao FCoE. Com o objetivo de expandir a análise, sugerem-se como trabalhos futuros estudos de desempenho com emprego de hardware especializado com dispositivos de fitas virtuais ou discos magnéticos, incluindo uma análise dos protocolos FCoE e FC nas mesmas condições. REFERÊNCIAS [1] [2] [3] [4] [5] IV. CONCLUSÃO O protocolo Fibre Channel over Ethernet (FCoE) surgiu como uma proposta de transporte da camada SCSI na rede Ethernet, sendo alternativa aos protocolos iSCSI e Fibre Channel. Conceitualmente, esta proposta está de acordo com a tendência de consolidação de tráfego, sendo suportada pela onipresença e conhecimento já estabelecido das redes Ethernet. Na prática, a versão de software do FCoE apresentou, na maior parte dos casos, baixa sobrecarga, baixo uso de processador e maior confiabilidade que a versão de software do iSCSI. Entretanto, os resultados da vazão de E/S são praticamente iguais para ambos os protocolos na maioria dos experimentos, sendo que o iSCSI foi ligeiramente melhor em alguns casos. Este cenário e o fato do FCoE apresentar travamentos em algumas operações indicam a necessidade de melhoria do código FCoE para que o mesmo possa ser empregado em ambientes de produção de larga escala. Historicamente, deve-se considerar também que o iSCSI tem sido usado como alternativa de baixo custo substituindo o Fibre Channel em ambientes não críticos com baixa demanda de desempenho. O FCoE, por sua vez, surge como um substituto ao Fibre Channel para ambientes críticos de alto desempenho. Portanto, deve-se questionar se o FCoE e o iSCSI não seriam protocolos com mesma finalidade mas diferentes dimensões de empregabilidade. Considerando-se o requisito de diminuição dos tempos de [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] A. V. Almeida, "Arquitetura de redes de armazenamento de dados", Dissertação de Mestrado em Engenharia, IC, Unicamp, SP, 2006. M. R. Murphy, "iSCSI-based Storage Area Networks for Disaster Recovery Operations", Master of Sciences dissertation, Dep. Elect. and Comp. Eng., The Florida State University, Tallahassee, FL, 2005. IETF, RFC 3720: Internet Small Computer Systems Interface (iSCSI), IETF Network Working Group, 2004. N. L. S. Fonseca, A. J. R. N. Neto, "A Comparative Study of the Performance of the Protocols iSCSi and Fiber Channel", IEEE Latin America Transactions, vol. 5, issue 3, pp. 150-156, June 2007. D. Xinidis, A. Bilas, M. D. Flouris, "Performance Evaluation of Commodity iSCSI-based Storage Systems", Proceedings of the 22nd IEEE/13th NASA Goddard Conference on Mass Storage Systems and Technologies, USA, 2005, pp. 261-269. L. Yingping, D. H. C. Du, "Performance Study of iSCSI-Based Storage Subsystems", IEEE Communications Magazine, USA, 2003, p. 76-82. H. Simitci, C. Malakapalli, V. Gunturu, "Evaluation of SCSI Over TCP/IP and SCSI Over Fibre Channel Connections", IEEE Hot Interconnects, USA, 2001, pp. 87-91. S. Aiken et al, "A performance analysis of the iSCSI protocol", Proceedings of the 20th IEEE/11th NASA Goddard Conference on Mass Storage Systems and Technologies, USA, 2003, pp. 123-134. C. Desanti, D. Peterson, “Fibre Channel Backbone 5 (FC-BB-5): INCITS working draft proposed”, ANSI Technology, USA, 2009, rev 2.00, 180 p. S. Gai, “Data Center Networks and Fibre Channel over Ethernet (FCoE)”, USA: lulu.com, 1st edition, 2008, 105 p. IEEE Computer Society, “Data Center Convergence Becoming a Reality”, IEEE Computer IT Professional Magazine, USA, 2008, vol. 10, number 3, pp. 6-8. M. Ko, D. Eisenhauer, R. Recio, “A Case for Convergence Enhanced Ethernet: Requirements and Applications”, IEEE ICC 2008 proceedings, Beijing, 2008, pp. 5702-5707. P. Kale et al, "Fibre Channel over Ethernet: A Beginners Perspective", IEEE International Conference on Recent Trends in Information Technology, India, 2011, pp. 438-443. W. Tong, "Performance comparison of FCoE and iSCSI", Photonics and Optoelectronics Meetings: Optical Storage and New Storage Technologies, China, 2009, Proc. of SPIE vol. 7517. F. Mu et al, "A Virtual Tape System Based on Storage Area Networks", Grid and Cooperative Computing, Springer-Verlag Berlin Heidelberg, China, 2004, pp. 278-285. F. Moore, Storage Panorama, Boulder, CO: Horison Information Strategies, 2008, pp. 39. F. Moore, Storage Squeeze Play, 2012. Available: www.horison.com/topics/disksqueeze_large.jpg, 2012. W. C. Preston, “Backup & Recovery”, USA: O’Reilly, 2006, 800 p. [19] K. Hodge, “Database Backkups Using Virtuaal Tape Volumess”, 32nd Annual Intternational Confference of the Computer Meassurement Group, USA A, 2006. [20] Intel, “Intell® PRO/1000 GT T Desktop Adaptter: Product Brieff”, USA, 2004, doc. 3303331-001, 2 p. [21] Intel, “Inntel® Desktop Board DQ35JJO Technical Product Specificatioon”, USA, 2007, ddoc. D96939-001, 84 p. [22] Intel, “Inttel® Desktop B Board D945GC CPE Technical Product Specificatioon”, USA, 2007, ddoc. D98324-001, 80p. [23] Intel, “Intell® Core™2 Extreeme Processor X66800 and Intel® C Core™2 Duo Deskttop Processor E66000 and E4000 Series Datasheeet, USA, 2008, doc. 3313278-008, 118 p. [24] Intel, “Duaal-Core Intel® Xeon® X Processor 3100 Series Dattasheet”, USA, 2009, doc. 319004-0022, 106 p. [25] WD, “Caviar Blue Desktopp Hard Drives”, USA, 2011. Avvailable: w.wdc.com/wdprodducts/library/SpeccSheet/ENG/28799http://www 701277.pdff [26] Fedora, “F Fedora® 14 Reelease Notes”, U USA, 2010. Avvailable: http://docs.fedoraproject.orgg/enml. US/Fedora//14/html/Release__Notes/index.htm [27] L. Torvaldds, Linux kernnel v. 2.6.37, USA, U 2011, Avvailable: http://www w.kernel.org/pub/liinux/kernel/v2.6 [28] R. Love, Open FCoE E Project, US SA, 2011. Avvailable: http://www w.open-fcoe.org [29] M. Mesnieer, S. Nair, Inteel's Open Storagge Toolkit, USA A, 2011. Available: hhttp://sourceforgee.net/projects/inteel-iscsi [30] V. Bolkhovvitin et al., Genneric SCSI Targeet Subsystem forr Linux, Russia, 20111. Available: httpp://scst.sourceforgge.net/index.htmll. [31] M. Harveyy, A Virtual Taape Library for Linux, Australiaa, 2011. Available: hhttp://sites.googlee.com/site/linuxvttl2. [32] M. B. P. Martins, " Esttudo comparativvo de desempennho dos protocolos FCoE e iSCSI em m virtualizadores de fitas", Disserrtação de m Engenharia de Computação, IPT T, SP, 2011. Mestrado em [33] IEEE, dd sttandard, The Opeen Group Base Sppecifications, Issuue 6, std. 1003.1, USA, 20044. Avvailable: www.openggroup.org/onlineppubs/009695399/uutilities/dd.html. [34] G. Combs, Wireshark Neetwork Protocol Analyser, USA A, 2011. www.wireshark.oorg. Available: w Linux, USA, [35] IBM, nnmon for 2011. Avvailable: http://nmonn.sourceforge.net. [36] D. Gilbert, The Linux 2.4 SCSI subsystem howto, USA, 20004, rev. 2.1, 57 p. [37] M. Harveyy, mhvtl perform mance testing quuestion, 2011. Avvailable: http://mhvtll-linux-virtual-tappe-library-commuunityforums.9666029.n3.nabble.coom/mhvtl-perform mance-testingtd2299185.html. Maarcio Bodnar Puttti Martins (M'122) é arquiteto de sistemas de aarmazenamento. R Recebeu o título dde Mestre em Enggenharia de Computação pelo Instituto de Peesquisas Tecnológgicas de Sãoo Paulo (IPT-SP P), São Paulo, S SP, Brasil, em 2011; e graaduado em Tecnoologia de Processsamento de Daddos pela Facculdade de Tecnnologia de São P Paulo (FATEC-S SP), São Pauulo, SP, Brasil, em m 2003. De 2003 a 2011, foi adminnistrador sênior de sistemas dde armazenamentto do banco Itaú U Unibanco. Waagner Luiz Zuccchi é, desde 19833, professor assisstente do Deppartamento de Enngenharia Elétricaa da Universidadee de São Pauulo (USP), São P Paulo, São Pauloo, Brasil. Ele tam mbém é proofessor associado do Instituto de Pesquisas Tecnolóógicas de Sãoo Paulo (IPT-SP)), São Paulo, SP, Brasil. Recebeuu o título de Doutor em Engeenharia de Telecoomunicações pelaa Escola Pollitécnica da Univversidade de São Paulo (USP), São Paulo, SP P, Brasil, em 19999. Atualmente ssuas pesquisas see concentram na área de redes de computadoores e controle dee distribuição de eenergia elétrica.