15-Sistemas com múltiplos processadores
Transcrição
15-Sistemas com múltiplos processadores
Sistemas Operacionais SISTEMAS COM MÚLTIPLOS PROCESSADORES LIVRO TEXTO: CAPÍTULO 13, PÁGINA 243 Prof. Pedro Luís Antonelli Anhanguera Educacional INTRODUÇÃO • Arquiteturas que possuem duas ou mais CPUs interligadas que funcionam em conjunto na execução de tarefas independentes ou no processamento simultâneo de uma mesma tarefa • Implementar Paralelismo em Hardware • Surgiram na década de 1960 para acelerar a execução de aplicações que lidavam com um grande volume de cálculos VANTAGENS • Desempenho – Execução simultânea de tarefas independentes – Execução de uma mesma tarefa por vários processadores • Escalabilidade – Capacidade de adicionar novos processadores • Relação custo/desempenho – Utilização de CPUs adicionais • Tolerância a falhas e disponibilidade – Capacidade de manter o sistema em operação em casos de falhas em algum componente • Balanceamento de carga – Distribuição do processamento entre os diversos componentes da configuração DESVANTAGENS • Problemas de comunicação e sincronização • Organizar de forma eficiente os processadores • Tolerância contra falhas é dependente do SO TIPOS DE SISTEMAS COMPUTACIONAIS • Classificados conforme o grau de paralelismo • SISD (Single Instruction Single Data) – Única seqüência de instrução é uma seqüência de dados – Usado na maioria dos computadores • SIMD (Single Instruction Multiple Data) – Única seqüência de instruções e múltiplas seqüências de dados – Vantajosa para aplicações com elevado grau de paralelismo de dados TIPOS DE SISTEMAS COMPUTACIONAIS • Classificados conforme o grau de paralelismo • MISD (Multiple Struction Simple Data) – Múltiplas seqüências de instruções e única seqüência de dados – Não existe computador com este modelo • MIND (Multiple Instruction Multiple Data) – Sistemas com múltiplos processadores SISTEMAS FORTEMENTE E FRACAMENTE ACOPLADOS • Arquitetura MIND (Flynn 1966) – Fortemente Acoplados • Processadores compartilham uma única memória principal e são controlados por apenas um SO MACHADO, fig.13.1 a, pag 247 – Sistemas fortemente acoplados SISTEMAS FORTEMENTE E FRACAMENTE ACOPLADOS • Arquitetura MIND (Flynn 1966) – Fracamente Acoplados • Possuem dois ou mais sistemas computacionais independentes conectados por uma rede de comunicação, com processadores e memórias e E/S próprios MACHADO, fig.13.1 b, pag 247 – Sistemas fracamente acoplados SISTEMAS FORTEMENTE E FRACAMENTE ACOPLADOS • Arquitetura MIND (Bell 1985) – Grau de acoplamento de memória principal: • Multiprocessadores – Compartilham um espaço de endereçamento • Multicomputadores – Possuem espaço de endereçamento próprio MACHADO, fig.13.2, pag 248 – Sistemas com múltiplos processadores SISTEMAS COM MULTIPROCESSADORES SIMÉTRICOS • SMP (Simetric Multiprocessors) – Dois ou mais processadores compartilhando um único espaço de endereçamento e gerenciados por um único SO – Evolução dos sistemas com múltiplos processadores assimétricos (mestre/escravo) – Todos os processadores realizam a mesma função Barramento Único Barramento Único com Cache ARQUITETURA DOS SISTEMAS SIMÉTRICOS • SMP (Simetric Multiprocessors) – Barramento Cruzado comunicação simultânea entre diferentes unidades funcionais, onde o hardware é responsável e o SO pela resolução de conflitos de acesso a uma unidade MACHADO, fig.13.5, pag 252 – Barramento cruzado comutado SISTEMAS NUMA (Non Uniform Memory Access) • Vários conjuntos de processadores e memórias conectados por uma rede compartilhando o mesmo SO • Desempenho das operações de acesso a memória • Memória principal é fisicamente distribuída entre processadores e um único espaço de endereçamento compartilhado • Alternativa para organizações SMP pois oferecem escalabilidade maior de processadores, menor custo e maior desempenho MACHADO, fig.13.7, pag 254 – Exemplo de arquitetura NUMA TOPOLOGIAS DE SISTEMAS NUMA MACHADO, fig.13.8, pag 255 – Topologias NUMA TOPOLOGIAS DE SISTEMAS NUMA • DASH (Directory Architecture for Shared Memory) – Formada por 16 conjuntos com 4 processadores cada, uma memória principal e dispositivos de E/S MACHADO, fig.13.9, pag 256 – Arquitetura DASH CLUSTER • Sistemas Fracamente Acoplados, formados por nós conectados por uma rede de interconexão de alto desempenho dedicada • Cada nó possui seus próprios recursos como processadores, memória, dispositivos de E/S e SO • VAXCluster (1983 - DEC) – 1º Cluster comercial – Digital Equipament Corporation • Maior necessidade de tolerância a falhas e alta disponibilidade, escalabilidade e balanceamento de carga • Transparente para o usuário • Permite o compartilhamento de dispositivos de E/S • Permite processamento paralelo CLUSTER MACHADO, fig.13.11, pag 258 – Exemplo de cluster EXEMPLO DE CLUSTER • • Master – – – – – – – – Processador Athlon 1.4GHz MB ASUS A7A266 Memoria: 1 Gb RAM DDR HD SCSI ST36706 36 Gbytes HD IDE Quantum Fireball AS60 60 Gbytes Placa SCSI Adpatec 29160 2 Placas de rede Intel eepro100+ Monitor 15" LG 560A – Unidade de fita DAT TLZ09 16 Nodos – – – – – • Processador Athlon 1.4GHz MB ASUS A7A266 Memoria: 512 Mb RAM DDR HD IDE Quantum Fireball 20 Gbytes Placa de rede Intel eepro100+ Conexão – Switch Micronet SP624K Etherfast 10/100 EXEMPLO DE CLUSTER • Cluster do CPTEC/INPE – 1100 processadores – 275 nós com 2 processadores dual AMD Opteron 64-bits nativos – velocidade de pico de 5,7 Teraflops – 62 Terabytes de disco – conexão entre nós com rede rápida InfiniBand Voltaire 10/100 EXEMPLO DE CLUSTER • Columbia (NASA) – – – – – – – – – 23 Nós 14.336 núcleos 304 gabinetes 88.88 Teraflop/s Memória total de 28,672 GB Sistema NUMA 10Gb Ethernet LAN/WAN Sistema de arquivos XFS SUSE Linux Enterprise SISTEMAS OPERACIONAIS DE REDE • • • • • • • • Melhor exemplo de Sistema Fracamente Acoplado Cada sistema (Host) possui recursos de hardware próprios Os Nós totalmente independentes, conectados por uma rede Redes Locais (LAN) – Ethernet, Token Ring Redes distribuídas (WAN) – Internet Comunicação por uma interface de rede Sistemas heterogêneos, (TCP/IP) Exemplos – – – – Microsoft Windows 2003 Novel Netware UNIX Linux MACHADO, fig.13.12, pag 259 – Rede de computadores TOPOLOGIAS DE REDE DE COMPUTADORES MACHADO, fig.13.13, pag 260 – Topologias de redes de computadores SISTEMAS DISTRIBUÍDOS • Conjunto de sistemas autônomos, interconectados por uma rede de comunicação que funciona como se fosse um sistema fortemente acoplado • Cada componente possui seus próprios recursos • Relacionamento mais forte entre os seus componentes • Sistema Fracamente Acoplado pelo aspecto de hardware e fortemente acoplado pelo aspecto de software • LAN ou WAN • Escalabilidade ilimitada • Aplicações distribuídas – Transparência – Tolerância a falhas MACHADO, fig.13.14, pag 261 – Sistema distribuído TRANSPARÊNCIA EM SISTEMAS DISTRIBUÍDOS • Transparência de acesso • Transparência de localização • Transparência de migração • Transparência de replicação • Transparência de concorrência • Transparência de paralelismo • Transparência no desempenho • Transparência de escalabilidade • Transparência a falhas TRANSPARÊNCIA EM SISTEMAS DISTRIBUÍDOS • Tolerância a Falhas – Garantir que, em caso de problema em um de seus componentes, as aplicações continuem sendo processadas sem qualquer interrupção ou intervenção do usuário, de forma totalmente transparente – Tolerância a falhas de hardware é facilmente oferecida utilizando-se componentes redundantes – Tolerância a falhas de software é bem mais complexa de implementar – Com a tolerância a falhas, é possível também oferecer alta disponibilidade e confiabilidade TRANSPARÊNCIA EM SISTEMAS DISTRIBUÍDOS • Imagem Única do Sistema – A maior dificuldade em implementar um sistema distribuído é a complexidade em criar para os usuários e suas aplicações uma imagem única do sistema, a partir de um conjunto de sistemas autônomos – Capacidade de lidar com os diversos problemas de comunicação existentes em um ambiente fracamente acoplado – O sistema precisa oferecer tolerância a falhas de forma – Exige mecanismos mais complexos e lentos para manter a integridade e segurança dos dados – Um dos grandes desafios para a adoção de sistemas distribuídos é a dificuldade no desenvolvimento de aplicações paralelas BIBLIOGRAFIA • MACHADO, F. B. & MAIA, L. P., Arquitetura de Sistemas Operacionais, 4 Edição, São Paulo, LTC, 2007. • TANENBAUM, A. S. Sistemas Operacionais Modernos: 2ª edição, São Paulo, editora Prentice Hall, 2003. • SILBERSCHATZ, A. Sistemas Operacionais – Conceitos: São Paulo, editora LTC, 2004.
Documentos relacionados
Introdução à Supercomputação
interligadas por alguma tecnologia tradicional de rede, como
Ethernet e ATM. Na prática são redes locais utilizadas na
execução de aplicações paralelas. Podem ser vistas como
máquinas NORMA de baix...
Aula 2 - Fundamentos de Sistemas Distribuídos
cooperativa, estando sujeitos aos mesmos problemas de sincronização referidos anteriormente.
Tanenbaum inicialmente desconsidera o tipo de computador utilizado (mainframe, PC,
etc...) e a maneira d...