- Maxwell Anderson
Transcrição
- Maxwell Anderson
Introdução à Informática 0 1 Sumário Introdução à informática ..................................................................................... 4 História da computação ................................................................................... 4 Computadores transistorizados ........................................................................ 9 Circuitos integrados ...................................................................................... 10 Os primeiros microprocessadores .................................................................. 12 Os microcomputadores modernos .................................................................. 18 CPU, INPUT e OUTPUT .............................................................................. 24 BITS & BYTES ............................................................................................ 26 Memória principal ......................................................................................... 28 Memória secundária ...................................................................................... 31 Dispositivos de entrada e saída ...................................................................... 32 Arquivos ....................................................................................................... 34 Programas ..................................................................................................... 36 Sistema Operacional...................................................................................... 39 História dos Sistemas Operacionais ............................................................... 41 Definição .................................................................................................. 41 CP/M ........................................................................................................ 42 Microsoft DOS .......................................................................................... 42 Unix ......................................................................................................... 43 Microsoft Windows ................................................................................... 44 Windows 3.0 ............................................................................................. 45 Mac OS..................................................................................................... 53 IBM OS/2 ................................................................................................. 53 Linux ........................................................................................................ 54 A Internet ..................................................................................................... 57 As Origens - ARPANET............................................................................ 57 As Origens – WWW.................................................................................. 57 Definições ................................................................................................. 58 A Internet .................................................................................................. 58 A Internet e as empresas ............................................................................ 59 Gerações de Sites ...................................................................................... 59 2 3 Introdução à informática Introdução à informática para aqueles que estão começando a usar o computador e não sabem o que é arquivo, RAM, sistema operacional, pendrive etc... Aqui vou explicar uma série de princípios sobre o funcionamento interno dos computadores. Esses princípios são válidos para qualquer tipo de computador, não importa o tamanho, a marca, o modelo, ou se trata de um computador novo ou antigo. Conhecendo o computador, você entenderá melhor o seu funcionamento e poderá tirar mais proveito do seu micro. História da computação Os modernos chips dos computadores devem sua existência ao trabalho de inventores geniais, durante três séculos. Charles Babbage, considerado o pai do computador atual, construiu em 1830 o primeiro computador do mundo, cem anos antes de se tornar realidade. O projeto de Babbage apresentava desvantagens; uma delas era o fato de que o seu computador deveria ser mecânico, e a outra era a precariedade da engenharia da época. Apesar dos problemas, Charles Babbage construiu um aparelho que impressionou o governo inglês. Entretanto, a história da computação começou muito antes. Como sabemos, o computador é uma máquina capaz de efetuar cálculos com um grupo de números e ainda adaptável para efetuar novos cálculos com um outro grupo de números. O primeiro "modelo" foi o ábaco, usado desde 2000 a.C. Ele é um tipo de computador em que se pode ver claramente a soma nos fios. Figura 1 - Ábaco Blaise Pascal, matemático, físico e filósofo francês, inventou a primeira calculadora mecânica em 1642. A calculadora trabalhava perfeitamente, ela transferia os números da 4 coluna de unidades para a coluna de dezenas por um dispositivo semelhante a um velocímetro do automóvel. Pascal chamou sua invenção de Pascalina. Figura 2 - Calculadora mecânica de Blaise Pascal Nos anos que se seguiram, vários projetos foram feitos com intuito de aperfeiçoar essa primeira calculadora. Entretanto, nada de significativo aconteceu, até que Babbage e Ada Lovelace começaram a considerar melhor o problema. Figura 3 – Ada Augusta, condessa de Lovelace, primeira programadora do mundo Em 1822, Babbage apresentou a Sociedade Real de Astronomia o primeiro modelo de uma máquina de "diferença", capaz de fazer cálculos necessários para elaborar uma tabela de logaritmos. O nome da máquina foi derivado de uma técnica de matemática abstrata, o método das diferenças. Com o incentivo da sociedade, Charles Babbage continuou a trabalhar no aperfeiçoamento da máquina. 5 Figura 4 - Máquina Diferencial de Charles Babbage Com Ada Lovelace, filha de Lord Byron, iniciou um projeto mais ambicioso para construir uma "máquina analítica". Foi projetada para calcular valores de funções matemáticas bem mais complexas que as funções logarítmicas. A máquina era enorme, demonstrava inúmeros problemas e simplesmente não funcionava. Grande parte da arquitetura lógica e da estrutura dos computadores atuais provém dos projetos de Charles Babbage, que é lembrado como um dos fundadores da computação moderna. Essas máquinas eram chamadas de calculadoras. No início do século 20 já eram comuns as calculadoras mecânicas e elétricas. As calculadoras elétricas eram baseadas em um pequeno dispositivo elétrico, chamado de RELÉ. Os relés tinham aproximadamente o tamanho de uma caixa de fósforos. Máquinas calculadoras construídas com relés eram muito grandes, pois para construí-las eram necessários centenas de relés. Figura 5 - Relés 6 As calculadoras elétricas, construídas com relés, eram muito melhores que as mecânicas. Eram mais rápidas e mais difíceis de apresentar defeitos. É verdade, essa estória de "erro do computador" já existia na época. As calculadoras mecânicas apresentavam muitos defeitos, da mesma forma como ocorre com qualquer máquina mecânica. As calculadoras a relé também apresentavam defeitos, mas eram muito mais raros. Resumindo, as calculadoras existentes até mais ou menos 1930 podiam ser de dois tipos: • Mecânicas: Lentas, apresentavam muitos defeitos. • Elétricas: Um pouco mais rápidas, e apresentavam defeitos, mas menos que as mecânicas Já nos anos 30 existiam as válvulas eletrônicas, muito usadas em rádios. Um daqueles antigos rádios possuíam mais ou menos uma dúzia de válvulas eletrônicas. As válvulas funcionavam como relés mais sofisticados. Eram muito mais rápidas que os relés, mas tinham o inconveniente de durarem pouco tempo. Após cerca de 1000 horas de uso, as válvulas "queimavam", assim como ocorre com as lâmpadas. Era então necessário trocar a válvula queimada. Figura 6 - O primeiro transistor, a válvula. Podemos ver na figura abaixo outra válvula eletrônica. 7 Figura 2 - Válvula eletrônica Figura 7 - Válvula eletrônica Em 1946 foi inventado o primeiro computador eletrônico de grande porte, o Eniac (Electronic Numeric Integrator and Calculator). Construído na Universidade da Pensilvânia, apresentava aproximadamente 18.000 válvulas e ocupava o espaço de uma sala. O objetivo do Eniac era ajudar o exército americano durante a 2ª guerra mundial. Apesar de não poder armazenar programas ou guardar mais que 20 dezenas de números digitais, o Eniac podia realizar aproximadamente 5.000 somas por segundo, ou seja, podia calcular a trajetória ou ângulo de uma bomba em 20 segundos. O peso aproximado do Eniac era de 30 toneladas. Com o revolucionário invento do Eniac, estava claro para muitas pessoas que trabalhavam no desenvolvimento do Eniac, que havia meio para melhorar a performance desse computador. Figura 8 - Uma parte do famoso computador ENIAC 8 A partir de 1951, começou a surgir empresas especializadas no comercio de computadores como a UNIVAC nos Estados Unidos e a Ferranti Mark I na Inglaterra. A UNIVAC lançou um computador com o mesmo nome da empresa (UNIVAC), que processava cada dígito com mais precisão. Ele possuía uma freqüência de clock de 2.25 Mhz e podia calcular números de dez dígitos com uma velocidade de 100.000 cálculos por segundo. O UNIVAC podia gravar em sua fita magnéticos dados com a velocidade de 40.000 dígitos binários por segundo (bits). Figura 9 - UNIVAC à esquerda Computadores transistorizados Uma grande melhoria em todos os aparelhos eletrônicos ocorreu após a invenção do TRANSISTOR. Esses pequenos componentes serviam para substituir as válvulas, mas com muitas vantagens. Eram muitos menores, consumiam menos corrente elétricas e duravam muitos anos. Tornou-se possível à construção de computadores de menor tamanho, mais rápidos, mais confiáveis e mais baratos. Já no final dos anos 50, todos os computadores eram construídos com transistores. Também passaram a serem fabricados em série. Cada computador não era mais um "filho único", e sim, fazia parte de uma série de máquinas iguais. Esses computadores ainda custavam milhões de dólares, mas passaram a ser usados em aplicações não militares: • Aplicações comerciais em grandes empresas • Controle de processos industriais A indústria de computadores começou a crescer, dando origem ao desenvolvimento dos grandes gigantes da informática mundial, como a IBM. 9 Figura 4 - Transistores Realmente os transistores causaram um grande impacto em todos os aparelhos eletrônicos, como rádios, TVs, vitrolas e tudo o mais que antes utilizava válvulas. Mas foi nos computadores que esses pequenos componentes tiveram a maior repercussão. Isso não é muito difícil de entender. Uma TV ou um rádio transistorizados não era tão pequenos em comparação com os modelos a válvula. Mas no caso dos computadores, essa miniaturização era muito mais acentuada, já que os computadores a válvula eram verdadeiros gigantes. Computadores que ocupavam um salão inteiro podiam ser construídos a transistor e ficavam do tamanho de uma estante. Computadores a válvula que ocupavam um prédio inteiro, podiam ser construídos com transistor, e passavam a ocupar apenas um andar. Assim foram os computadores até mais ou menos 1965. Circuitos integrados Ao mesmo tempo em que os computadores transistorizados eram cada vez mais utilizados em todo o mundo, um outro grande avanço tecnológico ocorria: A corrida espacial. Americanos e soviéticos lançavam seus foguetes rumo ao espaço. A miniaturização de computadores era ainda mais importante, no caso de um computador a ser colocado a bordo de um foguete. Seria totalmente inviável levantar vôo carregando um enorme computador valvulado. Já para um computador transistorizado, isto era possível, mas se fosse conseguida uma miniaturização ainda maior, computadores mais poderosos ou então mais leves (ou ambas as coisas) poderiam ser embarcados nos foguetes. A NASA (Agência Espacial NorteAmericana) gastou bilhões de dólares com seu programa espacial, contratou empresas fabricantes de transistores para que realizassem uma miniaturização ainda maior. Uma dessas empresas, até hoje uma líder mundial em microeletrônica, é a TEXAS INSTRUMENTS. Foram então criados os primeiros CIRCUITOS INTEGRADOS, também chamados de CHIPS. Basicamente, um circuito integrado é um pequeno componente eletrônico que possui em seu interior, centenas, ou até milhares de transistores. A figura 5 mostra a comparação de tamanhos entre uma válvula, um transistor e um CHIP dos mais rudimentares. Enquanto um 10 transistor é equivalente a uma válvula e tem um tamanho muito menor, um CHIP dos mais simples tem aproximadamente o mesmo tamanho que um transistor comum, mas em seu interior existem, na verdade, centenas de transistores. Figura 10 - Transistores, Chip e Válvula. Aqueles velhos CHIPS dos anos 60 tinham em seu interior, dezenas ou centenas de transistores. Já o microprocessador PENTIUM, um moderno CHIP dos anos 90, contém em seu interior, nada menos que 3.500.000 transistores! Os CHIPS podem ser divididos em várias categorias, dependendo da quantidade de transistores que existem em seu interior: SSI - Short Scale of Integration, ou Integração em Baixa Escala. Esse chip contém em seu interior apenas algumas dezenas de transistores. MSI - Medium Scale of Integration, ou Integração em Média Escala. Esse chip contém algumas dezenas de transistores. LSI - Large Scale of Integration, ou Integração em Alta Escala. Contém em seu interior, alguns milhares de transistores. VLSI - Very Large Scale of Integration, ou Integração em Escala Muito Alta. Esse chip contém da ordem de dezenas de milhares de transistores, ou mais. Nos computadores modernos, quase todos os chips usados são do tipo LSI ou VLSI. Os chips SSI e MSI são ainda usados em pequenas quantidades, normalmente para auxiliar os chips LSI e VLSI. 11 Os primeiros microprocessadores Não confunda essas duas palavras: MICROCOMPUTADOR:É um computador pequeno, de tamanho tal que pode ser colocado sobre uma mesa. Quando surgiram os microcomputadores, existiam apenas os computadores de grande porte (que ocupavam salas inteiras) e os minicomputadores, que eram do tamanho de uma geladeira. MICROPROCESSADOR: É um pequeno CHIP, que cabe na palma da mão. Podemos dizer que esse chip é o "cérebro" do computador. É ele que executa os programas, faz os cálculos e toma as decisões, de acordo com as instruções armazenadas na memória. Figura 11 - Microcomputador 12 Figura 12 - Microprocessador Os microprocessadores formam uma parte importantíssima do computador, chamada de UCP (Unidade Central de Processamento), ou em inglês, CPU (Central Processing Unit). Antes da existência dos microprocessadores, as CPUs dos computadores eram formadas por um grande número de chips, distribuídos ao longo de uma ou diversas placas. Um microprocessador nada mais é que uma CPU inteira, dentro de um ou dois CHIPs. Figura 13 - Chips em um processador de dois núcleos Podemos ver na figura abaixo, um microprocessador e uma placa de circuito. Um microprocessador contém todos os circuitos que antigamente eram formados por diversas placas. 13 Figura 14 - Placa de circuito impresso (placa-mãe) Ligando-se um microprocessador a alguns chips de memória e alguns outros chips auxiliares, tornou-se possível construir um computador inteiro em uma única placa de circuito. Esse computador, por ter um tamanho muito menor que os computadores da época (início dos anos 70), passou a ser conhecido como MICROCOMPUTADOR. Esses primeiros microcomputadores eram bem diferentes dos atuais. Não tinham, por exemplo, teclado, nem vídeo, nem impressora. Eram ligados a um aparelho chamado de TELETYPE (ou TELETIPO). O teletipo era uma máquina de escrever que continha uma leitora e uma perfuradora de fita de papel. Os programas não eram armazenados em discos, como nos dias atuais. Eram gravados em fitas de papel. Os pequenos furos da fita de papel representavam as instruções dos programas. 14 Figura 15 - Teletipo Figura 16 - Microcomputadores do início dos anos 70 Uma famosa empresa americana, a INTEL, foi uma das primeiras a produzirem microprocessadores. Seu primeiro microprocessador era chamado de "4004". Aliás, essa é uma característica muito comum nos chips: são normalmente chamados por números, e não 15 por nomes. O 4004 era um microprocessador ainda muito limitado. Era capaz de realizar operações com apenas 4 bits de cada vez. Se você ainda não sabe o que é um "BIT", não se preocupe, pois ainda nesta unidade explicaremos o que são BITS e BYTES. Para simplificar, um microprocessador de 4 bits só pode operar com números pequenos, de 0 a 15. Para usar números maiores, um microprocessador de 4 bits precisa dividir o número em várias partes e fazer as contas em várias etapas. Podemos exemplificar isto, fazendo uma analogia com o que acontece com o cérebro humano: Pergunta: Quanto é 37x21? Na escola nunca estudamos a tabuada de 37, e nem de 21. O máximo que conseguimos calcular "de cabeça" é 9x9. Para calcular 37x21 temos que fazer a conta: Como nosso cérebro só sabe multiplicar números menores que 10, dividimos a operação em várias etapas, e encontramos assim o resultado 777. Um microprocessador de 4 bits como o 4004 faz esse mesmo tipo de desmembramento para operar com números maiores. Figura 17 - Processador 4004 Depois do 4004, a INTEL lançou o 8008, que era um microprocessador de 8 bits. Era muito mais rápido que o 4004, já que podia operar com números maiores. Com 8 bits, esse chip podia operar diretamente com números entre 0 e 255. O que o 4004 precisava de duas etapas para realizar, podia ser realizado em uma única etapa pelo 8008. Esses chips eram caríssimos. Custavam, na época do seu lançamento, mais de 1000 dólares! 16 Figura 18 - Processador 8008 Depois do 8008, a INTEL lançou um novo microprocessador de 8 bits, chamado de 8080. Era mais rápido e mais barato que o 8008. O 8080 foi o primeiro microprocessador a ser usado em larga escala nos chamados "computadores pessoais". Antes deles, os microcomputadores eram usados apenas em laboratórios científicos, em fábricas e em universidades. O 8080 popularizou o uso de microcomputadores por pequenas empresas e até para uso pessoal. Já no final dos anos 70 eram comuns os micros pessoais baseados no 8080 e em outros microprocessadores rivais: o MC6800 da Motorola, o 6502, usando em um antigo microcomputador chamado de APPLE, e o Z-80 fabricado pela ZILOG, usado em um antigo computador chamado TRS-80. Surgia então a indústria dos microcomputadores. Ao mesmo tempo, surgia a indústria do software para microcomputadores, que criava programas de vários tipos para serem usados nessas máquinas. Figura 19 - Processador 8080 Os microcomputadores dessa época já tinham teclado, vídeo e impressora. Seus dados e programas eram gravados normalmente em gravadores de fita K-7 adaptados para trabalhar com microcomputadores. A INTEL produziu ainda, no final dos anos 70, um outro microprocessador para substituir o 8080. Chamava-se 8085. Todos esses microprocessadores (8080, 8085, Z-80, 6502, 6800 e outros) operavam com 8 bits. 17 Figura 20 - Microcomputador SCHUMEC M 101/85 Diretamente do túnel do tempo (1981), a figura acima mostra um dos primeiros microcomputadores brasileiros, o SCHUMEC M-101/85. Tinha um microprocessador INTEL 8085 de 6 MHz, 16 KB de memória e um gravador de fita K-7 para armazenamento de programas e dados. Seu monitor de vídeo era na verdade uma TV PHILIPS adaptada, já que nesta época o Brasil não fabricava monitor. Os microcomputadores modernos Até o final dos anos 70, os microcomputadores existentes operavam com 8 bits. Nessa época, a INTEL lançou os primeiros microprocessadores de 16 bits: o 8086 e o 8088. Um microprocessador de 16 bits é capaz de operar com números maiores e de forma mais rápida que os modelos de 8 bits. Os dois microcomputadores que dominavam o mercado eram o APPLE e o TRS-80: Modelo Microprocessador Número de bits APPLE 6502 8 TRS-80 Z-80 8 Nessa ocasião, a IBM, que é o maior fabricante de computadores em todo o mundo, ainda não fabricava microcomputadores. Seus produtos eram os computadores de grande porte usados nos grandes centros de processamento de dados, e custavam alguns milhões de dólares. A IBM decidiu então entrar no mercado de computadores pessoais. Escolheu então o microprocessador 8088 para usar em seu microcomputador, chamado de "IBM Personal Computer", ou simplesmente, IBM PC. O IBM PC, o primeiro microcomputador de 16 bits, passou logo a dominar o mercado. Até os dias atuais, os modernos microcomputadores são compatíveis com o IBM PC original, lançado em 1981. Este microcomputador tinha as seguintes características: • Microprocessador 8088, operando a 4.77 MHz 18 • Monitor de vídeo monocromático • 2 drives de 320 KB • 16 KB de memória, possibilitando expansão até 64 KB • Conexão para gravador K-7 Pouco tempo depois, a IBM realizou melhorias no projeto deste microcomputador e lançou o IBM PC-XT. A sigla "XT" significa "Extended Technology" (Tecnologia estendida). As características dos primeiros modelos do IBM PC-XT eram as seguintes: • Microprocessador 8088, operando a 4.77 MHz • Monitor de vídeo monocromático ou colorido • 2 drives de 360 KB • 64 KB de memória, possibilitando expansão até 256 Kb • Disco Winchester de 10 MB A grande vantagem do IBM PC-XT em relação ao IBM PC era a possibilidade de operar com um disco rígido (também chamado de winchester) de 10 MB, uma altíssima capacidade para aquela época. Figura 21 - IBM PC-XT Todos esses computadores são chamados de "PC compatíveis". Mesmo esses modelos mais modernos, que são centenas de vezes mais velozes que o IBM PC original, ainda são chamados de "PCs". 19 Ao longo dos anos foram surgindo novos fabricantes PC’s aumentando a competição IBM, com isso foi havendo melhorias como: Preço: Com o aumento da produção e o uso de chips VLSI, foi possível reduzir drasticamente o preço dos equipamentos. Microprocessador: A cada ano eram lançados novos tipos de microprocessadores, cada vez mais velozes. Por exemplo, o microprocessador 80286 foi utilizado em outro modelo da IBM chamado de IBM PC-AT. A sigla "AT" significa "Advanced Technology" (Tecnologia Avançada). O IBM PC-AT operava com 8 MHz, mas ao longo dos anos foram lançados novos modelos com velocidades mais altas. 8088-2 8 MHz 60% mais rápido que o 8088 8088-1 10 MHz 2 vezes mais rápido que o 8088 80286-8 8 MHz 6 vezes mais rápido que o 8088 80286-10 10 MHz 7,5 vezes mais rápido que o 8088 80286-12 12 MHz 9 vezes mais rápido que o 8088 80286-16 16 MHz 12 vezes mais rápido que o 8088 80286-20 20 MHz 15 vezes mais rápido que o 8088 80286-25 25 MHz 18 vezes mais rápido que o 8088 Assim como o 80286, outros microprocessadores mais velozes foram lançados: 80386-16 16 MHz 17 vezes mais rápido que o 8088 80386DX-40 40 MHz 43 vezes mais rápido que o 8088 80486DX-25 25 MHz 54 vezes mais rápido que o 8088 80486DX4-100 100 MHz 200 vezes mais rápido que o 8088 Pentium-60 60 MHz 240 vezes mais rápido que o 8088 Pentium-100 100 MHz 400 vezes mais rápido que o 8088 20 Figura 22 - Microprocessador 80486 Assim como ocorreu com o 80286, os microprocessadores 80386, 80486 e PENTIUM também tiveram versões com diversas velocidades. O 80386 teve versões de 16, 20, 25, 33 e 40 MHz. O 80486 teve versões de 25, 33, 40, 50, 66, 75, 80 e 100 MHz (por enquanto). O PENTIUM foi lançado em versões de 60, 66, 90, 100 MHz. Evoluções posteriores1 1993: Nasce o grande astro da Intel, o Pentium construído com a tecnologia CMOS de 0.8μm foi o marco do avanço tecnológico, possuindo cerca de 3.100.000 transistores, trabalhando entre 66MHz e 233MHz e executando cerca de 112MIPS. Após assistir o lançamento do Pentium, a AMD lança o Am486 com frequência máxima de150MHz e 1.600.000 transistores, no entanto, ele não foi bem aeito pelos consumidores. 1995: A Intel lança o Pentium PRO com a novidade da cache L2, rodava a 200MHz e possuía 5,5 milhões de transistores, sendo o primeiro processador a ser produzido com a tecnologia de 0.35μm. Neste mesmo ano a AMD decide sair da sombra da Intel e introduz o microprocessador AMD-K5. 1997: a AMD sabia que estava perdendo a batalha contra a gigante Intel e resolveu colocar em desenvolvimento um core revolucionário de uma empresa que estava vendendo sua tecnologia, então nasce o AMD-K6 que oferecia desempenho competitivo e sem perder desempenho com cálculo flutuante essencial para jogos e alguma tarefas multimídias. Com o sucesso do AMD-K6, a Intel decide antecipar o lançamento do Pentium II. Seguindo a Lei de Moore, o crescimento do desempenho dos processadores estava atingindo proporções incríveis, pois o Pentium II possuía 7,5 milhões de transistores produzidos na tecnologia de 0.25μm e também incorporava a tecnologia Intel MMX. 1998: O Intel Pentium II Xeon e concebido para satisfazer os requisitos de desempenho de médios e grandes servidores e estações de trabalho. Neste ano surge 1 Retirado de http://historiacomput.blogspot.com.br/2012/04/evolucao-dos-processadores.html 21 o processador AMD-K6-2 que passou a utilizar uma forma mais rápida de soquete 7, agora chamada de super soquete 7. 1999: a AMD toma a liderança na corrida pela performance, lançando o AMDK7r, ou AMD Athlon, o primeiro processador com frequência acima de 1GHz. Processadores projetados especificamente do zero para executar sistemas Windows com performance excepcional. Como resposta, a Intel lança o Pentium III, que possuía 70 novas instruções, que aumentaram visivelmente o desempenho de gráficos avançados, 3D, streaming de ´áudio, vídeo e aplicações de reconhecimento de voz. 2000: no ano 2000 as novas tecnologias desenvolvidas, como a fabricação de transistores com fios de 0.18μm, deram novo folego para a Lei de Moore possibilitaram a criação de processadores muito mais rápidos, com menos consumo de energia e dissipação de calor. Nasce o Pentium 4, com 42 milhões de transistores. 2001 a 2006: no período de 2001 a 2006, surgem diversas novas tecnologias e processadores, sempre confirmando a previsão de Gordon Moore. Contudo, a partir de 2001, após o lançamento de novas versões do Pentium 4, a indústria já podia construir processadores com transistores tão pequenos (tecnologia de 0.13μm) que tornou-se muito difícil aumentar o clock por limitações físicas, principalmente porque o calor gerado era tão grande que não podia ser dissipado pelos resfriadores convencionais. 2006: A Intel lança sua nova linha de processadores multi core e deixa o Athlon 64 X2 para traz. Essa nova linha abandona a marca Pentium e passa a utilizar a Core2, trazendo também algumas melhorias que tornariam a Intel novamente a líder de mercado. As barreiras térmicas que atrasavam o avanço dos processadores levaram os fabricantes a criar novas saídas para continuar desenvolvendo novos produtos com maior poder de processamento que os anteriores. Uma das saídas mais palpáveis foi colocar vários núcleos em um mesmo chip. Esses novos processadores ficaram conhecidos como multi core. Harddisk (HD): Os XTs usavam discos rígidos (HD) com 10 MB, mas atualmente existem hard disks com várias capacidades 22 Figura 23 - HD moderno Memória: Os primeiros PCs usavam 16 KB de memória. Os programas da época eram suficientemente pequenos para funcionar bem com esta pequena quantidade de memória. Figura 24 - Memória RAM Todos os microcomputadores atuais, equipados com os microprocessadores 80286, 80386, 80486 e PENTIUM, são na verdade sucessores do IBM PC-AT, que é por sua vez, sucessor do IBM PC. 23 CPU, INPUT e OUTPUT Vimos uma evolução da história dos computadores, para entender como tiveram origem os microcomputadores modernos. Todos os computadores possuem uma parte muito importante, chamada de UNIDADE CENTRAL DE PROCESSAMENTO (UCP). Em inglês, usamos a sigla CPU, que é abreviatura de CENTRAL PROCESSING UNIT. Nos computadores de grande porte, a CPU é formada por uma ou várias placas. Cada uma dessas placas contém vários CHIPS. Nos microcomputadores a CPU nada mais é que o próprio MICROPROCESSADOR. É também comum chamar a placa que contém o microprocessador de PLACA DE CPU. Não quer dizer que a CPU seja a placa inteira. A PLACA MÃE DA CPU é a placa que contém a CPU, ou seja, que contém o MICROPROCESSADOR. Figura 25 - Placa de CPU Portanto, "CPU" não é a mesma coisa que "microprocessador". O certo é dizer que o microprocessador é a CPU do microcomputador, e que a PLACA MÃE DA CPU de um microcomputador é a placa onde está localizado o microprocessador. Não é simples? 24 Não importa de que tipo de CPU estamos falando, seja um microprocessador, ou uma das várias placas que formam a CPU de um computador de grande porte, podemos dizer que a CPU realiza as seguintes tarefas: a) Busca e executa as instruções existentes na memória. Os programas e os dados que ficam gravados no disco (winchester ou disquetes), são transferidos para a memória. Uma vez estando na memória, a CPU pode executar os programas e processar os dados. b) Comanda todos os outros chips do computador. A CPU é auxiliada por vários circuitos que desempenham diversas funções. Por exemplo, quando você pressiona uma tecla, faz com que o teclado transmita o código da tecla pressionada. Este código é recebido por um circuito chamado de INTERFACE DE TECLADO. Ao receber o código de uma tecla, a interface de teclado avisa a CPU que existe um caráter recebido. Por outro lado, quando a CPU precisa enviar uma mensagem para o usuário, precisa que a mensagem seja colocada na tela. Isto é feito com auxílio de um circuito chamado de INTERFACE DE VÍDEO. A CPU envia para a interface de vídeo, a mensagem, seja ela em forma de texto ou figura. A interface de vídeo coloca então a mensagem na tela. Quando a CPU executa instruções e processa dados, dizemos que está PROCESSANDO. A CPU passa, na verdade, o tempo todo processando instruções e dados. Quando um circuito recebe um dado e o transmite para a CPU, como no caso do teclado, dizemos que se trata de uma operação de ENTRADA DE DADOS (INPUT). Quando um circuito transmite um dado, como no caso do vídeo, ou da impressora, dizemos que se trata de uma operação de SAÍDA DE DADOS (OUTPUT). Podemos dizer que o computador é uma máquina que passa o tempo todo realizando três operações: • ENTRADA • PROCESSAMENTO • SAÍDA A entrada de dados é realizada por diversos dispositivos coordenados pela CPU. Entre eles podemos citar o teclado. O processamento é realizado pela própria CPU. Lembrese que CPU significa "Unidade Central de Processamento". A saída de dados é realizada por vários dispositivos, sob a coordenação da CPU. Entre eles podemos citar o vídeo e a impressora. Vejamos então um pequeno resumo dos conceitos apresentados nesta lição: CPU - É a Unidade Central de Processamento. Em computadores de grande porte, a CPU é formada por uma ou mais placas. Nos microcomputadores, a CPU é o próprio MICROPROCESSADOR. 25 PLACA MÃE - Todo microcomputador possui uma placa principal, chamada de PLACA MÃE. Esta placa contém o microprocessador, a memória e outros circuitos importantes. PROCESSAMENTO - É a principal função da CPU. Além de realizar o processamento dos dados. A CPU também comanda as operações de ENTRADA e SAÍDA, que são realizadas por circuitos auxiliares chamados de INTERFACES. BITS & BYTES BIT - Número que pode representar apenas dois valores: 0 e 1. BYTE - Grupo de 8 bits. Pode representar valores numéricos entre 0 e 255. Pode também ser usado para representar caracteres. Cada carácter ocupa um byte. Estamos acostumados a utilizar o SISTEMA DECIMAL DE NUMERAÇÃO. Esse sistema usa 10 algarismos para formar todos os números: 0, 1, 2, 3, 4, 5, 6, 7, 8, e 9. O sistema de numeração decimal usa exatamente 10 algarismos, devido ao fato dos seres humanos terem 10 dedos. Historicamente o número 10 foi escolhido, pois os números eram usados na vida cotidiana para contar. Contar carneiros, bois, pães, pessoas, etc. Nada mais natural que contar com os dedos. Se você não acredita nisso, pergunte a uma criança de 3 anos, quantos anos ela tem. Você verá que a criança responderá mostrando 3 dedos da mão. Imagine, por exemplo, um número qualquer de 3 algarismos, como por exemplo, 732. Dizemos que esse número tem 3 dígitos decimais. O primeiro dígito, o das centenas, é o 7. O segundo dígito, o das dezenas, é o 3, e o terceiro dígito, o das unidades, é o 2. Existem muitos outros números de 3 dígitos. O menor deles é o 100, e o maior deles é o 999. Os computadores podem receber valores decimais, através do teclado, e escrever valores decimais, através do vídeo, por exemplo. Mas internamente, ou seja, no interior da CPU e da memória, os valores são armazenados em um outro sistema, mas adequado aos circuitos do computador. Trata-se do SISTEMA BINÁRIO. Enquanto no sistema decimal, cada dígito pode assumir 10 valores (0, 1, 2, 3, ..., 9), no SISTEMA BINÁRIO cada dígito pode assumir apenas 2 valores: 0 e 1. Por exemplo, o número 13, que no sistema decimal é representado apenas com dois dígitos (1 e 3), no sistema binário é representado com 4 dígitos, na forma: 1011. BIT nada mais é que a abreviatura de BINARY DIGIT, ou seja, dígito binário. Talvez os nossos conhecidos algarismos do sistema decimal devessem ser chamados de "DET" (Decimal Digit). Poderíamos dizer nesse caso que os "DETS" existentes são 0, 1, 2, 3, ... 9. Não existe o termo "DET" que estamos apresentando aqui, apenas para fazer uma analogia. Dessa forma você pode entender melhor que os BITS podem assumir dois valores: 0 e 1. Dentro do computador, todos os dados que estão sendo armazenados ou processados são representados na forma de BITS. Como um BIT é muito pouco, já que pode representar apenas dois valores, os computadores trabalham com agrupamentos de bits. Por exemplo, os 26 microprocessadores antigos, como o 8080, podiam operar com 8 bits de cada vez. Os PCs que usam os microprocessadores 8088 e 80286 trabalham com 16 bits (apesar de aceitarem também instruções e dados de 8 bits). Os microprocessadores 80386, 80486 e PENTIUM operam com 32 bits (apesar de aceitarem também instruções e dados de 8 ou 16 bits). Sempre que um microprocessador, uma memória, ou outro chip qualquer precisar receber ou transmitir dados, esses dados são transferidos na forma de BITS. Entretanto, para que a transferência seja mais rápida, esses bits não são transferidos um de cada vez, e sim, vários de uma só vez. Com um único fio só é possível transmitir um bit de cada vez. Com 8 fios é possível transmitir 8 bits de cada vez, o que é muito mais rápido. Portanto, os bits nos computadores são sempre transmitidos em grupos de 8, 16 ou 32 bits. • Um grupo de 4 bits é chamado de NIBBLE • Um grupo de 8 bits é chamado de BYTE • Um grupo de 16 bits é chamado de WORD • Um grupo de 32 bits é chamado de DOUBLE WORD • Um grupo de 64 bits é chamado de QUAD WORD Você não precisa decorar todas essas palavras. Basta saber que um BYTE (lê-se "báite") é um grupo formado por 8 bits. Esses 8 bits caminham sempre juntos, como se fossem pássaros de um mesmo bando. Toda vez que um bit é transferido de um lugar para outro, os 8 bits seguem o mesmo caminho, cada um por um "fio" diferente. Os BYTES podem ser usados para representar números, caracteres, figuras, ou qualquer outro tipo de dado armazenado ou processado em um computador. Convencionase, por exemplo, que as letras do alfabeto, os números e outros caracteres são representados como está exemplificado abaixo: 01000001 - A 01000010 - B 01001010 - L 00100011 - # 01010100 - T Ninguém precisa decorar esses números. Na verdade, alguns "micreiros" acabam, de forma imperceptível, decorando esses valores. Mas não é necessário decorar esses números para saber usar o computador. É importante que você saiba que, por exemplo, quando você pressiona a tecla "T", o teclado transmitirá para o computador um código que representa esta letra (este código, que você não precisa decorar, é 01010100). Não é importante saber qual é o código, mas é importante saber que é formado por 8 bits, e que ficarão armazenados na memória do computador, ocupando exatamente 1 BYTE. 27 Tabela 1 - Diferenças relativas entre múltiplos decimais e binários equivalentes. Nome Símbolo Potência = valor (SI) quilo k 103 = 1000 mega M 106 = 1 000 000 giga G 109 = 1 000 000 000 tera T 12 10 = 1 000 000 000 000 Nome Símbolo Potência binária kibi Ki 210 = 1024 2,4% mebi Mi 220 = 1 048 576 4,9% gibi Gi 230 = 1 073 741 824 7,4% tebi Ti 2 = 1 099 511 627 776 10,0% pebi Pi 250 = 1 125 899 906 842 624 12,6% exbi Ei 260 = 1 152 921 504 606 846 976 15,3% zebi Zi yobi Yi 40 Diferença 15 peta P exa E zetta Z yotta Y 10 = 1 000 000 000 000 000 1018 = 1 000 000 000 000 000 000 1021 = 1 000 000 000 000 000 000 000 1024 = 1 000 000 000 000 000 000 000 000 270 = 1 180 591 620 717 411 303 424 280 = 1 208 925 819 614 629 174 706 176 18,1% 20,9% Memória principal A CPU é a parte mais importante de um computador. Essa importância é tão grande, que é comum ouvir pessoas chamando seus computadores pelo nome do microprocessador: "... possuo um computador 486...". Podemos dizer que depois da CPU, a parte mais importante de um computador é a MEMÓRIA. Tanto é assim que ouvimos muitos usuários de micros falarem: "... possuo um 486 com 8 MB de memória...". A MEMÓRIA PRINCIPAL é aquela que é acessada diretamente pelo microprocessador. É formada por diversos tipos de CHIPs. Podemos ver na figura 16 alguns tipos de chips de memória, usados para formar a memória principal de microcomputadores. 28 Figura 26 - Chips de memória Além da MEMÓRIA PRINCIPAL, que é diretamente acessada pela CPU, existe também a MEMÓRIA SECUNDÁRIA, que será estudada na próxima seção. A memória secundária não é acessada diretamente pela CPU. Seu acesso é feito através de interfaces ou controladoras especiais. Podemos citar como exemplo de memória secundária, o HD ou HardDisk. A memória secundária não é formada por chips, e sim, por dispositivos que utilizam outras tecnologias de armazenamento. O harddisk, assim como os antigos disquetes e as unidades de fita, usam a tecnologia magnética para armazenar dados. Os discos CDROM usam tecnologia ótica. Figura 27 - Placa-mãe com memórias RAM 29 Figura 28 - Placa de vídeo e suas memórias No caso dos microcomputadores, quase toda a memória principal fica localizada na PLACA MÃE. Entretanto, algumas outras placas, chamadas de PLACAS DE EXPANSÃO, também podem conter mais memória. Os chips de memória podem ser divididos em duas categorias: RAM - São chips de memória que podem ser lidos e gravados pela CPU a qualquer instante. A CPU usa a RAM para armazenar e executar programas vindos do disco, para ler e gravar os dados que estão sendo processados. Uma outra característica da RAM, é que se trata de uma memória VOLÁTIL. Isso significa que quando o computador é desligado, todos os seus dados são apagados. Por essa razão, é necessário que os programas e dados fiquem gravados no disco, que é uma memória PERMANENTE. ROM - É a abreviatura de READ ONLY MEMORY, ou seja, "MEMÓRIA PARA LEITURA APENAS". São chips de memória que podem ser lidos pela CPU a qualquer instante, mas não podem ser gravados. Sua gravação é feita apenas pelo fabricante do computador, ou pelo fabricante de memórias. A outra característica importante de ROM é que se trata de uma memória PERMANENTE. Seu conteúdo nunca é perdido, mesmo com o computador desligado. Nos microcomputadores, existe um programa muito importante chamado de BIOS (Basic Input-Output System - Sistema Básico de Entrada e Saída). O BIOS tem várias funções, entre as quais, a de realizar a "partida" do computador. Quando ligamos o computador, o BIOS realiza a contagem de memória, faz uma rápida checagem do funcionamento do computador e realiza a carga do Sistema Operacional que deve estar armazenado no disco. O BIOS está gravado em uma memória ROM localizada na PLACA MÃE. 30 Como já mostramos, a PLACA MÃE contém quase toda a memória de um microcomputador, mas outras placas também podem conter memórias, do tipo RAM e do tipo ROM. Por exemplo, as placas de vídeo contêm uma ROM com o seu próprio BIOS, e contém uma RAM chamada de MEMÓRIA DE VÍDEO, que armazena os caracteres e gráficos que são mostrados na tela. Podemos ver na figura acima os chips de memória existentes na PLACA DE CPU. A figura 18 mostra os chips de memória existentes na PLACA DE VÍDEO de um microcomputador. Memória secundária A MEMÓRIA SECUNDÁRIA também é chamada de MEMÓRIA DE MASSA. É uma memória do tipo PERMANENTE (não se apaga quando o computador está desligado), que tem uma alta capacidade de armazenamento, e um custo muito mais baixo que o da memória principal. Figura 29 - Dispositivos de armazenamento secundário Figura 30 -Pendrive com memórias microSD 31 Você poderá estar pensando como a memória secundária tem grande vantagem em relação à memória principal. A memória secundária é muito mais barata, de maior capacidade, e ainda é permanente, ou seja, não apaga os dados quando o computador é desligado. Por que então esse tipo de memória não é usado no lugar da memória principal? Já pensou como seria interessante acoplar um harddisk de 200 GB diretamente a um microprocessador? Você iria dizer: "... possuo um computador Core 2 Duo com 200 GB de memória...". Infelizmente, os dispositivos de armazenamento secundário são extremamente lentos. São lentos demais para serem acoplados diretamente ao microprocessador. Além disso, não permitem acessos a seus bytes individuais, como um microprocessador precisa realizar. Os meios de armazenamento secundário só permitem o acesso a BLOCOS DE DADOS. Em um pendrive ou em um winchester, por exemplo, as leituras são feitas em unidades mínimas chamadas de SETORES. Cada setor tem 512 bytes. Para ter acesso a um único byte, é preciso ler o setor inteiro. Isso faz com que seu acoplamento direto à CPU seja inviável. As memórias RAM e ROM são milhares de vezes mais rápidas e permitem que sejam feitos acessos a qualquer um de seus bytes, de forma individual. Por isso são usadas para formar a memória principal. A tabela abaixo mostra o tempo que o microprocessador precisa para ter acesso a um byte qualquer, em cada um dos tipos de memória. Os valores mostrados são aproximados, mas são suficiente para verificar como as memórias ROM e RAM são muito mais rápidas. RAM 0,00000005 s ROM 0,0000002 s HardDisk 0,001 s Disquete 0,1 s CD-ROM 0,3 s Fita 60 s Os meios de armazenamento secundário são mais lentos porque envolvem movimento de suas partes mecânicas. O winchester, o drive de disquete e o drive de CDROM precisam mover a cabeça de leitura até o ponto onde será feita a leitura. A unidade de fita precisa girar a fita até o ponto a ser acessado. As memórias ROM e RAM não precisam desses movimentos, pois seu acesso é inteiramente eletrônico. Por isso são usadas como memória principal. Dispositivos de entrada e saída Já vimos que um computador passa o tempo todo realizando três tarefas: Entrada: Feita por chips e dispositivos especializados em leitura de dados, sob a coordenação da CPU. 32 Processamento: Feito pela CPU Saída: Feita por chips e dispositivos especializados em transmissão ou gravação de dados, sob a coordenação da CPU. Existem, portanto no computador, os chamados DISPOSITIVOS DE ENTRADA E SAÍDA, também chamados de PERIFÉRICOS. Através desses dispositivos, o computador pode armazenar, ler, transmitir e receber dados. A MEMÓRIA SECUNDÁRIA, já estudada na lição anterior, é formada por diversos dispositivos de ENTRADA E SAÍDA. O termo “ENTRADA E SAÍDA” são abreviados por E/S, ou para quem preferir a língua inglesa, I/O (INPUT/OUTPUT). Dentre os diversos dispositivos de E/S, existem alguns que são especializados apenas em ENTRADA, outros especializados apenas em SAÍDA e outros em ENTRADA E SAÍDA. Podemos citar os seguintes exemplos: ENTRADA: Teclado - Lê os caracteres digitados pelo usuário MOUSE - Lê os movimentos e toque de botões Drive de CD-ROM, DVD-ROM ou BlueRay - Lê dados de discos ópticos. Microfone - Transmite sons para o computador SCANNER - Usado para o computador "ler" figuras ou fotos SAÍDA: Vídeo - Mostra ao usuário, na tela caracteres e gráficos Impressora - Imprime caracteres e gráficos Alto-falante - Realiza comunicação com o usuário através de som ENTRADA E SAÍDA: HardDisk - Grava e lê dados Pendrive - Grava e lê dados em disquetes Unidade de fita magnética - Grava e lê dados em fitas magnéticas MODEM - Transmite e recebe dados pela linha telefônica A CPU não pode comunicar-se diretamente com os periféricos. Esta comunicação é feita com a ajuda de circuitos chamados de INTERFACES. Por exemplo, os dados que são recebidos do MOUSE chegam até a CPU através da INTERFACE USB ou Bluetooth. Os dados a serem impressos são transmitidos até a impressora através de um circuito chamado de INTERFACE USB. Os dados provenientes de um microfone chegam até a CPU através de uma interface, chamada de CONVERSOR ANALÓGICO-DIGITAL, localizado em uma placa especial chamada de PLACA DE SOM. Os microcomputadores muitas vezes são vendidos com apenas alguns de seus periféricos de uso mais prioritário. Nesse caso, dizemos que se trata de uma 33 CONFIGURAÇÃO BÁSICA. Um exemplo tipo de configuração básica é aquela em que o microcomputador é acompanhado de: Monitor Drives Winchester Teclado Mouse Alto falante interno O usuário pode, nesse caso, adquirir novos periféricos e realizar sua instalação no microcomputador. Essa tarefa pode ser realizada por usuários mais experientes, ou então por técnicos especializados. Quando instalamos novos periféricos em um computador, dizemos que estamos realizando uma EXPANSÃO. Nesse caso, podem ser instalados, por exemplo: Impressora Kit multimídia (alto falantes, placa de som e drive de CD-ROM) Modem SCANNER Arquivos "ARQUIVO" é uma das palavras mais importantes em computação. Em inglês, sua tradução é "FILE". ARQUIVO nada mais é que um conjunto de dados gravados na MEMÓRIA SECUNDÁRIA (harddisk, pendrive, fita magnética, DVD-ROM etc). Os arquivos são uma forma de organizar melhor os dados dentro da memória secundária. Se os dados estivessem todos espalhados, por exemplo, ao longo de um disquete, seu acesso seria extremamente complicado. Podemos fazer uma analogia entre dados, arquivos, casas e ruas. Os dados corresponderiam às casas, enquanto que os arquivos corresponderiam às ruas. Seria dificílimo localizar uma casa, sabendo apenas os nomes de seus moradores. Sabendo o nome da rua, o acesso é bem mais imediato. Por essa razão, os dados são agrupados em arquivos. Sabendo o nome do arquivo, fica mais fácil localizar os dados. Nos microcomputadores, os arquivos normalmente recebem nomes com uma grande quantidade de caracteres, como por exemplo: CURRÍCULO.DOC COMMAND.COM CHKDSK.EXE NFS.EXE TRABALHO DE HISTÓRIA.DOCX DESPESAS COM COMPRAS.XLSX 34 O nome completo de um arquivo é dividido em duas partes, separadas por um ponto. A primeira parte é chamada de NOME do arquivo. A segunda parte é chamada de EXTENSÃO. Por exemplo: CONTAS.DAT CONTAS é o NOME DAT é a EXTENSÃO É comum nesse caso, dizer que o nome do arquivo é CONTAS, ou então CONTAS.DAT. Os arquivos podem armazenar diversos tipos de dados: Instruções para a CPU ou Programas: Dizemos que se trata de um ARQUIVO EXECUTÁVEL. Os arquivos executáveis, nos microcomputadores, normalmente usam a extensão COM, EXE, JS, VBS, PY. Por exemplo: FORMAT.COM XCOPY.EXE WORD.EXE EXCEL.EXE MK.EXE SCRIPT.VBS Documentos: São textos digitados com o auxílio de um tipo de programa chamado de EDITOR DE TEXTOS, ou PROCESSADOR DE TEXTOS. Normalmente esses arquivos usam a extensão TXT, RTF, DOC, DOCX, ODT, PDF etc. Por exemplo: CURRICULO.DOCX LISTA.TXT REUNIÃO DA TURMA.DOC LIVRO.PDF Imagens: São arquivos que representam figuras. Essas figuras podem ser vistas na tela ou na impressora, com o auxílio de programas apropriados. Através das cabeças de leitura, os dados podem ser lidos e transformados em impulsos eletrônicos e enviados para a CPU e para a memória. A CPU, por sua vez, pode acessar os dados originários dos arquivos e enviá-los para os dispositivos de saída, como o monitor e a impressora, para que possamos vê-los com nossos próprios olhos. Por exemplo, se um arquivo contém uma carta, só poderemos ver esta carta depois que o arquivo for lido pela CPU e enviado para a impressora. Normalmente os arquivos com imagens tem extensão JPEG, JPG, BMP, TIFF, GIF JP2, WMF, CDR etc. 35 Figura 31 - Arquivos "vistos" na tela e na impressora Dados genéricos: Muitas vezes os programas precisam manipular uma quantidade de dados tão grande que não cabem na MEMÓRIA PRINCIPAL. Nesse caso, esses dados são armazenados em arquivos que são lidos da memória secundária e processados por partes. Programas Os computadores passam o tempo todo executando PROGRAMAS. Os programas nada mais são que grupos de instruções e dados. Por exemplo, quando você está executando um jogo no computador, está na verdade executando um programa. Se você deixa o computador "parado", por exemplo, na hora do almoço, pode pensar que nessa hora o computador não está executando nenhum programa. Engana-se. Na verdade, mesmo que você não tenha dado nenhum comando, o computador está na verdade executando um programa interno. O que este programa faz é monitorar continuamente o teclado e o MOUSE, para checar se você envia um novo comando. A única hora em que o computador não está executando programa nenhum é quando está desligado. Para que um programa possa ser executado, é preciso que seja transferido para a memória RAM. A maioria dos programas fica armazenada em disco (harddisk, pendrives, etc.), mas a CPU não pode executar nenhum programa diretamente a partir do disco. O programa precisa ser antes lido do disco e carregado na RAM. Por exemplo, para executar o 36 programa FORMAT (usado para formatar discos, cartões de memória e pendrives), é preciso que você forneça pelo teclado um comando como: FORMAT F: Uma vez que você digita este comando, o programa FORMAT.COM é lido do hardisk e carregado na RAM. A CPU pode então executar o programa, que fará a formatação de um disquete. A figura abaixo simboliza a leitura do programa FORMAT.COM a partir do disco para a memória RAM (essa operação é chamada de CARGA), e seu processamento pela CPU (essa operação é chamada de EXECUÇÃO). Figura 32 - Carga e execução do programa FORMAT.COM Você poderá estar pensando como que é feita a mágica da leitura do arquivo FORMAT.COM do disco para a memória, e a seguir sua execução. Na verdade, quem leu o arquivo FORMAT.COM e providenciou sua execução foi um outro programa. Trata-se de um programa que fica o tempo todo na memória, chamado de SISTEMA OPERACIONAL. O WINDOWS é um exemplo de sistema operacional. O LINUX também pode ser considerado uma espécie de sistema operacional. Uma das várias funções do sistema operacional é ficar o tempo todo ativo na memória RAM, esperando que o usuário comande a execução de algum programa. 37 Figura 33 - Menu de programas do Windows 8 Figura 34 - Área de Trabalho do Windows 38 Figura 35 - Área de Trabalho do Linux Podemos entender então que nenhum programa chega até a memória por mágica, e sim, através do controle feito pelo sistema operacional. Alguém mais observador pode então ficar com a seguinte dúvida: "Se é o sistema operacional quem lê para a RAM todos os programas a serem executados, como é então que o próprio sistema operacional chegou na RAM?". Realmente é uma dúvida muito interessante. No instante em que ligamos o computador, a RAM não contém programa algum (lembre-se que os dados existentes na RAM são apagados quando o computador é desligado). Nesse instante, o sistema operacional está armazenado no disco (normalmente no winchester, no caso dos micros), e precisa ser carregado na memória. Quem faz a carga do sistema operacional para a memória é um programa chamado BIOS, que fica gravado na memória ROM. Lembre-se que a memória ROM não perde seus dados quando o computador é desligado. Portanto, no instante em que ligamos o computador, o BIOS já está na memória, e é imediatamente processado pela CPU. O processamento do BIOS começa com uma contagem de memória, seguido de alguns testes rápidos no hardware, e finalmente a leitura do sistema operacional do disco para a memória RAM. Esse processo, ou seja, a carga do sistema operacional na memória RAM, é chamado de BOOT. Sistema Operacional Podemos dizer que o SISTEMA OPERACIONAL é o programa mais importante do computador. Por enquanto, vimos que se trata de um programa que é carregado na memória 39 quando o computador é ligado, e que tem como uma de suas responsabilidades, providenciar a execução dos comandos solicitados pelo usuário. Não fique achando que é só isso o que o Sistema Operacional faz. Essa é apenas uma de suas funções. Uma das atribuições do sistema operacional, como vimos, é carregar na memória e providenciar a execução dos programas que o usuário solicita. Mesmo quando um programa qualquer está em execução, o sistema operacional pode continuar trabalhando. Por exemplo, muitos programas precisam realizar acesso ao teclado, vídeo e impressora, assim como acessos ao disco para ler e gravar arquivos. Todos esses acessos são realizados pelo sistema operacional, que fica o tempo todo ativo, prestando serviços aos programas que estão sendo executados. O sistema operacional também faz um gerenciamento dos recursos do computador, para evitar que os programas entrem em conflito. Por exemplo, o sistema operacional evita que dois programas simultaneamente acessem a mesma área da memória, o que poderia causar grandes problemas. O sistema operacional funciona como um "maestro", providenciando para que todos os programas e todos os componentes do computador funcionem de forma harmônica. O usuário também pode enviar alguns comandos para o sistema operacional através do Prompt de Comando ou CMD. Por exemplo, quando é digitado pelo usuário o comando "DIR", o sistema operacional mostra uma lista de arquivos. Essa lista é chamada de "diretório". O usuário pode também solicitar ao sistema operacional alguns comandos como: COPY - para fazer uma cópia de um ou mais arquivos DEL - para apagar arquivos TREE – para desenhar a árvore de pastas (ou diretórios) Figura 36 - CMD e o comando DIR Para saber utilizar bem um computador, é preciso conhecer e utilizar bem os comandos do sistema operacional. 40 História dos Sistemas Operacionais Definição O sistema operacional de um computador é a interface de comunicação entre usuários, programas e hardware, de maneira a executar instruções e através de resultados executar tarefas determinadas pelo operador. Ao introduzirmos alguma informação ou dar algum comando para a execução de uma tarefa o computador basicamente faz a gestão de controle da memória, supervisão de entradas e saídas de dados, organização e carregamento de programas, criação, manipulação, edição e eliminação de arquivos. Há dois tipos de sistemas operacionais, o CLI (Command Line Interface – Interface por linha de comando) e o GUI (Graphics User Interface – Interface gráfica com o usuário). Porém para cada tipo de conjunto de ações e para tipos de plataformas com desempenho diferentes, há sistemas operacionais diferentes. CLI Os sistemas operacionais que se comunicam através da interface CLI, operam e manipulam informações e executam ações através de comandos digitados pelo usuário através do teclado. Alguns exemplos de sistemas operacionais por linha de comando são: Microsoft DOS, Apple DOS, Digital Research DOS, IBM PCDOS, CP/M entre outros. São bastante limitados em execução de tarefas e utilizam-se do mínimo de desempenho dos computadores e são muito pouco versáteis. Trabalham com o sistema monotarefa, monousuário, monoprocessamento etc. GUI Os sistemas operacionais gráficos (GUI) proporcionam aos usuários, maior facilidade na operação e comunicação com os gráficos. As suas principais características eram: Formato de comunicação gráfico; É voltado ao usuário que não se utiliza da informática; Interação com o sistema feita através do mouse; Utilização da metáfora da mesa de trabalho (desktop) que representa uma mesa de trabalho eletrônica constituída de objetos como ícones, janelas, cortinas, caixas de diálogo, elevadores, botões etc. Navegador para acesso a Internet; 41 Alguns exemplos de sistemas operacionais que se utilizam da interface gráfica podemos destacar: o Microsoft Windows, o Apple Mac OS, o Conectiva Linux, o Sun Unix, o IBM OS/2 entre outros. CP/M Voltando ao passado distante do início do uso dos microcomputadores na década de 70, o sistema operacional que reinava era o CP/M da Digital Research. Sua interface era por linha de comando. A quantidade de programas existentes para ele era ampla e destinada ao uso em plataformas de 8 bits de processamento. Sua versatilidade era muito baixa e seu desempenho assim como muitos outros sistemas que se utilizavam da interface por linha de comando. Quando a IBM iniciou os projetos para desenvolvimento do PC, procurava por um sistema operacional que pudesse acompanhá-lo, e o CP/M era uma potencial alternativa. Porém o maior problema era que o CP/M era somente compatível com computadores com sistema de processamento de 8 bits e embora o IBM fosse utilizar-se do processador Intel 8088 que processava 8 bits de informações por vez, este era um processador de 16 bis e era incompatível com o CP/M. Nesta época que começavam a surgir computadores com unidades de processamento de 16 bits, uma possível alternativa foi portar o CP/M para esta plataforma, criando assim o CP/M 16, que mesmo compatível com sistemas de 16 bits, não apresentava nenhuma melhoria significativa. Há uma história a respeito da queda do CP/M que consiste nos seguintes e possíveis fatos: a IBM estava a procura de um sistema operacional para o seu novo projeto. Visto que o CP/M era o dominante, a IBM preferia não trocar o certo pelo duvidoso e com isso os seus executivos foram negociar com a Digital Research. Porém o seu presidente os tratou com tanto desdém, deixando os executivos furiosos a esperar, enquanto ele, o presidente da Digital Research, viajava de avião na hora da reunião. Enfurecidos, os executivos da IBM foram a procura de outra empresa, e esta não era nada menos que a Microsoft, pequena empresa de processamento de dados que desenvolvia softwares através das linguagens de programação da época, porém não desenvolvia sistemas operacionais. Ao passo que a Digital Research tratou a IBM com total indiferença, usando a estratégia errada para o momento, a Microsoft de Bill Gates e Paul Allen, “estenderam o tapete vermelho” para a IBM, que veio a desenvolver o sistema operacional MS-DOS. Microsoft DOS Ao final da década de 70, após negociar de maneira correta com a IBM, que necessitava de um sistema operacional para seu novo projeto, o IBM-PC, a Microsoft desenvolveu de maneira rápida e eficiente o MS-DOS. 42 Na verdade o MS-DOS não era nenhum fruto de criatividade da Microsoft, era apenas uma cópia do CP/M, só que com algumas melhorias leves. Também se utilizando da interface de linha de comando, o MS-DOS, reinou absoluto nos PC’s até o início da década de 90. Por razão de ser monotarefa e monousuário processando apenas 8 bits de informações por vez, o DOS era um sistema pouco confiável que “cortava” de maneira surpreendente o desempenho que as novas tecnologias conferiam aos novos microprocessadores, tais como modalidade de segurança, capacidade multitarefa, uso de memória virtual, co-processamento matemático otimizado para atividades gráficas Como os Mac’s eram caros e o Microsoft Windows, também caro e cheio de falhas, muitos usuários estavam confinados ao uso do DOS. Em relação as suas desvantagens, pelo menos em algo ele era bom, pois possuía compatibilidade com uma ampla gama de softwares, todos compatíveis com ele. Unix Desenvolvido pela Bell Laboratories da AT &T na década de 70, o Unix é considerado o melhor sistema operacional, o mais confiável, estável e seguro que há no mundo. A princípio o Unix poderia ter versões desenvolvidas por vários fabricantes ou modificados por especialistas, uma vez que a sua plataforma de programação era aberta. Porém o Unix se tornou rapidamente um sistema operacional que para ser utilizado era necessário adquirir uma licença de uso, muito cara, o que tornava o seu uso inviável para a maioria dos usuários. Atualmente a principal fabricante do sistema operacional Unix é a Sun Microsystems, que desenvolveu a plataforma de computadores workstations Sparc. Porém devido ao seu alto custo, outras empresas fabricaram variantes mais acessíveis como a própria Microsoft que desenvolveu o Xenix. Outras entretanto desenvolveram outros sistemas operacionais diferentes, porém baseados nas tecnologias do Unix, como a Apple que desenvolveu o Mac OS e Linus Torvalds que desenvolveu o Linux. Uma de suas principais características é a capacidade avançada de multitarefa, tempo compartilhado entre usuários, tecnologias avançadas de rede, fácil administração remota, boa solução para problemas corporativos de alto nível, ferramentas adequadas para a administração de grandes banco de dados entre outras. Porém o Unix tem uma reserva muito maior de mercado para servir aplicações, e seu uso é mais difundido em sofisticadas workstations ou computadores simples e básicos. Falta ao Unix uma reserva para entrar no segmento intermediário de aplicações do qual o Microsoft Windows NT e atualmente o 2000 ocuparam espaço. Outra característica importante do Unix é a capacidade de poder ser utilizado em uma ampla quantidade de tipos de plataformas. 43 Microsoft Windows O sistema O sistema operacional Windows da Microsoft é o mais popular entre os usuários de microcomputadores e o mais compatível com a ampla gama de softwares e equipamentos de hardware do mercado. Porém não é o melhor sistema operacional para computadores PC, uma vez que a sua estrutura interna é desorganizada, o que confere a ele menor estabilidade e uma maior probabilidade a apresentar erros que são muito difíceis ou impossíveis de serem localizados para uma possível solução. Embora atualmente ele tenha melhorado muito, suas principais características no que diz respeito a aplicação de novas tecnologias, foi muitas vezes copiadas de outros sistemas operacionais. Porém o Microsoft Windows é o sistema operacional mais versátil para microcomputadores da atualidade, e apresenta entre algumas de suas vantagens a de possuir várias versões destinadas para certas rotinas de uso, todas elas oferecendo alguma vantagem na área em que são destinados. A seguir será mostrada de um forma objetiva a evolução deste sistema operacional que atende às expectativas de milhões usuários em suas tarefas diárias: Windows 1.0 Figura 37 - Área de Trabalho do Windows 1.0 44 Lançado em 1985, esta versão do Windows apresentava muitas falhas e poucos softwares compatíveis para serem executados sob o seu gerenciamento. Como os processadores da época eram lentos, esta versão era muito limitada. Denominado ambiente operacional gráfico, esta versão não chegava a ser um sistema operacional completo. Era apenas uma solução gráfica que rodava sobre o sistema operacional principal: o MS-DOS. Porém seu custo era alto e os benefícios, poucos, o que fez desta, uma versão muito pouco utilizada. Windows 2.0 Lançado em 1987, esta versão do ambiente Windows estava começando a se tornar adequada para a plataforma de computadores IBM-PC graças aos novos recursos disponibilizados pela nova geração de microprocessadores. A nova versão dispunha de recursos adicionais de manipulação de memória, discos rígidos mais rápidos e uma eletrônica de processamento muito mais veloz. Havia versão para computadores compatíveis com IBM-PC com versões para os microprocessadores Intel 80286 e 80386. Começaram nesta época a surgir versões de programas que rodavam sob o sistema operacional DOS, compatíveis com o Windows, mais simples e fáceis de serem usadas que em versões para DOS. Foi nesta versão que foi introduzido o uso da tecnologia DDE (Dynamic Data Exchange) que era uma forma de transferência de dados entre aplicativos. Nesta versão um dos pontos versáteis a serem destacados era a capacidade de rodar múltiplos programas do MS-DOS combinados com os programas de Windows. Windows 3.0 Lançada em 1990, esta versão passou a se tornar mais popular entre usuários que dispunham de recursos necessários para sustentar os altos custos do Windows em relação ao Microsoft DOS. Esta nova versão melhorou de maneira significativa o gerenciamento de memória e combinou as versões voltadas para 286 e 386, tornando possível a examinação do hardware como um todo e inicializando com a melhor configuração possível. À partir desta versão é que houve uma migração quantitativa da maioria de softwares que rodavam até então sob o MS-DOS. As versões de novos programas passaram então a serem comercializados em versões para Windows e ainda para o DOS, haja visto que ainda uma grande maioria de utilizava deste último. 45 Windows 3.1 e 3.11 Figura 38 - Área de trabalho do Windows 3.11 Lançado em 1992, esta foi uma versão que foi muito vendida e iniciou uma maior difusão do ambiente Windows para usuários de microcomputadores PC. Além de otimizar os melhoramentos da versão 3.0, esta versão do Windows melhorou o gerenciamento de memória, que possibilitou um maior desempenho da capacidade multitarefa. Foi inclusa à partir desta versão, as fontes denominadas True Type que eram exibidas na interface e impressão. Os programas baseados em DOS, poderiam rodar em modo gráfico em uma janela. Outra mudança radical foi a incorporação da tecnologia OLE (Object Linking and Embedding), que possibilitava a ligação e incorporação de objetos sua distribuição entre aplicativos. Também apresentava a inclusão de vários programas que acionavam outros dispositivos, conhecidos como drivers e suporte inicial a capacidade multimídia. A versão 3.11 para Workgroups, apresentava a capacidade de trabalhar em pequenas redes domésticas ou de escritórios. Sendo esta lançada em meados de 1993 e 1994. 46 Windows 95 Figura 39 - Área de trabalho do Windows 95 Lançado em 1995, foi lançado o mais ambicioso projeto da Microsoft, o Windows 95. Tendo executado através do processamento de 32 bits contra os 16 bits de seus antecessores, sua interface foi mudada de maneira radical , de maneira a tornar a sua utilização mais intuitiva e eficientemente funcional. Dentre as principais mudanças, podemos destacar o trivial menu “Iniciar” e a “barra de tarefas”, que se encontra presente em todas as versões posteriores do Windows 95. O sucesso foi tão grande que esta verão do Windows vendeu mais de um milhão de cópias no primeiro mês. Dentre algumas das muitas tecnologias e inovações do Windows 95, foi a capacidade de trabalhar com a internet de uma maneira simplicada, com a incorporação de ferramentas que facilitavam o acesso e o uso dos serviços oferecidos pela Internet. Em 1997 ele foi otimizado com o lançamento da verão Windows 95 OSR2. 47 14.4.7. Windows NT O Windows NT (New Tecnology) foi uma versão sofisticada desenvolvida para uso corporativo, concorrendo com o Unix ao propor uma nova tecnologia cliente /servidor. Otimizado para uso em plataformas de grande porte (RISC), inicialmente foi pouco usado no início de seu lançamento por razão de apresentar uma incompatibilidade grande com softwares e sofria com a falta de drivers, uma vez que se utilizava de uma instrução que não permitia que os aplicativos utilizassem todo o desempenho do hardware, e nem tomassem atalhos através destes para executar suas tarefas. Para que qualquer item fosse disponibilizado para ele, deveria conter o mesmo tipo de instrução, incomum aos sistemas operacionais domésticos. Porém esta tecnologia garantia ao Windows maior segurança e confiabilidade para o mercado de aplicações corporativas, até então dominados pelo Unix. Como apresentava custos maiores, eram utilizados para fins destinados a grandes empresas. Porém com o tempo o seu uso foi bastante difundido, e a compatibilidade aumentou ao passo que os custos de sua administração diminuíram. Possuía versões para servidores e para workstations. Windows 98 Figura 40 - Área de Trabalho do Windows 98 48 Sem sombra de dúvida esta foi uma das mais inovadoras formas de sistema operacional Windows, pois trouxe a possibilidade de um mundo de possibilidades aos usuários de PC. Sua interface era muito semelhante com a do Windows 95 com exceção dos motivos de integração da Internet na interface de trabalho, gerada pelo grande “Boom” da internet. Dentre as principais inovações apresentadas por esta versão podemos destacar as seguintes: maior interatividade com o usuário através da internet, suporte a tecnologia versátil proporcionada pelas portas USB e FireWire, suporte a nova tecnologia Plug & Play, capacidade multimídia ampliada, suporte aos gráficos AGP, suporte ao DVD entre outros. Porém devido a primeira versão apresentar muitas instabilidades, a Microsoft lançou em 1999 a versão Windows 98 SE (Second Edition). Windows Millennium Edition A versão do Windows Me, trouxe grandes inovações no campo da multimídia, ampliando ainda mais os horizontes de capacidade multimídia já existente no PC. Com o Windows Me, além de uma maior integração das inovações do Windows 98, havia uma grande expansão em interatividade, proporcionada também pela sua interface intuitiva e customizada. O Windows Me incluiu softwares de edição de vídeos domésticos, integração das tecnologias proporcionadas por equipamentos de áudio e vídeo, DVD, câmeras e filmadoras digitais e ainda incluiu ferramentas de sistema muito eficientes como restauração de sistema, assistente de conexões entre outras. Porém o Windows Me desagradou e muito desagrada os usuários devido as suas falhas de segurança que permitiram maior vulnerabilidade à bugs. Windows 2000 Professional Desenvolvido sobre a base e tecnologias robustas e confiáveis do NT, o Windows 2000 é largamente utilizado até os dias de hoje para o mercado corporativo de aplicações. Com a interface interativa do Me e a robustez do NT, o Windows 2000 é um dos sistemas mais seguros, confiáveis e estáveis da atualidade. Em razão de o Windows NT ter atingido níveis de compatibilidade e drivers, o uso dele não implicou em custos exorbitantes de aplicação, o que muito facilitou a sua popularização. 49 Windows XP Figura 41 - Área de Trabalho do Windows XP Desenvolvido sobre a estável base do Windows 2000, o Windows XP, lançado em 2002 é uma versão mais segura e confiável que seu antecessor Windows Me. Com uma interface gráfica moderna e mais fácil de ser utilizado, esta nova versão proporcionou significativas melhorias no trabalho multimídia, trabalhos gráficos e aplicações mais poderosas. A interface Plug & Play foi otimizada de maneira a oferecer maior compatibilidade. Também foi inovador ao trazer um maior controle para alternância de usuários, maior facilidade no trabalho em redes, trabalho com músicas, vídeos, TV, DVD, áudio avançado de cinema, fotos animações internet e segurança com o lançamento recentemente do Service Pack 2, pacote de atualizações e serviços que visam aumentar a segurança e confiabilidade do sistema. Windows 2003 Uma versão nova baseada no Windows 2000, com a interatividade do XP e segurança do NT. Atualmente este novo sistema está dentro dos planos de estratégia .NET da Microsoft. Mais poderoso e confiável que o Windows 2000, esta versão possui vária versões direcionadas a diversos usos, tais como Enterprise Edition, Web Edition, entre outras. 50 Windows Vista Figura 42 - Área de Trabalho do Windows Vista O Windows Vista possui novos recursos e funções dos que os apresentados por sua versão anterior o Windows XP, como uma nova interface gráfica do usuário, apelidada de Windows Aero antes conhecido pelo codinome Avalon, funções de busca modificadas (passando à atuar como as ferramentas Pesquisa, Executar e como o Windows Explorer), novas ferramentas de criação multimídia como o Windows DVD Maker, e completamente renovadas aplicações para redes de comunicação, áudio, impressão e subsistema de exibição; o que gerou uma grande dificuldade na aceitação do sistema pelos usuários finais devido à sua grande alteração e à sua grande exigência do computador (para operá-lo corretamente é necessário um mínimo de 1 GB de Memória RAM, e para uma utilização padrão o ideal é 2 GB). O Windows Vista também tem como alvo aumentar o nível de comunicação entre máquinas em uma rede doméstica usando a tecnologia peer-to-peer, facilitando o compartilhamento de arquivos e mídia digital entre computadores e dispositivos. Para os desenvolvedores, o Vista introduz a versão 3.0 do Microsoft .NET Framework, o qual tem como alvo tornar significantemente mais fácil para desenvolvedores escrever aplicativos de alta qualidade do que com a tradicional Windows API, porém tal resultado não foi completamente alcançado, pois o sistema apresentou uma interface à qual muitos usuários 51 não possuíam uma identificação graças à sua quase completa modificação, pois houve uma significativa mudança na sua estrutura. Windows 7 O Windows 7 é uma versão Microsoft Windows, uma série de sistemas operacionais produzidos pela Microsoft para uso em computadores pessoais, incluindo computadores domésticos e empresariais, laptops tablets e PCs de centros de mídia, entre outros.4 Windows 7 foi lançado para empresas no dia 22 de julho de 2009, e começou a ser vendido livremente para usuários comuns às 00:00 horas do dia 22 de outubro de 2009, menos de 3 anos depois do lançamento de seu predecessor, Windows Vista. Pouco mais de três anos depois, o seu sucessor, Windows 8, foi lançado ás 00:00 de 26/10/2012 . Diferente do Windows Vista, que introduziu um grande número de novas características, Windows 7 foi uma atualização mais modesta e focalizada para ser mais eficiente, limpo e mais prático de usar, com a intenção de torná-lo totalmente compatível com aplicações e hardwares com os quais o Windows Vista já era compatível. Apresentações dadas pela companhia no começo de 2008 mostraram um "Shell" novo, com uma barra de tarefas mais larga e que agora mostra ícones dos programas como atalhos, um novo Menu Iniciar que expande lateralmente mostrando os arquivos que já foram abertos pelo programa, um sistema de "network" chamada de "HomeGroup", e aumento na performance ao abrir programas e ao inicializar o Windows e uma nova tela de boot. Algumas aplicações que foram incluídas em lançamentos anteriores do Windows, como o Calendário do Windows, Windows Mail, Windows Movie Maker e Windows Photo Gallery não serão incluidos no Windows 7 - estes são oferecidos separadamente como parte gratuita do Windows Essentials, para download gratuito. Em 2012, o Windows 7 alcançou 49,47% 5 dos usuários mundiais, continuando como o sistema operacional mais usado do mundo, ultrapassando o Windows XP Windows 8 O Windows 8 foi lançado dia 26 de agosto de 2012 e trouxe diversas mudanças em relação ao Windows 7: interface Metro/Modern UI otimizada para telas sensíveis ao toque (embora ele funcione normalmente em telas comuns), inicialização rápida, interface Ribbon similar à do Office, ausência do menu Iniciar no desktop, Windows Store, sincronização de dados, etc. Em 2013 ele foi sucedido pelo Windows 8.1. 52 Mac OS Este é o sistema operacional para uso destinado aos computadores da plataforma Apple Macintosh. Baseado no Unix, é um sistema seguro e confiável. Desenvolvido pela Apple, especialista em design, este sistema operacional apresenta uma interface considerada muito intuitiva, versátil e linda, uma vez que é uma obra primor do design. Em detrimento dos computadores Macintosh se apresentarem como uma plataforma mais estável para a execução de aplicativos gráficos que exigem um alto poder de processamento, este sistema é otimizado para a execução de tais aplicativos, dos quais se destacam os da própria Apple, Adobe, Corel, Quark e Macromedia. Possui uma estrutura orientada para objetos multimídia poderosa, principalmente porque nesta última versão foram inclusos aplicativos multimídia que formam a estratégia Apple iLife. Apresentam grande compatibilidade com os softwares de renome no mercado, porém um mercado muito restrito de aplicativos secundários, como freewares e sharewares. IBM OS/2 Este sistema operacional foi desenvolvido pela IBM em 1987, como uma solução em sistema operacional para uso empresarial, visando tomar parte do mercado até então dominado pelo DOS da Microsoft, que não era capaz de utilizar todo o desempenho que as novas máquinas podiam oferecer. Diferentemente dos sistemas operacionais gráficos da época, incluindo o Windows, que utilizavam da tecnologia de 16 bits, o OS/2 (Operacional System 2), visando oferecer uma maior performance e maturidade em matéria de sistema operacional trabalhava integralmente com a nova tecnologia de 32 bits. Em razão de seu uso ser pouco difundido com usuários domésticos e pequenas empresas, havia uma quantidade menor de softwares e equipamentos de hardware, que o seu uso foi ficando cada vez mais restrito a grandes empresas. Desde meados de 1996 a 1998 o OS/2 em sua versão Warp, deixou de ser comercializado no Brasil, embora a IBM continue a produzí-lo. A IBM garante que já vendeu mais de um milhão de unidades do sistema operacional OS/2, porém isto não é verdadeiramente comprovado. 53 Linux O sistema Baseado no onipresente Unix, o Linux apresenta uma solução integrada em uso de sistema operacional de qualidade profissional e caráter gratuito, que permite uma drástica redução de custos em empresas, e instituições acadêmicas e governamental. Estruturalmente superior, mais estável e seguro que seu principal concorrente Windows, apresenta um grande cotigente de softwares gratuitos compatíveis, o que está tornando o seu uso bastante difundido em todas as classes de usuários. Há algum tempo atrás ele era bastante completo em relação com os softwares que o acompanhavam, porém tinha poucos softwares de terceiros, o que hoje deixou de ser um problema. Ele é gratuito, porém há empresas especializadas em fazer a distribuição industrializada de pacotes, como manuais, CD’s de instalação, programas entre outros, cobrando valores bem mais acessíveis que as licenças de softwares não gratuitos. No Brasil a empresa autorizada a fazer a distribuição Linux é a Conectiva. História Estávamos em 1991 e no mundo dos computadores começava a surgir um grande futuro, já que o hardware puxava os limites dos computadores para além do que alguém poderia esperar. Mas ainda faltava alguma coisa... Faltavam sistemas operacionais para PC, onde um grande vazio existia. O DOS nesse tempo reinava com um grande império nos PC's. Os utilizadores de PC não tinham outra alternativa. Os Macintosh da Apple eram melhores mas com preços astronômicos que ninguém conseguia suportar e, como tal, permaneceram uma miragem para os milhões de utilizadores comuns. Outra hipótese era o mundo UNIX. Mas o UNIX era muito mais caro. Para obterem bastante dinheiro, os vendedores de UNIX praticavam um preço muito alto para se assegurarem que os utilizadores pequenos não o utilizavam. O código fonte do UNIX, em tempos divulgado em universidades por cortesia da Bell Labs, era agora guardado cuidadosamente e não era publicado. Para aumentar a frustração dos utilizadores de PC's em todo o mundo, as grandes empresas do mercado de software falharam a fornecer uma solução para este problema. Uma solução parecia surgir na forma do MINIX. Foi desenvolvido de início por Andrew S. Tanenbaum, professor holandês nascido nos Estados Unidos, que queria ensinar aos seus alunos como era por dentro um sistema operacional real. Foi desenhado para correr nos microprocessadores Intel 8086 que reinavam em todo o mundo. Como sistema operacional, o MINIX não era o ideal. Mas tinha a vantagem de que o código estava disponível. Quem tivesse o livro “Operating System” de Tanenbaum podia 54 ver o código de 12000 linhas escrito em C e Assembly. Pela primeira vez, um programador ou “hacker” podia ler o código fonte do sistema operacional, que até então os vendedores de software guardavam vigorosamente. Um autor ideal, Tanenbaum, cativou as mentes mais brilhantes das ciências da computação com uma discussão elaborada sobre a arte de criar um sistema operacional. Estudantes em todo o mundo analisavam extensivamente o livro lendo as linhas de código para saberem como o sistema operacional corre nos seus computadores. E um deles era o Linus Torvalds. Em 1991, Linus Benedict Torvalds era um estudante do segundo ano de Ciência da Computação, na Universidade de Helsínquia e um “hacker” autodidata. Este finlandês de 21 anos adorava mexer com o poder dos computadores e os limites a que um sistema pode ser puxado. Mas faltava um sistema operacional que pudesse responder às exigências dos profissionais. O MINIX era bom, mas era um sistema operacional para estudantes, desenhado como uma ferramenta para a aprendizagem e não um sistema com força industrial. Nesse tempo, os programadores em todo o mundo estavam muito inspirados pelo projecto GNU de Richard Stallman, que era um projeto que visava fornecer software livre e de qualidade. Em 1991, o projeto GNU já tinha criado muitas ferramentas. O muito esperado compilador de C estava disponível então, mas ainda não havia um sistema operacional. Até o MINIX tinha de ser licenciado. Desenvolvia-se trabalho no kernel GNU, o HURD, mas ainda faltava uns anos para sair. Isso era muita espera para o Linus. Em 25 de Agosto de 1991, uma mensagem histórica foi enviada para o grupo de notícias do MINIX pelo Linus, falando sobre o novo sistema. A versão 0.03 saiu depois de poucas semanas. Em Dezembro veio a versão 0.10 e ainda o Linux estava pouco mais que uma forma de esqueleto. Apenas tinha suporte para discos rígidos AT, não tinha “login” (iniciava diretamente na “bash”). A versão 0.11 já era muito melhor com suporte para teclados multilíngues, drives de disquetes, suporte para VGA, EGA, Hercules, etc. Os números de versões foram directamente de 0.12 para 0.95 e 0.96 e por aí a diante. Depressa o código estava em todo o mundo via “sites” ftp na Finlândia e outros sítios. Depressa Linus teve de enfrentar alguma confrontação e esta vinha de Andrew Tanenbaum, o grande professor que escreveu o MINIX. Numa mensagem que enviou para o Linus, contra o sistema. Mas ele estava errado com o Linux, porque Linus era um rapaz teimoso que não admitia a derrota. Tanenbaum também disse: “O Linux está obsoleto” E o trabalho prosseguiu. Depressa mais de 100 pessoas juntaram-se ao campo Linux. Depois milhares. Depois centenas de milhares. Isto não era mais um brinquedo de “hackers”. Junto com um bom conjunto de programas do projecto GNU, o Linux estava pronto para ser mostrado realmente. Foi licenciado sob General Public License da GNU, o que assegura que todos os códigos fonte estão livres para todas a pessoas copiarem, estudarem e modificarem. Os estudantes e programadores pegaram nisto. 55 Depressa, os vendedores comerciais entraram. O Linux em si é livre. O que os vendedores fizeram foi compilar vários pacotes de software e juntá-los num formato distribuível, como os outros sistemas operacionais que as pessoas estão mais familiarizadas. Red Hat, Caldera, Debian, SuSE e outras companhias obtiveram uma receptividade substancial em todo o mundo. Com as novas interfaces gráficas (como o X-windows, KDE, GNOME) as distribuições de Linux tornaram-se mais populares. Entretanto, coisas espantosas ocorrem com o Linux. Além do PC, o Linux foi adaptado para muitas plataformas diferentes, como por exemplo o computador PalmPilot da 3Com. A tecnologia de “clustering” permitiu a combinação de um grande número de máquinas, a correr o Linux, numa única entidade de computação, um computador paralelo. Em Abril de 1996, investigadores no Los Alamos National Laboratory usaram o Linux para correr 68 PC's como uma única máquina de processamento paralelo para simular ondas de choque atômicas. A melhor coisa sobre o Linux é a onda de entusiasmo que o segue. Quando sai uma nova peça de hardware, o kernel do Linux é desenvolvido para tirar vantagem desta. Por exemplo, depois de poucas semanas da introdução do Microprocessador Intel Xeon, o kernel do Linux foi arranjado e estava preparado para este. Também foi adaptado para ser usado no Alpha, Mac, e até Palmtops, um feito que é dificilmente comparável por outro sistema operacional. E ainda continua a sua jornada para o novo milénio, com o mesmo entusiasmo que começou num belo dia de 1991. Linus continua um homem simples. Diferente de Bill Gates, ele não é um bilionário. Tendo completado os estudos, ele mudou-se para os EUA para trabalhar na Transmeta Corporation. Depois de realizar um projeto de desenvolvimento e investigação ultra secreto, a Transmeta lançou o processador Crusoe. Linus era um membro ativo da equipe de investigação. Casou-se com a Sra. Tove e é um pai orgulhoso de uma menina, a Patrícia Miranda Torvalds. Mas continua o programador mais famoso e favorito do mundo até hoje. Aclamado por comunidades de computadores em todo o mundo, Linus é de longe o programador mais popular do mundo. 56 A Internet As Origens - ARPANET A Rede Mundial de Computadores foi criada na década de 60 a pedido do ministro de defesa dos Estados Unidos da América. O objetivo era transmitir documentos e informações de forma não centralizada, ou seja, as transmissões não seriam feitas sempre de um mesmo lugar. Deste modo, as informações estariam protegidas dos soviéticos em razão da Guerra Fria, guerra de poder e armamento entre os Estados Unidos e a União Soviética. Esta rede de longa distância criada em 1969, foi denominada ARPANET, onde ARPA era acrônimo de “Advanced Research Projects Agency Network, e foi criada em consórcio com as principais universidades e centros de pesquisa estadunidenses. Conhecida como a rede-mãe da Internet, foi desativada em 199, posto que as estruturas alternativas das redes já cumpriam seu papel nos Estados Unidos. No início da década de 70 a rede foi usada exclusivamente por universidades e centros de pesquisa para a troca de experiências técnicas e científicas. Com o aumento significativo do número de computadores pessoais na década de 80, a Internet se expandiu para usuários de todos os tipos, porém de uma maneira essencialmente restrita uma vez que ainda era usada para fins técnicos e científicos com o leve introdução de seu uso por grandes corporações, devido ao seu alto custo. As Origens – WWW A World Wide Web (Rede de Alcance Mundial) teve o seu ínicio através da física. Tudo começou em março de 1989, quando Tim Berners Lee da European Participle Physics Labotory (um grupo europeu de físicos pesquisadores) teve a idéia de desenvolver um projeto para criação de um meio de transporte para pesquisas e idéias de forma visualmente mais atrativa para toda a organização (que é conhecida com CRN – Eurpean póur Récherche Nucleaire). No final de 1990, o primeiro software Web foi lançado. Ele permitia visualizar e transmitir documentos em hipertexto para outras pessoas da internet. Com o tempo o software foi melhorando e ele foram acrescentadas outras capacidades. Porém o número de pessoas que se utilizavam desta nova tecnologia para visualização de documentos eram extremamente pequeno. Aproximadamente nesta época que foi criado o protocolo HTTP (Hiypertext Transfer Protocol – Protocolo de Transferência de Hipertexto), que estabeleceu a fundação da Web e que se encontra presente até os dias de hoje em sua verão mais avançada 1.1. O software que era utilizado para a visualização de hipertexto era chamado de browser ou navegador, sendo este primeiro criado em 1993 o MOSAIC, do qual descendem todos os navegadores da atualidade, sendo também o primeiro a usar a interface gráfica da 57 World Wide Web. Desenvolvido pela National Center for Supercomputing Applications – Centro Nacional para Aplicação em Supercomputadores (NCSA), na Universidade de Illinois (E.U.A.), a principio ele foi distribuído gratuitamente por razão de ter sido desenvolvido com financiamento público. Derivado do MOSAIC surgiu o Netscape, que era distribuído gratuitamente em suas versões menos sofisticadas. Em 1995, surge então o navegador da Microsoft, incluso em seu mais novo sistema operacional, o Internet Explorer para Windows 95. É atribuído o ano de 1993, como o ano de explosão de uso da Internet, sendo 1995 o ano em que mais cresceu o número de usuários. Definições É designado como Internet toda a rede mundial de computadores e seus serviços. É designado internet com “i” minúsculo uma rede de redes, e não propriamente a rede mundial. É designado como Web um dos serviços oferecidos pela Internet, como por exemplo a visualização de páginas. A Internet De todas as tecnologias lançadas no último século, a Internet foi a maior responsável por esta interligação global e a crescente demanda do crescimento da velocidade da informação. Com sua primeira fase, com uso restrito a técnicos e cientistas que desejavam compartilhas documentos de estudo e caráter profissional, com a segunda sendo utilizada para fins comerciais de grandes corporações e mais atualmente expandida a todos, é uma fonte de entretenimento, informação, conhecimento e comunicação. Embora tenha o seu lado bom, também possui seu lado ruim uma vez que não há leis específicas que regem o seu uso e as poucas que são tentadas ser implantadas são de alta ineficiência. Atualmente é possível fazer compras, conversar com pessoas do outro lado do mundo a um custo acessível, visualizar sites de entretenimento, obter informações de pesquisas e estudos acadêmicos e profissionais entre outras mil possibilidades. Na Internet é possível encontrar tecnologias que permitem a visualização de páginas, upload e download de arquivos, sejam estes arquivos de textos, programas gratuitos, músicas, vídeos, animações entre tantos outros, enviar e receber mensagens eletrônicas, conversar em tempo real vendo ou não a outra pessoa com o periférico de captura de imagem, entrar em fóruns, grupos de notícias entre outros serviços disponíveis. 58 A Internet e as empresas Há algum tempo algumas empresas se questionavam se era realmente essencial possuírem os seus próprios sites na Internet. O uso da internet pelas empresas possibilitou a quebra de várias barreiras e trouxe uma grande movimentação econômica a nível mundial. Quando uma empresa entra no competitivo mercado da Internet, abre-se um grande número de portas de oportunidade. As principais vantagens de ser uma empresa .COM são: Quebra de barreiras regionais, podendo trazer atuação mundial. Competitividade com empresas do mesmo segmento; Melhor atendimento ao cliente; Novas oportunidades de negócios; Redução de custos; Gerações de Sites Definição Desde o seu lançamento e o início de seu uso na década de 90, os sites evoluíram demais em tecnologia. Não há um consenso em respeito a gerações de sites, pois há quem diga que estamos na segunda, outros na terceira ou quarta e ainda há quem diga que estamos na sexta geração, porém convencionou-se expressar aqui quatro gerações. Sites de 1ª Geração Devido a limitação imposta por modem’s lentos e monitores monocromáticos os web sites de primeira geração eram muito simples. As primeiras paginas que circularam pela web foram criadas por cientistas e pesquisadores que desejavam compartilhar suas idéias, documentos, teses entre outros. Essas páginas caracterizadas por longos textos, com seqüência do topo para a base e da esquerda para a direita e usava recursos básicos de formatação de textos, como negrito, itálico, marcadores de textos etc. Os web sites de primeira geração eram criados por técnicos e muitos utilizavam texto preto em fundo cinza. 59 Sites de 2ª Geração Os sites de segunda geração trouxeram algumas novidades visuais que foram possibilitadas pelos recursos incorporados nas novas versões dos navegadores. Incluem estas melhorias visuais: ícones substituindo palavras, imagens “ladrilhadas”, substituindo o fundo cinza, botões com chanfros e banners substituindo os títulos. Uma outra característica dos sites de segunda geração é a utilização de menus verticais com opções dispostas de cima para baixo e com listas para apresentar uma hierarquia de informações. A tecnologia teve grande influência nos sites de segunda geração. Isto trouxe como resultados tantos sites com uma melhoria visual através do uso de ícones e menus. Neste momento a Internet estava sendo utilizada para fins comercias, porém as páginas ainda eram construídas por técnicos. Sites de Terceira Geração Os sites de terceira geração apresentam uma mudança radical em sua aparência. Apesar da contínua evolução dos navegadores e tecnologias que sempre influenciam o design, a principal característica dos web sites de terceira geração não é a tecnologia e sim o design. Esta mudança foi consequência, sobretudo, da vinda de designers que já trabalhavam com artes gráficas para o mundo das páginas web. Começaram a aparecer páginas mais criativas, com melhor combinação de cor, mais harmonia na composição dos elementos, enfim, com planejamento visual. A maioria dos web sites que conhecemos atualmente é classificado como sendo da terceira geração. Sites de Quarta Geração Os sites de quarta geração constituem um novo tipo de sites com fortes estruturas multimídia. Essas criações estão se tornando possíveis graças as novas tecnologias que estão surgindo a cada dia como uma solução bastante integrada para aplicações gráficas e multimídia. Uma dessas tecnologias é o Shockwave Flash. Através dos recursos multimídia disponíveis nesta tecnologia, pode-se criar web sites com interfaces animadas, com efeitos sonoros, imagens 3D, fotos, vídeos, músicas, jogos entre outros. O design ganha novas dimensões, facilitando a interação do internauta com a interface e a informação. Em um futuro próximo a tecnologia VRML (Realidade Virtual das páginas web) poderá apresentar uma evolução na interação com os web sites à medida que se poderá navegar em interfaces tridimensionais que reagirão às escolhas do internauta, levando-o por salas, ambientes e galerias tridimensionais. 60 W3C Existe desde 1994, um consórcio de empresas chamado W3C ou World Wide Web Consortium, que regulamenta e define os padrões que serão usados nas novas tecnologias. O problema que o comitê W3C enfrenta é o tempo a apreciação de uma nova tecnologia e sua aprovação para uso pelo mercado. A velocidade da criação de novas tecnologias e a demanda do mercado acabam levando as empresas de tecnologia, principalmente a Microsoft e a Netscape, a lançarem novas versões de navegadores e programas que suportam novas tecnologias ainda não aprovadas pelo W3C. Guerra dos Browsers Apesar dos inumeráveis processos que a Microsoft acumula por falta de ética profissional ao não esperar o aval para o desenvolvimento de novas tecnologias desde o lançamento do Internet Explorer, e da venda da Netscape para a AOL, a guerra dos browsers continua. Há diversos navegadores no mercado, porém os que mais são utilizados são o Microsoft Internet Explorer e o Netscape Navigator, e outros de menor expressividade como o Opera Browser, Mozilla FireFox, Apple Safari etc. Na tentativa de estarem a frente, a Netscape e Microsoft lançam tecnologias sem o aval do W3C, que para pânico de quem acessa ou desenvolve só são suportados por eles, sendo extensões de tecnologia. A Microsoft muito foi processada em 95, por incluir o Internet Explorer no sistema Windows, numa tentativa de monopolizar o mercado dos browsers, pois se o usuário já tem em seus sistema um navegador que atenda as suas necessidades, não irá se preocupar em pagar e experimentar outro modelo, mesmo nos dias de hoje, em que a maioria são gratuitos. 61