As primeiras máquinas capazes de efectuar cálculos numéricos surgiram devido à grande necessidade de encontrar uma ferramenta que auxiliasse os homens a efectuarem cálculos numéricos mais rápidos e eficientes (date, 1994; manzano, 2009). O Ábaco é uma ferramenta inventada por volta de 2000 a.C. para auxiliar nos cálculos numéricos e, ainda hoje, é utilizada em alguns centros de ensino espalhados pelo mundo principalmente nos países asiáticos.

Por volta de 1640 um matemático francês chamado Blaise Pascal inventou uma máquina capaz de somar (máquina pascalina) composta por rodas dentadas.

Em torno de 1670, um matemático alemão chamado de Gottfried Wilhelm Von Leibnitz, aperfeiçoou a máquina criada por Blaise Pascal, introduzindo as operações capazes de multiplicar e dividir. Outro francês, Joseph Marie Jacquard criou em 1801, um tear automatizado controlado por cartões perfurados

Em 1822, o matemático inglês, Charles P. Babbage, projectou a máquina das diferenças e a máquina analítica. Foi considerado o precursor do computador electrónico digital, devido ao fato de que as suas máquinas possuíam três estágios fundamentais. São eles: entrada dada pelos cartões perfurados, o segundo estágio, o processamento utilizando memória por meio das engrenagens das máquinas e a sua execução e, no último estágio, a saída (velloso, 2014).

Os computadores até então eram denominados de máquinas mecânicas. Somente a partir de 1930 que começaram o desenvolvimento de computadores electromecânicos sendo que em 1941, o alemão Konrad Zuse, construiu o primeiro computador electromecânico programável de utilização geral, composto por chaves electromecânicas (reles) que executam operações de soma e comparação.

Aiken criou um computador electromecânico denominado Mark que possuía basicamente 3 (três) estágios fundamentais:

  • Entrada dos dados via cartões perfurados;
  • Processamento dos dados utilizando memórias (engrenagens) que possuíam o programa em execução;
  • A saída, que nada mais era que o resultado de todo o processamento.

A partir de 1946, houve uma grande evolução dos computadores com a criação do primeiro computador electrónico de propósito geral denominado eniac. Era uma máquina enorme que pesava aproximadamente 30 toneladas e continha cerca de 18.000 válvulas.

Nesta geração, houve vários avanços de computadores de programa armazenado, sendo o Whirlwindi construído no mit – EUA, o primeiro computador a usar memória de núcleo de ferrite (muito utilizado nesta época).

O primeiro computador de programa armazenado foi o IBM 701, iniciando uma longa série IBM 700 surgido em 1953. Os computadores dessa geração eram difíceis de serem usados, lentos quando comparados à tecnologia actual e relativamente grandes, (stallings, 2010).

Conforme vários autores, a migração ou passagem dessa geração, para a segunda geração, se deu principalmente pela substituição de válvulas por transístores.

Já a passagem da segunda, para a terceira geração, foi determinada pelo aparecimento dos circuitos integrados de baixa e média escala e, a quarta geração, por circuitos integrados de alta escala de integração representada pelos microprocessadores.

O Quadro mostra as principais características das gerações de computadores.

Primeira 1946-1954 Circuitos electrónicos a válvulas UNIVAC, e IAS
Segunda 1955-1964 Circuitos electrónicos transístorizados IBM 7094
Terceira 1965-1974 Circuitos integrados SSI e MSI IBM S/360
Quarta 1975-atualidade LSI, VLSI, ULSI, CHIPS e tecnologia firmware, chip a laser, sistemas especialistas, conectividade IBM PC, AMDAHL 470

Mesmo que a tecnologia utilizada nos computadores digitais tenha mudado dramaticamente desde os primeiros computadores da década de 1940, quase todos os computadores actuais ainda utilizam a arquitectura de Von Neumann. Todos os componentes propostos por Von Neumann serão estudados mais adiante na unidade 3 – hardware e Software e principalmente na unidade 5 – Organização dos computadores.

Na próxima unidade vamos estudar sobre os sistemas de numeração, muito importante para entender como os computadores entendem os comandos dados pelos usuários.

Os Primórdios da Computação

Apesar dos computadores electrónicos terem efectivamente aparecido somente na década de 40, os fundamentos em que se baseiam remontam a centenas ou até mesmo milhares de anos.

Se levarmos em conta que o termo computar significa fazer cálculos, contar, efectuar operações aritméticas, computador seria então o mecanismo ou máquina que auxilia essa tarefa, com vantagens no tempo gasto e na precisão. Inicialmente o homem utilizou seus próprios dedos para essa tarefa, dando origem ao sistema decimal e aos termos digital e digito. Para auxílio deste método, eram usados gravetos, contas ou marcas na parede.

 O Ábaco

Na medida em que os cálculos foram se complicando e aumentando de tamanho, sentiu-se a necessidade de um instrumento que viesse em auxílio, surgindo assim há cerca de 2.500 anos o ábaco. Este era formado por fios paralelos e contas ou arruelas deslizantes que, de acordo com a sua posição, representava a quantidade a ser trabalhada.

O ábaco chinês possuía 2 conjuntos por fio, contendo 5 contas no conjunto das unidades e 2 contas que representavam 5 unidades. A variante do ábaco mais conhecida é o SOROBAN, ábaco japonês simplificado (com 5 contas por fio, agrupadas 4×1), ainda hoje utilizado, sendo que em uso por mãos treinadas continuam eficientes e rápidos para trabalhos mais simples.

Esse sistema de contas e fios recebeu o nome de calcule pelos romanos, dando origem à palavra cálculo.

 Os Bastões de Napier foram criados como auxílio à multiplicação, pelo nobre escocês de Edimburgo, o matemático John Napier (1550-1617), inventor dos logaritmos. Dispositivos semelhantes já vinham sendo usados desde o século XVI mas somente em 1614 foram documentados. Os bastões de Napier eram um conjunto de 9 bastões, um para cada dígito, que transformava a multiplicação de dois números numa soma das tabuadas de cada dígito.

 Em 1633, um sacerdote inglês chamado William Oughtred, teve a ideia de representar esses logaritmos de Napier em escalas de madeira, marfim ou outro material, chamando-o de círculos de proporção. Este dispositivo originou a conhecida régua de cálculos.

A Programação

A maior evolução seguinte foi o contador mecânico, criado pelo matemático Blaise Pascal, que utilizou engrenagens para somas e multiplicações. Essas máquinas se chamavam Pascalinas. As calculadoras da geração da Pascalina executavam somente operações seqüenciais, completamente independentes. A cada cálculo o operador deve intervir, introduzindo novos dados e o comando para determinar qual operação deve ser efectuada. Essas máquinas não tinham capacidade para tomar decisões baseadas nos resultados.

Em 1801, Joseph Marie Jacquard, mecânico francês, sugeriu controlar teares por meio de cartões perfurados.

A Informática

 Ciência que desenvolve e utiliza máquinas para tratamento, transmissão, armazenamento, recuperação e utilização de informações. O computador capaz de realizar várias operações matemáticas em curto espaço de tempo, de acordo com programas pré-estabelecidos é a principal máquina utilizada.

O desenvolvimento da informática tem permitido o surgimento de computadores cada vez menores, mais baratos e com maior capacidade. Actualmente, um computador laptop de US$ 2 mil é muito mais potente do que um computador de grande porte da década de 70, que custava US$ 10 milhões.

Primeiros computadores

Em 1890, o norte-americano Hermann Hollerith (1860-1929) desenvolve o primeiro computador mecânico. A partir de 1930, começam as pesquisas para substituir as partes mecânicas por eléctricas. O Mark I, concluído em 1944 por uma equipe liderada por Howard Aiken, é o primeiro computador electromecânico capaz de efectuar cálculos mais complexos sem a interferência humana. Ele mede 15 m x 2,5 m e demora 11 segundos para executar um cálculo. Em 1946, surge o Eniac (Electronic Numerical Integrator and Computer), primeiro computador electrónico e digital automático: pesa 30 toneladas, emprega cerca de 18 mil válvulas e realiza 4.500 cálculos por segundo. O Eniac contém a arquitectura básica de um computador, empregada até hoje: memória principal (área de trabalho), memória auxiliar (onde são armazenados os dados), unidade central de processamento (o “cérebro” da máquina, que executa todas as informações) e dispositivos de entrada e saída de dados que actualmente permitem a ligação de periféricos como monitor, teclado, mouse, scanner, tela, impressora, entre outros. A invenção do transístor, em 1947, substitui progressivamente as válvulas, aumentando a velocidade das máquinas.

Os Computadores Pessoais

O tamanho e o preço dos computadores começam a diminuir a partir da década de 50. Neste período, inicia-se a pesquisa dos circuitos integrados, os chips, responsáveis pela crescente miniaturização dos equipamentos electrónicos.

Em 1974, a Intel projecta o microprocessador – dispositivo que reúne num mesmo chip, todas as funções do processador central – tecnologia que permite a criação do computador pessoal, ou microcomputador. O primeiro computador pessoal é o Apple I, inventado em 1976 pelos americanos Steve Jobs (1955-) e Stephan Wozniak.

Em 1981, a IBM lança o seu PC (Personal Computer), que se torna um sucesso comercial. O sistema operacional usado é o MS-DOS, desenvolvido pela empresa de softwares Microsoft. Na época, Bill Gates , o dono da Microsoft, convence a IBM e as demais companhias a adoptarem o sistema operacional de sua empresa. Isso permite que um mesmo programa funcione em micros de diversos fabricantes. Posteriormente, os PCs passam a usar microprocessadores cada vez mais potentes: 286, 386SX, 386DX, 486SX, 486DX. O Pentium, que surge nos anos 90, é atualmente o processador mais avançado usado em PCs.

O único micro a fazer frente aos PCs é o Macintosh, lançado em 1984, que revoluciona o mercado ao promover o uso de ícones e do mouse. No ano seguinte, a Microsoft lança a interface gráfica Windows, adaptando para os PCs o uso de ícones e do mouse. O Windows só alcança sucesso a partir de 90, com a versão 3.0. A nova versão, lançada em 1995, totaliza 45,8 milhões de usuários registrados pela Microsoft em dezembro de 1996.

Na década de 90 surgem os computadores que, além do processamento de dados, reúnem fax, modem, secretária eletrônica, scanner, acesso à Internet e drive para CD-ROM. Os CDs-ROM, sigla de compact disc read-only memory, criados no início da década, são discos a laser que armazenam até 650 megabytes, 451 vezes mais do que um disquete (1,44 megabytes). Além de armazenar grande quantidade de texto, o CD-ROM tem capacidade de arquivar fotos, vídeos e animações. Em 1996 é anunciado o lançamento do DVD (digital vídeo disc), que nos próximos anos deve substituir o CDROM e as fitas de videocassete. O DVD é um compact-disc com capacidade de 4,7 gigabytes (cerca de 7 CDs-ROM).

Segundo os fabricantes, terá a capacidade de vídeo de um filme de 135 minutos em padrão de compressão MPEG (tela cheia) e alta qualidade de áudio. Terá o mesmo diâmetro e espessura dos CDs actuais, mas será reproduzido em um driver específico, que também poderá ser ligado à televisão. Alguns CDs-ROM são interactivos, (MACEDO, 2017).

Inteligência Artificial

Nesse final de século surge um novo ramo na informática, a inteligência artificial, que estuda métodos de simular o pensamento humano nos computadores com o objectivo de substituir o homem pela máquina em actividades mecanizadas. Alguns computadores já funcionam com modelos de raciocínio e comportamento humanos, auxiliando médicos em diagnósticos, praticando diversos jogos e compondo músicas. Entre eles está o Deep Blue, computador ultra veloz, com 256 unidades de processamento de dados (o normal é uma), fabricado pela IBM após cinco anos de pesquisas. Em 1996, o Deep Blue – capaz de analisar 200 milhões de lances por segundo em um jogo de xadrez vence uma disputa com o campeão mundial de xadrez, o russo Garry Kasparov. Há também o COG, protótipo de robô que está sendo projectado e construído pelo Instituto de Tecnologia de Massachusetts (MIT).

Impactos na Sociedade

O desenvolvimento da informática exerce um grande impacto no modo de produção da sociedade. O computador torna se uma importante ferramenta de trabalho, contribuindo para o aumento da produtividade, redução de custos e melhoria da qualidade dos produtos. Vários sectores da economia já estão informatizados, entre os quais a indústria, a pesquisa científica, a educação, o sistema financeiro, as comunicações e a astronáutica.

Na pesquisa científica, o computador tem possibilitado a simulação de experiências inviáveis na realidade, devido ao alto custo ou periculosidade, como situações de temperatura excessiva ou de explosões, (MACEDO, 2017).

Resumo dos Principais Fatos

XVII – O francês Blaise Pascal projeta uma calculadora que soma e subtrai e o alemão Gottfried Wilhelm Leibniz incorpora operações de multiplicar e dividir à máquina.

XVIII – O francês Joseph Marie Jacquard constrói um tear automatizado: cartões perfurados controlam o movimento da máquina.

1834 – O inglês Charles Babbage projeta a máquina analítica capaz de armazenar informações.

1847 – O inglês George Boole estabelece a lógica binária para armazenar informações.

1890 – O norte-americano Hermann Hollerith constrói o primeiro computador mecânico.

1924 – Nasce a International Business Machines Corporation (IBM), nos Estados Unidos.

1938 – O alemão Konrad Zuse faz o primeiro computador elétrico usando a teoria binária.

1943 – O inglês Alan Turing constrói a primeira geração de computadores modernos, que utilizam válvulas.

1944 – O norte-americano Howard Aiken termina o Mark I, o primeiro computador eletromecânico.

1946 – O Eletronic Numerical Integrator and Computer (Eniac), primeiro computador eletrônico, é criado nos EUA.

1947 – Criação do transistor, substituto da válvula, que permite máquinas mais rápidas.

1957 – Primeiros modelos de computadores transistorizados chegam ao mercado.

1958 – Criação do chip, circuito integrado que permite a miniaturização dos equipamentos eletrônicos.

1969 – Criação da Arpanet, rede de informações do Departamento de Defesa norte-americano interligando universidades e empresas, que dará origem à Internet.

1974 – A Intel projeta o microprocessador 8080, que origina os microcomputadores.

1975 – Os norte-americanos Bill Gates e Paul Alen fundam a Microsoft.

1976 – Lançamento do Apple I, primeiro microcomputador comercial, inventado por Steves Jobs e por Steves Woznick.

1981 – A IBM o lança seu microcomputador – o PC – com o sistema operacional MS-DOS, elaborado pela Microsoft.

1983 – A IBM lança o PC-XT, com disco rígido.

1984 – A National Science Foundation, nos Estados Unidos, cria a Internet, rede mundial de computadores que conecta governos, universidades e companhias.

1984 — A Apple lança o Macintosh, primeiro computador a utilizar ícones e mouse.

1985 – A Microsoft lança o Windows para o PC, que só obtém sucesso com a versão 3.0 (1990).

1993 – A Intel lança o Pentium.

1998 – A Intel lança o Pentium II.

1999 – A Intel lança o Pentium III.

O Sinclair/TK85 Spectrum foi um dos primeiros computadores pessoais e foi muito famoso na sua época.

O Lançamento do Spectrum

Em 1982, segundo se conta, o empresário britânico Sir Clive Sinclair desenvolveu o ZX Spectrum para participar de um concurso promovido pela BBC, que premiaria um computador pessoal de baixo preço com acessão de suas iniciais e apoio no marketing. O vencedor, entretanto, foi outro (o Acorn), e Sinclair decidiu lançar o seu micro por conta próprio, como “sucessor” de suas espectaculares criações ZX 80 e ZX 81, (MACEDO, 2017).

Referência bibliográfica

MACEDO, R. CUNHA, G. informática básica, Santa Maria 2017