infoNauta

Crawler Detect

Inscreva-se:

História do Computador e da Informática

Publicado em:
Por:

Comentários: 0

Computação Gráfica é uma área da Ciência da Computação voltada à busca de soluções para o problema de se utilizar o computador para a representação e para a criação de imagens.

O computador é uma máquina de computar. Computar significa utilizar um determinado algoritmo, ou seja, uma lista de instruções preestabelecidas (programa), para se processar uma certa quantidade de dados, obtendo-se um resultado almejado.

Máquinas capazes de computar existem há vários séculos, porém suas capacidades eram limitadas e cada uma delas era capaz de realizar uma única função, como por exemplo, uma máquina chamada Ossos de Napier, capaz de realizar multiplicações a partir de tabelas gravadas em bastões, ou a Pascaline, máquina calculadora criada pelo filósofo e matemático Blaise Pascal.

Porém essas primeiras máquinas ainda não podem ser chamadas de Computadores pois tinham uma limitação: não eram programáveis, isto é, os usuários não podiam alterar suas funções.

O surgimento dos computadores programáveis é, talvez, o marco mais importante na história da informática.

Outro avanço significativo se deu com a adoção do sistema binário como base para todos os computadores e programas. Até o século XIX, os computadores eram construídos tendo como base a lógica decimal (com variáveis que vão de 0 a 9). Isso começou a mudar em 1854 quando o matemático inglês George Boole publicou os princípios da lógica booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e falso). A lógica booleana ou padrão binário passou a ser utilizada nos computadores a partir do início do século XX.

Os primeiros computadores programáveis baseados no sistema binário, precursores daqueles que utilizamos hoje, surgiram durante a Segunda Guerra Mundial, e foram criados pelas forças armadas dos Estados Unidos. Na imagem você pode ver um deles, o Eletronic Numeric Integrator and Calculator ou ENIAC, que começou a ser desenvolvido em 1943. Esse computador era programável, pois seus operadores podiam alterar as conexões dos cabos e fiações dos painéis, alterando sua função para a realização de tarefas específicas. Depois de cada operação as conexões precisavam ser refeitas manualmente para a realização da próxima tarefa.

Eniac

O ENIAC tinha como principal função a realização cálculos balísticos durante a Guerra. Possuía 17.468 válvulas termiônicas e sua capacidade de processamento era de 5.000 operações por segundo. Atualmente as válvulas foram substituídas pelos microchips e existem supercomputadores capazes de realizar um quintilhão de operações por segundo.

Outros computadores da mesma época, como o Z1 desenvolvido na Alemanha, recebiam as instruções de seus operadores por meio de cartões perfurados. Esses cartões eram lidos pelo computador e, caso não houvessem erros, suas instruções resultariam em um determinado resultado, na maioria das vezes muito simples.

Nessa época, o desafio dos cientistas da computação ainda era o de processar informações simples e as tecnologias que existiam não permitiam nem mesmo vislumbrar a possibilidade de se utilizar esse equipamento para representar ou produzir imagens. Perceba que o ENIAC nem possuía um monitor!

Foi necessário que as tecnologias da informática se desenvolvessem bastante até que ideia de Computação Gráfica passasse a fazer sentido. Apenas no final da década de 1960 começaram a surgir protótipos de sistemas capazes de processar imagens.

Por conta das limitações tecnológicas, o desenvolvimento da Computação Gráfica foi um processo lento. Demorou para que os computadores tivessem capacidade suficiente para a representação e criação de imagens. Por isso, os benefícios dessa técnica também vieram aos poucos.

O primeiro benefício que os usuários tiveram com a Computação Gráfica foi o surgimento das Interfaces Gráficas. Assim, ao invés de programar o computador por meio de cartões perfurados ou mudando a conexão de cabos, toda a operação da máquina passou a se dar a partir da interação com imagens exibidas na tela.

Mais tarde, o segundo benefício aos usuários trazido pela Computação Gráfica, foi a possibilidade de criação de Imagens Digitais. Os cientistas da computação criaram pelo menos dois métodos (Mapa de Bits e Vetores) para se armazenar e representar imagens com o código binário. Criaram-se então programas de computadores que os usuários pudessem utilizar esses métodos para produzir suas próprias imagens.

Eras da computação

Podemos compreender melhor a história da informática dividindo-a em três fases:

1) Era do Mainframe: que se inicia ainda no Século XIX e dura até o final da década de 1970, em que um único computador de grande porte era utilizado muitas pessoas.

2) Era do Personal Computer (PC): que se inicia no final dos anos 1970 com a corrida de algumas empresas como a Apple, a Microsoft, a Xerox e a IBM para desenvolver computadores pequenos de uso pessoal, ou seja, um computador utilizado por uma única pessoa.

3) Era da Computação Ubíqua: que se inicia nos anos 2000, quando uma série de dispositivos informatizados e portáteis começam a surgir. Com isso é possível que uma única pessoa utilize muitos computadores.

QUANTIDADE DE INFORMAÇÃO DIGITAL

Em informática, cada unidade de informação binária (zero ou um) é conhecida como bit. Nos computadores modernos, os bits são processados em grupos de 8, sendo que cada grupo de 8 bits é chamado de byte. Os bytes podem ser agrupados em grupos maiores, representados por potências de base 10, formando as seguintes unidades de quantificação de informação digital:

8 Bits = 1 Byte (100)

1.024 Bytes = 1 Kilobyte (103)

1.024 Kilobytes = 1 Megabyte (106)

1.024 Megabytes = 1 Gigabyte (109)

1.024 Gigabytes = 1 Terabyte (1012)

1.024 Terabytes = 1 Petabyte (1015)

1.024 Petabytes = Exabyte (1018)

1.024 Exabytes = Zetabyte (1021)

1.024 Zetabytes = Yotabyte (1024)

... e assim por diante.

REFERÊNCIAS

DICIONÁRIO de informática, multimídia e realidade virtual. São Paulo: Melhoramentos, 2001.

GATES, Bill. A Estrada do Futuro. São Paulo: Companhia das Letras, 1995.

WEISER Mark. The Computer for the 21st Century. Disponível em: <http://wiki.daimi.au.dk /pca/_files/weiser-orig.pdf>. Aceso em: 27 de jan. de 2015.


Comentários

Seja o primeiro a comentar!

Faça seu comentário

Repita os caracteres no campo abaixo:



adobe agência de propaganda ambiente de marketing ambiente externo ambiente interno artigo científico balanced scorecard banco central bitmap bsc cabernet sauvignon cedilha comunicação digital cibercultura comportamento do consumidor composto de marketing concorrência cultura da internet custo demanda desejo diferenciação eleições email marketing endomarketing estratégia facebook forças competitivas gestão estratégica google html illustrator imagens digitais indesign inovação instagram inteligência coletiva internet jornalismo linkedin livrista lucro macroambiente marca mark-up marketing marketing de conteúdo marketing digital memes merlot michael porter microambiente moeda comemorativa motivação mídia mídia digital mídias digitais mídias sociais necessidade numismática objetivos olimpiadas 2016 orkut photoshop php pierre levy planejamento planejamento estratégico preço produto programação promoção propaganda propagação viral publicidade real redes sociais relações públicas relevância reputação rio 2016 sem seo sites de busca twitter valor vinho virtual walter longo youtube