infoNauta

Crawler Detect

Inscreva-se:

Interfaces Gráficas e Imagens Digitais

Publicado em: 23/10/2015
Atualizado em em: 23/10/2015

Por: Sergio Mari Jr.

Comentários: 0

Conforme a tecnologia de desenvolveu, aumentando a capacidade de processamento e armazenamento de informações digitais por parte do computador, começou a ser possível apresentar e criar imagens digitais na tela do computador, nascendo assim a chamada Computação Gráfica.

Esse recurso trouxe dois benefícios diretos aos usuários: 1) as interfaces gráficas e 2) a possibilidade de criação de imagens digitais.

Interfaces Gráficas

O primeiro benefício ao usuário proporcionado pela Computação Gráfica foi a criação das chamadas Interfaces Gráficas do (Graphical User Interface – GUI), que substituíram os comandos de texto dos Sistemas Operacionais antigos.

As Interfaces Gráficas, muito mais inteligíveis e adaptáveis à operação humana, só foram possíveis em meados da década de 1980 (GATES, 1995).

Embora o conceito de interface seja bastante amplo, se o restringirmos ao universo dos computadores, podemos defini-lo como a maneira com que as máquinas e os humanos se comunicam. Antes das aplicações gráficas, toda essa comunicação era realizada por meio de processos analógicos – como cartões perfurados – ou textualmente por meio do teclado, sendo que para interagir com o computador, o homem precisava conhecer a linguagem com que a máquina estava programada para compreender. Ele tinha que digitar os comandos corretos e respeitar sintaxes preestabelecidas sob pena de não obter a resposta esperada.

Cartão Perfurado
Cartão Perfurado: Exemplo de Interface Analógica

As Interfaces Gráficas usuário ajudaram a inverter esta lógica. Ao apresentar as funcionalidades da máquina por meio de imagens, cores, botões e outros elementos visuais, acionáveis não só com o teclado mas também com o mouse, os computadores se aproximaram da linguagem humana fazendo com que sua operação se tornasse muito mais intuitiva e agradável – daí sua natureza sensória.

A utilização de elementos visuais na construção de interfaces fez com que a tradução entre a linguagem binária-procedural própria dos sistemas computacionais e a linguagem simbólica própria da cultura e da mente humana (tanto no sentido homem-computador quanto no sentido computador-homem), alcançassem outros patamares de inteligibilidade, permitindo inclusive a popularização da tecnologia, uma vez que este processo facilita o aprendizado e revela, de maneira mais competente, o potencial das máquinas como extensoras da capacidade humana.

Nosso único acesso a esse universo paralelo de zeros e uns se dá através do conduto da interface do computador, o que significa que a região mais dinâmica e mais inovadora do mundo contemporâneo só se revela para nós através dos intermediários anônimos do design de interface. (JOHNSON, 2001, p.20-21)

A criação de uma interface possível entre a linguagem da máquina e a linguagem do computador é um problema de pelo menos seis décadas, que parece ter sido inaugurado quando Claude E. Shannon e Warren Weaver, em 1948, vislumbraram um método de aproximação entre o processo de comunicação e a matemática, com o objetivo de converter a comunicação humana em “unidades mensuráveis de informação” capazes de serem codificadas, transmitidas e decodificadas.

Sua solução, no entanto, passou a ser mais provável a partir de 1968, quando Doug Engelbart apresentou os primeiros protótipos de um sistema capaz de relacionar informação com espaço, posicionando de maneira inteligível em uma tela, os símbolos do computador (JOHNSON, 2001). Esse invento inaugurou a era dos computadores autorrepresentáveis, ou seja, capazes de apresentar suas operações não em linguagem matemática, mas em linguagem humana.

Desde então, as Interfaces Gráficas do Usuário evoluíram sua estratégia de comunicação até culminar com a utilização de metáforas visuais e outros recursos de linguagem para a formação de sentido. Atualmente, seus elementos visuais se baseiam na similaridade com objetos de fora do computador. A escolha desses recursos de linguagem presentes nas interfaces confere, aos computadores, a capacidade que eles têm de permitir que seus usuários interpretem corretamente suas funções.

Apesar de revolucionária, a aplicação das interfaces gráficas em computadores se deu quase que por acaso, pois mesmo as empresas dominantes do setor da informática nos anos 1960 e 1970, como IBM, HP e Xerox, não enxergavam nelas algo viável e praticamente as ignoraram. O primeiro computador pessoal baseado em uma Interface Gráfica do Usuário foi Apple Lisa, lançado em 1983. A tecnologia da interface gráfica e do mouse que equipava esse computador foi praticamente doada pela Xerox para a Apple.

Assim, os engenheiros da Xerox Parc começaram a desenvolver imagens gráficas de uso fácil que pudessem substituir todas a linhas de comando e mensagens do DOS que tornavam as telas de computador intimidantes. A metáfora que eles sugeriram foi a de um desktop [mesa de trabalho]. A tela poderia conter muitos documentos e pastas, e o usuário poderia usar o mouse para apontar a clicar sobre o que quisesse usar. (ISAACSON, 2011, p.113)

Também é marcante no desenvolvimento dessa tecnologia, as grandes dificuldades enfrentadas por seus primeiros engenheiros e que hoje entendemos como coisas óbvias e sem importância. Veja, por exemplo, o que um dos problemas mais difíceis que um engenheiro da Apple deve que enfrentar ao criar as primeiras interfaces gráficas para o sistema operacional do computador Macintosh:

Uma das proezas incríveis de Atkinson (à qual estamos tão acostumados hoje em dia que raramente nos maravilhamos diante dela) foi possibilitar que as janelas em uma tela se sobrepusessem, de tal modo que a “de cima” aparecesse sobre “a de baixo”. Atkinson fez com que se pudesse mover essas janelas pela tela como se fossem papéis sobre a mesa, de tal modo que os de baixo se tornassem visíveis ou ocultos à medida que se movia os de cima. É evidente que na tela do computador não há camadas de pixel por baixo dos pixels que vemos e, portanto, não há janelas espreitando por baixo das que parecem estar “em cima”. Para criar a ilusão de janelas sobrepostas é necessária uma codificação complexa que envolve  o que é chamado de “regiões”. Atkinson se esforçou para fazer esse truque funcionar por que achava que tinha visto essa capacidade durante a visita ao Xerox Parc. Na verdade o pessoal do Parc nunca tinha feito isso e, mais tarde lhe disseram como tinham ficado espantados com o que ele realizara. (ISAACSON, 2011, p.118)

Imagens Digitais

O segundo benefício trazido aos usuários pela Computação Gráfica foi a possibilidade de criação de Imagens Digitais. Por meio de programas especializados (aplicativos) os computadores passaram a permitir que os usuários transferissem imagens do papel para o computador ou que criassem as imagens no próprio computador para depois transferir para o papel.

Essa capacidade é tardia na história da informática, pois demanda uma capacidade gigantesca de processamento e armazenamento de dados, o que só foi possível após uma série de avanços tecnológicos.

Para se ter uma ideia da complexidade desse feito e para se quantificar o volume de informações com o qual o computador precisa lidar para se armazenas uma imagem, é necessário compreender como ele faz isso.

Sabemos que toda informação tratada ou armazenada pelo computador é convertida para o Sistema Binário. Por esse sistema, qualquer informação pode ser representada por uma sequência de outras informações mais simples. E a informação mais simples que pode haver é sempre representada por um binômio: sim ou não, existe ou não existe, ligado ou desligado. Na informática, essa unidade mais simples de informação é representada pelos números zero e um.

Sendo assim, tudo o que vemos na tela de um computador ou tudo o que está armazenado em sua memória, está representado por sequências de zeros e uns, inclusive as imagens.

A tela dos monitores de computador é formada por pequenos pontos de luz dispostos em linhas e colunas, de modo que cada um desses pontos possua uma coordenada cartesiana (com uma posição X,Y na tela). Para se exibir uma imagem na tela, cada um desses pontos representa na forma de luz uma pequena informação registrada na memória do computador.

A título de exemplo, imagine que, caso a informação armazenada na memória do computador seja o número zero, esse ponto de luz estará apagado, portanto exibirá a cor preta. E, caso a informação armazenada seja o número um, a luz estará acesa e, portanto, será exibida a cor branca. Imagine um monitor modernos, no padrão Full HD. Esse monitor possui 1.920 colunas e 1.080 linhas de pontos de luz, o que equivale a 2.073.600 pontos de luz na tela. Levando-se em conta que os monitores modernos possuem, em geral, uma taxa de atualização de 60 Hertz, significa que uma imagem com essa quantidade de pontos de luz é gerada na tela 60 vezes por segundo. Nesse cenário o computador precisaria processar 124.416.000 unidades de informação para manter essa imagem na tela por um único segundo.

Isso corresponde a 15.552.000 Bytes, que correspondem 15.187,5 Kilobytes, que correspondem a 14,83 Megabytes. Não parece muito, certo? Mas pense o seguinte: nesse exemplo, as cada ponto de luz na tela só poderia representar duas cores: preto ou branco. Ou seja, essa imagem que demandaria 14,83 Megabytes de informação para ficar apenas 1 segundo na tela, seria em preto e branco.

Para representar uma imagem colorida, o computador utiliza um recurso chamado profundidade de bits. É como se cada ponto de luz fosse formado por várias camadas de informação ao invés de apenas uma. É comum os monitores trabalharem ou 8, 16 ou 32 bits em cada ponto de luz. Ou seja, para se obter uma imagem coloria, é necessário multiplicar por 8 o volume de informação necessário, o que daria 118,65 Megabytes... Por segundo!

Ou seja, o computador precisa ser muito potente para trabalhar com Computação Gráfica.

Esse método apresentado acima, de dividir a tela em pontos de luz com coordenadas cartesianas é apenas uma forma de se representar imagens na memória do computador. Esse método é chamado Raster ou Bit Map (mapa de bits).

Existe, ainda um segundo método para a geração de imagens digitais chamado Vetorial, em que os desenhos na tela se baseiam em vetores matemáticos.

Nos próximos tópicos serão abordados cada um desses dois métodos.

Referências

GATES, Bill. A Estrada do Futuro. São Paulo: Companhia das Letras, 1995.

ISAACSON, Walter. Steve Jobs. São Paulo: Companhia das Letras, 2011.

JOHNSON, Steven. Cultura da Interface: Como o computador transforma nossa maneira de criar e comunicar. Rio de Janeiro: Jorge Zahar, 2001.

SHANNON, Claude E. A Mathematical Theory of Comunication. Bell System Technical Journal, 1948. Disponível em <http://cm.bell-labs.com/cm/ms/what/ shannonday/paper.html>. Acesso em: 04 out. 2011.


Comentários

Seja o primeiro a comentar!

Faça seu comentário

Repita os caracteres no campo abaixo:



adobe agência de propaganda artigo científico banco central bitmap cabernet sauvignon cedilha comunicação digital comportamento do consumidor composto de marketing concorrência cultura da internet custo demanda desejo desnatamento diferenciação email marketing endomarketing estratégia facebook forças competitivas gestão estratégica google html illustrator imagens digitais indesign inovação instagram inteligência coletiva internet jornalismo linkedin livrista lucro macroambiente marca mark-up marketing marketing de conteúdo marketing digital merlot michael porter microambiente moeda comemorativa motivação mídia mídia digital mídias sociais necessidade numismática olimpiadas 2016 orkut photoshop php planejamento planejamento estratégico preço produto programação promoção propaganda propagação viral publicidade real redes sociais relações públicas relevância reputação rio 2016 seo skimming twitter valor vinho walter longo youtube