infoNauta

Imagens Digitais - Bitmap

Publicado em: 23/10/2015
Atualizado em em: 23/10/2015

Por: Sergio Mari Jr.

Comentários: 0

O método Raster, também é chamado Mapa de Bits (Bitmap), varredura ou matricial. Neste método, uma tela ou uma imagem digital é dividida em linhas e colunas, de modo que cada ponto tenha uma coordenada cartesiana, formando uma matriz matemática.

... a imagem é constituída a partir de uma coleção de pontos individuais. Como o próprio nome indica, o arquivo mapa de bits é a reprodução gráfica (mapa) das variações possíveis nas unidades de memória do computador (bits). (GAMBA Jr., 2013, p.14)

Exemplo de Bitmap
Exemplo de imagem Bitmap

Mesmo que você esteja trabalhando com imagens vetoriais, a tela do computador e até mesmo a interface do programa utilizado para criar seus vetores, será formado por mapas de bits, o que mostra a predominância desse método no mundo da informática.

Cada ponto do mapa, que está em uma linha e em uma coluna específica da imagem, é chamado de Pixel. Essa palavra é um acrônimo criado a partir das palavras Picture e Element.

Ou seja, o pixel é a representação gráfica da variação do bit. Ele é, na verdade, quadrado e indivisível. (...) Como o pixel é a menor unidade da imagem mapa de bits, ele acabou por se constituir como unidade de medida do Planeta Digital. (...) Da mesma forma que medimos algo no Planeta Material usando o centímetro, por exemplo, no Planeta Digital nós usamos o pixel. (GAMBA Jr., 2013, p.14)

Profundidade de Bits

Cada pixel, indivisível, pode ter uma única cor. Cada informação de cor é gravada em um bit (menor unidade de informação digital), representada pelos número 0 e 1.

A princípio 0 significa preto e 1 significa branco. Então, o que faz um pixel poder ter outras cores além de preto e branco é um recurso chamado Profundidade de Bits, ou seja, um único pixel pode ter várias camadas de bits combinadas para formar sua cor final.

Sobrepondo várias camadas de bits é possível formar mais de 32 milhões de cores diferentes, o que é maior do que o número de cores presentes na natureza e maior do que a capacidade de distinção do olho humano.

Sobreposição de Bits
Representação da sobreposição de pixels

Mudança de tamanho em imagens Mapa de Bits

Quando uma imagem de mapa de bits é aumentada o computador precisa criar novos pixels, baseados nas cores dos pixels originais, o que provoca perda da qualidade da imagem.

Quando uma imagem de mapa de bits é reduzida, o computador precisa eliminar alguns pixels, o que também pode provocar perda da qualidade da imagem, porém com menor intensidade.

Resolução das Imagens Bitmap

As imagens bitmap têm suas medidas expressas pela quantidade de pixels que contêm. Por exemplo: 800 pixels de largura por 600 pixels de altura.

Contudo, o pixel é uma medida exclusivamente digital e não tem qualquer relação com as medidas materiais, como o centímetro ou a polegada. Isso significa que é impossível saber quanto mede um pixel em no sistema métrico ou no sistema inglês (anglo-saxão) de medidas.

Portanto, quando uma imagem bitmap é impressa, o computador precisa fazer uma conversão entre a medida digital e a medida material. Tal conversão é feita a partir de uma relação entre a quantidades de pixels presente na imagem e a área a ser preenchida por eles na impressão.

Chamamos essa conversão de resolução. A resolução é uma relação entre a medida digital e a medida material. Se, por exemplo, escolhemos como medida material o centímetro, a resolução de uma imagem será a quantidade de pixels que deverão ocupar o espaço de 1 centímetro.

Por exemplo: 100 pixels/centímetro.

Por convenção, em geral, a resolução é expressa pela relação entre pixels e polegadas.

Por exemplo: 200 pixel/polegadas.

Quanto mais pixels você colocar em um mesmo espaço, menor cada pixel ficará. Quanto menos pixel em um menos espaço maior ele ficará.

Quando se aumenta a resolução de uma imagem, aumenta-se a quantidade de pixels em um mesmo espaço, portanto, ela diminui sua medida material. Quando se diminui a resolução de uma imagem, diminui-se a quantidade de pixels em um mesmo espaço, portanto, ela aumenta sua medida material, podendo ocorrer perda de qualidade.

Pixels versus pontos

As impressoras não trabalham com Pixels, mas sim com Pontos (Dots). Pixels são quadrados enquanto que pontos são esféricos.

Por isso relação entre pixels ou pontos e polegadas é representada como PPI (pixel per inch) ou DPI (dots per inch). Caso uma imagem esteja sendo exibida na tela (em pixels, portanto), sua resolução deve expressa em PPI. Caso uma imagem esteja sendo impressa (em pontos), sua resolução deve ser expressa em DPI.

Os monitores de computador normalmente trabalham em uma resolução de 72 PPI. Portanto, imagens preparadas para exibição na tela (como para a internet, por exemplo) devem ser preparadas com esta resolução.

Imagens preparadas para impressão devem ter uma resolução maior para garantir sua qualidade. Essa resolução deve coincidir com aquela do equipamento de saída, ou seja, é necessários saber quantos DPI uma impressora é capaz de imprimir para se decidir que resolução utilizar.

Por convenção, quando não se sabe a capacidade da impressora, utiliza-se uma resolução entre 200 e 600 DPI, sendo que 300 DPI é o mais comum.

Representação de Cores nas Imagens Digitais

As cores das imagens digitais podem ser formadas a partir de várias combinações ou escalas diferentes.

Contudo, duas delas são as principais: uma que gera as cores a partir de combinação de luzes (utilizadas pelos monitores e televisores) e outra que gera as cores a partir da combinação de tintas ou pigmentos (utilizadas por impressoras).

Síntese aditiva

A síntese que utiliza as luzes para gerar as cores é conhecida como síntese aditiva. A ausência de luzes representa a cor preta e a presença de todas as luzes somadas (adição) em sua intensidade máxima representa a cor branca.

A síntese Aditiva é formada pela combinação das cores Vermelho (Red), Verde (Green) e Azul (Blue), por isso é conhecida como RGB.

RGB

Síntese subtrativa

A síntese que utiliza as tintas para gerar as imagens é conhecida como síntese subtrativa. A ausência (subtração) de todas as tintas representa a cor branca e a presença de todas as tintas somadas em sua intensidade máxima representa a cor preta.

A síntese subtrativa é formada pela combinação das tintas Ciano, Magenta, Amarelo (Yellow) e Preta (Black), por isso é conhecida como CMYK.

CMYK

Comparação

Cada uma das sínteses é capaz de gerar um certo número de cores. A maior parte das cores pode ser formadas por ambas as sínteses, contudo, há algumas cores que só podem ser formadas por uma ou outras cores. A baixo você pode ver a diferença entre as sínteses:

Gamut

Referências

GAMBA Jr. Computação Gráfica para Designers: dialogando com as caixas de diálogo. Rio de Janeiro: 2AB, 2003.

História do Computador e da Informática

Publicado em: 23/10/2015
Atualizado em em: 02/11/2015

Por: Sergio Mari Jr.

Comentários: 0

Computação Gráfica é uma área da Ciência da Computação voltada à busca de soluções para o problema de se utilizar o computador para a representação e para a criação de imagens.

O computador é uma máquina de computar. Computar significa utilizar um determinado algoritmo, ou seja, uma lista de instruções preestabelecidas (programa), para se processar uma certa quantidade de dados, obtendo-se um resultado almejado.

Máquinas capazes de computar existem há vários séculos, porém suas capacidades eram limitadas e cada uma delas era capaz de realizar uma única função, como por exemplo, uma máquina chamada Ossos de Napier, capaz de realizar multiplicações a partir de tabelas gravadas em bastões, ou a Pascaline, máquina calculadora criada pelo filósofo e matemático Blaise Pascal.

Porém essas primeiras máquinas ainda não podem ser chamadas de Computadores pois tinham uma limitação: não eram programáveis, isto é, os usuários não podiam alterar suas funções.

O surgimento dos computadores programáveis é, talvez, o marco mais importante na história da informática.

Outro avanço significativo se deu com a adoção do sistema binário como base para todos os computadores e programas. Até o século XIX, os computadores eram construídos tendo como base a lógica decimal (com variáveis que vão de 0 a 9). Isso começou a mudar em 1854 quando o matemático inglês George Boole publicou os princípios da lógica booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e falso). A lógica booleana ou padrão binário passou a ser utilizada nos computadores a partir do início do século XX.

Os primeiros computadores programáveis baseados no sistema binário, precursores daqueles que utilizamos hoje, surgiram durante a Segunda Guerra Mundial, e foram criados pelas forças armadas dos Estados Unidos. Na imagem você pode ver um deles, o Eletronic Numeric Integrator and Calculator ou ENIAC, que começou a ser desenvolvido em 1943. Esse computador era programável, pois seus operadores podiam alterar as conexões dos cabos e fiações dos painéis, alterando sua função para a realização de tarefas específicas. Depois de cada operação as conexões precisavam ser refeitas manualmente para a realização da próxima tarefa.

Eniac

O ENIAC tinha como principal função a realização cálculos balísticos durante a Guerra. Possuía 17.468 válvulas termiônicas e sua capacidade de processamento era de 5.000 operações por segundo. Atualmente as válvulas foram substituídas pelos microchips e existem supercomputadores capazes de realizar um quintilhão de operações por segundo.

Outros computadores da mesma época, como o Z1 desenvolvido na Alemanha, recebiam as instruções de seus operadores por meio de cartões perfurados. Esses cartões eram lidos pelo computador e, caso não houvessem erros, suas instruções resultariam em um determinado resultado, na maioria das vezes muito simples.

Nessa época, o desafio dos cientistas da computação ainda era o de processar informações simples e as tecnologias que existiam não permitiam nem mesmo vislumbrar a possibilidade de se utilizar esse equipamento para representar ou produzir imagens. Perceba que o ENIAC nem possuía um monitor!

Foi necessário que as tecnologias da informática se desenvolvessem bastante até que ideia de Computação Gráfica passasse a fazer sentido. Apenas no final da década de 1960 começaram a surgir protótipos de sistemas capazes de processar imagens.

Por conta das limitações tecnológicas, o desenvolvimento da Computação Gráfica foi um processo lento. Demorou para que os computadores tivessem capacidade suficiente para a representação e criação de imagens. Por isso, os benefícios dessa técnica também vieram aos poucos.

O primeiro benefício que os usuários tiveram com a Computação Gráfica foi o surgimento das Interfaces Gráficas. Assim, ao invés de programar o computador por meio de cartões perfurados ou mudando a conexão de cabos, toda a operação da máquina passou a se dar a partir da interação com imagens exibidas na tela.

Mais tarde, o segundo benefício aos usuários trazido pela Computação Gráfica, foi a possibilidade de criação de Imagens Digitais. Os cientistas da computação criaram pelo menos dois métodos (Mapa de Bits e Vetores) para se armazenar e representar imagens com o código binário. Criaram-se então programas de computadores que os usuários pudessem utilizar esses métodos para produzir suas próprias imagens.

Eras da computação

Podemos compreender melhor a história da informática dividindo-a em três fases:

1) Era do Mainframe: que se inicia ainda no Século XIX e dura até o final da década de 1970, em que um único computador de grande porte era utilizado muitas pessoas.

2) Era do Personal Computer (PC): que se inicia no final dos anos 1970 com a corrida de algumas empresas como a Apple, a Microsoft, a Xerox e a IBM para desenvolver computadores pequenos de uso pessoal, ou seja, um computador utilizado por uma única pessoa.

3) Era da Computação Ubíqua: que se inicia nos anos 2000, quando uma série de dispositivos informatizados e portáteis começam a surgir. Com isso é possível que uma única pessoa utilize muitos computadores.

QUANTIDADE DE INFORMAÇÃO DIGITAL

Em informática, cada unidade de informação binária (zero ou um) é conhecida como bit. Nos computadores modernos, os bits são processados em grupos de 8, sendo que cada grupo de 8 bits é chamado de byte. Os bytes podem ser agrupados em grupos maiores, representados por potências de base 10, formando as seguintes unidades de quantificação de informação digital:

8 Bits = 1 Byte (100)

1.024 Bytes = 1 Kilobyte (103)

1.024 Kilobytes = 1 Megabyte (106)

1.024 Megabytes = 1 Gigabyte (109)

1.024 Gigabytes = 1 Terabyte (1012)

1.024 Terabytes = 1 Petabyte (1015)

1.024 Petabytes = Exabyte (1018)

1.024 Exabytes = Zetabyte (1021)

1.024 Zetabytes = Yotabyte (1024)

... e assim por diante.

REFERÊNCIAS

DICIONÁRIO de informática, multimídia e realidade virtual. São Paulo: Melhoramentos, 2001.

GATES, Bill. A Estrada do Futuro. São Paulo: Companhia das Letras, 1995.

WEISER Mark. The Computer for the 21st Century. Disponível em: <http://wiki.daimi.au.dk /pca/_files/weiser-orig.pdf>. Aceso em: 27 de jan. de 2015.

tsu.co

News Letter

Gostaria de tê-lo em minha rede de contatos para envio de informações e conteúdos relevantes sobre os temas abordados neste blog. Caso tenha interesse por favor cadastre seu e-mail:

Vídeos

BITCOIN #02 Criando uma carteira Bitcoin

mais vídeos

Conteúdos de aulas

Twitter

adobe agência de propaganda artigo científico banco central bitcoin bitmap cabernet sauvignon cedilha comunicação digital comportamento do consumidor concorrência cotação custo câmbio demanda desejo digital dólar economia endomarketing estratégia facebook forças competitivas gestão estratégica google illustrator imagens digitais indesign inovação instagram internet jornalismo linkedin lucro marca mark-up marketing marketing de conteúdo marketing digital michael porter moeda moeda comemorativa motivação mídia mídia digital necessidade numismática olimpiadas 2016 orkut photoshop preço produto promoção publicidade real redes sociais relações públicas relevância reputação rio 2016 twitter valor vinho walter longo youtube