O excesso de megapixels das câmeras digitais e a qualidade da imagem nas fotos

Participando de um fórum técnico de câmeras fotográficas digitais pude ajudar a um dos membros sobre uma dúvida que, acredito, atinge a grande maioria dos que gostam de fotografia digital amadora mas não possuem informações ou conhecimento técnico suficiente para fazer a escolha correta na hora da compra.

O questionamento feito por um dos membros é algo bastante comum em fóruns técnicos, porém sem aprofundamento, o que gera mais dúvida do que esclarecimento: o excesso de megapixels pode comprometer a qualidade das fotos de uma câmera digital?

Em minha resposta à questão procurei mostrar que em tecnologia não podemos, em afirmações curtas e sem algumas explicações técnicas – mesmo que de forma superficial – dar uma resposta direta: sim ou não. Mas também a coisa não é tão complicada de se entender. Então, vamos lá.

A afirmação genérica de que o “excesso de megapixels” compromete a qualidade das fotos é algo que devemos analisar com bastante cuidado.

Não é a quantidade maior de megapixels que degrada uma imagem digital. Parece até contrasenso, pois sabemos que a alta definição de imagem é representada por uma quantidade maior de pixels. Temos como exemplo nossas TVs. A TV HD Ready tem, em média, 1280 x 720 pixels. Já a TV Full HD tem, no mínimo, 1920 x 1080 pixels. Ou seja, mais pixels, melhor resolução. Isso é fato.

O que se tem falado de degradação de imagem em câmeras fotográficas digitais vem do fato de que, comercialmente, a ideia que é vendida é quanto mais megapixels tem uma câmera, melhor será em relação a sua concorrente com um número menor de megapixels. É nessa afirmação, pura e simples, que está o engano. Engano em parte, pois tudo é relativo, como afirmava o gênio Albert Einstein.

O que quero dizer é que a qualidade da foto numa câmera digital não pode – e nem deve – ser atribuída apenas à sua quantidade de megapixels. Aliás, esse não deve nunca ser o requisito número 1 na escolha de uma boa câmera fotográfica digital. Há outros fatores mais importantes, entre os quais: as lentes, o sensor de captação da imagem e o processador da imagem. E é no quesito “sensor” que voltamos ao questionamento sobre o comprometimento da qualidade das fotos pelo excesso de megapixels.

Acontece que, de uns anos pra cá, a popularização das câmeras compactas digitais fez com que os preços baixassem e, com isso, a necessidade de componentes de fabricação mais baratos, entre os quais o sensor. Isso acontece com os computadores, notebooks, netbooks, tablets e smartphones, ou seja, os mais baratos usam processadores mais simples, menos poderosos e de menor custo.

Tem se tornado quase padrão que as compactas populares atuais utilizem um sensor Type 1/2.3″ (esse número indica parâmetros das dimensões do sensor, tais como a sua medida na horizontal e vertical, além da diagonal, ou seja, identifica o sensor pelo tamanho). É aí onde está a grande questão dos megapixels. A relação entre a quantidade exagerada de megapixels e o tamanho do sensor.

Ora, é lógico imaginar que um sensor com 7,7 mm de diagonal e com, digamos, 10 megapixels de capacidade de resolução tenha uma condição de “melhor acomodar 10 milhões de pixels” do que o mesmo sensor com 20 milhões de pixels. Entendeu? É isso que nos referimos a “excesso de megapixel comprometer a imagem”. Não são os megapixels em si. Não é o tamanho do sensor é si. É a relação entre a quantidade de megapixels oferecida pela câmera e o tamanho do sensor utilizado, ou seja, comercialmente vendem o número de megapixels e internamente, sem quase fazer referência alguma, utilizam um sensor com tamanho não adequado para aquela quantidade de megapixels. Pixels muito próximos um do outro acabam por deixar “vazar” iluminação para os vizinhos, degradando a qualidade final da imagem, que perde definição.

Mas, como disse antes, tudo é relativo. Câmeras de marcas de renome, como a Sony, por exemplo, possuem “tecnologia” suficiente para tentar “melhorar” a relação megapixel/tamanho do sensor e com isso obter fotos incrivelmente boas.

O sensor desenvolvido pela Sony e utilizado nas câmeras mais atuais – Sensor CMOS Exmor R – possui uma capacidade incrível de captação de luz, mesmo em ambientes pouco iluminados, além de garantir uma menor interferência de iluminação entre pixels vizinhos, permitindo um número maior de megapixels no sensor.

Minha câmera anterior – que ainda possuo, agora como reserva – é uma Sony P-200, de 7.2 megapixels e um sensor Type 1/1.8″ (repare que é uma câmera mais antiga, de 2005, e mesmo assim possui um sensor maior que as atuais compactas que usam sensor Type 1/2.3″ e com bem mais megapixels. É essa relação que devemos analisar.

Com a minha “antiga” Sony P-200 tenho feito fotos melhores do que algumas compactas mais atuais de 14 ou 16 megapixels, mas que usam um sensor menor e lentes inferiores a Carl Zeiss.  Essa foi a razão que ainda não havia me permitido mudar da minha Sony P-200 com 7 megapixels, sensor Type 1/1.8″ e lentes Carl Zeiss F2.8 para esses modelos mais atuais da faixa mais popular que tem milhões de pixels, mas um sensor menor e lentes não Carl Zeiss.

É bem verdade que a minha antiga Sony P-200 ainda não usa o atual sensor CMOS Exmor R e, por isso sua capacidade para fotos noturnas sem flash ou sem uso do tripé fica comprometida, pois também não possui o recurso Steady Shot que evita imagens tremidas com o mínimo de movimento, mas era outro tempo e a tecnologia avançou muito desde então. Nestas situações, contornava o problema com o uso do tripé ou fixando bem a câmera na hora de bater a foto com uma maior exposição ou em ambientes de pouca luz.

Atualmente minha câmera principal é a nova (recém lançada nos Estados Unidos) Sony RX-100 com 20 megapixels, mas que não se constitui em problema algum, pois o seu sensor Type 1″ é bem maior que os sensores Type 1/2.3″, 1/1.8″ e até mesmo o sensor Type 2/3″ das câmeras compactas atuais. Aliado a isso o poderoso Exmor CMOS Sensor e suas espetaculares lentes Carl Zeiss Vario-Sonnar T* F1.8 garantem imagens de excepcional qualidade.

Estou apenas começando a “dominar” os recursos da câmera, mas na brincadeira já fiz fotos que me deixaram impressionado em relação as fotos de outras câmeras, não deixando nada desejar, inclusive, as fotos de câmeras da linha semi-profissional da própria Sony.

Antes do lançamento dessa câmera, em julho/2012, estava direcionado a adquirir uma Sony da linha NEX. Quando vi as especificações da Sony RX-100 decidi-me na hora por sua aquisição, pois a mesma possuía 3 aspectos importantes para a minha escolha que há muito procurava numa câmera digital:

1) Tamanho compacto, praticamente o mesmo tamanho da minha câmera anterior, a Sony P-200, mas com imagens com qualidade profissional. As câmeras da série NEX são bem maiores, devido as lentes intercambiáveis, e consequentemente mais pesadas.

2) Sensor maior e com alta sensibilidade para ambientes com pouca luz. Acredite! até agora não precisei usar o flash mesmo em fotos noturnas.

3) Lentes Carl Zeiss. Isso é fator essencial para mim, devido a experiência com a minha P-200 que usa Carl Zeiss F2.8, em relação a F1.8 da RX-100 (quanto menor o número F mais clara é a lente). As experiências que tive com câmeras com sensor Type 1/2.3″, muitos megapixels e lentes Sony G F3.5 não foram satisfatórias para mim.

Bom, com esse post espero ter podido esclarecer um pouco a questão dos megapixels nas câmeras digitais de forma a lhe permitir tomar uma boa decisão na hora de adquirir sua próxima câmera.

Na oportunidade procurei também falar um pouco da Sony RX-100, minha atual câmera, colocando-a no contexto da explicação como parâmetro da análise em função da Sony P-200 e câmeras compactas em geral.

Ainda a respeito da Sony RX-100, li vem vários reviews que a mesma pode até mesmo ser utilizada como uma câmera reserva compacta para os profissionais da fotografia e num artigo de uma coluna técnica do jornal The New York Times o editor descreve a mesma como “a melhor câmera de bolso já produzida”. Se é exagero ou não, não posso opinar, até por que não conheço muitas outras câmeras e também não quero entrar na discussão “essa é melhor do que aquela”, pois não é o objetivo aqui.  De qualquer forma, fica registrado o fato.

Estou apenas nas minhas primeiras experiências com a Sony RX-100, mas até o momento, ainda descobrindo muito de seus recursos, posso afirmar que estou muito impressionado com a qualidade do produto em si e do resultado de suas fotos, além de muito feliz pela escolha certa que fiz.

Liga das Florestas

Como membro colaborador do Greenpeace gostaria de convidá-lo a participar da campanha contra o desmatamento de nossas florestas. Seja um membro da Liga das Florestas, assinando uma petição pelo projeto de lei de iniciativa popular pelo FIM DO DESMATAMENTO NO BRASIL.

Vamos participar, como cidadão brasileiro, exigindo do nosso Congresso Nacional a resposabilidade por evitar que nossas florestas sejam desmatadas mais ainda do que tem ocorrido ao longo dos últimos anos.

Eu já assinei a petição. Mais de 1 milhão e 400 mil pessoas já assinaram a petição. Faça isso você também!  Clique no banner do Greenpeace ao lado e participe.

As TVs modernas e os truques dos fabricantes para atrair os consumidores

Nos últimos anos temos sido favorecidos com inúmeras ofertas de TVs com os mais variados recursos tecnológicos que, por vezes, deixa-nos mais confusos na hora da escolha.

Um dos aspectos mais levados em consideração, hoje em dia, é o chamado recurso motion resolution, que indica, teoricamente, a capacidade da TV em evitar o efeito ou sensação humana (variada de pessoa para pessoa) de que a imagem não apresenta uma boa definição na transição dos quadros que a compõe.

Sabemos que, por padrão, os sinais de TV são transmitidos numa taxa de 30 quadros por segundo, ou seja, uma sequência de imagens estáticas que são alteradas 30 vezes por segundo, dando a sensação de movimento. Sabemos, também, que as TVs padrão operam numa taxa de atualização de tela na ordem de 60 vezes por segundo (são os conhecidos 60 Hz). Desta forma as TVs repetem cada quadro recebido para atingir o total de 60 quadros por segundo.

O problema com as TVs modernas (LCD e Plasma) é que alguns usuários (não todos, pois depende da sensibilidade visual de cada pessoa) podem perceber uma espécie de “mancha na imagem” durante a transição dos quadros, principalmente em cenas de movimentos rápidos.

Para reduzir esse efeito, os fabricantes de TVs LCD passaram a usar o recurso de “criação de um quadro extra” entre os quadros recebidos para diminuir o tempo de transição da imagem, favorecendo um melhor conforto visual àqueles usuários com visão mais apurada. Desta forma, uma taxa que antes era 60 Hz passa a ser 120 Hz.

É este recurso, portanto, que diferencia as TVs de LCD atualmente, sendo anunciado pelos fabricantes que quanto maior a taxa de atualização (medida em Hz), melhor a qualidade da imagem. A disponibilidade deste recurso impacta, também, no preço final do produto.

Acontece, no entanto, que a simples apresentação do número 120 Hz (ou mesmo 240 Hz, 480 Hz ou 600 Hz) não indica que o fabricante da TV utiliza uma escala padronizada e universal, pelo contrário, fabricantes distintos utilizam processos distintos para tentar atingir o objetivo de melhorar a imagem ao usuário final.

É neste sentido que começa o marketing de cada empresa, tentando vender a ideia aos usuários de que quanto maior a taxa de atualização da sua TV melhor será a qualidade da imagem final obtida. Mas nem sempre é isto que acontece.

Uma das formas de reduzir a indefinição da imagem é a chamada MEMC (Motion Estimation-Motion Compensation), ou seja, utilização do recurso de interpolação de uso, criando um quadro extra entre cada um dos quadros originais. Este quadro é criado através de um algoritmo próprio definido pelos laboratórios das empresas fabricantes e funciona, na prática, como uma espécie de melhor palpite do processador utilizado pela TV para definir o que deve existir entre um quadro original e outro, baseado no quadro anterior e posterior.

Desta forma, nas TVs de 240 Hz, por exemplo, para cada quadro verdadeiro existem três quadros interpolados. Fabricantes como a Sony e a Samsung utilizam-se do MEMC, tanto nos modelos 120 Hz como 240 Hz.

Outros fabricantes, como a LG, Toshiba e Vizio, usam a tecnologia chamada Scanning Backlight. Esta tecnologia, em vez de uma segunda interpolação, usa o MEMC uma vez para atingir os 120 Hz e, a partir daí, uma combinação com uma luz que pisca muito rapidamente para “simular” uma taxa de atualização de 240 Hz.

Começam aí os cuidados do consumidor ao adquirir um produto levando em conta este aspecto da tecnologia. Neste sentido a Toshiba está tendo o cuidado em anunciar seus produtos ao destacar “Efeito 240 Hz”, para descrever seu método de varredura, baseado em Scanning Backlight.

Analistas do assunto ainda não afirmam que uma forma ou outra seja a melhor, pois tudo é relativo e depende muito da capacidade de cada usuário. Testes com vários usuários confirmaram que a partir de 120 Hz é praticamente imperceptível a diferença entre a qualidade das imagens, mas sempre pode haver aquele usuário mais com sensibilidade visual mais forte a ponto de realmente detectar diferenças entre taxas de varredura de 120 Hz para 240 Hz ou superiores. Já são uma minoria aqueles que percebem diferenças entre 60 Hz e 120 Hz, segundo análises efetuadas.

Segundo alguns analistas, em vez de os fabricantes tentarem vender seus produtos baseados nos números 120 Hz, 240 Hz ou até mesmo 600 Hz, deveriam informar para seus usuários a distância entres os pixels das telas das TV (pixel pitch), como uma medida de quão boa será a imagem de suas TVs.

Removendo os anúncios do Messenger

Uma das coisas chatas a que somos impostos pelos serviços gratuitos da Internet são os anúncios comerciais.  Tudo bem, são necessários para as empresas, pois patrocinam um serviço para os usuários, mas poderiam ser mais discretos.  No caso do Windows Live Messenger eles se tornam um tanto invasivos demais para a grande maioria dos usuários.

Aproveitando o descanso do Carnaval e pesquisando na Internet por assuntos relacionados a informática e tecnologia em geral, descobri que descobriram um jeito fácil de impedir a veiculação de anúncios nesses dois importantes serviços da Internet.

O mais legal é que não é necessário a instalação de nenhum aplicativo ou patch para ocultar a apresentação dos indesejáveis anúncios.  Já implementei aqui no meu PC e funcionou beleza.

Então, vamos aos procedimentos – que são muitos simples por sinal:

1) Abra o navegador Internet Explorer – no meu caso estou usando a versão mais atual 8.0, a qual recomendo a todos os usuários.

2) No menu, clique na opção “Ferramentas” e em seguida “Opções da Internet”.

3) No diálogo que abrir, clique na guia “Segurança”.

4) Na sequencia, escolha a zona correspondente a configuração de segurança, no caso “Sites restritos”.

5) Clique no botão “Sites”, que fica logo abaixo do ícone de “Sites restritos”.

6) Na janela que abrir, na caixa de texto onde tem “Adicionar este site à zona:” digite o seguinte endereço: http://rad.msn.com e clique no botão “Adicionar” e em seguida clique no botão “Fechar”.

7) Voltando ao diálogo de “Opções da Internet” clique no botão “Ok” e feche o navegador.

Pronto! Da próxima vez que acessar o Windows Live Messenger já não verá os anúncios publicitários.

O Windows 7 está chegando, mas já convenceu

Semana passada tive a oportunidade de assistir a uma apresentação de pré-lançamento do novo Sistema Operacional da Microsoft, que substituirá, a partir de 22 de outubro próximo, o Windows Vista.  Trata-se do Windows 7.

A apresentação foi baseada no build (compilação) 7100 (já existem versões posteriores) da versão RC (Release Candidate).

Para quem não sabe, a versão RC é uma versão de distribuição gratuita, temporária, que já se encontra em estágio bastante avançado de desenvolvimento.  É distribuída para uso por pessoas que desejam testar o produto antes do lançamento comercial.  E foi isto que eu fiz.

Instalei o Windows 7 RC build 7100 em meu desktop de casa (AMD X2 4200, com 4 GB de RAM) em substituição ao Windows Vista Business que usava até então.  A versão que utilizei foi 64 bits, pois com 4 GB de RAM somente esta versão pode fazer uso pleno da memória.

A impressão foi a melhor possível.

O tempo de instalação foi muito bom.  Exatos 23 minutos, com poucas intervenções durante o processo.

Ao terminar o processo e reiniciar a máquina para o primeiro acesso, configurei mais alguns parâmetros, entre os quais o nome do usuário e senha de acesso e pronto. 

Surpreendeu-me positivamente a configuração da rede e acesso à Internet.  Apenas perguntou-me se a minha rede era residencial, corporativa ou pública.  Ao responder: residencial, toda configuração foi feita automaticamente em segundos e quando menos espero o Windows já estava usando minha conexão com a Internet e já baixando as atualizações disponíveis para o Windows.  Tudo de maneira transparente, sem qualquer problema.

Outro fator que destaco: o Windows 7 é mesmo mais “leve” o Windows Vista e o XP.  Com um gerenciamento de memória superior, tudo parece rodar mais rápido, dando-me a impressão, até o momento, que não precisarei mais efetuar um upgrade em minha máquina atual.

Você pode até pensar: “também… com 4 GB de RAM…”. Mas lembre-se: com esta mesma máquina eu já rodei o Windows XP Professional SP3 e Windows Vista Business e afirmo: o Windows 7 bate os dois em termos de performance.

O gerenciamento da memória é bastante superior.  Agora uma, duas ou dez janelas abertas ao mesmo tempo não vai aumentar exponencialmente o gasto da memória RAM, como ocorria com o XP e Vista.

Com o Windows 7 pude realmente compreender o comercial feito pela Microsoft que o Internet Explorer 8 é mais rápido.  Realmente é verdade.  No Windows 7 o Internet Explorer mostra, realmente, toda a sua capacidade.

As novidades que dão praticidade ao usuário são muitas: barra de tarefas com botões maiores e fixos, menos ícones na área do reloginho, novo atalho para exibição da área de trabalho (apenas ao passar do ponteiro do mouse), dimensionamento em meia tela das janelas ao arrastá-las para as laterais esquerda ou direita, maximização ao arrastá-la para borda superior, entre vários outros recursos que dão, realmente, uma melhor usabilidade e facilidade de uso ao usuário.

O Windows Media Player sofreu pequenos ajustes visuais e um grande aumento de desempenho na carga de arquivos de áudio.

A compatibilidade com dispositivos antigos foi bastante melhorada e o modo de compatibilidade retroativa permite-nos indicar como queremos que o aplicativo pense o Sistema Operacional: Windows XP e Windows Vista estão entre as opções.

Todos os aplicativos que são executados no Windows Vista e seus drivers deverão funcionar perfeitamente no Windows 7 e, quando não for possível o modo de compatibilidade poderá ser usado.

O UAC (Controle de Contas do Usuário) ficou menos invasivo sem perder a sua função: avisar e proteger o acesso a partes críticas do Sistema Operacional sem o conhecimento do usuário.

Em suma, o Sistema Operacional Windows 7 promete.  Este é apenas o build 7100, muito ainda será melhorado até o lançamento.

Uma coisa é certa: eu não volto mais para o Windows Vista ou Windows XP.  O Windows 7 já tem lugar garantido no meu desktop.