O Preço Energético da Inteligência Artificial: Uma reflexão pessoal

Hoje, enquanto assistia ao nascer do sol da minha varanda e refletia sobre a quantidade absurda de energia que nossa estrela – o Sol – nos entrega a todo instante, não pude deixar de pensar o quanto nossa civilização – totalmente dependente da tecnologia – ainda luta para suprir uma demanda cada vez mais crescente por energia.

Em tempos de expansão e crescimento do uso da Inteligência Artificial (IA), o consumo cada vez maior de energia torna-se um desafio para as big techs, com grande impacto no aquecimento global.

Sim, o consumo de energia elétrica está crescendo no mundo todo. A previsão de crescimento para 2024 é de 3,3% – em 2023 o crescimento foi de 2% – segundo relatório do Mercado de Eletricidade da IEA (Agência Internacional de Energia). Mesmo com um crescimento líquido de aproximadamente 84% do uso de fontes renováveis – como hidrelétrica, solar, eólica e biomassa – em 2023, essas fontes representavam apenas cerca de 14% da matriz energética mundial. Você já parou para pensar no quanto a IA consome de energia?

A IA utiliza complexos algoritmos de aprendizado de máquina, especialmente aqueles de aprendizado profundo (deep learning), que exigem uma quantidade significativa de poder computacional. Para treinar modelos de aprendizado de máquina, é necessário processar grandes volumes de dados, envolvendo operações matemáticas complexas e repetitivas que demandam muito poder de processamento e, consequentemente, muita energia, por longos períodos. O treinamento de modelos complexos pode levar dias ou até semanas, durante os quais os recursos computacionais são utilizados continuamente.

A demanda por poder computacional é crescente e, por vezes, somente as CPUs das máquinas, por mais potentes que sejam, não são suficientes, exigindo a coparticipação das GPUs (unidades de processamento gráfico), que são mais eficientes para esse tipo de tarefa do que as CPUs tradicionais, porém consomem muita energia. E não se trata apenas do alto consumo de energia pelos computadores. A infraestrutura de data centers que hospedam os recursos computacionais precisa de sistemas de resfriamento e manutenção que contribuem para o consumo de energia associado ao uso da IA.

O alto consumo de energia pelo treinamento e uso de IA contribui para as emissões de carbono, especialmente se a energia utilizada provém de fontes não renováveis. Isso agrava o problema do aquecimento global, tornando-se um desafio prioritário para as big techs a busca por eficiência energética e a transição para fontes renováveis de energia.

Imagem gerada por IA

Então, como as big techs estão enfrentando esse problema?

Além de utilizar-se de parques eólicos e usinas solares, um acordo anunciado entre o proprietário da usina nuclear de Three Mile Island e a Microsoft permitirá a reabertura da usina para geração de energia que será comprada integralmente pela Microsoft pelos próximos 20 anos. O acordo da Microsoft para ajudar a reativar a usina nuclear de Three Mile Island está diretamente relacionado à necessidade crescente de energia para seus data centers, especialmente devido à expansão da IA. A Microsoft tem um compromisso de se tornar carbono-negativa até 2030. Utilizar energia nuclear, que é uma fonte de energia livre de carbono, ajuda a empresa a atingir esse objetivo.

Por sua vez, o Google tem investido significativamente em energia renovável, tendo anunciado em 2020 a compra de energia renovável suficiente para cobrir 100% de seu consumo anual de eletricidade. Curiosamente, também tem usado a própria IA para otimizar o consumo de energia em seus data centers. Os algoritmos de IA ajudam a prever e gerenciar a demanda de energia, melhorando a eficiência operacional. Apesar dos esforços, no entanto, a demanda crescente por IA tem levado a um aumento significativo no consumo de energia e, consequentemente, nas emissões de carbono.

A Amazon está adotando várias estratégias para suprir a crescente demanda de energia para suas operações de IA, prevendo investir quase 150 bilhões de dólares nos próximos 15 anos para expandir seus data centers, visando atender à explosão de demanda por aplicações de IA e outros serviços digitais. A AWS (Amazon Web Services) está comprometida em alcançar zero emissão líquida de carbono até 2040 e, para isso, está em fase de transição de sua infraestrutura para usar 100% energia renovável. Mesmo usando a própria IA para otimizar o consumo de energia em seus data centers, a demanda crescente por IA continua a representar desafios significativos com o aumento crescente de energia elétrica e, consequentemente, com o impacto ambiental.

Apesar dos investimentos em energia renovável e das iniciativas para otimizar o consumo, a demanda crescente por IA e serviços em nuvem continua a pressionar as empresas de tecnologia a buscar soluções mais sustentáveis. A questão é: até que ponto as empresas conseguem acompanhar esse ritmo acelerado de crescimento, sem comprometer seus objetivos de sustentabilidade?

E nós, como usuários finais, qual o nosso papel nessa equação?

Como usuários, podemos contribuir informando-nos sobre o impacto ambiental das tecnologias que utilizamos e compartilhando esse conhecimento com outros. A conscientização é o primeiro passo para a mudança.

Ao escolhermos produtos e serviços que priorizam a sustentabilidade, estamos incentivando as empresas a investirem em soluções mais limpas e eficientes. Ao mesmo tempo, é fundamental que as grandes empresas de tecnologia assumam um papel de liderança, investindo em pesquisa e desenvolvimento de tecnologias que minimizem o impacto ambiental da IA.

A energia nuclear, embora seja uma fonte de energia livre de carbono, apresenta desafios em termos de segurança e gestão de resíduos. É preciso buscar soluções inovadoras que combinem a eficiência da energia nuclear com a segurança e a sustentabilidade das fontes renováveis.

Voltando à minha reflexão inicial, acredito que o ideal seria que, em um futuro próximo, atingíssemos a classificação de Tipo I na Escala de Kardashev. Embora isso possa parecer utópico no momento, será um marco evolutivo significativo para nossa civilização quando ocorrer.

Atualização de software interestelar: a incrível missão da NASA com as Voyagers

Como desenvolvedor sei bem como é aplicar um patch num software em produção. Nesse tipo de situação temos que agir para detectar, corrigir e implementar a atualização o quanto antes e com o menor impacto possível aos usuários. No meu caso, a disponibilização de um patch é extremamente simples e rápida – na casa dos segundos – uma vez que a distância entre mim e o computador servidor é cerca de 6 km apenas.

Dito isso, você imagina como seria atualizar um software em um computador localizado a mais de 24 bilhões de km da Terra? Isso é mais de 160 vezes a distância entre a Terra e o Sol!

Representação da sonda Voyager no espaço profundo com o Sol ao fundo, distante mais de 24 bilhões de quilômetros.

Essa é a missão na qual uma equipe de engenheiros de software da missão Voyager da NASA está trabalhando. Os esforços é para ajudar a estender a vida útil de nossos exploradores interestelares – as espaçonaves Voyager – e garantir que ambos continuem a explorar o espaço interestelar nos próximos anos.

A equipe da NASA está carregando um patch de software para evitar a recorrência de uma falha que surgiu na Voyager 1. Essa atualização tem como objetivo evitar que o problema ocorra novamente na Voyager 1 ou surja em sua gêmea, a Voyager 2.

Em 2022, a Voyager 1 começou a enviar relatórios de status distorcidos, apesar de continuar operando normalmente. Os engenheiros da missão levaram meses para identificar o problema, que fazia com que o sistema de articulação e controle de atitudes da nave direcionasse comandos incorretamente, escrevendo-os na memória do computador em vez de executá-los. Um desses comandos perdidos acabou distorcendo o relatório de status do sistema antes que ele pudesse chegar aos engenheiros, aqui na Terra.

Aspecto do Centro de Controle das Missões Voyagers na NASA em 1977.

A equipe determinou que o sistema havia entrado em um modo operacional incorreto; no entanto, eles não conseguiram determinar a causa e, portanto, não têm certeza se o problema pode surgir novamente. O patch do software deve impedir isso.

“Este patch é como uma apólice de seguro que nos protegerá no futuro e nos ajudará a manter essas sondas funcionando o maior tempo possível. Essas são as únicas espaçonaves a operar no espaço interestelar, então os dados que eles estão enviando de volta são excepcionalmente valiosos para nossa compreensão de nosso universo local.”

Suzanne Dodd, gerente de projeto da Voyager do JPL

Pelas distâncias, as instruções do patch levarão mais de 18 horas para viajar até as espaçonaves. Por causa da idade das espaçonaves e do tempo de atraso de comunicação, há algum risco de que o patch possa substituir o código essencial ou ter outros efeitos não intencionais. Para evitar riscos, os engenheiros de software da NASA passaram meses escrevendo, revisando e verificando o código. Como precaução de segurança adicional, a Voyager 2 receberá o patch primeiro e servirá como um banco de testes para sua irmã gêmea. A Voyager 1 está mais longe da Terra do que qualquer outra espaçonave já construída pela humanidade, tornando seus dados mais valiosos.

O upload do patch, realizado em outubro de 2023, será seguido de uma leitura da memória do sistema para garantir que ele esteja no lugar certo. Se nenhum problema imediato surgir, a equipe emitirá um comando para ver se o patch está funcionando como deveria.

Aspecto atual do Centro de Controle de Missões da NASA.

É verdadeiramente impressionante pensar que a NASA é capaz de transmitir dados entre a Terra e as sondas Voyager a uma taxa de apenas 160 bits por segundo, sendo que seus computadores possuem 50 anos de idade e se afastam de nós a incríveis 16 km/s em média!

Para mim, isso é um testemunho do incrível avanço da tecnologia e da engenhosidade humana, uma vez que, mesmo a uma distância tão grande, somos capazes de manter uma linha de comunicação e continuar a aprender mais sobre o nosso universo. É um feito notável que continua a inspirar minha admiração e respeito pela exploração espacial. E você, o que acha disso?

Fonte: NASA

A Evolução da IA: Do Generativo ao Interativo

Esta semana, lendo um artigo na revista MIT Technology Review sobre inteligência artificial, uma afirmação de Mustafa Suleyman, pesquisador e empresário britânico do ramo de inteligência artificial e cofundador da DeepMind, chamou minha atenção para a escrita deste post. No artigo, ele afirma que:

Podemos entender a Inteligência Artificial (IA) como um cérebro digital que pode aprender, raciocinar e resolver problemas. Ela é capaz de absorver informações, entender contextos e tomar decisões com base nesse entendimento. Ela pode variar desde sistemas simples que seguem regras pré-definidas até sistemas complexos que podem aprender e evoluir com o tempo. Ou seja, a IA é uma forma de imitar a inteligência humana em máquinas para criar sistemas que possam pensar, aprender e se adaptar.

Dentro da IA, existem diferentes tipos de abordagens, métodos e técnicas que podem ser classificados de acordo com o objetivo, o domínio ou o grau de interação com os seres humanos.

Neste artigo, tentarei explicar dois conceitos importantes e emergentes na IA: a IA Generativa (GenIA, de Generative Artificial Intelligence) e a IA Interativa (IAI, de Interactive Artificial Intelligence), referenciadas no artigo da MIT Technology Review e que muitos já estão usando no dia a dia, mesmo sem ter noção de suas diferenças e implicações.

A GenIA é um ramo da IA que se dedica a produzir conteúdo novo e original a partir de dados existentes, como imagens, textos, músicas, vídeos etc. A ideia é que a máquina seja capaz de imitar, combinar ou modificar os dados de entrada para gerar algo novo e criativo, sem a intervenção direta do humano. Por exemplo, uma GenIA pode criar uma pintura a partir de um estilo artístico, uma música a partir de um gênero musical ou um texto a partir de um tema ou palavra-chave.

A IAI, por sua vez, dedica-se a criar sistemas que interagem com os seres humanos de forma natural, adaptativa e colaborativa, como assistentes virtuais, chatbots, jogos, robôs etc. A ideia é que a máquina seja capaz de entender, responder e aprender com os humanos, através de diferentes canais de comunicação, como voz, texto, gestos, expressões faciais etc. Por exemplo, uma IAI pode conversar com um usuário sobre um assunto específico, ajudar um aluno a resolver um problema ou cooperar com um ser humano em uma tarefa.

As diferenças entre a GenIA e a IAI podem ser resumidas nos seguintes aspectos:

Quanto ao objetivo, a GenIA visa criar conteúdo novo e original, enquanto a IAI visa interagir com os humanos de forma natural e eficiente.

Em relação ao domínio, a GenIA pode ser aplicada em qualquer domínio que envolva dados estruturados ou não estruturados, como arte, música, literatura etc., enquanto a IAI pode ser aplicada em qualquer domínio que envolva comunicação ou colaboração entre humanos e máquinas, como educação, saúde, entretenimento etc.

No aspecto do grau de interação, a GenIA é mais autônoma e independente do humano, enquanto a IAI é mais dependente e adaptável ao humano.

As aplicações e implicações da GenIA e da IAI são diversas e variadas. Ambas podem trazer benefícios e desafios para a sociedade, a economia e a cultura. Algumas das aplicações e implicações mais relevantes são:

E como a IA do Bing se classifica?

A IA do Bing se classifica como uma IAI, mas que também possui capacidades de uma GenIA. Isso porque, além de gerar conteúdo (como respostas a perguntas, histórias, poemas e muito mais), ela também pode interagir com o ambiente e realizar tarefas específicas. Por exemplo, com o Copilot com Bing Chat a IA pode ajudar a gerenciar configurações do sistema operacional Windows, realizar pesquisas na web para obter informações atualizadas e até mesmo criar arte gráfica. Portanto, a funcionalidade da IA do Bing vai além da geração de conteúdo, o que a classifica como uma IA interativa.

Exemplo de IA interativa: Windows Copilot, disponível no Windows 11 desde outubro de 2023.

Nem tudo são flores no reino das IA

Usar IA, seja generativa ou interativa, exige prudência e responsabilidade. Isso é especialmente verdadeiro para aquelas pessoas sem maiores conhecimentos sobre o assunto. Como a própria definição de IA destaca, ela está em constante ‘aprendizado’ a partir da interação humana. No entanto, nem todos os humanos a usam com o mais nobre dos propósitos. É daí que vêm os perigos.

Quando mal utilizada, a GenIA pode gerar conteúdo falso ou enganoso que pode afetar a veracidade, a autoria e a propriedade intelectual dos dados. Por exemplo, uma GenIA pode criar imagens falsas de pessoas ou eventos que nunca existiram ou aconteceram (deepfakes), textos falsos que imitam o estilo ou o conteúdo de outras fontes (plágio) ou músicas falsas que violam os direitos autorais de outros artistas (pirataria).

Já a IAI, utilizada de forma inadequada, pode gerar comportamentos indesejados ou prejudiciais que podem afetar a confiança, a privacidade e a segurança dos humanos. Por exemplo, uma IAI pode manipular os humanos para obter informações pessoais ou financeiras (phishing), violar as normas sociais ou éticas de interação (ofensa) ou causar danos físicos ou psicológicos aos humanos (agressão).

A educação consciente e uma participação ativa dos diferentes atores envolvidos na criação e no uso da IA, como pesquisadores, desenvolvedores, usuários, governos, empresas, organizações e sociedade civil deve ser considerado, pois a previsão é de um crescimento explosivo na adoção da IA pelas organizações nos próximos anos.

O excesso de megapixels das câmeras digitais e a qualidade da imagem nas fotos

Participando de um fórum técnico de câmeras fotográficas digitais pude ajudar a um dos membros sobre uma dúvida que, acredito, atinge a grande maioria dos que gostam de fotografia digital amadora mas não possuem informações ou conhecimento técnico suficiente para fazer a escolha correta na hora da compra.

O questionamento feito por um dos membros é algo bastante comum em fóruns técnicos, porém sem aprofundamento, o que gera mais dúvida do que esclarecimento: o excesso de megapixels pode comprometer a qualidade das fotos de uma câmera digital?

Em minha resposta à questão procurei mostrar que em tecnologia não podemos, em afirmações curtas e sem algumas explicações técnicas – mesmo que de forma superficial – dar uma resposta direta: sim ou não. Mas também a coisa não é tão complicada de se entender. Então, vamos lá.

A afirmação genérica de que o “excesso de megapixels” compromete a qualidade das fotos é algo que devemos analisar com bastante cuidado.

Não é a quantidade maior de megapixels que degrada uma imagem digital. Parece até contrasenso, pois sabemos que a alta definição de imagem é representada por uma quantidade maior de pixels. Temos como exemplo nossas TVs. A TV HD Ready tem, em média, 1280 x 720 pixels. Já a TV Full HD tem, no mínimo, 1920 x 1080 pixels. Ou seja, mais pixels, melhor resolução. Isso é fato.

O que se tem falado de degradação de imagem em câmeras fotográficas digitais vem do fato de que, comercialmente, a ideia que é vendida é quanto mais megapixels tem uma câmera, melhor será em relação a sua concorrente com um número menor de megapixels. É nessa afirmação, pura e simples, que está o engano. Engano em parte, pois tudo é relativo, como afirmava o gênio Albert Einstein.

O que quero dizer é que a qualidade da foto numa câmera digital não pode – e nem deve – ser atribuída apenas à sua quantidade de megapixels. Aliás, esse não deve nunca ser o requisito número 1 na escolha de uma boa câmera fotográfica digital. Há outros fatores mais importantes, entre os quais: as lentes, o sensor de captação da imagem e o processador da imagem. E é no quesito “sensor” que voltamos ao questionamento sobre o comprometimento da qualidade das fotos pelo excesso de megapixels.

Acontece que, de uns anos pra cá, a popularização das câmeras compactas digitais fez com que os preços baixassem e, com isso, a necessidade de componentes de fabricação mais baratos, entre os quais o sensor. Isso acontece com os computadores, notebooks, netbooks, tablets e smartphones, ou seja, os mais baratos usam processadores mais simples, menos poderosos e de menor custo.

Tem se tornado quase padrão que as compactas populares atuais utilizem um sensor Type 1/2.3″ (esse número indica parâmetros das dimensões do sensor, tais como a sua medida na horizontal e vertical, além da diagonal, ou seja, identifica o sensor pelo tamanho). É aí onde está a grande questão dos megapixels. A relação entre a quantidade exagerada de megapixels e o tamanho do sensor.

Ora, é lógico imaginar que um sensor com 7,7 mm de diagonal e com, digamos, 10 megapixels de capacidade de resolução tenha uma condição de “melhor acomodar 10 milhões de pixels” do que o mesmo sensor com 20 milhões de pixels. Entendeu? É isso que nos referimos a “excesso de megapixel comprometer a imagem”. Não são os megapixels em si. Não é o tamanho do sensor é si. É a relação entre a quantidade de megapixels oferecida pela câmera e o tamanho do sensor utilizado, ou seja, comercialmente vendem o número de megapixels e internamente, sem quase fazer referência alguma, utilizam um sensor com tamanho não adequado para aquela quantidade de megapixels. Pixels muito próximos um do outro acabam por deixar “vazar” iluminação para os vizinhos, degradando a qualidade final da imagem, que perde definição.

Mas, como disse antes, tudo é relativo. Câmeras de marcas de renome, como a Sony, por exemplo, possuem “tecnologia” suficiente para tentar “melhorar” a relação megapixel/tamanho do sensor e com isso obter fotos incrivelmente boas.

O sensor desenvolvido pela Sony e utilizado nas câmeras mais atuais – Sensor CMOS Exmor R – possui uma capacidade incrível de captação de luz, mesmo em ambientes pouco iluminados, além de garantir uma menor interferência de iluminação entre pixels vizinhos, permitindo um número maior de megapixels no sensor.

Minha câmera anterior – que ainda possuo, agora como reserva – é uma Sony P-200, de 7.2 megapixels e um sensor Type 1/1.8″ (repare que é uma câmera mais antiga, de 2005, e mesmo assim possui um sensor maior que as atuais compactas que usam sensor Type 1/2.3″ e com bem mais megapixels. É essa relação que devemos analisar.

Com a minha “antiga” Sony P-200 tenho feito fotos melhores do que algumas compactas mais atuais de 14 ou 16 megapixels, mas que usam um sensor menor e lentes inferiores a Carl Zeiss.  Essa foi a razão que ainda não havia me permitido mudar da minha Sony P-200 com 7 megapixels, sensor Type 1/1.8″ e lentes Carl Zeiss F2.8 para esses modelos mais atuais da faixa mais popular que tem milhões de pixels, mas um sensor menor e lentes não Carl Zeiss.

É bem verdade que a minha antiga Sony P-200 ainda não usa o atual sensor CMOS Exmor R e, por isso sua capacidade para fotos noturnas sem flash ou sem uso do tripé fica comprometida, pois também não possui o recurso Steady Shot que evita imagens tremidas com o mínimo de movimento, mas era outro tempo e a tecnologia avançou muito desde então. Nestas situações, contornava o problema com o uso do tripé ou fixando bem a câmera na hora de bater a foto com uma maior exposição ou em ambientes de pouca luz.

Atualmente minha câmera principal é a nova (recém lançada nos Estados Unidos) Sony RX-100 com 20 megapixels, mas que não se constitui em problema algum, pois o seu sensor Type 1″ é bem maior que os sensores Type 1/2.3″, 1/1.8″ e até mesmo o sensor Type 2/3″ das câmeras compactas atuais. Aliado a isso o poderoso Exmor CMOS Sensor e suas espetaculares lentes Carl Zeiss Vario-Sonnar T* F1.8 garantem imagens de excepcional qualidade.

Estou apenas começando a “dominar” os recursos da câmera, mas na brincadeira já fiz fotos que me deixaram impressionado em relação as fotos de outras câmeras, não deixando nada desejar, inclusive, as fotos de câmeras da linha semi-profissional da própria Sony.

Antes do lançamento dessa câmera, em julho/2012, estava direcionado a adquirir uma Sony da linha NEX. Quando vi as especificações da Sony RX-100 decidi-me na hora por sua aquisição, pois a mesma possuía 3 aspectos importantes para a minha escolha que há muito procurava numa câmera digital:

1) Tamanho compacto, praticamente o mesmo tamanho da minha câmera anterior, a Sony P-200, mas com imagens com qualidade profissional. As câmeras da série NEX são bem maiores, devido as lentes intercambiáveis, e consequentemente mais pesadas.

2) Sensor maior e com alta sensibilidade para ambientes com pouca luz. Acredite! até agora não precisei usar o flash mesmo em fotos noturnas.

3) Lentes Carl Zeiss. Isso é fator essencial para mim, devido a experiência com a minha P-200 que usa Carl Zeiss F2.8, em relação a F1.8 da RX-100 (quanto menor o número F mais clara é a lente). As experiências que tive com câmeras com sensor Type 1/2.3″, muitos megapixels e lentes Sony G F3.5 não foram satisfatórias para mim.

Bom, com esse post espero ter podido esclarecer um pouco a questão dos megapixels nas câmeras digitais de forma a lhe permitir tomar uma boa decisão na hora de adquirir sua próxima câmera.

Na oportunidade procurei também falar um pouco da Sony RX-100, minha atual câmera, colocando-a no contexto da explicação como parâmetro da análise em função da Sony P-200 e câmeras compactas em geral.

Ainda a respeito da Sony RX-100, li vem vários reviews que a mesma pode até mesmo ser utilizada como uma câmera reserva compacta para os profissionais da fotografia e num artigo de uma coluna técnica do jornal The New York Times o editor descreve a mesma como “a melhor câmera de bolso já produzida”. Se é exagero ou não, não posso opinar, até por que não conheço muitas outras câmeras e também não quero entrar na discussão “essa é melhor do que aquela”, pois não é o objetivo aqui.  De qualquer forma, fica registrado o fato.

Estou apenas nas minhas primeiras experiências com a Sony RX-100, mas até o momento, ainda descobrindo muito de seus recursos, posso afirmar que estou muito impressionado com a qualidade do produto em si e do resultado de suas fotos, além de muito feliz pela escolha certa que fiz.

As TVs modernas e os truques dos fabricantes para atrair os consumidores

Nos últimos anos temos sido favorecidos com inúmeras ofertas de TVs com os mais variados recursos tecnológicos que, por vezes, deixa-nos mais confusos na hora da escolha.

Um dos aspectos mais levados em consideração, hoje em dia, é o chamado recurso motion resolution, que indica, teoricamente, a capacidade da TV em evitar o efeito ou sensação humana (variada de pessoa para pessoa) de que a imagem não apresenta uma boa definição na transição dos quadros que a compõe.

Sabemos que, por padrão, os sinais de TV são transmitidos numa taxa de 30 quadros por segundo, ou seja, uma sequência de imagens estáticas que são alteradas 30 vezes por segundo, dando a sensação de movimento. Sabemos, também, que as TVs padrão operam numa taxa de atualização de tela na ordem de 60 vezes por segundo (são os conhecidos 60 Hz). Desta forma as TVs repetem cada quadro recebido para atingir o total de 60 quadros por segundo.

O problema com as TVs modernas (LCD e Plasma) é que alguns usuários (não todos, pois depende da sensibilidade visual de cada pessoa) podem perceber uma espécie de “mancha na imagem” durante a transição dos quadros, principalmente em cenas de movimentos rápidos.

Para reduzir esse efeito, os fabricantes de TVs LCD passaram a usar o recurso de “criação de um quadro extra” entre os quadros recebidos para diminuir o tempo de transição da imagem, favorecendo um melhor conforto visual àqueles usuários com visão mais apurada. Desta forma, uma taxa que antes era 60 Hz passa a ser 120 Hz.

É este recurso, portanto, que diferencia as TVs de LCD atualmente, sendo anunciado pelos fabricantes que quanto maior a taxa de atualização (medida em Hz), melhor a qualidade da imagem. A disponibilidade deste recurso impacta, também, no preço final do produto.

Acontece, no entanto, que a simples apresentação do número 120 Hz (ou mesmo 240 Hz, 480 Hz ou 600 Hz) não indica que o fabricante da TV utiliza uma escala padronizada e universal, pelo contrário, fabricantes distintos utilizam processos distintos para tentar atingir o objetivo de melhorar a imagem ao usuário final.

É neste sentido que começa o marketing de cada empresa, tentando vender a ideia aos usuários de que quanto maior a taxa de atualização da sua TV melhor será a qualidade da imagem final obtida. Mas nem sempre é isto que acontece.

Uma das formas de reduzir a indefinição da imagem é a chamada MEMC (Motion Estimation-Motion Compensation), ou seja, utilização do recurso de interpolação de uso, criando um quadro extra entre cada um dos quadros originais. Este quadro é criado através de um algoritmo próprio definido pelos laboratórios das empresas fabricantes e funciona, na prática, como uma espécie de melhor palpite do processador utilizado pela TV para definir o que deve existir entre um quadro original e outro, baseado no quadro anterior e posterior.

Desta forma, nas TVs de 240 Hz, por exemplo, para cada quadro verdadeiro existem três quadros interpolados. Fabricantes como a Sony e a Samsung utilizam-se do MEMC, tanto nos modelos 120 Hz como 240 Hz.

Outros fabricantes, como a LG, Toshiba e Vizio, usam a tecnologia chamada Scanning Backlight. Esta tecnologia, em vez de uma segunda interpolação, usa o MEMC uma vez para atingir os 120 Hz e, a partir daí, uma combinação com uma luz que pisca muito rapidamente para “simular” uma taxa de atualização de 240 Hz.

Começam aí os cuidados do consumidor ao adquirir um produto levando em conta este aspecto da tecnologia. Neste sentido a Toshiba está tendo o cuidado em anunciar seus produtos ao destacar “Efeito 240 Hz”, para descrever seu método de varredura, baseado em Scanning Backlight.

Analistas do assunto ainda não afirmam que uma forma ou outra seja a melhor, pois tudo é relativo e depende muito da capacidade de cada usuário. Testes com vários usuários confirmaram que a partir de 120 Hz é praticamente imperceptível a diferença entre a qualidade das imagens, mas sempre pode haver aquele usuário mais com sensibilidade visual mais forte a ponto de realmente detectar diferenças entre taxas de varredura de 120 Hz para 240 Hz ou superiores. Já são uma minoria aqueles que percebem diferenças entre 60 Hz e 120 Hz, segundo análises efetuadas.

Segundo alguns analistas, em vez de os fabricantes tentarem vender seus produtos baseados nos números 120 Hz, 240 Hz ou até mesmo 600 Hz, deveriam informar para seus usuários a distância entres os pixels das telas das TV (pixel pitch), como uma medida de quão boa será a imagem de suas TVs.