Inteligência Artificial: a exterminadora de privacidade

A Internet – ainda – é um território livre, mas está cada vez mais acirrada a briga entre as gigantes do setor para “conhecer os hábitos” do internauta a ponto de invadir sua privacidade usando-se de argumentos aparentemente revolucionários e que trarão sempre vantagens para as pessoas.

O problema é que toda evolução tecnológica desenvolvida sob pretextos nobres no mundo virtual tem um propósito financeiro e de domínio do setor, sendo imposta ao usuário – sempre em conta gotas para uma melhor absorção e sem grande percepção. Mas será que realmente o objetivo é realmente nobre? Será que precisamos realmente de uma intervenção tão presente em nossas vidas, em tudo que fazemos, mesmo nas coisas mais despropositadas, como uma simples navegação pela Internet? Eu penso que não, e chego a me assustar com tamanho avanço que o ser humano atingiu no desenvolvimento da Inteligência Artificial – IA – num espaço de tempo tão curto e aplicado ao mundo virtual no qual estamos apenas engatinhando – a Internet como conhecemos tem apenas 20 e poucos anos.

Não sejamos ingênuos. Sabemos que estamos expostos desde o primeiro momento que entramos na nuvem da Internet. Desde o nosso endereço virtual – o número IP de nossos dispositivos no momento que estamos conectados, aliado ao GPS, que permite saber em que parte do planeta estamos – até aquilo que desejamos expor conscientemente através de nossas redes sociais – e também de forma inconscientes, quando nos rendemos às tentações do “saiba aqui o significado do seu nome” ou mesmo “encontre aqui a sua cara metade”, tudo o que fazemos na nuvem pode ser medido, analisado, espionado e, com certeza, armazenado – inclusive com a tecnologia atual tudo quanto é informação já pode ser totalmente armazenada, sem a necessidade de descartar nada, por mais insignificante que possa parecer a informação. É o preço que se paga para ter em troca o mundo ao toque da tela de nossos dispositivos, mas daí estarmos a mercê de robôs cada vez mais inteligentes, analisando tudo que publicamos – e até mesmo o que pensávamos em publicar e que acabamos desistindo ou mesmo imaginar o que estamos a escrever – é algo realmente intimidador, no mínimo.

Esta semana, uma das gigantes da Internet atual – o Facebook – anunciou o seu “robô” com Inteligência Artificial, chamado DeepText.

facebook-deep-text1
Figura 1 – DeepText é o novo robô com Inteligência Artificial desenvolvido pelo Facebook.

Segundo a empresa, o texto é a forma predominante de comunicação no Facebook – daí o uso cada vez maior de aplicativos de troca de mensagens como Skype, WhatsApp, Telegram, Viber, Messenger e outros –, então é importante para a companhia compreender as várias maneiras que o texto é usado nos seus produtos – rede social e o Messenger – e como isso poderá ajudar a melhorar a experiência das pessoas com seus produtos. Uma das vantagens, segundo o Facebook, seria até mesmo a eliminação de Spam na rede social.

O DeepText é um robô com IA avançada, desenvolvido para cada vez mais compreender e aprender, com base no texto digitado pelos usuários, com precisão quase humana – reparem bem: precisão quase humana – o conteúdo de milhares posts por segundo, abrangendo inicialmente mais de 20 idiomas.

A tecnologia DeepText já está sendo testada em algumas experiências de Facebook. No caso do Messenger, por exemplo, DeepText será usado para obter uma melhor compreensão de quando alguém pode querer ir a algum lugar.

Também estão começando a usar modelos de DeepText de alta precisão e multi-linguagem para ajudar as pessoas a encontrar as ferramentas certas para sua finalidade. Por exemplo, alguém poderia escrever um post que diz: “Eu gostaria de vender minha bicicleta velha por R$ 200, alguém interessado?”. DeepText seria capaz de detectar que o post é sobre a venda de algo, extrair as informações significativas, tais como o objeto que está sendo vendido e seu preço e pedir ao vendedor para usar as ferramentas existentes que facilitam essas transações através do Facebook.

O DeepText tem o potencial para melhorar ainda mais a experiência do Facebook em compreender as mensagens cada vez melhor para extrair a intenção, sentimento e entidades (por exemplo, pessoas, lugares, eventos, etc.), usando sinais contraditórios de conteúdo como texto e imagens, e automatizando a remoção de conteúdo censurável como spam.

E o projeto do Facebook não para por aí! Os próximos passos do DeepText são:

Interesse em melhor compreender as pessoas
Compreensão conjunta do conteúdo textual e visual
Novas arquiteturas de rede neural profunda

Empresas como Google, Facebook e Microsoft investem pesado em evoluir a capacidade de as máquinas pensarem.  Do outro lado, há os que veem um risco sério na evolução desenfreada da IA, que poderia colocar em risco o futuro da humanidade. O físico Stephen Hawking, por exemplo, vê sérios riscos no desenvolvimento de inteligência artificial além do patamar que temos atualmente. Segundo o cientista, formas primitivas de inteligência artificial criadas até hoje são comprovadamente úteis – ele mesmo se comunica atualmente através de um sistema baseado em IA – mas ele teme as eventuais consequências de se criar algo que possa superar o pensamento do ser humano, acreditando que isso poderá evoluir por si mesmo e se redesenhar de forma contínua e crescente, superando inclusive a lenta evolução biológica dos seres humanos, que não poderiam competir de igual pra igual e, portanto, logo seriam sobrepostos.

stephen_hawking
Figura 2 – O físico Stephen Hawking mostra-se preocupado com o avanço da Inteligência Artificial além dos moldes atuais.

A coisa é séria! O próprio Google decidiu tomar precauções, caso suas máquinas se rebelem! A DeepMind, adquirida pela companhia em 2014 e que se tornou seu braço de IA, criou medidas de segurança para que operadores humanos possam, em caso de necessidade “tomar controle de um robô que não esteja se comportando e que possa causar consequências irreversíveis”. Smiley surpreso

exterminador
Figura 3 – Ilustração baseada no filme: O Exterminador do Futuro.

Imaginar que chegamos ao ponto de a vida imitar a arte ao nível do filme “O Exterminador do Futuro” é algo, realmente, assustador não? O que você acha a respeito? Deixe sua opinião a respeito aqui no site.

Anúncios

Snowden ataca novamente: e desta vez o alvo é a Google

O sucesso do aplicativo de mensagens – que na verdade não é só de mensagens – WhatsApp acendeu o sinal de alerta na Google, que acaba de apresentar um concorrente aos produtos do Facebook (WhatsApp e Facebook Messenger) e também Telegram, demonstrando que a gigante também vacila e às vezes tem que correr atrás de outros produtos de sucesso – isso quando não consegue comprá-los. Pois bem, esse novo produto chama-se Allo, anunciado durante o evento Google I/O 2016.

Aplicativo de mensagens
Figura 1. Mensageiros digitais estão entre os aplicativos para smartphones mais utilizados na atualidade.

Usando sua velha tática de marketing, a Google apresenta um produto com “grandes diferenciais” no aspecto de inteligência artificial, com a justificativa de que o aplicativo “aprenderá mais com o uso e o passar do tempo”, e na análise de dados, para “conhecer melhor” seus usuários e oferecer sempre bons produtos e serviços. A Google gosta tanto de “inventar” pra se mostrar diferente, que até mesmo criou a expressão Expressions no aplicativo, uma espécie de solução própria para os conhecidos Emoticons e Stickers.

E o que o Snowden – o homem que revelou o escândalo global de espionagem e monitoramento mantido pela NSA (Agência de Segurança Nacional dos EUA) – tem a ver com isso?

É que o Snowden se autotransformou numa espécie de “protetor” e “defensor” dos frágeis usuários da Internet – quais serão os seus reais interesses, hein? – contra a invasão de suas privacidades, chegando ao ponto de publicar na sua conta oficial no Twitter a recomendação para que as pessoas não utilizem o novo aplicativo da Google, conforme imagem a seguir.

Post do Snowden no Twitter
Figura 2. Mensagem do Edward Snowden na sua conta do Twitter alertando contra o uso do novo aplicativo de mensagens digitais da Google devido a falta de segurança.

Como assim?!?!?

O principal motivo da recomendação do Snowden para não se usar o aplicativo é a ausência de criptografia ponta a ponta por padrão no serviço de mensagens da Google, tornando-o altamente perigoso e inseguro, devendo ser evitado. Pelo menos por enquanto.

Mas não é só o Snowden que defende que os usuários não utilizem o novo produto da Google. Especialistas em segurança alertam para o fato de as conversas e imagens trocadas pelo aplicativo serem “cuidadosamente” analisadas nos servidores da Google, com o objetivo de cada vez mais “aprender” sobre os hábitos dos usuários e, com isso, ofertar melhores produtos e serviços. Serão só estas as razões?

Na verdade, não é que o novo produto da Google não possua criptografia. Ele a possui tal qual o produto do Facebook, que utiliza o sistema Signal, da Open Whispers Systems, para proteger as conversas.

A questão alertada por Snowden e especialistas é que o aplicativo do Facebook usa criptografia de ponta a ponta em todas as comunicações, enquanto que no produto da Google o usuário deverá abrir uma janela de bate papo em modo específico, toda vez que desejar que a conversa seja criptografada. Ou seja, não é padrão no aplicativo, tornando-se mais trabalhoso para o usuário implementar no dia a dia, o que não deverá ser utilizado por muitos dos usuários, principalmente aqueles menos avisados.

A Google, como sempre, justifica o uso de dados sobre seus usuários – com a restrição da segurança e privacidade dos mesmos – com a necessidade de seus robôs lerem e interpretarem as mensagens trocadas entre os usuários para desempenhar suas funções “inteligentes”, uma vez que – com a criptografia – não seria possível realizar tal análise de conteúdo, fazendo com que o aplicativo não se tornasse interessante por não favorecer  qualquer retorno financeiro à Google, considerada a empresa mais valiosa do mundo pelo 6º ano, segundo a Forbes.

 

Na minha opinião…

Não devemos nos deixar enganar. Nem a Google e nem o Facebook são “anjinhos” que só pensam no bem estar de seus usuários. Ambas são gigantes empresariais da área de tecnologia nascidas na era da Internet, oferecendo produtos e soluções “gratuitas” aos seus usuários por um lado, mas que necessitam do retorno financeiro a partir desses produtos por outro lado. E de onde essas gigantes arrecadam esses recursos? Ora, da “venda” dos perfis de seus usuários aos seus clientes comerciais, do outro lado da nuvem. É por isso que, cada vez mais, elas precisam “conhecer melhor” seus usuários e seus hábitos. E fazem isso com maestria através de seus mais diversos algoritmos de inteligência artificial aplicado às suas soluções, sendo os aplicativos mensageiros a bola da vez.

Cabem aos usuários conhecimento, informação a respeito dos produtos e serviços utilizados e prudência quando da exposição de suas informações pessoais na grande nuvem que é a Internet.

Nem a Google, nem o Facebook – e demais empresas de tecnologia, como a Microsoft, a Apple, AOL, Yahoo, etc. – são bichos papões e nem devem ser encaradas como verdadeiros diabos do mundo digital, afinal de contas tudo é negócio: oferecem produtos gratuitos – que agradam os usuários – mas que deverão gerar recursos financeiros. Se você não paga pelo serviço de forma direta e consciente, vai pagar de forma indireta – e para muitos, também de forma inconsciente – não se iluda!

O importante não é radicalizar e parar de usar essas soluções por receio de violação de privacidade, mas sim usa-las com propósito e prudência, sabendo das vantagens e consequências, pois como qualquer negócio em que nos metemos, temos que analisar relação custo x benefício. Esta é a regra básica para viver de maneira consciente no mundo virtual.

Como parte do boicote da Google, seus produtos oficiais não são ofertados para a plataforma Windows Phone da Microsoft, o que pode frustrar alguns usuários de smartphones com o sistema Windows que desejarem utilizar o novo aplicativo.  Pra mim, no entanto, não faz qualquer diferença, uma vez que não sou usuário dos produtos de software da Google, não afetando em nada a minha vida pessoal e nem profissional.

Contemplando a Capella

Desde criança que o céu – e seus mistérios – sempre foi um campo de estudo fascinante para mim.  Não me canso de observá-lo e me questionar em quais daquelas estrelas outros seres viventes estão também a nos observar.

Preparando-me para ler o próximo livro da minha lista – Os Exilados da Capella – sugestão da amiga Sandra Chagas Polegar para cima, resolvi fazer uma pesquisa sobre esse sistema estelar, referenciado na literatura espírita.

Primeiramente queria descobrir se a Capella poderia ser vista a olho nu e, mais importante, a partir de nosso hemisfério sul – e mais ainda, a partir de nossa latitude. E que bom que a resposta é sim! Nossa posição é bastante privilegiada para sua observação.

A foto abaixo eu fiz depois de pesquisar sobre sua localização no nosso céu.
Capella-sobre-Mossoró
Figura 1 – A estrela Capella – ponto mais brilhante na parte superior central da imagem – no céu de Mossoró-RN, na madrugada do dia 31/01/2016.

Então a Capella – que na verdade é um sistema binário formado por duas estrelas que giram em torno uma da outra a uma distância média de cerca de 115 milhões de quilômetros – mais perto uma da outra do que a Terra e o Sol – é este ponto mais brilhante na metade superior da imagem acima.

Apontando para cima E olha só que curiosidade interessante: nosso Sol e a estrela Capela têm a mesma classe espectral! Isto significa que são da mesma cor, o que muito provavelmente a faz liberar o mesmo tipo de energia luminosa e eletromagnética, embora a Capella seja uma gigante com capacidade luminosa entre 100 e 150 vezes mais que nosso Sol, até mesmo devido ao seu tamanho em relação ao nosso Sol. A imagem abaixo poderá dar uma ideia melhor disto. Smiley surpreso

Capella-Sun_comparison
Figura 2 – Comparação de tamanho do sistema estelar da Capella em relação ao nosso Sol.

Na foto acima se percebe ainda duas outras estrelas menores, avermelhadas, denominadas Capella Ha e Capella Hb.  São duas anãs-vermelhas que também fazem parte do sistema estelar, embora estejam distantes das estrelas principais cerca de 12.000 vezes!

Smiley nerd Só pra você entender melhor e não ficar voando… Anãs vermelhas são estrelas de muito baixa massa, geralmente inferior a 40% da massa do nosso Sol, com baixa temperatura interior e bastante lenta na geração de energia, o que as fazem emitir pouca luz, com uma luminosidade que em alguns casos apenas atinge 1/10 000 da luminosidade solar. Até mesmo a anã vermelha maior tem somente cerca de 10% da luminosidade do Sol!

O sistema estelar da Capella é alvo de estudo dos cientistas que acreditam existirem outros corpos celestiais a serem descobertos no futuro, quando nossa tecnologia nos permitir.

Apontando para cimaE quer saber de outra coisa mais interessante ainda?  Estudos mais atuais sugerem uma zona habitável em torno de Capella A e B. Ou seja, há fortes indícios da existência de planeta que possa permitir a vida! Smiley piscando

Em termos de distância em relação a nós, vamos tomar como base o nosso Sol, distante de nós 8 minutos-luz, ou seja, o tempo que sua luz leva para chegar até nós, o que traduzindo em quilômetros equivale a cerca de 150 milhões.  A Capella, então, está distante de nós cerca de incríveis 43 anos-luz (uma viagem na velocidade da luz duraria 43 anos), ou seja, quase 3 milhões de vezes mais distante que o nosso Sol. 

Fico imaginando como seres de um planeta desse sistema poderiam chegar até nós… Nossa tecnologia atual só agora nos permite chegar ao nosso vizinho planeta Marte, cerca de 3 minutos-luz! Smiley pensativo

No nosso céu visível, a Capella está entre as “dez mais”, figurando na sexta posição no ranking das mais brilhantes. É a estrela – ou estrelas – mais brilhante da constelação Auriga, que de nossa posição – durante a madrugada de janeiro – poderá ser vista no quadrante noroeste do céu.

Então agora que já sabe como localizar, vale a pena contemplar nosso céu noturno… Parar um pouquinho pra pensar na possibilidade de não sermos os únicos seres vivos a habitar um mundo entre bilhões e bilhões existentes somente em nossa galáxia ou grupo local.  Isto nos faz sentir que somos parte do universo e ao mesmo tempo nos torna mais humildes, mais zelosos pelo nosso planeta e também gratos à suprema inteligência divina que criou tudo que está ao nosso redor e em todo o universo.

O que este universo infinito terá a nos revelar no futuro?  Pensemos…

Software ruim: a culpa não é dos desenvolvedores

Lendo um artigo de Jim Bird – colunista internacional do iMasters – com o título “Não reclame de software ruim para o desenvolvedor: a culpa é de seus gestores” vi no texto uma realidade da qual fiz e ainda faço parte como desenvolvedor de software: a eterna alegação de que nossas soluções não parecem “boas o bastante”, ou seja, por culpa nossa – desenvolvedores – enquanto sabemos nós que a realidade é outra bastante diferente.

Em seu artigo, Jim Bird afirma que “gerentes – e não desenvolvedores – decidem o que significa qualidade para a organização. O que é bom e o que é ‘bom o suficiente’”. Entenda-se, aqui, gerentes como os responsáveis pelas organizações, diretorias, setores, etc. Aqueles que, de fato, devem – ou pelo menos deveriam – entender sobre as regras de negócio, rotinas operacionais e fluxo de dados que estão incumbidos de gerenciar. Mas não é assim que acontece na prática, infelizmente.

Como gestor, Jim Bird afirma que cometeu um monte de erros e tomou más decisões sobre sua carreira. Cortou qualidade para cortar custos. Deu para as equipes prazos que não podiam ser cumpridos. Fez controle sobre horários e prioridades, tentando espremer os recursos para tornar o cliente ou um executivo de marketing feliz. Foi intransigente com desenvolvedores e testadores que lhes diziam que o software não estava pronto e que eles não tinham tempo suficiente para fazer as coisas corretamente. Deixou dívidas técnicas se acumularem, insistindo que teriam que entregar agora ou nunca, e que de alguma forma fariam tudo certo mais tarde.  Errou, errou feio, mas aprendeu com os próprios erros, afirma ele.

Para Jim Bird – e eu concordo plenamente com ele – uma das principais falhas em projetos de desenvolvimento de software acontece quando os gestores ignoram os sinais de alerta dados pelos desenvolvedores. A dica, nestes casos, é simples: escute os desenvolvedores quando lhe dizem que algo não pode ser feito, ou não deve ser feito, ou tem que ser feito. Os desenvolvedores estão geralmente dispostos a trabalhar muito, para chegar longe. Então, quando eles dizem que não podem fazer algo, ou que não devem fazer algo, preste atenção!

Por experiência própria, vários projetos de desenvolvimento de software foram abandonados e outros caminham a passos de tartaruga por culpa única e exclusivamente dos gestores terem ignorados os sinais de alerta dos desenvolvedores.

Enquanto não pudermos ter gestores com experiência prática, capacitados e atualizados, fica valendo a dica do Jim Bird: “Como gerente, a coisa mais importante que você pode fazer é não enviar sua equipe para o fracasso. E isso não é pedir demais”.

Chegamos a Plutão: mais um grande salto da humanidade na exploração do nosso sistema solar

O dia 14/07/2015 entrou para a história da exploração espacial com a chegada – com sucesso – da primeira missão da NASA com objetivo de desvendar os mistérios do Cinturão de Kuiper e o seu principal astro, o planeta-anão Plutão e sua principal lua Caronte, até então um corpo pouco conhecido e inexplorado devido a sua grande distância do Sol.

new_horizons
Figura 1. Sonda da Missão New Horizons que chegou a Plutão em 14/07/2015. Imagem da NASA.

É um privilégio hoje em dia podermos acompanhar – via NASA TV e Internet – tal façanha humana de conseguir – com extrema precisão matemática – enviar um artefato científico a tão grande distância e fazê-lo passar a apenas 12.800 km da superfície do planeta – para você ter uma ideia, nossos satélites de TV estão a 36.000 km da superfície da Terra. Eu, particularmente, não deixo de me emocionar ao acompanhar cada conquista humana na exploração espacial.

De fato, Plutão está tão distante de nós que a luz do Sol leva quase 7 horas para chegar até lá quando o mesmo está no ponto mais afastado de sua órbita – em termos comparativos a luz solar leva apenas 8 minutos para atingir a Terra.

kuiper
Figura 2. Região do Cinturão de Kuiper.

pluto_charon_color_final
Figura 3. Plutão e sua maior lua, Caronte, numa tomada a partir da sonda da missão New Horizons, ainda há milhões de km de distância. Imagem da NASA.

Além da distância, o seu tamanho reduzido – em comparação com os demais planetas – dificulta a observação e análise do mesmo a partir das cercanias da Terra. Até mesmo o Hubble, nosso telescópio espacial mais potente, tem dificuldades para observar Plutão.

pluto_by_hubble
Figura 4. Imagem de Plutão captada a partir do telescópio espacial Hubble. Imagem da NASA.

tn-p_lorri_fullframe_color
Figura 5. Imagem de Plutão captada a partir da sonda da missão New Horizons, ainda distante 780.000 km do planeta. Imagem da NASA.

montanhas_pluto
Figura 6. Imagem da New Horizons em close up numa região próxima ao equador de Plutão revela uma cadeia de montanhas com até 3.500 metros de altitude. Imagem da NASA.

pluto_charon_earth_size
Figura 7. Concepção artística mostrando a relação de tamanho de Plutão e sua maior lua, Caronte, com a Terra. Imagem da NASA.

 

Novos Horizontes

A missão New Horizons foi lançada em 19 de janeiro de 2006 e ao cruzar a órbita de Júpiter ganhou um “empurrão gravitacional” fazendo a sonda atingir a maior velocidade já atingida por um artefato humano – 49.600 km/h – e mesmo assim a viagem levou mais de 9 anos, completando, assim, o reconhecimento básico do Sistema Solar, de Mercúrio a Plutão.

new_horizons_launch
Figura 8. Lançamento da Missão New Horizons em 2006. Imagem da NASA.

A New Horizons tem a missão de estudar Plutão e os confins do Sistema Solar, em especial o Cinturão de Kuiper, uma relíquia da formação do Sistema Solar situado além de Netuno. A existência desse cinturão foi sugerida em 1951 pelo astrônomo holandês Gerard Kuiper (1905-1973). O primeiro objeto dessa região foi descoberto em 1992 e, de lá para cá, já foram catalogados mais de mil outros pequenos objetos chamados de transnetunianos. Acredita-se que nessa região existam mais de 100 mil pequenos objetos celestes.

Assim como 2014 ficou marcado pela Missão Roseta, da ESA, 2015 ficará conhecido como o ano da Missão New Horizons, da NASA, conseguindo chegar a Plutão e além no Cinturão de Kuiper.

Estamos vivendo momentos marcantes na exploração espacial e isto é muito bom e importante para toda a humanidade.

Devido às nossas limitações tecnológicas atuais, não podemos atingir grandes distâncias em curto espaço de tempo, mas o importante é não se deixar intimidar e ir sempre além. Ao passo em que as novas tecnologias nos proporcionarão atingir velocidades cada vez maiores, poderemos atingir lugares inexplorados cada vez mais distantes em nosso Sistema Solar, aprendendo cada vez mais sobre novos mundos que possam nos servir de morada no futuro.

New Horizons Pluto Flyby
Figura 9. Equipe da NASA comemora o momento exato do “flyby” da New Horizons em Plutão. Imagem da NASA.

De parabéns estão todos os membros da equipe da missão New Horizons e a NASA, um verdadeiro patrimônio científico da humanidade. Polegar para cima

Entendendo “O Segundo da Morte” de 30 de Junho de 2015

O dia 30 de junho de 2015 foi oficialmente escolhido para ser o dia mais longo dos últimos anos, com o acréscimo de 1 segundo. E este segundo é o suficiente para “travar” computadores, sistemas e até a Internet.

De forma mais clara falando, em números redondos um dia dura 86.400 segundos. Este é o padrão que usamos em nosso dia-a-dia. É o chamado relógio ou tempo UTC (Universal Time Coordinated), que se baseia nas previsíveis transições eletromagnéticas dos átomos de Césio, tão confiáveis que o relógio de Césio tem a precisão de 1 segundo em 1.400.000 anos!

Não tão preciso assim, no entanto, é o dia solar da Terra, que é o tempo que o planeta leva para girar e completar uma volta em si mesmo. Este tempo é de 86.400,002 segundos, ou seja, dois milésimos de segundo de diferença em relação ao relógio atômico. Isso ocorre porque a rotação da Terra está gradualmente diminuindo devido a vários fatores, entre os quais a relação gravitacional com o Sol e a Lua, que causa uma espécie de “arrasto” retardando a rotação. Os cientistas estimam que o que solar médio não tem sido 86.400 segundos desde o ano de 1820, aproximadamente.

O comprimento do dia na Terra é influenciado por vários fatores, como aspectos atmosféricos e as variações sazonais e diárias do tempo, bem como a dinâmica do núcleo interno do planeta, o efeito das marés, águas subterrâneas e armazenamento de gelo. Até o El Niño pode causar diferença – neste caso a maior – no período de rotação da Terra.

Mas essa diferença de dois milissegundos – muito menos que o piscar de um olho – dificilmente perceptível no começo, de forma repetida ao longo dos anos, chegaria ao ponto em que nos encontramos, totalizando 1 segundo de diferença.

Os cientistas monitoram o tempo da Terra usando uma técnica extremamente precisa chamada de VLBI (Very Long Baseline Interferometry) realizada por uma rede mundial de estações que são extremamente precisas, pois se utilizam de posicionamentos medidos a partir da referência de objetos astronômicos distantes a bilhões de anos-luz da Terra, como Quasares. Este padrão de medição é chamado UT1 (Universal Time 1) e não é uniforme como o padrão UTC (explicado acima). No padrão UT1 “saltos” para mais ou para menos são realizados para ajustar o relógio de acordo com o período real de rotação da Terra.

Entendo melhor, quando a medição do tempo UT1 chega a divergir muito do padrão de medição UTC, como está ocorrendo agora, é o momento de reagir para corrigir a discrepância adicionando um segundo ao dia.

O acréscimo de um segundo é realizado sempre em 30 de junho ou 31 de dezembro. Normalmente, o relógio mudaria de 23:59:59 para 00:00:00 do dia seguinte. Mas com o segundo salto em 30 de junho, UTC vai passar de 23:59:59 23: 59:60 e depois de 00:00:00 em 1 de julho.

leap_second_image
Figura 1. Ilustração da NASA mostrando que em 30 de junho de 2015 o dia terá 23 horas, 59 minutos e 60 segundos (em vez do normal, que seria 59 segundos).

E o que o sistema computacional tem a ver com isso? Tudo a ver! Nos sistemas computacionais não existe a hora 23:59:60, pois após às 23:59:59 do dia 30 de junho os sistemas passam para 00:00:00 do dia 1 de julho. Mas este ano não! Haverá o “Segundo da Morte” no meio do caminho. E sistemas computacionais de alta precisão na marcação do tempo precisarão ser desligados ou “travados” por um segundo para retornarem exatamente à zero hora do dia 1 de julho.

Para os usuários finais, em geral, isso passará despercebido, mas para os administradores de sistemas deverão ficar alertas quando o relógio oficial marcar zero hora do dia 1 de julho e, se for o caso, fazer os ajustes necessários nos relógios de seus servidores.

Sobrou pra nós! A Terra ficando mais lenta e nós – administradores de sistemas – tendo que se virar para manter o tempo em dia. Smiley confuso

Eu DBA – O Início da Saga

Neste artigo vamos fazer uma viagem ao passado – lá pela segunda metade dos Anos 80 – para relatar um pouquinho de minha história – e de muitos jovens da época – com a programação de computadores até me tornar o que sou hoje: DBA (administrador de bancos de dados).

Numa época de condições financeiras nada favoráveis e disponibilidade de recursos de aprendizagem escassos a gente se virava como podia – revistas emprestadas, poucos livros disponíveis e até mesmo uma “colinha” em exemplares nas bancas para pegar um trechinho de código que pudesse ajudar nos estudos.

Naquela época a Internet nem imaginava existir, ainda mais nos moldes que a conhecemos hoje, e as leis brasileiras restringiam bastante a entrada de novas tecnologias no país – e até hoje somos atrasados tecnologicamente.

Como sempre gostei de matemática – anos depois acabaria por me graduar em Matemática e depois me especializar em Informática – desvendar-me pelo mundo da computação era um desafio muito prazeroso.

Desde o começo o meu foco foi pelo desenvolvimento para bancos de dados. Sempre achei incrível a programação para o armazenamento e recuperação de informações e uma de minhas primeiras ideias era criar um banco de dados para armazenar os dados dos meus livros.

É aí que começa a saga com os computadores pessoais, mais especificamente com o TK 90X.

logo_tk_90x
Figura 1. Logomarca do TK 90X color computer.

O TK 90X, produzido pela Microdigital em 1985, foi o primeiro clone brasileiro do microcomputador inglês ZX Spectrum produzido pela Sinclair Reseach. Utilizava como linguagem de programação residente o BASIC Sinclair (hoje temos a poderosa C#). Seu processador era um Z80A, de 8 bits (hoje temos os processadores de 64 bits nos notebooks e tablets), com um Clock de 3,58 MHz (o meu smartphone atual é 850 vezes mais veloz). A Memória RAM era de incríveis 48 Kbits (o meu smartphone atual tem 22 mil vezes mais memória que isso) e resolução de vídeo era de 192 x 256 pixels (as resoluções 4K hoje em dia suportam 3840 × 2160 pixels), com uma quantidade de cores suportada de 8 cores, com 2 tons cada (os monitores atuais suportam mais de 16 milhões de cores).

tk_90x
Figura 2. TK 90X color computer. Meu primeiro computador pessoal.

Na época, um regulamento brasileiro especial permitia que a indústria local pudesse produzir e vender cópias de computadores estrangeiros (só para o mercado doméstico) e por isso obteve um grande sucesso no Brasil, iniciando muitos jovens da época na arte da programação de computadores, entre os quais eu.

Era sofrido, mas era incrível naquela época, sem recursos, sem Internet, sem literatura adequada, sem instrutores, sem outras pessoas com quem conversar a respeito – na época éramos eu e meu primo e amigo, então proprietário do TK 90X, dividindo experiências e conhecimentos adquiridos na programação de computadores.

tk_90x_programas_para_jovens_programadores       banco_de_dados_para_tk_90x
Figura 3. Dois dos raros livros disponíveis no Brasil na época voltados para a programação.

Quando me tornei proprietário do TK 90X é que pude me aprofundar mais nos estudos, durante as noites-madrugadas, depois que a TV ficava livre e disponível. Sim, o TK 90X não possuía monitor e tínhamos que liga-lo à TV para poder funcionar. E naquela época não tínhamos TV em cada cômodo da casa como hoje em dia não, heim?

basic_tk_90x
Figura 4. Aspecto da tela da TV com o a interface do TK 90X e um trecho de código em linguagem BASIC de programação.

O chato era que o aparelho não possuía sistema de armazenamento permanente, ou seja, ao desliga-lo se perdia toda a programação feita e no dia seguinte tínhamos que iniciar a programação do zero! Já deu pra imaginar que não dava pra criar grandes programas desta forma né? Tinha que adquirir um gravador de fita K7 – isso mesmo, os dados permanentes eram armazenados em fita K7, na velocidade padrão de uma fita K7, dá pra imaginar isso? E você ainda reclama da lentidão de seu computador atual…

tk85
Figura 5. Aspecto de um ambiente de trabalho com o TK 90X na época. Imagem da Internet.

Com o advento do gravador de fita K7 pude armazenar meus primeiros programas de bancos de dados, sendo estes os eventos iniciais de minha saga na programação para bancos de dados, o que ainda realizo até os dias atuais, mas com as grandes facilidades da época atual, como linguagem de programação de alto nível e recursos de pesquisa e computacionais altamente avançados, além da Internet e os grupos de discussão especializados existentes por todo o ambiente virtual, tendo passado antes pelas gerações do MSX, CP 500 da Prológica, IBM PC XT, toda a família x86 até os PCs e notebooks atuais.

gradiente_expert
Figura 6. Computador MXS da Gradiente. Este já possuía cartuchos para gravação dos programas.  Foto da Internet.

cp500
Figura 7. Meu primeiro curso de programação foi com o CP 500, que já utilizava disquetes de 5 polegadas. Um avanço na época.

Hoje, não precisamos sair de casa. Não precisamos de cursos especializados. Não precisamos de mestres instrutores. Precisamos apenas da nossa capacidade matemática e a mesma garra e disposição que tínhamos nos anos primeiros da saga para construirmos grandes soluções que não ficam restritas apenas ao nosso ambiente computacional pessoal, mas atingem números que passam da casa dezenas de milhares de pessoas, através do ambiente compartilhado da Internet.

ambiente_atual
Figura 8. Aspecto atual do meu ambiente de trabalho em casa. Computadores avançados e Internet para conectar-me com o mundo.

E olhando assim para trás é que a gente percebe como a tecnologia avançou desde os incríveis Anos 80, onde tudo começou, e vendo as notícias de tecnologia atuais imaginamos como será daqui a 30 anos, com todo o avanço na área de robótica e inteligência artificial.

De minha parte, vou continuar com o meu foco na programação voltada para bancos de dados, mas sempre com os pés no momento presente, adequando os estilos, usando as melhores ferramentas disponíveis e idealizando as melhores soluções na gestão de sistemas de bancos de dados.

codigo_c_sharp
Figura 9. Aspecto da interface de programação atual utilizando linguagem C#.

programacao_mobile
Figura 10. Aspecto da interface de um aplicativo desenvolvimento para smartphones atuais.

O desafio de hoje não são os raros recursos disponíveis, mas sim a enorme variedade de ferramentas, ambientes e tecnologias disponíveis, logicamente aliados à velha disposição e garra de dominar os novos desafios e algo que só o tempo e a experiência de vida pode proporcionar: o conhecimento por experiência prática e não teórica. Smiley piscando

A saga continua!!!