Arquivo de 01/03/11 - 01/04/11

★ Qual a velocidade da internet da Google?


Você conseguiria adivinhar qual é a velocidade de conexão que os funcionários da Google têm à disposição, no escritório central da empresa, na Califórnia? Em um fórum de debate com desenvolvedores do Google Chrome, um usuário decidiu fazer justamente essa pergunta. O resultado impressiona. A imagem acima mostra um pico de download e upload. Para baixar arquivos, os felizardos funcionários da empresa conseguiram atingir uma velocidade de até 523 MB/s. Já para upload, o número máximo registrado foi de 147 MB/s. Para se ter uma ideia do quanto essa velocidade é significativa, basta dar uma olhada na velocidade média de navegação nos Estados Unidos: 10 MB/s. Já na Europa, a média é de 12 MB/s. Os 500 MB/s da sede da Google representam um número quase 50 vezes maior do que a média. Se você tivesse acesso a uma conexão como essa em sua casa, por exemplo, poderia encher um HD de 500 GB em apenas 16 minutos. Será que seria o suficiente para os seus downloads?

★ Memórias DDR4, uma realidade!


A empresa Intel e a Qimonda não deram detalhes das características das próximas memórias DDR4 SDRAM para computadores durante o Intel Developer Forum, mas o que tudo indica as mesmas podem ir a publico já em 2012. A Qimonda relata que os clips de memória tem que apresentar uma velocidade de cloc maior que 1GHz e exigir apenas 1,2 volts de tensão para funcionamento. A comissão que normalização JEDEC citou tempo semelhante a 1 ano atrás quando a versão para memória DDR4 era esperada para estar disponível esse ano, mas como vimos algo deu errado. A comissão de normalização JEDEC citados valores semelhantes em torno de um ano atrás, quando uma primeira versão da especificação SDRAM DDR4 era esperado para estar disponível este ano. A conversa da Qimonda fala que clics de memória serão melhores que as DDR3 SDRAB, visto que as mesmas operam com um consumo de 1,5 volts, ocasionando um consumo menor de energia. Esse beneficio leva uma diminuição de consumo de energia em relação ao notebook ou computador de mesa, levando a um beneficio ao usuário final Para evitar superaquecimento, os sistemas de memórias modernas reduzem automaticamente a velocidade de cloc no chip de memória quando em altas temperaturas, logo, se registrado um menor consumo de energia por parte da DRAM também resulta em melhor desempenho do sistema, algo muito importante quando se trata de melhorar o desempenha de um notebook ou computador de mesa. Mas caso isso não ocorra, temos potentes sistemas de refrigeração que podem fazer essa tarefa. Essa novidade apesar de já estar sendo estudada provavelmente vai levar pouco tempo para chegar ao consumidor final, uma vez que tecnologias de ponta são cada vez processadas e fabricadas de forma rápida e eficiente.

★ Personal Geek

A evolução da tecnologia impressiona. A cada dia novos aparelhos hi-tech invadem as prateleiras. E o que o consumidor faz? Compra e tem de aprender a lidar com eles. São tantos gadgets diferentes, que quando as pessoas começam a se familiarizar com um modelo, logo chegam outros ainda mais modernos. Mas a tecnologia, em qualquer segmento, existe para facilitar e não atrapalhar a vida das pessoas. O problema é quando começam a surgir as dificuldades para operar o computador, celular ou qualquer outro equipamento. São horas e horas perdidas tentando encontrar a solução que nem sempre aparece. Tem quem confesse perder a calma. E essa bola de neve cresce porque a maioria dos usuários não tem paciência para ler o manual com as instruções dos aparelhos. Mas não precisa se sentir culpado ou retrô por não saber decifrar o universo da tecnologia: hoje, já há quem faça isso por você. São os personais geeks (geek = aficionado por tecnologia), profissionais antenados com o mundo tech que dão aulas particulares (presenciais ou pela internet) sobre como usar e configurar seus aparelhos eletrônicos. Eles são capacitados para ensinar você a usar e tirar dúvidas sobre como configurar corretamente iPhones, iPods, GPS, smartphones, home theaters, televisores, PCs, notebooks, softwares e até ensinam como se dar bem nas redes sociais da internet. Tudo isso no conforto do lar ou na comodidade do escritório. Afinal, sair às ruas atrás de ajuda não é nada moderno e, muito menos, prático.

Loucos por tecnologia

Esse time de profissionais é especialista em descobrir as funcionalidades de cada aparelho e que muitos usuários não aproveitam porque nem sabem que existem. Além disso, contam com uma característica fundamental para o trabalho dar certo: são extremamente pacientes com seus alunos. Diferente de amigos e familiares que ajudam com os problemas técnicos, mas passam longe de ensinar os que não conseguem se virar sozinho com a tecnologia, ensinam o caminho certo para os usuários se darem bem e dispensarem a ajuda de terceiros.

★ Atualização do Adobe Flash Player




Olá amigos, a Adobe lançou uma recente atualização do Flash Player e pra nossa infelicidade sem nos comunicar, o que implica na falta de visualização de conteudos que requerem flash. Portanto, como usamos videos do youtube em nosso blog estes não serão visualizados sem antes ser instalado a nova versão do Flash.

Não são todos os navegadores que requereram a atualização, a tabela completa de qual navegador requer a atualização, assim como a versão de seu sistema operacional pode ser encontrada aqui

★ Monitores sem fio: menos confusão e mais versatilidade

Compartilhamento de imagens entre diversas telas e menos problemas com cabos são algumas das vantagens dos novos aparelhos, que têm tudo para virar padrão nos próximos anos


Qualquer um que possui um televisor sabe o quanto o uso de cabos pode ser problemático. Não só é preciso ligar o aparelho a uma tomada, como são necessárias diversas conexões adicionais para assistir a filmes em DVD, jogar consoles ou receber o sinal da programação a cabo. O resultado é uma desorganização tremenda, principalmente quando não há entradas suficientes para ligar ao mesmo tempo todos os dispositivos desejados. Isso sem contar com problemas de distância: muitas vezes os cabos à disposição não são compridos o bastante, forçando o usuário a se adaptar aos aparelhos, situação inversa ao ideal. Felizmente, as fabricantes estão cientes dos problemas enfrentados pelos consumidores e já disponibilizam tecnologias que eliminam quase totalmente o uso de cabos. Embora seja uma característica restrita a poucos aparelhos atuais, a comunicação sem fio tem tudo para se tornar padrão nos próximos anos. Confira abaixo as principais vantagens que os monitores sem fio devem trazer ao mundo da tecnologia. E lembre-se de deixar sua opinião em nossa seção de comentários ao fim da leitura.


Chega de desorganização

A principal vantagem do uso de monitores sem fio é o fim do excesso de cabos de conexão. Ao se comunicar com outros aparelhos por sinais wireless, não é mais preciso ficar sem preocupando se há alguma entrada compatível liberada para instalar um novo vídeo game ou conectar um reprodutor de Blu-ray que acaba de ser comprado. Com isso, também se ganha praticidade na hora de decorar a casa. Atualmente, é preciso pensar com cuidado antes de escolher o cômodo em que será montado o centro de entretenimento do domicílio. Além da disponibilidade de tomadas, é preciso se certificar de que no local há o cabeamento necessário para conectar televisão a cabo, por exemplo. Isso sem contar com os móveis, que devem respeitar o espaço físico disponível e permitir que os aparelhos usados sejam guardados sem problemas de superaquecimento. Tudo isso exige planejamento, e não é incomum que a chegada de um novo dispositivo exija uma reorganização total do que já está montado.

O uso de dispositivos sem fio elimina esse problema, ao permitir uma distância maior entre diferentes equipamentos, que não ficam mais limitados pelos cabos que os acompanham. Com isso, se torna possível assistir da sala à imagem gerada por um computador em outro ambiente, sem nenhuma interferência ou perda de qualidade. Outra vantagem está na transmissão de imagens para vários monitores simultâneos: a partir de um só ponto, pode-se compartilhar conteúdo entre todos os dispositivos de um domicílio. Tudo isso com a mesma facilidade e praticidade com que é possível dividir sinais de internet entre várias máquinas com o auxílio de um roteador.

WHDI

Atualmente, falar de comunicação com monitor sem o auxílio de fios é falar de WHDI – acrônimo de Wireless Home Digital Interface (Interface Digital Doméstica Sem Fio). Embora existam outros padrões de comunicação sem fio, o apoio de gigantes como a Samsung, Hitachi, Sony e Motorola faz com que essa tecnologia esteja cada vez mais próxima de se tornar o padrão mais utilizado.



Com a promessa de unificar a transmissão de dados entre os mais diferentes aparelhos eletrônicos, o WHDI faz uso de uma frequência de rádio em 5 GHz, a mesma usada por alguns aparelhos Wi-Fi. O resultado é a propagação fácil de sinais entre paredes e outros obstáculos, com distância de até 30 metros entre a fonte geradora e os receptores. O funcionamento do WHDI é simples, funcionando através da divisão dos sinais de vídeo em duas partes. As mais significativas, chamadas MSB (Most Significant Bit), e as menos significativas (LSB, ou Least Significant Bit). Após realizar a separação, as MSB são enviadas e corrigidas primeiro pelo receptor, para só então ocorrer o envio das LSB – o resultado é uma qualidade de imagem com resolução Full HD com frequências de 60 GHz.

Além de fabricantes de televisores, companhias responsáveis pela produção de placas de vídeo já estão de olho na tecnologia, como comprova a GeForce GTX 460 fabricada pela Galaxy.


Tecnologias Concorrentes


Embora a WHDI ganhe cada vez mais espaço, ela não é a única alternativa disponível para estabelecer comunicação sem fio entre diferentes aparelhos. Duas fortes concorrentes competem por fora na tentativa de ganhar espaço nos domicílios e ganhar a preferência das fabricantes e consumidores: são elas a WirelessHD e a Ultra-WideBand (UWB). O problema enfrentado por essas duas tecnologia é justamente a distância, muito limitada em relação à WHDI. Em geral, somente aparelhos localizados no mesmo ambiente conseguem interagir entre si, mantendo algumas das limitações presentes no método de conexões por cabos.

Algumas fabricantes, como a Fujitsu, também apostam em tecnologias próprias pra estabelecer a comunicação entre seus equipamentos. Incorporando um método desenvolvido pelo Instituto Fraunhofer, o monitor de 22 polegadas apresentado pela companhia durante a CeBIT 2011 opera com indução magnética para transmitir seus sinais. A principal desvantagem do método usado pela empresa está na forma de alimentação do monitor. Transmitir eletricidade por meio da indução magnética é um processo em que a energia transmitida se dissipa muito facilmente, o que pode significar gastos com eletricidade muito maiores quando comparado a um monitor convencional. Porém, vale lembrar que o aparelho apresentado ainda não está pronto para produção – a previsão é de que a versão final seja comercializada somente a partir de 2012. Até lá, devem surgir mais detalhes sobre a tecnologia de transmissão utilizada, assim como informações relacionadas ao consumo de energia do monitor.

★ Trabalhadores de TI em SP anunciam greve


O principal sindicato paulista dos trabalhadores de TI, o Sindpd, anunciou na noite deste sábado que a categoria entrará em greve no início da próxima semana. O Sindpd reúne profissionais de tecnologia da informação, como analistas, programadores e colaboradores de áreas administrativas em empresas de processamento de dados. De acordo com a entidade de classe, a greve foi decidida neste sábado em assembleia que reuniu filiados da região metropolitana e de municípios do interior, como Araraquara e Sorocaba. Os trabalhadores do setor negociam reajustes salariais desde janeiro, sem acordo com entidades patronais. O Sindpd pede reajuste de 11,9% nos salários dos profissionais do setor, maior participação nos lucros das empresas e correção no valor do auxílio-refeição para 15 reais por dia trabalhado. Os empregadores alegam, no entanto, que o valor pedido é muito acima da inflação registrada em 2010 e dizem que as empresas podem suportar, no máximo, um aumento de 6,47% para os profissionais. De acordo com a legislação trabalhista, os trabalhadores podem entrar em greve em até 72 horas após anunciá-la. Segundo o presidente do Sindpd, Antonio Neto, a entidade vai procurar a Justiça para que ela determine o valor do dissídio, uma vez que não houve acordo entre trabalhadores e patrões. Para especialistas no setor, no entanto, a decisão deve ter pouco impacto no dia a dia das empresas que contratam trabalhadores de TI. Muitos profissionais mantém-se afastados dos sindicatos ou atuam com contratos temporários, de forma autônoma, como cooperados ou ainda como pessoa jurídica, emitindo nota-fiscal ao final de cada mês, características que diminuem a relação dos trabalhadores com os sindicatos da categoria.

★ Google Me deve ser anunciado oficialmente em maio

A nova rede social da Google, que vem para fazer frente ao Facebook, será anunciada na Google I/O 2011.



Já há algum tempo circulam na internet rumores dando conta de que a Google trabalha em uma nova rede social para, finalmente, fazer frente ao Facebook em todo o mundo. De acordo com o site The Next Web, o serviço – cujo nome supostamente seria “Google Me” – será lançado na próxima Google I/O, uma conferência de desenvolvedores, que ocorre nos dias 10 e 11 de maio.

A rede, ainda não confirmada pela Google, englobaria todas as demais redes vinculadas ao Google (como Orkut, Google Maps, Google Buzz etc.) O TNW ressalta que é tradição da empresa revelar grandes apostas nesta conferência: em 2009 foi anunciado o Wave e, no último ano, o destaque foi a Google TV. Então, se for mantida a mesma linha, algo contundente vem por aí.

★ Preços de chips de memória podem saltar com terremoto no Japão

Fábricas como a Toshiba e a Samsung tiveram de fechar suas fábricas devido ao desastre.



Reuters. Por Paul Sandle - Os preços à vista para chips de memória flash usados em smartphones e tablets podem aumentar com o terremoto no Japão, embora o impacto no fornecimento global deva ser limitado, afirmou um analista. A Toshiba, segunda maior fabricante de chips de memória flash NAND, atrás da Samsung, fechou suas fábricas após o devastador terremoto e a tsunami nesta sexta-feira. Sua fábrica em Iwate, a mais perto do local do terremoto, fabrica microcontroladores, mas a companhia não tem ainda nenhuma informação sobre possíveis danos, afirmou um porta-voz. A principal fábrica produtora de chips NAND fica mais ao sul da costa, em Yokkaichi, próxima de Tóquio, e provavelmente não foi gravemente afetada, segundo ele.

O analista Andrew Norwood, do Gartner, afirmou que o terremoto e a tsunami podem afetar os preços à vista, mas não devem ter impacto de longo prazo no mercado.

"Particularmente o mercado à vista tende a reagir com selvageria a qualquer tipo de incerteza ou dúvida", disse. A Sony fechou seis fábricas, duas em Fukushima e quatro em Miyagi, incluindo uma responsável por produzir laser de diodo usados em players de DVDs, Blu-rays, CD ROMs e Playstations. A Panasonic interrompeu a produção. O analista Mark Harding, do Maxim Group em Nova York, afirmou que o terremoto claramente terá um impacto negativo na Sony, embora seja cedo para dizer qual será a extensão dos danos.

"Mas esse momento é tipicamente o mais fraco em termos de consumo", afirmou.

★ Por que os processadores ARM podem mudar o rumo dos dispositivos eletrônicos?

Entenda como essa arquitetura, existente desde a década de 80, pode representar um avanço sem precedentes para os dispositivos portáteis.



“Por muitos anos, desenvolvedores da área de computação de alta performance tiveram poucas escolhas graças a arquitetura x86. O projeto Denver liberta PCs, estações de trabalho e servidores da hegemonia e ineficiência dela”. A afirmação anterior é de Bill Dailly, VP de Pesquisa da NVIDIA, e é muito provável que, graças ao trabalho de pesquisa no qual está envolvido, o mundo da tecnologia esteja iniciando uma nova revolução capaz de ampliar sem precedentes as possibilidades para os usuários,que passam a ter verdadeiros supercomputadores na palma da mão. Isso pode ser possível graças ao desenvolvimento da arquitetura ARM (Advanced RISC Machine) de processamento, tecnologia existente desde a década de 80 e atualmente voltada para dispositivos portáteis. A novidade é que estamos muito próximos de conhecer microprocessadores ARM capazes de obter um desempenho tão eficiente quanto o do computador mais potente que você tem em sua casa. Mas como isso é possível? Qual o mistério existente por trás dessa revolução silenciosa e quais são as empresas que podem se beneficiar delas nos próximos dois anos? É hora de entender por que os processadores ARM podem representar uma mudança de paradigmas no mundo tecnológico.

Duelo de arquiteturas: ARM vs X86

A arquitetura ARM não é exatamente uma novidade, pelo contrário. Criada em 1983, ela está prestes a completar três décadas de existência e vê agora as suas possibilidades ampliadas. Desenvolvida pela inglesa Acorn Computer Limited, foi à época o primeiro processador RISC criado para uso comercial. Até então, a maioria dos computadores utilizava a arquitetura CISC, com suporte instruções complexas, simultâneas e de execução mais lenta — mas que resultavam em códigos menores, pela simplificação da estrutura de programação decorrente e menos entradas e saídas (diminuindo assim a necessidade de memória). Os RISC, por outro lado, visam a simplificação dessas instruções, com o intuito de atingir a máxima eficiência por ciclo (podendo realizar tarefas menores com processos mais curtos) e uma maior ordenação das operações dentro do núcleo de processamento. Por terem um número menor de circuitos internos, os RISC também podem trabalhar com clocks mais altos. Cabe observarmos, no entanto, que as divisões entre estes dois termos estão se tornando cada vez mais nebulosas, uma vez que os processadores modernos já combinam as duas linhas em suas diferentes camadas de hardware. Hoje, a tecnologia ARM é administrada pela ARM Holdings, que licencia o projeto a grandes empresas (ou governos, como o da China) que queiram desenvolvê-lo em chips próprios. É importante observarmos que mudanças benéficas desenvolvidas por terceiros podem ser incorporadas à arquitetura — ao contrário do que se vê no caso da x86. Os processadores ARM representam hoje a maioria absoluta em equipamentos portáteis. iPhone, Palm Pre, calculadoras, smartphones e até mesmo alguns notebooks utilizam essa tecnologia para as operações de processamento.

No mercado de computadores, no entanto, ainda persiste a arquitetura x86 com as extensões x64, principalmente por razões de compatibilidade de software. A questão é que o código das duas é binariamente incompatível — o que torna inviável a execução do Windows 7 no ARM, por exemplo, ainda que programas de menor porte possam ser adaptados. A arquitetura x86 pode ser considerada como de alta complexidade, por apresentar diversos estágios de processamento de dados (como o carregamento de informações, a decodificação, alocação de memória, entre outros) e possuir microcodes, responsáveis pela interpretação das instruções, transformando-as em processos físicos. Como resultado desse conjunto mencionado acima, o que se tem é o alto desempenho, mas que infelizmente vem acompanhado de um maior consumo de energia e também da necessidade de mais espaço físico, tornando-os completamente incompatíveis com a proposta de aparelhos portáteis. Assim, a indústria na maioria das vezes prefere abrir mão de potência e desempenho brutos em prol de portabilidade e da maior eficiência dos dispositivos, características que a arquitetura ARM é capaz de proporcionar com melhores resultados. É por isso, por exemplo, que recursos como multitarefa, demoraram um pouco mais a aparecer nos smartphones, assim como a evolução gráfica dos games também é inferior ao que os desktops e notebooks são capazes de exibir.

Afinal, qual é a novidade do ARM?

Depois de décadas de pesquisas e investidas, as técnicas ARM finalmente estão despertando o interesse das gigantes dos computadores (caso da Microsoft, que agitou a CES 2011 com seu anúncio, tratado adiante). Com a alta eficiência da arquitetura somada à liberdade propiciada pelos equipamentos de maior porte, o que surgirá será um processador verdadeiramente potente, quem sabe até de menor custo. O Project Denver, da NVIDIA, também traz consigo um processador gráfico dedicado, eliminando parte da complexidade de hardware (por serem eliminados chipsets, portas e outros controladores externos) e abrindo espaço para operações mais rápidas, geradas em um único local. Em termos práticos, veremos computadores extremamente velozes (que podem sim ser amparados por outros núcleos externos, como as atuais placas de vídeo dedicadas), enquanto fabricantes de notebooks e netbooks encontrarão a ferramenta perfeita para criar produtos mais leves, finos e portáteis, com maiores durações de bateria — algo que se aplica também ao mercado de celulares. Vale lembrar que a NVIDIA é apenas uma das empresas à frente do conceito de superphones. Grandes corporações como Samsung e Qualcomm também já possuem produtos no mercado compatíveis com essa estrutura de processamento.

O ARM pode matar o x86?

No mundo da tecnologia, é muito complicado fazer qualquer afirmação definitiva nesse sentido. Entretanto, analisando apenas a teoria, a resposta para essa pergunta é sim. Porém, se isso acontecer, muito provavelmente não será nos próximos cinco anos, já que muito desse esforço dependerá da própria indústria. Durante a CES 2011, em sua conferência, a NVIDIA utilizou dois exemplos para explicar o que pensa do momento atual do desenvolvimento tecnológico. Na década de 90, o sistema operacional Windows 95 representou uma grande evolução ao ampliar as possibilidades da computação para todos os usuários. Na década passada, foi a vez de integrar os sistemas operacionais com a internet, conectando o mundo todo. Segundo a empresa, a bola da vez é levar as possibilidades da internet e dos computadores para as ruas, com a mobilidade. Assim, o usuário terá em seu bolso antes de tudo um computador, que também terá as funções de um telefone. Contudo, para que isso seja possível, é preciso também que os usuários adotem a nova tecnologia e, historicamente, esse processo está acontecendo cada vez mais rápido. Dois exemplos rápidos: em pouco mais de um ano o Windows 7, lançado pela Microsoft, já representa mais de 30% do mercado entre os SOs da empresa. O mesmo acontece com o Android, que têm as suas versões atualizadas com muita velocidade e em pouco menos de 2 anos já conta com uma base de 60 milhões de usuários somente nos Estados Unidos.

Assim fazendo uma projeção simplista, a partir do lançamento dos primeiros modelos em 2011 e consequente integração com novos sistemas operacionais em 2012, caso o produto caia no gosto popular, é provável que até 2015 ele já possa representar pelo menos ¼ dos smartphones em utilização.


Empresas que saem na frente.



Os primeiros modelos de superphones a chegar ao mercado utilizarão o Android como sistema operacional. Entretanto, para que a adoção seja completa e as possibilidades sejam maiores, o natural seria utilizar os mesmos SOs dos desktops para os superphones. Os exemplos são diversos, tais como Linux e Windows CE, mas nenhum representa sucesso comercial. E é justamente na questão de sucesso e apelo de público Microsoft. Causou surpresa ao público da CES o fato da NVIDIA anunciar que a empresa já está desenvolvendo um sistema operacional capaz de ser executado na arquitetura ARM. A novidade deve chegar ao mercado em 2012. Qual seria esse sistema? Provavelmente o Windows 8. A utilização de uma nova arquitetura justificaria o fato de o intervalo entre o lançamento do Windows 7 e a próxima versão do SO da Microsoft serem tão curtos. Dessa forma, computadores e celulares poderiam rodar o mesmo sistema operacional, em um curto espaço de tempo, e com um grande volume de usuários adotando-o imediatamente. E quanto a gigante Google? A convergência de sistemas operacionais coloca a empresa numa posição relativamente cômoda, porém, a indecisão entre um ou outro pode acabar pesando negativamente no futuro. Tanto o Android como o Chrome OS já são capazes de rodar sobre a arquitetura ARM. A dúvida sobre o posicionamento que a empresa irá adotar é a seguinte: o Android é a melhor opção para ser adaptado para notebooks e desktops ou o Chrome OS poderia migrar para os celulares? A empresa precisará matar um dos seus dois produtos integrando-os ou a separação é a melhor alternativa? Afirmar qualquer uma das opções, ao menos por enquanto, é dar um tiro no escuro.

★ O que falta para uma câmera atingir a precisão do olho humano?

Será que as câmeras podem chegar ao poder dos olhos? Saiba o que falta para isso e admire-se com o que sua visão pode fazer.



Muitos mamíferos levam vários dias até que consigam enxergar o mundo exterior, pois é difícil adaptar os olhos à luminosidade após longos períodos de incubação no ventre materno. Nós não somos diferentes, abrir os olhos não é a primeira ação que realizamos ao nascer. Mas depois que eles são abertos pela primeira vez, passamos toda a vida descobrindo novas formas e cores. A visão nos permite experiências e sensações incríveis. E é por isso que surgiram as câmeras fotográficas, porque as pessoas queriam compartilhar experiências com outras, fosse um jantar, uma reunião de família ou um casamento. O mesmo que ocorreu com as pinturas, que surgiram para eternizar momentos, em tempos que a fotografia não existia nem em sonhos. Com o passar do tempo, as câmeras fotográficas evoluíram e, a cada nova geração, os aparelhos conseguem resultados mais parecidos com o que enxergamos realmente. Mas será que algum dia as câmeras poderão capturar imagens tão perfeitas quanto as que enxergamos a olho nu? Afinal, o que falta para que as câmeras fiquem tão boas quanto os olhos?

De Ponta-Cabeça

Você sabia que as imagens chegam de cabeça para baixo na sua retina? Isso acontece porque a luz é invertida nas lentes dos seus olhos. Para que ninguém se perca, as imagens passam pelo nervo ótico e são invertidas novamente, já no cérebro. Com as câmeras o mesmo processo é realizado, mas a inversão é feita de dois modos distintos.



O primeiro deles é realizado antes de as fotos serem batidas. Como você pode observar no infográfico, existe um espelho retrátil na frente do sensor de imagens. A luz passa pelas lentes e chega até este espelho, onde é refletida para um prisma e é mostrada da maneira correta no visor da câmera. Quando o fotógrafo aciona o disparador, este espelho é levantado e a luz – que não sofre mais desvios – é direcionada para o sensor ou filme. No sensor, ela chega de cabeça para baixo, então um chip conversor realiza a inversão e no visor LCD, ou no computador, a fotografia estará da maneira correta.

Quantos Megapixels você enxerga?

Quando as câmeras digitais chegaram ao mercado, modelos com 2 ou 3 megapixels de resolução eram mais do que suficientes para os consumidores, pois ainda não eram compreendidos os outros fatores necessários para a captura de imagens com qualidade. Megapixels são referentes apenas ao tamanho das imagens geradas. Hoje já existem câmeras com cerca de 12 megapixels de resolução máxima. Isso representa imagens com 4200 x 2690 pixels, maiores do que os padrões Full HD para vídeos. Agora imagine quantas fotografias você conseguiria enxergar de uma só vez, caso colocasse várias em uma parede gigantesca.

Você sabe quantos megapixels consegue enxergar? Nas câmeras digitais existem os photosites, cada um deles responsável por um ponto das imagens (pixel). Nos olhos o photosite é substituído por cones e bastonetes, sendo que possuímos cerca de 576 milhões deles em nossos olhos. Ou seja, são 576 milhões de pontos luminosos por vez, ou 576 megapixels. Mas a visão humana é ainda mais avançada, pois além da captura superior, também possuímos um sistema interno de interpolação das imagens. Interpolação é um processo utilizado por programas de edição de imagens para aumentar artificialmente a resolução das imagens capturadas. Com a interpolação sendo feita pelas próprias células oculares, a visão humana amplia os 576 megapixels para deixar as imagens captadas com ainda mais qualidade. Vale dizer que estas resoluções não são influenciadas por miopia, hipermetropia ou astigmatismo, estas condições visuais são referentes ao foco, não às dimensões das imagens.

"Abre o olho menino! Já é meio dia!"

Na próxima vez em que sua mãe disser isso para você, não reclame, apenas diga que isso torna tudo ainda mais difícil. Logicamente você precisa de uma explicação para isso, e nós a temos: sempre que mudamos de ambiente, sofremos com a mudança no nível da luminosidade disponível nos dois locais. Para que nossos olhos não sejam castigados, existe a pupila, que controla quanta luz passará pela íris e chegará à retina. Em ambientes escuros, a pupila é dilatada e mais luz é percebida, o que facilita que enxerguemos, mesmo sem a utilização de luzes artificiais. Quando acontece o contrário, as pupilas são contraídas e menos luz chega à retina, normalizando a luminosidade percebida.

Nos filmes e sensores fotográficos, essa capacidade de adaptação a alterações na luminosidade é realizada pelo diafragma, um conjunto de lâminas que podem abrir ou fechar, de acordo com a quantidade de luz que os fotógrafos desejam capturar em suas câmeras. Quando estiver aberto, o diafragma capta mais luz, do mesmo modo que as pupilas quando dilatadas. Fechado, menos luz chega ao sensor, evitando que a fotografia saia superexposta ou que o filme utilizado seja queimado (o que também poderia acontecer com a retina, caso a pupila não impedisse a entrada de luz).

O ISO dos olhos

A capacidade de captar luz em um filme ou sensor é medida pelo ISO referente a ele. Isso também é relacionado à velocidade da captação. Quanto maior o ISO, maior sua sensibilidade e por isso é necessário menos tempo de exposição para que as imagens fiquem mais bem iluminadas. Uma pesquisa realizada por Haje Jan Kamps (fotógrafo e jornalista) aponta para números concretos da sensibilidade ocular. Ele afirma que o olho humano trabalha com ISO máximo e mínimo, sendo que este último equivale a um filme ISO 25 e é utilizado em dias bastante claros e ensolarados.

Mas o que realmente surpreende é o ISO máximo, referente às captações de luz em ambientes muito escuros. Imagine-se em um ambiente com pouca luz, somente a luz da lua. Neste local, você pode enxergar razoavelmente bem e guiar-se sem problemas, mas caso tire uma fotografia, dificilmente algo será identificado posteriormente. Mesmo com flash, é possível que a imagem saia granulada. Isso acontece porque a sensibilidade ISO dos olhos é muito superior à sensibilidade dos sensores. Kamps afirma que o olho humano é 600 vezes mais sensível do que as câmeras mais modernas, ou seja, se comparado aos tradicionais ISO 100 de alguns filmes, nossa sensibilidade seria similar a ISO 60.000. Apesar deste número altíssimo, só percebemos as diferenças até o ISO 800.

Focar e desfocar

Você se lembra dos clipes da banda ABBA? Em vários deles, as duas vocalistas ficavam em planos diferentes e as câmeras criavam efeitos de focalização bastante inovadores para a época. Quando a cantora da frente estava bastante nítida, a do fundo era desfocada, logo depois o processo era invertido.



Utilizando dois objetos e seus olhos você pode criar o mesmo efeito. Deixe um deles perto dos seus olhos e o outro mais longe. Sempre que você focalizar em um deles, o outro será desfocado. Isso acontece porque, assim como as câmeras, seus olhos também possuem distância focal. A diferença é que, enquanto as câmeras precisam de ajustes nas lentes (sabe quando os fotógrafos ficam girando as lentes? É isso!), os olhos fazem todos os ajustes automaticamente. O processo é tão veloz que nem chegamos a perceber.

Fotografia Macro

Se você tem miopia, as imagens são formadas antes de chegar à sua retina. Isso faz com que os objetos que estão longe fiquem desfocados e os que estão mais próximos continuem nítidos. Conhece algo assim na fotografia? Acertou quem se lembrou das fotos em Macro, pois elas são capturadas em um processo bastante similar. Neste tipo de fotografia, as lentes são modificadas para que a distância focal seja muito curta. Assim, apenas o que está próximo às lentes é enviado ao sensor da maneira correta. Os elementos mais distantes são desfocados, como se o fotógrafo pudesse aplicar o desfoque gaussiano em tempo real nas imagens capturadas.

Mas há outro elemento que também é essencial para estes momentos: a profundidade de campo. Referente à abertura do diafragma, a profundidade de campo também pode ser identificada nos olhos humanos, sendo relacionada à íris. Quando o diafragma é aberto, a profundidade do campo diminui. Então, somente o que está próximo às lentes é capturado com foco otimizado (Macrofotografia). Já quando o diafragma é fechado, a profundidade de campo é aumentada e as câmeras capturam distâncias mais longas com a mesma focalização.

Você também pode fazer isso!

Você pode fazer uma experiência aí mesmo na sua casa. Deixando um objeto próximo a seus olhos, você pode perceber que a focalização deste objeto resulta no desfoque de todos os outros elementos que estiverem no mesmo cômodo. Para que o que está próximo possa ser visto com mais nitidez, a sua pupila é dilatada, assim como acontece com o diafragma das câmeras.



Agora deixe este objeto de lado e olhe para fora por sua janela. Busque um carro estacionado há vários metros e veja como o foco nele não é dos melhores. Com uma câmera, seria preciso fechar o diafragma para focalizá-lo, então para realizar algo similar com os olhos, você pode contrair os olhos. Deste modo a profundidade de campo é aumentada e os objetos mais longínquos podem ser vistos com mais clareza.


Distância mínima focal


Tirar fotos muito próximas não é algo possível (mesmo com as melhores lentes Macro), pois existe uma distância mínima compreendida pelas lentes, da mesma maneira que acontece com os olhos. Se não concorda com isso, coloque um papel com texto muito próximo a seu rosto. Só será possível ler o texto quando o papel estiver a uma certa distância, conhecida como (a recém-citada) distância mínima focal. À medida que envelhecemos, o cristalino do olho (uma das lentes internas) começa a perder a elasticidade e a distância mínima focal aumenta. É por isso que algumas pessoas idosas precisam afastar muito os textos para que consigam ler.

Existe uma forma de tirar fotografias aumentando a profundidade de campo e criando uma distância focal que não existe. Para isso é necessário usar uma lente grande angular, que aumenta o ângulo alcance da câmera e permite a captação de imagens maiores em espaços pequenos sem distorcê-las.


Em que a Câmera é superior?


Até agora nós vimos uma série de pontos positivos que os olhos apresentam e que as câmeras ainda não conseguem imitar totalmente. Mas será que não há nenhum ponto em que os aparelhos superam os globos oculares? Na verdade existem alguns, mas o cérebro é um processador muito superior a qualquer outro, por isso não chegamos a percebê-los. É o caso do ponto cego ocular. Há locais das imagens que nossos olhos não conseguem captar, pois são formados em um local onde não existem células receptoras de luz, exatamente onde o nervo ótico encontra a retina. Como dissemos, o cérebro possui uma capacidade de processamento muito grande, isso resulta no preenchimento do ponto cego em tempo real. As câmeras não contam com um processador tão bom, mas também não precisam nesse caso. Como o sensor de imagens é um item único, as capturas são únicas, não resultando em pontos que não podem ser armazenados nas fotografias.

Outro ponto importante é a questão do armazenamento. Por mais que algumas pessoas consigam guardar muitas lembranças visuais em suas memórias, as fotografias superam o ser humano nesse ponto. Além da possibilidade de mostrar locais e experiências para os amigos, existe a questão da recordação tangível. Quando visitamos alguma nova cidade, muito do que nos lembramos dos locais são mistos de memória real com imaginação. As fotografias são (salvo casos em que existe edição e montagem) relatos fiéis do que aconteceu em determinado momento. Em um resumo, enquanto as câmeras tiram foto, os olhos apenas transmitem vídeo por streaming para o cérebro (e pontos importantes ficam armazenados em cache).

Como vimos, ainda há muito para ser melhorado nas câmeras, até que elas fiquem tão poderosas quanto o olho humano. A capacidade e velocidade do olho em adaptar-se a novos ambientes (em questões de luminosidade) é muito superior aos mesmos atributos relacionados aos eletrônicos.



Quanto à sensibilidade de luz, também está bastante certo que o ISO dos olhos é maior. Os sensores e filmes precisam ser melhorados para chegarem mais perto do olho humano, mas é difícil que seja possível encontrar maneiras de simular a visão humana com perfeição. Pelo menos em um futuro próximo. Também é preciso lembrar que o olho humano enxerga imagens em três dimensões, algo que ainda é muito primitivo nas câmeras fotográficas.

★ Nikon pode estar perto de lançar câmera com Thunderbolt

Ultravelocidade na transmissão de dados pode garantir ótimas melhorias para fotógrafos.



Rumores apontam para um novo modelo de câmeras digitais SLR da Nikon. Além da tradicional qualidade de imagem da marca, outro diferencial da Nikon D4 seria a introdução da nova interface de transmissão de dados: Thunderbolt. Com este novo padrão, o descarregamento de imagens dos cartões para os computadores acontece em poucos segundos. Além disso, especula-se que estejam sendo produzidos alguns softwares de controle para a câmera. Com eles, os fotógrafos poderiam deixar as câmeras e computadores sempre conectados, garantindo o armazenamento de imagens e até mesmo vídeos em alta resolução em tempo real.

Por enquanto, tudo o que se tem a respeito das Nikon D4 são alguns boatos e um desenho do projeto. Agora é necessário esperar por informações oficiais a respeito da instalação da tecnologia Thunderbolt nas câmeras. E esperar também que outras empresas comecem a utilizar os controladores da Intel. Se você já está por dentro da tecnologia Thunderbolt (anteriormente chamada de Light Peak), deve saber que as velocidades alcançadas com o novo padrão (na transmissão de dados e vídeos) são muito superiores a qualquer outra, duplicando as capacidades dos atuais padrões USB 3.0.

- Copyright © Blog Intelly - Intelly Soluções Inteligentes