Durante todo o mês de novembro a internet foi bombardeada com rumores e possíveis fotos da placa Radeon HD 5970. Isso ocorreu porque a AMD anunciou que lançaria sua nova placa neste mês, a qual deveria ser a mais poderosa de todos os tempos. A curiosidade de todos os gamers, entusiastas e usuários interessados em placas de vídeo foi muito grande.
Todos esperavam que a AMD lançasse uma placa de dois núcleos, a qual deveria receber o nome de Radeon HD 5870 X2 — assim como ocorreu com a série HD 4000 da ATI. E este realmente era o plano da fabricante, contudo a companhia decidiu modificar o nome da placa para que não houvesse confusões, nomeando assim a nova placa como HD 5970.
Devido ao recente lançamento desta placa, o Baixaki decidiu criar um artigo para comentar e mostrar todas as características e o real potencial da nova placa da AMD ATI. Vale salientar que não abordamos detalhes muito técnicos neste artigo, pois visamos compartilhar a informação com uma gama maior de usuários.
A monstrinha
Por ser uma placa de alta potência, a HD5970 necessita de muita ventilação e um sistema eficiente de dissipação. A placa divulgada no site da AMD parece ser enorme (como você pode ver na imagem abaixo). Apesar do tamanho, o novo dispositivo da ATI tem um visual fantástico, que esconde perfeitamente o chip gráfico e as peças internas.
Especificações
Quando a AMD lançou a primeira placa com DirectX 11, todos ficaram boquiabertos com o incrível desempenho dela. Entretanto, a Radeon HD5870 não mostrava ser mais potente do que a GTX 295 da NVIDIA — fator um tanto decepcionante para muitos. Pensando nisso, a AMD investiu na criação da ATI Radeon HD5970, a qual se tornou a placa mais poderosa de todos os tempos (considere apenas os modelos domésticos). Abaixo disponibilizamos uma imagem com as especificações da nova placa.
Como é possível observar na tabela, a velocidade dos processadores da HD5970 não é exatamente a mesma do chip gráfico da ATI Radeon HD5870. Na realidade, ao visualizar a tabela acima se tem a impressão de que a 5970 traz dois chips iguais ao da HD5850. Entretanto a Radeon HD5970 tem mais unidades de processamento de fluxo (3200 para ser mais exato) que sua antecessora — que tinha apenas 1600 unidades — e o dobro de memória RAM.
A utilização de 2 GB (gigabytes) de memória RAM, do tipo GDDR5, operando na frequência de 1 GHz (gigahertz) mostra que esta placa está pronta para encarar qualquer tipo de gráfico. O consumo de energia é razoável e mostra que a AMD programou esta placa de uma forma muito eficiente, para que ela não seja uma grande consumidora de energia.
DirectX 11
Como já era de se esperar, a AMD ATI Radeon HD5970 tem um desempenho fantástico em qualquer versão de DirectX. Com a vantagem de suporte total para o DirectX 11, a placa deve ser ideal para jogos atuais e os novos games que requisitarão a nova versão da API da Microsoft. Confira um vídeo que mostra um usuário rodando o Unigine Heaven Benchmark em sua AMD ATI Radeon HD5970:
Shader Model 5
Com a implementação do DirectX 11, automaticamente a AMD incluiu a nova versão do Shader Model na HD5970. Os jogos que utilizam a quinta versão do SM possuem um nível de realismo impressionante, pois os pixels são processados separadamente e com cálculos de alta precisão. Claro que o Shader Model 5 não é uma exclusividade da 5970, sendo que sua antecessora já possuía tal tecnologia. Abaixo temos mais um vídeo que mostra a Radeon HD 5970 executando o recente Call of Duty: Modern Warfare 2.
OpenGL 3.2
Assim como a AMD introduziu o suporte para nova versão do DirectX, a fabricante aproveitou para adicionar as instruções de processamento para que a HD5970 possa trabalhar com a nova versão do OpenGL. A versão 3.2 desta API gratuita para desenvolvimento de jogos trará muitas novidades e claro, jogadores que tiverem uma Radeon HD5970 poderão desfrutar dos mais belos gráficos que o OpenGL fornecer. Veja uma demonstração técnica do OpenGL 3.2 em ação:
DisplayPort
Para acompanhar toda a qualidade da novíssima Radeon HD5970, a AMD optou por incluir uma porta DisplayPort. Através desta conexão, a nova placa da AMD ATI pode trabalhar com resoluções de até 2560 x 1600 pixels. Evidentemente, este novo padrão de vídeo é totalmente digital, possui transmissão simultânea de áudio e vídeo e pode ser adaptado facilmente para dispositivos compatíveis apenas com o padrão HDMI.
ATI Eyefinity
O recente lançamento da tecnologia EyeFinity mostrou todo o potencial das placas ATI, contudo em alguns casos utilizar seis monitores com uma placa de baixo desempenho pode não proporcionar uma boa experiência. Por isso, os consumidores que possuírem uma HD5970 não devem experimentar problemas assim, porque a placa tem alta capacidade para trabalhar com a nova tecnologia.
Muito mais tecnologia
Além de todos os aspectos que já citamos, a AMD ATI Radeon HD5970 reserva muitas outras tecnologias para os jogadores. Capacitada para trabalhar com o barramento PCI-e 2.1, a nova placa da AMD deve ser muito mais rápida em placas mãe com tal tecnologia. Quem utilize a placa de vídeo para edição de vídeos também deve saber que a HD5970 arrasa com a tecnologia UVD 2 (Unified Video Decoder).
É muito difícil encontrar lojas no Brasil que tenham a ATI Radeon HD5970 em estoque, porque o produto foi lançado há pouco tempo. Em lojas internacionais é possível adquiri-la por uma bagatela de “meros” U$ 649 — o equivalente a R$ 1.170 sem impostos. Obviamente, quando o produto chegar ao Brasil terá seu preço definido acima dos R$ 2.000, devido aos impostos e taxa de importação. Diversas montadoras já estão disponibilizando o produto em sua versão overclock, a qual traz ainda maior desempenho.
O que você achou da nova placa da AMD? Você já possui esta placa? Você acha que vale um investimento tão alto numa placa de vídeo? Deixe seu comentário e seja um participante ativo em nosso portal.
São Paulo, 10 de dezembro de 2009 - A Samsung reforça seu posicionamento no mercado brasileiro de imagem digital e traz o modelo WB5000, uma câmera digital compacta extremamente versátil – a possibilidade de automatização ajuda o usuário iniciante, mas o fotógrafo mais experiente pode optar pelo controle total das funções da máquina.
O grande diferencial da WB5000 é uma poderosa lente Schneider-KREUZNACH, que proporciona um impressionante, com distância focal grande angular de 26 milímetros.
Esta câmera tem resolução de 12.5 megapixels e capta vídeos em alta definição (720p), no formato H.264 – que permite a gravação por períodos de tempo maiores. Além disso, o usuário pode utilizar o zoom enquanto faz seus filmes.
Sua versatilidade agrada tanto os fotógrafos iniciantes quanto os mais experientes. Para quem é novato, a função Smart Auto coloca a simplicidade em um nível de qualidade superior, garantindo excelentes fotos a qualquer momento, sem preocupação com ajustes manuais. Ao mesmo tempo, a WB5000 permite ao usuário com mais conhecimentos sobre fotografia autonomia completa sobre suas funções.
O amante da fotografia pode optar por captar as imagens em formato de arquivo RAW, que registra exatamente as informações do sensor da câmera, pixel a pixel. Portanto, a foto não sofre alteração – como na extensão JPG, por exemplo –, garantindo a possibilidade de aplicação de ajustes mais precisos, posteriormente, no momento da edição.
Outro destaque da WB5000 é o duplo estabilizador de imagem, que combina as estabilizações ótica e digital e ajuda a reduzir os borrões da imagem, principalmente quando a lente é utilizada com o zoom máximo. Adicionalmente ao controle manual, há a possibilidade de ajuste do balanço de branco – a faixa de temperatura de cor varia de 3.000K a 10.000K.
Especificações técnicas:
Modelo WB5000
Resolução: 12.5 megapixels
Lente Schneider-KREUZNACH grande angular 26 mm
Zoom óptico de 24x
Zoom digital de 5x
Sensor de imagem 1/2, 33” CCD
Tela TFT-LCD de 3.0” (230K)
Duplo Estabilizador de Imagem: IS Óptico + IS Digital
Senhas alfanuméricas são colocadas nas vidas dos internautas há muito tempo e, cada vez mais cedo, elas são instaladas nas mentes humanas. Isso acontece porque em ritmo exponencial pessoas mais jovens são inseridas no mundo da informática e, por consequência, nos diversos sistemas e redes espalhados pela web.
Não apenas nos computadores, mas também em todos os dispositivos portáteis que utilizam a internet como um dos elementos principais de seu funcionamento, como os smartphones – são requisitadas criações de senhas para acessos aos vários serviços disponibilizados pelo aparelho. O problema dos portáteis é a facilidade que terceiros têm para visualizar a senha digitada e talvez utilizá-la para fins diversos.
Pesquisadores da Universidade inglesa de New Castle afirmam que, para evitar a perda de senhas, é preciso migrar do sistema de palavras-chave para um novo que envolve desenhos ao invés de palavras e números. Acredita-se que imagens são tanto mais fáceis de serem memorizadas, quanto difíceis de serem copiadas, dando mais segurança aos usuários.
Os mesmos cientistas lançaram o DAS (“Draw a Secret”, ou Desenhe um Segredo) inicialmente apenas para smartphones. O sistema garante maior segurança para os dados do usuário, pois divide a tela em vários quadros, tendo em cada um sensores de compatibilidade entre senha cadastrada e imagem desenhada para decriptá-la.
É mesmo seguro? A senha por desenhos pode ser muito segura e agir pontualmente contra invasões de pessoas conhecidas, porque senhas geralmente envolvem relações diretas com os portadores delas. As mais comuns do universo virtual envolvem datas diversas, telefones e nomes de pessoas ou de animais muito próximos do usuário.
Por não trabalhar com palavras, mas sim com cálculos matemáticos – devido às condições de localização de cada pixel desenhado – o sistema DAS promete dificultar a ação de invasores e bisbilhoteiros em geral. Não é simples copiar uma imagem, ainda mais quando não se tem contato direto com ela, imagine então quando há uma base de logaritmos alicerçando essa segurança. Vantagens e desvantagens Além da já citada facilidade para memorização, o sistema de senhas por desenhos também ganha pontos pela segurança oferecida. Parte disso pela dificuldade de visualização de terceiros, visto que se desenhados rápido, é difícil que os traços sejam memorizados por quem não conheça a imagem; e parte pela pessoalidade da senha, já que é muito difícil encontrar pessoas que possuam características idênticas de traçado.
Por outro lado, o sistema (ao menos por enquanto) não é 100% confiável, pois sabendo que imagens idênticas são quase impossíveis de serem desenhadas, existe uma tolerância de erros gráficos. Não se sabe a partir de que ponto essa tolerância começa a facilitar a invasão dos dispositivos por outras pessoas que consigam fazer traços semelhantes.
Imagens de fundo Após os primeiros testes, foi constatado que imagens de fundo podem facilitar ainda mais a memorização de senhas. Por exemplo: é mais fácil lembrar-se de flores quando já há a figura de um jardim do que quando o que existe é uma folha em branco.
Por isso foi inserido no DAS, um novo sistema que permite a congruência entre imagens estáticas e desenhos. Este novo recurso também trabalha com a tela dividida em quadros e cálculos matemáticos. E os computadores? Por enquanto não há movimentação para levar o sistema aos computadores e isso acontece por alguns motivos bastante plausíveis. O DAS foi desenvolvido para proteger senhas de pessoas que utilizam conexões seguras em locais públicos, como filas e pontos de ônibus, portanto é mais viável tentar inseri-lo em dispositivos portáteis.
Além disso, o DAS exige que o dispositivo tenha tela sensível ao toque, o que torna os computadores um exemplar fraco para testes. Poucos são os usuários que possuem máquinas assim - mesmo considerando Tablets e similares, a porcentagem é mínima se comparado aos celulares.
Por essas razões, ainda não se pensa em computadores desktops e notebooks como focos potenciais para a nova tecnologia. Talvez dentro de alguns anos o cenário se altere e o DAS seja inserido no cotidiano da informática, mas pelo menos por enquanto o Draw a Secret continuará sendo desenvolvido apenas para smartphones.
Nos últimos anos, alguns aparelhos como celulares e computadores têm evoluído de forma assustadoramente rápida. Por isso, mecanismos e tecnologias associadas a estes dispositivos também estão tentando acompanhar da melhor forma possível tal evolução. Até mesmo os periféricos e componentes mudaram para se adaptarem de forma adequada ao novo público, cada vez mais exigente.
Da mesma forma, alguns elementos que por si só já representavam a evolução de uma tecnologia, como as telas touchscreen, podem vir a sofrer mudanças nos próximos anos. Os atuais sistemas adotados por esse tipo de tela podem ser, normalmente, de dois tipos: resistivo e capacitivo.
O sistema resistivo é composto por um painel de vidro, recoberto por uma camada metálica condutora e outra resistiva e, acima das duas, há uma camada de proteção. As duas primeiras camadas são separadas por espaçadores e uma corrente elétrica passa através delas durante o tempo de atividade do monitor.
Quando a tela é tocada, as duas camadas fazem contato exatamente naquele ponto, gerando mudança no campo elétrico. Então, as coordenadas do ponto de contato são calculadas pelo computador. No sistema capacitivo, uma camada que armazena carga elétrica é colocada no painel de vidro do monitor. Quando ele é tocado, parte da carga é transferida para o usuário, de modo que a carga na camada capacitiva diminui.
Essa diminuição é medida considerando as diferenças de carga. Então é calculado o local exato no qual ocorreu o toque. O sistema capacitivo possui imagens mais nítidas do que o resistivo, pois transmite até 90% da luz do monitor. A sensibilidade das telas também é diferente, um touchscreen com mecanismo resistivo registra um toque durante o tempo em que as camadas estão em contato.
Por essa razão, não há diferença se você o tocar com seu dedo, caneta ou qualquer outro material. Já nos touchscreens capacitivos é necessário ter o toque de um material condutor, como o dedo, para registrá-lo. Pensando em unir as vantagens destes dois sistemas com o mínimo de desvantagens, um novo tipo de mecanismo touchscreen foi criado.
A empresa Sensitive Object, especializada em interfaces homem-máquina, anunciou um novo tipo de mecanismo touchscreen, o qual chamou de plataforma “Anywhere MultiTouch”que adota uma tecnologia chamada “Virtual Acoustic Matrix”. Os dispositivos com suporte para o Anywhere MultiTouch oferecem o reconhecimento de toque por meio da assimilação dele com ondas sonoras.
Basicamente, os dispositivos que adotarem esse método funcionam da seguinte forma: quando você toca uma superfície qualquer, é produzido um padrão de ondas contendo o som do toque por todo o material. Esse padrão cria uma espécie de assinatura acústica única no exato local do impacto.
A tecnologia utiliza sensores acústicos embutidos em um painel de vidro para capturar as vibrações de áudio emitidas na superfície de um objeto. Em seguida, por meio de algoritmos de processamento de sinal, o painel reconhece a posição específica de um toque por meio da assimilação com a assinatura acústica captada.
Logo que a assinatura é reconhecida, qualquer ação que estiver associada ao ponto de toque é executada no aparelho. Segundo a empresa desenvolvedora da Virtual Acoustic Matrix, ela pode ser aplicada não apenas a vidro como também a qualquer superfície sólida, como plástico, madeira, metal, etc.
A propriedade da emissão de sons por meio do toque foi descoberta através dos estudos de um processo chamado “Time Reversal Acoustics” que é utilizado para identificar a fonte de ondas de radiação. A tecnologia aplicada nos painéis, chamada por sua empresa criadora de ReverSys, procura reconhecer esses padrões de som causados pelo toque ao invés de reconhecer a redução de cargas elétricas registradas pelo toque ou a junção de dois painéis – sistema utilizado pelos touchscreens capacitivos e resistivos.
Características
Segundo os desenvolvedores, esta nova tecnologia baseada em acústica do toque promete revolucionar os mecanismos que envolvam o uso de touchscreen, o que inclui diversos dispositivos como celulares, computadores, multimídia, automação, etc.. Quando utilizado um painel de vidro como superfície sensível, o material não requer qualquer tratamento especial e mantém suas propriedades físicas normais, contando com uma resistência alta a arranhões.
Outra grande vantagem é que os painéis oferecem uma alta taxa de precisão (menos de 1% de erro). Ele também possui suporte para ativação em condições especiais como no caso de sua mão estar com luvas, por exemplo, e não é sensível ao toque da palma da mão, proporcionando menor grau de erro.
Além disso, esta nova tecnologia abre todo um novo possível conceito de design dos aparelhos, pois não precisa necessariamente ser aplicada em um painel de vidro ou apenas em uma parte do aparelho.
Quando vai estar disponível?
A tecnologia Virtual Acoustic Matrix já existe e inclusive algumas empresas , como a Motorola, estão investindo nela para uma futura nova linha de aparelhos. Os desenvolvedores afirmam que o preço da tecnologia é competitivo, não sendo mais elevado do que os mecanismos touchscreen existentes no mercado.
O tamanho do disco rígido é um dos principais fatores que deve ser levado em conta na hora de comprar ou montar um computador. Enquanto há alguns anos um dispositivo com pouca capacidade de armazenamento era capaz de guardar com folga todos os documentos, programas e jogos utilizados durante o dia a dia, diversos fatores exigem que cada vez mais espaço seja necessário para utilizar bem o computador.
Além do tamanho dos programas ter aumentado consideravelmente (jogos que antes cabiam em um simples CD agora exigem diversos DVDs de instalação), o crescimento do meio digital contribuiu bastante para que fosse cada vez mais fácil ocupar diversos gigas de espaço. Isso faz com que atualmente um HD de 80GB, que pareceria um exagero há cinco anos, hoje seja considerado um dispositivo com capacidade de armazenagem pequena.
Levando em conta a necessidade cada vez maior de empresas e usuários domésticos em possuir espaços maiorespara armazenar dados, a Western Digital desenvolveu uma nova técnica de formatação batizada como Advanced Format. Segundo a companhia, o novo formato reduz a quantidade de sobrecarga de cada setor de dados, reorganizando a forma com que as informações são guardadas no disco rígido.
Dessa forma, é possível ganhar entre 7 a 11% de espaço útil para a armazenagem de dados. Ou seja, um HD de 100GB ganharia entre 7 a 11GB de espaço extra, nos quais podem ser guardados novos documentos, músicas, filmes ou jogos, representando um ganho considerável de espaço.
Como funciona o Advanced Format
Existem três maneiras básicas de aumentar a capacidade de um disco rígido: aumentar a densidade de bits, o número de linhas de leitura por polegada ou o número de superfícies de gravação disponíveis. O Advanced Format optou por utilizar um processo que altera a densidade de bits, porque isso significa utilizar um espaço que já está disponível no disco rígido, bastando alterar o método de gravação para obter uma capacidade maior de armazenamento.
A maioria dos discos rígidos disponíveis atualmente no mercado utiliza um método que grava 512 bytes de informação por setor, cada um com um header Sync/DAM e bloco ECC (responsável pela correção de erros) próprios. Dessa forma, são necessários muitos setores físicos do disco rígido para comportar todos os headers necessários.
O Advanced Format elimina blocos Sync/DAM e cria setores físicos muito maiores, capazes de comportar até 4KB de dados, tudo isso consolidado em um único header. Apesar de requerer um bloco de ECC maior para a correção de erros, o resultado final é um disco rígido com uma capacidade de armazenamento maior e com mais segurança na gravação e leitura de dados. Segundo a Western Digital, um drive totalmente formatado com a nova técnica oferece até 11% de espaço extra.
Discos rígidos mais seguros e com mais espaço disponível
Antes de se empolgar e querer utilizar a nova técnica de formatação no seu computador, é preciso saber que a nova tecnologia provavelmente não é compatível com o HD que você possui instalado no computador.
Isso acontece porque o Advanced Format requer modificações significativas tanto na estrutura do dispositivo quanto do firmware, o que torna impossível disponibilizar um simples pacote para download que seja capaz de aumentar o espaço dos discos rígidos disponíveis atualmente.
Os primeiros modelos a sair com a tecnologia de fábrica vão pertencer à nova linha Caviar Green da Western Digital e devem estar disponíveis ainda em 2009. Outras empresas já mostraram interesse na nova técnica, e em breve devem lançar modelos que se aproveitam da descoberta.
Vale lembrar que a tecnologia foi feita pensando nos sistemas operacionais mais recentes do mercado, tornando-o totalmente compatível com o Mac OS X, Linux, Windows Vista e Windows 7. Porém, quem ainda mantém uma cópia do velho Windows XP não deve se preocupar, já que a Western Digital disponibiliza em seu site um download que modifica o sistema para torná-lo compatível com o Advanced Format.
Há mais de uma década, o mundo da tecnologia vem sendo atingido por novos exemplares de celulares e câmeras digitais, cada vez menores e com mais funções. Um pouco mais recente são as junções entre os dois produtos: celulares começaram a integrar as câmeras que, por definição, perdiam feio em questão de qualidade, quando comparadas com câmeras digitais normais.
Mas o tempo passou e a cada dia surgem celulares com câmeras mais elaboradas e de maior qualidade, até que surgiram algumas desenvolvedoras que passaram a fizer o caminho inverso - lançaram câmeras digitais com telefones integrados, e não mais o contrário.
Um bom exemplo desse novo segmento de mercado é a SCH-W880, da Samsung, o primeiro aparelho a integrar telefone e câmera de 12 megapixels, prometendo não deixar que fotógrafos amadores passem vontade ao querer tirar fotos bonitas por só possuírem a câmera de 0,3 megapixels dos primeiros celulares fotográficos.
A Samsung lança o produto, buscando assumir a liderança em vários segmentos diferentes, como câmeras digitais, celulares e também players multimídia, visto que o aparelho permite a reprodução de vários formatos diferentes de arquivos, tanto de áudio quanto de vídeo.
Um novo conceito... O que mais chama a atenção no aparelho, com certeza é a poderosíssima câmera digital. Ela possui resolução máxima de 12 megapixels, zoom óptico de 3x e digital de 2x. Tem também vários recursos para aperfeiçoar as fotos tiradas, como Beauty Shot, Macro Shot, Smart Auto e Touch AF Tracking, além disso, possui um excelente flash de Xenon e LED. Entenda para que serve cada função:
Beauty Shot: suaviza os traços dos rostos, tornando-os mais aprazíveis aos olhos humanos;
Smart Auto: seleciona automaticamente um entre vários esquemas de iluminação para obter melhores resultados nas fotografias;
Macro Shot: melhor focalização de imagens a curtas distâncias;
Touch AF Tracking: através da tela sensível ao toque, é possível selecionar os rostos que a câmera fotografa automaticamente.
A câmera do SCH-W880 também permite a gravação de vídeos em alta definição HD, com resolução de 1280 x 720 pixels. Quanto às reproduções multimídia, os arquivos de vídeo suportados são MPEG4, H.263, H.264, DivX e XviD. Já os arquivos de áudio são MP3, AAC, AAC+, AAC+e, e WMA. O eletrônico também possui televisão móvel e conexão Bluetooth.
O visor da câmera - e também tela do celular - possui 3,3 polegadas, sendo de AMOLED sensível ao toque. A tela possui tecnologia WVGA com resolução de 800 x 480 pixels, no formato Widescreen.
Como esperado, as fotos de uma câmera de 12 megapixels ocupam muito espaço em disco, logo é necessária uma grande capacidade de armazenamento. A Samsung SCH-W880 já é vendida com memória interna de 4 GB, sendo possível expandir essa capacidade para até 32 GBcom um cartão de memória Micro SD. A SCH-W880 possui 11,6 cm de comprimento, 5,7 cm de altura e 1,6 cm de largura.
“Quero criar um sonho que possa ser sonhado coletivamente em uma sala de cinema”. É com essa proposta ousada que o diretor James Cameron apresenta ao mundo a sua mais nova criação: Avatar. Independente de sua qualidade, o filme deve se tornar um divisor de águas em termos de tecnologia de captura de imagens e projeção nos cinemas.
O filme, que chega às telas do mundo todo a partir de 18 de dezembro, já estreia nos cinemas trazendo alguns recordes em seu histórico: o principal deles, e o que mais contribuiu para aumentar a expectativa em torno dele, é o rótulo de “filme mais caro da história do cinema”, com um orçamento estimado em US$ 400 milhões, excetuando-se os investimentos em marketing – que segundo especialistas teriam custado mais US$ 200 milhões.
Mas afinal, o que faz de Avatar um filme revolucionário? Quais são as inovações que ele traz em termos de tecnologia que são pioneiras e que, sem dúvida, passarão a fazer parte do cotidiano das grandes empresas de efeitos especiais a partir de 2010? Seria o fim do cinema como conhecemos e o começo de uma nova era na indústria do entretenimento? O portal Baixaki pesquisou a fundo todas as informações relativas a estas novas tecnologias e traz um artigo especial para você entender o porquê de tanta badalação em torno deste lançamento.
Star Wars, o princípio do sonho
James Cameron não imaginava que um dia trabalharia com cinema. Formado em Física na Universidade da Califórnia, Cameron trabalhava como motorista de caminhão para custear seus estudos e se sustentar. Na mesma universidade, chegou a cursar Filosofia. Mas foi ao entrar em uma sala de cinema que sua vida mudou por completo.
A convite de um amigo, James foi a uma sessão de Star Wars: Episódio IV – Uma Nova Esperança, filme considerado um marco na história do cinema em termos de tecnologia e efeitos especiais. O que viu na tela o impressionou de tal maneira a ponto de fazer o rapaz de 23 anos mudar completamente o rumo de sua vida.
Ele deixou a faculdade e passou a se dedicar obsessivamente a estudar a criação de efeitos especiais para cinema. Nas horas vagas, cultivava uma paixão por literatura de ficção científica. Também gostava de escrever contos sobre o tema. Seu perfeccionismo era tanto que, antes de produzir seu primeiro curta-metragem desmontou a câmera por completo apenas para entender como ela funcionava e, assim, poder extrair ao máximo todos os seus recursos.
O tempo passou e suas ideias obsessivas aliadas à competência e ao talento o colocaram no topo das bilheterias por diversas vezes. Filmes como O Segredo do Abismo, Aliens – O Resgate, O Exterminador do Futuro e O Exterminador do Futuro 2 – O Julgamento Final tornaram-se grandes sucessos de público e crítica.
Em 1994, no filme True Lies, foi o primeiro diretor a produzir um filme com orçamento superior a US$ 100 milhões. Três anos depois, em Titanic, foi o primeiro a dirigir um filme com orçamento superior a US$ 200 milhões. A produção, que chegou aos cinemas cercada de desconfiança, faturou US$ 1,8 bilhões e, até hoje, é o filme com maior bilheteria na história do cinema. É também o maior vencedor da história do Oscar, com 11 prêmios.
Um currículo como esse seria o suficiente para qualquer um se aposentar tranquilamente tendo escrito o seu nome na história do cinema. Não para James Cameron. Tão logo terminou Titanic o diretor percebeu que poderia finalmente criar algo similar ao que viu nos cinemas na década de 70.
Se a tecnologia não existe, então deve ser criada
Com a ideia pronta e o roteiro em mãos, Cameron se reuniu com os engenheiros e técnicos da Digital Domain, então uma das principais empresas de efeitos especiais em Hollywood da qual era um dos proprietários. Ao apresentar sua ideia e descrever a maneira como queria fazer o filme, a resposta foi categórica e unânime: impossível fazer isso, não existe tecnologia suficiente e a empresa provavelmente quebraria devido ao alto investimento.
Cameron poderia fazer o filme que quisesse, mas optou por esperar. Se a tecnologia não existia era preciso criá-la. Se ele não poderia fazer esse filme, então não poderia fazer outro. Foi preciso esperar outros seis anos até que outro filme o convencesse ser possível colocar a sua ideia em prática: O Senhor dos Anéis – O Retorno do Rei.
Para isso, foi procurar o próprio diretor do filme, Peter Jackson, em seus estúdios de criação de efeitos especiais na Nova Zelândia, a WETA Studios. Juntos, estimaram mais alguns anos de pré-produção e que algumas tecnologias, como o 3D, teriam que ser melhores desenvolvidas. Era hora de correr contra o tempo.
O filme
Mas do que se trata Avatar? A ação acontece em Pandora, uma lua que está na órbita de um planeta gasoso chamado Poliphemus, em Alfa Centauro. Em Pandora vive uma raça humanóide primitiva, mas bastante sábia, chamada Na’vi.
O ar de Pandora é irrespirável para os seres humanos. Então, para que pudéssemos entrar na atmosfera do planeta foram criados híbridos humano-Na’vi, chamados de Avatares. Esses híbridos são controlados por humanos, por meio de projeção de consciência, o que possibilita, em outras palavras, viver por meio deles.
A trama está centrada em Jake Sully, um fuzileiro naval ferido em combate que está paralisado, mas que em Pandora pode novamente andar graças ao seu avatar. Ameaçados pela expansão dos seres humanos em seu planeta, os Na’vi entram em conflito com militares da nossa raça, travando uma grande batalha.
A construção de um mundo
Como a Pandora idealizada por James Cameron também não existe, precisou ser criada. E se engana quem pensa que foi preciso apenas alguns esboços de uma equipe artística para dar forma aos cenários, ao visual dos personagens e às cenas de batalhas. Tudo em avatar ganha proporções maiores.
A linguagem foi um dos primeiros elementos. Os nativos Na’Vi falam um idioma próprio nascido na cabeça do diretor. As palavras que falam e a maneira como se comunicam não foram decididas a esmo. Para conferir realidade à trama foram contratados linguistas e fonoaudiólogos que, juntos, criaram um novo idioma, com direito a gramática, sintaxe, morfologia e tudo mais que possa ser estudado em uma linguagem. Com isso, independente da existência do filme, é possível aprender Na’Vi e sair falando por aí.
Da mesma forma, os cenários e tudo em torno dos personagens é pura obra de ficção. E é aqui que começa um apurado trabalho de computação gráfica para dar vida à imaginação do diretor. Plantas, rochas, ambientes e animais foram cuidadosamente desenhados de maneira a se tornarem factíveis no novo mundo.
As plantas, por exemplo, são classificadas por suas espécies e classes, possuem características morfológicas claramente definidas e são parte de um complexo ecossistema que contou com a ajuda de botânicos e biólogos para um resultado final mais eficiente. Em Avatar, a novidade fica por conta de uma floresta biofluorescente, com plantas que emitem luzes multicoloridas, possuindo uma espécie de magnetismo ao seu redor.
Os animais também foram cuidadosamente concebidos. Estudos de movimento, constituição física e óssea e comportamento forma apenas alguns dos itens pesquisados. A fonte, é claro, foram os animais da Terra, mas todos eles ganham uma versão diferenciada para que pareçam pertinentes ao novo mundo.
Novas tecnologias
Uma das exigências do diretor para filmar o seu projeto mais ambicioso era que todo o filme fosse produzido em 3D. Segundo ele, somente assim seria possível proporcionar ao espectador uma experiência de imersão total no filme. Para a época isso era um grande problema. Para se ter uma ideia, nos EUA, em 2005 havia menos de 100 salas com suporte para o formato. Hoje, apenas três anos depois, já são mais de 2000.
Para conseguir o realismo que tanto desejava, os estudos da equipe de Avatar chegaram a três conclusões: era preciso reinventar as câmeras 3D, aperfeiçoar o sistema de captura de imagens que depois seriam transformadas em CGI e aperfeiçoar o sistema de captura de expressões faciais e corporais dos atores.
Se no passado James Cameron chegou a desmontar uma câmera no set de filmagem para entender o seu funcionamento, não é de se admirar que ele tenha feito exatamente o mesmo com as câmeras 3D. Tudo para conseguir resolver o que era um grande problema do formato até então.
A reinvenção do 3D
O cinema em terceira dimensão não é exatamente uma novidade. Pelo contrário. Suas primeiras utilizações comerciais remetem á década de 50 nos Estados Unidos. Porém, o 3D da maneira que conhecemos hoje nos cinema é algo relativamente novo. O portal Baixaki já abordou o assunto em dois artigos: “Como funciona o Imax?” e "Como funciona a tecnologia 3D?”.
Se você já foi assistir a um filme em uma sala 3D já deve ter percebido que, em todos os filmes, nem todas as cenas são em 3D. Mesmo em um filme de duas horas de duração as cenas com efeitos são intercaladas entre cenas normais. Sabe por que isso acontece? Não há comprovação científica disso, mas em alguns casos os espectadores podem sentir tonturas ao acompanhar projeções por um longo período neste formato.
Desde o ano de 2000 a Sony concordou em financiar as pesquisas de James Cameron para uma nova câmera 3D. A ideia era desenvolver um produto que permitisse ao usuário o controle total sobre aquilo que estava sendo filmado – o que não acontecia nas câmeras 3D existentes. Além disso, o sistema de lentes duplas foi adaptado para que as imagens exibidas não causassem dores de cabeça aos espectadores.
O resultado foi utilizado nas sequências em live-action do filme, ou seja, onde os personagens de carne e osso são estrelas – e há uma boa quantidade de cenas onde isso acontece. Desta forma foi possível fazer com que Avatar, um filme com 164 minutos de duração, pudesse ser exibido 100% em 3D sem que isso causasse alguns tipos de desconforto para o espectador – a menos, é claro, nas sequências em que esta é a proposta do diretor.
Com o aumento das salas em 3D e a crescente adoção deste formato não há dúvidas que a nova tecnologia estará presente nas próximas grandes produções do cinema e que a próxima década será marcada, ao menos no aspecto tecnológico, pela busca cada vez mais precisa da melhor utilização deste formato.
Captura de movimentos
A criação da imagem de uma pessoa em CGI requer um bocado de trabalho e, para que o resultado seja preciso em termos de fisiologia do movimento, é necessário capturar o maior número de variações e detalhes que possam ser transpostos para a tela do computador.
Em Avatar os atores utilizaram uma espécie de malha, nos sets de filmagem, compostas por pequenos refletores. Esses pequenos pontos foram capturados por nada menos que 140 câmeras simultâneas. Os dados referentes aos reflexos de cada ponto em um determinado movimento do ator são catalogados e enviados para um grande banco de dados.
Após esse processo os animadores entram em cena, construindo as imagens dos personagens – nesse caso dos avatares – sobre o movimento corporal dos atores, o que confere um maior realismo ao resultado final das imagens. Como percebemos, diferente do que muitos imaginam, produções desenvolvidas em CGI não dispensam o trabalho dos atores, pelo contrário. Caso eles sejam fracos ou inexpressivos corporalmente, sem dúvida isso será notado pelo espectador, da mesma forma que uma atuação ruim também chama atenção.
Captura de movimento facial
Em um filme, o rosto de um ator é um dos elementos mais importantes de uma atuação. Sua expressividade, muitas vezes, é capaz de dizer muito mais do que linhas inteiras de diálogos. Como fazer então para tornar esse processo mais natural quando o personagem em questão é criado artificialmente?
Uma técnica similar à captura de movimentos é utilizada para a captura de expressões faciais. Uma microcâmera é colocada a poucos centímetros do rosto do ator. Em sua face são colocados uma série de pequenos pontos coloridos. Diante da câmera o ator faz uma série de expressões.
Essas imagens são enviadas para um banco de dados que faz um mapeamento desses pontos, proporcionando uma espécie de leitura do movimento do rosto do ator. A partir dos pontos o novo rosto em CGI é reconstruído e, a partir da face do ator, é construída uma nova máscara com uma expressividade tão fiel quanto a imagem original.
Percepção de cenários
Mesmo tendo um banco de dados enorme com os mais variados tipos de movimentos, nada é mais eficiente que a movimentação original necessária para uma determinada cena. A maneira encontrada para resolver esse problema é simples e bastante similar a captura de movimentos corporais.
De fato ela é uma extensão desta tecnologia já que além da movimentação dos atores são capturados também elementos cênicos que proporcionem aos animadores a reconstrução de um objeto em CGI. Por exemplo: se no filme há uma cena em que determinado ator precisa cruzar uma ponte, ela será filmada com ele vestindo a malha com os LEDs indicadores e cruzando uma tábua ou algo similar a uma ponte.
Essas imagens servirão de base para o mapeamento e para a posterior reconstrução em CGI de todos os movimentos corporais em questão e dos elementos cênicos com os quais haverá interação. O restante do cenário é preenchido com outras imagens compostas em bancos de dados, mas que não precisam, necessariamente, interagir com o personagem.
Coreografia do trabalho de câmera
Depois de finalizadas a captura de imagens corporais e faciais, bem como a composição das cenas por meio da percepção de cenários é hora de dar vazão ao trabalho do diretor de Fotografia do filme. É ele o responsável por sugerir os melhores enquadramentos e quais movimentos de câmera serão utilizados em cada uma das sequências.
Neste caso, com toda a base de imagens prontas, entre em cena a coreografia das cenas. Por exemplo: se em determinado momento o diretor quer que a câmera se mova da direita para a esquerda e depois vá para o alto, mostrando uma imagem panorâmica, todo esse trabalho será feito diretamente no computador, já que a imagem em si não existe, mas sim a composição de várias delas de maneira virtual.
Esse acabamento é um dos trabalhos mais complexos, pois não envolve diretamente os atores. Por outro lado, a liberdade de criação de movimentos como vôos, por exemplo, é praticamente ilimitada. Por isso, nesse quesito, você pode esperar imagens panorâmicas como nunca viu anteriormente, já que é a primeira vez que alguém tem tantos elementos em mãos para criar sequências como bem entender e de maneira tão realista.
Efeitos visuais
Com tantas novas tecnologias reunidas já era de se esperar que a composição de todas elas e o resultado final do filme alcançassem níveis nunca antes atingidos na história do cinema. Não tenha dúvidas que o nome de Avatar irá figurar em todas as premiações cinematográficas que privilegiem os aspectos técnicos, como as premiações dos sindicatos e categorias técnicas do Oscar.
No entanto, uma das propostas do filme, e talvez a principal delas, é proporcionar ao espectador uma nova experiência de “ver cinema”. O que significa isso? Significa utilizar o 3D não com efeitos gratuitos – como alguém jogando algo na tela para dar a impressão que irá atingir o espectador – mas sim como linguagem. Ele é um rico instrumento para proporcionar imagens com maior profundidade de campo, dando a impressão de cenários maiores, mais ricos e detalhados, numa visão semelhante a do olho humano.
É claro que uma experiência como essas ainda não é possível em sua casa. Para extrair o máximo da ideia de James Cameron é preciso assistir ao filme numa tela IMAX 3D. Ou, caso a sua cidade ainda não possua uma delas – há apenas duas no Brasil, em Curitiba e São Paulo – em um cinema com projeção em 3D.
Filme mais caro do mundo
Como citamos acima, Avatar é possivelmente o filme mais caro da história do cinema. Segundo estimativas não-oficiais o valor de produção chegou à casa dos US$ 400 milhões. Para que uma produção como essa se pague e dê um lucro aos produtores, por exemplo, será necessário arrecadar ao menos US$ 1 bilhão.
A conta é simples: os primeiros US$ 400 milhões arcariam os curtos de produção. Outros US$ 400 milhões seriam destinados aos cinemas, exibidores e distribuidores e pagamento de impostos. Por fim, outros US$ 200 milhões cobririam a massiva campanha de marketing para promoção do filme. Com US$ 1 bilhão o filme adquiriria seu ponto de equilíbrio e os produtores teriam um lucro real sobre ele.
A aposta é bastante ousada e é parte de um plano para que Avatar vire uma saga, com pelo menos mais dois filmes e uma infinidade de produtos que podem ser licenciados trazendo royalties para os detentores da marca. Se a produção de James Cameron vai conseguir superar essa marca, só o tempo irá dizer.
Uma revolução no cinema?
A resposta para essa pergunta é sim! E não! Calma, vamos explicar. Se você imagina que estará indo ao cinema para ver o melhor filme de todos os tempos ou o filme que vai mudar sua vida é melhor conter a sua expectativa. Não há nenhuma revolução nesse sentido. A história é simples e remete a muitas outras produções. Ou seja, nesse sentido prepare-se para ver um bom filme de entretenimento e se divertir.
Porém, em termos de bastidores e aspectos técnicos, Avatar representa sim um marco tecnológico que será lembrado por muitos anos na história do cinema. É a primeira vez que um filme utiliza com tanta propriedade recursos de CGI tão próximos do realismo. Para citar as palavras do crítico de cinema Pablo Villaça, editor do site Cinema em Cena, “Avatar faz Gollum, da trilogia O Senhor dos Anéis, parecer uma marionete quebrada”.
Da mesma forma, os recursos em 3D utilizados neste filme não se resumem a meros efeitos, mas se constituem em uma nova linguagem, que deve ser explorada a partir de agora permitindo novas e inúmeras possibilidades para os cineastas. É claro que efeitos como esse ficarão restritos inicialmente a filmes com grandes efeitos visuais e não deve alterar em nada o cinema “de arte” ou “independente”. No entanto, essas novas possibilidades permitem a criação e a exploração de mundos que, até então, dificilmente seriam verossímeis fora da imaginação dos seus criadores.
Outro aspecto interessante dessa “revolução” chega a ser poético. Os efeitos em 3D, na verdade, são possíveis apenas graças à maneira como o olho humano percebe a junção das duas imagens projetadas em dimensões distintas. Ao propor uma nova experiência de cinema, James Cameron sugere que essa imersão do espectador na história aconteça graças ao efeito. Ou seja, a nova experiência de ver cinema depende muito mais da maneira como vemos o filme do que a obra em si. A revolução, no final das contas, está no nosso jeito de olhar.
– Acaba de chegar ao mercado brasileiro dois novos modelos de fones de ouvido da Panasonic: o RP-DH1200PPS, voltado para DJs e o RP-HTX7P, com conceito retrô e cores variadas. “Em comum, os dois fones agregam alta qualidade de áudio digital, excelente desempenho sonoro e acabamento em couro”, afirma Toyotaro Hiraishi, Especialista em Equipamentos Digitais da Panasonic do Brasil.
O fone de ouvido RP-DH1200PPS, desenvolvido especialmente para o público profissional, possui um prático cabo em espiral destacável, assim caso necessite de reparos por conta do desgaste natural, basta removê-lo e inserir outro no lugar, permitindo que o profissional continue utilizando o aparelho. Outro diferencial para DJs é a reversão do fone por meio de um mecanismo giratório, que permite o monitoramento em um único lado. Além disso, o fone possui 50 milímetros de diâmetro, proporcionando grande qualidade sonora.
A capacidade de 3.500 mW de potência e a resposta de freqüência de 5Hz – 30KHz trazem ao RP-DH1200PPS um excelente desempenho sonoro. O modelo é equipado, ainda, com juntas reforçadas, que ajudam a prevenir ruptura nas partes dobráveis, e design compacto, o que facilita o transporte na bolsa que acompanha o acessório. “O modelo RP-DH1200PPS é ideal para os DJs que precisam de qualidade, estilo e conforto nas pick-ups ou estúdios”, completa Hiraishi.
Já o modelo RP-HTX7P, é voltado para aqueles usuários exigentes que desejam a melhor qualidade de áudio e para quem gosta de ouvir músicas em ambientes externos. O produto é considerado uma inovação no mercado brasileiro de acessórios. O fone possui design retrô em cinco opções de cores – vermelho, branco, rosa, verde e preto –, fio em espiral de um único lado, 1.000mW de potência, resposta de freqüência de 7Hz – 22KHz e plugue estéreo laminado a ouro, tipo L. Apesar de leve, cada fone tem 40 milímetros de diâmetro, o que possibilita o mais alto desempenho de áudio.
RP-DH1200PPS
Cabo espiral destacável;
Fone reversível e mecanismo giratório;
Capacidade de 3.500mW de potência;
Resposta de frequência 5Hz
Design compacto com bolsa para transporte;
RP-HTX7P – R / W / P / G / K
Design retrô;
Capacidade de 1.000 mW de potência
Resposta de frequência 7 hz – 22 KHz.
Cabo com um único lado;
Fones com diâmetro de 40 mm cada;
Disponível em cinco cores: vermelho branco, rosa, verde e preto.
Dezembro de 2009 – A Kingston Technology, maior fabricante mundial independente de produtos de memória, acaba de lançar uma nova linha de unidades de armazenamento de estado sólido (SSD): a série SSDNow M. Projetada especialmente para usuários móveis que requerem excelente performance e maior espaço de armazenamento em disco para utilização em seus notebooks, a série SSDNow M está disponível com capacidades de 80GB e 160GB e utiliza as unidades de estado sólido da Intel, que são as de melhor desempenho do mercado e garantem a maior durabilidade do computador.
As unidades SSDNow M têm alta capacidade de entrada e saída de dados por segundo (input and output operations per second - IOPS), e permitem alcançar maior velocidade nas capacidades de transferências, melhorar o tempo de inicialização e obter cargas de aplicativos mais rápidas do que nas unidades padrão de disco rígido mecânico (HDD).
O SSD utiliza uma interface padrão de unidade de disco rígido SATA. Diferente de um HDD, o SSD é muito mais robusto e aguenta maior impacto por não conter peças móveis, sendo ideal para executivos que estão em constante movimento e que necessitam transportar grandes quantidades de dados. Além disso, as unidades SSDNow M da Kingston são equipadas com SMART (tecnologia de Auto-Monitoramento, Análise e Relatório) que avisa o usuário quando a unidade está por falhar. Além da nova série SSDNow M, a Kingston oferece SSD série E (servidores) e SSD V (consumidores).
Kingston SSDNow M – Características e Especificações:
Rápidos: 250MB/s leitura, 70MB/s gravação
Durável: ausência de partes móveis mecânicas permite que o SSD suporte condições duras
Garantido: retaguarda de três anos de garantia Kingston e suporte técnico
Tamanho físico (form factor): 2,5"
Interface: SATA 1,5Gbps e 3,0Gbps
Capacidade: 80GB, 160GB
Temperaturas de armazenagem: -55° C a 95° C
Temperaturas de operação: 0° C a 70° C
Dimensões: 69,85mm x 100mm x 9,5mm
Peso: 86 gramas (+/- 2 gramas)
Vibração em operação: 2,17 G (7–800Hz)
Vibração fora de operação: 3,13 G (10–500Hz)
Especificações de energia: 0,15 W (ativo), 0,06 W (repouso)
Expectativa de vida: 1,2 milhões de horas de tempo médio antes de falha
O Orkut teve neste ano a primeira grande mudança de sua história, recebendo um visual totalmente reformulado que tem como objetivo facilitar a vida do usuário na hora de utilizar o site de relacionamentos. Porém, se engana quem pensa que a Google iria parar por aí e direcionar seu foco simplesmente na resolução de eventuais problemas que a nova interface pode apresentar.
Quem utiliza com frequência o Google Talk já deve saber que o programa há pouco tempo tornou possível a realização de conversas com vídeo e som, dispensando totalmente a utilização do teclado. Com o objetivo de integrar cada vez mais os produtos que lança, a Google agora disponibiliza essa alternativa também para o Orkut – ou seja, agora além de deixar recados para amigos, você vai poder conversar e vê-los em tempo real através do site de relacionamentos.
Converse por vídeo pelo Orkut
Para aproveitar o recurso, é preciso possuir uma webcam e um microfone conectados ao computador e baixar um pequeno plugin, disponível neste link do Baixaki, na qual podem ser encontradas todas as instruções de instalação necessárias. Esta etapa não é necessária para quem possui o Google Talk e já utiliza o recurso de conversa por vídeo pelo mensageiro instantâneo.
Em seguida, caso você não tenha habilitado o Google Talk através do Orkut, será preciso entrar na parte de configurações do site de relacionamentos e, na aba “bate-papo”, definir quais grupos de usuários podem se comunicar com seu perfil.
O próximo passo é acessar a lista de contatos exibida no canto da janela do Orkut e escolher um, com o qual você deseja se comunicar. Para descobrir quem tem a possibilidade de iniciar conversas de vídeo, basta ver o ícone exibido ao lado do nome do contato: aqueles que já possuem todos os requisitos necessários exibem um pequeno ícone verde no formato de câmera.
Localizado o contato com quem deseja falar, abra uma nova janela de bate-papo e clique em “Ações” > “Iniciar Bate-Papo por vídeo”. Quando você seleciona essa opção, o contato recebe um aviso sonoro e uma mensagem na qual pode optar por aceitar ou não a chamada naquele momento.
O usuário pode ajustar a posição e o tamanho da janela exibida conforme sua vontade, e basta um clique para iniciar a exibição em tela cheia. O contato com quem você está conversando é exibido em destaque na janela, e a imagem enviada pela webcam do usuário é mostrada em miniatura no canto esquerdo inferior da tela.
Caso você queira conversar com alguém que ainda não possui o ícone de câmera ao lado do nome de contato, basta convidá-lo a instalar o plugin necessário para permitir esta ação. Para isto, inicie uma conversa e seleciona a opção “Ações”>”Convidar para um Bate-Papo por voz e vídeo”.
Para facilitar a vida de quem ainda tem dúvidas sobre como habilitar a conversa por voz e vídeo através do Orkut, o blog da Google Brasil preparou um vídeo-tutorial completo que mostra todos os passos necessários para habilitar o serviço.
E você, o que achou deste novo serviço da Google? Não deixe de postar sua opinião em nossos comentários
Se você achava que a RIC ou os cartões de crédito com NFC estavam no escopo da pirâmide de inovações tecnológicas, saiba que mais novidades vêm por aí. A GE Global Research (centro de pesquisa da General Eletric) e a SABIC Innovative Plastics, líder mundial em termoplásticos, firmaram uma parceria em 2007 e que pretende render frutos em 2012. O produto da colaboração entre as duas empresas é um novo material holográfico de plástico que já é considerado o cartão do futuro.
A principal diferença entre o cartão holográfico GE/SABIC e os atuais é a forma de fabricação. Hoje em dia, os elementos holográficos são inseridos na superfície dos cartões, e isso facilita a falsificação. Já no cartão da GE/SABIC, o material holográfico é armazenado no interior o que, segundo os desenvolvedores, o torna virtualmente impossível de ser falsificado. Aplicações Os novos cartões devem começar a ser comercializados em 2012, tendo em vista que os protótipos estão em fase de testes. A principal aplicação do cartão com materiais holográficos internos é na área de identificação e pagamentos. Carteiras de motorista, identidade, passaportes e crachás corporativos são algumas das opções de uso.
Na área de pagamentos, a aplicação em cartões de crédito, débito e de correntistas é bem provável, pois seria possível substituir os pouco confiáveis selos 3D. Há ainda a possibilidade de criar selos de autenticidade, por exemplo, em computadores, celulares, óculos de sol e televisores. Com isso, falsificadores teriam muito mais trabalho para ludibriar os consumidores.
Imagens: Reprodução
Imagens 3D Além da inserção de imagens holográficas no interior dos cartões, a variedade de opções também se torna um item de segurança. É possível inserir desde impressões digitais, códigos binários, imagens 3D e até mesmo a face do portado do cartão ou uma pequena animação. Ao inserir impressões digitais ou a íris, acessar locais que exigem exames biométricos, como em auto-escolas, por exemplo, pode ser muito mais rápido.
No vídeo a seguir é possível visualizar um cartão com um rosto humano em três dimensões. A mesma pessoa foi reproduzida a partir de ângulos diferentes, o que proporciona a criação de uma pequena animação.
Obviamente, a aplicação dessa nova tecnologia em documentos de identificação ou cartões de pagamento vai depender do desenvolvimento – ou não – de materiais mais seguros e/ou com preço mais competitivo. O uso dos cartões com holografia interna da GE/SABIC mostra uma tendência: o dinheiro de plástico não vai sair de circulação tão cedo, apesar do crescimento dos pagamentos online e por radiofrequencia. E você usuário? Não seria legal ter um cartão de crédito personalizado com seu rosto ou digitais? Deixe sua opinião.
Imagine que você poderá mudar a cor do seu celular ou tocador MP3 com o toque de um botão. E não somente a cor do display, mas de todo o aparelho. Pense mais além, imagine um quarto onde será possível mudar a cor das paredes e das janelas conforme a necessidade de luz e o clima do ambiente. Estas ousadas propostas fazem parte do mais novo passo do projeto E-Paper da Philips: a E-Skin (traduzido literalmente como pele eletrônica).
E-Skin é uma evolução do E-Paper (papel eletrônico). Resumidamente, um papel eletrônico é o conjunto de duas folhas de plástico flexível com milhões de minúsculas partículas pretas e brancas entre elas, suspensas em um fluido transparente. Aplica-se uma carga elétrica e as partículas se movimentam para ativar ou desativar um ponto da tela, gerando palavras e imagens.
O papel eletrônico é monocromático, e cada pixel é controlado individualmente para exibir o texto, enquanto a pele eletrônica controla grupos de pixels, o que o torna ideal para exibir blocos de cores, padrões e gráficos simples. Cada pixel pode ser transparente ou não, o que possibilita ainda o controle de saturação e sombra. Ou seja, o E-Skin é uma película de plástico que recebe as partículas e as exibe com a cor desejada.
Nas palavras da própria Philips, a pele eletrônica é uma tecnologia de camaleão para mudar a cor de um aparelho e até mesmo de todo um ambiente. E o melhor: com economia no consumo de energia, feito possível porque o E-Skin não emite luz, e sim a reflete. Elise van den Hover, professora de Design Industrial na Universidade de Tecnologia de Eindhoven, na Holanda, diz que “a tecnologia não precisa de muita energia de baterias e é realmente uma pele leve que não aumenta o peso de um objeto”.
E é exatamente pela leveza e simplicidade de uso que a possibilidade de levar esta tecnologia além não é nada impossível, pelo contrário. A pele eletrônica, em ambientes maiores, pode ser ótima para ajustar um quarto a uma temporada, como vitrines de lojas. Até mesmo as janelas podem funcionar de acordo com a quantidade de luz natural, permitindo somente a entrada necessária de luz e mantendo o calor fora do ambiente, diminuindo a necessidade de ar condicionado, por exemplo.
Foto: Philips
Em um video game, por exemplo, a cor do dispositivo poderia se adequar ao clima do desafio: sombrio para os momentos mais tensos e colorido para os mais divertidos. Para as mulheres, um celular cairia perfeitamente com qualquer roupa, pois a combinação entre os dois seria fácil. Na cozinha, a garrafa térmica poderia indicar a temperatura do conteúdo através da mudança de cor.
Em um hospital, as salas poderiam ser adequadas para deixar os pacientes mais tranquilos. Para prédios, a pele pode exercer um papel fundamental para amenizar os efeitos do clima. Prédios em países quentes podem usar pele branca para refletir a luz, enquanto os países frios podem utilizar pele preta para absorver o máximo de calor.
Como afirma Kars-Michiel Lensse, cientista da área de pesquisas da Philips, “a primeira aplicação usando a tecnologia pode ser E-Skins para aparelhos pequenos como tocadores MP3 ou celulares. No entanto, a tecnologia é altamente escalável. No futuro será possível usar E-Skins para trazer novas cores e uma nova aura ou ‘vibe’ a equipamentos muito maiores”.
Não é a primeira vez que a possibilidade de alterar a cor de um dispositivo é cogitada. Em junho de 2009, a Kent Displays exibiu um celular que trocava de cor entre oito opções diferentes utilizando a tecnologia chLCD – Display de Cristal Líquido Colestérico, uma variação do LCD que pode se moldar a qualquer objeto.
A E-Skin foi apresentada na IDW – International Display Workshops – de 2009, mas não há previsão de quando ela pode ser aplicada como se imagina.
Máquinas virtuais já não são novidade alguma no mundo dos PCs. Desde programas caros e complexos como o Parallels Desktop até iniciativas de código livre como o VirtualBox, usar um sistema operacional “dentro” de outro é - além de fácil - prático e comum em alguns ambientes. Desenvolvedores multiplataforma, por exemplo, são grandes usuários desse tipo de adaptação.
Com os smartphones, a distância entre um computador e um telefone também diminui gradativamente. Se antes era difícil até mesmo escrever os nomes de seus contatos em um tecladinho alfanumérico, hoje com teclados QWERTY - físicos ou virtuais - é possível escrever documentos extensos sem grandes problemas.
Assim sendo, por que não arriscar transportar tecnologias? Os netbooks são uma tentativa de aproximar os computadores da portabilidade obtida com um celular, e agora a VMWare - empresa que se dedica quase exclusivamente ao desenvolvimento da tecnologia de máquinas virtuais - começou o caminho contrário.
Com seu novo projeto - o VMWare MVP (Mobile Virtualization Platform - plataforma de virtualização móvel) - os desenvolvedores da empresa levam aos smartphones a possibilidade de rodar ao mesmo tempo dois sistemas em um único aparelho.
Apesar de tradicionalmente consideradas como sinônimo de queda de performance, as máquinas virtuais - quando devidamente configuradas - não atrapalham muito o desempenho do equipamento. No caso de aparelhos celulares, que normalmente têm processadores um pouco mais fracos, isso poderia ser um problema grave.
Felizmente as fabricantes costumam colocar dois processadores nos aparelhos celulares - graças a uma exigência da FCC (Federal Communications Commision - comissão federal de comunicações americana) - sendo um deles dedicado exclusivamente ao controle da antena de telefonia. O segundo chip, portanto, ficaria responsável por processar o sistema operacional do telefone e seus aplicativos - entre eles a máquina virtual.
Vantagens
Certamente um sistema de virtualização não seria bem aproveitado em aparelhos não smartphones, tanto pela limitação de entrada - teclados restritos, apesar de alguns telefones inteligentes também sofrerem deste mal - quanto pela pouca capacidade de processamento.
Como os principais clientes - por enquanto - desta categoria de aparelhos são empresas que os fornecem a seus executivos e altos funcionários, uma das principais vantagens seria a possibilidade dessas pessoas manterem uma conta particular no mesmo aparelho, sem necessitar de dois chips GSM para isso - uma vez que poucos telefones suportam essa configuração - e principalmente sem comprometer a segurança dos dados hospedados no perfil profissional.
Outro ponto importante faz muita diferença para o consumidor, porém o maior beneficiado é o desenvolvedor. Em um dos testes da VMWare, a empresa colocou para funcionar um aplicativo do Android dentro do Windows CE, com uma máquina virtual de menor capacidade gerenciando apenas o programa. Se isso chegar ao consumidor, acaba o problema de “tem versão para BlackBerry? E para Symbian?” para qualquer aplicativo menos, naturalmente, a própria engine de virtualização, chamada pela VMWare de hypervisor.
Ressalvas
Apesar de ser uma tecnologia promissora - e comprovadamente interessante para o usuário, pela experiência com PCs - a virtualização de sistemas operacionais em celulares vai esbarrar em algumas dificuldades.
A primeira delas é o desinteresse dos fabricantes. Como alguns deles - principalmente a Apple - dominam com mão de ferro quais aplicativos estão disponíveis para seus smartphones, dificilmente colaborariam de fato com uma iniciativa dessa natureza.
Semelhante a isso, um outro problema é a compatibilidade dos sistemas operacionais para celular atuais com o aparato de virtualização. Como foi dito antes, a tecnologia favorece o desenvolvedor de aplicativos, pois ele para de depender de versões, diferentes sistemas etc., desde que a máquina virtual exista para cada SO usado. Aliado ao pouco interesse das empresas fabricantes, o mercado de virtualização móvel se inicia bastante restrito.
Porém, o maior desafio a ser enfrentado pela VMWare - e outras empresas que porventura entrem neste barco - é a falta de necessidade real pela tecnologia. Claro que ter aplicativos de Android, por exemplo, rodando em um aparelho da RIM - fabricante dos BlackBerry - porém tirando o fator “que legal!”, não existe de fato demanda para isso.
Enfim...
Só resta esperar para ver até aonde isso vai. A tecnologia existe, ainda que nos primeiros estágios em termos de celulares, e parece muito interessante. O usuário médio pode até não se aproveitar da mesma, mas empresas e hard users certamente se beneficiariam mais das possibilidades criadas a partir da virtualização. O fato é que só o tempo – e as pressões do mercado – poderão decidir o destino das máquinas virtuais em aparelhos celulares.
A nova moda ao falar de computadores neste ano sem dúvida remete aos modelos all-in-one (tudo em um). Para quem ainda não conhece, nesses PCs todos os componentes - processador, placa-mãe, memória, HD - são colocados dentro do monitor, o que dá um belo visual para o conjunto e poupa bastante espaço.
Neste artigo falaremos da nova linha de PCs all-in-one da Sony. Intitulada de L series, apresenta um belo visual e um conjunto de hardware dificilmente encontrado em outras marcas atuais. Confira abaixo um pouco mais sobre o melhor que um all-in-one pode oferecer.
VAIO L Series All-in-One Touchscreen
Este é o nome da nova linha de computadores tudo em um da Sony. Por enquanto há três modelos disponíveis no site oficial da empresa e nada pode se afirmar sobre a chegada dos produtos no Brasil, embora isso deva ocorrer nos próximos meses.
Todos os modelos apresentam um belo monitor de 24 polegadas com resolução de 1920 X 1080 pixels. Dentro dele são colocados todos os componentes. É possível comandar as funções principais da máquina através do sistema touchscreen que as versões apresentam, a partir de toques na tela. Logo abaixo listamos as versões já disponibilizadas pela Sony:
VPCL116FX/B
Este modelo é o mais avançado da série e conta com componentes de altíssimo desempenho. Ele é indicado para quem precisa de uma estação multimídia completa e não quer nada menos do que o melhor que há em um all-in-one: filmes em Blu-ray, entrada HDMI e desempenho excepcional para jogos. Confira abaixo a lista de especificações:
VPCL111FX/B
Se você não faz questão de ter os melhores componentes disponíveis em um all-in-one e gostaria de ter as mesmas possibilidades do modelo anterior, esta é a versão mais indicada. Por 500 dólares a menos você também conta com tela touchscreen e leitor de Blu-ray, além das seguintes configurações:
VPCL112GX/B
O terceiro e último modelo conta com basicamente as mesmas configurações do anterior. As únicas diferenças são quanto à falta do leitor de Blu-ray e a presença do Windows 7 Professional no lugar do Home Premium. Se essas mudanças são decisivas para você, o modelo pode ser o mais indicado.
Os tudo em um vieram para ficar!
O mercado dos computadores all-in-one está em alta e diversas empresas já lançaram modelos para todos os perfis de usuários. O belo visual das máquinas e o desaparecimento do gabinete são características que cativam cada vez mais usuários pelo mundo. A Sony chega com a nova série Vaio L para mostrar que não está de brincadeira e oferece algumas das melhores configurações já vistas no segmento.
Tela em 24 polegadas de alta resolução e função touchscreen; teclado e mouse sem-fio controlados por Bluetooth; excelente combinação de processador, memória, HD e placa de vídeo. Todas essas qualidades prometem acirrar ainda mais a disputa pela preferência dos usuários, que já contam com um bom leque de opções para os PCs tudo em um. No Brasil os modelos Vaio L ainda não chegaram, mas há boas esperanças de que isso ocorra em breve.
Não adianta discutir, o DirectX é a melhor tecnologia para produção e reprodução de gráficos tridimensionais em jogos para computador. A API da Microsoft já tem mais de dez anos e ao longo do tempo, este pacote de soluções para programadores (e jogadores) evoluiu muito. Este ano a Microsoft irá lançar a versão final do DirectX 11, o qual deve vir junto com o lançamento do Windows 7 e poderá ser utilizado — através de uma atualização — pelos usuários do Windows Vista.
O Baixaki não poderia deixar de lhe informar as principais novidades da 11ª versão do DirectX, por isso criamos este artigo que mostrará novidades, jogos e placas que serão compatíveis com o DirectX 11.
Tessellation
O primeiro recurso que iremos abordar é a introdução do Tessellation. A Tessellation (algo como Tecelagem, numa tradução livre para o português) é uma técnica utilizada para reduzir as imperfeições nas imagens tridimensionais. Quem já assistiu animações no cinema (filmes como Toy Story e outros) ou os vídeos de introdução presentes na maioria dos jogos, já viu o que a Tesselation faz.
Esta técnica demorou em chegar ao DirectX, porque ela exige um potencial muito grande de hardware para ser reproduzida em tempo real. Agora que as placas já estão devidamente preparadas, a equipe de desenvolvimento do DirectX decidiu incluir a técnica para ser utilizada em jogos. A Tessellation funciona de um modo relativamente simples, acompanhe nossa explicação.
Os objetos em um jogo tridimensional, ou de uma cena de animação em 3D, são compostos de vários polígonos. Normalmente eles são feitos por vários triângulos, de modo que ao juntar tudo eles formam um objeto em três dimensões. Isso já era comum em qualquer jogo, contudo com o novo DirectX e a técnica Tessellation, este número de polígonos irá aumentar significativamente, o que garantirá objetos, gráficos, personagens e paisagens com um número menor de imperfeições. Veja abaixo algumas demonstrações e vantagens da Tessellation.
Roupas dos personagens melhor produzidas
Personagens melhor desenhados
Confira também um vídeo que a AMD criou para demonstrar a aplicação do Tessellation na criação de personagens.
Água muito bem detalhada
Além desses exemplos, a técnica Tessellation permitirá a introdução de ambientes e cenários ainda mais reais, um incrível suporte a cenas com uma quantidade de imensa de personagens (os quais serão bem mais detalhados) e muitos outros recursos. Antes de continuar falando sobre as novidades do DirectX 11, queremos compartilhar um vídeo que mostra a incrível qualidade que o DirectX 11 poderá obter.
Multi-Threading
Este recurso já existia no DirectX 10, mas nem sempre era utilizado. Com a introdução do DirectX 11, o Multi-Threading foi aprimorado, de modo que agora ele faz muita diferença. Para quem não conhece, o Multi-Threading é uma tecnologia que faz a GPU auxiliar a CPU. Esta tecnologia faz com que as placas de vídeo recebam múltiplas tarefas para realizar enquanto o processador principal está efetuando outras atividades.
Vale salientar que tal tecnologia fará melhor proveito tanto das novas placas com múltiplos núcleos, como dos novos processadores com quatro ou mais núcleos. A Multi-Threading deve melhorar significativamente o desempenho nos jogos mais recentes, o que será perceptível pela velocidade (FPS) dos games.
Compute Shaders
Compute Shaders é um conjunto de programas que pode ser utilizado para melhorar significativamente os detalhes dos gráficos tridimensionais. Esta tecnologia poderá utilizar uma série de novos recursos para aprimorar os gráficos. Começando pela melhora na iluminação (transparência independente de cada objeto, Ray-tracing), nas sombras (as sombras obedecerão a iluminação e irão ficar muito mais parecidas com o que você vê na vida real). Confira um vídeo que demonstra um teste do site Guru3D com as placas novas da ATI.
Além disso, o conjunto de Compute Shaders trará o recurso de campo de profundidade, em que o jogador verá nitidamente a mudança de foco conforme o objeto que esteja sendo observado. Fora isso, com esta novidade o DirectX deve ter um ganho significativo na quantidade de detalhes nos ambientes, ao utilizar a combinação entre iluminação e sombreamento.
Veja a imagem abaixo, retirada do vídeo de demonstração da AMD. A personagem mascote da ATI ficou quase real nesta imagem, sendo que ela foi toda criada com os recursos do DirectX 11. Repare bem no cabelo, nos olhos e até nos detalhes da pele.
Jogos que utilizarão o DirectX 11
Evidentemente, até o momento não existem jogos disponíveis no mercado dos games que utilizem o DirectX 11. Contudo, a partir do mês de Outubro, alguns jogos começarão a introduzir aos jogadores as novidades do DirectX. O número de games que usufruirão do DirectX 11 deve aumentar logo, porque os desenvolvedores de jogos começarão a investir na produção de novos títulos com tal tecnologia.
Abaixo colocamos alguns vídeos de novos jogos que utilizarão a nova versão do DirectX, confira.
Até um mês atrás não se sabia muito sobre as placas de vídeo com suporte ao DirectX 11. Todavia, agora já temos bons exemplos de itens de hardware capazes de trabalhar com as novas tecnologias. Assim como ocorreu com o DirectX 10.1, novamente a AMD saiu na frente e mostrou a primeira placa compatível com a 11ª versão do DirectX.
A série ATI Radeon HD5800 deve ser totalmente compatível com o DirectX 11, mas até o momento a AMD só divulgou duas placas desta série (confira imagens abaixo). O Baixaki já divulgou um artigo sobre a nova ATI Radeon HD5870, o qual você pode conferir clicando aqui.
Comece a economizar
Os jogadores e entusiastas que adoram gráficos estonteantes devem já começar a guardar dinheiro para a compra das novas placas. Ainda não foi definida a data de chegada destas placas aqui no Brasil, mas especula-se que no começo do ano que vem, ambas as fabricantes devam lançar suas placas por aqui. Os preços devem ser superiores a R$ 1.500,00 reais, sendo provável que hajam modelos de duplo núcleo que superem o valor de R$ 2.000,00 reais facilmente.
O que você achou do novo DirectX? Qual a novidade que você pensa ser a mais interessante? As evoluções compensam o investimento numa placa de tão alto valor? Opine a respeito, sua participação é muito importante para nós.