Pesquisar:

Pesquisa personalizada

sábado, 27 de novembro de 2010

Telas flexíveis de papel prometem leitores eletrônicos descartáveis

Uma nova tecnologia de geração de imagens para telas e monitores poderá permitir que os papéis eletrônicos e os leitores eletrônicos - os chamados e-Readers - tornem-se tão baratos que poderão até mesmo ser descartáveis.
Embora o setor de alta tecnologia ainda não esteja muito avançado quando o assunto é a reciclagem, equipamentos mais baratos têm um grande apelo e podem viabilizar novas aplicações.

Telas de papel e água

O grupo do Dr. Andrew Steckl, da Universidade de Cincinnati, nos Estados Unidos, começou a brilhar no mundo das telas e monitores em 2004, quando lançaram os primeiros pixels baseados em elementos de terras raras.
Agora, Steckl e seu colega Duk Young Kim descobriram que é possível usar papel comum como substrato flexível para um tipo de tela baseada em um princípio chamado eletroumectação.
A eletroumectação consiste na aplicação de um campo elétrico em minúsculas gotas de água coloridas, dispensando o uso de filtros e tornando a tecnologia potencialmente muito mais barata.
As telas de aparelhos como o iPad utilizam tecnologias muito mais complicadas e mais caras, cujos circuitos são montados em placas rígidas de vidro. Leitores como o Kindle, por sua vez, embora já utilizem eletrônica orgânica, que pode potencialmente chegar a ser flexível, ainda estão limitados aos tons de cinza.
Papel eletrônico

"Um dos principais objetivos do papel eletrônico é replicar a aparência e a sensação do papel impresso real," defendem os pesquisadores em um artigo que mereceu a capa da atual edição de uma das revistas científicas mais importantes da área.
Com tal purismo, os cientistas nem foram atrás de imitações, e resolveram usar o próprio papel como substrato.
"Com o papel certo, com o processo certo e com a técnica de fabricação adequada, você pode obter resultados que são tão bons quanto os que você obtém com o vidro, e nossos resultados são bons o suficientes para um leitor eletrônico capaz de mostrar vídeos," diz o Dr. Steckl.
Segundo ele, uma tela baseada no seu papel eletrônico poderá ser totalmente enrolável, vai lembrar o papel em aparência e ao toque, e poderá ser usada para leitura, para navegação na internet ou para ver filmes, mesmo em condições externas, com o dia claro.

"Nós esperamos ter algo que realmente se parecerá com papel, mas se comportará como um monitor de computador em termos de sua capacidade de armazenar e mostrar informações। Nós poderemos ter algo que será muito barato, muito rápido, full-color e que, no final do dia ou da semana, você poderá jogar no lixo," prevê o pesquisador.

Leitores eletrônicos descartáveis
E por que alguém iria querer jogar seu Kindle ou seu iPad no lixo depois de apenas uma semana de uso, se ele pode ser usado para múltiplas leituras?
O Dr. Steckl defende seu ponto de vista: "Em geral, este é um método elegante para reduzir a complexidade do aparelho e o seu custo, resultando em equipamentos descartáveis."
Elegante ou não, reciclar o novo papel eletrônico do Dr. Steckl será realmente muito mais simples do que reciclar as telas atuais.
Só que reciclar papel comum é mais simples do que reciclar o novo papel eletrônico - mas provavelmente este não será assim tão barato a ponto de viabilizar jornais e revistas de papel eletrônico e a preocupação provavelmente se mostrará injustificada.
Steckl e Kim foi a mesma dupla que inventou o LiquiFET, o primeiro transístor de estado líquido, um marco no desenvolvimento dos biochips.

sexta-feira, 26 de novembro de 2010

Kandou - seu computador ainda vai ter um

A melhor estimativa feita até agora cravou em 150 bilhões de kWh o consumo de eletricidade de todos os computadores do mundo.
Qualquer fração de redução em tamanha magnitude pode ter um impacto econômico e ambiental de grandes proporções.
E quem vem em nosso socorro nessa empreitada é ninguém menos do que a super heroína... Matemática.
Rodovias da informação
Embora todos os equipamentos eletrônicos sejam equipados com processadores muito rápidos, eles continuam tendo que trocar dados com a sua "periferia" - memória, monitores, impressoras, teclados e uma infinidade de outros periféricos.
Essa comunicação - seja com os periféricos, seja com outros processadores - usa as chamadas "rodovias da informação" que, em vez de asfalto, são feitas mais comumente de cobre.
O problema é que esses pequenos fios costumam ficar muito próximos uns dos outros, e acabam criando uma interferência mútua, sujando os sinais e impedindo que os processadores funcionem em sua capacidade total.
É sempre possível amplificar os sinais.
O problema é que as interferências aumentam proporcionalmente. É mais ou menos como se duas pessoas decidirem falar mais alto em um restaurante, achando que vão ouvir melhor uma à outra - logo, seus vizinhos elevarão o volume e todos gastarão muito mais energia para chegar ao mesmo resultado de antes.
Limites dos barramentos
Agora, Harm Cronie e Amin Shokrollahi, da Escola Politécnica Federal de Lausanne, na Suíça, encontraram uma forma de enfrentar esse problema, abrindo caminho para a construção de computadores que gastam menos energia.
De forma um tanto inusitada, os dois pesquisadores foram buscar auxílio da matemática para criar sua solução, batizada de Kandou.
Ao longo dos últimos 10 anos, os barramentos dos computadores vêm sendo modificados, adotando novas técnicas de transmissão dos sinais.
Atualmente, a informação é transmitida por pares de fios. Em um deles, a mensagem é transmitida em "positivo" e, no outro, em "negativo".
Cada par de fios sofre mais ou menos a mesma interferência do ambiente. Subtraindo a informação "positiva" da informação "negativa", esses distúrbios são anulados, enquanto a intensidade do sinal é duplicada.
Esta solução é eficaz, mas exige o dobro de fios, o que nem sempre é viável. Assim, a quantidade de energia por fio tem que ser aumentada para se obter a velocidade desejada. O resultado - embora melhor do que simplesmente amplificar os sinais - ainda ão é perfeito.
Barramento Kandou
Já o barramento Kandou usa um algoritmo especial para codificar os sinais, que são todos transferidos simultaneamente. No destino, um decodificador recupera os sinais originais.
No exemplo do restaurante, é como se, em vez de começarem a falar mais alto, um casal passasse a usar a linguagem de sinais, enquanto seus vizinhos continuassem falando em português.
O Kandou utiliza um sistema semelhante, evitando que os fios vizinhos interfiram entre si, gerando um nível de ruído significativamente menor.
As vantagens são muitas, incluindo o uso de poucos fios, o que reduz o tamanho dos chips, o aumento na velocidade de transmissão, e o menor consumo de eletricidade.
A tecnologia já foi apresentada às grandes empresas do setor de tecnologia da informação, e tem grandes chances de ser incorporada aos computadores, celulares e outros aparelhos eletrônicos nos próximos anos.

Vêm aí os computadores caóticos


Portas lógicas booleanas
Com todas as maravilhas que seu computador lhe permite, no fundo, no fundo, ele é feito de minúsculas chaves, chamadas transistores, arranjadas na forma de pequenos circuitos, chamados portas lógicas.
Uma porta lógica é um circuito que recebe duas entradas e fornece um resultado de saída.
Para que seu computador funcione da maneira que você espera, essas portas lógicas devem dar resultados muito precisos. Uma porta AND, por exemplo, só deve dar resultado 1 quando ela receber duas entradas 1. Já uma porta OR dará sempre resultado 1, a menos que haja duas entradas 0.
Se parece confuso, saiba que, juntando meia dúzia de "maquininhas" capazes de tomar decisões desse tipo, você nem precisa de transistores, e pode construir um computador de qualquer coisa - de varetas e cordas ou de copos e canos com água, por exemplo.
Mas suas "maquininhas", ou suas portas lógicas, deverão sempre dar respostas simples, precisas e unidirecionais - ou 0 ou 1, dependendo dos dois valores que entram. Depois é só montar tudo em uma estrutura hierárquica bem definida e você terá um computador.
Portas caóticas
Mas agora um grupo de cientistas de várias universidades norte-americanas está propondo uma mudança radical nesse enfoque.
Em vez do determinismo e da precisão das portas lógicas tradicionais, eles acreditam que é possível construir computadores melhores usando "portas caóticas", ou portas que tomam suas decisões com base nos fenômenos descritos pela teoria do caos.
De forma bem simplificada, eles usaram padrões caóticos para codificar e manipular as entradas de forma a produzir a saída desejada.
Eles selecionaram os padrões desejados a partir da infinita variedade oferecida por um sistema caótico. Um subconjunto desses padrões foi então utilizado para mapear as entradas do sistema (as condições iniciais) nos resultados desejados.
O mais interessante é que esse processo permite construir dispositivos de computação com a capacidade de se reconfigurar em uma série de portas lógicas diferentes.
Eles batizaram essas portas capazes de se metamorfosear de Chaogates. E, como sempre acontece nas universidades norte-americanas, e deveria também acontecer nas brasileiras, eles fundaram uma empresa, a ChaoLogix, para tentar vender sua ideia.
Computador metamórfico
"Imagine um computador capaz de mudar seu próprio comportamento interno para criar um bilhão de chips customizados a cada segundo, baseado no que o usuário está fazendo naquele segundo - um computador que possa reconfigurar a si mesmo para se tornar o computador mais rápido no momento para a sua aplicação," vislumbra William Ditto, da Universidade do Arizona, um dos autores da nova técnica.
Segundo Ditto, a ChaoLogix já está montando os primeiros protótipos de computador caótico e já é possível verificar que a abordagem poderá ser útil para equipamentos eletrônicos comuns, para computadores voltados para jogos e para sistemas de informática mais seguros.
Segundo o pesquisador, os processadores caóticos não apenas poderão ser fabricados com a mesma tecnologia dos atuais, como eles poderão ser incluídos em circuitos mistos, que mesclem processadores lógicos convencionais e processadores caóticos.
"As portas caóticas são os blocos básicos de novos sistemas computacionais baseados no caos, que vão explorar as gigantescas capacidades de formação de padrões dos sistemas caóticos em benefício da computação," diz ele.
Mapa logístico
Ao contrário do que se possa imaginar, sistemas caóticos não são nem aleatórios e nem imprevisíveis: eles apresentam padrões irregulares extremamente sensíveis às condições iniciais.
Um sistema caótico gera uma saída em resposta a uma dada entrada, de forma muito parecida com um circuito booleano tradicional - mas a saída é muito sensível aos valores de entrada e às condições iniciais da rede.
Ditto e seus colegas descobriram que a adição de mecanismos de controle bastante simples permite definir o padrão de saída de forma muito segura - isto significa que uma mesma porta caótica pode executar várias funções lógicas.
A chave para a geração de múltiplas saídas a partir do mesmo conjunto de entradas é baseada em um conceito chamado "mapa logístico", que descreve uma função matemática não-linear que mapeia as entradas para uma saída específica.
Os cientistas desenvolveram uma função de mapeamento logístico que utiliza as propriedades não-lineares de um transístor CMOS comum de tal forma que é possível criar uma célula caótica muito eficiente.
Computadores híbridos
Circuitos de interfaces simples permitem que a célula caótica seja interconectada com outros circuitos caóticos ou com portas lógicas booleanas tradicionais, abrindo o caminho para a tecnologia e para a viabilização de computadores híbridos.
Uma das vantagens das portas caóticas é que elas possuem uma "assinatura de potência" que é independente do estado lógico de entrada.
Esta é uma característica importante para aplicações seguras, permitindo o uso de técnicas de análise diferencial para determinar as chaves de criptografia - por exemplo, pelo monitoramento da corrente elétrica consumida pelo circuito.
Bibliografia:

Chaogates: Morphing logic gates that exploit dynamical पत्तेर्न्स

William L। Ditto, A। Miliotis, K। Murali, Sudeshna Sinha, Mark L. सपनों

चोस

November 2010Vol.: 20, 037107 (२०१०

)DOI: 10.1063/1.3489889


sábado, 20 de novembro de 2010

Supercomputadores de baixo custo estão com os dias contados


CUDA, a arquitetura de computação paralela da NVIDIA, tem sido aclamada como "A Supercomputação para as Massas".
E com razão - acelerações incríveis, que vão de 10 até centenas de vezes - foram relatadas em artigos e códigos técnicos e científicos.
O engine CUDA se tornou um queridinho da computação acadêmica e chegou até ao programa Exascale, do Departamento de Defesa dos Estados Unidos.
Mas não é só o desempenho o responsável por tanta popularidade: o preço dá o golpe final nessa luta.
Com todo o seu poder de computação, as placas gráficas são incrivelmente baratas. Como observou Sharon Glotzer, da Universidade de Michigan,: "Hoje você pode ter dois gigaflops por US$500. Isso é ridículo."
Realmente é. E isso só é possível porque o CUDA é subsidiado pela distribuição dos custos fixos do seu desenvolvimento pelo grande volume alcançado na fabricação das placas gráficas mais baratas para o mercado de entra (low-end).
Intel e AMD reagem
Infelizmente, essa subvenção não vai durar para sempre, e seu fim agora já é visível.
A Intel já começou a bater os tambores do marketing em algo previsto há muito tempo: a integração dos chips gráficos da empresa nas mesmas pastilhas que a sua próxima geração de processadores "Sandy Bridge", que deverão chegar ao mercado em meados de 2011.
Provavelmente não por coincidência, em meados de 2011 é também quando o processador Llano da AMD verá a luz do dia. Ele parece incorporar um processamento gráfico suficiente para ser comparado com uma GPU DX11, embora a arquitetura ainda não tenha sido divulgada em detalhes.
A AMD também já começou a demonstrar sua arquitetura CPU/GPU chamada Fusion.
Conforme relatado recentemente no Intel Developer Forum, o site Anandtech recebeu um demo inicial do Sandy Bridge e avaliou, entre outras coisas, sua capacidade gráfica.
Sua avaliação foi de que, para um chip tão preliminar, com drivers ainda em início de desenvolvimento, a uma resolução baixa, mas útil, de 1024x768, há um desempenho adequado para jogos como Batman: Arkham Asylum, Call of Duty MW2 e um monte de outros, incluindo o Worlds of Warfare. E ele ainda vai rodar Blue-Ray 3D.
A conclusão do Anandtech foi: "Se este é o nível de entrada que se pode esperar, eu não tenho certeza se vamos precisar de mais do que um chip gráfico integrado para notebooks não voltados especificamente para jogos."
Isto está certo, e podemos adicionar também os desktops a essa conclusão.
Mas, claro, a Nvidia não está parada. Ao nível de entrada, eles anunciaram que estão entrando no mundo 3D, e que também vão consumir menos energia.
Mas os chips gráficos integrados são, efetivamente, de graça. Na verdade, mais baratos do que de graça, uma vez que há um chip a menos para inserir na placa-mãe, eliminando o espaço do soquete e os custos de fiação. A fonte também, provavelmente, poderá encolher um pouco.
Isto significa o fim do subsídio para as placas gráficas de alto desempenho, como as CUDA da Nvidia.
Esse subsídio é muito significativo porque os custos fixos de desenvolvimento de toda uma família de chips são muito grandes. Distribui-los pelos grandes volumes do mercado de entrada faz uma grande diferença, ainda que os produtos de ponta sejam uma fonte de receitas substancial.
Assim, os preços vão subir, uma vez que as GPUs já não terão a enorme vantagem atual de preços em relação aos gráficos integrados.
Quanto elas vão aumentar? É muito difícil dizer, mas é possível estimar que a diferença será substancial.
Cell versus PS3
Em uma palestra recente na Universidade do Colorado, o Dr. Richard Linderman, cientista-chefe do Laboratório de Pesquisas da Força Aérea, em Nova Iorque, falou sobre a construção de um sistema de supercomputação que utilizaria os chips Cell, da IBM.
Mas ele viu que poderia fazer o mesmo sistema usando os PS3 da Sony. Os PS3, subsidiados por seu grande volume de produção, custam 380 dólares cada um. Uma oferta da IBM, lançada recentemente, incluindo uma CPU com dois chips Cell, chegou a US$6.000, e com um aviso para não tentar pechinchar mais.
O Dr. Linderman então usou todo o seu orçamento para comprar todos os PS3s que conseguiu, montou-os em prateleiras de aço usadas em padarias, e começou alegremente a fazer suas supercomputações.
Trata-se de uma diferença de 10 vezes - e isso com o projeto do chip em si já amortizado.
Ainda que seja ver o problema só por um lado - o DNA da IBM não inclui produzir nada em grandes volumes - isto é consistente com o mergulho dos preços da produção das placas gráficas de entrada.
Então, aproveitem os "supercomputadores para as massas" enquanto eles estão disponíveis, porque seus dias estão contados.

sexta-feira, 19 de novembro de 2010

Memória racetrack poderá substituir discos rígidos


O que se pode esperar de um sistema de armazenamento de dados batizado de "pista de corridas"?
Os cálculos indicam que é factível contar com uma velocidade 100.000 vezes maior do que os discos rígidos atuais, gastando uma fração da energia e sendo ainda totalmente à prova de choque.
Memória racetrack
O conceito de racetrack memory, uma pista de corrida para bits, que promete criar discos rígidos sem partes móveis, foi lançada por um pesquisador alemão, em 2007.
Posteriormente, cientistas da IBM deram um toque na ideia, sinalizando com uma memória spintrônica que poderá ser fabricada em pastilhas 3D.
Enquanto em um HD os discos giram para movimentar os bits, fazendo-os passar pelas cabeças de leitura e gravação, na memória "pista de corrida" são os bits que se movem ao longo de fios estacionários, empurrados por pulsos de corrente elétrica.
Agora, Mathias Klaui e seus colegas da Escola Politécnica Federal de Lausanne, na Suíça, deram um novo impulso ao conceito, trazendo-o mais próximo da viabilidade prática.
Pista de corrida de bits
A pista de bits é formada por nanofios de níquel-ferro. Os bits de informação são armazenados magneticamente no fio, como acontece nas fitas magnéticas - com a diferença substancial de que, na memória racetrack, não há partes móveis.
Para movimentar os bits ao longo da pista, usa-se uma corrente elétrica polarizada pelo spin, com o que se obtém uma velocidade de várias centenas de metros por segundo - para continuar a comparação com as fitas magnéticas, seria como ler uma fita VHS inteira em menos de um segundo.
O spin de um elétron pode estar apontando para uma direção ou para outra. Uma corrente de spin consiste em separar as duas classes de elétrons, transmitindo cada uma delas por uma rota diferente.
Para que a ideia seja factível, cada bit de informação deve ser cuidadosamente separado de seus vizinhos, para que os dados possam ser lidos com confiabilidade. Isto foi alcançado usando paredes de domínio com vórtices magnéticos para separar os bits adjacentes.
Klaui e seus colegas mediram o deslocamento dos vórtices magnéticos e descobriram que seu movimento físico permite velocidades de leitura muito maiores do que estava sendo calculado até agora.
O artigo que descreve o avanço, publicado na Physical Review Letters, mereceu um comentário dos cientistas da IBM que também trabalham no desenvolvimento da memória racetrack.
Eles não apenas ressaltaram a importância dos resultados, como parecem estar consistentes com suas previsões anteriores. Em 2008, eles estimavam que a memória spintrônica poderia chegar ao mercado em 10 anos. Agora, eles arriscaram um período de 5 a 7 anos.
Boot instantâneo
Milhões ou mesmo bilhões de nanofios podem ser incorporados em um único chip, inclusive superpostos em estruturas tridimensionais, criando cartões de memória racetrack com capacidades muito acima do que se espera ser alcançado com os discos rígidos.
O consumo de energia é baixo mesmo quando se compara com as atuais memórias RAM. Para manter seus dados, a memória RAM precisa ser alimentada mais de um milhão de vezes por segundo. Assim, mesmo sem uso, um computador consome cerca de 300 mW apenas para manter seus dados na RAM.
Como a memória racetrack armazena seus dados magneticamente, a energia só sendo necessária para movimentar os bits, os pesquisadores calculam que ela consumirá 300 vezes menos energia do que uma memória RAM de mesma capacidade.
O mais esperado, contudo, é a velocidade de leitura dessas memórias spintrônicas, o que poderá significar computadores com boots instantâneos. Tão esperado quanto a memória universal.

Bibliografia:

Direct Determination of Large Spin-Torque Nonadiabaticity in Vortex Core Dynamics
L. Heyne, J. Rhensius, D. Ilgaz, A. Bisig, U. Rüdiger, M. Kläui, L. Joly, F. Nolting, L. J. Heyderman, J. U. Thiele, F. Kronast
Physical Review Letters
October 25, 2010
Vol.: 105, 187203 (2010)
DOI: 10.1103/PhysRevLett.105.187203

Disco rígido quântico chega aos quatro bits


Em um experimento que está sendo comparado a um "disco rígido" para um computador quântico, cientistas demonstraram o funcionamento conjunto de quatro memórias quânticas fisicamente isoladas.
Entrelaçamento quádruplo
Os cientistas do Instituto de Tecnologia da Califórnia, nos Estados Unidos, criaram um entrelaçamento de um estado quântico armazenado em quatro memórias atômicas espacialmente distintas.
O experimento é um passo adiante em relação a uma pesquisa histórica, feita por cientistas brasileiros, que demonstraram o entrelaçamento quântico triplo pela primeira vez em 2009.
Posteriormente, os brasileiros demonstraram razões para a chamada "morte súbita", a perda do entrelaçamento entre as partículas, com a consequente perda dos dados das memórias quânticas.
No experimento agora realizado pela equipe norte-americana, as memórias quânticas são lidas por quatro feixes de luz, o que permite o entrelaçamento entre todas elas - o entrelaçamento permite que duas ou mais partículas compartilhem suas propriedades mesmo sem qualquer ligação física entre elas.
"Disco rígido" quântico
A agregação de memórias adicionais fez com que os pesquisadores se entusiasmassem - com razão - e sugerissem que o complexo aparato óptico pode ser comparado aos primórdios de um disco rígido dos computadores quânticos, funcionando como o depósito dos dados.
A pesquisa representa uma importante conquista na ciência da informação quântica, estendendo o controle do entrelaçamento para quatro sistemas separados espacialmente, permitindo a troca de informações entre a matéria e a luz - os feixes de laser leem os dados no aglomerado de átomos e os fótons coordenados podem ser distribuídos por redes quânticas para a transmissão dos dados ou para processamento.
Na pior da hipóteses, se não viabilizar um computador quântico, um sistema assim poderá permitir a realização do sonho de Richard Feynman, que propôs há mais de 30 anos que o aparato serviria como um simulador quântico, que permitirá o estudo dos fenômenos do mundo quântico.
Possibilidades
O entrelaçamento quântico é um recurso por excelência do mundo quântico e envolve correlações entre os componentes do sistema físico que não podem ser descritos pela física clássica.
Embora pareça estranho, não existe nenhuma realidade objetiva para as propriedades físicas de um sistema quântico entrelaçado. Em vez disso, um sistema entrelaçado contém simultaneamente múltiplas possibilidades de suas propriedades.
Estranho ou não, o entrelaçamento quântico é considerado pelos cientistas como a base para futuras tecnologias, como computação quântica, criptografia quântica e Em 2009, a mesma equipe usou uma esfera que levita por luz para demonstrar fenômenos quânticos.

Bibliografia:

Entanglement of spin waves among four quantum memories
K. S. Choi, A. Goban, S. B. Papp, S. J. van Enk, H. J. Kimble
Nature
17 November 2010
Vol.: 468, 412-416
DOI: 10.1038/nature09568