sábado, 6 de abril de 2019

Previsões de Avanços Tecnológicos Antes da Crise de 2008

A revista Technology Review, do Massachusetts Institute of Technology (MIT), trouxe na edição bimestral de março/abril de 2008, lista das dez tecnologias emergentes de 2008. Passada uma década, vale conferir se houve os avanços anunciados capazes de mudar o modo de vida das pessoas no mundo inteiro.

Confira os inventos, divulgados pela agência Magnet:

1 – MODELAGEM DE SURPRESAS: WAZE

Cientistas do Microsoft Research estavam pesquisando modelos de softwares capazes de prever situações até então consideradas como “imprevistos”. Um destes modelos em testes seria capaz de prever, baseado em uma série de fatores, como estaria o trânsito nas ruas.

O SmartPhlow já vinha sendo desenvolvido e testado desde 2003 e utilizava um mapa da cidade para alertar motoristas sobre vias e alternativas. Porém, em vez de dizer apenas o que o usuário já sabe, como “evite vias principais na hora do rush”, o aplicativo para computadores desktop e dispositivos PocketPC alertava para diversas outras surpresas como gargalos em ruas e pontos de dispersão do tráfego.

Para a mágica funcionar, o grupo de Horvitz analisava diversos anos de dados da dinâmica do trânsito de Seattle e adicionou qualquer evento possível de afetá-los: acidentes, clima, feriados, eventos esportivos e até mesmo visitas oficiais ocasionais.

Em seguida, segmentaram em dezenas de trechos cada uma das estradas e dividiram o dia em pedaços de 15 minutos, usando-os para computar a distribuição provável do tráfego em cada situação.   O resultado foi um grande banco de dados de possibilidades de tráfego.

Com uso de estatísticas e com a execução de algoritmos de aprendizado, encontraram sutilezas no modelo e através delas criaram um software capaz de prever cerca de metade das surpresas no tráfego e equipar celulares inteligentes portáteis.

A Microsoft procurava possibilidades de comercializar a tecnologia. Em 2005, a americana Inrix licenciou-a, liberando em março de 2007 seu primeiro aplicativo para dispositivos Windows Mobile, com previsões de tráfego de até cinco dias de antecedência em cidades dos Estados Unidos e Inglaterra.

O tráfego era o ponto de início para o potencial da tecnologia. Para o futuro seria possível prever conflitos inesperados, mudanças no mercado imobiliário e em índices financeiros e até mesmo tendências empresariais.

2 – CHIP DE PROBABILIDADE : NANOTECNOLOGIA

A ideia do cientista Krishna Palem parecia loucura, e foi tachada como tal até 2006, quando começou a apresentar seus resultados. Palem defendia os chips de computadores não precisavam ser tão certeiros em suas operações e uma taxa de erro era admissível. Em troca da falta de precisão, o hardware poderia ganhar em redução de tamanho e diminuição do consumo de energia.

Palem reduziu a voltagem de algumas partes do chip, mais especificamente as usadas em circuitos lógicos calculadores do uso de bits menos significativos. O resultado foi o PCMOS. Este chip acerta a resposta apenas algumas vezes, mas chega perto do resultado correto todas as outras vezes. A criação funciona bem para diversas aplicações, principalmente nas que se baseiam na reprodução de áudio ou vídeo, por exemplo, cuja exatidão é desnecessária.

Reduzindo a voltagem, também se diminui o consumo de energia, implicando em alguns anos a capacidade da bateria de dispositivos portáteis como tocadores, celulares e laptops pode aumentar significativamente. Neles, o processamento gráfico e sonoro são os maiores responsáveis pelo consumo. Em um futuro mais distante, de uma década aproximadamente, as ideias de Palem poderiam garantir a sobrevida da validade da Lei de Moore.

Uma simulação do PCMOS foi feita em 2006, quando a tecnologia foi comparada à convencional. A resposta da plateia não poderia ser melhor: quase ninguém conseguiu perceber qualquer diferença na qualidade da imagem.

O PCMOS também pode ser utilizado para criptografia e no aprendizado de máquinas, porque os algoritmos aplicados a estes setores são escritos para chegar rapidamente a uma resposta aproximada. Com os chips de Palem, as aplicações deixariam de se basear em software e passariam a se basear em hardware, ganhando em velocidade e eficiência.

O cientista acreditava: em breve haveria computadores e dispositivos utilizandoum ou mais coprocessadores PCMOS dedicados a tarefas especializadas, como criptografia, enquanto um chip tradicional lidaria com as outras operações.

3 – NANORÁDIOS

O físico americano Alex Zettl, da Universidade da Califórnia, e seus colegas criaram o rádio em nanoescala, tecnologia que pode beneficiar qualquer dispositivo sem fio, de celulares a sensores ambientais.

Havia aproximadamente cinco anos, Zettl e sua equipe resolveram tentar quebrar barreiras e criar rádios minúsculos, trabalhando em escala molecular como parte de um esforço para criação de sensores ambientais sem fio de baixo custo. Durante quatro anos, a equipe tentou miniaturiza, sem o sucesso esperado, componentes individuais do receptor, como a antena e o sintonizador. Ele selecionava uma freqüência a ser convertida em pulsos que são enviados à caixa de som.

Em 2007, Zettl e seus estudantes chegaram a uma nova solução usando apenas um nanotubo. Este convertia as oscilações eletromagnéticas de uma onda de rádio em vibrações mecânicas que depois são transformadas em pulsos elétricos que reproduzem o sinal original de rádio.

Em 2008, o receptor se provou um sucesso. A equipe se concentrou em, além de receber e decodificar as ondas, os nanorádios funcionassem também como transmissores. Ele seria essencialmente um receptor capaz de trabalhar em reverso.

Quando concluídos, os transmissores poderiam atender diversos setores, inclusive médicos. Nanorádios anexados a pequenos sensores químicos poderiam ser implantados na corrente sanguínea de pacientes com diabetes ou outras doenças e, ao detectar níveis anormais de insulina ou outros compostos, poderiam enviar a informação a um detector ou até mesmo disparar algum reservatório implantado que libere a substância que está em falta no organismo.

Desde quando o rádio de nanotubo apareceu em publicações técnicas já foi contatado por diversos outros pesquisadores focados em veículos de administração de drogas através de ondas de rádio.

4 – ELETRICIDADE SEM FIO

Livrar-se de fios elétricos não era uma ideia nova, sendo datada da mesma época da criação da lâmpada. O cientista Nikola Tesla, no fim do século 19, começou a trabalhar no que poderia ser a primeira transmissão sem fio de eletricidade e chegou, até mesmo, a começar a construção de uma torre de 57 metros que poderia enviar a energia a quilômetros de distância.

Por falta de dinheiro, o projeto parou e a indústria decidiu apostar no uso de fios, deixando o invento de Tesla abandonado. Séculos depois, apenas alguns anos atrás, Marin Soljacic, professor assistente de física no MIT, estava em sua cama quando o celular começou a apitar, indicado a bateria estar chegando ao fim. Cansado, pensou ser uma ótima ideia se o telefone pudesse se carregar sem ser conectado a uma fonte de energia, bastando para isso estar em casa.

O desejo de Marin foi o começo da retomada da ideia de Tesla. O pesquisador passou a estudar métodos para transmissão de energia em curto alcance que pudessem recarregar dispositivos portáteis e que fossem seguros e eficientes, descartando ondas de rádio (que se perderiam no ar) e lasers (que poderiam danificar outros aparelhos).

A solução resultou no WiTricity, um dispositivo capaz de utilizar campos magnéticos em determinada frequência para enviar energia elétrica remotamente. O carregador utilizava indução magnética (a capacidade de impor mudanças a um campo magnético de modo a gerar corrente elétrica) para abastecer a bateria de um aparelho, aproveitando-se de um fenômeno denominado acoplamento por ressonância.

Para ilustrar o conceito, basta imaginar uma sala contendo 100 taças idênticas, cada uma cheia de vinho até um nível diferente. Assim, cada taça com vinho até certa altura terá uma frequência de ressonância única. Se um cantor de ópera emitir uma única nota suficientemente potente dentro da referida sala, a taça cuja frequência de ressonância mais se aproximar do timbre da nota musical cantada começará a vibrar num crescendo, acumulando suficiente energia para, por fim, estilhaçar-se, permanecendo incólumes as outras taças.

O aparato construído pela equipe do MIT consistiu de duas bobinas de cobre com cerca de 25,4 centímetros de raio, uma delas conectada fisicamente a uma fonte de energia elétrica e outra conectada ao gadget. A primeira produz e a segunda captura os campos magnéticos.

Em 2006, Marin Soljacic explicou o alcance do WiTricity ficar entre três e cinco metros e exigeir uma placa de circuito especial, semelhante à placa Wi-Fi de um laptop, para receber o sinal.

O WiTricity era apenas um dos métodos de abastecimento de energia sem fio. Algumas empresas como a Powercast, Fulton Innovation e WildCharge já começavam a vender adaptadores e carregadores de mesa capazes de recarregar celulares, tocadores MP3 e outros portáteis em casa ou no carro. Entretanto, a pesquisa de Soljacic se diferenciava por permitir, um dia, dispositivos serem carregados automaticamente, sem uso de qualquer tipo de base, bastando para isso entrar em no campo de um transmissor sem fio.

5 – RESSONÂNCIA MAGNÉTICA PORTÁTIL

John Kitching, físico do Instituto Nacional de Padrões e Tecnologia em Boulder, Estado do Colorado, nos Estados Unidos, desenvolveu uma miniatura de baixo custo dos sensores magnéticos integrados a máquinas de ressonância magnética e ressonância magnética nuclear espectroscópica.

Ao contrário dos sensores tradicionais, que ou são portáteis e baratos, sem grande sensibilidade; ou são grandes, caros e consumidores de muita energia, porém eficientes; o novo sensor une eficiência, baixo consumo e custo produção em uma cápsula pouco maior que um grão de arroz.

Kitching esperava, um dia, seu magnetômetro atômico pudesse ser incorporado a equipamentos portáteis de ressonância, e também a detectores de bombas mais rápidos e baratos.

O sensor era composto de três componentes principais, dispostos verticalmente sobre um chip de silício. Um laser infravermelho e um detector de luz envolvem um cubo de vidro e silício recheado de átomos de césio vaporizados. Quando um campo magnético está ausente, a luz do laser passa pelos átomos.

Quando na presença de campos magnéticos, mesmo que muito fracos, os átomos se realinham e absorvem uma quantidade de luz proporcional à força do campo, mudança que é captada pelo detector de luz.

Os sensores são fabricados em pequenas quantidades no laboratório, mas foram pensados para fabricação em massa. Muitas cópias de cada componente são produzidas de uma só vez em um mesmo wafer de silício, o que barateia o custo.

A invenção pode revolucionar tecnologias que se baseiam em grandes equipamentos com caros sistemas de refrigeração, podendo levar a ressonância magnética, por exemplo, para dentro de ambulâncias ou para campos de batalha. Por usar um imã muito mais fraco, médicos serão capazes de, pela primeira vez, examinar pacientes com marca-passos ou implantes metálicos que não podem ser analisados nas atuais máquinas.

O sensor nuclear poderia ser levado do laboratório para o campo, e auxiliar na busca por novos repositórios de petróleo e minérios, além de medir sinais produzidos pela água, embora para isso muita pesquisa ainda seja necessária.

6 – APLICAÇÕES WEB OFFLINE

Uma das principais vantagens de aplicações web é que elas podem rodar em qualquer computador, com qualquer sistema operacional. Contudo também possuem suas desvantagens, como por exemplo a necessidade de serem executadas diretamente em um servidor, gravarem dados apenas remotamente e exigirem que o usuário esteja online para utilizá-las.

Pensando em uma solução para este problema, a Adobe começou o desenvolvimento da AIR (Adobe Integrated Runtime) em 2002, lançado em forma de beta em junho de 2007. O AIR é um ambiente para o qual os programadores podem criar aplicações web que sejam baixadas para o computador do usuário, com a vantagem de poderem ser executadas mesmo que ele esteja offline.

AIR permite que desenvolvedores programem aplicativos offline com tecnologias web como HTML e Flash, escolha óbvia já que os programadores que já criaram aplicações para navegadores podem adaptar facilmente seus aplicativos.

Além disso, as informações de um site podem ser trazidas para o AIR sem perda de formatação.

O AIR possuía até então versões para Windows e Macintosh, porém a Adobe já trabalhava em versões de sua plataforma para Linux e dispositivos móveis. A companhia possui alguns parceiros, o que evidencia a capacidade e o potencial de seu ambiente.

O site eBay, por exemplo, criou o eBay Desktop, um gerenciador que permite aos seus usuários buscarem novas ofertas e supervisionar lances em leilões dos quais já estão participando, com um sistema de busca ainda mais poderoso. Outro bom exemplo era o do microblog Pownce. Ele oferecia aos seus usuários um aplicativo em AIR para cadastrar eventos e curtos textos em seus perfis.

Kevin Lynch, arquiteto de software da Adobe Systems, explica que o AIR é a resposta para a evolução da web em uma mídia mais interativa. Para ele, o navegador foi criado para uma “web de páginas” e os desenvolvedores conseguiram ampliar sua funcionalidade. Todavia ainda há a necessidade de uma interface mais apropriada para a “web de softwares” que os usuários utilizam hoje, e o AIR pode ser a resposta.

7 – USO DE GRAFENO EM PROCESSADORES

O grafeno, uma substância encontrada em 2004 através do processo de “descascamento” de camadas de amostras de grafite, pode ser a solução para a continuidade da miniaturização de chips nos quais atualmente o silício é empregado e começam a chegar aos seus limites físicos.

Em dezembro de 2007, durante uma conferência realizada para membros da indústria de semicondutores, o professor de física Walter de Heer, da Georgia Tech, Estados Unidos, apresentou o grafeno como alternativa ao silício.

Previsões de que o grafeno, um tipo de carbono composto de camadas de um átomo de espessura, poderia ser transformado em transistores com velocidade 100 vezes superiore aos de silício já existiam, entrementes o professor afirmou ter criado matrizes de centenas de transistores de grafeno em um único chip mostrando uma forte prova de que o grafeno poderá ser inserido em gerações futuras de eletrônicos.

Por permitir que os elétrons se movimentem com pouca resistência, o grafeno gera menos calor que o silício e, por suas boas propriedades de condução térmica, possibilita que a dissipação aconteça mais rapidamente, o que permitiria que eletrônicos operassem em velocidades muito mais altas.

Em vez de gigahertz de processamento, os chips poderiam chegar a frequências da ordem de terahertz, um fator mais de mil vezes superior aos atualmente vistos. “E se pudermos ir além será muito interessante”, comentou de Heer. No grafeno não existe limitação de miniaturização, sendo assim, é possível reduzi-lo e manter seus atributos, ou até mesmo melhorá-los reduzindo os componentes a pedaços menores que um nanômetro.

O método de trabalho com o grafeno é o mesmo usado na manufatura de chips de silício hoje em dia, o que atraiu a atenção da indústria, que vê com otimismo a possibilidade. A HP, a IBM e a Intel, esta última patrocinadora da pesquisa, já começaram a estudar o uso de grafeno em projetos futuros.

Outra aplicação para o grafeno seria em detectores, que poderiam trabalhar em frequências muito superiores e detectar, por exemplo, armas escondidas.

8 – MAPEAMENTO DO CÉREBRO

Ainda é bastante limitado o conhecimento a respeito do funcionamento do cérebro, mesmo que há décadas neurocientistas venham estudando as chamadas conectividades neurais. Um novo experimento de Jeff Lichtman, da Universidade de Harvard, poderia mudar o panorama destes estudos. A técnica se chama “conectomia” e já começou a mostrar seus primeiros resultados.

Montar um diagrama completo de como o cérebro humano funciona é uma tarefa extensa, principalmente porque ele é composto de estimados 100 bilhões de neurônios com trilhões de sinapses.

A conectomia divide o cérebro em fatias. Elas são então estudadas e identificadas por diferentes cores que apontam o funcionamento de cada um dos axônios, terminações nervosas que levam informação de um neurônio a outro.

Tais mapas, quando concluídos, podem auxiliar na detecção do início de desenvolvimento de problemas como autismo e esquizofrenia.

A tecnologia de Lichtman, criada com colaboração do Dr. Jean Livet e de Joshua Sanes, diretor do Centro de Ciência do Cérebro, de Harvard, permite a visualização das células nervosas em aproximadamente 100 cores, que permitem aos cientistas ver para onde cada axônio leva os dados e, assim, compreender como a informação é processada e transferida entre diferentes partes do encéfalo.

Para criar esta ampla paleta foram testados métodos de engenharia genética em ratos. Eles receberam múltiplas cópias de genes de três proteínas iluminadas em diferentes cores – amarelo, vermelho ou ciano. Os ratos também receberam códigos DNA de uma enzima, reorganizando aleatoriamente estes genes para células individuais produzirem combinações arbitrárias das proteínas fluorescentes, criando novas cores observadas em microscópio.

Até então, o grupo usou a tecnologia para mapear as conexões em um pequeno pedaço do cerebelo, parte do cérebro que controla o equilíbrio e o movimento. Outros cientistas já demonstraram interesse em usar a tecnologia para estudar conexões neurais na retina, no córtex e no nervo olfativo.

9 – CELULARES POR UMA VIDA MELHOR, MAS MAIS EXPOSTA: “MINERAÇÃO DE REALIDADE”  E FIM DA PRIVACIDADE

Mesmo com todas as inovações tecnológicas existentes em celulares hoje em dia, pesquisadores acreditavam no aparelho poder ser melhor aproveitado e sugeriam o uso do telefone para coletar dados a respeito de seu usuário.

Chamada de “mineração de realidade“, a técnica tem como finalidade coletar todos os tipos de dados e utilizá-los em benefício do próprio usuário. Seria possível, por exemplo, estabelecer a relação entre contatos e descobrir quando eles se encontrarão, ou ainda permitir aos fabricantes criar dispositivos cada vez mais fáceis de usar.

Alex Pentland explica: a prática se baseava em prestar atenção em modelos da vida e usar esta informação para ajudar em coisas como modelos de privacidade, compartilhamento de coisas com pessoas, notificação de pessoas, ou seja, “basicamente ajudar você a viver sua vida”.

Alex Kass cuidava da “mineração de realidade” na firma de consultoria Accenture, afirmava: a mineração de dados (data mining) do mundo físico já existia há anos, em sensores de fábricas capazes de informar quando um equipamento tinha problemas ou ainda em câmeras ao monitorar o tráfego em vias importantes. só então estava ganhando foco pessoal.

O professor do MIT esperava, em poucos anos, esta prática se tornaria ainda mais comum, graças à proliferação e sofisticação de celulares. Eles passariam a possuir alto poder de processamento e coletariam mais dados com ajuda de chips GPS. Estes podem ser melhor aproveitados para estudos.

Em testes realizados no MIT com 100 estudantes e professores, foi criado um modelo preciso de rede social. Previa, inclusive, quando seus membros se encontrariam.

Com ajuda de sensores, como microfone ou os acelerômetros existentes em aparelhos como o iPhone, da Apple, e um software seria possível detectar problemas como depressão por alterar a maneira da pessoa falar, deixando sua voz mais lenta. Os sensores de movimento também teriam serventia, acusando os primeiros sinais de Parkinson.

Os aspectos positivos eram claros, entretanto, havia todo um lado negativo referente à privacidade do usuário, algo não escondido por Pentland. O pesquisador acreditava ser crucial estas tecnologias de análise não serem forçadas a ninguém, mas reconhecia os aspectos legais impedirem o avanço mais rápido da prática. Ela a tornaria suficientemente importante para começar a discussão de como será utilizada.

10 – BIOCOMBUSTÍVEL DE CELULOSE

Procurando uma redução no consumo de combustíveis baseados no petróleo, o governo americano assinou uma lei para o aumento da produção de combustíveis renováveis em cinco vezes até 2022.

Dos 36 bilhões de galões de biocombustível ao ano, 16 bilhões serão de combustíveis de celulose, derivados de pedaços de madeira e sobras da agricultura. Caso a lei tenha sucesso, a emissão de gases, a importação de combustível e o consumo de gasolina cairão significativamente.

Entretanto, até então não foi mostrado um processo que tenha custo competitivo para a criação de tais biocombustíveis. A fabricação do etanol a partir de fontes mais baratas requer uma maneira eficiente de liberar moléculas de açúcar anexadas para que cadeias cristalinas de celulose sejam formadas.

A professora de engenharia química e bioquímica Frances Arnold acredita que a chave para quebrar a celulose de maneira mais eficiente e barata está em melhores enzimas. Há duas décadas pesquisando a criação de enzimas para usar em tudo desde drogas a removedores de manchas, a professora está confiante de que a solução estava próxima.

Converter milho em açúcar requer apenas uma enzima, enquanto quebrar a celulose envolve uma complexa matriz de enzimas, chamadas celulases, que trabalham juntas. O custo destas enzimas caiu para US$ 0,20 a US$ 0,50 centavos por galão de etanol, mas para competir com o etanol de milho é preciso que caia para US$ 0,03 ou US$ 0,04 centavos por galão.

Em vez de buscar apenas alternativas mais baratas e eficientes, Arnold queria criar celulases de modo a serem produzidas pelos mesmos microorganismos fermentadores do açúcar no biocombustível. Estas “superpragas” capazes de metabolizar celulose e criar combustível poderiam reduzir muito o custo da produção dos combustíveis.

Além de serem necessárias celulases que trabalhem em organismos robustos, como bactérias, para tais processos de fermentação, as celulases precisarão ser estáveis e altamente ativas, além de tolerar altos níveis de açúcar. Os pesquisadores também precisarão criar organismos em quantidades suficientes.

Também envolvido nesses estudos estava o professor de engenharia química James Liao, da Universidade da Califórnia. Recentemente, tinha criado uma maneira eficiente de converter açúcar em butanol, um biocombustível de energia mais elevada que o etanol. Arnold pretendia incorporar suas novas enzimas aos micróbios produtores de butanol criados por Liao.

Uma das maiores vantagens do biocombustível de celulose sobre a gasolina e sobre o etanol extraído do milho estava na redução dos gases. O biocombustível de celulose emitiria 87% menos gases que a gasolina, enquanto a redução de emissões com o etanol era de apenas entre 18% e 28%. Havia também o fato de a celulose ser o material orgânico em maior abundância na Terra.

Previsões de Avanços Tecnológicos Antes da Crise de 2008 publicado primeiro em https://fernandonogueiracosta.wordpress.com



Nenhum comentário:

Postar um comentário