terça-feira, 29 de março de 2011

Road Trains: uma nova idéia para o trânsito



A União Européia está estudando um novo conceito que visa dar mais segurança e fluidez ao transito em suas estradas, o Road Train.




A idéia básica é de que carros de passeio, dotados de sensores e processadores eletrônicos viagem em comboio, líderados por um veículo dirigido por um motorista profissional. O equipamento
eletrônico instalado nos veículos que estariam seguindo o líder, automáticamente os dirigiriam – 
fariam o carro acelerar, frear, mudar de direção etc. automáticamente, sem qualquer interferência de seus motoristas, que ficariam livres para deixarem o Road Train a qualquer momento, passando a dirigir seus carros da forma convencional.

Dentre os benefícios trazidos pela idéia, estariam o aumento da produtividade dos profissionais, que poderiam ler, falar ao telefone, comer ou trabalhar em computadores durante as viagens, a melhoria do fluxo de tráfego, pois os carros viajarriam mais próximos uns dos outros, o aumento da segurança e até mesmo a redução das emissões de CO2, que diminuiriam em 20%, segundo os responsáveis pelo projeto – 20% seria também a economia de combustível esperada. A ênfase em aspectos ambientais é grande, tanto que o nome oficial do projeto é SARTRE – Safe Road Trains for the Environment.

No primeiro semestre de 2010, como parte do programa, a Volvo fez uma demonstração pública do sistema de frenagem automática: a demonstração foi um fracasso, o sistema não funcionou e o Volvo S60 que fazia a apresentação bateu – a empresa disse que houve falha humana e não da tecnologia.

Em dezembro daquele ano, foram realizados testes mais amplos, envolvendo um veículo guia seguido por outro, desta vez com sucesso. A idéia é que até o final do projeto, em 2012, sejam exaustivamente testados comboios formados por um guia e cinco outros veículos. A seguir, seriam feitos ajustes necessários à formação de comboios maiores, bem como desenvolvidos esforços para divulgar a tecnologia, ajustar a legislação de trânsito etc. Quem sabe não estaremos em breve utilizando mais essa tecnologia em nossa vida diária? A idéia básica, no momento, é que os motoristas pagariam por esse serviço.

É preciso dizer também que em alguns países, especialmente nos Estados Unidos, Canadá e Austrália, a expressão Road Train é utilizada para conjuntos em que um cavalo mecânico puxa vários reboques – o maior de que se tem notícia é utilizado na Austrália, em serviços de mineração: tem dois motores, um de 600 e outro de 400 hp, transmissão automática, transportando 460 toneladas de minério; como rodam fora das estradas, em propriedade privada, não são sujeitos às leis de trânsito.

terça-feira, 8 de março de 2011

OS LIBERTY SHIPS: AS MULAS DE CARGA DA 2ª GUERRA MUNDIAL

Com o   inicio da 2ª Guerra Mundial em 1939, os Estados Unidos perceberam que cedo ou tarde se envolveriam no conflito, e que deveriam lutar na Europa e no Extremo Oriente, necessitando transportar grandes volumes de suprimentos através do Atlântico e do Pacífico, áreas em que os submarinos alemães, italianos e japoneses estariam muito ativos.
No início de 1941, os Estados Unidos possuiam 1.422 navios mercantes, 92% com mais de 20 anos e com velocidade inferior a 11 nós (cerca de 20 km/hora), o que os tornava alvos muito fáceis para os submarinos – além disso, esse número de navios era insuficiente para atender à estratégia dos americanos.
O tempo era curto, e os americanos desenvolveram uma tecnologia para construir rapidamente os navios de que necessitavam: adaptaram um projeto inglês, definiram métodos que previam uma padronização e simplificação radicais  para acelerar a construção e puseram mãos à obra, denominando esse tipo de navio Liberty.
O primeiro a ser lançado foi foi o   Patrick Henry,    entregue em 30/12/1941; devido às necessidades impostas pela guerra, os esforços de construção eram cada vez mais intensificados, levando a uma sistemática quebra de recordes de velocidade de construção: o   Robert E. Peary teve sua quilha batida  (colocação da primeira peça no local de onde o navio será lançado ao mar)  às 00:00h hs do dia 08/11/1942, sendo lançado ao mar em no dia 12; o acabamento e os testes no mar consumiram mais 3 dias e meio e no dia 15, pouco mais de 8 dias após o batimento da quilha, o Robert E. Peary deixou o estaleiro rumo ao porto onde seria carregado para sua primeira  viagem à Europa - um recorde que provavelmente ainda vai demorar para ser quebrado. 
Para se ter uma ideia do que significa esse prazo, o petroleiro João Cândido, que foi construído no Brasil, teve sua quilha batida em setembro de 2008 e entrou em serviço em maio de 2012, embora, ao que pareça, a demora tenha se devido a conchavos políticos, que fizeram a Petrobras (dona do navio) dar sua construção a um estaleiro não capacitado para faze-lo.
No total 2.710 unidades foram construídas, sendo o tipo de navio 
construído em maior número em toda a história.  Os Liberty carregavam em seus cinco porões 10.865 toneladas de carga, capacidade equivalente a 300 vagões ferroviários, ou 2.840 jipes, ou 440 carros blindados leves, ou 230 milhões de cartuchos de fuzil, mas não raramente seus imediatos encontravam espaços para carga adicional. Apenas a título de comparação, o Emma Maersk,   navio porta containers lançado em 2006, tem capacidade para cerca de 55 mil toneladas de carga.

Apesar de serem navios construídos para fins emergenciais, os  Liberty  incorporaram várias inovações em seu projeto, tais como radares, ecobatímetros, rádios e equipamentos de navegação eficientes. Além disso tinham um grau de conforto muito elevado para a tripulação em relação aos navios da época, como chuveiros, bons camarotes e abrigo para o pessoal em serviço; requeria cerca de 50 marinheiros (o Emma Maersk precisa de 13) e cerca de 30 artilheiros para manejar suas armas antiaéreas e antinavio. Além disso, sua operação era muito simples, exigindo pouco treinamento de seu pessoal.
A construção naval evoluiu muito dos anos 1940 para a atualidade, o que fica claro se fizermos mais algumas comparações entre os Liberty e o Emma Maersk:
·         Comprimento: 135 e 397 metros (o navio mais comprido do mundo é o petroleiro norueguês Knock Nevis, com 458 metros de comprimento).
·         Velocidade: 11 e 25.5 nós
·         Potência: 2.500 e 110.000 hp

Os Liberty foram as mulas de carga da 2ª Guerra Mundial;  dos 2.710 navios construídos 240 foram perdidos  por afundamento, encalhe, incêndio ou acidente. Os remanescentes  foram vendidos ou cedidos a armadores ao redor do mundo, sendo que 3 deles serviram sob bandeira brasileira, dos quais o último a ser desativado foi o Kalu, em 1973.
Alguns   Liberty foram preservados como navios-museu, dentre eles o   John W. Brown mantido   em Baltimore, cuja foto encerra esse texto.


sexta-feira, 4 de março de 2011

MAINFRAMES: MORTE, ADAPTAÇÃO E RESSURREIÇÃO

No início dos anos 90 uma revolução agitava o mundo da informática. Ganhava força a arquitetura cliente-servidor e as redes se tornavam uma febre no mundo da informática corporativa.  
Os computadores de grande porte, os mainframes, e os profissionais a eles ligados, passavam a ser chamados “dinossauros”, pois a extinção dessas máquinas era tida como iminente. Muitos desses profissionais deixaram bons empregos por terem encontrado oportunidades (às vezes não tão boas) no mundo das redes. 

IBM System z10
 Em 1991, Stewart Alsop, à época diretor da InfoWorld, um importante periódico na área de informática, chegou a dizer que em 1996 o último mainframe seria desligado. No Brasil, o banco Bamerindus (hoje HSBC) iniciou um processo pioneiro (ao menos entre os grandes bancos) de substituição de seus mainframes pela nova arquitetura. 
O Bamerindus voltou atrás depois de perder muitos milhões de dólares no processo (o que ajudou o banco a quebrar logo depois) e Alsop, hoje um “venture capitalist”,  também vê suas previsões não se concretizarem: a IBM lançou recentemente no Brasil seu novo  mainframe, o System z10. Registre-se que o Brasil é o terceiro mercado para mainframes, atrás apenas dos Estados Unidos e da Alemanha.             

O alvo do produto não são apenas as empresas que têm suas estruturas de processamento de dados baseadas em mainframes, como as instituições financeiras, empresas de internet e grandes varejistas, mas também as empresas que buscam mais eficiência no uso de energia e estão em processo de consolidação de servidores, ou seja, substituindo diversos servidores de menor porte por um mainframe que atua também como servidor. A própria IBM iniciou há dois anos seu processo de consolidação, no qual 3.900 máquinas estão sendo substituídas por 30 mainframes. Nos próximos cinco anos, segundo o Gartner Group, 70% das mil maiores empresas do mundo farão modificações como essa.
Segundo a IBM, apesar do custo de aquisição de mainframes ainda ser alto, o retorno financeiro ocorre num período estimado entre dois e cinco anos; além disso, em relação aos servidores mais usados, o System z10 apresenta um custo com energia e um consumo de espaço físico 85% menores, sendo a capacidade de processamento de uma máquina z10 “top de linha” equivalente à de aproximadamente 1.500 servidores de plataforma baixa comuns. Os custos de operação e administração de equipamentos também tendem a ser menores. 
A morte do mainframe é mais um exemplo de profecia equivocada na área de tecnologia, assim como foram as das mortes do rádio e do cinema substituídos pela TV e das ferrovias substituídas pelos carros, caminhões e aviões. Neste momento, anunciam a morte da mídia impressa, a ser substituída pela Web.  
E quais são os pontos comuns entre as tecnologias sobreviventes? Não apenas a existência de alguma vantagem não totalmente suplantada pela tecnologia substituta, mas a necessidade de as empresas que as fornecem e/ou utilizam adotarem novos modelos de negócio e o medo de abandonarem uma massa de usuários leais e de parceiros de negócio confiáveis. Além e acima destas, a capacidade de adaptação.  
Segundo artigo recentemente publicado pelo New York Times, essas profecias normalmente superestimam a importância dos aspectos técnicos das novidades, deixando de lados fatores relativos ao ambiente de negócios propriamente dito, cujos interesses acabam favorecendo a evolução e não a revolução tecnológica. Em termos práticos, as empresas querem máquinas que cumpram suas missões a custos adequados, não importando se são ou não a última moda em termos de tecnologia.  
O historiador John Steele Gordon, diz que esse processo é similar ao observado na natureza: algumas espécies desaparecem em função de problemas ambientais, como os dinossauros, mas milhares de outros répteis sobreviveram e evoluíram adaptando-se às mudanças ambientais.   
Na área de tecnologia, o rádio é um exemplo de sobrevivência pela adaptação. Deixou de ser o aparelho ao redor dos quais as famílias se reuniam para ouvirem programas de variedades e novelas, para ser um fornecedor de entretenimento para períodos em que as pessoas estão trabalhando ou viajando de automóvel, bem como um prestador de serviços de utilidade pública, fornecendo notícias, previsão do tempo etc., tornando-se o que Paul Saffo, um estudioso do futuro na área de tecnologia, chama de “audio wallpaper”.  
Alterações no ambiente de negócio podem inclusive revitalizar tecnologias decadentes, como vem ocorrendo como as ferrovias, que voltam a se expandir quantitativa e qualitativamente em função dos custos de combustível, excesso de automóveis nas cidades, demoras em aeroportos etc.  
Voltando ao mainframe: ele é um caso clássico de sobrevivência garantida por um processo de revitalização: novos e mais baratos microprocessadores, maior versatilidade em termos de software etc., levaram a permitir que ele assuma novas funções além das que lhe eram atribuídas, passando, por exemplo, a rodar sistemas Web.
Encerrando: no mundo da tecnologia a capacidade de adaptação é fundamental para a sobrevivência e a adesão cega às novidades pode ser perigosa para as empresas e para os profissionais que a praticarem. Charles Darwin tinha razão ao dizer que não é o mais forte ou o mais inteligente que sobrevive, e sim, o mais adaptável. 

sexta-feira, 18 de fevereiro de 2011

FORTRAN: MAIS DE 60 ANOS DE BONS SERVIÇOS

Dia desses me dei conta de que realmente sou um “dinossauro” da TI: comecei em 1970, programando em Assembler para um Univac 1005 (uma “poderosíssima” máquina com 4K, isso mesmo, 4K, de memória principal) – esse “mainframe”, cuja configuração básica aparece a lado, era apoiado por um sistema ”convencional” (tabuladoras, perfuradoras e classificadoras de cartões - Remington-Sperry-Powers, que foi o antecessor dos 1005. 

Note-se que esses cartões, com furos redondos, cuja imagem está logo abaixo, tinham 90 colunas, ao contrário dos IBM que tinham 80 - isso era muito vantajoso em termos de entrada de dados e lógica de programação. 

E o nome da coisa não era TI ou Informática, mas sim Processamento de Dados e alguns ainda chamavam o computador de “cérebro eletrônico”… 

Nessa onda de nostalgia, lembrei-me de um artigo que “New York Times” publicou há algum tempo  acerca do desenvolvimento da linguagem Fortran, que quase todos os meus contemporâneos usaram - James Gray, um pesquisador na área de software que trabalhou para a Microsoft, chegou a dizer, parafraseando a Bíblia: “No princípio, era o Fortran”… Vale lembrar que Gray desapareceu no mar com seu veleiro em 2007.

Lembramos essas histórias porque julgamos oportuno dar aos nossos jovens profissionais e estudantes uma visão do passado, para que possam se preparar melhor para o futuro. Lembra o artigo que John Backus (que também morreu em 2007) trabalhava para a IBM, e em 1953, ao 28 anos de idade, solicitou aos seus superiores autorização para iniciar pesquisas acerca do que chamou de “uma melhor maneira de programar” – era uma época em que se usava linguagens de muito baixo nível, praticamente linguagem de máquina, o que tornava a programação extremamente complexa, trabalhosa, e consequentemente, lenta e cara.

Foi formada uma equipe, que chegou a ter dez profissionais; era um time com forte treinamento em matemática, mas no mais bastante eclética: reunia desde um especialista em criptografia a uma estudante recém formada, passando por um pesquisador do MIT e por um especialista em xadrez. Foi utilizado para o projeto um computador IBM 704 (foto ao lado), uma máquina bastante poderosa para a época – mas disponível para a equipe apenas no período noturno…

Segundo Backus, várias foram as causas do sucesso do Fortran: primeiramente, o grupo definiu que desenvolveria uma linguagem que pareceria um misto de inglês com álgebra, buscando uma sintaxe similar à das fórmulas utilizadas por cientistas e engenheiros, os grandes usuários de computadores na época - ao lado, uma amostra de código Fortran.

Dessa forma, a linguagem poderia ser facilmente usada por esses profissionais, praticamente sem auxílio de programadores, que eram os únicos responsáveis até então pela tradução dos problemas para a linguagem da máquina e trabalhavam em binário ou usando Assemblers, linguagens que utilizavam abreviações como PRT para comandos de impressão, RD para leitura, ADD para soma etc. – essas abreviações, que aparecem no exemplo ao lado, eram usadas pelo montador (Assembler) para gerar as instruções em binário. Um problema adicional, é que cada máquina tinha seu próprio Assembler. 

O Fortran tinha seu foco mais no problema que o usuário tentava resolver utilizando o computador do que na máquina propriamente dita. Uma linha de código Fortran gerava várias instruções em linguagem de máquina, ao contrário dos Assemblers, em que a relação era quase sempre um para um; por essa razão, Fortran é considerada a primeira linguagem de alto nível. 

O Fortran tinha uma performance quase tão boa quanto a dos Assemblers, em termos de tempos de processamento, o que era muito importante numa época em que esse era um recurso escasso e consequentemente, caro.

Em fevereiro de 1957 o Fortran foi apresentado formalmente, durante a “Western Joint Computer Conference”, em Los Angeles. Para a ocasião, a IBM pediu a seus clientes que apresentassem casos reais, como o cálculo do fluxo de ar para o projeto de asas de aviões, e promoveu um benchmarking, apresentando esses problemas a programadores Assembler e Fortran. 

Os resultados foram impressionantes: em média, os programas em Fortran foram construídos cinco vezes mais rapidamente que aquelas em Assembler, sem perda significativa de performance em termos de tempo de processamento.

Ao encerrar-se o evento, os profissionais da área sabiam que uma nova era se iniciava – e essa era ainda não terminou: até hoje o Fortran é usado em aplicações de natureza científica. 

Sua versão mais recente  é o Fortran 2018.

sábado, 5 de fevereiro de 2011

FUEL PUMPS: PARECE QUE CERTAS COISAS SEMPRE EXISTIRAM...

Frequentemente temos a sensação de que determinadas coisas sempre existiram; elas estão tão presentes em nossa vida cotidiana que nos esquecemos de que alguém desenvolveu tecnologia que veio a tornar essas coisas fontes de comodidade para nossa vida diária.
Na segunda metade do século XIX, o principal derivado do petróleo era o querosene, que era utilizado principalmente como combustível para iluminação, aquecimento e cozinha. A gasolina era outro derivado do petróleo, utilizado para os mesmos fins, mas, também e principalmente, para limpeza em ambientes fabris.
Quando uma pessoa desejava comprar querosene ou gasolina, ia a um armazém, levando uma lata ou balde. Ali,  o comerciante retirava o produto de um barril e o passava para o recipiente trazido pelo comprador; era um trabalho pesado, sujo e perigoso; com frequência parte do material era desperdiçado.
Um empreendedor americano, Sylvanus Freelove  Bowser,  desenvolveu pesquisas tentando resolver esse problema, tendo em 1885 terminado a construção de uma bomba, que vendeu a Jake Gumper , um comerciante de Fort Wayne,  Indiana. Nascia a bomba de gasolina, antes mesmo de que nascesse o automóvel.  Rapidamente outros comerciantes procurarem Bowser, que em 1887 patenteou seu invento e criou a S.F. Bowser Company; modelos mais aperfeiçoados começaram a ser vendidas às primeiras oficinas de automóveis em 1893.   
Até esse momento, essas oficinas vendiam gasolina passando-a de um barril de aço para um latão com capacidade para cinco galões (cerca de 20 litros). A seguir, a gasolina era passada do latão para o tanque dos automóveis com o auxilio de um funil, que tinha um filtro de tecido para evitar que impurezas fossem para o tanque do carro – aqui também um trabalho pesado, sujo, perigoso, gerador de desperdícios.
Em 1905, Bowser chegou à bomba que começou a se parecer com as atuais: um tanque metálico instalado em um gabinete de madeira, com  uma bomba manual que permitia fixar a quantidade de combustível a ser fornecida e outra  novidade: uma mangueira que poderia ser levada à boca do tanque do veículo.  Bowser chamou esse dispositivo  “Bowser Self-Measuring Gasoline Storage Pump”. O pioneirismo de Bowser com relação à mangueira é contestado por alguns autores, que afirmam ter John J. Tokheim, de Cedar Rapids, Iowa, adaptado uma mangueira a um tipo rudimentar de bomba em 1903. 
O fato é que a bomba de Bowser fez um sucesso tão grande (a indústria de automóveis também vivia um boom na época), que a palavra “bowser” acabou se tornando um sinônimo de bomba de gasolina, ainda sendo  usada nesse sentido em alguns países, especialemte na Austrália e Nova Zelândia. Em muitos lugares são chamados bowsers caminhões que abastecem aviões nos aeroportos  e na Inglaterra recebem  esse nome veículos ou recipientes móveis que carregam qualquer tipo de líquido entregue a granel ao usuário final, como por exemplo caminhões tanque que distribuem água.
Bowser morreu em 1938. Mais tarde, o controle de sua empresa, que fabricava outros produtos, como sistemas para purificação de óleo, foi adquirido pela Keene Corporation, que acabou quebrando em 1993, principalmente por ter sofrido um grande número de ações judiciais relativas à utilização de asbestos, um material cancerígeno que era utilizado em seus produtos.

sexta-feira, 28 de janeiro de 2011

O PC ainda tem muito tempo de vida?

Tenho me perguntado com frequência se o PC ainda tem muito tempo de vida. Essa questão não é nada original – milhões de profissionais da área de Tecnologia da Informação devem estar se fazendo a mesma pergunta; alguns acreditam que sim (como eu), outros que não  e outros ainda não tem uma resposta.

A dúvida surge em função das inovações na computação pessoal que se concentram  em  Smartphones e Tablets, cujas vendas tem crescido violentamente. Deve-se registrar, porém, que foram vendidos cerca de 300 milhões de PCs em 2010 e que há previsões de que esse número chegue a 330 milhões em 2011, contra 200 milhões de tablets a serem vendidos em 2014, segundo previsões do Gartner Group.  Quando se pensa em PC, quase sempre sempre se pensa em Microsoft, e esta também teve um ano de 2010 muito bom, vendendo muito Windows e produtos ligados a ele (embora a empresa venha encontrando dificuldades em outras áreas)

Mas uma coisa é certa: o oba-oba em torno dos Tablets e Smartphones é enorme; pessoas usam-nos para se mostrar atualizadas (conheço o diretor de uma multinacional que usa  seu Smartphone só como telefone – e é responsável pela área de TI dessa empresa), outros fazem o possível para os promoverem em função de seus interesses comerciais, procurando vender equipamento, software, serviços, cursos, consultoria etc., etc.

Já o PC, coitado, virou uma espécie de patinho feito, uma máquina como outra qualquer – nos últimos tempos, nessa área só houve excitação quando foi  lançado o MacBook Air da Apple, uma máquina potente, extremamente portátil e cara, ao menos para o consumidor brasileiro.

Mas voltando à questão inicial: o PC ainda tem muito tempo de vida? Acredito que para que cheguemos a uma resposta relativamente segura, precisamos considerar que existem dois grandes grupos de usuários desses equipamentos todos: os consumidores e os produtores de conteúdo.

Os consumidores de conteúdo são aqueles que usualmente acessam a Internet,  principalmente para consultas, leitura, troca de emails e diversão. Para esses os Smartphones e Tablets sem dúvida são uma grande solução; são muito portáteis (leves, pequenos), podem se usados em ambientes com pouca luz, foram desenhados para serem multifuncionais, etc.  O número de usuários com esse perfil cresce rapidamente: o Pew Research Center observou que 59% dos americanos acessaram a Internet através de celulares em 2010, contra 25% em 2009 – esse ritmo acelerado de crescimento deve continuar, inclusive fora dos Estados Unidos, o que contribui para elevar o interesse por Smartphones e Tablets.

  os produtores de conteúdo são aqueles que  regularmente geram  textos, imagens e sons   – desde um aluno escrevendo um trabalho até um economista criando grandes planilhas, um engenheiro desenvolvendo projetos, um videomaker e um desenvolvedor de games gerando seus produtos.

Para esses, os Smartphones e Tablets não são  ferramentas  adequadas, não só por restrições em termos de capacidade de processamento e armazenagem, mas, principalmente, por questões ergométricas, telas e teclados  pequenos, principalmente.

É verdade que os PCs podem se modificar, transformando-se em thin clients operando em ambiente cloud computing, mas certamente ainda continuarão tendo a cara atual, com  telas grandes, teclados e mouses.   

Tim Bajarin escreveu recentemente um texto acerca do assunto para a revista Wired, que ele encerra com a afirmação "the news of the PC's death is premature",  parafraseando o grande escritor americano Mark Twain (1835-1910, na foto), que teria dito “the news of my death is premature" (as notícias acerca de minha morte são prematuras).

Quem viver, verá.

quarta-feira, 19 de janeiro de 2011

Impressoras 3D

As impressoras 3D estão se tornando cada vez mais populares, embora seu custo ainda seja elevado.

Compartilho com vocês vídeo disponibilizado pelo New York Times, mostrando algumas possibilidades de utilização dessa tecnologia.

sábado, 15 de janeiro de 2011

Victorinox produzindo canivetes que não são canivetes...

A empresa suiça Victorinox é a mais famosa fabricantes daqueles que são conhecidos no Brasil como "canivetes suiços" - esses canivetes tem como característica principal o fato de conterem inúmeros dispositivos, além da lâmina propriamente dita: chaves de fenda, tesouras etc. - são famosos também por sua alta qualidade.

A Victorinox vem incorporando mais tecnologia aos seus canivetes, como lâmpadas tipo LED e pen drives. No caso desses últimos, porém, os fatores ligados à segurança dos aviões e aeroportos não permitem que sejam transportados com os passageiros, impedindo-os de que os utilizem com seus notebooks durante os voos.  

Na Consumer Electronics Show 2011, a mais importante feira de eletrônicos do mundo, realizada recentemente em Las Vegas, a Victorinox apresentou um produto para resolver esse problema, ao menos para os seus fãs: um canivete suiço que não é um canivete suiço, mas sim um pen drive poderoso, em dois modelos: o The Victorinox Slim, com capacidade para 32 ou   64GB e o Slim Duo, na realidade um conjunto de dois drives de 64, totalizando  128GB. 

Além do aspecto elegante, provoca admiração a relação capacidade de armazenamento versus tamanho do dispositivo,  produto de uma engenharia muito refinada.

Para encerrar uma curiosidade: os canivetes  começaram a ser fabricados em 1891, por Carl Elsener, que desde 1884 fabricava produtos na área de cutelaria, e eram originalmente destinados ao exército suiço. Em 1909, deu o nome de "Victoria" à sua empresa; era o nome de sua mãe que falecera naquele ano. Em 1921, o aço inoxidável (em francês "acier inoxydable") passou a ser utilizado em seus produtos, o que fez com que a marca fosse mudada para   Victorinox  (Victoria + Inox).

segunda-feira, 10 de janeiro de 2011

Eco Printer: uma idéia interessante

Na década de 1980 popularizou-se a idéia de que  computadores ligados em rede, correio eletrônico, software para workflow e um sem número de outros recursos em breve baniriam o papel dos escritórios.

Toda essa tecnologia está disponível, porém o que se observa é exatamente o oposto: o consumo de papel para impressão vem aumentando constantemente, tendo quase dobrado nos últimos 10 anos,  segundo a  Forest Products Association, entidade que congrega os fabricantes do produto no Canadá, país que é o maior exportador de papel para escritório.  A HP estima que cada funcionário de escritório gere 125 quilos de papel impresso a cada ano.

E por que isso está acontecendo? Porque o desenvolvimento da tecnologia não foi acompanhado pela mudança de nossos hábitos: documentos em mídia digital são criados  facilmente e em maior número e constantemente “baixados” para o papel, as impressoras laser e jato de tinta estão cada vez mais baratas etc.

Além disso, há outras   boas razões para que documentos sejam impressos: pesquisas indicam que as pessoas retêm 30% a mais do que lêem em papel do que lendo telas de computador; é mais fácil fazer anotações e comparar textos impressos; a resolução dos textos impressos ainda é muito melhor que daqueles em tela; há o temor que arquivos magnéticos se deteriorem, fazendo com que seu conteúdo seja perdido etc.

Mas no longo prazo esse cenário pode mudar: jovens chegando aos escritórios tendem a abandonar comportamentos como os que mencionamos acima, e deverão “confiar” mais na mídia digital, e conseqüentemente, gerarão menos documentos em papel.  Porém, assim como o cinema não matou o teatro, a TV abalou mas não destruiu o cinema e o rádio não foi substituído pela TV, pode-se acreditar que por muitos e muitos anos a mídia impressa continuará sendo importante.

Mas há que se considerar o impacto da produção de papel na natureza e consequentemente, deve-se pensar numa forma de minimizar esse impacto. Uma idéia surgiu recentmente, a Eco Printer, que  foi a vencedora da edição do ano passado do Eco 2010 Red Dot Design Concept, prêmio destinado a idéias inovadoras em termos de design e idéias para novos produtos.

Desenvolvida pela designer Sharsha Lee para a empresa Liteon Technology Corp, a Eco Printer é uma impressora  que utiliza uma tinta especial composta por materiais fotográficos que desaparecem quando submetidos à  radiação ultravioleta (UV) – a idéia é que essa impressora seja alimentada com papel já impresso pelo mesmo processo e que a máquina apague o que foi impresso anteriormente antes da nova impressão.

A idéia é interessante, mas é necessário aguardar para ver se vai gerar um produto comercialmente viável: os custos envolvidos e os interesses da indústria podem tanto matar a idéia como transforma-la num grande sucesso.

quinta-feira, 6 de janeiro de 2011

Fontes feias ajudam o aprendizado?!?

A revista Cognition publicou recentemente um artigo (http://web.princeton.edu/sites/opplab/papers/Diemand-Yauman_Oppenheimer_2010.pdf) relatando pesquisa acerca da utilização de fontes para impressão de materiais escolares conduzida pelos  professores Connor Diemand-Yauman e Daniel M. Oppenheimer da  Princeton University  e Erikka B. Vaughan da Indiana University.

É disseminada a crença de que material como apresentações em PowerPoint, apostilas etc., se elaborados de forma a terem sua leitura facilitada, com visual atraente e fontes  como Arial e Helvética,  levam a um aprendizado e retenção mais eficazes. 

Os pesquisadores resolveram buscar evidências científicas que validassem essa crença, no entanto, concluiram exatamente o contrário: se o material se tornasse um tanto quanto “disfluente”, ou seja, mais difícil de ler e entender, acabaria levando os estudantes a  dedicarem mais atenção ao mesmo, aumentando os níveis de aprendizagem e retenção. No que se refere às fontes, o  uso de Monotype Corsiva, Comic Sans em itálico e Haettenschweiler contribuem para essa “disfluência”.
Após apresentarem os resultados de suas pesquisas, os autores concluem seu trabalho afirmando que se uma alteração tão pequena como essa pode melhorar o processo de aprendizagem, pode-se acreditar que outras alterações podem levar a uma grande melhoria da performance dos estudantes e do sistema educacional como um todo.

terça-feira, 4 de janeiro de 2011

WikiLeaks - a tecnologia assustando governos

A tecnologia  Wiki permite que as pessoas trabalhem em conjunto construindo textos, desenvolvendo projetos etc. Semelhante a um blog em estrutura e lógica, permite que seus qualquer pessoa poste, modifique ou delete conteudo colocado em um web site,  ao contrário do que ocorre com um blog onde apenas o autor pode fazer isso, cabendo aos visitantes comentar o material postado.

O termo Wiki, que significa “rápido” no idioma havaiano, pode se referir ao site que funciona dessa maneira ou a software utilizado para cria-lo; o primeiro desses sites foi criado por   Ward Cunnigham em  1995.

A maioria de nós conhece e utiliza um wiki: a Wikipédia, enciclopédia livre lançada por  Jimmy Wales e Larry Sanger em 2001. Ela já tem 3,5 milhões de artigos em inglês e cerca de 600 mil em português, todos postados e revisados basicamente por voluntários. A presença dos voluntários é ao mesmo tempo o ponto forte e o ponto fraco da Wikipedia, pois permite seu crescimento constante mas também traz muitas imprecisões – de qualquer forma, é um instrumento bastante útil, desde que utilizado com cautela.

Muitas empresas estão utilizando a tecnologia Wiki para desenvolver sistemas que permitam a seus funcionários e parceiros criarem e acessarem informações de forma rápida – evidentemente, nesses casos o acesso é restrito a pessoas autorizadas.

Mas o que antes parecia apenas mais uma curiosidade sem muito futuro no mundo da tecnologia e depois mais uma ferramenta de trabalho para empresas, está mostrando poder ser um grande problema para governos que tem algo a esconder (e todos tem): em 25 de julho passado, o site   WikiLeaks (http://wikileaks.org, fundado em 2006) publicou mais de   90.000 documentos classificados (secretos, sigilosos etc) das forças armadas dos Estados Unidos, documentos esses referentes a operações desastradas que resultaram em mortes de civis (às vezes, assassinato pura e simplesmente),    problemas logísticos e outros que vem sendo enfrentados pelos americanos no  Afeganistão principalmente; logo em seguido, outros documentos, referentes à comunicação entre diplomatas americanos, foram também liberados.

O tema vem sendo debatido pela mídia em todo mundo, tendo despertado a ira do governo e dos militares americanos, que vêem na divulgação riscos às suas operações e aos afegãos que os apoiam. Apesar desses riscos, há os que apoiam a divulgação , alegando o direito da população americana de saber realmente o que seus militares vem fazendo.

A divulgação gerou um acalorado debate nos Estados Unidos sobre o nível  de acesso que deve ter a população daquele país a documentos secretos das forças armadas e outros órgãos governamentais.

Talvez este seja um exemplo de como a tecnologia pode auxiliar a trazer a público informações que usualmente são ocultadas pelos governos: WikiLeaks diz que sua missão é procurar e divulgar esse tipo de informação, o que de forma geral é bom para a democracia e para a sociedade como um todo.


Afeganistão: roupa de baixo blindada!

 

Nas duas primeiras guerras mundiais, a maior parte das baixas  devia-se a fogo de artilharia e metralhadoras. No Vietnã, minas e outras armadilhas explosivas  foram responsáveis por cerca de 11% das baixas americanas. No Iraque e no Afeganistão, essas são as armas mais letais, e com uma novidade: a maioria delas é detonada por controle remoto, sendo utilizados como acionadores equipamentos como telefones celulares e aparelhos de controle remoto de uso doméstico, aqueles que acionam TVs, portões eletrônicos, etc. Para neutralizar esses acionadores, os americanos estão instalando em seus veículos equipamentos que interferem nos sinais emitidos por esses aparelhos, impedindo assim as explosões.

 

Apesar de, ao que parece, os americanos e seus aliados ainda não terem percebido  que é impossível ganhar essa guerra, a busca por mais segurança aos soldados, prossegue: a BBC noticiou recentemente que a peça mais recente do kit de tecnologia que será oferecido às tropas britânicas que servem na província de Helmand, no Afeganistão, são as cuecas blindadas. O nome pode parecer irreverente ou desapropriado, ainda mais porque as soldados também as usarão, mas o objetivo de seu uso é muito sério: evitar lesões na região pélvica, causadas pelas explosões de bombas que são colocadas nas estradas pelos talibãs.

 

A preocupação dos soldados com ferimentos nessa parte do corpo não é nova: na 2ª Guerra Mundial pilotos costumavam  colocar placas de metal sob a almofada de seus assentos - o Exército Brasileiro, que está iniciando um processo de revitalização de seus helicópteros AS350 Esquilo, substituirá os assentos convencionais da tripulação por assentos blindados. Os militares ingleses que estão partindo  para Helmand receberam quatro cuecas/calcinhas anti-explosivos. Parecem shorts de ciclista, mas são feitas de um material balístico especial composto de seda e fibras sintéticas que – apesar de ultra-leve – pode deter ou reduzir os efeitos das pequenas partículas que viajam a grande velocidade depois de uma explosão. 

 

Como as bombas são plantadas nas estradas e normalmente acionadas quando veículos ou soldados estão sobre elas,   muitos dos feridos por bombas no Afeganistão sofreram lesões graves na região pélvica, pois boa parte   da força da onda destrutiva se dirige para cima, até a virilha e a parte superior da perna. Cerca de 45 mil peças já foram entregues no Afeganistão, junto a outras 15 mil que estão prontas e serão divididas entre as tropas. Espera-se que no começo de 2011, o fabricante entregue um pedido no valor de 9,3 milhões de dólares. 

 

Uma segunda "capa" de proteção adicional às cuecas de combate, também distribuída aos soldados, vem em cores de camuflagem. É amarrada nas pernas e usada sobre as calças. Podem ser enroladas e presas a uma correia na parte de trás da calça, com velcro, ou – quando os soldados saem em patrulha – podem ser estendidas nas pernas e presas dos lados para formar uma bolsa de proteção. Em seu interior, há uma camada de proteção adicional. 

 

Quando as forças britânicas se encontram em patrulha ou estão fora das principais bases no Afeganistão, levam coletes à prova de bala para proteger áreas vitais como o pulmão, coração, fígado e rins, assim como um capacete e lentes que protegem a cabeça e os olhos. No entanto, artérias importantes estão localizadas na área da virilha, propensa ao suor, e por isso a roupa íntima a prova de explosões teve de ser feita com materiais que permitissem a circulação e não causassem desconforto.

 

Fontes da área de defesa britância dizem que  muitos fatores devem ser levados em conta na criação de materiais como esse, mencionando que a seda pode parecer um material extravagante, mas em termos de proteção é muito eficiente, especialmente quando atua em conjunto com determinadas fibras sintéticas; lembram também que chineses e japoneses   usam   seda para blindagem corporal há pelo menos mil anos.

 

A guerra é algo realmente triste. Inocentes pagam a maior parte da conta. Nossa esperança é que a tecnologia   possa ao menos contribuir para minorar os sofrimentos das vítimas e tornar melhor a vida dos sobreviventes.