quinta-feira, 9 de junho de 2011

Cloud computing - uma nova forma de armazenar nossos dados

Até há não muito tempo, as pessoas utilizavam um ou no máximo dois computadores. Nesse ambiente, era fácil compartilhar arquivos – bastava copia-los para um pen drive ou para um disco portátil (HD externo)   e transferir os arquivos de uma máquina para outra – mesmo assim, às vezes ocorria algum erro ou esquecimento e era necessário “correr atrás do prejuízo”.  Muitos preferiam enviar os arquivos para si próprios por email, e depois salva-los na outra máquina.
Atualmente, o cenário mudou: temos um desktop em casa e/ou no trabalho, um notebook, um ou mais smartphones, tablet etc., fazendo o compartilhamento de arquivos se tornar algo bastante complexo e trabalhoso – consequentemente sujeito a erros, como perda de arquivos, manutenção de arquivos desatualizados etc., além do tempo gasto para deixar  os arquivos organizados.
Para se ter uma idéia mais precisa da situação, basta lembrar que segundo o instituto de pesquisa Forrester  Research, nos Estados Unidos cerca de 60%   dos adultos com acesso à Internet têm pelo menos dois desses equipamentos e quase 3% têm nove ou mais  aparelhos diferentes! Para tornar o cenário ainda mais complicado, às vezes pessoas da  família ou amigos também precisam ter acesso aos mesmos arquivos, utilizando outras máquinas.
Mas uma idéia antiga parece estar voltando à moda para evitar todo esse trabalho: salvar os arquivos “na nuvem” e depois acessa-los a partir de qualquer dispositivo; em 2005 o Google lançou a primeira ferramenta desse tipo a se tornar popular, o Google Docs.
Na atualidade, operando o conceito que agora se chama “cloud computing” (computação na nuvem),  diversas empresas focadas nesse tipo de serviço estão crescendo, ganhando visibilidade:  Dropbox, YouSendIt.com, Box.net, 4Shared e SpiderOak.  A Apple acaba de lançar um serviço similar,   iCloud. 
 "Nossa visão é simplificar a vida   das pessoas", disse Drew Houston, executivo-chefe da Dropbox, empresa que tem  25 milhões de usuários que armazenam   300 milhões de arquivos por dia e que já tem mantem 100 bilhões de arquivos em seus servidores.
A possibilidade de acesso à Internet a partir de quase todos os lugares e a queda nos preços de computadores e periféricos tem ajudado esses serviços a prosperar: espaço para armazenamento em mídia magnética é hoje oito vezes mais barato do que em 2005. Isso permite a muitos fornecedores cederem gratuitamente espaços pequenos para armazenagem, esperando que os usuários percebam a vantagem dessa forma de arquivamento e paguem por espaços maiores; no Dropbox, os preços começam em US$ 20 ao mês, havendo promoções, como espaço adicional dado aos clientes que trazem outros.
Mas há uma grande preocupação com relação à armazenagem na nuvem: segurança. Embora não haja casos registrados de furto de dados desses serviços, muitos usuários ainda relutam em usa-los. Recentemente, um especialista em segurança da informação queixou-se formalmente a órgãos do governo americano acerca da forma como a Dropbox protege os arquivos que armazena; segundo o queixoso, empregados da empresa poderiam ter acesso aos mesmos, o que a empresa nega, dizendo adotar níveis de segurança similares aos adotados pelos bancos e forças armadas.
De qualquer forma, o negócio vem crescendo: recentemente  a Amazon lançou seu Cloud Drive e uma nova empresa, a Cx.com, financiada por uma empresa controlada por Eric Schmidt, chairman e ex-presidente  executivo do Google começou a operar em janeiro deste ano, de forma experimental e ainda não está cobrando por seus serviços.
Como quase sempre acontece, resta saber se essa tendência se consolidará ou se estamos diante de mais um modismo.
Mas...  há sempre um “mas”: a ONG  Internet Archive, que tem por objetivo manter uma biblioteca contendo todo o material já digitalizado,  músicas, animações, livros etc – já tem cerca de 3 milhões de livros arquivados e espera chegar a 10 milhões (estima-se que até hoje 100 milhões de livros foram publicados em papel). E essa organização inaugurará em junho de 2011  armazens para guardar cópias em papel de todos os seus livros!
O armazém da Internet Archive
E por que cópias em papel? Segundo seus dirigentes, para que sirvam para resolver qualquer disputa acerca da fidelidade do material digital em relação ao original. Esses dirigentes não dizem, mas há alguns outros problemas envolvendo cloud computing: a armazenagem digital por períodos muito longos ainda não é totalmente segura, e que mesmo nos ambientes em que há alta redundância e disponibilidade podem ocorrer dois fenômenos, o chamado “bit rot” (apoderecimento dos bits), em que a carga elétrica se perde e com ela os dados e os “flipped bits”, quando ocorre alteração dos dados ao se transferir arquivos de um ponto para outro – as ferramentas que pretendem evitar esses problemas ainda não são totalmente seguras.
Situações como essa mostram que frequentemente uma tecnologia que parece condenada, como os livros em papel, pode sobreviver.
 

quarta-feira, 25 de maio de 2011

PEQUENOS ERROS PODEM GERAR GRANDES TRAGÉDIAS

A sonda  Mars Climate Orbiter - MCO, foi lançada do Cabo Canaveral pela NASA em 11 de dezembro de 1998, tendo chegado a Marte em 23 de setembro de 1999.
Tinha como objetivo principal  estudar a atmosfera do planeta vermelho e atuaria também como retransmissora de informações captadas por outros engenhos que deveriam pousar em Marte na mesma época, fazendo estudos acerca da geologia e   à presença de água e CO2.  A missão estava programada para durar um ano marciano, equivalente a aproximadamente dois anos terrestres.

A MCO chegou a Marte, mas não pousou: por um erro de navegação, acabou entrando na atmosfera numa altitude errada e acabou sendo destruida pelo calor gerado pela fricção com a atmosfera.   A missão havia custado 125 milhões de dólares da época.

Mas o que causa espanto foi a causa do acidente: um erro no software de controle de aceleração da nave: parte dele foi construido considerando  unidades inglesas e parte adotava o sistema métrico decimal.  Por misturar pounds e newtons, milhões foram para o lixo...

Durante o voo, havia sinais de que alguma coisa não corria bem: vários ajustes foram necessários, e na chegada parecia claro que a nave descia rapidamente, mas os técnicos da NASA  não conseguiram controla-la.

O inquérito realizado concluiu que o erro ocorreu devido à má comunicação entre os envolvidos. O pessoal que trabalhava com propulsão na  Lockheed Martin, construtura da nave, usualmente utilizava  pounds como medida de força – um pound é equivalente a cerca de 4,5 newtons. O pessoal da NASA,  sabendo que era praxe que após o projeto da nave os pounds fossem convertidos en newtons, assumiu que isso havia sido feito, o que não ocorreu – a conversão não havia sido checada.

Curiosamente, a outra nave que fazia parte da missão, a  Mars Polar Lander, que havia sido lançada 23 dias depos da MCO, também acabou destruida, pois seus sistemas interpretaram  que a nave havia popusado quando ainda se encontrava a cerca de 35 metros de altitude – os motores foram desligados e a nave se espatifou no solo marciano.

Naquela época, a NASA tocava seus projetos na base do  “better, faster, cheaper”  (melhor, mais rápido, mais barato), tentando realizar mais com menos dinheiro. Contrário a essa politica, e acreditando no velho ditado que diz que a economia é a base da porcaria,  o  New York Times havia publicado em 21 de setembro (dois dias antes do acidente) um artigo entitulado    “Beginning a Bargain-Basement Invasion of Mars”  (algo como “Iniciando uma Invasão de Marte na Base da Pechincha”) , que previa os desastres que se seguiram.

Mas a lição foi útil: a NASA cancelou os projetos de exploração de Marte e os reiniciou do zero, adotando estratégias conservadoras e conceitos já testados. Essa estratégia acabou levando ao lançamento dos  Mars Exploration Rovers  - dois veículos sobre rodas, o Spirit e o Opportunity,  que chegaram a Marte em 2003 e 2004 com vida útil prevista de 90 dias; em maio de 2011 o Opportunity continuava operacional, mas em fins de 2009 o Spirit perdeu contato com a Terra, provavelmente em função do esgotamento de suas baterias; em maio de 2011 a NASA anunciou que considerava amáquina totalmente perdida. 

A história termina bem, mas e se a bordo do MCO houvesse seres humanos? Fica a lição: tecnologia é importante, mas vulnerável a erros humanos; pequenos erros podem gerar grandes tragédias.

Mas será que para a nova missão a Marte, no final de 2011, a Nasa levará em conta essa lição? Essa missão  tentará descobrir se o ambiente de Marte tem ou já teve a química necessária para suportar a vida como a conhecemos na terra. Se seu lançamento atrasar, o projeto como um todo será adiado por dois anos, até que condições favoráveis de alinhamento Terra-Marte tornem a missão viável.

segunda-feira, 23 de maio de 2011

Lançamento de livro

Temos o prazer de convida-los para o lançamento de nosso livro, que acontecerá às 18 horas do dia 26 de maio, no Mercadão da Cidade, à rua XV de Novembro, em Jundiaí.

Aguardamos sua presença


sábado, 21 de maio de 2011

Ferrovias no Brasil: o início

O Barão de Mauá
Irineu Evangelista de Souza, (1813-1889), o Barão de Mauá, nasceu pobre, mas graças à sua capacidade de empreender tornou-se o maior empresário do Brasil e um dos maiores do mundo, à sua época. Foi banqueiro, comerciante e industrial, e graças à sua visão, em 1854 foi criada a primeira ferrovia brasileira.
Naquela época, o Rio de Janeiro era uma cidade muito insalubre: especialmente no verão,  febre amarela,  malária,  dengue e outras doenças assolavam sua população. Para fugir desse ambiente, as pessoas de maior poder aquisitivo passavam o verão no alto da serra, em Petrópolis, um local muito mais saudável.
Isso gerava uma demanda muito grande em termos de transporte de pessoas e mercadorias serra acima; esse transporte era feito por barcos que saindo da Praça XV, no  centro do Rio de Janeiro  cruzavam a baía da Guanabara até o Porto de Estrela – a partir daí, o trajeto era feito por terra, usando-se diligências e carros de carga. 
A Baroneza
Em 1854, Mauá terminou a construção de um trecho de 14,5 km ligando esse porto até a localidade de Fragoso; em 1856 a ferrovia alcançou  Raiz da Serra, onde se iniciava a súbida – era um trecho curto (16,1 km.), mas proporcionava uma significativa economia de tempo. Havia uma única locomotiva, a “Baroneza”, construída em Manchester, Inglaterra pela empresa Willian Fair Bairns & Sons; a “Baroneza” tinha bitola (distância entre os trilhos) de 1,68 m e operou durante 30 anos, , fazendo, atualmente, parte do acervo do Centro de Preservação da História Ferroviária, situado no bairro de Engenho de Dentro, no Rio de Janeiro – a locomotiva recebeu esse nome em homenagem a Maria Joaquina, esposa de Mauá.
Cerca de 30 anos mais tarde, a ferrovia finalmente chegou a Petrópolis, tendo sido desativada em meados do século XX. Entretanto, trens de subúrbio integrados ao sistema de transporte urbano do Rio de Janeiro ainda percorrem um pequeno trecho da ferrovia criada por Mauá, entre Piabetá e Vila Inhomirim (antiga Raiz da Serra).

sábado, 14 de maio de 2011

XADREZ: O COMPUTADOR versus O CAMPEÃO DO MUNDO

Kasparov enfrentando o Deep Blue
Durante o século XX, os campeões mundiais de xadrez tiveram o status de pop stars: eram notícia de jornal, suas esquisitices eram comentadas até por não enxadristas etc. Lasker, Capablanca, Bobby Fischer e até mesmoo brasileiro Mequinho, o maior jogador brasileiro, tinham fãs ardorosos;  mas o  soviético Garry Kasparov  é considerado por muitos o maior enxadrista de todos os tempos. Foi o jogador mais novo a se tornar campeão mundial, quando tinha 22 anos em 1985, mantendo o título durante muitos anos. Afastado do xadrez profissional, tem uma vida política muito ativa, tendo sido preso várias vezes pos sua oposição ao atual regime russo. 

Criado pela IBM para fins de propaganda, o Deep Blue era um supercomputador que rodava um software criado especialmente para jogar xadrez; seus   256 co-processadores eram capazes de analisar aproximadamente 200 milhões alternativas de jogo por segundo.

Em fevereiro de 1996,    Kasparov disputou um match contra o Deep Blue:  ganhou três partidas, empatou duas e perdeu uma, a primeira, que foi a primeira partida em que   um computador venceu um campeão do mundo. Mesmo tendo vencido o match, Kasparov  disse que “era o último humano campeão de xadrez”, talvez prevendo o que aconteria no ano seguinte.

Em maio de 1997 uma versão atualizada do Deep Blue venceu Kasparov em um novo confronto: após cinco jogos o match estava empatado,  porém Kasparov foi vencido no último jogo - foi a primeira vez que um computador venceu um campeão mundial em um match; o documentário  “Game Over: Kasparov and the Machine” narra o episódio. Especialistas afirmam que na sexta partida Kasparov adotou uma estratégia que pretendia levar o jogo e o match a um empate, mas não teve êxito.

Kasparov disse  que muitos fatores pesaram contra ele, especialmente o fato de não ter tido acesso a jogos recentes do   Deep Blue, enquanto o time do computador pode estudar centenas dos jogos de Kasparov – enxadristas normalmente estudam previamente as partidas de seus adversários  e na   base de dados acessada pelo computador havia mais de 700 mil partidas dos maiores jogadores do mundo. A polêmica foi mais longe: Kasparov acusou a IBM de ter trapaceado, dizendo que jogadores humanos intervieram durante a segunda partida. A IBM se defendeu dizendo que os ajustes no programa e intervenções ocorriam somente entre uma partida e outra. Kasparov pediu os arquivos (log files) que poderiam comprovar suas acusações, mas a IBM se recusou a fornecê-los, embora os tenha disponibilizado na Internet mais tarde.

Inconformado,   Kasparov desafiou a máquina para um novo match, mas a IBM não teve interesse e aposentou  o Deep Blue, o que Kasparov disse ter sido uma forma de   ocultar  as evidências da alegada fraude.

Do ponto de vista tecnológico, cabe lembrar que além dos enxadristas amadores que jogam contra computadores por puro esporte (há softwares com diferentes graus de dificuldade), computadores são utilizados regularmente por profissionais para treinamento e que há inúmeras competições, a nível mundial, para softwares de xadrez. 

Quanto aos campeões mundiais, alguém sabe quem é o atual?

sexta-feira, 29 de abril de 2011

Software: cada vez mais presente nos veículos, ruas e estradas

O software vem tendo uma importância cada vez maior na indústria automobilísitica, não apenas em suas funções tradicionais ajudando a controlar os negócios, a cadeia de suprimentos e a produção, mas sim, sendo incorporado ao produto final.
O Chevrolet Volt
 Um bom exemplo disso está no  Chevrolet Volt, um híbrido eletricidade/gasolina cujo software tem  10 milhões de linhas de código, dois milhões a mais que o que se encontra no caça  F-35.
A  crescente importância so software é realçada pelo acordo recentemente assinado entre    a Toyota e a Microsoft (que tem acordo similar com Ford) para desenvolver aplicações automotivas que rodarão na nuvem (cloud computing); outros gigantes da área de informática também pesquisam na área, entre eles   Google, IBM e Cisco.
Em breve, os carros deixarão de ser ilhas isoladas no trânsito – o software vai permitir com que se comuniquem entre si, com  as ruas e estradas, compondo uma gigantesca rede que trará mais segurança e fluidez ao tráfego – alguns estudiosos dizem que em breve  acontecerá com os carros o que já acontece com os  celulares, que não são escolhidos por suas aparências, antenas e telas, mas sim pelo software que rodam.
Alias, carros e smartphones já estão operando em conjunto: o Chevrolet Volt  já permite, entre outras funcionalidades,  que seus proprietários verifiquem através de seus smartphones o quanto resta de carga em suas baterias e comandem o recarregamento das mesmas. O aumento do número de funcionalidades e novidades implica em aumento da complexidade e de preocupações com relação à segurança, não só no que se refere a desastres que podem acontecer por falha de software mas até mesmo a assuntos como os   ataques praticados por hackers: pesquisadores das Universidades da Califórnia e de Washington já descobriram que é possível abrir carros partir da invasão de seus sistemas de som.
Dentre essas funcionalidades e novidades estão
·                os carros (autonomous cars) sem motorista, equipados com  “piloto automático” e capazes de se dirigirem de um ponto a outro sem  comandos dados por um controlador externo, o que os torna diferentes dos carros dirigidos por controle remoto  (a VW alemã já tem um protótipo baseado em um Passat)
·                as previsões personalizadas sobre o trânsito, capazes de dar ao motorista, antes mesmo que ele saia de sua casa, prognósticos acerca do trânsito nas áreas usualmente percorridas por ele – a IBM já está testando tecnologia nessa área,  baseada em smartphones  
·                ruas e estradas que automáticamente captam dados sobre o trânsito e os processem  de forma a gerar informações que permitam que o mesmo flua melhor, redirecionando o tráfego para rotas alternativas e radicalizando o conceito de “semáforos inteligentes”
·                os “road trains”, que já foram objeto de publicação neste blog.
Resta aguardar e esperar que toda essa tecnologia melhore nossa qualidade de vida e não apenas contribua para elevar nossa produtividade. Quanto ao Volt, suas vendas estão superando as expectativas da GM, devendo atingir 16 mil unidades em 2011 e 60 mil em 2012.

quinta-feira, 14 de abril de 2011

DAS VÁLVULAS AOS SUPERCHIPS

Em  23 de dezembro de 1947 foi feita a primeira demonstração  do uso do transistor, a invenção que abriu as portas para o mundo digital em que hoje vivemos.
Muitos consideram o transistor como a mais importante invenção do século XX; ele foi desenvolvido para substituir as válvulas e relês  em equipamentos como rádios, televisores, radares e outros.
As válvulas e relês eram grandes, pouco confiáveis e consumiam muita energia, o que levou a AT&T, já uma empresa de muito grande porte, a iniciar pesquisas buscando alternativas - essas pesquisas foram conduzidas pelos Laboratórios Bell, o braço técnico-científico da AT&T.
Shockley, Bardeen e Brattain
Desde fins da década de 1930, William Shockley, um físico que trabalhava para os Bell Labs, vinha conduzindo estudos teóricos a respeito, porém não conseguiu produzir um modelo que funcionasse. Visando resolver esse problema, os pesquisadores John Bardeen e Walter Brattain juntaram-se a Shockley, continuando a trabalhar no assunto, tendo finalmente chegado a um protótipo cujo desempenho foi julgado razoável e que foi naquela data apresentado aos dirigentes dos Bell Labs.
O protótipo foi sendo aperfeiçoado até que em 30 de junho de 1948, o transistor foi oficialmente apresentado à imprensa; Shockley, Bardeen e Brattain dividiram o o Premio Nobel de Física de 1956 por seu invento. 
Em 1959,  acontece outro salto tecnológico:  surge o  circuito integrado, associando diferentes componentes: transistores, capacitores, resistores e indutores.  São considerados seus   inventores Jack Kilby e Robert Noyce.
Em 1971 surgia o primeiro chip: era o   Intel 4004,   projetado por uma equipe chefiada pelos cientistas  Federico Faggin, Ted Hoff e Masatoshi Shima - os dois primeiros da Intel e o último da Busicom, depois Zilog. O 4004 foi sucedido em 1974  pelo Intel  8080, que foi utilizado nos primeiros microcomputadores (Sinclair, Apple, Commodore, TRS etc.), calculadoras e dezenas de outros dispositivos e equipamentos eletrônicos.  
O 4004 tinha apenas 2.300 transistores, número absolutamente ridículo diante dos superchips de mais de  5 bilhões de transistores de que se fala atualmente. Dentre esses superchips estão os da geração Core, os  i3, i5 e i7 da Intel, projetados para fazerem   processamento paralelo, e que serão especialmente úteis nesta época em que as pessoas estão utilizando cada vez mais imagens, para o que é necessária maior capacidade de processamento.  Cada vez menores e mais rápidos, esses superchips consomem  menos energia e são os responsáveis pela geração  de imagens  3D  cada vez mais perfeitas, pela beleza e realismo dos novos videogames, pela popularização do  reconhecimento biométrico através de leitura de  impressões digitais, da íris, da voz e da fisionomia  e pelos  novos recursos que vêm sendo incorporados aos smartphones.
Com sua extraordinária capacidade de processamento os novos superchips  oferecem  à indústria recursos cada dia mais poderosos para laptops, desktops, smartphones, televisores e videogames.   
Em artigo publicado recentemente, o jornalista Ethevaldo Siqueira diz ter perguntado a especialistas em microeletrônica como serão os chips do futuro e obtido respostas variadas,  mas com alguns pontos em comum:   o número de transistores poderá chegar a centenas de bilhões,  suas funções se tornarão cada vez mais complexas e seu consumo de energia cada vez menor. Confirmando-se essas previsões, continuaremos a assistir ao surgimento de computadores e outros gadgets cada vez mais poderosos,  velozes e baratos, que por essas razões estarão cada vez mais presentes em nossa vida diária.
E gênio é gênio: Bardeen passou em 1951 a ensinar na University of Illinois e em 1972 divididiu um segundo Prêmio Nobel, desta vez por trabalhos relativos a supercondutividade, é uma característica  de certos materiais, que, quando se esfriam a temperaturas extremamente baixas, podem conduzir  corrente elétrica sem resistência nem perdas.

terça-feira, 29 de março de 2011

Road Trains: uma nova idéia para o trânsito



A União Européia está estudando um novo conceito que visa dar mais segurança e fluidez ao transito em suas estradas, o Road Train.




A idéia básica é de que carros de passeio, dotados de sensores e processadores eletrônicos viagem em comboio, líderados por um veículo dirigido por um motorista profissional. O equipamento
eletrônico instalado nos veículos que estariam seguindo o líder, automáticamente os dirigiriam – 
fariam o carro acelerar, frear, mudar de direção etc. automáticamente, sem qualquer interferência de seus motoristas, que ficariam livres para deixarem o Road Train a qualquer momento, passando a dirigir seus carros da forma convencional.

Dentre os benefícios trazidos pela idéia, estariam o aumento da produtividade dos profissionais, que poderiam ler, falar ao telefone, comer ou trabalhar em computadores durante as viagens, a melhoria do fluxo de tráfego, pois os carros viajarriam mais próximos uns dos outros, o aumento da segurança e até mesmo a redução das emissões de CO2, que diminuiriam em 20%, segundo os responsáveis pelo projeto – 20% seria também a economia de combustível esperada. A ênfase em aspectos ambientais é grande, tanto que o nome oficial do projeto é SARTRE – Safe Road Trains for the Environment.

No primeiro semestre de 2010, como parte do programa, a Volvo fez uma demonstração pública do sistema de frenagem automática: a demonstração foi um fracasso, o sistema não funcionou e o Volvo S60 que fazia a apresentação bateu – a empresa disse que houve falha humana e não da tecnologia.

Em dezembro daquele ano, foram realizados testes mais amplos, envolvendo um veículo guia seguido por outro, desta vez com sucesso. A idéia é que até o final do projeto, em 2012, sejam exaustivamente testados comboios formados por um guia e cinco outros veículos. A seguir, seriam feitos ajustes necessários à formação de comboios maiores, bem como desenvolvidos esforços para divulgar a tecnologia, ajustar a legislação de trânsito etc. Quem sabe não estaremos em breve utilizando mais essa tecnologia em nossa vida diária? A idéia básica, no momento, é que os motoristas pagariam por esse serviço.

É preciso dizer também que em alguns países, especialmente nos Estados Unidos, Canadá e Austrália, a expressão Road Train é utilizada para conjuntos em que um cavalo mecânico puxa vários reboques – o maior de que se tem notícia é utilizado na Austrália, em serviços de mineração: tem dois motores, um de 600 e outro de 400 hp, transmissão automática, transportando 460 toneladas de minério; como rodam fora das estradas, em propriedade privada, não são sujeitos às leis de trânsito.

terça-feira, 8 de março de 2011

OS LIBERTY SHIPS: AS MULAS DE CARGA DA 2ª GUERRA MUNDIAL

Com o   inicio da 2ª Guerra Mundial em 1939, os Estados Unidos perceberam que cedo ou tarde se envolveriam no conflito, e que deveriam lutar na Europa e no Extremo Oriente, necessitando transportar grandes volumes de suprimentos através do Atlântico e do Pacífico, áreas em que os submarinos alemães, italianos e japoneses estariam muito ativos.
No início de 1941, os Estados Unidos possuiam 1.422 navios mercantes, 92% com mais de 20 anos e com velocidade inferior a 11 nós (cerca de 20 km/hora), o que os tornava alvos muito fáceis para os submarinos – além disso, esse número de navios era insuficiente para atender à estratégia dos americanos.
O tempo era curto, e os americanos desenvolveram uma tecnologia para construir rapidamente os navios de que necessitavam: adaptaram um projeto inglês, definiram métodos que previam uma padronização e simplificação radicais  para acelerar a construção e puseram mãos à obra, denominando esse tipo de navio Liberty.
O primeiro a ser lançado foi foi o   Patrick Henry,    entregue em 30/12/1941; devido às necessidades impostas pela guerra, os esforços de construção eram cada vez mais intensificados, levando a uma sistemática quebra de recordes de velocidade de construção: o   Robert E. Peary teve sua quilha batida  (colocação da primeira peça no local de onde o navio será lançado ao mar)  às 00:00h hs do dia 08/11/1942, sendo lançado ao mar em no dia 12; o acabamento e os testes no mar consumiram mais 3 dias e meio e no dia 15, pouco mais de 8 dias após o batimento da quilha, o Robert E. Peary deixou o estaleiro rumo ao porto onde seria carregado para sua primeira  viagem à Europa - um recorde que provavelmente ainda vai demorar para ser quebrado. 
Para se ter uma ideia do que significa esse prazo, o petroleiro João Cândido, que foi construído no Brasil, teve sua quilha batida em setembro de 2008 e entrou em serviço em maio de 2012, embora, ao que pareça, a demora tenha se devido a conchavos políticos, que fizeram a Petrobras (dona do navio) dar sua construção a um estaleiro não capacitado para faze-lo.
No total 2.710 unidades foram construídas, sendo o tipo de navio 
construído em maior número em toda a história.  Os Liberty carregavam em seus cinco porões 10.865 toneladas de carga, capacidade equivalente a 300 vagões ferroviários, ou 2.840 jipes, ou 440 carros blindados leves, ou 230 milhões de cartuchos de fuzil, mas não raramente seus imediatos encontravam espaços para carga adicional. Apenas a título de comparação, o Emma Maersk,   navio porta containers lançado em 2006, tem capacidade para cerca de 55 mil toneladas de carga.

Apesar de serem navios construídos para fins emergenciais, os  Liberty  incorporaram várias inovações em seu projeto, tais como radares, ecobatímetros, rádios e equipamentos de navegação eficientes. Além disso tinham um grau de conforto muito elevado para a tripulação em relação aos navios da época, como chuveiros, bons camarotes e abrigo para o pessoal em serviço; requeria cerca de 50 marinheiros (o Emma Maersk precisa de 13) e cerca de 30 artilheiros para manejar suas armas antiaéreas e antinavio. Além disso, sua operação era muito simples, exigindo pouco treinamento de seu pessoal.
A construção naval evoluiu muito dos anos 1940 para a atualidade, o que fica claro se fizermos mais algumas comparações entre os Liberty e o Emma Maersk:
·         Comprimento: 135 e 397 metros (o navio mais comprido do mundo é o petroleiro norueguês Knock Nevis, com 458 metros de comprimento).
·         Velocidade: 11 e 25.5 nós
·         Potência: 2.500 e 110.000 hp

Os Liberty foram as mulas de carga da 2ª Guerra Mundial;  dos 2.710 navios construídos 240 foram perdidos  por afundamento, encalhe, incêndio ou acidente. Os remanescentes  foram vendidos ou cedidos a armadores ao redor do mundo, sendo que 3 deles serviram sob bandeira brasileira, dos quais o último a ser desativado foi o Kalu, em 1973.
Alguns   Liberty foram preservados como navios-museu, dentre eles o   John W. Brown mantido   em Baltimore, cuja foto encerra esse texto.


sexta-feira, 4 de março de 2011

MAINFRAMES: MORTE, ADAPTAÇÃO E RESSURREIÇÃO

No início dos anos 90 uma revolução agitava o mundo da informática. Ganhava força a arquitetura cliente-servidor e as redes se tornavam uma febre no mundo da informática corporativa.  
Os computadores de grande porte, os mainframes, e os profissionais a eles ligados, passavam a ser chamados “dinossauros”, pois a extinção dessas máquinas era tida como iminente. Muitos desses profissionais deixaram bons empregos por terem encontrado oportunidades (às vezes não tão boas) no mundo das redes. 

IBM System z10
 Em 1991, Stewart Alsop, à época diretor da InfoWorld, um importante periódico na área de informática, chegou a dizer que em 1996 o último mainframe seria desligado. No Brasil, o banco Bamerindus (hoje HSBC) iniciou um processo pioneiro (ao menos entre os grandes bancos) de substituição de seus mainframes pela nova arquitetura. 
O Bamerindus voltou atrás depois de perder muitos milhões de dólares no processo (o que ajudou o banco a quebrar logo depois) e Alsop, hoje um “venture capitalist”,  também vê suas previsões não se concretizarem: a IBM lançou recentemente no Brasil seu novo  mainframe, o System z10. Registre-se que o Brasil é o terceiro mercado para mainframes, atrás apenas dos Estados Unidos e da Alemanha.             

O alvo do produto não são apenas as empresas que têm suas estruturas de processamento de dados baseadas em mainframes, como as instituições financeiras, empresas de internet e grandes varejistas, mas também as empresas que buscam mais eficiência no uso de energia e estão em processo de consolidação de servidores, ou seja, substituindo diversos servidores de menor porte por um mainframe que atua também como servidor. A própria IBM iniciou há dois anos seu processo de consolidação, no qual 3.900 máquinas estão sendo substituídas por 30 mainframes. Nos próximos cinco anos, segundo o Gartner Group, 70% das mil maiores empresas do mundo farão modificações como essa.
Segundo a IBM, apesar do custo de aquisição de mainframes ainda ser alto, o retorno financeiro ocorre num período estimado entre dois e cinco anos; além disso, em relação aos servidores mais usados, o System z10 apresenta um custo com energia e um consumo de espaço físico 85% menores, sendo a capacidade de processamento de uma máquina z10 “top de linha” equivalente à de aproximadamente 1.500 servidores de plataforma baixa comuns. Os custos de operação e administração de equipamentos também tendem a ser menores. 
A morte do mainframe é mais um exemplo de profecia equivocada na área de tecnologia, assim como foram as das mortes do rádio e do cinema substituídos pela TV e das ferrovias substituídas pelos carros, caminhões e aviões. Neste momento, anunciam a morte da mídia impressa, a ser substituída pela Web.  
E quais são os pontos comuns entre as tecnologias sobreviventes? Não apenas a existência de alguma vantagem não totalmente suplantada pela tecnologia substituta, mas a necessidade de as empresas que as fornecem e/ou utilizam adotarem novos modelos de negócio e o medo de abandonarem uma massa de usuários leais e de parceiros de negócio confiáveis. Além e acima destas, a capacidade de adaptação.  
Segundo artigo recentemente publicado pelo New York Times, essas profecias normalmente superestimam a importância dos aspectos técnicos das novidades, deixando de lados fatores relativos ao ambiente de negócios propriamente dito, cujos interesses acabam favorecendo a evolução e não a revolução tecnológica. Em termos práticos, as empresas querem máquinas que cumpram suas missões a custos adequados, não importando se são ou não a última moda em termos de tecnologia.  
O historiador John Steele Gordon, diz que esse processo é similar ao observado na natureza: algumas espécies desaparecem em função de problemas ambientais, como os dinossauros, mas milhares de outros répteis sobreviveram e evoluíram adaptando-se às mudanças ambientais.   
Na área de tecnologia, o rádio é um exemplo de sobrevivência pela adaptação. Deixou de ser o aparelho ao redor dos quais as famílias se reuniam para ouvirem programas de variedades e novelas, para ser um fornecedor de entretenimento para períodos em que as pessoas estão trabalhando ou viajando de automóvel, bem como um prestador de serviços de utilidade pública, fornecendo notícias, previsão do tempo etc., tornando-se o que Paul Saffo, um estudioso do futuro na área de tecnologia, chama de “audio wallpaper”.  
Alterações no ambiente de negócio podem inclusive revitalizar tecnologias decadentes, como vem ocorrendo como as ferrovias, que voltam a se expandir quantitativa e qualitativamente em função dos custos de combustível, excesso de automóveis nas cidades, demoras em aeroportos etc.  
Voltando ao mainframe: ele é um caso clássico de sobrevivência garantida por um processo de revitalização: novos e mais baratos microprocessadores, maior versatilidade em termos de software etc., levaram a permitir que ele assuma novas funções além das que lhe eram atribuídas, passando, por exemplo, a rodar sistemas Web.
Encerrando: no mundo da tecnologia a capacidade de adaptação é fundamental para a sobrevivência e a adesão cega às novidades pode ser perigosa para as empresas e para os profissionais que a praticarem. Charles Darwin tinha razão ao dizer que não é o mais forte ou o mais inteligente que sobrevive, e sim, o mais adaptável. 

sexta-feira, 18 de fevereiro de 2011

FORTRAN: MAIS DE 60 ANOS DE BONS SERVIÇOS

Dia desses me dei conta de que realmente sou um “dinossauro” da TI: comecei em 1970, programando em Assembler para um Univac 1005 (uma “poderosíssima” máquina com 4K, isso mesmo, 4K, de memória principal) – esse “mainframe”, cuja configuração básica aparece a lado, era apoiado por um sistema ”convencional” (tabuladoras, perfuradoras e classificadoras de cartões - Remington-Sperry-Powers, que foi o antecessor dos 1005. 

Note-se que esses cartões, com furos redondos, cuja imagem está logo abaixo, tinham 90 colunas, ao contrário dos IBM que tinham 80 - isso era muito vantajoso em termos de entrada de dados e lógica de programação. 

E o nome da coisa não era TI ou Informática, mas sim Processamento de Dados e alguns ainda chamavam o computador de “cérebro eletrônico”… 

Nessa onda de nostalgia, lembrei-me de um artigo que “New York Times” publicou há algum tempo  acerca do desenvolvimento da linguagem Fortran, que quase todos os meus contemporâneos usaram - James Gray, um pesquisador na área de software que trabalhou para a Microsoft, chegou a dizer, parafraseando a Bíblia: “No princípio, era o Fortran”… Vale lembrar que Gray desapareceu no mar com seu veleiro em 2007.

Lembramos essas histórias porque julgamos oportuno dar aos nossos jovens profissionais e estudantes uma visão do passado, para que possam se preparar melhor para o futuro. Lembra o artigo que John Backus (que também morreu em 2007) trabalhava para a IBM, e em 1953, ao 28 anos de idade, solicitou aos seus superiores autorização para iniciar pesquisas acerca do que chamou de “uma melhor maneira de programar” – era uma época em que se usava linguagens de muito baixo nível, praticamente linguagem de máquina, o que tornava a programação extremamente complexa, trabalhosa, e consequentemente, lenta e cara.

Foi formada uma equipe, que chegou a ter dez profissionais; era um time com forte treinamento em matemática, mas no mais bastante eclética: reunia desde um especialista em criptografia a uma estudante recém formada, passando por um pesquisador do MIT e por um especialista em xadrez. Foi utilizado para o projeto um computador IBM 704 (foto ao lado), uma máquina bastante poderosa para a época – mas disponível para a equipe apenas no período noturno…

Segundo Backus, várias foram as causas do sucesso do Fortran: primeiramente, o grupo definiu que desenvolveria uma linguagem que pareceria um misto de inglês com álgebra, buscando uma sintaxe similar à das fórmulas utilizadas por cientistas e engenheiros, os grandes usuários de computadores na época - ao lado, uma amostra de código Fortran.

Dessa forma, a linguagem poderia ser facilmente usada por esses profissionais, praticamente sem auxílio de programadores, que eram os únicos responsáveis até então pela tradução dos problemas para a linguagem da máquina e trabalhavam em binário ou usando Assemblers, linguagens que utilizavam abreviações como PRT para comandos de impressão, RD para leitura, ADD para soma etc. – essas abreviações, que aparecem no exemplo ao lado, eram usadas pelo montador (Assembler) para gerar as instruções em binário. Um problema adicional, é que cada máquina tinha seu próprio Assembler. 

O Fortran tinha seu foco mais no problema que o usuário tentava resolver utilizando o computador do que na máquina propriamente dita. Uma linha de código Fortran gerava várias instruções em linguagem de máquina, ao contrário dos Assemblers, em que a relação era quase sempre um para um; por essa razão, Fortran é considerada a primeira linguagem de alto nível. 

O Fortran tinha uma performance quase tão boa quanto a dos Assemblers, em termos de tempos de processamento, o que era muito importante numa época em que esse era um recurso escasso e consequentemente, caro.

Em fevereiro de 1957 o Fortran foi apresentado formalmente, durante a “Western Joint Computer Conference”, em Los Angeles. Para a ocasião, a IBM pediu a seus clientes que apresentassem casos reais, como o cálculo do fluxo de ar para o projeto de asas de aviões, e promoveu um benchmarking, apresentando esses problemas a programadores Assembler e Fortran. 

Os resultados foram impressionantes: em média, os programas em Fortran foram construídos cinco vezes mais rapidamente que aquelas em Assembler, sem perda significativa de performance em termos de tempo de processamento.

Ao encerrar-se o evento, os profissionais da área sabiam que uma nova era se iniciava – e essa era ainda não terminou: até hoje o Fortran é usado em aplicações de natureza científica. 

Sua versão mais recente  é o Fortran 2018.

sábado, 5 de fevereiro de 2011

FUEL PUMPS: PARECE QUE CERTAS COISAS SEMPRE EXISTIRAM...

Frequentemente temos a sensação de que determinadas coisas sempre existiram; elas estão tão presentes em nossa vida cotidiana que nos esquecemos de que alguém desenvolveu tecnologia que veio a tornar essas coisas fontes de comodidade para nossa vida diária.
Na segunda metade do século XIX, o principal derivado do petróleo era o querosene, que era utilizado principalmente como combustível para iluminação, aquecimento e cozinha. A gasolina era outro derivado do petróleo, utilizado para os mesmos fins, mas, também e principalmente, para limpeza em ambientes fabris.
Quando uma pessoa desejava comprar querosene ou gasolina, ia a um armazém, levando uma lata ou balde. Ali,  o comerciante retirava o produto de um barril e o passava para o recipiente trazido pelo comprador; era um trabalho pesado, sujo e perigoso; com frequência parte do material era desperdiçado.
Um empreendedor americano, Sylvanus Freelove  Bowser,  desenvolveu pesquisas tentando resolver esse problema, tendo em 1885 terminado a construção de uma bomba, que vendeu a Jake Gumper , um comerciante de Fort Wayne,  Indiana. Nascia a bomba de gasolina, antes mesmo de que nascesse o automóvel.  Rapidamente outros comerciantes procurarem Bowser, que em 1887 patenteou seu invento e criou a S.F. Bowser Company; modelos mais aperfeiçoados começaram a ser vendidas às primeiras oficinas de automóveis em 1893.   
Até esse momento, essas oficinas vendiam gasolina passando-a de um barril de aço para um latão com capacidade para cinco galões (cerca de 20 litros). A seguir, a gasolina era passada do latão para o tanque dos automóveis com o auxilio de um funil, que tinha um filtro de tecido para evitar que impurezas fossem para o tanque do carro – aqui também um trabalho pesado, sujo, perigoso, gerador de desperdícios.
Em 1905, Bowser chegou à bomba que começou a se parecer com as atuais: um tanque metálico instalado em um gabinete de madeira, com  uma bomba manual que permitia fixar a quantidade de combustível a ser fornecida e outra  novidade: uma mangueira que poderia ser levada à boca do tanque do veículo.  Bowser chamou esse dispositivo  “Bowser Self-Measuring Gasoline Storage Pump”. O pioneirismo de Bowser com relação à mangueira é contestado por alguns autores, que afirmam ter John J. Tokheim, de Cedar Rapids, Iowa, adaptado uma mangueira a um tipo rudimentar de bomba em 1903. 
O fato é que a bomba de Bowser fez um sucesso tão grande (a indústria de automóveis também vivia um boom na época), que a palavra “bowser” acabou se tornando um sinônimo de bomba de gasolina, ainda sendo  usada nesse sentido em alguns países, especialemte na Austrália e Nova Zelândia. Em muitos lugares são chamados bowsers caminhões que abastecem aviões nos aeroportos  e na Inglaterra recebem  esse nome veículos ou recipientes móveis que carregam qualquer tipo de líquido entregue a granel ao usuário final, como por exemplo caminhões tanque que distribuem água.
Bowser morreu em 1938. Mais tarde, o controle de sua empresa, que fabricava outros produtos, como sistemas para purificação de óleo, foi adquirido pela Keene Corporation, que acabou quebrando em 1993, principalmente por ter sofrido um grande número de ações judiciais relativas à utilização de asbestos, um material cancerígeno que era utilizado em seus produtos.