Brasil ingressa no Observatório Europeu do Sul

Agência FAPESP – O Brasil assinou um acordo formal de adesão para se tornar membro de pleno direito do Observatório Europeu do Sul (ESO). O país será o décimo quinto Estado Membro do ESO e o primeiro fora da Europa.

O acordo foi assinado no dia 29 de dezembro, em Brasília, pelo diretor geral do ESO, Tim de Zeeuw, e pelo então ministro da Ciência e Tecnologia, Sergio Rezende.

O convênio permite a participação do Brasil na construção do futuro superobservatório, o European Extremely Large Telescope (E-ELT), que terá 42 metros de abertura e está previsto para ser inaugurado em um prazo de dez anos, no Chile. A entrada do Brasil no consórcio custará cerca de 250 milhões de euros em 11 anos.

O Observatório Europeu do Sul tem uma longa história de envolvimento bem sucedido com a América do Sul, desde quando o Chile foi escolhido para ser sede de seus observatórios, em 1963. No entanto, até agora nenhum país fora da Europa tinha aderido ao ESO como Estado Membro.

Os outros países associados são: Áustria, Alemanha, Bélgica, Dinamarca, Espanha, Finlândia, França, Itália, Holanda, Portugal, Reino Unido, República Checa, Suécia e Suíça.

“O fato de o Brasil se tornar membro do ESO dará à vibrante comunidade astronômica brasileira total acesso ao observatório mais produtivo do mundo e abrirá novas oportunidades à indústria brasileira de alta tecnologia, uma vez que poderá contribuir para o projeto do E-ELT”, dise De Zeeuw.

A fase de concepção do E-ELT foi concluída recentemente, tendo-se submetida à revisão em que todos os aspectos desse enorme projeto foram analisados detalhadamente por um painel internacional de especialistas independentes.

O painel considerou que o projecto E-ELT está tecnicamente preparado para entrar na fase de construção. A decisão final de construção do E-ELT está prevista para 2011 e, quando as operações começarem, na próxima década, astrônomos europeus, brasileiros e chilenos terão acesso ao gigantesco telescópio.

“Os astrônomos no Brasil se beneficiarão da colaboração com colegas europeus e, naturalmente, do tempo de observação de que disporão nos observatórios de vanguarda do ESO, em La Silla e no Paranal, assim como no ALMA, o qual o ESO está construindo atualmente com os parceiros internacionais”, disse Laurent Vigroux, presidente do conselho do ESO.

Mais informações: www.eso.org/public/news/eso1050.

Leia artigos na revista Pesquisa FAPESP com opiniões de astrônomos brasileiros sobre o ingresso do Brasil no consórcio do ESO: www.revistapesquisa.fapesp.br/?art=6468&bd=2&pg=1&lg=

Fonte Original: Agência Fapesp

Da sala de aula para o espaço

Revista Pesquisa FAPESP – Um grupo de professores e 108 estudantes do quinto ano da Escola Municipal Tancredo Neves, de Ubatuba, litoral norte paulista, em conjunto com empresários e pesquisadores voluntários, estão construindo um satélite artificial que deve ser lançado nos Estados Unidos e entrar em órbita ainda este ano.

A iniciativa partiu do professor de matemática Candido Osvaldo de Moura. Em fevereiro de 2010, ele leu em uma revista de divulgação científica que uma empresa dos Estados Unidos, a Interorbital, vendia kits de satélites chamados TubeSats, que permaneciam em órbita a 300 quilômetros de altitude durante três meses. Ousadamente, Moura pensou em construir e lançar um desses. Os alunos aprovaram seu plano, mesmo sabendo que teriam de enfrentar muitas dificuldades, que Moura está superando, uma a uma.

Para começar, não tinham como pagar os U$ 8 mil do kit do satélite. Moura, porém, conseguiu o patrocínio de empresas locais que cobriram as despesas. Depois, ele descobriu que somente por meio de uma fundação seria possível enviar o dinheiro à empresa nos Estados Unidos. Conversou com os dirigentes da escola, com os políticos da cidade e conseguiu transformar a Associação de Pais e Mestres em uma fundação. O professor de matemática teve de batalhar também uma licença do Instituto Nacional de Pesquisas Espaciais (Inpe), órgão federal sediado em São José dos Campos, interior paulista, que constrói e gerencia satélites no Brasil.

Aos poucos, Moura conseguiu o apoio de outros professores, que mobilizaram os estudantes de todas as classes e promoveram um concurso para selecionar a mensagem que o satélite deve emitir nos três meses em que estiver em órbita.

A equipe coordenada por ele e por Emerson Yaegashi, professor de inglês, trabalha agora nos dispositivos eletrônicos do interior do satélite. Receberam os componentes e as instruções para montar os protótipos e a versão definitiva. Vendo que precisava de ajuda, Souza procurou uma empresa de robótica e desenvolvimento de software sediada na cidade de São Paulo, a Globalcode, e teve uma grata surpresa: os diretores, Vinicius Senger e Yara Mascarenhas Hornos Senger, moravam em Ubatuba.

“Vencidas as etapas financeira e burocrática, agora o grande desafio é construir o recheio do satélite”, diz Yara. Depois de coordenarem o treinamento sobre eletrônica básica para os professores, Vinicius e Yara começaram voluntariamente a ajudar docentes e alunos a desenhar, corroer e soldar as placas dos protótipos do satélite.

“Criamos a placa Ubatubino, que pode ser reutilizada para outras funções e as próprias crianças podem fabricar, usando programas de fonte aberta e material simples, como um ferro de passar roupa”, diz Vinicius. “As crianças estão fazendo pequenos computadores, com capacidade similar aos que os astronautas usaram na década de 1960 quando pousaram na Lua. É totalmente viável construirmos satélites educacionais inteiramente no Brasil, sem depender de importações, e promover, por exemplo, competições entre escolas.”

A edição de janeiro da revista SatMagazine , especializada em satélites, citou o trabalho realizado em Ubatuba: “O TubeSats já é parte do currículo de universidades e escolas ao redor do mundo. Talvez o mais ambicioso projeto esteja no Brasil em um programa coordenado por Candido Osvaldo e Emerson Yaegashi, no qual 120 estudantes criaram 22 maquetes do TubeSats em sala de aula. Os alunos que construírem as melhores maquetes ganharão a honra de montar o TubeSat orbital real”.

Sérgio Mascarenhas, coordenador de projetos do Instituto de Estudos Avançados (IEA) da Universidade de São Paulo (USP) em São Carlos, tem acompanhado com entusiasmo a construção do satélite de Ubatuba: “O apoio à iniciativa do professor é a saída para melhorarmos a educação no Brasil”, comenta. Em férias, o professor Candido Osvaldo de Moura não foi encontrado para comentar o projeto que ele coordena.

Imagens

O vídeo “Mão na massa: aprendendo a soldar, criar placas, corroer e fabricar placas no seu escritório” contém etapas do processo de produção das placas pelos professores e pelas crianças – como a impressão, usando ferro de passar roupa.

Fonte Original: Agência Fapesp

Superprevisão do tempo? Pergunte ao Tupã

Por Elton Alisson, de Cachoeira Paulista (SP)

Agência FAPESP – O Instituto Nacional de Pesquisas Espaciais (Inpe) inaugurou terça-feira (28/12), no Centro de Previsão do Tempo e Estudos Climáticos (CPTEC), em Cachoeira Paulista (SP), o supercomputador Tupã.

Com o nome do deus do trovão na mitologia tupi-guarani, o sistema computacional é o terceiro maior do mundo em previsão operacional de tempo e clima sazonal e o oitavo em previsão de mudanças climáticas.

Não apenas isso. De acordo com a mais recente relação do Top 500 da Supercomputação, que lista os sistemas mais rápidos do mundo, divulgada em novembro, o Tupã ocupa a 29ª posição. Essa é a mais alta colocação já alcançada por uma máquina instalada no Brasil.

Ao custo de R$ 50 milhões, dos quais R$ 15 milhões foram financiados pela FAPESP e R$ 35 milhões pelo Ministério da Ciência e Tecnologia (MCT), por meio da Financiadora de Estudos e Projetos (Finep), o sistema foi fabricado pela Cray, em Wisconsin, nos Estados Unidos.

O Tupã é capaz de realizar 205 trilhões de operações de cálculos por segundo e processar em 1 minuto um conjunto de dados que um computador convencional demoraria mais de uma semana.

Com vida útil de seis anos, o equipamento permitirá ao Inpe gerar previsões de tempo mais confiáveis, com maior prazo de antecedência e de melhor qualidade, ampliando o nível de detalhamento para 5 quilômetros na América do Sul e 20 quilômetros para todo o globo.

A máquina também possibilitará melhorar as previsões ambientais e da qualidade do ar, gerando prognósticos de maior resolução – de 15 quilômetros – com até seis dias de antecedência, e prever com antecedência de pelo menos dois dias eventos climáticos extremos, como as chuvas intensas que abateram as cidades de Angra dos Reis (RJ) e São Luiz do Paraitinga (SP) no início de 2010.

“Com o novo computador, conseguiremos rodar modelos meteorológicos mais sofisticados, que possibilitarão melhorar o nível de detalhamento das previsões climáticas no país”, disse Marcelo Enrique Seluchi, chefe de supercomputação do Inpe e coodernador substituto do CPTEC, à Agência FAPESP.

Segundo o pesquisador, no início de janeiro de 2011 começarão a ser rodados no supercomputador, em nível de teste, os primeiros modelos meteorológicos para previsão de tempo e de mudanças climáticas. E até o fim de 2011 será possível ter os primeiros resultados sobre os impactos das mudanças climáticas no Brasil com dados que não são levados em conta nos modelos internacionais.

Modelo climático brasileiro

De acordo com Gilberto Câmara, diretor do Inpe, o supercomputador foi o primeiro equipamento comprado pela instituição de pesquisa que dispensou a necessidade de financiamento estrangeiro.

“Todos os outros três supercomputadores do Inpe contaram com financiamento estrangeiro, que acaba custando mais caro para o Brasil. O financiamento da FAPESP e do MCT nos permitiu realizar esse investimento sem termos que contar com recursos estrangeiros”, afirmou.

O supercomputador será utilizado, além do Inpe, por outros grupos de pesquisa, instituições e universidades integrantes do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, da Rede Brasileira de Pesquisa sobre Mudanças Climática (Rede Clima) e do Instituto Nacional de Ciência e Tecnologia (INCT) para Mudanças Climáticas.

Em seu discurso na inauguração, Carlos Henrique de Brito Cruz, diretor científico da FAPESP, destacou a importância do supercomputador para o avanço das pesquisas realizadas no âmbito do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, que foi concebido para durar pelo menos dez anos, e para a criação do Modelo Brasileiro do Sistema Climático Global (MBSCG).

O modelo incorporará os elementos do sistema terrestre (atmosfera, oceanos, criosfera, vegetação e ciclos biogeoquímicos, entre outros), suas interações e de que modo está sendo perturbado por ações antropogênicas, como, por exemplo, emissões de gases de efeito estudo, mudanças na vegetação e urbanização.

A construção do novo modelo envolve um grande número de pesquisadores do Brasil e do exterior, provenientes de diversas instituições. E se constitui em um projeto interdisciplinar de desenvolvimento de modelagem climática sem precedentes em países em desenvolvimento.

“Não tínhamos, no Brasil, a capacidade de criar um modelo climático global do ponto de vista brasileiro. Hoje, a FAPESP está financiando um grande programa de pesquisa para o desenvolvimento de um modelo climático brasileiro”, disse Brito Cruz.

Na avaliação dele, o supercomputador representará um avanço na pesquisa brasileira em previsão de tempo e mudanças climáticas globais, que são duas questões estratégicas para o país.

Impossibilitado de participar do evento, o ministro da Ciência e Tecnologia, Sergio Rezende, gravou um vídeo, exibido na solenidade de inauguração do supercomputador, em que declarou o orgulho da instalação no Brasil do maior supercomputador do hemisfério Sul.

“Com esse supercomputador, o Brasil dá mais um passo para cumprir as metas de monitoramento do clima assumidas internacionalmente e entra no seleto grupo de países capazes de gerar cenários climáticos futuros”, disse.

Fonte Original: Agência Fapesp

Marco histórico

Por Fábio de Castro, de Bragança Paulista (SP)

Agência FAPESP – A importância do acordo conseguido no fim de outubro na 10ª Conferência das Partes da Convenção sobre Diversidade Biológica (COP10) – que teve participação decisiva de negociadores brasileiros – foi enfatizada pelo secretário-executivo da Convenção da Biodiversidade, Ahmed Djoghlaf, durante a conferência internacional Getting Post 2010 – Biodiversity Targets Right, em Bragança Paulista (SP).

Realizada pelo Programa Biota-FAPESP, pela Academia Brasileira de Ciências (ABC) e pela Sociedade Brasileira para o Progresso da Ciência (SBPC), a reunião, que termina no dia 15 de dezembro, marca o encerramento do Ano Internacional da Biodiversidade.

“Acredito que o Protocolo de Nagoya é um dos mais importantes acordos na história da humanidade. Ele terá um impacto sem precedentes no meio ambiente, porque está focado em incentivar quem protege a biodiversidade”, disse à Agência FAPESP.

“Aqueles que detêm a tecnologia para utilizar os recursos naturais poderão desenvolver seus produtos, mas vão compartilhar os benefícios com os países que detêm a biodiversidade que, por sua vez, deixarão de ser apenas provedores de recursos genéticos para se tornar também beneficiários desses avanços”, completou.

De acordo com Djoghlaf, a expectativa é que o acordo construído em Nagoya seja assinado no dia 2 de fevereiro, na sede das Nações Unidas, em Nova York. “Esperamos assinar o protocolo sem demora, para assegurar o início do processo de ratificação. Queremos acelerar esse processo para que o acordo entre em vigor o quanto antes”, disse.

Segundo ele, o Protocolo de Nagoya deve ser ratificado por 50 países para que entre em vigor. O objetivo é que esse processo seja finalizado até a Rio+20, evento que marcará, em 2012, os 20 anos da Conferência das Nações Unidas sobre o Meio Ambiente e o Desenvolvimento (Rio-92), reunião que consagrou mundialmente o conceito de desenvolvimento sustentável.

“Se conseguirmos viabilizar o protocolo até lá, terá sido uma grande realização no vigésimo aniversário da Rio-92. O Protocolo de Nagoya ainda não chamou a atenção que merece na sociedade, mas é um acordo importantíssimo de responsabilização de danos. Na prática, é a implantação efetiva do Princípio 13 da Declaração do Rio sobre Meio Ambiente e Desenvolvimento”, disse Djoghlaf.

O Princípio 13 da Declaração do Rio estabelece que os Estados “devem desenvolver legislação nacional relativa à responsabilidade de indenização das vítimas de poluição e outros danos ambientais” e cooperar para “o desenvolvimento de normas de direito internacional ambiental relativas à responsabilidade e indenização por efeitos adversos de danos ambientais causados, em áreas fora de sua jurisdição, por atividades dentro de sua jurisdição ou sob seu controle”.

Djoghlaf também destacou a participação dos brasileiros nas diversas etapas do processo que culminou com a aprovação do acordo da COP10.

“Agradeço ao Brasil por suas iniciativas, sem as quais não teria sido possível a adoção do Protocolo de Nagoya. O país foi um dos principais líderes no processo e conseguiu convencer as partes a discutir e chegar a um acordo, evidenciando que não se tratava do fim, mas sim do início de um processo”, afirmou.

Segundo Djoghlaf, a própria gravidade da situação da biodiversidade mundial contribuiu para que se chegasse a um acordo no Japão. “Inúmeros estudos, incluindo várias pesquisas brasileiras, demonstram que a perda de biodiversidade continua se agravando e as mudanças climáticas levarão a uma situação ainda mais dramática. O Brasil, onde nasceu a Convenção sobre Diversidade Biológica em 1992 e onde será realizada a reunião de 2012, é um país que poderá nos ajudar muito a promover uma mudança significativa nesse cenário”, destacou.

Na COP10, de acordo com Djoghlaf, verificou-se que nenhum país conseguiu atingir as metas estabelecidas em 2002 na conferência Rio+10, em Johanesburgo (África do Sul). A preocupação agora é definir como efetivamente cumprir as metas para 2020, definidas pelo novo protocolo.

“O monitoramento será muito importante. Não vamos esperar até 2020 para concluir que fracassamos, como aconteceu em relação à implantação das metas de Johanesburgo. Haverá uma avaliação em 2015 – que coincidirá com a avaliação das Metas do Milênio. Esperamos que em 2015 tenhamos uma reunião com os chefes de estado dos países da Convenção, para redefinir o que será preciso para que as metas sejam atingidas. Durante todo esse período, haverá um processo de avaliação de relatórios nacionais”, disse.

Fonte Original: Agência Fapesp

Exploração virtual do espaço

Por Fábio de Castro

Agência FAPESP – Um exemplo de como a ciência da computação pode fornecer ferramentas para o compartilhamento e visualização de dados científicos é o WorldWide Telescope (WWT), serviço desenvolvido pela Microsoft Research que permite explorar virtualmente o Sistema Solar.

A gerente senior do Programa de Pesquisa da MSR, Yan Xu, apresentou o WWT durante o Workshop de Ciência Ambiental, promovido pelo Instituto Virtual de Pesquisas FAPESP-Microsoft Research na sede da FAPESP, em novembro.

O WWT é uma ferramenta que, uma vez instalada, permite que o computador pessoal funcione como um telescópio virtual, reunindo imagens obtidas por observatórios e telescópios na Terra e no espaço.

“A astronomia lida com instrumentos que captam imensas quantidades de dados – da ordem de petabytes [quatrilhões de bytes]. Quando se obtém dados nessa taxa é preciso pensar em como utilizá-los. Trata-se de um problema devido à imensa quantidade de dados de fontes heterogêneas. Os observatórios virtuais foram concebidos como uma solução para essa questão”, afirmou.

Com os observatórios virtuais, segundo Yan, é possível transmitir e distribuir o acesso a esses dados, permitindo o desenvolvimento de padrões de interoperacionalidade e a utilização de ferramentas amigáveis para exploração das informações.

“O WWT acaba fazendo muito mais do que telescópios individuais, porque agrega os dados obtidos por eles em uma interface amigável. Estamos traduzindo o conteúdo para diversas línguas e colocando à disposição dos usuários informações segregadas, com visualização das imagens e acesso detalhado aos dados que estão por trás delas”, explicou.

A cientista conta que o WWT já possibilitou novas descobertas, ao disponibilizar o acesso a dados de objetos astronômicos que haviam sido registrados nas imagens, mas que não haviam sido descritos.

“O sistema permite também produzir animações e visualizar a conformação do céu em datas passadas. A partir dos dados em alta resolução, pudemos produzir também animações com imagens da Terra que mostravam, por exemplo, a dinâmica da vegetação em determinada região, ou os dados sobre áreas de inundação na Flórida em um determinado período, a partir dos relatórios enviados por moradores”, disse.

A experiência, afirma, poderia ser reproduzida para outros tipos de informação, como aquelas relacionadas à ciência ambiental, que também lida com uma vasta quantidade de dados heterogêneos de diferentes fontes.

“Sabemos que não será fácil reproduzir o sucesso do WWT, mas esse será o desafio. Além dos usos científicos, vemos nesse tipo de ferramenta uma função importante na divulgação da ciência, porque torna os dados acessíveis para as pessoas comuns e para fins pedagógicos. Isso terá um impacto importante, no caso do meio ambiente, para a conscientização dos gestores e para influenciar as políticas públicas”, disse.

WorldWide Telescope: www.worldwidetelescope.org

Fonte Original: Agência Fapesp

Sujeito a chuvas e trovoadas

Por Elton Alisson

Agência FAPESP – A região Sudeste do Brasil deverá registrar no verão de 2011 um número de tempestades severas – formadas por altas descargas atmosféricas (raios), ventos fortes e chuvas intensas – maior do que a média dos últimos três anos, alerta o coordenador do Grupo de Eletricidade Atmosférica (Elat) do Instituto Nacional de Pesquisas Espaciais (Inpe), Osmar Pinto Júnior.

A previsão é baseada em um algoritmo utilizado pelos pesquisadores do Inpe que, na última década, teve uma média de acerto de 80%, prevendo corretamente as condições climáticas em oito dos dez anos analisados. Mas, a exemplo de outras metodologias empregadas para fazer previsões de curto prazo de tempestades severas, o sistema ainda apresenta uma margem de erro relativamente alta, ressalva o pesquisador.

“As abordagens utilizadas até hoje para fazer previsões de tempestades severas, como dados de satélite, de rede e modelos meteorológicos, falharam. Como no Sudeste e, talvez, também em outras regiões do país esses eventos severos estão ficando cada vez mais frequentes, é preciso testar outras abordagens para prevê-los”, disse Pinto Júnior à Agência FAPESP.

Por isso, no Inpe já estão sendo testadas outras ferramentas, como modelos meteorológicos de alta resolução espacial, em escalas de 1 a 2 quilômetros, para tentar medir a concentração de gelo em nuvens, que é o fator determinante para a formação de raios. Outro exemplo são sensores de descargas intranuvem, que passam de uma nuvem a outra.

Reconhecido como um dos melhores indicadores para prever a severidade de uma tempestade, os dados sobre esse tipo de raio só eram captados no Brasil na região do Vale do Paraíba, no leste do Estado de São Paulo.

Mas um projeto de pesquisa realizado pelo Elat, em parceria com a empresa distribuidora de energia elétrica EDP Bandeirante, possibilitará que essas informações sejam captadas ainda no Espírito Santo, onde a empresa também atua.

Previsto para ser realizado ao longo de três anos, ao custo de R$ 2 milhões, o projeto, denominado ClimaGrid, visa a desenvolver um sistema computacional que integre diversas informações meteorológicas para monitorar tempestades severas.

Segundo Pinto Júnior, o fenômeno climático é responsável por um número significativo de falhas no sistema elétrico brasileiro e causa um prejuízo anual de mais de R$ 600 milhões às operadoras de energia no país com reparos nas redes de transmissão.

“As redes de transmissão no Brasil estão expostas diretamente aos fenômenos climáticos porque 99% são aéreas. Se conseguirmos prever eventos extremos, como tempestades severas, será possível às operadoras de energia fazer um planejamento preventivo da manutenção de suas redes”, disse o pesquisador no lançamento do projeto, que ocorreu em 3 de dezembro, em São Paulo.

Ao monitorar diariamente a probabilidade de descargas nuvem-solo (que descem ao solo) no território abrangido por suas redes de transmissão, as distribuidoras de energia poderiam planejar e tomar decisões melhores sobre o posicionamento de suas equipes, de forma que pudessem reparar rapidamente eventuais falhas no sistema.

Resultados de Temático

A primeira fase do projeto foi iniciada em novembro com a instalação de uma versão inicial do sistema computacional no centro de operações da empresa, situado em Mogi das Cruzes, na região metropolitana de São Paulo. Na segunda, que está prevista para ser iniciada em 2011, os pesquisadores pretendem analisar os impactos das mudanças climáticas sobre todo o setor elétrico brasileiro.

“Os resultados do projeto também podem ter repercussões em outros setores que sofrem com impactos de fenômenos climáticos severos, como o de aviação e a defesa civil”, disse Pinto Júnior.

O cientista coordena o Projeto Temático “Impacto das mudanças climáticas sobre a incidência de descargas atmosféricas no Brasil”, apoiado pela FAPESP.

“Esse Temático, com previsão de término para o fim de 2013, resultará em muitos resultados aplicados. Um deles é o Clima Grid”, disse.

Fonte Original: Agência Fapesp

Nuvens aumentarão o aquecimento

Agência FAPESP – Uma das grandes incertezas a respeito das mudanças climáticas globais está nas nuvens. Como elas reagirão ao aquecimento do planeta – e com que consequências – é algo que tem intrigado os cientistas.

De um lado, estudos apontam que o aquecimento irá alterar as nuvens de forma a contrabalançar os efeitos dos gases estufa. De outro, pesquisas indicam que as mudanças nas nuvens aumentarão o aquecimento.

Um novo trabalho, publicado nesta sexta-feira na revista Science, reforça o lado negativo. Segundo o estudo, em escala global as nuvens, atualmente, influenciam o clima de tal modo que resulta na diminuição da temperatura na superfície do planeta. Mas elas perderão parte dessa capacidade de resfriamento. Justamente por culpa dos gases estufa.

Andrew Dessler, da Texas A&M University, nos Estados Unidos, analisou dados colhidos nos últimos dez anos por satélites dos padrões climáticos recorrentes El Niño (que causa aquecimento) e La Niña (que causa resfriamento).

As consequências dos fenômenos – mais calor ou mais frio – foram usadas para simular tendências na temperatura. Em um mundo mais quente, as nuvens mais elevadas – que tendem a segurar o calor proveniente da luz solar, que sem elas escaparia para o espaço – podem se tornar mais espessas ou se expandir em maiores áreas de cobertura. Essa resposta positiva das nuvens levaria a um aquecimento ainda maior.

Ou, então, os gases estufa poderiam engrossar e expandir as nuvens mais baixas, refletindo mais energia solar ao espaço e esfriando o planeta. Essa seria o que os cientistas chamam de resposta negativa.

A princípio, os cientistas poderiam estimar qual resposta seria prevalente em um cenário de aquecimento ao comparar a temperatura superficial com a quantidade de energia devolvida ao espaço. O problema é que registros disponíveis de tais perdas de radiação são insuficientes para revelar o que ocorreu no último século.

Dressler usou apenas dez anos de dados de satélite, que são considerados os melhores dados existentes. E removeu dos resultados as respostas devidas a outros fatores, como alterações no vapor de água.

O resultado geral do estudo apontou uma resposta positiva, isto é, de aquecimento. Ao avaliar os oito principais modelos climáticos globais, o cientista também encontrou uma resposta positiva.

Segundo Qiang Fu, da Universidade de Washington, o estudo é importante por confirmar modelos climáticos de aquecimento. “Os resultados não mostram qualquer evidência de uma grande resposta negativa das nuvens”, disse.

Mas Dressler reforça que os resultados podem ser aplicados para uma estimativa de curto prazo e que novos estudos são necessários para previsões de maior extensão.

O artigo A Determination of the Cloud Feedback from Climate Variations over the Past Decade (10.1126/science.1192546), de Andrew Dessler, pode ser lido por assinantes da Science em www.sciencemag.org.

Fonte Original: Agência Fapesp

Nebulosas precoces

Por Fábio de Castro

Agência FAPESP – Determinar a idade das estrelas que se encontram no centro das nebulosas planetárias é um problema complexo para os astrônomos. Até agora não existe um método que possa ser aplicado de forma generalizada para fazer esses cálculos.

Depois de desenvolver e aplicar três diferentes métodos para calcular a idade dessas estrelas, um grupo de cientistas da Universidade de São Paulo (USP) descobriu que elas podem ser mais jovens do que se imaginava. Acreditava-se que a média de idade seria de 5 bilhões de anos, mas, na amostra estudada, a maioria das estrelas é mais nova.

Os primeiros resultados do estudo foram publicados no início de 2010 na revista Astronomy and Astrophysics e um novo artigo será lançado no início de 2011. A pesquisa é um dos resultados do Projeto Temático “Nebulosas fotoionizadas, estrelas e evolução química de galáxias”, coordenado por Walter Maciel, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, e financiado pela FAPESP.

De acordo com Maciel, é importante compreender a dinâmica das nebulosas planetárias, já que elas desempenham um papel crucial na evolução das galáxias.

“Determinar a idade dessas estrelas é fundamental para entender a dinâmica. Nesse estudo, focamos especificamente em estrelas parecidas com o Sol, que deverá ter o mesmo destino delas dentro de alguns bilhões de anos”, disse à Agência FAPESP.

Quando uma estrela semelhante ao Sol consome todo o seu combustível, depois de funcionar por bilhões de anos como um imenso reator nuclear, seu interior entra em colapso. Sua parte externa, então, começa a ser ejetada, formando a chamada nebulosa planetária.

“Essa nebulosa vai se afastando da estrela, até se dispersar completamente no meio interestelar. Depois disso, a estrela se transforma em anã branca – uma estrela quente mas pouco brilhante por não fazer reações nucleares. O Sol também passará por esse processo dentro de 4 ou 5 bilhões de anos”, disse.

A nebulosa planetária dura pouco, em comparação aos bilhões de anos de vida da estrela: cerca de 20 mil anos. Mas, por liberar metais pesados e muitos outros elementos químicos no espaço interestelar, elas são consideradas objetos importantes para a evolução química das galáxias, segundo o professor.

“Essas estrelas variam muito de tamanho: de alguns décimos da massa do Sol – algo um pouco maior que Júpiter – até oito vezes a massa solar. Em nosso estudo, tratamos apenas de estrelas a partir de 80% da massa do Sol, pois fora dessa faixa a evolução estelar é muito diferente. Quanto maior a massa, menor o tempo de vida da estrela”, disse.

Maciel explicou que, ao observar a nebulosa, não se pode detectar a idade da estrela em seu interior. Não há um método aplicável a todos os casos e a maioria dos métodos disponíveis é eficiente apenas para estrelas muito jovens. No caso de estrelas mais velhas, com idades próximas à do Sol – ou seja, de 4 a 5 bilhões de anos –, os resultados são muito incertos.

“Desenvolvemos três métodos para avaliar a idade dessas estrelas. Do conjunto de cerca de 2 mil nebulosas planetárias existentes na galáxia, selecionamos uma amostra de 300 sobre as quais temos mais dados. Começamos então a aplicar a elas os três métodos, calculamos as idades e comparamos os resultados”, contou.

Um quarto método está sendo desenvolvido, com base nos dados cinemáticos das estrelas de nebulosas planetárias – isto é, nas informações que relacionam idade e movimento estelar. “Faremos a aplicação desse método em uma amostra maior, de 700 estrelas”, disse.

O ideal, segundo Maciel, seria calcular a idade exata de cada estrela individualmente, mas as divergências entre os métodos dificultam a tarefa. “Estamos partindo primeiro de uma perspectiva menos ambiciosa, que consiste em estudar a distribuição dessas idades – ou seja, avaliar qual a porcentagem de estrelas com 1 bilhão de anos, com até 5 bilhões de anos, acima dos 5 bilhões e assim por diante”, explicou.

As estrelas estudadas se encontram no disco galáctico, a região da galáxia na qual se encontra o Sistema Solar. “Algumas das estrelas, embora já estejam em nebulosas, são até mais jovens que o Sol, mas evoluíram mais rapidamente, na maior parte dos casos por terem massas maiores. O estudo indica que a maior parte das estrelas da nossa amostra é mais jovem que o Sol, isto é, tem idades abaixo de 5 bilhões de anos”, disse.

Outras linhas de pesquisa

Além da vertente voltada para o cálculo de idades de estrelas de nebulosas planetárias, o Projeto Temático tem vários outros eixos de pesquisa e todos geraram diversas publicações. Uma das vertentes, por exemplo, avalia as diferenças entre as nebulosas planetárias em relação à sua posição na galáxia.

“A nossa galáxia é composta por um bojo, em seu centro, pelo disco em volta dele e por um halo, mais disperso, em volta do disco. Mas não é fácil saber quais nebulosas estão situadas no próprio bojo, ou no disco mas na direção do bojo. E elas têm propriedades diferentes dependendo da localização. Procuramos entender essas diferenças a partir da análise de abundância de elementos químicos”, disse.

Outro estudo relacionado ao Temático trata das propriedades dos ventos das estrelas de nebulosas planetárias, a partir da utilização de modelos sofisticados.

“O vento do Sol é bastante diluído e sua emissão representa a perda de uma quantidade muito pequena de massa. Mas outras estrelas perdem, com os ventos, uma massa 10 bilhões de vezes maior. Estudar isso é algo complexo, porque se trata de um gás em situação muito instável. Para fazê-lo, utilizamos um código bastante complexo”, disse.

Há projetos também relacionados, por exemplo, aos aglomerados de estrelas. “Procuramos compreender como esses aglomerados se formam e se dissipam. Nesses estudos, aplicamos ferramentas que permitem definir quando se trata de fato de um aglomerado, ou dos restos de um aglomerado, ou apenas de um grupo de estrelas”, disse Maciel.

O artigo Age distribution of the central stars of galactic disk planetary nebulae (doi: 10.1051/0004-6361/200912499), de Walter Maciel e outros, pode ser lido por assinantes da Astronomy and Astrophysics em www.aanda.org/articles/aa/abs/2010/04/aa12499-09/aa12499-09.html.

Fonte Original: Agência Fapesp

Três vezes mais estrelas no Universo

Agência FAPESP – Estrelas pequenas e com pouco brilho, conhecidas como anãs vermelhas, são muito mais comuns do que se imaginava. Tão comuns que o total de estrelas no Universo pode ser o triplo do que os astrônomos estimavam.

Justamente por ser pequena e de brilho fraco, uma anã vermelha é mais difícil de identificar em observações do espaço. Tanto que os cientistas não conseguiram detectá-las em outras galáxias além da Via Láctea e suas vizinhas. Até agora.

Em artigo publicado nesta quinta-feira (2/12) na revista Nature, Pieter van Dokkum (Universidade Yale) e Charlie Conroy (Universidade Princeton) descrevem a identificação de sinais de anãs vermelhas em oito galáxias elípticas, massivas e relativamente próximas, localizadas entre 50 milhões e 300 milhões de anos-luz da Terra.

As observações foram feitas com instrumentos instalados no Observatório Keck, no Havaí, e permitiram concluir que esse tipo de estrela, que tem massa entre 10% e 20% a do Sol, são bastante frequentes. É a primeira vez que se consegue estimar essa população estelar no Universo.

“Ninguém sabia quantas anãs vermelhas poderiam existir. Diferentes modelos teóricos apontaram uma ampla gama de possibilidades. Agora, conseguimos responder uma dúvida antiga sobre a abundância dessas estrelas”, disse van Dokkum.

Os pesquisadores descobriram também que há cerca de 20 vezes mais anãs vermelhas em galáxias elípticas do que na Via Láctea (espiral). “É comum pensar que as outras galáxias são como a nossa. Mas nosso estudo reforça que há outras condições possíveis em outras galáxias. Essa descoberta poderá ter um grande impacto em nossa compreensão da formação e evolução das galáxias”, disse Conroy.

Uma possível consequência, segundo Conroy, é que as galáxias podem conter menos matéria escura – a substância misteriosa que, apesar de ter massa, não pode ser observada diretamente – do que medições anteriores indicaram. A diferença é que as anãs vermelhas, abundantes, podem contribuir com mais massa do que se estimava até então.

Além de ampliar o número de estrelas no Universo, a descoberta também amplia o número de planetas em órbita dessas estrelas. O que, por sua vez, segundo van Dokkum, eleva o número de planetas que pode conter algum tipo de vida. Um exemplo é o Gliese 581, descoberto recentemente e não por coincidência em órbita de uma anã vermelha.

O artigo A substantial population of low-mass stars in luminous elliptical galaxies (doi: 10.1038/nature09578), de Pieter van Dokkum e Charlie Conroy, pode ser lido por assinantes da Nature em www.nature.com
 

Fonte Original: Agência Fapesp

Vida onde não se imaginava

Agência FAPESP – As chances de existir vida em outros planetas acaba de aumentar. Pelo menos de acordo com o anúncio feito na tarde desta quinta-feira (2/12) pela Nasa, a agência espacial norte-americana, que destaca a descoberta de um organismo que cresce onde não se imaginava que pudesse existir vida.

O anúncio, transmitido para todo o mundo pela internet, refere-se ao estudo feito por Felisa Wolfe-Simon, do Instituto de Astrobiologia da Nasa, e colegas e publicado na nova edição da revista Science.

Os cientistas descobriram uma bactéria (linhagem GFAJ-1 da família Halomonadaceae) capaz de sobreviver e de prosperar em um ambiente cheio de arsênio. O elemento químico, até então, era considerado altamente tóxico a quase todos os seres vivos.

Da baleia à bactéria Escherichia coli, passando pelo homem e todos os mamíferos, os organismos terrestres dependem dos mesmos seis elementos: oxigênio, carbono, hidrogênio, nitrogênio, fósforo e enxofre.

A bactéria que acaba de ser descrita é a primeira exceção. E essa inusitada forma de vida não foi encontrada em outro planeta, como inicialmente deu a entender o aviso feito pela Nasa no início da semana, de que divulgaria “uma descoberta em astrobiologia que impactará a busca por evidência de vida extraterrestre”. A bactéria foi encontrada mesmo no hipersalino e altamente tóxico lago Mono, na Califórnia.

Não é uma vida extraterrestre, mas, segundo a Nasa, a descoberta amplia a busca por formas de vida desconhecidas, tanto na Terra como fora dela. Até agora, a busca tem se voltado a planetas com circunstâncias semelhantes às que se consideravam fundamentais para a existência de vida.

Ambientes venenosos – pelo menos para a maior parte dos habitantes da Terra –, como lotados de arsênio, passam a contar. A bactéria é a mais nova personagem entre os organismos extremófilos, capazes de sobreviver em condições extremas e prejudiciais à maioria das formas de vida terrestres.

Após recolher amostras da bactéria no lago californiano, Felisa e colegas realizaram experimentos em laboratório com o organismo. Verificaram que a GFAJ-1 foi capaz de transformar arsênio em fosfatos e até mesmo dispensar o fósforo. O arsênio substituiu o fósforo até mesmo no DNA da bactéria, que continuou a crescer.

“Conhecíamos microrganismos capazes de respirar arsênio, mas agora encontramos um que faz algo totalmente novo: constrói partes de si mesmo com arsênio. Se algo aqui na Terra pode fazer algo tão inesperado, o que mais a vida pode fazer que ainda não vimos?”, disse Felisa.

“A definição de vida acaba de se expandir. À medida que prosseguimos em nossos esforços para procurar por sinais de vida no Sistema Solar, teremos que pensar mais ampla e diversamente e considerar vidas de que não tínhamos conhecimento”, disse Ed Weiler, administrador da divisão de ciência da Nasa.

O artigo A Bacterium that Can Grow by Using Arsenic Instead of Phosphorus (10.1126/science.1197258), de M.Thomas Gilbert e outros, pode ser lido por assinantes da Science em www.sciencemag.org/cgi/content/abstract/science.1197258.

Fonte Original: Agência Fapesp

Anti-hidrogênio é capturado

Agência FAPESP – Em um experimento feito no Centro Europeu de Pesquisas Nucleares (Cern), um grupo internacional de cientistas conseguiu demonstrar que é possível prender e controlar a liberação de átomos de anti-hidrogênio – equivalentes na antimatéria aos átomos de hidrogênio.

A novidade, descrita nesta quinta-feira (18/11) no site da revista Nature, abre o caminho para a realização de estudos precisos sobre as simetrias fundamentais da natureza.

A antimatéria é composta de antipartículas da mesma maneira que a matéria normal é formada por partículas. A antimatéria foi prevista pela primeira vez em 1931, pelo físico inglês Paul Dirac (1902-1984), como tendo a carga oposta da matéria normal e sendo aniquilada completamente em um flash de energia após interagir com a matéria normal.

Apesar de os astrônomos não encontrarem evidência de aniquilação de antimatéria no espaço, a antimatéria é produzida durante interações de partículas de alta energia e em decaimentos de alguns elementos radioativos.

Os físicos Emilio Segre e Owen Chamberlain, da Universidade da Califórnia em Berkeley, criaram antiprótons em um acelerador de partículas em 1955, confirmando sua existência e ganhando o prêmio Nobel quatro anos depois.

O modelo padrão das partículas físicas supõe a existência de algumas simetrias básicas para o funcionamento das leis da física. De acordo com essas simetrias, o espectro do anti-hidrogênio – o estado de ligação entre um antipróton e um pósitron – deve ser idêntico ao do hidrogênio.

Anti-hidrogênio tem sido produzido em baixas energias no Cern desde 2002, mas até agora não havia sido possível confinar esses átomos neutros, inviabilizando o estudo detalhado de seu espectro.

Os resultados da nova pesquisa deverão dar origem a estudos sobre essa forma de matéria que desapareceu misteriosamente há cerca de 14 bilhões de anos, pouco após a origem do Universo.

O artigo descreve o aprisionamento e a subsequente detecção de 38 átomos de anti-hidrogênio, destacando algumas das inovações tecnológicas que tornaram isso possível. Entre elas estão novas formas de resfriar pósitrons e antiprótons o suficiente para que formem antiátomos em temperaturas de menos de 0,5 kelvin.

Outra novidade do experimento denominado Alpha (Antihydrogen Laser PHysics Apparatus) é uma armadilha capaz de confinar os átomos neutros ao interagir com seus momentos magnéticos – medida da intensidade da fonte magnética.

Segundo os autores do estudo, o objetivo é desenvolver a técnica de modo que o tempo de aprisionamento (atualmente de pelo menos 170 milissegundos) e a fração de átomos presos (de cerca de 0,005%) possam aumentar. A pesquisa contou com participação brasileira, do professor Claudio Lenz Cesar, do Instituto de Física da Universidade Federal do Rio de Janeiro.

O artigo Trapped antihydrogen (doi:10.1038/nature09610), de G. B. Andresen e outros, pode ser lido por assinantes da Nature em www.nature.com.

Fonte Original: Agência Fapesp

Planeta além da galáxia

Agência FAPESP – Um novo planeta acaba de ser descoberto próximo a uma estrela extragaláctica, o que implica que o próprio planeta não tem origem na Via Láctea. A descrição foi feita nesta quinta-feira (18/11) no site da revista Science.

A estrela HIP 13044 está a 2 mil anos-luz da Terra na constelação do Forno. O grupo europeu responsável pela pesquisa identificou o planeta, denominado HIP 13044b, por meio de observações com um espectrógrafo de alta resolução instalado no telescópio MPG/ESO, que fica no Observatório de La Silla, no Chile.

Nos últimos 15 anos, astrônomos detectaram quase 500 planetas em estrelas próximas, mas nenhum fora da Via Láctea. O novo estudo indica que o planeta, apesar de estar na galáxia, foi formado fora dela.

A descoberta questiona a compreensão atual a respeito da formação e da sobrevivência de planetas, uma vez que se trata da primeira vez que um planeta é identificado em órbita de uma estrela muito velha e extremamente pobre em metais.

Até hoje, poucos corpos celestes foram detectados em órbita de estrelas pobres em metais – que contêm poucos elementos além de hidrogênio e hélio – ou de estrelas muito velhas.

Johny Setiawan, do Instituto de Astronomia Max Planck, na Alemanha, e colegas encontraram o planeta gigante em torno de uma estrela desse tipo, que passou da fase de gigante vermelha na evolução estelar – quando estrelas se expandem muitas vezes seu tamanho original.

O HIP 13044b é pouco maior do que Júpiter e completa uma órbita em torno da estrela HIP 13044 em apenas 16 dias. Os pesquisadores estimam que o planeta teve uma órbita mais extensa, mas que se aproximou da estrela quando essa entrou na fase de gigante vermelha.

Outro ponto surpreendente na descoberta é que o HIP 13044b deveria, segundo o conhecimento atual, ter sido engolido pela estrela durante sua expansão. A estrela pertence a um grupo que se formou em uma galáxia satélite da Via Láctea, mas que se separou gravitacionalmente há alguns bilhões de anos, sendo engolida pela galáxia da qual a Terra faz parte.

“Pela primeira vez, pudemos detectar um sistema planetário em uma corrente estelar de origem extragaláctica. Por causa das grandes distâncias envolvidas, não há detecções confirmadas de planetas em outras galáxias, mas essa união cósmica [com a Via Láctea] trouxe um planeta extragaláctico ao nosso alcance”, disse Rainer Klement, também do Instituto Max Planck e outro autor do estudo.

O artigo A Giant Planet Around a Metal-Poor Star of Extragalactic Origin (doi: 10.1126/science.1193342), de J. Setiawan e outros, pode ser lido por assinantes da Science em www.sciencemag.org.
 

Fonte Original: Agência Fapesp

XXIII Mostra de Tecnologia – Colégio Salesiano

Foi realizada nos dias 17, 18 e 19 de Novembro de 2010 a XXIII Mostra de Tecnologia e II Mostra Cultural do colégio Salesiano.

Foram apresentados os trabalhos desenvolvidos pelos alunos dos cursos técnicos, procurando aproximar a comunidade das novas tendências tecnológicas e despertar o espírito empreendedor e criativo dos estudantes.
Assim como em 2009, o INAPE esteve presente no evento, com a exposição Paisagens Cósmicas: Da Terra ao Big-Bang. A exposição, composta de 20 painéis com fotografias de denso conteúdo científico e grande beleza, convidou o público a um passeio pelo Universo, motivado pelas belas imagens captadas por lentes de poderosos telescópios e sondas espaciais que exploram o nosso sistema solar.

A XXIII Mostra de Tecnologia e a II Mostra Cultural são organizadas pela direção, coordenação, professores e alunos dos cursos técnicos do Colégio Salesiano.

Abaixo, algumas imagens do evento:

Para maiores informações, acesse:

http://colegiosale.blogspot.com/

Colégio Salesiano – Araçatuba:

R. Cussy de Almeida, 187 – Araçatuba – SP
Fone: 3636-4242 / Fax: 3636-4244

http://colegiosale.com.br/