Primeiro satélite brasileiro completa 19 anos em operação

Agência FAPESP – O SCD-1, o primeiro satélite brasileiro, desenvolvido pelo Instituto Nacional de Pesquisas Espaciais (Inpe), completou, em 9 de fevereiro, 19 anos em operação, retransmitindo informações para previsão do tempo e monitoramento das bacias hidrográficas, entre outras aplicações.

O satélite já deu cerca de 100,3 mil voltas ao redor da Terra, tendo percorrido cerca de 4,5 bilhões de quilômetros, o que corresponde a 5.910 viagens de ida e volta à Lua.

O lançamento do SCD-1 pelo foguete americano Pegasus, em 1993, marcou o início da operação do Sistema de Coleta de Dados Brasileiro, agora chamado de Sistema Nacional de Dados Ambientais (Sinda).

O sistema é baseado em satélites de órbita baixa que retransmitem a um centro as informações ambientais recebidas de um grande número de plataformas de coleta de dados (PCDs) espalhadas pelo Brasil.

De acordo com o Inpe, o sistema fornece dados para instituições nacionais governamentais e do setor privado que desenvolvem aplicações e pesquisas em diferentes áreas, como previsão meteorológica e climática, estudo da química da atmosfera, controle da poluição e avaliação do potencial de energias renováveis.

O satélite capta os sinais das PCDs instaladas por todo o território nacional e os envia para a estação de recepção e processamento do Inpe em Cuiabá (MT).

Depois, os dados são transmitidos para o Inpe Nordeste – o centro regional da instituição de pesquisa, localizado em Natal (RN) –, onde são processados e distribuídos aos usuários a partir do site http://sinda.crn2.inpe.br/PCD.

Atualmente, o sistema é composto pelos satélites SCD-1 e SCD-2, este lançado em 1998.

Fonte Original: Agência Fapesp

USP inicia operação de cluster para pesquisas em astronomia

Por Elton Alisson

Agência FAPESP – Nos próximos dias deverá entrar em operação no Departamento de Astronomia do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da Universidade de São Paulo (USP) um dos maiores e mais potentes clusters – aglomerado de computadores –, voltado exclusivamente para pesquisas astronômicas no mundo.

Avaliado em mais de US$ 1 milhão, o equipamento foi adquirido com apoio da FAPESP por meio do Programa Equipamentos Multiusuários, em projeto do IAG-USP e do Núcleo de Astrofísica Teórica (NAT) da Unicsul.

Composto por três torres, do tamanho de geladeiras domésticas que juntas pesam três toneladas, o conjunto de computadores possui 2,3 mil núcleos de processamento. O sistema possibilitará um aumento de 60 vezes na escala de processamento do Departamento de Astronomia da USP. O cluster utilizado anteriormente pela instituição possuía 40 núcleos de processamento.

Não conhecemos nenhum departamento de astronomia no mundo com essa capacidade computacional. Existem universidades e consórcios entre instituições de pesquisa com clusters muito maiores, mas o tempo de processamento é dividido entre várias áreas e não são dedicados totalmente à astronomia”, disse Alex Carciofi, professor da USP e responsável pela implementação do projeto à Agência FAPESP.

De acordo com ele, o aglomerado de computadores possibilitará aumentar o grau de realismo físico e rodar mais modelos matemáticos (simulações numéricas) utilizados para estudar os sistemas astronômicos, como estrelas, galáxias e meio interestelares.

Considerados simulações da natureza, quanto mais processos físicos são incorporados aos modelos numéricos para torná-los mais realistas, mais “pesados” computacionalmente eles se tornam e demandam mais tempo para serem processados.

Com um equipamento desse porte é possível aumentar a escala do problema que pretendemos estudar, mantendo um tempo de processamento razoável, de modo que nós consigamos processar um maior número de modelos em tempo hábil para realizar nossas pesquisas”, explicou Carciofi.

O equipamento também permitirá ao pesquisadores do Departamento de Astronomia da USP ingressar em nossas fronteiras do conhecimento na área, como a astrofísica computacional.

A exemplo do que está ocorrendo em outros campos da ciência, a nova área é resultado da fusão de disciplinas que anteriormente eram distintas e seguiam separadas, como a astrofísica e a ciência da computação.

O que se deve, entre outros fatores, ao fato de que instrumentos astronômicos modernos – como telescópios robóticos que operam automaticamente – estão gerando um grande volume de dados que precisam ser analisados. “É preciso desenvolver novas técnicas para obter resultados a partir desse grande volume de dados”, disse Carciofi.

Em um primeiro momento, o cluster atenderá 150 usuários, entre estudantes de pós-graduação, docentes e pós-doutorandos do IAG e do NAT. Mas também estará disponível para ser utilizado por pesquisadores de outras instituições científicas.

Por meio do equipamento também será possível atrair cientistas de outros estados e países, que necessitam de uma grande capacidade de processamento computacional para realizar suas pesquisas.

Os pesquisadores de fora podem escolher vir para o IAG ou NAT para realizar um pós-doutorado, por exemplo, justamente porque a instituição dispõe de um cluster como esse”, disse Carciofi.

O pesquisador estima que até o fim de janeiro começarão a realizar os primeiros cálculos numéricos massivos (chamados number crunching) no novo equipamento, a fim de alcançar modelos reais de fenômenos nas áreas de astrofísica, cosmologia e astronomia galáctica.

O supercomputador foi desenvolvido pela empresa SGI e é baseado em uma plataforma Blade Altix ICE 8400 com processadores AMD Opteron 6172, com 4,6 terabytes de memória.

Fonte Original: Agência Fapesp

Rede social para cientistas tem mais de 1 milhão de usuários

Agência FAPESP – Mais de 1,3 milhão de pesquisadores de diversos países – 35 mil só do Brasil – já se inscreveram na plataforma ResearchGate, uma espécie de Facebook dos cientistas. A proposta da rede social é facilitar a comunicação e a troca de experiências entre pessoas que atuam na mesma área de investigação.

Como outras redes, o ResearchGate conta com diversos grupos de discussão, nos quais os membros podem fazer e responder perguntas. Mas, diferentemente de outros sites do gênero, os perfis dos participantes são estruturados como se fossem um currículo científico, o que facilita a busca de usuários por área de atuação.

Além disso, os pesquisadores podem incluir um índice com suas publicações e um blog pessoal. Um calendário informa os participantes sobre eventos científicos em todo o mundo e uma bolsa de empregos oferece mais de 13 mil vagas nas diversas áreas da ciência.

A plataforma é gratuita e foi criada em 2008 pelo médico alemão Ijad Madisch, graduado em Hannover e pós-graduado em Harvard. Ele conta que teve a ideia quando fazia a pós nos Estados Unidos e deparou com um problema para o qual não achava resposta.

Madisch conheceu um colega que pesquisava o mesmo assunto e tentou manter contato com ele pela internet, mas sentiu que faltava uma ferramenta adequada para isso.

Grande parte dos recursos gastos em uma pesquisa acaba cobrindo experiências malsucedidas, que não ganham espaço nas publicações”, disse.

Com o ResearchGate, segundo Madisch, os cientistas podem receber informações sobre os trabalhos de colegas do mundo inteiro, inclusive sobre as experiências que não deram certo. Isso evitaria repetir o que já se mostrou falho.

De acordo com os administradores do site, 30 brasileiros, em média, se registram diariamente.

Mais informações: www.researchgate.net

Fonte Original: Agência Fapesp

O poder das Redes Sociais

Um dos maiores desafios de um blog/site educativo ou pedagógico é com certeza a divulgação. Em termos percentuais, são pouquíssimas as pessoas que costumam divulgar conteúdo educativo.

É tudo uma questão de entender a importância da indicação na internet. O que nem todo mundo sabe é que um link para um blog ou site é como se fosse um voto para o site indicado. Esse voto faz com que o site melhore sua posição nos resultados dos sites de buscas, como Google, Bing, Yahoo e etc, criando assim um ciclo virtuoso.

O mesmo princípio vale para as mídias sociais. Não tem nada melhor para um site do que ter um retweet, um link compartilhado no Orkut ou uma recomendação no Facebook. Isso faz a idéia se espalhar e aumenta a comunidade em torno do site.

Pense nisso, depois de ler um de nossos artigos. Se gostou do que leu, divulgue! Isso incentiva os autores a produzir mais conteúdo de qualidade.

O INAPE está presente nas redes sociais

       

Mapa-múndi atualizado

Agência FAPESP – A Agência Espacial Europeia (ESA) divulgou no dia 21 a nova versão de seu mapa da superfície terrestre. O GlobCover 2009 atualiza o mapa anterior, de 2005, por meio da análise de dados obtidos pelo espectrômetro com resolução de 300 metros a bordo do satélite Envisat.

O trabalho foi feito por pesquisadores da ESA e da Universidade Católica de Louvain, na Bélgica. Para fazer o novo mapa global de cobertura territorial, foi usado um novo software, desenvolvido pelas empresas Medias France e Brockmann Consult.

Foram processados dados colhidos pelo Envisat de 1° de janeiro a 31 de dezembro de 2009. As legendas do mapa adotam o Sistema de Classificação de Cobertura Territorial da Organização das Nações Unidas para Agricultura e Alimentação (FAO, na sigla em inglês).

Segundo a ESA, o GlobCover 2009 é o mapa de cobertura territorial com a melhor resolução já conseguida. A agência destaca que o GlobCover, que foi baixado mais de 8 mil vezes em sua versão de 2005, auxilia em diversos tipos de pesquisa, como sobre os efeitos das mudanças climáticas, da conservação da biodiversidade e do uso de recursos naturais em todo o planeta.

As instruções para baixar o GlobCover 2009 estão disponíveis em: http://ionia1.esrin.esa.int

Fonte Original: Agência Fapesp

Luzes, câmera, simulação

Agência FAPESPAvatar, A origem, Matrix, Shrek, Toy Story, WALL-E, UP – Altas Aventuras, Batman, Homem de Ferro, Homem-Aranha. O que esses e muitos outros filmes recentes têm em comum?

Além de terem sido grandes sucessos de bilheteria, todos esses fizeram uso extensivo de recursos computacionais. Sem os avanços recentes na computação gráfica, tais filmes poderiam até ter sido feitos, mas certamente com resultados bem distintos.

Em artigo na edição atual da revista Science, Robert Bridson e Christopher Batty, da Universidade da Colúmbia Britânica, no Canadá, destacam que as cenas impressionantemente realistas no cinema de animação têm como base avanços na simulação de como objetos e fluidos se movem, colidem e quebram.

A utilização da computação gráfica não se dá apenas em filmes de animação (ou desenhos animados), mas em produções com atores de carne e osso. Atualmente, são poucos os filmes que dispensam o seu uso.

“A simulação em computador de dinâmicas sólidas e fluidas é a base de muitos efeitos visuais vistos em filmes produzidos na última década. Essa abordagem não apenas é menos cara do que filmar ação ao vivo mas também evita ter que colocar atores e equipes em situações perigosas, além de permitir a visualização do impossível”, dizem os autores.

Segundo eles, soluções numéricas para equações físicas e avanços no processamento de algoritimos matemáticos permitem a criação em computadores de cenas – realistas ou fantásticas – que povoam os filmes atuais.

Os autores descrevem inovações e abordagens recentes no setor, que permitiram, por exemplo, criar cenas com objetos que se deformam, como roupas ou cabelos.

“Na simulação de cabelos, modelar os contatos entre fios individuais representa um problema de escala computacional. Calcular todas as colisões possíveis entre os cerca de 100 mil fios de cabelo em uma cabeça humana requer mais do que simples métodos de força bruta [computacional]”, afirmam.

É aí que entram as abordagens inovativas, como a do grupo de Aleka McAdams, na Universidade da Califórnia em Los Angeles, que resolvou lidar com cabelo não na forma de unidades distintas, mas como um fluido contínuo.

“Essa abordagem resolve movimentos dos cabelos como um todo, ao se obter a média dos movimentos em um campo vetorial contínuo. Mas equações realmente exatas de campos vetoriais ainda precisam ser derivadas”, ressaltam.

Graças aos avanços na tecnologia computacional, tanto em software como em hardware, os animadores hoje são capazes de simular cenas impossíveis há alguns anos, como nuances da pele humana, músculos em ação, água, fogo, fumaça e muitas outras cenas que envolvem fluidez de movimentos. No artigo, os autores comentam as inovações que têm permitido tais simulações.

Mas há ainda muitos desafios, destacam Bridson e Batty. Um deles é conseguir simular com fidelidade escalas com tamanhos múltiplos. Por exemplo, em cenas em que água em um mar agitado bate em rochas na costa, resultando em uma explosão na forma de ondas, espuma e jatos de gotas arremessados para todos os lados.

O artigo Computational Physics in Film (doi: 10.1126/science.1198769), de Robert Bridson e Christopher Batty, pode ser lido por assinantes da Science em www.sciencemag.org.

Fonte Original: Agência Fapesp

Superprevisão do tempo? Pergunte ao Tupã

Por Elton Alisson, de Cachoeira Paulista (SP)

Agência FAPESP – O Instituto Nacional de Pesquisas Espaciais (Inpe) inaugurou terça-feira (28/12), no Centro de Previsão do Tempo e Estudos Climáticos (CPTEC), em Cachoeira Paulista (SP), o supercomputador Tupã.

Com o nome do deus do trovão na mitologia tupi-guarani, o sistema computacional é o terceiro maior do mundo em previsão operacional de tempo e clima sazonal e o oitavo em previsão de mudanças climáticas.

Não apenas isso. De acordo com a mais recente relação do Top 500 da Supercomputação, que lista os sistemas mais rápidos do mundo, divulgada em novembro, o Tupã ocupa a 29ª posição. Essa é a mais alta colocação já alcançada por uma máquina instalada no Brasil.

Ao custo de R$ 50 milhões, dos quais R$ 15 milhões foram financiados pela FAPESP e R$ 35 milhões pelo Ministério da Ciência e Tecnologia (MCT), por meio da Financiadora de Estudos e Projetos (Finep), o sistema foi fabricado pela Cray, em Wisconsin, nos Estados Unidos.

O Tupã é capaz de realizar 205 trilhões de operações de cálculos por segundo e processar em 1 minuto um conjunto de dados que um computador convencional demoraria mais de uma semana.

Com vida útil de seis anos, o equipamento permitirá ao Inpe gerar previsões de tempo mais confiáveis, com maior prazo de antecedência e de melhor qualidade, ampliando o nível de detalhamento para 5 quilômetros na América do Sul e 20 quilômetros para todo o globo.

A máquina também possibilitará melhorar as previsões ambientais e da qualidade do ar, gerando prognósticos de maior resolução – de 15 quilômetros – com até seis dias de antecedência, e prever com antecedência de pelo menos dois dias eventos climáticos extremos, como as chuvas intensas que abateram as cidades de Angra dos Reis (RJ) e São Luiz do Paraitinga (SP) no início de 2010.

“Com o novo computador, conseguiremos rodar modelos meteorológicos mais sofisticados, que possibilitarão melhorar o nível de detalhamento das previsões climáticas no país”, disse Marcelo Enrique Seluchi, chefe de supercomputação do Inpe e coodernador substituto do CPTEC, à Agência FAPESP.

Segundo o pesquisador, no início de janeiro de 2011 começarão a ser rodados no supercomputador, em nível de teste, os primeiros modelos meteorológicos para previsão de tempo e de mudanças climáticas. E até o fim de 2011 será possível ter os primeiros resultados sobre os impactos das mudanças climáticas no Brasil com dados que não são levados em conta nos modelos internacionais.

Modelo climático brasileiro

De acordo com Gilberto Câmara, diretor do Inpe, o supercomputador foi o primeiro equipamento comprado pela instituição de pesquisa que dispensou a necessidade de financiamento estrangeiro.

“Todos os outros três supercomputadores do Inpe contaram com financiamento estrangeiro, que acaba custando mais caro para o Brasil. O financiamento da FAPESP e do MCT nos permitiu realizar esse investimento sem termos que contar com recursos estrangeiros”, afirmou.

O supercomputador será utilizado, além do Inpe, por outros grupos de pesquisa, instituições e universidades integrantes do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, da Rede Brasileira de Pesquisa sobre Mudanças Climática (Rede Clima) e do Instituto Nacional de Ciência e Tecnologia (INCT) para Mudanças Climáticas.

Em seu discurso na inauguração, Carlos Henrique de Brito Cruz, diretor científico da FAPESP, destacou a importância do supercomputador para o avanço das pesquisas realizadas no âmbito do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, que foi concebido para durar pelo menos dez anos, e para a criação do Modelo Brasileiro do Sistema Climático Global (MBSCG).

O modelo incorporará os elementos do sistema terrestre (atmosfera, oceanos, criosfera, vegetação e ciclos biogeoquímicos, entre outros), suas interações e de que modo está sendo perturbado por ações antropogênicas, como, por exemplo, emissões de gases de efeito estudo, mudanças na vegetação e urbanização.

A construção do novo modelo envolve um grande número de pesquisadores do Brasil e do exterior, provenientes de diversas instituições. E se constitui em um projeto interdisciplinar de desenvolvimento de modelagem climática sem precedentes em países em desenvolvimento.

“Não tínhamos, no Brasil, a capacidade de criar um modelo climático global do ponto de vista brasileiro. Hoje, a FAPESP está financiando um grande programa de pesquisa para o desenvolvimento de um modelo climático brasileiro”, disse Brito Cruz.

Na avaliação dele, o supercomputador representará um avanço na pesquisa brasileira em previsão de tempo e mudanças climáticas globais, que são duas questões estratégicas para o país.

Impossibilitado de participar do evento, o ministro da Ciência e Tecnologia, Sergio Rezende, gravou um vídeo, exibido na solenidade de inauguração do supercomputador, em que declarou o orgulho da instalação no Brasil do maior supercomputador do hemisfério Sul.

“Com esse supercomputador, o Brasil dá mais um passo para cumprir as metas de monitoramento do clima assumidas internacionalmente e entra no seleto grupo de países capazes de gerar cenários climáticos futuros”, disse.

Fonte Original: Agência Fapesp

Exploração virtual do espaço

Por Fábio de Castro

Agência FAPESP – Um exemplo de como a ciência da computação pode fornecer ferramentas para o compartilhamento e visualização de dados científicos é o WorldWide Telescope (WWT), serviço desenvolvido pela Microsoft Research que permite explorar virtualmente o Sistema Solar.

A gerente senior do Programa de Pesquisa da MSR, Yan Xu, apresentou o WWT durante o Workshop de Ciência Ambiental, promovido pelo Instituto Virtual de Pesquisas FAPESP-Microsoft Research na sede da FAPESP, em novembro.

O WWT é uma ferramenta que, uma vez instalada, permite que o computador pessoal funcione como um telescópio virtual, reunindo imagens obtidas por observatórios e telescópios na Terra e no espaço.

“A astronomia lida com instrumentos que captam imensas quantidades de dados – da ordem de petabytes [quatrilhões de bytes]. Quando se obtém dados nessa taxa é preciso pensar em como utilizá-los. Trata-se de um problema devido à imensa quantidade de dados de fontes heterogêneas. Os observatórios virtuais foram concebidos como uma solução para essa questão”, afirmou.

Com os observatórios virtuais, segundo Yan, é possível transmitir e distribuir o acesso a esses dados, permitindo o desenvolvimento de padrões de interoperacionalidade e a utilização de ferramentas amigáveis para exploração das informações.

“O WWT acaba fazendo muito mais do que telescópios individuais, porque agrega os dados obtidos por eles em uma interface amigável. Estamos traduzindo o conteúdo para diversas línguas e colocando à disposição dos usuários informações segregadas, com visualização das imagens e acesso detalhado aos dados que estão por trás delas”, explicou.

A cientista conta que o WWT já possibilitou novas descobertas, ao disponibilizar o acesso a dados de objetos astronômicos que haviam sido registrados nas imagens, mas que não haviam sido descritos.

“O sistema permite também produzir animações e visualizar a conformação do céu em datas passadas. A partir dos dados em alta resolução, pudemos produzir também animações com imagens da Terra que mostravam, por exemplo, a dinâmica da vegetação em determinada região, ou os dados sobre áreas de inundação na Flórida em um determinado período, a partir dos relatórios enviados por moradores”, disse.

A experiência, afirma, poderia ser reproduzida para outros tipos de informação, como aquelas relacionadas à ciência ambiental, que também lida com uma vasta quantidade de dados heterogêneos de diferentes fontes.

“Sabemos que não será fácil reproduzir o sucesso do WWT, mas esse será o desafio. Além dos usos científicos, vemos nesse tipo de ferramenta uma função importante na divulgação da ciência, porque torna os dados acessíveis para as pessoas comuns e para fins pedagógicos. Isso terá um impacto importante, no caso do meio ambiente, para a conscientização dos gestores e para influenciar as políticas públicas”, disse.

WorldWide Telescope: www.worldwidetelescope.org

Fonte Original: Agência Fapesp

Anti-hidrogênio é capturado

Agência FAPESP – Em um experimento feito no Centro Europeu de Pesquisas Nucleares (Cern), um grupo internacional de cientistas conseguiu demonstrar que é possível prender e controlar a liberação de átomos de anti-hidrogênio – equivalentes na antimatéria aos átomos de hidrogênio.

A novidade, descrita nesta quinta-feira (18/11) no site da revista Nature, abre o caminho para a realização de estudos precisos sobre as simetrias fundamentais da natureza.

A antimatéria é composta de antipartículas da mesma maneira que a matéria normal é formada por partículas. A antimatéria foi prevista pela primeira vez em 1931, pelo físico inglês Paul Dirac (1902-1984), como tendo a carga oposta da matéria normal e sendo aniquilada completamente em um flash de energia após interagir com a matéria normal.

Apesar de os astrônomos não encontrarem evidência de aniquilação de antimatéria no espaço, a antimatéria é produzida durante interações de partículas de alta energia e em decaimentos de alguns elementos radioativos.

Os físicos Emilio Segre e Owen Chamberlain, da Universidade da Califórnia em Berkeley, criaram antiprótons em um acelerador de partículas em 1955, confirmando sua existência e ganhando o prêmio Nobel quatro anos depois.

O modelo padrão das partículas físicas supõe a existência de algumas simetrias básicas para o funcionamento das leis da física. De acordo com essas simetrias, o espectro do anti-hidrogênio – o estado de ligação entre um antipróton e um pósitron – deve ser idêntico ao do hidrogênio.

Anti-hidrogênio tem sido produzido em baixas energias no Cern desde 2002, mas até agora não havia sido possível confinar esses átomos neutros, inviabilizando o estudo detalhado de seu espectro.

Os resultados da nova pesquisa deverão dar origem a estudos sobre essa forma de matéria que desapareceu misteriosamente há cerca de 14 bilhões de anos, pouco após a origem do Universo.

O artigo descreve o aprisionamento e a subsequente detecção de 38 átomos de anti-hidrogênio, destacando algumas das inovações tecnológicas que tornaram isso possível. Entre elas estão novas formas de resfriar pósitrons e antiprótons o suficiente para que formem antiátomos em temperaturas de menos de 0,5 kelvin.

Outra novidade do experimento denominado Alpha (Antihydrogen Laser PHysics Apparatus) é uma armadilha capaz de confinar os átomos neutros ao interagir com seus momentos magnéticos – medida da intensidade da fonte magnética.

Segundo os autores do estudo, o objetivo é desenvolver a técnica de modo que o tempo de aprisionamento (atualmente de pelo menos 170 milissegundos) e a fração de átomos presos (de cerca de 0,005%) possam aumentar. A pesquisa contou com participação brasileira, do professor Claudio Lenz Cesar, do Instituto de Física da Universidade Federal do Rio de Janeiro.

O artigo Trapped antihydrogen (doi:10.1038/nature09610), de G. B. Andresen e outros, pode ser lido por assinantes da Nature em www.nature.com.

Fonte Original: Agência Fapesp

XXIII Mostra de Tecnologia – Colégio Salesiano

Foi realizada nos dias 17, 18 e 19 de Novembro de 2010 a XXIII Mostra de Tecnologia e II Mostra Cultural do colégio Salesiano.

Foram apresentados os trabalhos desenvolvidos pelos alunos dos cursos técnicos, procurando aproximar a comunidade das novas tendências tecnológicas e despertar o espírito empreendedor e criativo dos estudantes.
Assim como em 2009, o INAPE esteve presente no evento, com a exposição Paisagens Cósmicas: Da Terra ao Big-Bang. A exposição, composta de 20 painéis com fotografias de denso conteúdo científico e grande beleza, convidou o público a um passeio pelo Universo, motivado pelas belas imagens captadas por lentes de poderosos telescópios e sondas espaciais que exploram o nosso sistema solar.

A XXIII Mostra de Tecnologia e a II Mostra Cultural são organizadas pela direção, coordenação, professores e alunos dos cursos técnicos do Colégio Salesiano.

Abaixo, algumas imagens do evento:

Para maiores informações, acesse:

http://colegiosale.blogspot.com/

Colégio Salesiano – Araçatuba:

R. Cussy de Almeida, 187 – Araçatuba – SP
Fone: 3636-4242 / Fax: 3636-4244

http://colegiosale.com.br/

Araçatuba terá Parque Tecnológico

28/10/2010

Agência FAPESP – A Secretaria de Desenvolvimento do Estado de São Paulo e a prefeitura de Araçatuba (SP) assinaram nesta quarta-feira (27/10) o credenciamento provisório da cidade no Sistema Paulista de Parques Tecnológicos (SPTec).

O município tem projetos para um complexo a ser construído em duas áreas do Distrito Industrial Maria Isabel Almeida Prado, perto da rodovia Elyeser Montenegro Magalhães (SP 463). Os dois terrenos somam cerca de 230 mil m².

O parque será voltado às áreas de pesquisa e desenvolvimento em genética animal, energias renováveis, agroindústria alimentícia e produção sucroalcooleira, com foco em biocombustíveis e bioenergia, áreas relacionadas à vocação econômica da região.

O objetivo do credenciamento provisório é estruturar o Parque Tecnológico e atrair empresas inovadoras interessadas em investir no local.

Empresas instaladas em parques tecnológicos do SPTec poderão participar do programa estadual de incentivos fiscais, o Pró-Parques.

O Estado de São Paulo conta com 30 iniciativas para implantação de parques tecnológicos e, com a adesão de Araçatuba, já são 18 com credenciamento provisório no SPTec: Barretos, Botucatu, Campinas (duas iniciativas: Polo de Pesquisa e Inovação da Unicamp e CPqD), Ilha Solteira, Mackenzie-Tamboré, Piracicaba, Ribeirão Preto, Santo André, Santos, São Carlos (duas iniciativas: ParqTec e EcoTecnológico), São José do Rio Preto, São José dos Campos, São Paulo (duas iniciativas: Jaguaré e Zona Leste) e Sorocaba.

Mais informações: www.desenvolvimento.sp.gov.br/cti/parques
 

Fonte Original: Agência Fapesp

INPE recebe supercomputador climático

6/10/2010

Por Fábio Reynol

Agência FAPESP – Caminhões climatizados, com temperatura média de 10º C, entregaram 84 volumes na cidade de Cachoeira Paulista (SP) nesta terça-feira (5/10). A carga foi transportada pela Rodovia Presidente Dutra desde São José dos Campos, onde desembarcou no dia anterior, em um DC-10 que veio dos Estados Unidos.

Nas embalagens estão as partes do novo supercomputador do Instituto Nacional de Pesquisas Espaciais (Inpe), adquirido por cerca de R$ 50 milhões por meio de apoio da FAPESP e do Ministério da Ciência e Tecnologia, por meio da Financiadora de Estudos e Projetos (Finep).

“A parceria com o MCT permitiu a viablilização de forma rápida e efetiva e o Inpe garante excelente apoio institucional, inclusive na adaptação de programas feitos para modelos anteriores”, disse Carlos Henrique de Brito Cruz, diretor científico da FAPESP.

O supercomputador foi fabricado pela Cray, em Wisconsin, nos Estados Unidos. O Centro de Previsão do Tempo e Estudos Climáticos (CPTEC) é a unidade que recebeu a nova máquina. A montagem e a instalação deverão ocorrer ao longo de duas semanas.

Segundo o Inpe, logo após a montagem o supercomputador será ligado, passando por um processo de customização ao longo de mais quatro semanas, que envolverá a adaptação e instalação de softwares operacionais, monitorados pelo grupo de Operação e Suporte do CPTEC.

O processo de migração dos modelos operacionais de previsão de tempo, clima e ambiental do CPTEC, e daqueles relacionados às projeções de cenários de mudanças climáticas do Centro de Ciências do Sistema Terrestre (CCST), deverá ocorrer nos meses seguintes.

“Com esse equipamento, estaremos entre os cinco maiores centros de climatologia do mundo em capacidade de processamento”, disse Luiz Augusto Toledo Machado, coordenador geral do CPTEC, à Agência FAPESP.

O supercomputador apresenta desempenho de 244 teraflops (trilhões de operações de ponto flutuante) por segundo, executado por 1.272 nós, cada um deles com velocidade máxima de 192 gigaflops por segundo. A máquina atual do CPTEC para previsões climáticas tem 6 teraflops de capacidade.

O novo sistema terá 13 gabinetes, que serão ligados gradualmente. “Instalaremos inicialmente três gabinetes, que já fornecerão uma velocidade de processamento maior do que a capacidade atual instalada”, disse Machado.

De acordo com o Inpe, o sistema permitirá gerar previsões de tempo mais confiáveis, com maior prazo de antecedência e de melhor qualidade, ampliando o nível de detalhamento para 5 quilômetros na América do Sul e 20 quilômetros para todo o mundo.

Será possível prever ainda eventos extremos com boa confiabilidade, como chuvas intensas, secas, geadas, ondas de calor, entre outros. As previsões ambientais e de qualidade do ar também serão beneficiadas, gerando prognósticos de maior resolução, de 15 quilômetros, com até seis dias de antecedência.

A nova máquina também será fundamental para o desenvolvimento e a implementação do Modelo Brasileiro do Sistema Climático Global, que incorporará todos os elementos do Sistema Terrestre (atmosfera, oceanos, criosfera, vegetação, ciclos biogeoquímicos e outros), suas interações e como esse sistema está sendo perturbado por ações antropogênicas.

“A FAPESP organizou esta iniciativa para que o Brasil possa ser um dos poucos países com capacidade para criar e analisar modelos climáticos globais. Isso é essencial para o interesse nacional, especialmente quanto à Amazonia e Atlântico Sul”, disse Brito Cruz.

Mudanças climáticas globais

Machado destaca que a supercomputação é fundamental na pesquisa climática, por permitir a simulação de diferentes cenários que envolvem um grande número de variáveis e diversos sistemas paralelos que se influenciam mutuamente. O comportamento dos eventos climáticos é reproduzido por meio do processamento de modelos que chega a demorar dias para gerar resultados.

Um dos avanços permitidos pelo alto desempenho do equipamento, de acordo com Machado, é a abertura de acesso a usuários externos ao Inpe. “Pesquisadores ligados ao Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais, por exemplo, poderão utilizar o supercomputador para rodar seus modelos”, afirmou.

O coordenador do CPTEC ressalta que não se trata apenas de ganhar mais velocidade de processamento, mas de migrar para uma nova arquitetura computacional. “A computação vetorial, utilizada pelas máquinas atuais do Inpe, vem sendo substituída em todo o mundo pela nova arquitetura de computação massiva em paralelo. Isso também exigiu a adaptação dos códigos de programação dos nossos modelos para que rodem no novo paradigma”, disse.

Para receber o novo supercomputador, o CPTEC teve de executar obras de adaptação em suas instalações. Um sistema específico de arrefecimento a água está sendo instalado com a preocupação da preservação ambiental.

O consumo de energia elétrica praticamente triplicará, passando dos atuais 260 KVA para 880 KVA, o que envolve uma nova rede elétrica com novos equipamentos, como nobreaks, de grande capacidade. “Não basta aumentar a energia, temos de fazer isso de maneira segura”, frisou Machado.

Todos esses cuidados e adaptações exigem que os técnicos do Inpe façam uma instalação gradual do sistema computacional. Além disso, será necessário adaptar os programas, tarefa que ficará a cargo dos engenheiros de software. Também está previsto treinamento dos operadores do equipamento e, posteriormente, treinamento específico para os usuários.

Machado estima que o supercomputador deva entrar em operação parcial até o fim deste ano e que ele começará a rodar modelos climáticos no início de 2011 com toda a sua capacidade.

“O novo sistema permitirá o aprimoramento de modelos climáticos desenvolvidos no Brasil de todos os tipos – regionais, nacionais, de qualidade do ar, de ondas e outros –, melhorando a qualidade dos dados e impulsionando a pesquisa nacional em clima”, disse.

Fonte Original: Agência Fapesp

Poli/USP inaugura laboratório de sustentabilidade

21/9/2010

Agência FAPESP – A Escola Politécnica (Poli) da Universidade de São Paulo (USP) inaugurou o Laboratório de Sustentabilidade em Tecnologia de Informação e Comunicação (Lassu), abrigado no Departamento de Engenharia, Computação e Sistemas Digitais.O laboratório atuará nas áreas de ensino, pesquisa, cultura e extensão em engenharia de computação, visando ao desenvolvimento social, à proteção ambiental e ao crescimento econômico sustentável.

De acordo com Tereza Cristina Carvalho, professora de Engenharia de Computação e Sistemas Digitais da Poli e diretora do laboratório, a proposta é promover pesquisas ligadas à reciclagem de eletroeletrônicos e incentivar a iniciativa privada na elaboração de projetos sustentáveis.

“O principal objetivo é desenvolver pesquisas tendo como meta a sustentabilidade em tecnologias da informação e comunicação, com foco no ensino e na extensão universitária”, disse à Agência FAPESP .

Segundo a diretora, o laboratório tratará de assuntos como o uso racional de recursos de tecnologias da informação, o tratamento de lixo eletrônico, a inclusão digital no mercado de reciclagem, eco-design e tecnologias para população de baixa renda.

“Queremos desenvolver, por exemplo, um computador que seja mais facilmente reciclável, projeto que envolverá não apenas os alunos da Poli, mas também da área de design de outras faculdades da USP, como a Faculdade de Arquitetura e Urbanismo, além de parcerias com a comunidade”, disse, ao salientar que a iniciativa envolverá parcerias com o setor privado.

O Lassu foi criado a partir da atuação do Centro de Descarte e Reuso de Resíduos de Informática (Cedir), inaugurado em dezembro de 2009, que recebe equipamentos de pessoas físicas para reciclagem.

“A indústria de reciclagem pode gerar empregos, abrindo caminho para projetos sociais como o treinamento de pessoas para ingressar nesta nova indústria”, disse Tereza.

Segundo ela, a Poli já tem um programa nessa área, Poli Cidadã, que são projetos de responsabilidade social. “O objetivo é que os alunos desenvolvam tecnologias apropriadas para comunidades carentes”, diz.

O Lassu está localizado na Av. Professor Lúcio Martins Rodrigues, travessa 5, nº 97 (ao lado do Cedir), na Cidade Universitária, em São Paulo.

Mais informações: www2.pcs.usp.br e (11) 3091-5262

Fonte Original: Agência Fapesp