sábado, 26 de dezembro de 2015

Estamos livres de abalos sísmico


Sismo em Minas, em 2007 / Foto: João Wainer/Folhapress

EVANILDO DA SILVEIRA


Os relógios marcavam 3h22 da madrugada do dia 30 de novembro de 1986 quando a pequena cidade de João Câmara (RN), a 90 quilômetros de Natal, foi sacudida por um dos maiores terremotos já registrados no país em área habitada, atingindo 5,1 pontos na escala Richter. Essa magnitude foi apenas 0,6 pontos inferior ao tremor que quase riscou do mapa San Salvador, na América Central, no dia 10 de outubro daquele ano. Além de casas e construções comerciais, o sismo também jogou por terra a certeza de que a maioria dos brasileiros tinha sobre a inviabilidade desses eventos acontecerem em território nacional.

O pesquisador Luis Alberto D’ávila Fernandes, professor titular do Departamento de Geologia da Universidade Federal do Rio Grande do Sul (UFRGS), garante que é totalmente falsa a ideia de que o Brasil está imune a tremores. “Muitas localidades brasileiras acreditavam estar fora das zonas de perigo e dos riscos sísmicos”, diz. Porém, ele complementa, “dois fatores mudaram esse cenário nos últimos 20 anos. O primeiro, o inegável avanço da pesquisa geológica e sismológica no Brasil, que tornou possível a produção de mapas com a catalogação das ocorrências. O segundo, a expansão demográfica decorrente da ocupação territorial. Eventuais abalos que poderiam ocorrer nessas regiões agora ocupadas sem que fossem sentidos ou provocassem qualquer dano à sociedade, hoje passam a ser extremamente importantes, mesmo que de baixa magnitude”.

Os primeiros estudos sobre o assunto realizados no país são mais antigos do que se imagina. Eles foram feitos na segunda metade do século 19 pelo engenheiro Guilherme Schüch (1824-1908), também conhecido por barão de Capanema, título que recebeu de Dom Pedro II. “Incentivado pelo imperador, ele coletou e analisou dados de tremores em todo o país e publicou, em 1859, o primeiro artigo científico sobre o tema no Brasil”, conta o sismólogo José Alberto Vivas Veloso, pesquisador aposentado e ex-chefe do Observatório Sismológico da Universidade de Brasília (UnB). “O trabalho de Capanema é de inestimável valor para a sismologia, já que foi precursor na organização sistemática das informações sobre terremotos em nosso solo”.

O próprio Dom Pedro II sentiu a terra tremer sob seus pés. Às três da tarde do dia 9 de maio de 1886, passou por aquela experiência quando se encontrava em seu palácio na cidade fluminense de Petrópolis. “Foi um abalo de magnitude estimada em 4,3 pontos na escala Richter”, conta Veloso. “Imediatamente, o monarca quis saber o que de fato havia acontecido e determinou que se buscassem informações a respeito daquilo”. E foi além: como membro da Academia de Ciências de Paris, o imperador achou importante relatar os detalhes do tremor ao mundo científico. Com dados do astrônomo Luis Cruls, do Imperial Observatório do Rio de Janeiro, escreveu um informe que foi publicado nos anais da academia francesa e depois na prestigiosa revista científica “Nature”. Com isso, Dom Pedro II teria se tornado o primeiro brasileiro a ter um trabalho impresso na famosa publicação inglesa.

A história dos terremotos no Brasil, entretanto, começa, pressupõe-se, de um ponto bem mais remoto, num passado longínquo. Trata-se de um tremor de proporções inimagináveis, que pode ter atingido assombrosos 11 pontos na escala Richter, ocorrido há 250 milhões de anos no território nacional. Para uma breve noção de seu gigantismo, ele foi 150 vezesmais forte que o mais poderoso ocorrido no planeta em tempos históricos, que aconteceu no Chile, em 22 de maio de 1960, com 9,5 pontos. Essa forma de medir os sismos que chacoalham a Terra em alguns pontos, inventada em conjunto pelo físico e sismólogo norte-americano Charles Francis Richter (1900-1985) – daí o nome da escala – e seu colega alemão Beno Gutenberg (1889-1960), usa uma progressão logarítmica.

Magnitude 11

Isso significa, em linguagem simples, que cada ponto a mais na escala representa uma magnitude – ou força destruidora – dez vezes maior. Ou seja, um terremoto de 7 pontos na escala Richter libera dez vezes mais energia que um de 6, e cem vezes mais do que um de 5. Também é mito a ideia de que a escala Richter vai até 10. Na verdade, ela não tem limites, nem inferior nem superior. Por isso, matematicamente ela é considerada aberta. A ideia de que ela vai até 10 deve ter surgido pelo fato de que na prática nunca foi registrado um abalo maior do que o do Chile. “Para os grandes sismos, a história mostra que existe uma barreira natural, imposta pela própria geologia, já que as rochas têm um limite de resistência ao esforço e não podem acumular deformações indefinidamente, pois acima de certo patamar, elas se rompem”, explica Veloso.

O pesquisador acompanhou in loco e estudou por um longo período o tremor de João Câmara, experiência retratada no livroO Terremoto que Mexeu com o Brasil. No caso do evento de 250 milhões de anos atrás, Veloso conta que ele não foi causado por movimento das rochas internas da Terra, como todos os outros, mas pela queda de um corpo celeste, um meteorito, a cerca de 500 quilômetros onde hoje está Brasília. O bólido deixou uma cratera no solo, hoje erodida, com 40 quilômetros de diâmetro. “Eu e um colega calculamos que o impacto causado por esse meteorito foi de magnitude 11”, diz Veloso. “Isso provavelmente causou uma destruição absurda”.

Para a sorte dos terráqueos, essas quedas são muito raras. A mais recente a fazer um estrago considerável ocorreu há 65 milhões de anos e resultou na extinção dos dinossauros. Os terremotos comuns, que acontecem todos os dias em algum ponto da Terra, têm causas que vêm do interior do planeta. O globo terrestre é feito de camadas como, grosso modo, uma cebola. No centro está o núcleo, que se divide em duas partes, uma mais interna sólida, por causa da imensa pressão, com 960 quilômetros de diâmetro; e uma de material líquido – devido ao intenso calor –, com cerca de 2.400 quilômetros de espessura, que circunda o núcleo interno. O ponto central desta estrutura dupla – que também é o do planeta –, chamada endosfera, está a uma profundidade de cerca de 6.370 quilômetros.

Acima do núcleo líquido vem o manto, uma camada de consistência pastosa, semelhante à de um asfalto quente, com algumas partes sólidas e uma espessura de cerca de 2.950 quilômetros. Trata-se do magma, que pode ser visto quando expelido pelos vulcões em erupção. A Terra também se divide em duas partes, o manto superior, cuja temperatura é de cerca de 100ºC na sua parte de cima; e o inferior, onde ela pode chegar a 3.500ºC, na sua parte mais profunda, na interface com o núcleo. O manto é recoberto pela crosta, a camada mais superficial e menos espessa do planeta, onde vivemos, com uma média de 40 quilômetros de profundidade. Para comparar, ela é tão fina em relação ao globo terrestre quanto a casca de maçã em relação à fruta. Ela se divide em crosta continental, que pode chegar a 65 quilômetros de espessura nas regiões montanhosas; e oceânica, que em alguns lugares, como as fossas abissais submarinas, tem apenas 5 quilômetros.

A crosta, junto com a camada superior do manto, sólida, forma a litosfera, com 100 quilômetros de espessura. Abaixo dela, até 350 quilômetros de profundidade está a astenosfera, meio pastosa, meio sólida. Na verdade, tecnicamente a definição seria uma consistência dúctil, mais ou menos como o cobre ou o alumínio, por exemplo. Em seguida, até o núcleo, vem a mesosfera. Com outras palavras, Veloso explica que na faixa de 100 quilômetros de profundidade as rochas estão em estado de semifusão. “É nessa zona que se dá a separação da camada superior constituída de material rígido e quebradiço, a litosfera, de outra abaixo, mais dúctil e maleável, a astenosfera”, explica. É aqui que entram as personagens principais na história dos terremotos, as responsáveis diretas por sua ocorrência: as placas tectônicas.

Sua descoberta, na década de 1960, serviu para confirmar uma teoria mais antiga, proposta em 1912 pelo jovem cientista alemão Alfred Wegener (1880-1930), então com 32 anos, e que vinha sendo contestada havia cinco décadas: a deriva continental. Baseado em algumas evidências, como a semelhança das linhas costeiras da África e da América do Sul, que parecem se encaixar como um objeto côncavo e outro convexo, além da existência de rochas, fósseis e animais do mesmo tipo em terras hoje separadas por oceanos, ele propôs que há 200 milhões de anos todos os continentes estavam unidos num supercontinente, que denominou de Pangeia. Ao longo do tempo, essas massas terrestres foram se separando até adquirirem a conformação de hoje.

Fundo do mar

Exposta em seu livro The Origin of Continents and Oceans (A Origem dos Continentes e Oceanos), publicado na Alemanha, em 1915, a teoria de Wegener conseguiu o que raramente uma ideia científica atinge, a quase unanimidade. O problema é que esse consenso era contra a sua teoria. Havia dois motivos para a hipótese levantada por ele não ter sido aceita por seus pares no mundo científico. Um deles, sugerido por Hal Hellman, em seu livro Great Feuds in Science – Ten of the Liveliest Disputes Ever (Grandes Debates da Ciência – Dez das Maiores Contendas de Todos os Tempos), é que o cientista alemão era um estranho no ninho dos geólogos e geofísicos. “Algumas reações soaram também como um protesto do tipo ‘não-no-meu-quintal’, pois Wegener – um astrônomo e meteorologista – era visto como um intruso pelos geocientistas”, escreve no capítulo “Wegener Contra todo Mundo – A Deriva dos Continentes”.

Segundo o próprio Hellman e cientistas de hoje, o motivo principal para a rejeição da teoria era outro, no entanto. O que faltava a ela era um mecanismo, uma força capaz de mover os continentes, erguer montanhas e cavar abismos oceânicos. Wegener propunha que as enormes massas continentais se deslocavam deslizando pelo assoalho marinho sólido. Não sem razão, a ideia foi taxada de absurda. O próprio pesquisador reconhecia a falta de uma força capaz de realizar essa proeza. Na tentativa de encontrar uma solução, ele propôs que a gravidade do Sol e da Lua, atuando como faz com as marés, era a força que movia os continentes. Ou mais precisamente, os segurava.

Wegener imaginou que as gigantescas massas continentais derivavam lentamente para o Oeste, por que a gravidade do Sol e da Lua as seguravam, enquanto a Terra girava para Leste por debaixo delas. “Os físicos reagiram com sarcasmo e mostraram matematicamente que as forças gravitacionais são fracas demais para gerar tamanha peregrinação”, escreveu o paleontólogo Stephen Jay Gould (1941-2002), no ensaio “A Validação da Deriva Continental”, em seu livro Darwin e os Grandes Enigmas da Vida. “Por isso, Alexander du Toit, o defensor sul-africano de Alfred Wegener, tentou uma estratégia diferente. Defendeu a ideia de um derretimento local, radiativo, do solo oceânico nas fronteiras continentais, que permitiu aos continentes deslizarem”. Não ajudou muito. A teoria da deriva continuou em descrédito.

Os fatos só começaram a se mover a favor de Wegener no final da década de 1950. O primeiro passo foi dado bem antes, no entanto, em 1928, quando o professor de geologia da Universidade de Edimburgo, na Escócia, Arthur Holmes, propôs a existência de correntes de convecção no interior da Terra, que poderiam servir como um mecanismo para mover os continentes. Trata-se de um fenômeno que ocorre em líquidos, gases (como no Sol) ou material pastoso (como no interior da Terra) sob aquecimento. Como numa caneca com água fervendo. Grosso modo, o material aquecido sobe à superfície, resfria e desce, para ser aquecido de novo e reiniciar o ciclo, num movimento mais ou menos circular.

Ainda que correta, a ideia não foi de muita ajuda para a teoria de Wegener – só viria a ser mais tarde, quando outras peças do quebra-cabeça foram descobertas. “Embora as correntes de convecção pudessem servir de motor (para a deriva dos continentes) ainda não estava claro como isso funcionaria exatamente”, escreve Hellman. Só passou a ser entendido quando começaram a se acumular novas informações sobre as dorsais oceânicas, descobertas um século antes, durante a instalação, em 1858, do primeiro cabo submarino metálico transatlântico, interligando a América do Norte e a Inglaterra. Trata-se de enormes cadeias de montanhas submersas, que existem em todos os oceanos e podem chegar a 4 mil metros de altura a partir do assoalho marinho – há uma delas a meio caminho entre o Brasil e a África.

Conhecidas como cordilheiras ou dorsais meso-oceânicas, elas formam uma espécie de costura no fundo dos oceanos, como as de uma bola de futebol, só que com linhas irregulares, com 50 mil quilômetros de extensão. Mas a característica principal delas não está nisso, mas no fato de que elas criam o fundo do mar. A hipótese foi proposta em 1960, por Harry Hess (1906-1969), da Universidade de Princeton, nos Estados Unidos. “A ideia era simples e brilhante: o fundo do mar está sendo criado nas dorsais oceânicas, vindo das profundezas da Terra sob a forma de lava quente e maleável (ou magma)”, escreve Hellman. “Como um novo e longo vulcão erguendo-se de dentro da Terra, o material acumula-se ao emergir, formando a grande cadeia de montanhas que se erguem quilômetros acima do fundo do oceano. O magma também se espalha em duas direções opostas, para fora da dorsal, formando um novo fundo oceânico”.

Essa teoria, comprovada por vários tipos de observações e experimentos, ficou conhecida como espraiamento do fundo mar. A principal implicação é que ela forneceu um mecanismo, um poderoso motor para a deriva continental de Wegener. Como diz Hellman em seu livro, “os continentes pegam carona nesse processo global, que é impulsionado por correntes de convecção no interior do manto”. O próprio Hess explicou sua ideia: “Os continentes não vagam pela crosta oceânica impelidos por forças desconhecidas, mas são passivamente conduzidos pelo material do manto, conforme este chega à superfície da crista dorsal e passa a se afastar lateralmente dela”.

Placa sob tensão

Ainda restava um problema, porém. Como as dorsais podem estar criando e expandindo o assoalho oceânico se a Terra não está crescendo, ou seja, continua do mesmo tamanho que sempre teve desde o seu surgimento, há 4,6 bilhões de anos? Parecia claro para os cientistas que se uma região do planeta está crescendo outra deve estar diminuindo. E de fato, não demorou a se descobrir as chamadas zonas de subducção. Elas ocorrem principalmente às margens do oceano Pacífico, onde a crosta oceânica, mais densa, formada de rochas basálticas, mergulha sob a crosta continental, de granito, menos densa, se consumindo nas profundezas do magma incandescente do manto. Assim, o ciclo se fecha: nada se cria, nada se perde, tudo se transforma – como diria Antoine Laurent de Lavoisier (1743-1794), considerado o pai da Química moderna, falando de outros elementos. Trocando em miúdos: ou o ciclo se fecha ou retorna ao estágio anterior.

O quebra-cabeça ainda não estava montado, no entanto. Isso foi feito pela Teoria da Tectônica de Placas, surgida em 1968, que uniu as peças-chave, ou seja, a deriva continental, de Wegener, e o espraiamento do assoalho oceânico, de Hess. Essa nova proposta mostrou que a litosfera terrestre está dividida em gigantescas placas rochosas, que flutuam sobre o manto de magma, carregando oceanos e continentes. Existem dez dessas grandes jangadas de pedra – Africana, Antártica, Arábica, Eurasiática, Filipinas, Indo-Australiana, Nazca, Norte-Americana e Caribe, Pacífico e Sul-Americana – e várias outras menores. São essas estruturas que modelam a superfície da Terra, erguendo montanhas e causando terremotos e tsunamis.

Veloso explica que isso ocorre porque elas deslizam e tem contato entre si, ora pressionando umas contra as outras e, por vezes, afastando-se de sua vizinha. Há três tipos de limites ou encontro entre as placas: conservativo (elas deslizam lateralmente uma em relação a outra, sem criação ou destruição de crosta); convergente (chocam-se, podendo formar cadeias de montanhas); e divergentes (afastam-se, formando nova crosta no espaço que ficaria vazio). São nesses limites que acontecem os maiores e mais frequentes terremotos. “Apesar de tudo se mexer, os deslocamentos são organizados e regidos por um ritmo já apelidado de ‘dança dos continentes e dos oceanos’”, ele explica. “A velocidade dessa ‘dança’ é variável. A Sul-Americana e a Africana, por exemplo, separam-se a 35 milímetros/ano, a de Nazca desloca-se rumo à América do Sul a 151 mm/ano. No geral, a velocidade anual é de algumas dezenas de milímetros, mais ou menos a média de crescimento da unha humana”.

Os resultados visíveis dessa “dança” são muitos, além dos terremotos. Os Andes, por exemplo, são o resultado do choque entre a Placa de Nazca, que mergulha sob a parte oeste da Sul-Americana, erguendo a cordilheira. A cadeia do Himalaia, onde estão as maiores montanhas do mundo, como o Everest, com 8.848 metros de altitude, também é resultado do choque de placas tectônicas. O Brasil está integralmente assentado no centro da “jangada” Sul-Americana, longe de suas bordas. Por isso os sismos que ocorrem em seu território não estão entre os mais intensos e destruidores.

As causas dos abalos que vez por outra atingem o território brasileiro, todavia, são semelhantes aos demais tremores registrados no mundo. A placa inteira está sob tensão e como a crosta superior apresenta fraturas ou zonas mais frágeis em alguns pontos, quando as tensões são suficientes para vencer o atrito entre as superfícies adjacentes das quebraduras, elas se movimentam, liberando enorme energia e, por consequência, originando um terremoto. Os sismos que ocorrem no interior de placas tectônicas costumam ser muito mais destrutivos, pois são inesperados e, é comum, não há nenhuma preparação ou prevenção, seja física ou até mesmo psicológica.

Os danos do mais intenso terremoto já registrado no Brasil na era moderna só não foram maiores, porque ocorreu numa área até então pouco habitada. Foi no dia 31 de janeiro de 1955, na Serra do Tombador, no Mato Grosso, e atingiu a magnitude de 6,2 na escala Richter. Cerca de um mês depois, no dia 28 de fevereiro, um novo abalo, o segundo maior da história do país, só que desta vez no mar, ao largo de Vitória, no Espírito Santo, que atingiu 6,1 pontos. Outros sismos com intensidade superior a 5 foram registrados no país, entre eles um em Tubarão (SC), no dia 28 de junho de 1939, e outro em Codajás (AM), em 5 de agosto de 1983, ambos com 5,5 na escala Richter.

O maior terremoto

“A sismicidade da enorme área amazônica foi menos estudada do que a das demais regiões e começou a ser monitorada com atraso em relação ao resto do país”, diz Veloso, salientado que como ela é pouco conhecida, ainda pode apresentar surpresas. Na realidade, ele próprio descobriu uma dessas surpresas, e ela diz respeito ao que pode ter sido o maior terremoto acontecido no Brasil em tempos históricos, mais precisamente em 1690. Baseado em informações de dois jesuítas, Samuel Fritz (1654-1725) e Felipe Bettendorf (1625-1698), que estiveram na região epicentral em épocas diferentes, conversaram com testemunhas e observaram os seus efeitos no terreno. Veloso concluiu que o evento teve o epicentro na margem esquerda do rio Amazonas, a 45 quilômetros abaixo de Manaus. “Após longos estudos concluí pela veracidade das informações dos religiosos e as combinei com conhecimentos modernos de sismologia para estimar a sua magnitude em 7 e sua área de percepção em 2 milhões de km2”, conta.

De acordo com ele, esse sismo alterou significativamente a topografia do terreno devido ao fenômeno da liquefação – passagem do estado sólido para o líquido – do solo e também produziu ondas parecidas a um pequeno tsunami que reverteu momentaneamente a corrente do rio Urubu, inundando aldeias indígenas situadas a 5 quilômetros de sua foz com o Amazonas. “Não existe nada similar em nossa história e assim esse evento, percebido a mais de mil quilômetros do epicentro, ganha o status do maior terremoto brasileiro”, diz. “Há cerca de 300 anos não se falou de grandes prejuízos materiais, ou de vítimas fatais. Hoje não seria assim, pois aquela região se desenvolveu e há maior exposição de pessoas, de construções e de importantes infraestruturas que não foram desenhadas para resistir a sismos tão fortes”.

O terremoto brasileiro que causou impacto econômico e social, no entanto, foi sem dúvida o de João Câmara. “Na verdade, naquele dia aconteceu o maior de uma série de 50 mil abalos, aproximadamente”, explica Veloso. “Em pouco menos de duas horas, além do tremor principal, ocorreram quatro outros com magnitudes entre 4 e 4,3, intercalados por dezenas de réplicas importantes. Em 10 de março de 1989, aconteceu outro de 5 pontos. Em todo o ciclo de atividade, que durou sete anos, foram registrados 20 eventos iguais ou maiores que 4 pontos na escala Richter”. É o que se chama tecnicamente de enxame de sismos.

Em consequência, a pequena cidade, então com 23 mil habitantes, saiu do anonimato e mostrou que o Brasil não está livre de abalos destrutivos. Nada menos que 4.348 edificações tiveram de ser recuperadas ou reconstruídas. Subitamente, surgiram milhares de desabrigados, inclusive de municípios vizinhos, e algumas pessoas perderam praticamente tudo o que tinham. A maior parte da população deixou a cidade e a zona rural, paralisando o comércio, os serviços municipais, as escolas e as atividades agrícolas. O então presidente da República, José Sarney, esteve no local, prometendo reconstruir a cidade, o que de fato aconteceu, com ajuda do corpo de engenharia do Exército.

É um evento que Veloso não esquece. “Tive a oportunidade de viver parte dessa história, pois já estudava aquela atividade sísmica desde agosto de 1986, instalando sismógrafos na área”, lembra. “No dia do terremoto principal, um domingo, curiosamente a data do meu aniversário, fui levado de avião para João Câmara e lá fiquei por duas semanas. Dividi meu tempo atuando como sismólogo, para estudar, com outros colegas, o fenômeno sísmico; como agente de defesa civil, para ajudar e orientar as pessoas; e como repórter/cinegrafista, para documentar os acontecimentos, que depois fizeram parte do livro que lancei recentemente e que é acompanhado por um DVD”. O ex-chefe do Observatório Sismológico da Universidade de Brasília alerta: “Tremores parecidos com o de 1690 e com o de João Câmara poderão repetir-se em qualquer outra região do país”.
Revista Problemas Brasileiros

sexta-feira, 18 de dezembro de 2015

Itaipu para além da geração de energia


Quando há muitas chuvas, a usina hidrelétrica abre as comportas para escoar o excedente de água


Empresa amplia programas com impacto social no Brasil e no Paraguai
 René Ruschel 


Alexandre Marchetti/ Itaipu Binacional


Com 20 unidades geradoras e 14.000 MW de potência instalada, a Itaipu Binacional é líder mundial na geração de energia renovável. Produziu, desde 1984, mais de 2,3 milhões de MWh, sendo responsável pelo abastecimento de aproximadamente 17% de toda a energia consumida pelo Brasil e de 75% do Paraguai. “Gerar energia é e será sempre o nosso principal foco, mas não pode ser a única finalidade. Adotamos uma visão social que beneficiasse tanto o Brasil como Paraguai” afirmou o engenheiro Jorge Miguel Samek, diretor geral brasileiro de Itaipu.

Com este foco, a partir de 2003 a empresa adotou uma nova postura em sua missão empresarial: “gerar energia elétrica de qualidade, com responsabilidade social e ambiental, impulsionando o desenvolvimento econômico, turístico e tecnológico, sustentável, no Brasil e no Paraguai”.

Itaipu também é responsável pelo pagamento de royalties aos municípios que tiveram suas áreas tomadas pelas águas do rio Paraná na formação do lago com área de 1.350 quilômetros quadrados. Em 2014, dezesseis municípios brasileiros receberam US$ 253,1 milhões e o Paraguai, US$ 273,2 milhões. Desde 1985, a soma de recursos destinada aos dois países superou a US$ 9,4 bilhões.

Segundo Samek, uma das ações da empresa para além da geração de energia é o financiamento de projetos nos municípios lindeiros. Dentre estes, dois se destacaram: o Programa Cultivando Água Boa e a criação de um centro de pesquisas tecnológicas.

Água boa

Desde a construção da obra, em 1975, a Itaipu adotou ações pontuais para preservação da flora e da fauna. Mas era preciso ir além. O objetivo do programa Cultivando Água Boa foi conscientizar as comunidades ao entorno do lago da necessidade em preservar o meio ambiente. Realizado em parceria com prefeituras, órgãos públicos, empresas e forte participação da comunidade, o projeto prevê 65 ações integradas.


O projeto Cultivando Água Boa ajuda na preservação do entorno

Santa Helena, município de 25 mil habitantes e que teve 40% de suas terras agricultáveis alagadas pela barragem, é um retrato 3x4 de que, com consciência ambiental, a história pode ser reescrita. “Com a adoção de ações práticas como conservação do solo, adubação e preservação dos rios, a produtividade em algumas propriedades rurais aumentou em até 40%” afirmou o prefeito Jucerlei Sotoriva (PP). Para ele, o processo de conscientização da população foi fundamental para a credibilidade do novo modelo de gestão. “A sociedade precisa ver para crer”.

Outra medida importante é o projeto de lixo reciclável. A primeira mudança foi conceitual. Os garis deixaram de ser considerados catadores de lixo para se transformarem em “agentes ambientais”. Hoje, com uma renda familiar mensal que pode chegar até a R$ 3 mil reais, são responsáveis pela coleta de 80 toneladas/mês de material reciclável. Enquanto no Brasil a média de reaproveitamento do lixo doméstico não chega a 20%, em Santa Helena passa de 80%, inclusive na zona rural do município.

E para que nada se perca no futuro, o projeto “Coletivo Educador” se encarrega de educar crianças e jovens em parceria com educadores nas escolas, por meio de redes sociais e uma web rádio que espalha informações. “Todas essas ações sincronizadas são parte do programa Cultivando Água Boa. Aqui, as pessoas aprenderam que preservar o meio ambiente, além de reconstruir a natureza, é uma ótima fonte de renda” afirmou Sotoriva. Em Santa Helena, os royalties se transformaram em energia social.

Parque tecnológico

O antigoALOJAMENTO de operários virou parque tecnológicoOutra medida nesse sentido foi a criação da Fundação Parque Tecnológico Itaipu. O objetivo do PTI é desenvolver e impulsionar projetos e programas voltados a distribuição de conhecimento científico e tecnológico e o desenvolvimento regional. A infraestrutura física estava montada. Durante a construção da hidrelétrica, quando cerca de 45 mil pessoas trabalharam diretamente na sua execução, foram erguidosALOJAMENTOS para abrigar 10 mil empregados solteiros que viviam sem suas famílias. Com o fim da obra, essa estrutura ficou sem uso.

A ideia foi aproveitar esse espaço somado a experiência técnica dos engenheiros e professores. “O projeto da Itaipu previa a demolição de toda essa área física. Para nossa sorte, essa área permaneceu intacta. Assim, transformamos os alojamentos em centros de pesquisa e universidades” lembra Samek.

Além da área física, a Itaipu forneceu equipamentos e laboratórios, disponibilizou professores com mestrado e doutorado e todo material necessário para seu funcionamento. Atualmente, estão alojados ao PTI a Universidade Estadual do Oeste do Paraná (UNOESTE); a Universidade Aberta do Brasil (UAB) e a Universidade Federal de Integração Latino-americana (UNILA). Entre alunos, professores e funcionários, são mais de 6.000 pessoas que usufruem diretamente de seus benefícios, sendo a metade estudantes.

Para Samek, o grande legado de Itaipu nesses últimos 12 anos é a somatória de ações técnicas com uma visãosocial capaz de solidificar um novo modelo gestão que traga benefícios diretos e imediatos a sociedade. “Gerar energia e distribuir royalties são importantes, mas a conscientização fundamentada em princípios e valores de sustentabilidades, aliada a uma nova cultura organizacional, é que fará diferença às novas gerações”.

A empresa quer fortalecer a preservação ambiental de seu entorno (foto: Kelsen Fernandes/ Fotos Públicas)

Revista Carta Capital

IDH revela como a desigualdade afeta o Brasil

Pobreza no Complexo da Maré, no Rio de Janeiro

Relatório do Pnud reafirma efeitos negativos da disparidade e levanta preocupação sobre prolongamento da crise


Fernando Frazão / Agência Brasil

O mais recente relatório do Índice de Desenvolvimento Humano (IDH) da ONU, divulgado nesta segunda-feira 14, voltou a mostrar de forma clara os efeitos negativos que a desigualdade social produz sobre o Brasil. Se a enorme disparidade entre as pessoas é levada em conta, o País perde uma parte significativa do desenvolvimento conquistado nas últimas décadas.

O IDH é produzido pelo programa das Nações Unidas para o Desenvolvimento (Pnud) e traz uma medida do avanço das sociedades com base em três componentes: expectativa de vida, educação e renda. O índice vai de zero a um, sendo a Noruega o país de maior IDH atualmente (0.944) e o Níger o 188º e último da lista (0.348).

Trata-se de um índice estrutural, no qual as mudanças devem ser, segundo o próprio Pnud, analisadas em período de longo prazo. Tal comparativo é positivo para o Brasil. Entre 1990 e 2014, o Brasil foi o país da América do Sul que mais avançou. Segundo Andrea Bolzon, coordenadora do Relatório de Desenvolvimento Humano no Brasil, em boa parte por conta de políticas públicas.

“O relatório reconhece esses programas de proteção social e de transferência de renda como importantes para aumentar o desenvolvimento humano. O desenvolvimento dos países tem acidentes de percurso e, se você tem uma rede de proteção social forte, obviamente as coisas ficam mais seguras para todo mundo”, afirmou Bolzon.


Mudanças ocorridas de um ano para o outro são, entretanto, menos representativas. Entre 2013 e 2014, o IDH do Brasil foi de 0,752 para 0,755, avanço pouco significativo estatisticamente, equivalente aos dos países que estão à frente no ranking geral.

A velocidade do avanço não foi maior por conta da primeira retração da Renda Nacional Bruta per capita registrada desde 1990, que caiu de 15.288 dólares em 2013 para 15.175 dólares em 2014. Como a expectativa de vida ao nascer e a média de anos de estudo cresceram no período (de 74.2 para 74.5 e de 7,4 para 7,7, respectivamente), o País teve avanço.

No ranking de 2014, o Brasil aparece em 75º lugar, uma posição atrás da verificada em 2013. A variação de posições é pouco relevante, no entanto, pois a diferença entre países com pontuação próxima é bem pequena, segundo o próprio Pnud.

O impacto da desigualdade fica expresso quando o IDH é ponderado pela desigualdade social, verificação que vem sendo feita pelo Pnud desde 2010. Nesta modalidade de análise não há um ranking comparativo entre os países porque nem todos têm dados suficientes disponíveis.



Andréa Bolzon, do Pnud, apresenta citações ao Brasil no relatório do Pnud, nesta segunda-feira 14, em Brasília

No caso do Brasil, a ponderação pela desigualdade faz o País perder 26,3% de seu IDH, que vai de 0,755 para 0,557. A queda é significativamente maior que a sofrida pela média dos países (19,4%) e mesmo que a sofrida pelos países latino-americanos (23,7%). É maior, também, que as experimentadas por México (22,4%) e Colômbia (24,7%), países latinos com populações que podem ser comparadas à brasileira.

A persistência da desigualdade e de seus efeitos negativos, aliados à expectativa de mais um ano de recessão em 2016, criam um cenário preocupante para o País. É possível que o prolongamento da crise atual afete o desenvolvimento humano brasileiro. "Quem sabe até onde vai essa crise? Ninguém sabe ainda. Pode afetar (o IDH), mas não se for uma crise de um ano ou dois (apenas). Nenhum país dorme numa posição e acorda na outra. É um processo mais lento", disse à BBC Brasil Bolzon, coordenadora do Relatório de Desenvolvimento Humano no Brasil.

"Se a economia se recupera desse ano para o próximo, vamos supor, a tendência é que não afete (o índice) porque não vai dar tempo de afetar a expectativa de vida das pessoas ou quanto as pessoas vão estudar", diz.

*Com informações da Agência Brasil
Revista Carta Capital

sexta-feira, 4 de dezembro de 2015

Cinco pontos para entender o Estado Islâmico, grupo que aterroriza Iraque e Síria

O grupo Estado Islâmico, antes chamado de Estado Islâmico no Iraque e na Síria (Isis), intensificou sua campanha de violência no Norte e Oeste do Iraqueem junho desse ano, quando conseguiu assumir o controle de Mossul, a segunda maior cidade do país. Desde então, os extremistas colecionam algumas conquistas importantes, como a tomada de vastos territórios iraquianos, a obtenção de armamento do Exército, e o controle de infraestruturas estratégicas. Diante disso, a organização é considerada uma ameaça não só ao país, mas também a outras áreas do Oriente Médio.



Surgimento

O Estado Islâmico no Iraque e na Síria (Isis) foi criado em 2013 e cresceu como um braço da organização terrorista al-Qaeda no Iraque. No entanto, no início deste ano, os dois grupos romperam os laços. No final de junho, os extremistas declararam um califado, mudaram de nome para o Estado Islâmico (EI) e anunciaram que iriam impor o monopólio de seu domínio pela força. O EI é hoje um dos principais grupos jihadistas, e analistas o consideram um dos mais perigosos do mundo.


Áreas de atuação

As atividades do EI se concentram no Iraque e na Síria, onde o grupo assumiu um papel dominante e possui forte presença. O recente controle de vastos territórios no Norte e Oeste do Iraque, além das áreas dominadas pelos curdos, ajudaria o grupo islâmico a consolidar seu domínio ao longo da fronteira com a Síria, onde luta contra o regime de Bashar al-Assad.


Liderança

Seu principal líder é Abu Bakr al-Baghdadi, apontado como um comandante de campo e tático e designado "califa de todos os muçulmanos". Aparentemente, ele se juntou à insurgência em 2003, logo após a invasão doIraque, liderada pelos Estados Unidos. Diante dos avanços do Estado Islâmico, ele pode em breve se tornar o jihadistamais influente do mundo.


Combatentes ocidentais

O Estado Islâmico conta com um vasto grupo de extremistas: entre 3 mil e 5 mil milicianos, muitos deles estrangeiros. Vídeos divulgados pelo grupo jihadista mostram britânicos que aderiam à causa islâmica e à luta armada. Os governos ocidentais temem que esses insurgentes possam voltar para seus países representando uma ameaça.


Ações cruéis

Nos conflitos nos quais participou, o grupo foi acusado de diversas atrocidades, como sequestros, assassinato de civis e torturas. A milícia é considerada extremamente agressiva e eficiente em combate. Após a tomada de Mossul, os EUA afirmaram que a queda da segunda maior cidade do Iraquerepresentava uma ameaça para toda a região. O avanço dos jihadistas levou os EUA a bombardearem alvos rebeldes.

Jornal O Globo

terça-feira, 1 de dezembro de 2015

O impacto da falta de chuva

 Alexandre Nascimento / Foto: Bruno Leite

Alexandre Nascimento é bacharel e mestre em meteorologia pela Universidade de São Paulo, com ampla experiência em matemática, física e estatística aplicada a estudos meteorológicos. Meteorologista na empresa Climatempo, é consultor para as áreas de inteligência de mercado nos segmentos de energia elétrica, produtos sazonais e agricultura, além de atuar com atendimento, suporte ao cliente e relações públicas. Ministra ainda cursos, conferências e locuções de rádio. Esta palestra, com o tema “Cenários do Futuro Climático e Impactos no Setor Comercial”, foi proferida no Conselho de Economia, Sociologia e Política da Fecomercio, Sesc e Senac de São Paulo, no dia 9 de outubro de 2014.

Vou trazer um pouco da visão da Climatempo, do que está acontecendo e o que vem pela frente, ou seja, qual o impacto da situação climática nos próximos meses, uma vez que o ponto de partida é muito ruim, em relação principalmente aos reservatórios e sob o ponto de vista energético.

Para falar de clima, o primeiro passo é entender como está a condição oceânica, sob diversos aspectos. Um deles é a situação do Pacífico, um oceano fantástico, tanto em extensão horizontal quanto em profundidade. Fenômenos como El Niño e La Niña são transferidos para a atmosfera, provocando mudanças atmosféricas no globo. Há uma definição não formal que diz o seguinte: quando temos El Niño ou La Niña, sabemos se vai chover de mais ou de menos no sul e no nordeste. Mas o tamanho do copo de água quem define é o Atlântico, que em grande parte da região está muito próximo da neutralidade. Em 2013 tivemos uma situação inédita de não chuva durante o verão. Independentemente do Pacífico, foi uma condição puramente do Atlântico. Então estamos com a água um pouco mais quente do que o normal.

O que esperar para o final de 2014? O sul do Brasil tem um sinal positivo de chuva e o nordeste será mais seco. O sudeste, que talvez seja o foco no momento, o coração econômico do país, principalmente nas matrizes energéticas, tem característica quente. O que isso quer dizer em relação à chuva? Quer dizer que chove, mas nem mais nem menos que o normal. Numa situação mais quente do que a normalidade há chance de termos chuvas em forma de pancadas de verão, que trazem problema para as grandes cidades e não são as melhores chuvas para encher os reservatórios.

No Brasil, o próximo trimestre será mais úmido no sul, mais seco no nordeste e na bacia do Tocantins e mais quente do que o normal no sudeste. Muito se fala recentemente numa tal oscilação decadal do Pacífico. É uma questão muito técnica e no curto prazo não se tem uma resposta, então vamos investigar mais no longo prazo. Uma das várias frentes de pesquisa diz que o problema na América do Sul de forma geral (e deve ser um problema também em outras localidades do mundo) está diretamente relacionado à oscilação decadal do Pacífico. Isso significa que em alguns momentos esse oceano fica mais frio ou mais quente do que o normal e isso dura mais ou menos um período de dez anos.

Na década de 1950, por exemplo, houve a primeira grande crise hídrica, também chamada crise energética na época. Passamos quatro anos com pouquíssima chuva. Na situação atual, não é um sinal tão longo, mas é um sinal de mais frio do que o normal. Mesmo na presença de um possível El Niño, muito provavelmente no ano de 2015, haverá chuva para a agricultura, para a subsistência do país, mas não para resolver o problema dos reservatórios, principalmente do sudeste e nordeste.

Em grande parte do Brasil chove, mas o solo continua extremamente seco. Vejam o exemplo de um pedaço de argila, que tem grande capacidade de reter água. Se a deixamos ao sol sem umidade durante um bom tempo, ela vai ressecando, ressecando e teremos de molhá-la bastante para que volte a ser a argila que era. Então, mesmo com as primeiras pancadas de chuva, o solo está ressecado em Minas Gerais e em boa parte de Goiás, a grande caixa-d’água energética do país. Ao longo do rio São Francisco não choveu praticamente em nenhuma região.

Abaixo da média

Janeiro é o mês mais importante de chuvas para o sudeste, porque é o volume de água maior de todos na região. São Paulo, centro-sul do estado de Minas Gerais, Rio de Janeiro, sul de Goiás, Mato Grosso e o norte do Paraná com chuva acima do normal. Então em dezembro deve haver uma boa compensação para essa não chuva, mas não o suficiente para reverter por completo o quadro de estiagem. Mais uma vez, todo o médio e o baixo São Francisco com chuva inferior à média. O Tocantins com chuva abaixo do normal e o sul com chuva próxima à normalidade, com a exceção do extremo sul gaúcho. Em praticamente toda a bacia do rio Grande e em boa parte da bacia do Paranaíba deixou de chover 300 milímetros na região. Em relação à temperatura, um sinal sempre positivo, que é uma das características de El Niño. O ano passado também já foi bastante quente. Depois de um janeiro extremamente úmido, possivelmente esperava-se que fevereiro também fosse úmido no sudeste, mas a chuva se espalha em outras áreas do país e nós temos uma compensação negativa em relação ao que foi positivo no mês passado. Essa é uma característica de El Niño no sudeste: quente.

Em relação à chuva no trimestre é normal. Então, se chove demais num mês, existe uma compensação negativa no outro mês, de tal forma que o trimestre fique dentro da normalidade. Nós teremos, depois de meses consecutivos, uma chuva acima da média no nordeste do Brasil, no Tocantins e também no norte de Mato Grosso. Em fevereiro desse ano a chuva continuou muito abaixo do normal. Em relação à temperatura, sempre foi mais quente do que o normal. Em março a chuva acaba. Uma das características de El Niño: a chuva no Brasil central volta na hora certa, mas a chance de ela parar antes do normal é bastante grande. Eu não gosto muito dessa afirmação, mas tenho de me render a ela. Não gosto porque, para fazer essa estatística e chegar a essa conclusão, o horizonte é muito pequeno em relação a ocorrências do fenômeno, mas toda vez que acontece terminamos observando e os modelos estão indicando que possivelmente a chuva pare ou diminua muito sobre o Brasil central, a partir de março. Em relação à temperatura, para de chover e esquenta. Fica até muito mais quente do que no mês de março de 2014.

Copo vazio

Poderíamos pensar que a chuva que não veio virá depois. Os modelos não indicam isso sobre o sudeste e no sul grande parte do tempo é sempre com chuva acima da média. Em relação à temperatura, em boa parte do Brasil, com a exceção do mês de maio, é sempre mais quente do que o normal. De forma geral, pergunta-se se a chuva que está sendo esperada para o sudeste é ruim, como no ano passado. A resposta é não. Mas será suficiente? Também não, principalmente em relação aos reservatórios, porque estamos partindo de uma situação igual a um copo vazio. É preciso primeiro molhar o solo para depois começar a pensar em armazenar a água. Essa condição realmente é muito preocupante. Se pensarmos em reservatórios, de forma geral no sudeste, saímos do mês de março de 2013 com o nível dos reservatórios mais ou menos compatível com a época. Em seguida o nível caiu, lentamente, porque tínhamos um racionamento de energia. Em 2014 tivemos sorte, pois choveu um pouco entre março e abril. Os níveis dos reservatórios do sudeste subiram e foram caindo, aos poucos, porque em maio, junho e julho choveu muito no sul. Em julho e agosto choveu bastante e se utilizou a geração energética do norte, poupando os reservatórios do sudeste e aproveitando outros subsistemas para atender ao mercado, além das térmicas.

Estamos basicamente há um ano e meio com chuva abaixo do normal. No subsistema Paranaíba temos em torno de 20% da capacidade total, sendo que algumas represas, como a de Furnas, estão abaixo disso. Em Furnas até reapareceu uma cidade alagada 30 anos atrás. Na sub-bacia do Paranaíba, que fica entre a região do Triângulo Mineiro e o sul de Goiás, a situação também é bastante semelhante, 21,5%, e possui uma representatividade um pouco maior do que a da sub-bacia do rio Grande. Na bacia do São Francisco, com a exceção de dezembro de 2013, a situação está muito ruim mesmo. O que salvou um pouquinho foi a chuva em Três Marias, que fica dentro do estado de Minas Gerais, bem no meio do estado, mas na região do médio e baixo São Francisco a situação está muito ruim.

O reservatório de Sobradinho hoje está em 18,8%. O problema do Sistema Cantareira é mais ou menos semelhante ao da bacia do rio Grande. Se chover 100% daqui até abril, o que acho que não vai ocorrer, na melhor das hipóteses vai recuperar 40%. Então, com toda a sorte do mundo, sairemos do verão muito pior, por vários motivos. Primeiro, não vai chover 100%. Segundo, estamos com um horizonte de temperaturas mais altas do que o normal. Terceiro, nunca se usou o volume morto ou a reserva técnica. Ninguém sabe o que pode acontecer com isso. Desconfiamos que vai ter de chover mais do que a normalidade para umedecer o solo, para depois essa água começar a aparecer na superfície.

Debate

PAULO NATHANAEL PEREIRA DE SOUZA– Tenho uma dúvida a respeito do papel dos chamados aquíferos, esses continentes líquidos no subsolo. Como poderiam atuar como parte da solução para uma eventual seca genérica, sobretudo no sudeste?

ALEXANDRE – Em princípio seria uma grande fonte de umidade, que poderíamos extrair para compensar a falta de chuva. Não sei até que ponto existem pesquisas em relação a isso. Uma preocupação é que essa água está como que dentro de uma esponja, matéria porosa. Então, se retirássemos essa água, qual seria o efeito? A cidade poderia desabar? Mas é uma fonte que poderíamos estudar, os radares que enxergam o subsolo poderiam extrair essa informação.

NATHANAEL – Outra questão: a transposição de águas do São Francisco terá viabilidade?

ALEXANDRE – Hoje no rio São Francisco, coitado, não há o que transpor. Sua vazão há muito tempo está entre 40% e 50% do normal. Com 40%, penso que hoje é uma obra completamente inviável. Enfim, boa parte desse trabalho já foi executada. Mas vai transpor o quê?

NEY FIGUEIREDO – Na campanha para o governo de São Paulo o problema hídrico foi muito explorado e a oposição dizia que o uso do volume morto seria criminoso, porque essa água não seria de boa qualidade. A questão é saber se a água que está sendo retirada do volume morto é de boa qualidade e pode ser consumida. Segundo, se esse processo tecnológico é normal e não vai comprometer o futuro. O governador diz que essa foi a maior crise de chuvas dos últimos 70 anos. A Climatempo confirma isso? Em terceiro lugar, queria saber se nossos vizinhos da costa atlântica estão com o mesmo problema.

ALEXANDRE – Em relação à crise, nunca tinha visto algo semelhante. Foi uma situação inédita, mas num horizonte de 70 anos. Existem relatos de que já aconteceu isso na década de 1950, situação que talvez não tenha sido tão preocupante, porque eram outros tempos.
Não sou tão ambientalista, mas onde vamos construir outros reservatórios na Grande São Paulo? Impossível. Precisamos de alternativas, isso já deveria ter sido pensado. Nenhuma obra vai nos salvar neste momento, porque a construção leva no mínimo um ano ou um ano e meio.

NEY FIGUEIREDO – E a qualidade da água do volume morto?

NEY PRADO – Sem prejuízo das suas perguntas, quero fazer a defesa da Sabesp. Qualquer investimento para o futuro, não havendo fundamento histórico, em não acontecendo a seca seria um investimento totalmente improdutivo.

ALEXANDRE – Discordo. Não tivemos uma situação tão crítica, mas o consumo hoje é muito maior, de tal forma que a compensação justificaria o investimento. Em relação à qualidade da água, talvez a palavra volume morto tenha assustado bastante. Poderiam falar em reserva técnica. Na realidade, trata-se de uma água naturalmente mais barrenta. Nada mais é do que o nível onde o cano não consegue levar a água por gravidade para o próximo reservatório, então colocam bombas. Ao puxar a água, que já é mais barrenta, provoca-se um turbilhão que deixa o líquido ainda mais barrento.

EDUARDO SILVA – Sempre ouvi que tratar o esgoto era de uma responsabilidade tão grande quanto abastecer de água potável. Nunca mais se falou nisso, a não ser nos últimos anos. O esgoto também muda o clima, com consequências sérias. Será possível que nunca se pensou nas coisas fundamentais? Agora não adianta chorar, está tudo pavimentado, não temos mais garoa nem chuva suficiente. Tudo isso é consequência de algo muito visível, não é invenção de ninguém.

ALEXANDRE – Por que o brasileiro desperdiça água? Porque pensa que é um bem durável, entre aspas, pois estamos vendo que não é tão durável assim. E a água é muito barata, devido ao fato de que em qualquer lugar que se fure ela aparece.

JOSÉ ROBERTO FARIA LIMA – Quanto de água é realmente para o uso humano? Não é mais gasta na agricultura e na indústria?

ALEXANDRE – Sem dúvida. Uma vez me disseram: num feriado ou num domingo, principalmente, o consumo de água diminui em torno de 30% a 40%, na cidade de São Paulo. Isso significa que o grande vilão é a indústria, com seu consumo, seus inúmeros vasos sanitários, enquanto em nossa casa se usa um ou dois.

ÁLVARO MORTARI – Nos edifícios e casas também se usa muito a válvula Hydra, que desperdiça água. E não vejo o governo procurando criar novas regras para evitar isso nem uma conscientização da população. No Oriente, em Dubai, por exemplo, não existe água potável suficiente e é utilizada a água do mar. Pergunto: na eventualidade de passarmos por uma crise muito grande, como está sendo esperada, haveria condições de empregar equipamentos para tornar a água do mar potável? Outra questão: como seria a utilização daquele gelo que se joga nas nuvens para provocar a precipitação da chuva? Existe alguma tecnologia mais moderna?

ALEXANDRE – Quanto ao aproveitamento da água do mar, acredito que sim. Em relação ao bombardeamento das nuvens, hoje em dia jogam sais e a nuvem cresce. Isso é veiculado como se fosse a salvação para aquela região, mas o resultado são minutos de chuva. Fazer isso numa fazenda é plausível e vai resolver o problema do produtor. Mas não numa crise hídrica como a de São Paulo.

PAULO NATHANAEL – Quem desenvolveu a tecnologia de bombardeio de nuvem no Brasil foi um físico chamado Frederico de Marco, que também era médico. Morava em Araraquara, onde a Faculdade de Filosofia tem seu nome. A intenção dele era trazer uma solução local para fazendas. É impossível pensar nisso em termos macro.

NEY PRADO – E a solução local através dos poços?

ALEXANDRE – Localmente também é uma boa saída. Aliás, muitos prédios em São Paulo já usam. Voltando à questão das válvulas de descarga, temos de nos reeducar, inclusive pensando em reúso. Num primeiro momento, trocar por um sistema mais inteligente e econômico é uma saída. Mas temos de pensar no reúso da água. Muita gente toma banho de uma hora, duas vezes por dia. Por que não reutilizar a água no vaso sanitário, no quintal, no pátio de uma escola?

JOSEF BARAT – Há controvérsias quanto à mudança climática em escala global. No entanto, quando os efeitos são locais é muito clara a definição das causas, como a impermeabilização, ocupação predatória, devastação de florestas. Isso é bem perceptível. O que considero estranho é que, quando se fala em política ambiental, entra-se na questão da mudança climática em termos globais, mas não se tem algo direcionado para grandes metrópoles como São Paulo, onde isso é mais perceptível. Há a questão, obviamente, de educação ambiental, mas ela deveria ser feita para os dirigentes. É possível caminhar para uma organização urbana menos predatória, mais capaz de conservar os recursos hídricos?

ALEXANDRE – São Paulo não tem como voltar atrás. Nos últimos 15 anos, por exemplo, a mata avançava pelo estado de Mato Grosso, hoje a floresta é de soja. Esse é um exemplo de que muita coisa precisa mudar e não é com educação ambiental para crianças, mas de cima para baixo. Olhando a história mais recente do Brasil e tentando projetar no futuro, não vejo solução.

BARAT – O discurso ambientalista se tornou muito abstrato, um modismo que explica os 20% de votos dados a Marina Silva, em 2014. Uma razão antropogênica para o aquecimento global ainda é objeto de dúvidas, mas há a certeza de que esse tipo de ocupação urbana acaba com o potencial hídrico do país. No entanto, ninguém fala disso, as prefeituras das regiões metropolitanas não se manifestam e há até conflitos sérios, como no caso do rio Tietê, onde o município de Guarulhos, ao lado de São Paulo, joga seu esgoto, já que não dispõe de rede. Não há nenhum tipo de coordenação.

ALEXANDRE – A política ambiental tem de sair do papel e dos bate-papos informais. Imagine São Paulo sem água para abastecer as indústrias. Elas vão sair de São Paulo. A população ainda compra água, mas a indústria não pode comprar garrafinha para manter a máquina funcionando.

NEY PRADO – Estamos todos lamentando esta fase crítica, mas ela é extremamente valiosa. Num país que não planeja a médio nem a longo prazo, a falta do produto faz com que se mude o comportamento em relação ao valor da água. Há também a questão do preço. Na medida em que o custo sobe, o consumidor vai poupar as suas reservas. Tenho uma visão otimista do problema brasileiro. Precisamos ensinar e ao mesmo tempo criar normas punitivas para que o indivíduo sinta na pele o desejo e a necessidade de poupar seus recursos.

FARIA LIMA – O homem faz as coisas por três motivos: amor, temor ou convicção. O problema é a falta de perspectiva e de visão dos nossos governantes. Um país que tem uma matriz energética basicamente hídrica precisa assumir essas preocupações.
Pergunto se você já tem participado de algum tipo de organização para discutir essa temática mais profundamente. Dizem que as placas tectônicas, que estão se chocando no Japão, provocam uma modificação do eixo da Terra e com isso está havendo uma mudança no clima. Países mais desenvolvidos já estudam a possibilidade de utilizar áreas do Ártico para fazer plantações. Os Estados Unidos, depois do que aconteceu com o Katrina e com Nova York, já estão se preocupando com todas as suas cidades litorâneas. No Brasil, a não ser Eduardo Jorge, ninguém mais fala sobre o assunto.

ALEXANDRE – Existem várias linhas de pesquisas, algumas delas sobre o ciclo de tempestades solares. Estamos passando por um nível máximo dessas tempestades e isso interfere na formação das nuvens em algumas áreas do globo terrestre, inclusive na América do Sul. Outra linha fala sobre a mudança do eixo magnético da Terra. Mas nesse tipo de discussão sou apenas espectador.
O processo de mudança ocorre em todos os planetas, astros e estrelas. Uma vez nascido um planeta, ele começa a morrer, assim como nós. Os efeitos já podem ser observados, o que se discute é a velocidade. Não sou especialista no assunto, mas creio que existem os efeitos. Por exemplo, desmatar a Amazônia contribui para o aquecimento. Se modificarmos uma corrente atmosférica, por algum motivo, a própria atmosfera vai restabelecer o equilíbrio. Deixando o clima mais instável, então chove para resfriar uma área que aqueceu muito, isso é reequilíbrio atmosférico. Se não chover sistematicamente sobre uma região não quer dizer que ela vai ficar cada vez mais seca, existe uma compensação atmosférica. Agora, os paulistanos devem esperar essa compensação atmosférica? Não, temos de recorrer à inteligência para achar uma solução.

MARIA PAULA PUGLISI – Trabalho no Conselho de Desenvolvimento Local da Fecomercio, que visa o aumento da participação da comunidade nas políticas públicas. Acreditamos em mudança comportamental, em especial na ponta do consumo, ainda que a comunidade não tenha o uso tão efetivo da água. No bairro da Bela Vista há uma ocupação de cortiços com o uso da água totalmente descontrolado. Não estou recriminando, porque a comunidade tem necessidades imediatas de sobrevivência. A impressão que tenho é que a falta de informação é o grande influenciador. Minha fala é no sentido de que havendo mudança comportamental, somada a descobertas tecnológicas, a pressão política positiva e a responsabilidade política, o contexto vai mudar ao longo do tempo.

NEY FIGUEIREDO – O senhor dá alguma importância às previsões feitas pela Fundação Cacique Cobra Coral, que foi contratada por vários governos?

ALEXANDRE – Não, em alguns momentos tenho vergonha de ser brasileiro. Um governante contratar um espírito não é uma coisa séria.

NEY FIGUEIREDO – O pior é que às vezes ele acerta. No Rio acertou, tinha previsto aquele desmoronamento em Petrópolis e depois cobraram do governo por não ter ouvido a Cacique Coral.

ALEXANDRE – Após o ocorrido, eles vêm a público dizendo que acertaram e só aconteceu porque não contrataram. Já ouvi várias vezes isso.

PAULO LUDMER – Sobre esse assunto, há três vertentes. Uma delas é o clima, sobre o qual não se pode fazer muita coisa, a outra são as obras e a última, o mercado ou o consumo. Minha sensação, considerando que se trata da Climatempo, é a seguinte: vamos começar o ano de 2015 com a agricultura mediocremente atendida, mas atendida em termos de água, vamos estar com algumas bacias em péssima situação e vamos ter um atraso nas chuvas de 2015 para 2016. Confirma isso?

ALEXANDRE – Sim.

LUDMER – Portanto, temos um drama agudo e real, que é começar mal o ano e ainda sofrer com o atraso das chuvas. É uma situação muito dramática e gostaria de ouvir um pouco mais a respeito.

ALEXANDRE – Fui convidado a fazer uma palestra sob o ponto de vista energético no começo de 2012 e o assunto era uma previsão para 2016. A primeira pergunta foi para definir esse horizonte. Falei: preocupação. Nossa perspectiva lá atrás era de chuva abaixo da normalidade e calor em excesso. Uma das nossas expectativas era de que chovesse menos do que o normal. Só para que os senhores saibam, nós vendemos previsão, não acerto. Então previmos que choveria menos que o normal e choveu muito menos do que previmos.
Existe um problema climático? Sim. Ele já foi pensado? Obviamente que não. Foi apontado? Sim. A solução tem de ser emergencial. Hoje o mais emergencial seria trazer o rio Paraíba do Sul para dentro do Sistema Cantareira. Mas aí há uma briga política entre estados. Além disso, a obra demoraria 18 meses e estamos sofrendo para amanhã. Imaginem se não tivermos água em Furnas. Se a indústria tiver água para utilizar, de onde virá a energia?

LUDMER – Para desmineralizar a água do mar, ou seja, torná-la utilizável, a Austrália usa usinas a carvão. O fato é que a crise da água agrava a crise da energia e as duas agravam a crise da inflação.

JOÃO TOMAS DO AMARAL – O céu fala, a gente entende, mas o grosso da população ignora. A questão da água não é nova, há muito tempo alguns grandes conglomerados internacionais foram adquirindo minas, fontes de água em várias localidades do mundo para vender. Por outro lado, vender previsão, utilizar modelos estatísticos e de matemática aplicada são tentativas de observar o fenômeno e tentar trazer para o âmbito da matemática uma explicação com a ideia de planejar num país que tem poucos históricos sobre planejamento de ações.
Ney Figueiredo comentou a questão da qualidade da água e o palestrante afirmou que não há problema em mexer na reserva técnica. Comentando com um amigo da universidade, especialista em hidráulica e hidrologia, ele disse que temos materiais pesados nessa água. Não conseguimos extraí-los. Esse é um problema talvez menor para os mais velhos, mas maior para os jovens, porque esse material fica depositado no organismo.
Alguém comentou sobre o custo da água e se falou que nossa água é barata. Infelizmente não é. É uma das mais caras do mundo, como ocorre na telefonia e na energia elétrica. Pagamos caro até porque temos de suportar as perdas físicas e financeiras. A Sabesp não consegue controlar isso.
O professor Nathanael falou sobre os aquíferos. Mas pouca gente discute a contaminação desses aquíferos, proveniente do mau trato do lixo. Por outro lado, em algumas regiões do estado de São Paulo o lençol freático está muito próximo, lembrando que a capital é pulverizada por vários córregos, que foram muito mal administrados pela prefeitura da cidade e alguns até canalizados.

ALEXANDRE – Falamos muito em educação e reeducação. Num país onde há tantos miseráveis de cultura, não só de dinheiro, ouvimos dos governantes que está tudo certo e precisamos consumir. Resultado: em 2013 batemos o recorde de vendas de aparelhos de ar-condicionado. O que é utilizar ar-condicionado? É acabar ainda mais com o meio ambiente e usar um recurso que está em falta, a energia elétrica. 
 Revista Problemas Brasileiros

quarta-feira, 18 de novembro de 2015

As origens climáticas dos conflitos


Impossibilitados de negar os efeitos da atividade humana sobre o clima, os líderes mundiais vão se encontrar no fim do ano em Paris para a Conferência das Nações Unidas sobre o Clima (COP21). Mas eles levarão em conta toda a extensão do problema? E se uma safra ruim na China tiver atiçado a Primavera Árabe?

por Agnès Sinaï



Entre 2006 e 2011, a Síria conheceu a mais longa seca e a maior perda de colheitas registrada desde as primeiras civilizações do Crescente Fértil, região que compreende, além de um trecho do país de Bashar al-Assad, Israel, Jordânia, Líbano e partes do Egito, do Irã, do Iraque, da Turquia. No total, dos 22 milhões de habitantes que contava então o país, quase 1,5 milhão foram atingidos pela desertificação,1 o que provocou migrações maciças de agricultores, pastores e famílias rurais para as cidades.2 Esse êxodo intensificou as tensões provocadas pelo afluxo de refugiados iraquianos que se seguiu à invasão norte-americana de 2003. Durante décadas, o regime de Al-Assad negligenciou os recursos do país, subvencionou culturas de trigo e de algodão que necessitam de muita água e encorajou técnicas de irrigação ineficientes. O esgotamento da terra pelo gado e o crescimento demográfico reforçaram o processo. Os recursos hídricos caíram pela metade entre 2002 e 2008.

A degradação do sistema agrícola sírio resulta de um complexo jogo de fatores que incluem mudanças climáticas, má gestão dos recursos naturais e dinâmica demográfica. Essa “combinação de transformações econômicas, sociais, climáticas e ambientais erodiu o contrato social entre os cidadãos e o governo, catalisou os movimentos de oposição e degradou irreversivelmente a legitimidade do poder de Al-Assad”, avaliam Francesco Femia e Caitlin Werrel, do Centro para o Clima e a Segurança. Segundo eles, a emergência da organização Estado Islâmico e sua expansão na Síria e no Iraque resultam em parte da seca.3 E esta não é consequência apenas da variação natural do clima. Trata-se de uma anomalia: “A mudança do regime das precipitações na Síria está relacionada à elevação do nível médio do mar no leste do Mediterrâneo, unida à queda de umidade do solo. Nenhuma causa natural aparece nessas tendências, enquanto a seca e o aquecimento reforçam os modelos resultantes da elevação dos gases do efeito estufa”, estima a revista da Academia das Ciências Americanas.4

No leste da China, durante o inverno de 2010-2011, a ausência de precipitações e as tempestades de areia, que levaram o governo de Wen Jiabao a lançar mísseis na esperança de provocar chuvas, tiveram repercussões em cascata, bem além das fronteiras do país. A perda de colheitas, de fato, obrigou Pequim a comprar trigo no mercado internacional. A alta repentina mundial que se seguiu alimentou o descontentamento popular no Egito, principal importador mundial de trigo, cujas famílias dedicam normalmente um terço de sua renda à alimentação. O aumento do preço do trigo, que dobrou, passando de US$ 157 em junho de 2010 para US$ 326 em fevereiro de 2011, foi fortemente sentido no país. O preço do pão triplicou, o que alimentou o descontentamento popular contra o regime autoritário do então presidente Hosni Mubarak.5

Enxofre para refrescar o planeta

No mesmo período, as colheitas de trigo, soja e milho do Hemisfério Sul foram atingidas pelo La Niña, um evento climático severo que provocou uma seca na Argentina e chuvas torrenciais na Austrália. Em um artigo da revista Nature, Solomon Hsiang, Kyle Meng e Mark Cane estabeleceram uma correlação entre as guerras civis e o fenômeno El Niño, que, com um ciclo que varia de três a sete anos, provoca uma acumulação de águas quentes ao longo das costas do Equador e do Peru, e o enfraquecimento dos ventos alísios do Pacífico, associados a importantes mudanças meteorológicas em escala mundial.6 Para Hsiang e seus colegas, a probabilidade de conflitos civis dobra durante o El Niño. É a primeira demonstração de que a estabilidade das sociedades modernas depende muito do clima global.

A mudança climática tornou-se um “multiplicador de ameaças” e modifica o curso das relações internacionais. À hard securityherdada da Guerra Fria sucede a natural security, conceito forjado pelos militares norte-americanos reunidos no seio do Center for a New American Security. Esse think tankfoi criado em 2007 para fazer frente ao ceticismo climático dos neoconservadores e identificar as ameaças globais emergentes.7

As origens da insegurança ambiental não podem mais se resumir a elementos meramente exógenos e naturais como erupções vulcânicas, tsunamis ou terremotos. As atividades humanas, a aceleração dos ciclos produtivos e sua globalização concorrem para desestabilizar o clima. O neologismo “Antropoceno” designa essa marca desmedida das sociedades industriais sobre o sistema terrestre.

No Ártico, onde os glaciais poderão derreter completamente até o final deste século e os efeitos do aquecimento global são duas vezes mais intensos que em outras regiões, a reivindicação de novas fronteiras terrestres e marítimas reaviva as tensões entre países circumpolares.8 A Rússia, que explora o Ártico há séculos, é a única nação que possui uma frota de quebra-gelos nucleares. Um modelo gigante, em fase de construção nos estaleiros de São Petersburgo, ficará pronto em 2017.9 Moscou renova também sua frota de submarinos ultrassilenciosos de quarta geração, lançadores de mísseis com ogivas nucleares. Do lado norte-americano, a abertura do Ártico significa ao mesmo tempo uma oportunidade comercial com a Ásia e uma possibilidade de garantir novos recursos energéticos.10

O degelo do Ártico impõe seus efeitos sistêmicos. A variação do vórtice polar, corrente de ar glacial do Polo Norte, explica o frio intenso que se abateu sobre a América do Norte no decorrer do inverno de 2013-2014. “A interação entre o Ártico e o aquecimento global é algo novo na história humana, porque ela transforma o encontro entre geografia e geofísica nessa região em um poder novo e estranho, de natureza geofísica, que chamamos de ‘poder ambiental do Ártico’. Este se exerce em escala planetária com graves consequências”, observa o especialista em estratégia militar Jean-Michel Valantin.11 Contudo, o último relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC) observa que não há teoria consolidada que permita afirmar a ocorrência de conflitos armados no Polo Norte. O degelo permitirá validar ou não a robusteza das instituições de cooperação transfronteiriças circumpolares, como o Conselho do Ártico. As causalidades se revelam complexas, instáveis e evolutivas; os efeitos do aquecimento pesam mais ou menos sobre as sociedades em função da resiliência dos sistemas políticos, econômicos e sociais vigentes.12

Em seu livro Climate Wars, a jornalista Gwynne Dyer descreve um mundo onde o aquecimento se acelera e os refugiados, famintos em consequência da seca, expulsos pela elevação do nível dos oceanos, tentam alcançar o Hemisfério Norte, enquanto os últimos países autossuficientes em alimentos, aqueles das latitudes mais altas, devem se defender, inclusive recorrendo a armas nucleares, de vizinhos cada vez mais agressivos: os do sul da Europa e das margens do Mediterrâneo, transformados em deserto.13

Diante do que alguns cientistas chamam de uma “grande ruptura climática de origem humana” (anthropogenic climate disruption), a geoengenharia, isto é, a intervenção deliberada para reverter o aquecimento global, tenta controlar o clima.14 Ela consiste em um conjunto de técnicas que visam retirar uma parte dos excedentes de carbono da atmosfera (carbon dioxyde removal) e regular as radiações solares (solar radiation management), correndo o risco de uma grande desestabilização das sociedades e dos ecossistemas. Um exemplo é a pulverização de enxofre em uma camada suficientemente espessa da atmosfera para gerar um efeito óptico de obstáculo à radiação solar e, desse modo, resfriar o planeta. Mas a observação das erupções vulcânicas leva os climatologistas a constatar que, se as partículas de enxofre colaboram para resfriar a atmosfera, elas contribuem também para secas regionais e podem reduzir a produção de painéis solares, levar à degradação da camada de ozônio e enfraquecer o ciclo hidrogeológico global. “Além disso, sem acordos internacionais definindo como e em que proporções utilizar a geoengenharia, as técnicas de gestão da radiação solar representam um risco geopolítico. Como o custo dessa tecnologia é estimado em dezenas de bilhões de dólares por ano, ele poderia ser assumido por atores não estatais ou por pequenos Estados agindo por conta própria, contribuindo para conflitos globais ou regionais”, adverte o último relatório do IPCC.15

As mudanças climáticas não criam apenas motivos suplementares para conflitos violentos, mas também novas formas de guerras, observa o psicossociólogo Harald Welzer. A violência extrema desses conflitos excede o âmbito das teorias clássicas e “instaura espaços de ação para os quais nenhum quadro referencial é fornecido por experiências vividas no mundo bastante pacífico do Hemisfério Ocidental desde a Segunda Guerra Mundial”.16 Combates assimétricos entre populações e senhores da guerra a serviço de grandes grupos privados se misturam no seio dos mercados da violência, amplificados pelo aquecimento climático. O conflito de Darfur, no Sudão, que perdura desde 1987, é emblemático dessa dinâmica autodestrutiva agravada pela fragilidade dos Estados. No norte da Nigéria, a degradação das terras perturbou os modos de vida agrícolas e pastoris e interfere nas rotas migratórias. Centenas de vilarejos foram abandonados e as migrações resultantes contribuíram para desestabilizar a região, deixando o caminho livre para o movimento islâmico Boko Haram.

O último relatório do IPCC define a noção de “risco composto” (compound risk), que vê convergir impactos múltiplos em uma área geográfica específica: “Como a temperatura média do globo pode subir de 2 °C a 4 °C entre os anos 2000 e 2050, há um potencial para grandes modificações nos esquemas de violência interpessoal, conflitos de grupo e instabilidade social no futuro, todos em igual proporção”.17


Metade das guerras daqui até 2030

O pesquisador Marshall B. Burke, da Universidade de Berkeley na Califórnia, e seus coautores antecipam um crescimento dos conflitos armados em 54% entre hoje e 2030. Seu estudo propõe a primeira avaliação em conjunto de impactos da mudança climática sobre as guerras na África subsaariana. Ela revela a relação entre guerra civil, aumento das temperaturas e queda das precipitações extrapolando as projeções medianas de emissões de gases do efeito estufa do IPCC para essas regiões entre 2020 e 2039.18

O afluxo de refugiados às portas da ilha de prosperidade que é a Europa poderia perseverar e se acentuar no decorrer do século XXI. “Há, hoje, tantas pessoas deslocadas no mundo por causa de degradações ambientais quanto por causa de guerras e violência”, avalia François Gemenne, pesquisador do Instituto de Desenvolvimento Sustentável e das Relações Internacionais (Iddri), da França.19 Esses migrantes fogem das guerras que ocorrem longe do Ocidente. Este, a despeito de sua responsabilidade histórica no aquecimento global, reluta em lhes reconhecer um status: “Rejeitar o termo ‘refugiado climático’ equivale a rejeitar o fato de que as mudanças climáticas sejam uma forma de perseguição contra os mais vulneráveis”, completa Gemenne. Estas são as vítimas de um processo de transformação da Terra que é mais poderoso que elas.

Agnès Sinaï é jornalista e coordenador do Atlas do meio ambiente de Le Monde Diplomatique.

Ilustração: Mohamed Nureldin Abdallah/Reuters

1 “Syria: Drought driving farmers to the cities” [Síria: seca leva agricultores às cidades], IRIN News, 2 set. 2009. Disponível em: .

2 Gary Nabhan, “Drought drives Middle Eastern pepper farmers out of business, threatens prized heirloom chilies” [Seca leva cultivadores de pimenta do Oriente Médio à falência, ameaçam cultivo de pimentões premiados], Grist.org, 16 jan. 2010.

3 “The Arab Spring and climate change” [A Primavera Árabe e a mudança climática], The Center for Climate and Security, Washington, fev. 2013.

4 Proceedings of the National Academy of Sciences of the United States of America (PNAS), v.112, n.11, Washington, 17 mar. 2015.

5 Cf. Troy Sternberg, “Chinese drought, bread and the Arab Spring” [Seca chinesa, pão e a Primavera Árabe], Applied Geography, v.34, Amsterdã, maio 2012; Krista Mahr, “Bread is life: food and protest in Egypt” [Pão é vida: comida e protesto no Egito], Time, Nova York, 31 jan. 2011.

6 Solomon M. Hsiang, Kyle C. Meng e Mark A. Cane, “Civil conflicts are associated with the global climate” [Conflitos civis são associados com o clima global], Nature, n.476 (7361), Londres, 25 ago. 2011.

7 Cf. Jean-Michel Valantin, Guerre et nature. L’Amérique se prépare à la guerre du climat[Guerra e natureza. A América se prepara para a guerra do clima], Éditions Prisma, Gennevilliers, 2013.

8 Ler Gilles Lapouge, “Fascination pour les pôles” [Fascínio pelos polos], Le Monde diplomatique, dez. 2010.

9 “Russia lays down world’s largest icebreaker” [Rússia constrói maior quebra-gelo do mundo], Russia Today, 5 nov. 2013. Disponível em: .

10 “National strategy for the Arctic region” [Estratégia nacional para a região do Ártico], Casa Branca, Washington, 10 maio 2013. Disponível em: .

11 Jean-Michel Valantin, “The warming Arctic, a hyper strategic analysis” [O Ártico em aquecimento, uma análise hiperestratégica], The Red (Team) Analysis Society, 20 jan. 2014.

12 Intergovernmental Panel on Climate Change (IPCC), Climate Change 2014: Impacts, Adaptation, and Vulnerability [Mudança climática 2014: impactos, adaptação e vulnerabilidade], Cambridge University Press, Cambridge e Nova York, 2014.

13 Gwynne Dyer, Climate Wars: The Fight for Survival as the World Overheats [Guerras do clima: a luta pela sobrevivência enquanto o mundo se aquece], Oneworld Publications, Londres, 2010.

14 Cf. Clive Hamilton, Les Apprentis sorciers du climat. Raisons et déraisons de la géo-ingénierie [Os aprendizes de feiticeiro do clima. Razões e desatinos da geoengenharia], Seuil, Paris, 2013.

15 IPCC, op. cit.

16 Harald Welzer, Les Guerres du climat. Comment on tue au XXIe siècle[As guerras do clima. Como se mata no século XXI], Gallimard, Paris, 2009.

17 IPCC, op. cit.

18 Marshall B. Burke et al., “Warming increases the risk of civil war in Africa” [Aquecimento eleva risco de guerra civil na África], PNAS, 8 dez. 2009.
19 Cf. Naomi Klein, Susan George e Desmond Tutu, Stop crime climatique. L’appel de la société civile pour sortir de l’âge des fossiles[Parar o crime climático. O apelo da sociedade civil para sair da idade dos combustíveis fósseis], no prelo, Seuil, 27 ago. 2015
Le Monde Diplomatique Brasil

quinta-feira, 24 de setembro de 2015

Extrair carbono da atmosfera não reduzirá aquecimento global


Modelos mostram que sem redução de emissões, nem mesmo geoengenharia extrema protegerá os oceanos

Tiago Fioreze/Wikimedia Commons

Maria Temming 

À medida que muitas nações do mundo têm falhado reiteradamente em efetuar cortes significativos em sua produção de gases de efeito estufa, cientistas e outras pessoas começaram a se perguntar se a mudança climática poderia ser brecada não por cortes de emissões, mas por uma tecnologia que removesse esses gases da atmosfera.

Essa abordagem é chamada geoengenharia.

Infelizmente, uma recente simulação de seus efeitos sobre os oceanos verificou que nem métodos extremos seriam capazes de reabilitar completamente os ambientes marinhos. 

O trabalho foi publicado em Nature Climate Change em 3 de agosto (A Scientific Americanintegra o Nature Publishing Group).

Os experimentos focaram a chamada remoção do excesso de dióxido de carbono (CO2) diretamente da atmosfera.

Teoricamente, isso poderia ajudar os oceanos porque eles se tornam perigosamente ácidos quando absorvem demais CO2 atmosférico.

Uma ideia de remoção implica plantar árvores, que consomem grandes quantidades de dióxido de carbono, e depois queimá-las em instalações onde os gases podem ser capturados e armazenados no subsolo. 

Mas até agora ninguém ainda testou esse ou outros esquemas similares de remoção de carbono em larga escala. 

A segunda melhor opção para testes dessa envergadura é uma simulação em grande escala. 

No novo estudo, pesquisadores liderados por Sabine Mathesius, cientista ambiental no Instituto Potsdam de Pesquisa sobre Impacto Climático, na Alemanha, usou um modelo computadorizado para investigar a eficácia da CDR na reabilitação de águas marinhas danificadas por emissões de CO2.

Dois testes 

A equipe de Mathesius aplicou suas simulações em dois experimentos.

No primeiro, os cientistas queriam verificar se a remoção de carbono poderia reduzir a concentração de CO2 atmosférico aos níveis considerados “normais”, ou típicos, antes da Revolução Industrial nos século 18 e 19, restaurando assim o ambiente marinho a seu estado anterior.

Para isso, os pesquisadores basearam sua simulação em emissões de dióxido de carbono do mundo real de 1800 a 2005, e depois projetaram esses valores para o ano 2250.

Em seguida, simularam o que aconteceria se a tecnologia pudesse remover 18 bilhões de toneladas de CO2 por ano, cerca de 50% das atuais taxas de emissões, de 2250 até 2700.

Eles constataram que isso de fato diminuiria os níveis de CO2 atmosférico, mas não restauraria o conteúdo pré-industrial de oxigênio dissolvido nos oceanos, nem suas temperaturas.

Mesmo após 450 anos de geoengenharia, o oceano modelado continuaria sendo quase tão ácido como se não tivesse sofrido nenhuma intervenção tecnológica ou científica.

Mas o que aconteceria se alguém inventasse uma esplêndida e aprimorada nova técnica para a remover carbono do ar?

A equipe de Mathesius estava curiosa.

Para descobrir, os pesquisadores elevaram a taxa de remoção máxima para 90 bilhões de toneladas de CO2 por ano.

Esse desempenho é “francamente ridículo”, resumiu o geofísico Donald Penman da Universidade de Yale, que não esteve envolvido na pesquisa.

No entanto, mesmo nesse nível, em 2700 o oceano ainda estava mais quente, mais ácido e menos oxigenado que o ambiente marinho pré-industrial.

Em sua segunda simulação, a equipe modelou um mundo em que, contra todas as probabilidades, a atual sociedade humana reduziu substancialmente sua produção de gases de efeito estufa.

Os cientistas queriam determinar o que era melhor: cortes de emissões ou a remoção póstuma de CO2.

E conseguiram.

Quando se tratou de preservar o ambiente marinho, a remoção não foi páreo para uma redução de emissões.

Mesmo na simulação em que o método CDR extraía 90 bilhões de toneladas de CO2 da atmosfera por ano, o oceano profundo mostrou-se muito mais ácido do que no modelo com emissões reduzidas.

“Está claro que em vez de tentar limpar uma enorme bagunça, seria bem mais sensato simplesmente não criar a desordem em primeiro lugar”, observa Penman.

De acordo com Mathesius, a tecnologia CDR é ineficaz para combater a acidificação oceânica devido ao modo como a água marinha circula.

Existem regiões em que a água superficial submerge até o oceano profundo e permanece ali durante séculos ou até milênios, completamente isolada de qualquer contato com a atmosfera.

Portanto, mesmo se a CDR conseguisse reduzir significativamente a concentração de CO2 atmosférico, o oceano profundo continuaria altamente acídico.

O trabalho de Mathesius não é o único a indicar que a remoção de carbono é insuficiente.

Um estudo publicado em 3 de agosto em Nature Communications mostra que limitar o aquecimento global a no máximo 2ºC, exige a remoção 1,8 bilhão de toneladas de carbono da atmosfera por ano de agora até 2100, uma tarefa descomunal que excede qualquer capacidade da tecnologia atual.

Os estudos não significam que a remoção de dióxido de carbono seja completamente inútil, salienta Mathesius.

“Só estamos dizendo que a CDR não seria suficientemente potente para combater um cenário de atividades normais e habituais”, explica ela, e acrescenta: “Mas ainda existe a possibilidade de você recorrer à CDR como uma medida suplementar”.

A remoção, embora não possa desfazer todos os danos resultantes do excesso de emissões, ainda pode revelar-se útil se for combinada com cortes reais de carbono.

Scientific American Brasil

Guerra no espaço pode estar mais perto que nunca


Embora neguem, China, Rússia e Estados Unidos estão desenvolvendo e testando novas e controvertidas tecnologias para travar guerras espaciais

Lee Billings

U.S. NAVY
Testes de mísseis antissatélites como este realizado pela Marinha dos Estados Unidos em fevereiro de 2008, fazem parte de uma preocupante marcha rumo a conflitos militares no espaço exterior.

O ponto crítico militar mais volátil e preocupante do mundo não está, indiscutivelmente, no Estreito de Taiwan, na Península da Coreia, no Irã, em Israel, na Caxemira ou na Ucrânia.

De fato, ele não pode ser localizado em qualquer mapa da Terra, embora seja muito fácil de encontrar.

Para vê-lo, basta olhar para cima, para um céu claro, para a “terra de ninguém” que é a órbita terrestre, onde está se desenrolando um conflito que é uma corrida armamentista em tudo, menos no nome.

Talvez a vastidão do espaço exterior seja o último lugar em que se esperaria ver militares competindo por território disputado, exceto pelo fato de que o espaço exterior já não está mais tão vazio.

Cerca de 1.300 satélites ativos circundam o globo em um congestionado traçado de órbitas, fornecendo meios de comunicação, navegação por GPS, previsão meteorológica e vigilância planetária.

Para forças armadas que dependem de alguns desses satélites em guerras modernas, o espaço tornou-se a quintessência do “terreno elevado”, com os EUA como o rei indiscutível “no topo da colina”.

Agora, à medida que China e Rússia procuram agressivamente desafiar a superioridade americana no espaço com ambiciosos programas espaciais militares próprios, a luta pelo poder corre o risco de precipitar um conflito que poderia prejudicar seriamente, se não paralisar, toda a infraestrutura espacial do planeta.

E embora possa começar no espaço, uma confrontação desse tipo poderia deflagrar facilmente uma guerra total na Terra.

As tensões que vinham fervilhando há muito tempo agora estão se aproximando de um ponto de ebulição devido a vários acontecimentos, inclusive recentes e contínuos testes russos e chineses de possíveis armas antissatélites, assim como o fracasso, em julho, das conversações sob os auspícios das Nações Unidas para aliviar as tensões.

Em depoimento perante o Congresso no início do ano, James Clapper, diretor de Inteligência Nacional, ecoou as preocupações de muitas altas autoridades do governo sobre a crescente ameaça a satélites americanos, ao afirmar que tanto a China como a Rússia estão “desenvolvendo capacidades para negar acesso em um conflito”, como os que podem eclodir por causa das atividades militares de Pequim, no Mar da China meridional, ou de Moscou, na Ucrânia.

A China, em particular, ressaltou Clapper, demonstrou “a necessidade de interferir com, danificar e destruir” satélites americanos, referindo-se a uma série de testes de mísseis antissatélites, que começaram em 2007.

Há muitas maneiras de desativar ou destruir satélites além de explodi-los provocativamente com mísseis.

Uma nave espacial poderia simplesmente se aproximar de um satélite e lançar (borrifar) tinta em seus dispositivos ópticos, ou quebrar manualmente suas antenas de comunicação, ou ainda desestabilizar sua órbita.

Lasers podem ser usados para desativar temporariamente ou danificar de forma permanente os componentes de um satélite, particularmente seus delicados sensores, e ondas de rádio ou micro-ondas podem bloquear ou sequestrar transmissões para ou de controladores em terra.

Em resposta a essas possíveis ameaças, a administração Obama programou um orçamento de pelo menos US$ 5 bilhões a serem gastos nos próximos cinco anos para melhorar as capacidades defensivas e ofensivas do programa espacial militar do país.

Os EUA também estão tentando resolver o problema por meio da diplomacia, embora com sucesso irrisório; no final de julho, na ONU, discussões há muito esperadas sobre um código de conduta para nações que exploram o espaço, redigido tentativamente pela União Europeia, empacaram devido à oposição da Rússia, China e de vários outros países, inclusive Brasil, Índia, África do Sul e Irã.

O fracasso colocou soluções diplomáticas para a crescente ameaça em um limbo, conduzindo, provavelmente, a muitos anos mais de debates no âmbito da Assembleia Geral da ONU.

“O xis da questão é que os Estados Unidos não querem conflitos no espaço exterior”, resumiu Frank Rose, secretário-assistente de Estado para controle de armamentos, verificação e cumprimento das leis, que liderou os esforços diplomáticos americanos para impedir uma corrida armamentista espacial.

Os Estados Unidos, declarou Rose, estão dispostos a trabalhar com a Rússia e a China para manter o espaço seguro. “Mas quero deixar muito claro: nós defenderemos nossos bens espaciais se formos atacados”.



Teste

A perspectiva de guerra no espaço não é nova.

Temendo armas nucleares soviéticas lançadas da órbita terrestre, os EUA começaram a testar armamentos antissatélites no final da década de 50.

Os americanos chegaram até a testar bombas nucleares no espaço antes que armas orbitais de destruição em massa foram proibidas através do Tratado do Espaço Exterior da ONU, em 1967.

Após a proibição, a vigilância baseada no espaço tornou-se um componente crucial da Guerra Fria, com satélites servindo como uma parte importante de elaborados sistemas de alerta antecipado de prontidão para detectar o posicionamento ou lançamento de armas nucleares baseadas em terra.

Durante a maior parte da Guerra Fria, a União das Repúblicas Socialistas Soviéticas (URSS) desenvolveu e testou “minas espaciais”, naves espaciais autodetonantes que podiam procurar e destruir satélites espiões dos EUA ao bombardeá-los com estilhaços.

Na década de 80, a militarização espacial culminou com a multibilionária Iniciativa de Defesa Estratégica do governo de Ronald Reagan, apelidada “Guerra nas Estrelas”, para desenvolver medidas retaliatórias orbitais contra mísseis balísticos intercontinentais soviéticos.

E, em 1985, a Força Aérea dos Estados Unidos fez uma clara demonstração de suas formidáveis capacidades, quando um caça F-15 lançou um míssil que destruiu um satélite falho americano na baixa órbita da Terra.

Durante tudo isso, não ocorreu uma corrida armamentista desenfreada e total, nem foram deflagrados conflitos diretos.

De acordo com Michael Krepon, perito em controle de armas e cofundador do think tank Centro Stimson, na capital Washington, isso se deveu ao fato de que tanto os EUA com a URSS perceberam o quanto seus satélites eram vulneráveis, especialmente os que encontravam em órbitas geossincrônicas (ou geoestacionárias), de aproximadamente 35 mil quilômetros ou mais.

Esses satélites efetivamente pairam acima de um ponto no planeta, tornando-os alvos muito fáceis.

Mas como qualquer ação hostil contra esses satélites poderia escalar facilmente para uma troca nuclear aberta na Terra, as duas superpotências recuaram.

“Nenhum de nós assinou um tratado sobre isso”, observa Krepon. “Simplesmente chegamos independentemente à conclusão de que nossa segurança estaria mais ameaçada se fossemos atrás desses satélites, porque se um de nós fizesse isso, então o outro também faria”.

Hoje, a situação é muito mais complicada.

Órbitas terrestres baixas e altas tornaram-se incubadoras de atividade científica e comercial, repletas de centenas e centenas de satélites de cerca de 60 nações diferentes.

Apesar de seus propósitos majoritariamente pacíficos, todos os satélites, sem exceção, estão em risco, em parte porque nem todos os membros do crescente clube de potências militares espaciais estão dispostos a agir de acordo com as mesmas regras, e nem precisam fazer isso, porque até agora elas ainda não foram escritas.



Lixo espacial

Satélites se deslocam pelo espaço a velocidades muito altas; portanto, o jeito mais rápido e sujo de “matar” um deles é simplesmente lançar alguma coisa ao espaço para obstruir seu caminho.

Até o impacto de um objeto tão pequeno e rudimentar quanto uma bolinha de gude pode desativar ou destruir inteiramente um satélite de um bilhão de dólares.

E se uma nação empregar um método “cinético” desses para destruir o satélite de um adversário, ela pode facilmente criar detritos ainda mais perigosos, potencialmente originando uma reação em cadeia que transformará a órbita terrestre em palco de uma absurda corrida de demolição.

Em 2007, os riscos de detritos aumentaram drasticamente quando a China lançou um míssil que destruiu um de seus próprios satélites meteorológicos na baixa órbita terrestre.

Aquele teste gerou um “enxame” de estilhaços de longa vida que constitui quase um sexto de todos os detritos rastreáveis por radar em órbita.

Os EUA responderam na mesma moeda em 2008, ao redirecionarem um míssil antibalístico lançado de um navio para abater um satélite militar avariado pouco antes de ele cair na atmosfera.

Essa medida também produziu lixo perigoso, embora em quantidades menores, e os detritos tiveram vida mais curta porque foram gerados a uma altitude muito mais baixa.

Mais recentemente, a China lançou o que muitos especialistas dizem ser testes adicionais de armas cinéticas antissatélites baseadas em terra.

Nenhum desses novos lançamentos destruiu satélites, mas Krepon e outros peritos afirmam que isso é porque os chineses agora só estão testando para errar o alvo, em vez de atingi-lo, com a mesma capacidade hostil como resultado final.

O último desses episódios aconteceu em 23 de julho do ano passado.

As autoridades chinesas insistem que a única finalidade dos ensaios é defesa antimíssil pacífica e experimentação científica.

Mas um teste, realizado em maio de 2013, lançou um projétil desses a uma altitude de 30 mil km acima da Terra, aproximando-se do “santuário” de satélites geossincrônicos estratégicos.

Aquilo foi um chamado de alerta, admite Brian Weeden, analista de segurança e ex-oficial da Força Aérea que estudou e ajudou a divulgar o teste chinês.

“Os Estados Unidos aceitaram há décadas o fato de que seus satélites de baixa órbita poderiam ser abatidos facilmente”, diz ele. “Mas quase atingir [a órbita geossincrôncica] fez as pessoas entenderem que, nossa!, alguém realmente poderia tentar ir atrás das coisas que temos lá em cima”.

Não foi coincidência que pouco depois de maio de 2013, os EUA liberaram a divulgação de detalhes de seu programa ultrassecreto Consciência Situacional do Espaço Geossincrônico (GSSAP), um planejado conjunto de quatro satélites capaz de monitorar as altas órbitas da Terra e até se encontrar com outros satélites para inspecioná-los de perto.

Os dois primeiros GSSAPs foram lançados à órbita em julho de 2014.

“Este costumava ser um [chamado] ‘programa preto’, algo que oficialmente nem existia”, explica Weeden. “Ele basicamente foi oficializado (liberado para divulgação) para enviar uma mensagem dizendo: ‘Ei, se você estiver fazendo algo suspeito dentro e ao redor do cinturão geossincrônico, nós veremos’”.

Um intruso na órbita geossincrônica não precisa ser um míssil com uma ogiva (ponta) cheia de explosivos para ser um risco de segurança, mesmo aproximar-se ou se encostar em satélites estratégicos de um adversário é considerado uma ameaça.

Esta é uma das razões por que potenciais adversários dos Estados Unidos podem estar alarmados com as capacidades de rendezvous (encontros) dos satélites GSSAP e dos aviões espaciais robóticos altamente manobráveis X-37B da Força Aérea americana.

A Rússia também está desenvolvendo sua própria capacidade de abordar, inspecionar e potencialmente sabotar ou destruir satélites em órbita.

Nos últimos dois anos, o país incluiu três misteriosas cargas em lançamentos de outra forma rotineiros de satélites comerciais, sendo que o último ocorreu em março deste ano.

Observações de radar feitas pela Força Aérea americana e por entusiastas amadores revelaram que depois que cada um desses satélites foi posicionado, um pequeno objeto adicional voava para bem longe do foguete arremessado, só para depois dar meia volta e voltar.

Os objetos, apelidados Kosmos-2491, K-2499 e K-2504, podem ser apenas parte de um programa inofensivo para o desenvolvimento de técnicas para fazer a manutenção e reabastecer satélites velhos, argumenta Weeden, embora também possam ser destinados a propósitos mais sinistros.



Tratados oferecem poucas garantias

Autoridades chinesas sustentam que suas atividades militares no espaço são simplesmente experimentos científicos pacíficos, enquanto as autoridades russas em geral têm se mantido em silêncio na maior parte do tempo.

As duas nações poderiam ser vistas como simplesmente respondendo ao que elas entendem como o desenvolvimento clandestino, pelos EUA, de potenciais armas espaciais.

De fato, os sistemas americanos de defesa de mísseis balísticos, seus aviões espaciais X-37B e até suas naves espaciais GSSAP, embora todos ostensivamente destinados a manter a paz, poderiam ser facilmente convertidos em armas de guerra espacial.

Durante anos, a Rússia e a China vêm pressionando para a ratificação de um tratado legalmente vinculativo das Nações Unidas para banir armas espaciais; um tratado que autoridades americanas e especialistas externos têm rejeitado repetidamente como uma inviabilidade cínica.

“O esboço do tratado sino-russo visa proibir justamente as coisas que eles mesmos estão procurando desenvolver tão ativamente”, reclama Krepon. “Ele serve perfeitamente aos seus interesses. Eles querem liberdade de ação, e estão encobrindo isso com essa proposta para proibir armas espaciais”.

Mesmo se o tratado estivesse sendo proposto de boa fé “ele estaria morto ao chegar” ao Congresso e não teria a menor chance de ser ratificado, salienta Krepon.

Afinal, os EUA também querem liberdade de ação no espaço, e no espaço nenhum outro país tem mais capacidade e, portanto, mais a perder.

De acordo com Rose, existem três problemas fundamentais com o tratado.

“Um, ele não é efetivamente verificável, o que os russos e chineses admitem”, argumenta. “Você não consegue detectar trapaça. Dois, ele é totalmente silencioso (omisso) sobre a questão das armas terrestres antissatélites, como as que a China testou em 2007 e novamente em julho de 2014. E, terceiro, ele não define o que é uma arma no espaço exterior”.

Como alternativa, os EUA apoiam uma iniciativa liderada pela Europa para estabelecer “normas” para uma conduta adequada através da criação de um Código Internacional de Conduta para o Espaço Exterior, voluntário.

Este seria um primeiro passo, a ser seguido por um acordo vinculativo.

Um esboço dessa proposta, que Rússia e China impediram de ser adotada nas discussões de julho na ONU, exige maior transparência e “construção de confiança” entre nações com capacidade espacial como um meio de promover a “exploração e o uso pacífico do espaço exterior”.

Espera-se que isso possa impedir a geração de mais detritos e o contínuo desenvolvimento de armas espaciais.

No entanto, como o tratado russo-chinês, esse código também não define exatamente o que constitui uma “arma espacial”.

Essa imprecisão representa problemas para altas autoridades da defesa, como o general John Hyten, chefe do Comando Espacial da Força Aérea dos EUA.

“Nosso sistema de vigilância baseado no espaço, que olha para os céus e monitora tudo na órbita geossincrônica, é um sistema de armas?”, pergunta ele. “Creio que todos no mundo olhariam para isso e diriam não. Mas ele é manobrável, viaja a mais de 27.350 km por hora, e tem um sensor a bordo. Não é uma arma, certo? Mas a linguagem [de um tratado] proibiria a nossa capacidade de realizar uma vigilância baseada no espaço? Eu espero que não!”



Guerra no espaço é inevitável?

Enquanto isso, mudanças na política dos EUA estão dando à China e à Rússia mais razões para novas suspeitas.

O Congresso tem pressionado a comunidade de segurança nacional dos EUA a voltar suas atenções para o papel das capacidades ofensivas, em vez das defensivas, chegando até a impor que a maior parte do financiamento do ano fiscal de 2015 para o Programa Segurança e Defesa Espacial, do Pentágono, seja destinada ao “desenvolvimento de estratégias e capacidades ofensivas de controle e defesa ativa do espaço”.

“Controle espacial ofensivo” é uma clara referência a armas.

“Defesa ativa” é uma expressão muito mais nebulosa e se refere a medidas indefinidas de retaliação ofensiva que poderiam ser tomadas contra um atacante, ampliando ainda mais os caminhos através dos quais o espaço pode se tornar um ambiente equipado com armas.

Se uma ameaça iminente for percebida, um satélite ou seus operadores poderiam desfechar um ataque por meios de lasers ofuscantes, micro-ondas de interferência, bombardeio cinético, ou diversos outros métodos possíveis.

“Espero nunca travar uma guerra no espaço”, diz Hyten. “Isso é ruim para o mundo. A cinética [armamentos antissatélites] é horrível para o mundo”, devido aos riscos existenciais que os detritos representam para todos os satélites.

“Mas se a guerra se estender ao espaço”, argumenta ele, “precisamos ter capacidades ofensivas e defensivas com que responder, e o Congresso nos pediu que explorássemos que capacidades seriam estas. E, para mim, o único fator limitante é ‘nada de detritos’. Não importa o que faça, não crie detritos”.

Uma tecnologia para bloquear ou interferir em transmissões, por exemplo, parece sustentar o Counter Communications System (CCS), o sistema de interferência ofensiva em comunicações da Força Aérea, a única capacidade ofensiva americana reconhecida contra satélites no espaço.

“Basicamente o CCS é uma grande antena sobre um trailer, e ninguém sabe como ele realmente funciona, o que de fato faz”, informa Weeden, salientando que, como a maior parte das atividades (trabalhos) espaciais, os detalhes do sistema são ultrassecretos.

“Tudo o que sabemos essencialmente é que eles poderiam usá-lo de para interferir ou bloquear de alguma forma satélites de um adversário ou talvez até enganar ou hackear os instrumentos”.

Para Krepon, os debates sobre as definições de armas espaciais e a agressiva exibição de poder militar entre Rússia China e Estados Unidos estão atrapalhando e eclipsando a questão mais premente dos detritos espaciais.

“Todo mundo está falando sobre objetos intencionais, feitos pelo homem, destinados a travar guerras no espaço, e é como se estivéssemos de volta na Guerra Fria”, compara.

“Enquanto isso, já há cerca de 20 mil armas lá em cima em forma de detritos. Eles não têm nenhum propósito, e não são guiados. Eles não estão procurando detectar satélites inimigos. Eles só estão zanzando por lá, fazendo o que fazem”.

O ambiente espacial, salienta, precisa ser protegido como um bem comum global, como os oceanos e a atmosfera da Terra.

Lixo espacial é muito fácil de ser produzido e muito difícil de ser eliminado; por essa razão, os esforços internacionais deveriam se concentrar na prevenção de sua criação.

Além da ameaça de destruição deliberada, o risco de colisões acidentais e impactos de detritos continuará aumentando à medida que mais nações lançam e operam mais satélites sem uma rigorosa responsabilização e supervisão internacional.

E, à medida que a chance de acidentes aumenta, o mesmo acontece com a possibilidade de eles serem mal interpretados como ações deliberadas e hostis na tensa intriga melodramática dessa intensa competição militar no espaço.

“Estamos no processo de sujar e estragar o espaço, e a maioria das pessoas não se dá conta disso porque não podemos vê-lo como vemos o abate de peixes marinhos, florações enormes de algas, ou os efeitos da chuva ácida”, adverte ele.

“Para evitar poluir e destruir a órbita terrestre, precisamos de um senso de urgência que atualmente ninguém tem. Talvez possamos senti-lo quando não conseguirmos usar nossa televisão por satélite ou nossas telecomunicações, ou acessar noticiários sobre o clima global e previsões de furacões. Quando formos catapultados de volta às condições da década de 50, talvez possamos adquiri-lo. Mas então será tarde demais”.

Sabrina Imbler contribuiu para a reportagem. 

Scientific American Brasil

Geografia e a Arte

Geografia e a Arte
Currais Novos