Mostrando postagens com marcador meteorologia. Mostrar todas as postagens
Mostrando postagens com marcador meteorologia. Mostrar todas as postagens

quinta-feira, 7 de julho de 2016

Afinal, qual é a causa do El Niño?

Richard Jakubaszko
O questionamento do título é necessário, porque os meteorologistas discutem há anos sobre o El Niño e não existem ainda conclusões que estabeleçam uma rota lógica ou um consenso das causas. Em síntese, grosso modo, sabe-se que o El Niño acontece, porque com alguma regularidade inexplicável as águas do Pacífico esquentam, enquanto que a La Niña é provocada pelo resfriamento dessas mesmas águas. Pois agora o físico e meteorologista Luiz Carlos Baldicero Molion parece-me que botou o ovo em pé, e apresenta no artigo abaixo uma teoria plausível e estatística sobre a causa do El Niño, o que tornaria possível sabermos quando ele ocorrerá, e tomarmos as medidas preventivas possíveis. Mais uma comprovação, ao mesmo tempo, de que as causas do El Niño não são as "mudanças climáticas". Sem dúvida alguma, a estatística é a mãe de todas as ciências.

Gênese do El Niño
Luiz Carlos Baldicero Molion
*
El Niño-Oscilação Sul (ENOS) é um processo geofísico que ocorre no Oceano Pacífico Tropical e é um exemplo admirável de interação oceano-atmosfera que interfere no clima global e regional. É constituído de dois componentes, o oceânico, denominado El Niño (EN) propriamente dito, e o atmosférico, a Oscilação Sul (OS).

O EN é caracterizado por anomalias positivas da temperatura da superfície do mar (TSM), ou seja, águas mais quentes que as normais se estabelecem no Oceano Pacífico Tropical Centro-Oriental, próximo à costa oeste da América do Sul. Quando as anomalias de TSM são negativas, dá-se o nome de La Niña à fase fria do EN.

A OS é a variação zonal da pressão atmosférica ao nível do mar (PNM) sobre o Pacífico Tropical, medida tradicionalmente em dois centros, Tahiti (Polinésia, Pacífico Oriental) e Darwin (Austrália, Pacífico Ocidental) e é quantificada por sua diferença padronizada entre esses dois centros com que se define o Índice da Oscilação Sul (IOS). Em geral, índices negativos, em que a PNM é mais baixa no Pacífico Centro-Oriental que no Pacífico Ocidental, coincidem com eventos El Niños, enquanto índices positivos, em que as diferenças de PNM são contrárias, correspondem a eventos La Niñas.

Essa coincidência ocorre em cerca de 65% dos eventos. Eventos El Niño fortes aumentam a temperatura da baixa troposfera global, pois injetam grandes quantidades de calor sensível e calor latente na atmosfera tropical como foi constatado em eventos recentes. Por exemplo, no El Niño de 1997/98, a temperatura global registrou um desvio positivo de +0.74°C em abril de 1998 e, no de 2015/16, a temperatura global de fevereiro de 2016 atingiu a marca de +0,83°C acima da média (dados do Microwave Sounding Unit - MSU). No Brasil, é aceito que, de maneira geral, se têm secas nas Regiões Norte e Nordeste e excesso de chuva nas Regiões Sul e Sudeste em eventos El Niño, ao passo que ocorre o contrário em eventos La Niña.


Acredita-se que os impactos do processo geofísico sejam conhecidos, porém sua origem ainda não está bem estabelecida. A hipótese mais aceita é que o Pacífico Tropical, dada sua extensão, tenha uma frequência natural de oscilação resultante da interação entre os campos de PNM, e ventos associados, e as águas do oceano. Devido às PNM altas na costa oeste da América do Sul, os ventos Alísios sopram forte de Leste para Oeste, arrastam as águas que se aquecem nesse trajeto e se acumulam na região Austrália/Indonésia, formando a chamada “piscina de água quente do Pacífico Ocidental”, associada às PNM mais baixas.

Na costa oeste da América do Sul, essa retirada das águas superficiais provoca ressurgência de águas frias, ou seja, águas profundas sobem à superfície para repor as que estão sendo arrastadas, fazendo que essa região apresente TSM cerca de 10°C mais frias que as do Pacífico Ocidental e apresente PNM mais altas. A diferença de PNM entre o Leste e o Oeste é responsável pela persistência dos ventos Alísios. As águas, ao se acumularem no Oeste, empurram as camadas inferiores do oceano local para baixo, um efeito semelhante a comprimir uma mola.

Como água é um fluido incompressível, eventualmente as camadas inferiores do oceano (termoclina) reagem com um movimento brusco para cima e expulsam as águas superficiais mais quentes. Isso dá origem a uma onda interna sub-superficial no oceano, de cerca de 100 metros de espessura, denominada Onda de Kelvin, que se propaga da Austrália/Indonésia em direção à costa do Equador/Peru, levando cerca de três meses para cruzar o Oceano Pacífico.

O calor transportado pela Onda de Kelvin aquece as águas da costa do Equador/Peru. As águas superficiais aquecidas abaixam as PNM, reduzem, ou até invertem, a diferença de PNM entre o Leste e o Oeste, enfraquecendo ou invertendo os Alísios, o que faz cessar a ressurgência e aumentar ainda mais as TSM. Tem-se, então, um El Niño instalado, que poderá persistir por 6 a 18 meses.

Na retaguarda da Onda de Kelvin, encontram-se águas mais frias e esse déficit de calor também é transportado para Leste e, quando chega, dissipa o El Niño, dando origem a sua fase fria, o La Niña. As águas frias, agora presentes, fazem a PNM aumentar no Leste do Pacífico e novamente a diferença de PNM entre o Leste e o Oeste do Pacífico aumenta e intensifica os Alísios, restabelecendo a ressurgência e fazendo com que as águas fiquem mais frias na costa oeste da América do Sul e sejam empurradas para Oeste. O processo geofísico como um todo se repete, semelhante a uma imensa “gangorra oceânica”, oscilando Leste-Oeste durante 6 a 7 anos até que a viscosidade restabeleça a neutralidade das TSM.


Como foi dito, não se tem conhecimento adequado sobre as causas físicas da gênese do processo ENOS. É realmente uma oscilação natural ou há necessidade de uma força externa para que o processo se inicie? Se for uma força externa, uma possível candidata seria a força gravitacional lunar sabidamente responsável pelas marés.

O Ciclo Nodal Lunar define a variação da inclinação do plano da órbita da Lua em relação à superfície terrestre. Como esse plano é inclinado com relação ao equador, a Lua passa, relativamente falando, 14 dias no Hemisfério Norte e 14 dias no Hemisfério Sul durante o ciclo de 28 dias de suas fases.

A inclinação ou declinação do plano orbital, porém, não é “fixa”. Ela varia de sua posição máxima de 28,6°N a 28,6°S de latitude para a mínima de 18,4°N a 18,4°S de latitude num intervalo de 9,3 anos e retorna para a posição máxima em mais 9,3 anos, totalizando um ciclo de 18,6 anos. Em um intervalo de aproximadamente 10 anos, o plano da órbita lunar se situa fora dos trópicos, ou seja, sua declinação é maior que 23,5° (latitude dos Trópicos do Câncer e Capricórnio).

Nessas circunstâncias (declinação entre 23,5° e 28,6° de latitude), o componente da força gravitacional lunar é maior na direção equador-polo e acelera as correntes marinhas, particularmente a do Golfo (América do Norte) e a de Kuroshio (Japão), transportando mais calor da região tropical para as latitudes mais elevadas.

Isso faz com que as águas do Pacífico Norte e do Atlântico Norte fiquem mais aquecidas que o normal e torne o clima dos países banhados por elas, como a costa oriental da Ásia, América do Norte, Europa Ocidental, Inglaterra e Escandinávia, mais ameno e úmido.  O plano da órbita lunar se situa dentro da região tropical (declinação entre 18,4° e 23,5°) durante cerca de 9 anos e o componente de sua força gravitacional é maior na direção Leste-Oeste.

A exportação de calor para fora dos trópicos é reduzida, mais calor é retido e redistribuído zonalmente dentro dos trópicos. Ao invés da oscilação natural, a força gravitacional da Lua é que empurraria e empilharia inicialmente as águas no Pacífico Ocidental. Daí por diante, o estabelecimento do evento El Niño seguiria a hipótese acima, ou seja, as camadas mais profundas do Pacífico Ocidental comprimidas respondem bruscamente e disparam a Onda de Kelvin que transporta o calor para o Pacífico Oriental.

Na Figura, mostra-se a estranha coincidência de eventos El Niño intensos, como os de 1941/42, 1957/58, 1977/79, 1997/98 e 2015/16, terem ocorrido quando a declinação do plano da órbita lunar se situou dentro dos trópicos, ou seja, entre o Ponto Médio #2 e o Ponto Médio #1, passando pelo mínimo lunar. Notem que os eventos são espaçados de 19 anos (ver Tabela). Se isso não for coincidência, é possível prever a ocorrência de futuros eventos El Niño fortes. Os eventos intermediários, como os de 1982/83 e 1986/87, podem estar associados ao Ciclo das Apsides Lunares (8,85 anos) e/ou seu submúltiplo (4,4 anos), ou ainda, serem resultantes da oscilação Leste-Oeste da termoclina que, em conjunto com a interação oceano-atmosfera atuando nos campos de PNM e de ventos, forçam as TSM do Pacífico Tropical a retornarem ao estado de neutralidade.


Chama-se a atenção, também, para a coincidência de o Atlântico Norte ter começado a se resfriar a partir de 2006/2007, ano em que o plano da órbita lunar atingiu sua declinação máxima (28,6°).

Em resumo, a Lua pode interferir no clima regional indiretamente por meio de sua ação gravitacional ao modificar, em primeiro lugar, a velocidade das correntes marinhas e o transporte de calor meridional e, na sequência, mudar a configuração das TSM, particularmente nos setores norte do Atlântico e do Pacífico que têm suas bacias fechadas. A configuração de TSM modificada por duas décadas muda a atmosfera sobrejacente e o clima.

* o autor é físico, professor da Universidade Federal de Alagoas. Entre outros livros, é coautor do livro "CO2 aquecimento e mudanças climáticas: estão nos enganando?", junto a outros autores e com este blogueiro. O livro tem sinopse na aba lateral deste blog, 288 pg, foi publicado pela DBO Editores Associados e não está à venda em livrarias, mas apenas pela internet, através do e-mail co2clima@gmail.com e ou pelo fone 11 3879.7099 Custa R$ 30,00 mais despesas postais.

domingo, 26 de junho de 2016

Sistema é falho para detectar tornados e microexplosões climáticas

Rafael Regiani
Quando será a próxima tempestade? Brasil avançou na última década, mas continua despreparado para evitar tragédias naturais.
Faltam equipamentos
Nos últimos cinco anos, o Brasil passou de 20 para 39 radares meteorológicos. Estimativas apontam que o país precisaria de mais 40 para ter uma boa cobertura.



Falta mão de obra especializada
Segundo especialistas, o Brasil tem hoje uma carência de pelo menos 70 profissionais – são cerca de dez. Sem eles, mais de dez radares instalados em 2015 terão falhas na operação.

 
Faltam recursos
Um radar de alta definição, como o instalado em SP nesta semana, custa aproximadamente R$ 2 milhões. Sua manutenção anual sai por cerca de 30% desse valor.


Falta sinergia
Microexplosões e tornados devem ser previstos com antecedência. O Brasil ainda está longe de ter um sistema como o americano, em que a população é alertada por celular, televisão e sirenes nas ruas. 


Fontes: Cemaden, o engenheiro Mario Thadeu de Barros, da Poli-USP, e o meteorologista Carlos Augusto Morales, do IAG-USP

http://www1.folha.uol.com.br/cotidiano/2016/06/1783212-sistema-brasileiro-para-deteccao-de-tornados-e-limitado.shtml
.

quinta-feira, 12 de fevereiro de 2015

Molion: seca no Sudeste nada tem a ver com a Amazônia

Richard Jakubaszko 
A crise hídrica no Sudeste tem sido discutida e debatida pelas pessoas, diante da iminência de racionamento de água. A ausência da mídia nesse debate é exasperante. A mídia acompanha a crise divulgando dados de chuvas, captação de água, nível dos reservatórios, entrevistas  dos envolvidos com promessas e discursos dos políticos, ameaças de possível racionamento, consequências, sem debater as causas. Na questão técnica, o físico Luiz Carlos Baldicero Molion proferiu palestra na Cooperativa de Guaxupé, para cafeicultores da região, onde afirmou categoricamente que a seca no Sudeste nada tem a ver com a Amazônia, ao contrário das afirmações de pesquisadores comprometidos com as causas das mudanças climáticas e do aquecimento.

.

segunda-feira, 24 de novembro de 2014

Um novo paradigma científico para uma era de transformações

Geraldo Luís Lino *

Palestra proferida no Foro de Guadalajara, em Guadalajara, México, em 22 de outubro de 2014. Por motivos de espaço, apenas alguns dos slides mostrados foram incluídos nesta transcrição. Subtítulos agregados pela editoria.

Rio, novembro/2014 - Antes de começar, quero advertir-lhes de que algumas coisas que ouvirão aqui poderão parecer ficção científica, mas lembrem-se de que a ficção de ontem é a realidade de hoje e, em alguns casos, nem mesmo os ficcionistas mais imaginativos conseguiram antecipar avanços tecnológicos como a internet.

O meu tema desta manhã é o novo paradigma científico que se apresenta como candidato a se impor nessa era de transformações rápidas que vivemos, em substituição ao existente, que já se mostra tão disfuncional como os outros paradigmas que temos discutido nestes dois dias do nosso foro, o político e o econômico, que também já não respondem às aspirações e necessidades da maior parte da humanidade.

Como, talvez, nem todos estejam familiarizados com o conceito de paradigma, uma explicação. Um paradigma é um padrão de crenças, um conjunto de parâmetros que orienta a nossa visão do mundo. Os encontramos em todas as áreas das atividades humanas – política, economia, ciência etc.

Na política, o paradigma prevalecente é o da democracia, que se baseia nos conceitos de uma pessoa, um voto, liberdade de organização política e partidária e possibilidade de alternância de poder. Na prática, como sabemos os mexicanos, brasileiros e outros povos, não funciona exatamente assim, mas o conceito é este.

Na ciência, o paradigma prevalecente se chama mecanicismo. Em linhas gerais, é uma visão que considera o Universo como um gigantesco mecanismo, como um relógio colossal, e todos os seus fenômenos, inclusive as formas de vida, como mecanismos menores. Este modelo se impôs a partir do século XVII, com as ideias de Francis Bacon, Galileu Galilei, René Descartes, Isaac Newton e outros, e substituiu a visão do mundo anterior, que favorecia uma concepção “orgânica” do Universo, considerando-o uma espécie de “organismo vivo” criado por Deus. Gradativamente, o mecanicismo se impôs, virtualmente, em todos os campos da ciência – física, química, biologia e, até mesmo, em áreas como a medicina e a psicologia.

Inicialmente, os mecanicistas mantiveram Deus, como o criador que dava corda ao relógio e se afastava da sua criação; depois, Deus foi, simplesmente, excluído do esquema, pelos mecanicistas posteriores, e o Universo ficou por conta das interações aleatórias dos seus elementos constituintes – ou seja, de um deus bastante caprichoso, o “Deus Acaso”.

O paradigma mecanicista se baseia no princípio do reducionismo, ou seja, ele supõe que o funcionamento do sistema estudado pode ser entendido se o sistema for reduzido às suas partes constituintes e estas partes forem estudadas e entendidas; a soma do entendimento das partes levaria ao entendimento do sistema integral. Esta abordagem funciona para fenômenos não muito complexos e, principalmente, para os sistemas tecnológicos, o que foi uma das razões pelas quais o mecanicismo ganhou tanta proeminência, nos últimos séculos. Atualmente, a grande maioria dos cientistas é mecanicista.

Um bom exemplo de aplicação do reducionismo pode ser visto nos badalados modelos climáticos computadorizados, usados para justificar a hipótese do aquecimento global supostamente causado pelas atividades humanas (antropogênico). Na Fig. 1, vemos um esquema de como funcionam esses modelos. Os climatologistas dividem a atmosfera da Terra em “caixas” de ar, cada uma com muitas centenas de quilômetros de comprimento, algumas centenas de quilômetros de largura e algumas dezenas de quilômetros de altura, e tentam estimar as trocas de energia entre as “caixas”, para detectar o que pensam ser a ação humana na dinâmica climática, que atribuem, principalmente, às emissões de carbono dos combustíveis fósseis – petróleo, gás natural e carvão mineral.

Fig. 1 – Diagrama conceitual de um modelo climático.


Evidentemente, as coisas não são tão simples, pois, como se pode ver na figura, cada “caixa” abarca áreas com muitas diferenças de relevo, vegetação, cobertura de solo, corpos líquidos e muitos outros fatores que afetam os fluxos de energia. Os resultados podem ser vistos na Fig. 2, que mostra uma comparação dos resultados dos mais de 40 modelos climáticos existentes, com as temperaturas atmosféricas registradas no período desde 1975 e projeções até 2025. Observem que nenhum deles conseguiu prever que, depois de subirem desde 1975, as temperaturas estacionariam, a partir do final do século passado. Isso sugere que a dinâmica do clima é complexa demais para ser avaliada com o método reducionista – claramente, um novo enfoque é necessário.

Fig. 2 – Comparação da evolução das temperaturas atmosféricas projetadas por 44 modelos climáticos, para o período 1975-2025, com as temperaturas reais registradas entre 1975-2012 (linhas azul e vermelha).



De qualquer maneira, o sucesso do mecanicismo reducionista foi de tal ordem que, no final do século XIX, um cientista como o físico William Thompson, mais conhecido como Lorde Kelvin, chegou a dizer: “Já não há nada novo a ser descoberto na física. Tudo o que resta são medições cada vez mais precisas.”

Isso foi apenas alguns anos antes que a chamada Mecânica Quântica virasse todo o mundo da Física pelo avesso.

Apesar deste e de outros exemplos, a lição da humildade não foi aprendida. Quase um século depois, em 1997, o jornalista científico John Horgan escreveu um livro com o emblemático título de “O fim da ciência”, em que faz a seguinte afirmativa: “Se se acredita na ciência, deve-se aceitar a possibilidade de que a grande era dos descobrimentos científicos terminou. (…) As pesquisas adicionais podem não mais produzir grandes revelações ou revoluções, mas apenas resultados incrementais e decrescentes.”

Bem, parece que não é exatamente assim. Por exemplo, o genoma humano contém cerca de 20 mil genes, que são os modelos de “codificação” para todas as proteínas do corpo humano. O problema é que os genes “codificadores” são apenas 3%, sendo que as funções dos 97% restantes não são conhecidas.

Olhando para a Cosmologia, os astrofísicos estimam que somente 4% do Universo é constituído por energia e matéria como as conhecemos; o restante é representado por “energia escura” e “matéria escura”, de origem desconhecida.

Ou seja, ainda temos bastante o que descobrir e aprender sobre o nosso Universo e a vida.

As limitações do mecanicismo também se mostram em novas tecnologias, como um novo sistema de propulsão estudado pela NASA, que diz que ele pode gerar empuxo sem o uso de propelentes, para manobrar satélites em órbita (Fig. 3). Segundo uma reportagem publicada no sítio tecnológico Gizmag.com, em 2 de agosto último, o motor é capaz de captar a radiação de microondas cósmicas e transformar eletricidade em impulso mecânico. Não há detalhes, mas não creio que a NASA correria o risco de anunciar algo assim, se não fosse sério (Dario Borghino, “NASA says puzzling new space drive can generate thrust without propellant”, Gizmag.com, 2/08/2014).

Fig. 3 – Concepção artística de um satélite dotado do sistema de propulsão Cannae (NASA).

Ou essa experiência, relatada pelo jornal Daily Mail, em 6 de setembro, com a manchete: “Cientistas afirmam êxito com ‘telepatia’ depois de enviar mensagem mental de uma pessoa a outra a 4 mil milhas de distância”. Trata-se de um estudo que foi publicado na revista PLOS One, que é uma revista científica das mais sérias. Os cientistas envolvidos estavam em Mumbai, na Índia, e Paris, e usaram audifones eletromagnéticos de alta tecnologia, conectados via internet. Um enviou uma saudação “telepática” ao outro, que informou ter registrado umas “manchas luminosas”, no mesmo instante.

Para explicar fenômenos como esses, se faz necessário um novo paradigma científico.

O paradigma “holístico/quântico”
O candidato mais qualificado para isso ainda não tem nome oficial. Alguns o chamam paradigma “holístico”, nome que vem do grego holos, que significa todo ou inteiro. Outros preferem chamá-lo paradigma “quântico”. Mas não nos preocupemos em batizá-lo e vejamos algumas das suas características fundamentais.

O paradigma holístico/quântico considera que todas as partes do Universo estão interconectadas entre si e, ao contrário do reducionismo, o sistema como um todo é quem determina o funcionamento das partes. Essa interconexão abrange até mesmo os processos vivos e conscientes, ou seja, inclusive a mente humana (ao contrário do que sugeria Descartes, que separava mente e matéria).

Nesse paradigma, o tecido fundamental do Universo é constituído por um oceano de energia pulsante, que os físicos chamam “campo do ponto zero” ou “vácuo quântico”. O nome vem do fato de que a sua energia continua se manifestando até mesmo na temperatura do zero absoluto (273oC negativos), quando a vibração dos átomos cessa e não há mais conversão de energia cinética em calor. Numerosas experiências têm demonstrado que, mesmo nesta condição, ainda existe uma energia fundamental, a “energia do ponto zero”.

Outro nome usado para qualificar o “campo do ponto zero” é o “éter”, conceito que não se assemelha ao éter luminífero passivo dos físicos do século XIX, que servia apenas como meio de propagação das radiações eletromagnéticas, como a luz, mas se parece mais com o “éter” ou “quintessência” dos indianos e gregos antigos, do qual também se originavam os elementos constituintes do Universo.

Toda a energia e a matéria do Universo provêm das “flutuações” dos fótons reais e virtuais do “campo do ponto zero”, assim como as forças fundamentais da natureza – eletromagnetismo, gravidade, energia nuclear fraca e energia nuclear forte.

Nessa concepção, a matéria não tem existência própria, mas é “energia condensada”.

No paradigma “holístico/quântico”, o Universo e seus fenômenos mostram características de “autoorganização”, e o Universo pode ser comparado a um holograma, em que todo o seu funcionamento se mostra em todos e cada um dos seus elementos.

Pioneiros do novo paradigma
Como o tempo disponível não permite um detalhamento maior e o objetivo é apenas apresentá-los a esses novos conceitos, vejamos alguns dos pioneiros dessa nova visão do Universo.

Talvez, o mais importante de todos seja o engenheiro e inventor sérvio-estadunidense Nikola Tesla (1856-1943), um dos maiores gênios da História da Humanidade, que, entre muitas outras coisas, inventou o sistema de geração de eletricidade em corrente alternada, responsável pela eletrificação do mundo em grande escala, a partir das primeiras décadas do século XX. Em experiências feitas já no final do século XIX, ele afirmava ter descoberto o que chamava “energia radiante” (o que hoje chamamos “energia do ponto zero”) e a possibilidade de extraí-la diretamente do “éter”. Infelizmente, todos os seus esforços de desenvolver esta linha de pesquisas esbarraram na incompreensão da maioria dos cientistas e pesquisadores da época e, até mesmo, na sabotagem deliberada de grandes financistas que investiam na exploração comercial da eletricidade, como John Pierpoint Morgan.

Outro pioneiro foi Thomas Henry Moray (1892-1974), um engenheiro elétrico estadunidense que levou décadas aperfeiçoando um processo de extração da “energia radiante”. Ele construiu um equipamento que gerava 55 quilowatts de eletricidade, aparentemente, a partir do nada, o qual foi examinado por vários engenheiros e cientistas, que não detectaram qualquer indício de fraude. Entretanto, assim como ocorreu com Tesla, ele sofreu todo tipo de oposição, inclusive, atentados contra a sua vida e a sua família, e morreu sem conseguir comercializar o seu invento.

Thomas Townsend Brown (1905-1985) foi um físico experimental estadunidense, que descobriu um vínculo entre o eletromagnetismo e a gravidade, um efeito “eletrogravitacional”. Em uma série de experiências, iniciadas ainda na década de 1920, ele observou que, quando se aplica uma voltagem alta (da ordem de dezenas de quilovolts para cima) a um corpo dielétrico (que se torna condutor a partir de uma certa voltagem), as cargas elétricas positivas se acumulam de um lado do corpo e as negativas, do lado oposto. Mas o mais interessante é que se observa um empuxo na direção das cargas positivas, capaz de movimentar o corpo. Uma de suas demonstrações foi feita em discos metálicos ligados a uma fonte elétrica superior a 100 kV, que giravam na direção das cargas positivas acumuladas em suas extremidades (Fig. 4). Segundo alguns autores, o superbombardeiro “invisível” Northrop B-2, da Força Aérea dos EUA, incorpora este princípio no seu sistema de propulsão, embora este fato tenha sido negado pelas autoridades militares estadunidenses.

Fig. 4 – Dispositivo criado por Thomas Townsend Brown para demonstrar o efeito eletrogravitacional. Quando ligados a uma fonte de alta tensão (superior a 100 kV), os discos giravam no sentido da acumulação das cargas positivas dentro deles (no caso, no sentido anti-horário).



Royal Raymond Rife (1888-1971) foi um engenheiro ótico estadunidense, que, na década de 1930, inventou um microscópio com resolução suficiente para identificar vírus causadores de certos tipos de câncer, façanha que, até hoje, é difícil, mesmo com os atuais microscópios eletrônicos. Além disto, ele e seus colaboradores descobriram que podiam reverter certos tipos de tumores cancerígenos com radiações eletromagnéticas. Como isto contrariava – e ainda contraria – a concepção da medicina sobre o câncer, ele foi acusado de charlatanismo, processado e perseguido, e sua linha de pesquisas, simplesmente, abandonada, em lugar de investigada de acordo com critérios científicos rigorosos.

Karl Pribram é um neurocientista austríaco, nascido em 1919, que emigrou para os EUA e, durante décadas, desenvolveu pesquisas sobre a memória. Uma de suas conclusões, feita após muitas experiências com ratos, foi a de que a memória não se situa totalmente no cérebro, encontrando-se espalhada em outros órgãos. Uma das possibilidades levantadas pelo seu trabalho é o de que pelo menos parte do processo da memória tenha algum vínculo com o “campo do ponto zero”. Imaginem as perspectivas que isto abriria para a neurologia e o tratamento de certas doenças cerebrais.

Outro pioneiro, que influenciou o trabalho de Pribram, é o físico estadunidense, depois radicado no Reino Unido, David Bohm (1917-1992), que Einstein considerava como um dos seus mais sucessores mais promissores. Além de aportar importantes contribuições à física dos plasmas, dos quais foi um dos primeiros a reconhecer características de autoorganização, criou o conceito da “ordem implícita”, da qual emergiriam os fenômenos “explícitos” da energia, matéria, espaço e tempo. Ele sintetizava assim o seu pensamento: “Em última análise, todo o Universo (com todas as suas ‘partículas’, inclusive as que constituem os seres humanos, seus laboratórios, instrumentos de observação etc.) tem que ser entendido como um todo indivisível, no qual a análise em partes existentes separadas e independentes não tem qualquer status fundamental.”

Harold Puthoff, físico estadunidense nascido em 1936, é um pioneiro que tem desenvolvido pesquisas, tanto sobre a fundamentação teórica do novo paradigma “holístico/quântico”, como sobre as suas aplicações, na física energética e no campo da consciência, na área da transmissão de pensamentos.

Evgeny Podkletnov é um físico russo nascido em 1955, que tem trabalhado em pesquisas numa área que parece ficção científica, a da anulação da gravidade, em que já obteve resultados bastante interessantes.

John Bedini é um engenheiro elétrico e empresário estadunidense, que, desde a década de 1980, tem construído numerosos modelos de geradores eletromagnéticos que, por incrível que pareça, produzem mais energia do que a utilizada para movimentá-los. Vocês dirão: e como fica a lei da conservação de energia, que impediria tal coisa? Pois este é um dos numerosos aspectos do conhecimento prevalecente que, provavelmente, terão que ser revistos com o advento do novo paradigma científico.

Finalmente, embora esta pequena lista indique apenas alguns dos pioneiros mais relevantes, vale citar o biólogo inglês Rupert Sheldrake, nascido em 1942 e autor da hipótese dos “campos morfogenéticos”, que orientariam a formação da matéria e dos sistemas biológicos. Ele tem sido um prolífico defensor do novo paradigma científico, ao qual tem dedicado vários livros.

Novas perspectivas científicas e tecnológicas
Algumas das promessas dos entendimentos proporcionados pelo novo paradigma já constituem realidade, para numerosos pesquisadores que têm estudado fenômenos conhecidos sob uma nova ótica. Na sismologia, uma grande atenção tem sido dada às pesquisas para a detecção antecipada de terremotos, envolvendo conceitos que vão além do entendimento dos terremotos como fenômenos estritamente mecânicos, provocados pelo alívio de tensões ao longo de certas estruturas geológicas. Em vários terremotos recentes, têm sido observadas emanações de radiações eletromagnéticas, nos dias anteriores a eles, que, futuramente, talvez, permitam que a sua ocorrência seja antecipada com certa precisão. Na Fig. 5, por exemplo, podemos observar padrões de emissão de radiações infravermelhas, antes do sismo, que ocorreu em 26 de janeiro de 2001. Observem que as radiações aumentaram e diminuíram, quase na véspera do terremoto, e ainda não se sabe explicar as causas exatas, mas o avanço das pesquisas oferece perspectivas bastante promissoras, que, talvez, venham a permitir futuramente uma considerável redução no número de vítimas dos terremotos.


Fig. 5 – Detecção de radiação infravermelha em imagens de satélite (dentro das elipses vermelhas), nos dias anteriores ao terremoto em Gujarat, Índia, ocorrido em 26 de janeiro de 2001.



Na área da geração de energia, no Brasil, há uma empresa chamada Evoluções Energia ( http://energiauniversal.eco.br/ ), criada por dois técnicos de eletricidade, que inventaram e patentearam o que chamam “gerador captor de elétrons”. O aparelho já foi testado por engenheiros independentes e, em um dos testes, produziu 169 kW (797 A a 212 V), a partir de uma entrada de 1,65 kW (7,5 A a 220 V), aparentemente, sem qualquer truque, ou seja, um fator de eficiência superior a 100 vezes. Segundo eles, o aparelho é capaz de captar a “energia da Terra”, que, suspeito, tenha algo a ver com a energia do vácuo quântico. Esperemos que o gerador seja mesmo o que afirmam que é – apesar de, aparentemente, também contrariar a lei da conservação de energia – e possa vir a ser comercializado regularmente. Imaginem as perspectivas, para a geração de eletricidade para comunidades afastadas das grandes redes de distribuição de energia elétrica.

E para que vejam que essas considerações não são oriundas de mentes delirantes, apresento-lhes uma lista de potenciais aplicações da exploração das “tecnologias quânticas”, descritas por um analista estratégico estadunidense, de nome MK Matai, em um artigo publicado recentemente no sítio de investimentos inglês Market.Oracle.com.uk (7/10/2014):

relógios quânticos;
sensores quânticos;
componentes de precisão quânticos;
criptografia quântica;
telecomunicações quânticas;
computação quântica;
medicina quântica;
energia quântica.

Analistas de investimentos costumam ser pessoas bastante pragmáticas e, para que considerem oportunidades como essas, certamente, têm bons motivos.

Quanto às consequências gerais da “Revolução Holístico-Quântica” – ou outro nome que venha a receber -, não é difícil imaginá-las. O fato é que terá impactos tremendos em praticamente todas as áreas das atividades humanas, com destaque para a possibilidade de geração de eletricidade de uma forma praticamente ilimitada, superando, de vez, as restrições energéticas ao desenvolvimento de todos os povos e países.

Evidentemente, poderemos esperar um grande impacto geopolítico, na medida em que colocará em xeque a base econômica das grandes potências globais, especialmente, o controle que exercem sobre os fluxos energéticos e de matérias-primas.

Da mesma forma, a educação, em particular, terá que se reciclar bastante para fazer frente ao desafio de entender e traduzir o novo paradigma científico e sua revolução tecnológica, principalmente, aos jovens que viverão em meio a eles.

Aliás, os jovens terão um papel fundamental na emergência e na consolidação do novo paradigma, pois, como dizia o grande físico alemão Max Planck, um dos pioneiros da Física Quântica: “Uma verdade científica não triunfa porque convence os seus adversários e os faz ver a luz, mas porque os seus adversários morrem, paulatinamente, e surge uma nova geração familiarizada com a nova verdade.”

Para concluir, quero ressaltar que, para os países ibero-americanos, em particular, a “Revolução Holístico-Quântica” representa uma oportunidade histórica para que deixemos de largar atrás na corrida da evolução do conhecimento e possamos sair quase juntos com os centros mais avançados. De forma especial, este é um campo que oferece inúmeras oportunidades de cooperação entre países como o México, Brasil, Argentina e outros, que dispõem de centros avançados de pesquisas, pesquisadores e técnicos qualificados, em número suficiente para desenvolver quase todo tipo de pesquisas referentes ao novo paradigma científico. Portanto, tratemos de por as mãos à obra.

Bem-vindos à “Revolução Holístico-Quântica”!

Publicado originalmente em
http://www.alerta.inf.br/um-novo-paradigma-cientifico-para-uma-era-de-transformacoes/?utm_source=rss&utm_medium=rss&utm_campaign=um-novo-paradigma-cientifico-para-uma-era-de-transformacoes

.

domingo, 19 de outubro de 2014

As chuvas, ou o caos. A dimensão da seca.

Richard Jakubaszko 
Não há opções. Ou chove, ou teremos o caos.
Político espertinho
Depois da incompetência e falta de gestão tucana em São Paulo, que vendeu a Sabesp ao mercado internacional. Depois não cumpriu acordo com os acionistas da Sabesp para sanear os encanamentos do centro velho de São Paulo (capital), por onde vaza de 40% a 60% da água tratada no sistema Cantareira. Isto desobrigou os investidores de ampliar o volume captado e de tratar mais água. O governador não manda na Sabesp, que não é mais uma empresa pública, é privada.

Com a queda do volume de chuvas vamos ao caos.
Imagine: restaurantes fechados, empresas inoperantes, desemprego, os preços dos alimentos e da água para beber ao embalo dos especuladores. A gente sem poder tomar água, sem banho, fermentando bactérias, doenças, fedores... Não é o caos?

Em minha casa, no centro de São Paulo, bairro Bela Vista, falta água todas as noites, desde fevereiro último, das 18:00 hs até 05:00 hs do dia seguinte. Denunciei isto, aqui no blog, em junho último: http://richardjakubaszko.blogspot.com.br/2014/06/alckmin-mente-sobre-racionamento-de-agua.html
São Paulo não merece isso. Mas é uma cidade inóspita para a vida humana, e vai piorar. Não há nada que esteja tão ruim que o ser humano não consiga piorar.

Dias atrás recebi do eminente engenheiro agrônomo Fernando Penteado Cardoso, que completou em 19 de setembro 100 anos de acurada percepção pelas coisas importantes da vida, um e-mail onde ele registra as chuvas, medidas pelo IAC - Instituto Agronômico de Campinas:

A dimensão da seca 2013/14
Segundo dados do IAC-CIIAGRO, as precipitações dos anos agrícolas (Julho a Junho) nos últimos 123 anos, desde 1890/91, foram as seguintes em Campinas:

- Média histórica de 123 anos: 1.388 mm
- 5 anos com 900/1.000 mm: 1924/25, 1929/30, 1968/69, 1988/89 e 1991/92;
- 1 só ano abaixo de 900 mm: 2013/14 com 750 mm

As cidades vizinhas de Campinas (Indaiatuba, Sumaré, Nova Odessa e Capivari) tiveram, em janeiro de 2014, em média 98 mm contra 181 mm em Campinas, indicando manga d´agua local.
Descontando esse efeito, a precipitação regional seria de 660 mm para 2013/14, ou seja, 47,5% da média histórica de Campinas.
SP, setembro/14
FPC


O blogueiro comenta:
Apesar da perspectiva do caos, não existe aquecimento. O fenômeno da falta de chuvas não indica mudanças climáticas. É claro que a falta de chuvas precipitou o problema do futuro racionamento. Mas não era para ser assim, poderia ter sido evitado se houvesse gestão, competência e coragem.
O problema é político, só isso.
Tudo isto, também, porque São Paulo tem poucas árvores e não existe evapotranspiração. A imbecilidade coletiva, pública e privada, de prédios, quintais, jardins, praças e calçadas cimentadas esquentam o ambiente, geram mais calor, tornam o ar mais seco, formando o que se chama de "inversão térmica", que impede chuvas. A superpopulação exacerba isso.
Não admito, não aceito, que uma árvore na calçada tenha menos de meio metro quadrado para a penetração de água de chuva. A cidade não tem mais lençol freático.
Parece que as pessoas e os poderes públicos planejam o caos. Com a ajuda de Deus e da natureza, preparemo-nos para o pior.
Mas rezo para que São Pedro se apiede de São Paulo. E para que mande chuvas. O povo de São Paulo reelegeu um chuchu desidratado para administrar esses previsíveis problemas. Se ele não evitou os problemas, por falta de gestão e planejamento, como irá administrar o caos? Vai colocar a polícia na rua?

Alckmin, se o caos sobrevier, desejo que seja teu inferno, o teu fim político. Leve Aécio com você.
Aos paulistas e paulistanos restará o único consolo de dar gargalhadas, como fazem os palhaços depois de colocarem fogo no circo. E de chorar a própria desgraça.
É a tragicomédia humana.
.

quarta-feira, 29 de janeiro de 2014

Tá quente, né? Mas olha só, se estivesse muito frio...

Richard Jakubaszko 
Por todo canto que ando só ouço gente reclamando do calor que anda fazendo. É gente que não tem noção do que seja frio, mas frio mesmo, com muita neve e gelo. Divirtam-se com o vídeo abaixo, antes que o aquecimento planetário chegue, ou que resfrie tudo, conforme previsto por alguns cientistas...

.

sexta-feira, 12 de outubro de 2012

Aquecimento: mitos e verdades

Richard Jakubaszko
Há muito desconhecimento das pessoas sobre as questões do "aquecimento" e das "mudanças climáticas", afora os interesses comerciais e marqueteiros envolvidos. Em minha opinião, trata-se da grande farsa do século XXI, avalizada por uma agenda política e comercial de alguns grupos infiltrados na ONU, com apoio incondicional da mídia, a ponto de virar um modismo, melhor ainda, uma verdadeira neurose, especialmente no Brasil.

Na entrevista postada no vídeo abaixo, o professor de climatologia Ricardo Augusto Felício, da USP, conversa com Ronnie Von, na TV Gazeta, e encara de frente os mitos e verdades sobre algumas dessas questões.

Aqui no blog tenho uma série de postagens sobre o tema, basta o visitante pesquisar nas tags (na aba lateral direita, lá embaixo) sobre "CO2" ou "aquecimento", por exemplo, que terá à sua disposição textos e vídeos esclarecedores sobre esses temas, que são geralmente abordados de forma superficial e leviana pela mídia.
Se desejar debater o tema, e dar sua opinião, afinal, este é um blog de debate, use o espaço de comentário, no rodapé dessa postagem. Porém, aviso novamente: não publico comentários de anônimos. Assim, identifique-se!

.

domingo, 20 de maio de 2012

Carta aberta à presidente Dilma Rousseff


Mudanças climáticas: hora de se recobrar o bom senso
sábado, 19 de maio de 2012
Exma. Sra.
Dilma Vana Rousseff
Presidenta da República Federativa do Brasil

Excelentíssima Senhora Presidenta:

Em uma recente reunião do Fórum Brasileiro de Mudanças Climáticas, a senhora afirmou, oportunamente, que a fantasia não tem lugar nas discussões sobre um novo paradigma de crescimento - do qual a Humanidade necessita, de fato, para proporcionar a extensão dos benefícios do conhecimento a todas as sociedades do planeta. Com igual propriedade, a senhora assinalou, também, que o debate sobre o desenvolvimento sustentado precisa ser pautado pelo direito dos povos ao progresso, com o devido fundamento científico.

Assim sendo, permita-nos complementar tais formulações, observando que as discussões sobre o tema central da agenda ambiental, as mudanças climáticas, têm sido pautadas, predominantemente, por motivações ideológicas, políticas, econômicas e acadêmicas restritas. Isto as têm afastado, não apenas dos princípios basilares da prática científica, como também dos interesses maiores das sociedades de todo o mundo, inclusive a brasileira. Por isso, apresentamos-lhe as considerações a seguir.

1) Não há evidências físicas da influência humana no clima global:

A despeito de todo o sensacionalismo a respeito, não existe qualquer evidência física observada no mundo real, que permita demonstrar que as mudanças climáticas globais, ocorridas desde a Revolução Industrial do século XVIII, sejam anômalas em relação às ocorridas anteriormente, no passado histórico e geológico – anomalias que, se ocorressem, caracterizariam a influência humana.

Todos os prognósticos que indicam elevações exageradas das temperaturas e dos níveis do mar, nas décadas vindouras, além de outros efeitos negativos atribuídos ao lançamento de compostos de carbono de origem humana (antropogênicos) na atmosfera, baseiam-se em projeções de modelos matemáticos, que constituem apenas simplificações limitadas do sistema climático – e, portanto, não deveriam ser usados para fundamentar políticas públicas e estratégias de longo alcance e com grandes impactos socioeconômicos de âmbito global.

A influência humana no clima restringe-se às cidades e seus entornos, em situações específicas de calmarias, sendo esses efeitos bastante conhecidos, mas sem influência em escala planetária. Para que a ação humana no clima global ficasse demonstrada, seria preciso que, nos últimos dois séculos, estivessem ocorrendo níveis inusitadamente altos de temperaturas e níveis do mar e, principalmente, que as suas taxas de variação (gradientes) fossem superiores às verificadas anteriormente.

O relatório de 2007 do Painel Intergovernamental de Mudanças Climáticas (IPCC) registra que, no período 1850-2000, a temperatura média global aumentou 0,74oC, e que, entre 1870 e 2000, os níveis do mar subiram 0,2 m.

Ora, ao longo do Holoceno, a época geológica correspondente aos últimos 12.000 anos em que a Civilização tem existido, houve diversos períodos com temperaturas mais altas que as atuais. No Holoceno Médio, há 6.000-8.000 anos, as temperaturas médias chegaram a ser 2oC a 3oC superiores às atuais, enquanto os níveis do mar atingiram até 3 metros acima do atual. Igualmente, nos períodos quentes conhecidos como Minoano (1500-1200 a.C.), Romano (séc. VI a.C.-V d.C.) e Medieval (séc. X-XIII d.C.), as temperaturas foram mais de 1oC superiores às atuais.

Quanto às taxas de variação desses indicadores, não se observa qualquer aceleração anormal delas nos últimos dois séculos. Ao contrário, nos últimos 20.000 anos, desde o início do degelo da última glaciação, houve períodos em que os gradientes das temperaturas e dos níveis do mar chegaram a ser uma ordem de grandeza superiores aos verificados desde o século XIX.

Entre 12.900 e 11.600 anos atrás, no período frio denominado Dryas Recente, as temperaturas caíram cerca de 8oC em menos de 50 anos e, ao término dele, voltaram a subir na mesma proporção, em pouco mais de meio século.

Quanto ao nível do mar, ele subiu cerca de 120 metros, entre 18.000 e 6.000 anos atrás, o que equivale a uma taxa média de 1 metro por século, suficientemente rápida para impactar visualmente as gerações sucessivas das populações que habitavam as margens continentais. No período entre 14.650 e 14.300 anos atrás, a elevação foi ainda mais acelerada, atingindo cerca de 14 metros em apenas 350 anos – média de 4 metros por século.

Tais dados representam apenas uma ínfima fração das evidências proporcionadas por, literalmente, milhares de estudos realizados em todos os continentes, por cientistas de dezenas de países, devidamente publicados na literatura científica internacional. Desafortunadamente, é raro que algum destes estudos ganhe repercussão na mídia, quase sempre mais inclinada à promoção de um alarmismo sensacionalista e desorientador.

Por conseguinte, as variações observadas no período da industrialização se enquadram, com muita folga, dentro da faixa de oscilações naturais do clima e, portanto, não podem ser atribuídas ao uso dos combustíveis fósseis ou a qualquer outro tipo de atividade vinculada ao desenvolvimento humano.

2) A hipótese “antropogênica” é um desserviço à ciência:
A boa prática científica pressupõe a busca permanente de uma convergência entre hipóteses e evidências. Como a hipótese do aquecimento global antropogênico (AGA) não se fundamenta em evidências físicas observadas, a insistência na sua preservação representa um grande desserviço à Ciência e à sua necessária colocação a serviço do progresso da Humanidade.

A História registra numerosos exemplos dos efeitos nefastos do atrelamento da Ciência a ideologias e outros interesses restritos. Nos países da antiga URSS, as Ciências Agrícolas e Biológicas ainda se ressentem das consequências do atraso de décadas provocado pela sua subordinação aos ditames e à truculência de Trofim D. Lysenko, apoiado pelo ditador Josef Stálin e seus sucessores imediatos, que rejeitava a Genética, mesmo diante dos avanços obtidos por cientistas de todo o mundo, inclusive na própria URSS, por considerá-la uma “ciência burguesa e antirrevolucionária”. O empenho na imposição do AGA, sem as devidas evidências, equivale a uma versão atual do “lysenkoísmo”, que tem custado caro à Humanidade, em recursos humanos, técnicos e econômicos desperdiçados com um problema inexistente.

Ademais, ao conferir ao dióxido de carbono (CO2) e outros gases produzidos pelas atividades humanas o papel de principais protagonistas da dinâmica climática, a hipótese do AGA simplifica e distorce um processo extremamente complexo, no qual interagem fatores astrofísicos, atmosféricos, oceânicos, geológicos, geomorfológicos e biológicos, que a Ciência apenas começa a entender em sua abrangência.

Um exemplo dos riscos dessa simplificação é a possibilidade real de que o período até a década de 2030 experimente um considerável resfriamento, em vez de aquecimento, devido ao efeito combinado de um período de baixa atividade solar e de uma fase de resfriamento do oceano Pacífico (Oscilação Decadal do Pacífico-ODP), em um cenário semelhante ao verificado entre 1947 e 1976. Vale observar que, naquele intervalo, o Brasil experimentou uma redução de 10-30% nas chuvas, o que acarretou problemas de abastecimento de água e geração elétrica, além de um aumento das geadas fortes, que muito contribuíram para erradicar o café no Paraná. Se tais condições se repetirem, o País poderá ter sérios problemas, inclusive, nas áreas de expansão da fronteira agrícola das regiões Centro-Oeste e Norte e na geração hidrelétrica (particularmente, considerando a proliferação de reservatórios “a fio d’água”, impostos pelas restrições ambientais).

A propósito, o decantado limite de 2oC para a elevação das temperaturas, que, supostamente, não poderia ser superado e tem justificado todas as restrições propostas para os combustíveis fósseis, em âmbito internacional, também não tem qualquer base científica: trata-se de uma criação “política” do físico Hans-Joachim Schellnhuber, assessor científico do governo alemão, como admitido por ele próprio, em uma entrevista à revista Der Spiegel (17/10/2010).

3) O alarmismo climático é contraproducente:
As mudanças constituem o estado permanente do sistema climático – pelo que a expressão “mudanças climáticas” chega a ser redundante. Por isso, o alarmismo que tem caracterizado as discussões sobre o tema é extremamente prejudicial à atitude correta necessária diante dos fenômenos climáticos, que deve ser orientada pelo bom senso e pelo conceito de resiliência, em lugar de submeter as sociedades a restrições tecnológicas e econômicas absolutamente desnecessárias.

No caso, resiliência significa a flexibilidade das condições físicas de sobrevivência e funcionamento das sociedades, além da capacidade de resposta às emergências, permitindo-lhes reduzir a sua vulnerabilidade às oscilações climáticas e outros fenômenos naturais potencialmente perigosos. Tais requisitos incluem, por exemplo, a redundância de fontes alimentícias (inclusive a disponibilidade de sementes geneticamente modificadas para todas as condições climáticas), capacidade de armazenamento de alimentos, infraestrutura de transportes, energia e comunicações e outros fatores.

Portanto, o caminho mais racional e eficiente para aumentar a resiliência da Humanidade, diante das mudanças climáticas inevitáveis, é a elevação geral dos seus níveis de desenvolvimento e progresso aos patamares permitidos pela Ciência e pela Tecnologia modernas.

Além disso, o alarmismo desvia as atenções das emergências e prioridades reais. Um exemplo é a indisponibilidade de sistemas de saneamento básico para mais da metade da população mundial, cujas consequências constituem, de longe, o principal problema ambiental do planeta. Outro é a falta de acesso à eletricidade, que atinge mais de 1,5 bilhão de pessoas, principalmente na Ásia, África e América Latina.

No Brasil, sem mencionar o déficit de saneamento, grande parte dos recursos que têm sido alocados a programas vinculados às mudanças climáticas, segundo o enfoque da redução das emissões de carbono, teria uma destinação mais útil à sociedade se fosse empregada na correção de deficiências reais, como: a falta de um satélite meteorológico próprio (de que dispõem países como a China e a Índia); a ampliação e melhor distribuição territorial da rede de estações meteorológicas, inferior aos padrões recomendados pela Organização Meteorológica Mundial, para um território com as dimensões do brasileiro; o aumento do número de radares meteorológicos e a sua interligação aos sistemas de defesa civil; a consolidação de uma base nacional de dados climatológicos, agrupando os dados de todas as estações meteorológicas do País, boa parte dos quais sequer foi digitalizada; e numerosas outras.

4) A “descarbonização” da economia é desnecessária e economicamente deletéria:
Uma vez que as emissões antropogênicas de carbono não provocam impactos verificáveis no clima global, toda a agenda da “descarbonização” da economia, ou “economia de baixo carbono”, se torna desnecessária e contraproducente – sendo, na verdade, uma pseudo-solução para um problema inexistente. A insistência na sua preservação, por força da inércia do status quo, não implicará em qualquer efeito sobre o clima, mas tenderá a aprofundar os seus numerosos impactos negativos.

O principal deles é o encarecimento desnecessário das tarifas de energia e de uma série de atividades econômicas, em razão de: a) os pesados subsídios concedidos à exploração de fontes energéticas de baixa eficiência, como a eólica e solar - ademais, inaptas para a geração elétrica de base (e já em retração na União Europeia, que investiu fortemente nelas); b) a imposição de cotas e taxas vinculadas às emissões de carbono, como fizeram a União Europeia, para viabilizar o seu mercado de créditos de carbono, e a Austrália, sob grande rejeição popular; c) a imposição de medidas de captura e sequestro de carbono (CCS) a várias atividades.

Os principais beneficiários de tais medidas têm sido os fornecedores de equipamentos e serviços de CCS e os participantes dos intrinsecamente inúteis mercados de carbono, que não têm qualquer fundamento econômico real e se sustentam tão-somente em uma demanda artificial criada sobre uma necessidade inexistente. Vale acrescentar que tais mercados têm se prestado a toda sorte de atividades fraudulentas, inclusive no Brasil, onde autoridades federais investigam contratos de carbono ilegais envolvendo tribos indígenas, na Amazônia, e a criação irregular de áreas de proteção ambiental para tais finalidades escusas, no estado de São Paulo.

5) É preciso uma guinada para o futuro:
Pela primeira vez na História, a Humanidade detém um acervo de conhecimentos e recursos físicos, técnicos e humanos, para prover a virtual totalidade das necessidades materiais de uma população ainda maior que a atual. Esta perspectiva viabiliza a possibilidade de se universalizar – de uma forma inteiramente sustentável – os níveis gerais de bem-estar usufruídos pelos países mais avançados, em termos de infraestrutura de água, saneamento, energia, transportes, comunicações, serviços de saúde e educação e outras conquistas da vida civilizada moderna. A despeito dos falaciosos argumentos contrários a tal perspectiva, os principais obstáculos à sua concretização, em menos de duas gerações, são mentais e políticos, e não físicos e ambientais.

Para tanto, o alarmismo ambientalista, em geral, e climático, em particular, terá que ser apeado do seu atual pedestal de privilégios imerecidos e substituído por uma estratégia que privilegie os princípios científicos, o bem comum e o bom senso.

A conferência Rio+20 poderá ser uma oportuna plataforma para essa necessária reorientação.

Kenitiro Suguio
Geólogo, Doutor em Geologia
Professor Emérito do Instituto de Geociências da Universidade de São Paulo (USP)
Membro titular da Academia Brasileira de Ciências
RG 2.106.298–5-SP

Luiz Carlos Baldicero Molion
Físico, Doutor em Meteorologia e Pós-doutor em Hidrologia de Florestas
Pesquisador Sênior (aposentado) do Instituto Nacional de Pesquisas Espaciais (INPE)
Professor Associado da Universidade Federal de Alagoas (UFAL)
RG 3.575.005–SSP – SP

Fernando de Mello Gomide
Físico, Professor Titular (aposentado) do Instituto Tecnológico da Aeronáutica (ITA)
Co-autor do livro Philosophy of Science: Brief History (Amazon Books, 2010, com Marcelo Samuel Berman)
RG DI 76.676 – Min. Aeronáutica

José Bueno Conti
Geógrafo, Doutor em Geografia Física e Livre-docente em Climatologia
Professor Titular do Departamento de Geografia da Universidade de São Paulo (USP)
Autor do livro
Clima e meio ambiente (Atual, 2011)
RG 1.964.865–0 – SP

José Carlos Parente de Oliveira
Físico, Doutor em Física e Pós-doutor em Física da Atmosfera
Professor Associado (aposentado) da Universidade Federal do Ceará (UFC)
Professor do Instituto Federal de Educação, Ciência e Tecnologia do Ceará (IFCE)
RG 433.673 – SP – CE

Francisco Arthur Silva Vecchia
Engenheiro de Produção, Mestre em Arquitetura e Doutor em Geografia
Professor Associado do Departamento de Hidráulica e Saneamento da Escola de Engenharia de São Carlos–USP
Diretor do Centro de Recursos Hídricos e Ecologia Aplicada (CRHEA)
RG 6.181.607–3 – SP

Ricardo Augusto Felicio
Meteorologista, Mestre e Doutor em Climatologia
Professor do Departamento de Geografia da Universidade de São Paulo (USP)
RG 19.234.631 – SP

Antonio Jaschke Machado
Meteorologista, Mestre e Doutor em Climatologia
Professor do Departamento de Geografia da Universidade Estadual Paulista “Júlio de Mesquita Filho” (UNESP)
RG 18.870.313–5 – SP

João Wagner Alencar Castro
Geólogo, Mestre em Sedimentologia e Doutor em Geomorfologia
Professor Adjunto do Departamento de Geologia da Universidade Federal do Rio de Janeiro (UFRJ)
Chefe do Departamento de Geologia e Paleontologia do Museu Nacional/UFRJ
RG 105.476.311 – IFP – RJ

Helena Polivanov
Geóloga, Mestra em Geologia de Engenharia e Doutora em Geologia de Engenharia e Ambiental
Professora Associada do Departamento de Geologia da Universidade Federal do Rio de Janeiro (UFRJ)
RG 3.268.520 – IFP – RJ

Gustavo Macedo de Mello Baptista
Geógrafo, Mestre em Tecnologia Ambiental e Recursos Hídricos e Doutor em Geologia
Professor Adjunto do Instituto de Geociências da Universidade de Brasília (UnB)
Autor do livro Aquecimento Global: ciência ou religião? (Hinterlândia, 2009)
RG 1.015.559-SSP–DF

Paulo Cesar Soares
Geólogo, Doutor em Ciências Geológicas e Livre-docente em Estratigrafia
Professor Titular da Universidade Federal do Paraná (UFPR)
RG 8.210.374.0-PR

Gildo Magalhães dos Santos Filho
Engenheiro eletrônico, Doutor em História Social e Livre-docente em História da Ciência e Tecnologia
Professor Associado do Departamento de História da Universidade de São Paulo (USP)
RG 3.561.441 – SP

Paulo Cesar Martins Pereira de Azevedo Branco
Geólogo, Pesquisador em Geociências (B-sênior) do Serviço Geológico do Brasil – CPRM
RG 3.162.673-2 – SSP-RJ

Daniela de Souza Onça
Geógrafa, Mestra e Doutora em Climatologia
Professora da Universidade do Estado de Santa Catarina (UDESC)
RG 34.260.417–X–SSP–SP

Marcos José de Oliveira
Engenheiro Ambiental, Mestre em Engenharia Ambiental e Climatologia Aplicada
Doutorando em Geociências Aplicadas na Universidade de Brasília (UnB)
RG 34.028.785–8–SSP– SP

Geraldo Luís Saraiva Lino
Geólogo, coeditor do sítio Alerta em Rede
Autor do livro A fraude do aquecimento global: como um fenômeno natural foi convertido numa falsa emergência mundial (Capax Dei, 2009)
RG 3.078.127–2–DIC–RJ

Maria Angélica Barreto Ramos
Geóloga, Pesquisadora em Geociências (Sênior) do Serviço Geológico do Brasil – CPRM
RG 8.453.248-37-SSP-BA

Publicado originalmente no blog “Terrorismo climático”, de Maurício Porto: http://terrorismoclimatico.blogspot.com.br/2012/05/0236-carta-aberta-presidente-dilma.html
.