terça-feira, 28 de janeiro de 2020
Tacadas torturantes
Henrique Paul Dmyterko *
CO2 = $$$$$$$$$$$$
Em seu livro Heaven and Earth: Global Warming, the Missing Science, o Prof. Ian Plimer, geólogo e climatologista australiano, citado em artigos anteriores, refere-se aos modelos climáticos computacionais por diversas vezes e nunca de maneira lisonjeira. Numa delas, ele diz: “[] Esses modelos nada têm a ver com ciência ou empirismo, mas sim com a tortura dos dados, até que estes finalmente confessem”.
Um dos mais notórios e infames modelos climáticos resultou num gráfico que ficou conhecido como o “Taco de Hóquei” (Hockey Stick). Seus autores, uma equipe liderada pelo cientista americano Michael Mann (condenado recentemente por um tribunal do Canadá por falsificação), quase que imediatamente ganharam fama, dinheiro e prestígio: publicado em 1998-99, foi incorporado ao terceiro relatório do IPCC-ONU, em 2001. De lá para cá, o tal modelo já foi refutado e desacreditado diversas vezes e por vários cientistas. Na verdade, talvez tenha sido o documento “científico” mais refutado da história da ciência. Acontece que esse gráfico/modelo computacional é peça chave da estratégia de desinformação dos interessados em obter vantagens políticas e financeiras do alarmismo infundado sobre o aquecimento global antropogênico (AGA). Prova disto é que agora em setembro de 2009, o Dr. Mann lançou um “novo” gráfico, em mais uma tacada fraudulenta. Afinal, por que desistir de uma má ideia se ela é lucrativa? O absurdo foi rechaçado de imediato e o leitor pode ler mais sobre esse relançamento da fraude aqui (em inglês).
Nessa altura, porém, imagino que algum leitor possa estar a se perguntar: “Afinal, o que é um modelo computacional, para que serve, como funciona, por que tanta refutação a esse Taco de Hóquei?”
Para responder a essas e outras perguntas importantes, recorri a dois especialistas brasileiros, em áreas distintas. O primeiro é o Prof. Dalton V. Kozak, Professor Adjunto-II da PUCPR, Engenheiro Aeronáutico pelo ITA (1983), Mestre em Ciências pelo ITA (1992), [quando desenvolveu software (modelo computacional) para simulações na área de gasdinâmica], Doutor em Engenharia pela UFPR, consultor de informática em desenvolvimento de softwares de engenharia, engenheiro responsável da IPE Aeronaves e da Planair Ind. Aeroespacial. Foi também engenheiro de propulsão na Avibrás Indústria Aeroespacial (S.J. dos Campos - SP), pesquisador visitante no Instituto de Aeronáutica e Espaço (S.J. dos Campos - SP), analista de sistemas na Trevisan Software (atual Synchro) e coordenador e gerente de projetos na Polo de Software de Curitiba.
Na UFPR, desenvolveu um trabalho na área de simulação (modelo computacional) de escoamento de gases rarefeitos (doutorado sob orientação do prof. Felix Sharipov - http://fisica.ufpr.br/sharipov/ ), onde as equações do contínuo não são válidas, e o cálculo do escoamento é feito diretamente pela simulação dos choques entre as partículas constituintes do gás, ou seja, simulação do modelo físico. Tal técnica de simulação se denomina DSMC - Direct Simulation Monte Carlo ( ver http://en.wikipedia.org/wiki/Direct_simulation_Monte_Carlo ). No Brasil, há poucos especialistas nesta área.
Com essas qualificações, eis o que o Prof. Dalton V. Kozak diz a respeito de modelos computacionais (os grifos são meus):
“Modelos são abstrações de uma realidade (simplificações, digamos) dentro de um contexto existente e válido num dado momento. Como exemplo bem simples, podemos imaginar um problema clássico da física, que é a determinação da trajetória de um projétil lançado a uma determinada velocidade. Para determinar esta trajetória criamos um modelo físico que expressa as forças que atuam neste projétil e que governam seu movimento. Num primeiro momento, se queremos uma análise não muito exata, podemos assumir que apenas a força da gravidade atua sobre o projétil e, com as leis de movimento e da gravitação de Newton, podemos então derivar um modelo matemático que permite descrever a trajetória deste projétil. Este modelo matemático, por sua vez, pode ser adaptado para ser resolvido em computador com essa ou aquela técnica de resolução numérica, transformando-se em um modelo computacional.
Em relação a este mesmo problema, se queremos melhorar o resultado, é preciso verificar se o modelo físico realmente descreve a situação real do fenômeno. Se o lançamento do projétil é realizado no vácuo, então não existe resistência ao avanço, e apenas a força da gravidade atua: o modelo físico é bom. Porém, no lançamento em uma atmosfera, o ar oferece resistência ao avanço do projétil. Assim, para melhorar nossa análise, esta nova força deve ser incluída no modelo físico e, como consequência, os modelos matemáticos e computacionais devem também ser atualizados.
Mas tudo isso está ocorrendo no seguinte contexto momentâneo: o de que as leis de movimento e de gravitação de Newton são válidas. Se deixarem de ser (não é o caso aqui, certamente), todos os modelos acima deixam de ser utilizáveis.
Portanto, por trás dos modelos existem teorias e paradigmas que sustentam todo o arcabouço de conhecimento que servem como base para elaboração do modelo: se eles falharem, também falham os modelos.
Todos acreditavam até o século XVI que a Terra era o centro do universo, e modelos foram elaborados baseados nesta teoria para descrever o movimento dos corpos celestes, os quais não resistiam às observações. Pouco depois veio o modelo heliocêntrico (devido a Copérnico) na crença de que o Sol era o centro, mas também não resistiu a observações. Na sequência, Kepler e Tycho Brahe foram responsáveis pela elaboração do modelo de movimento de corpos celestes que resiste até hoje, descartando a teoria geocêntrica e heliocêntrica.
No final do século XIX Ludwig Boltzmann propôs a teoria cinética dos gases (teoria que descreve o comportamento dos gases como função das velocidades de suas partículas), a qual tinha como pressuposição que os gases eram compostos por partículas, como átomos e moléculas. Nesta época a existência do átomo era muito controversa, e como resultado da pressão da comunidade científica da época, cética em relação às suas teorias, e o fato de Boltzmann sofrer de problemas depressivos, ele acabou por se suicidar em 1906. Porém, na mesma época, Einstein, através de seu célebre trabalho sobre o movimento browniano, acabou por confirmar as suspeitas de Boltzmann, cuja teoria cinética é utilizada até hoje no campo do estudo dos gases.
Com esses fatos em mente, é preciso saber se as teorias vigentes hoje sobre a evolução do clima são a última palavra sobre o assunto (ou seja, se já se atingiu “o estado da arte”), ou se ainda é preciso esperar que mais elementos da realidade sejam capturados e entendidos para formar um quadro final.
Em outras palavras, bons modelos para solução de um determinado problema são abstrações adequadas da realidade, mas esta, por sua vez, deve ser bem compreendida e estabelecida para que os modelos sobrevivam. Em cada interface (realidade-modelo físico, modelo físico-modelo matemático, modelo matemático-modelo computacional) é possível haver deturpação, intencional ou não, do fluxo de informações (perdas, adulterações) de tal forma que o modelo computacional final apresente resultados não satisfatórios, ou apresente resultados tendenciosos. Assim, a melhor forma de avaliar um modelo computacional não é através da "verificação dos casos" que ele pretende descrever, feito pelos próprios autores, mas sim através de técnicas de refutação feitas por terceiros, procurando descobrir situações onde o modelo falha em sua previsão.
Os modelos matemáticos climáticos são, em regra, descritos por sistemas de equações diferenciais não-lineares no tempo (sistemas dinâmicos) que, dadas as condições iniciais (o "clima" no tempo 0), podem estimar a evolução do clima no tempo. Mas sistemas dinâmicos não lineares, quando resolvidos numericamente através de um modelo computacional, são muito sensíveis às condições iniciais à medida que o tempo da simulação avança: a própria limitação de precisão da máquina digital é suficiente para causar problemas em longo prazo.
E foi justamente na simulação de um modelo climático simples realizado por Lorenz em 1963 (ver http://pt.wikipedia.org/wiki/Efeito_borboleta ) que se detectou a grande sensibilidade destes tipos de modelos às condições iniciais, fato esse que deu início a tão falada Teoria do Caos, da descrição do "efeito borboleta" e do aparecimento dos famigerados "atratores estranhos". O que se vê nisso tudo é que existe uma complexidade e uma não exatidão inerente na solução de tais modelos matemáticos/computacionais que, juntando com modelos físicos ou teorias às vezes não unânimes, apontam para um nível de incerteza que muitas vezes não permite obter respostas categóricas em relação aos problemas em estudo.
Portanto, qualquer consideração sobre resultados de tais modelos sempre deve ser criteriosa, e creio ser muito difícil poder afirmar que esse ou aquele modelo computacional climático possa se colocar como a palavra final em termos de previsão. Modelos são modelos, nada mais do que modelos.”
Especificamente sobre o “Taco de Hóquei”, recorri ao trabalho de outra especialista, a Geógrafa e Doutora em Geografia Física pela USP, Daniela de Souza Onça, através do artigo A controvérsia do Taco de Hóquei, publicado pelo site FakeClimate, cuja leitura integral (15 páginas de ricas informações) recomendo enfaticamente. Para o propósito deste artigo, reproduzo apenas alguns trechos do trabalho da Profª Daniela Onça, que julgo bastante esclarecedores, especialmente para o público leigo. Novamente, os grifos são meus:
“RESUMO: Neste artigo, abordamos uma das mais acirradas controvérsias sobre a hipótese do aquecimento global: a publicação, no terceiro relatório de avaliação do Painel Intergovernamental sobre Mudanças Climáticas, em 2001, do gráfico de Mann et al (1998,1999), popularmente conhecido como “taco de hóquei” (em alusão ao seu formato), que mostra a evolução das temperaturas no hemisfério norte ao longo do último milênio. De acordo com os autores deste gráfico, as temperaturas registradas no século XX e, mais acentuadamente, na década de 1990 e no ano de 1998 são anormalmente elevadas no contexto do último milênio, denotando fortes evidências do processo de aquecimento global induzido pelas atividades humanas.
Após ter se tornado um ícone da propaganda do aquecimento global, o taco de hóquei foi desmentido em 2003 por Stephen McIntyre e Ross McKitrick, que descobriram graves falhas na seleção de dados e na programação do gráfico, falhas estas que são as verdadeiras responsáveis por seu formato característico. De acordo com os revisores, as temperaturas registradas no século XX não são anômalas nem nos valores e nem na variabilidade, pois são superadas em larga medida pelo Optimum Climático Medieval
Figura 1 – Estimativas da evolução da temperatura média global ao longo do último milênio (IPCC,1990, citado por Daly, 2000).
A curva acima reflete a existência dos dois períodos climáticos distintos já descritos neste trabalho, o Optimum Climático Medieval e a Pequena Idade do Gelo. A evidência da curva é bastante clara: o Optimum Climático Medieval, aproximadamente entre os anos 1000 e 1300, foi mais quente do que o século XX – com o pequeno detalhe de que, àquele tempo, não só o desenvolvimento industrial não era exatamente comparável ao de hoje, como não há evidências de que esse aquecimento tenha sido acompanhado por qualquer alteração na concentração atmosférica de gases estufa. Dessa forma, o período atual, que pode ser considerado uma espécie de “retorno à normalidade” após os rigores da Pequena Idade do Gelo, foi precedido por um período ainda mais quente sem a interferência do presumido efeito estufa antropogênico (LEROUX, 2005, p. 207-208).
O inconveniente dessas considerações é bastante óbvio: se temos na história recente um exemplo de um período de cerca de 300 anos mais quente que o atual sem a interferência de gases estufa antropogênicos, como poderemos ter certeza de que o aquecimento supostamente verificado no século XX é devido a esses gases e, o que é mais grave, como poderemos rotular esse suposto aquecimento de “incomum”? Tais perguntas representavam uma verdadeira ameaça ao futuro da visão catastrofista das mudanças climáticas globais.
Figura 2 – Anomalias de temperaturas do hemisfério norte relativas à média de 1961 a 1990 (vulgo “taco de hóquei”). Em azul, a reconstrução por dados indiretos; em vermelho, dados diretos; em cinza, as margens de incerteza (IPCC, 2001, p. 134).
A curva de Mann et al, chamada no meio climatológico de “taco de hóquei” (hockey stick), por causa de seu formato, exibe as variações de temperatura da superfície do hemisfério norte ao longo do último milênio (1000-2000). A curva faz simplesmente desaparecer os contrastes do Optimum Climático Medieval e da Pequena Idade do Gelo e os substitui por uma tendência mais linear, de um leve resfriamento interrompido por volta de 1900, quando se inicia uma gritante tendência de aquecimento sem precedentes nos nove séculos anteriores. (LEROUX, 2005, p. 208).
Construído dessa forma, o taco de hóquei ignora uma grande quantidade de pesquisas extensas e sérias que atestam a ocorrência em todo o planeta dos dois períodos climáticos diferenciados do último milênio e faz o aquecimento do século XX parecer realmente dramático e incomum (LEROUX, 2005, p. 210). Para o IPCC, tanto o Optimum Climático Medieval quanto a Pequena Idade do Gelo configuraram-se como mudanças de temperatura bastante modestas, fenômenos isolados, concentrados na região do Atlântico Norte, e não podem ser consideradas mudanças climáticas em nível global”.
Do exposto acima, em linguagem simples, o que o leitor tem é a oportunidade de ver as “tacadas torturantes” reduzidas a petelecos de moleques pseudocientistas. Lamentavelmente, a riquíssima máquina de propaganda do IPCC-ONU continua a todo vapor, requentando fraudes que ainda nos custarão muito caro, tanto financeiramente quanto em termos de perda de nossas liberdades e, possivelmente, da soberania nacional. A disseminação de informações fidedignas é, por enquanto, a nossa única defesa, a nossa única arma. E se ainda resta alguma dúvida quanto ao crescente número de céticos, confira este site: http://www.petitionproject.org/index.php
* o autor é Engenheiro Mecânico pela UFPR, 1987, tradutor e escritor.
.
CO2 = $$$$$$$$$$$$
Em seu livro Heaven and Earth: Global Warming, the Missing Science, o Prof. Ian Plimer, geólogo e climatologista australiano, citado em artigos anteriores, refere-se aos modelos climáticos computacionais por diversas vezes e nunca de maneira lisonjeira. Numa delas, ele diz: “[] Esses modelos nada têm a ver com ciência ou empirismo, mas sim com a tortura dos dados, até que estes finalmente confessem”.
Um dos mais notórios e infames modelos climáticos resultou num gráfico que ficou conhecido como o “Taco de Hóquei” (Hockey Stick). Seus autores, uma equipe liderada pelo cientista americano Michael Mann (condenado recentemente por um tribunal do Canadá por falsificação), quase que imediatamente ganharam fama, dinheiro e prestígio: publicado em 1998-99, foi incorporado ao terceiro relatório do IPCC-ONU, em 2001. De lá para cá, o tal modelo já foi refutado e desacreditado diversas vezes e por vários cientistas. Na verdade, talvez tenha sido o documento “científico” mais refutado da história da ciência. Acontece que esse gráfico/modelo computacional é peça chave da estratégia de desinformação dos interessados em obter vantagens políticas e financeiras do alarmismo infundado sobre o aquecimento global antropogênico (AGA). Prova disto é que agora em setembro de 2009, o Dr. Mann lançou um “novo” gráfico, em mais uma tacada fraudulenta. Afinal, por que desistir de uma má ideia se ela é lucrativa? O absurdo foi rechaçado de imediato e o leitor pode ler mais sobre esse relançamento da fraude aqui (em inglês).
Nessa altura, porém, imagino que algum leitor possa estar a se perguntar: “Afinal, o que é um modelo computacional, para que serve, como funciona, por que tanta refutação a esse Taco de Hóquei?”
Para responder a essas e outras perguntas importantes, recorri a dois especialistas brasileiros, em áreas distintas. O primeiro é o Prof. Dalton V. Kozak, Professor Adjunto-II da PUCPR, Engenheiro Aeronáutico pelo ITA (1983), Mestre em Ciências pelo ITA (1992), [quando desenvolveu software (modelo computacional) para simulações na área de gasdinâmica], Doutor em Engenharia pela UFPR, consultor de informática em desenvolvimento de softwares de engenharia, engenheiro responsável da IPE Aeronaves e da Planair Ind. Aeroespacial. Foi também engenheiro de propulsão na Avibrás Indústria Aeroespacial (S.J. dos Campos - SP), pesquisador visitante no Instituto de Aeronáutica e Espaço (S.J. dos Campos - SP), analista de sistemas na Trevisan Software (atual Synchro) e coordenador e gerente de projetos na Polo de Software de Curitiba.
Na UFPR, desenvolveu um trabalho na área de simulação (modelo computacional) de escoamento de gases rarefeitos (doutorado sob orientação do prof. Felix Sharipov - http://fisica.ufpr.br/sharipov/ ), onde as equações do contínuo não são válidas, e o cálculo do escoamento é feito diretamente pela simulação dos choques entre as partículas constituintes do gás, ou seja, simulação do modelo físico. Tal técnica de simulação se denomina DSMC - Direct Simulation Monte Carlo ( ver http://en.wikipedia.org/wiki/Direct_simulation_Monte_Carlo ). No Brasil, há poucos especialistas nesta área.
Com essas qualificações, eis o que o Prof. Dalton V. Kozak diz a respeito de modelos computacionais (os grifos são meus):
“Modelos são abstrações de uma realidade (simplificações, digamos) dentro de um contexto existente e válido num dado momento. Como exemplo bem simples, podemos imaginar um problema clássico da física, que é a determinação da trajetória de um projétil lançado a uma determinada velocidade. Para determinar esta trajetória criamos um modelo físico que expressa as forças que atuam neste projétil e que governam seu movimento. Num primeiro momento, se queremos uma análise não muito exata, podemos assumir que apenas a força da gravidade atua sobre o projétil e, com as leis de movimento e da gravitação de Newton, podemos então derivar um modelo matemático que permite descrever a trajetória deste projétil. Este modelo matemático, por sua vez, pode ser adaptado para ser resolvido em computador com essa ou aquela técnica de resolução numérica, transformando-se em um modelo computacional.
Em relação a este mesmo problema, se queremos melhorar o resultado, é preciso verificar se o modelo físico realmente descreve a situação real do fenômeno. Se o lançamento do projétil é realizado no vácuo, então não existe resistência ao avanço, e apenas a força da gravidade atua: o modelo físico é bom. Porém, no lançamento em uma atmosfera, o ar oferece resistência ao avanço do projétil. Assim, para melhorar nossa análise, esta nova força deve ser incluída no modelo físico e, como consequência, os modelos matemáticos e computacionais devem também ser atualizados.
Mas tudo isso está ocorrendo no seguinte contexto momentâneo: o de que as leis de movimento e de gravitação de Newton são válidas. Se deixarem de ser (não é o caso aqui, certamente), todos os modelos acima deixam de ser utilizáveis.
Portanto, por trás dos modelos existem teorias e paradigmas que sustentam todo o arcabouço de conhecimento que servem como base para elaboração do modelo: se eles falharem, também falham os modelos.
Todos acreditavam até o século XVI que a Terra era o centro do universo, e modelos foram elaborados baseados nesta teoria para descrever o movimento dos corpos celestes, os quais não resistiam às observações. Pouco depois veio o modelo heliocêntrico (devido a Copérnico) na crença de que o Sol era o centro, mas também não resistiu a observações. Na sequência, Kepler e Tycho Brahe foram responsáveis pela elaboração do modelo de movimento de corpos celestes que resiste até hoje, descartando a teoria geocêntrica e heliocêntrica.
No final do século XIX Ludwig Boltzmann propôs a teoria cinética dos gases (teoria que descreve o comportamento dos gases como função das velocidades de suas partículas), a qual tinha como pressuposição que os gases eram compostos por partículas, como átomos e moléculas. Nesta época a existência do átomo era muito controversa, e como resultado da pressão da comunidade científica da época, cética em relação às suas teorias, e o fato de Boltzmann sofrer de problemas depressivos, ele acabou por se suicidar em 1906. Porém, na mesma época, Einstein, através de seu célebre trabalho sobre o movimento browniano, acabou por confirmar as suspeitas de Boltzmann, cuja teoria cinética é utilizada até hoje no campo do estudo dos gases.
Com esses fatos em mente, é preciso saber se as teorias vigentes hoje sobre a evolução do clima são a última palavra sobre o assunto (ou seja, se já se atingiu “o estado da arte”), ou se ainda é preciso esperar que mais elementos da realidade sejam capturados e entendidos para formar um quadro final.
Em outras palavras, bons modelos para solução de um determinado problema são abstrações adequadas da realidade, mas esta, por sua vez, deve ser bem compreendida e estabelecida para que os modelos sobrevivam. Em cada interface (realidade-modelo físico, modelo físico-modelo matemático, modelo matemático-modelo computacional) é possível haver deturpação, intencional ou não, do fluxo de informações (perdas, adulterações) de tal forma que o modelo computacional final apresente resultados não satisfatórios, ou apresente resultados tendenciosos. Assim, a melhor forma de avaliar um modelo computacional não é através da "verificação dos casos" que ele pretende descrever, feito pelos próprios autores, mas sim através de técnicas de refutação feitas por terceiros, procurando descobrir situações onde o modelo falha em sua previsão.
Os modelos matemáticos climáticos são, em regra, descritos por sistemas de equações diferenciais não-lineares no tempo (sistemas dinâmicos) que, dadas as condições iniciais (o "clima" no tempo 0), podem estimar a evolução do clima no tempo. Mas sistemas dinâmicos não lineares, quando resolvidos numericamente através de um modelo computacional, são muito sensíveis às condições iniciais à medida que o tempo da simulação avança: a própria limitação de precisão da máquina digital é suficiente para causar problemas em longo prazo.
E foi justamente na simulação de um modelo climático simples realizado por Lorenz em 1963 (ver http://pt.wikipedia.org/wiki/Efeito_borboleta ) que se detectou a grande sensibilidade destes tipos de modelos às condições iniciais, fato esse que deu início a tão falada Teoria do Caos, da descrição do "efeito borboleta" e do aparecimento dos famigerados "atratores estranhos". O que se vê nisso tudo é que existe uma complexidade e uma não exatidão inerente na solução de tais modelos matemáticos/computacionais que, juntando com modelos físicos ou teorias às vezes não unânimes, apontam para um nível de incerteza que muitas vezes não permite obter respostas categóricas em relação aos problemas em estudo.
Portanto, qualquer consideração sobre resultados de tais modelos sempre deve ser criteriosa, e creio ser muito difícil poder afirmar que esse ou aquele modelo computacional climático possa se colocar como a palavra final em termos de previsão. Modelos são modelos, nada mais do que modelos.”
Especificamente sobre o “Taco de Hóquei”, recorri ao trabalho de outra especialista, a Geógrafa e Doutora em Geografia Física pela USP, Daniela de Souza Onça, através do artigo A controvérsia do Taco de Hóquei, publicado pelo site FakeClimate, cuja leitura integral (15 páginas de ricas informações) recomendo enfaticamente. Para o propósito deste artigo, reproduzo apenas alguns trechos do trabalho da Profª Daniela Onça, que julgo bastante esclarecedores, especialmente para o público leigo. Novamente, os grifos são meus:
“RESUMO: Neste artigo, abordamos uma das mais acirradas controvérsias sobre a hipótese do aquecimento global: a publicação, no terceiro relatório de avaliação do Painel Intergovernamental sobre Mudanças Climáticas, em 2001, do gráfico de Mann et al (1998,1999), popularmente conhecido como “taco de hóquei” (em alusão ao seu formato), que mostra a evolução das temperaturas no hemisfério norte ao longo do último milênio. De acordo com os autores deste gráfico, as temperaturas registradas no século XX e, mais acentuadamente, na década de 1990 e no ano de 1998 são anormalmente elevadas no contexto do último milênio, denotando fortes evidências do processo de aquecimento global induzido pelas atividades humanas.
Após ter se tornado um ícone da propaganda do aquecimento global, o taco de hóquei foi desmentido em 2003 por Stephen McIntyre e Ross McKitrick, que descobriram graves falhas na seleção de dados e na programação do gráfico, falhas estas que são as verdadeiras responsáveis por seu formato característico. De acordo com os revisores, as temperaturas registradas no século XX não são anômalas nem nos valores e nem na variabilidade, pois são superadas em larga medida pelo Optimum Climático Medieval
Figura 1 – Estimativas da evolução da temperatura média global ao longo do último milênio (IPCC,1990, citado por Daly, 2000).
A curva acima reflete a existência dos dois períodos climáticos distintos já descritos neste trabalho, o Optimum Climático Medieval e a Pequena Idade do Gelo. A evidência da curva é bastante clara: o Optimum Climático Medieval, aproximadamente entre os anos 1000 e 1300, foi mais quente do que o século XX – com o pequeno detalhe de que, àquele tempo, não só o desenvolvimento industrial não era exatamente comparável ao de hoje, como não há evidências de que esse aquecimento tenha sido acompanhado por qualquer alteração na concentração atmosférica de gases estufa. Dessa forma, o período atual, que pode ser considerado uma espécie de “retorno à normalidade” após os rigores da Pequena Idade do Gelo, foi precedido por um período ainda mais quente sem a interferência do presumido efeito estufa antropogênico (LEROUX, 2005, p. 207-208).
O inconveniente dessas considerações é bastante óbvio: se temos na história recente um exemplo de um período de cerca de 300 anos mais quente que o atual sem a interferência de gases estufa antropogênicos, como poderemos ter certeza de que o aquecimento supostamente verificado no século XX é devido a esses gases e, o que é mais grave, como poderemos rotular esse suposto aquecimento de “incomum”? Tais perguntas representavam uma verdadeira ameaça ao futuro da visão catastrofista das mudanças climáticas globais.
Figura 2 – Anomalias de temperaturas do hemisfério norte relativas à média de 1961 a 1990 (vulgo “taco de hóquei”). Em azul, a reconstrução por dados indiretos; em vermelho, dados diretos; em cinza, as margens de incerteza (IPCC, 2001, p. 134).
A curva de Mann et al, chamada no meio climatológico de “taco de hóquei” (hockey stick), por causa de seu formato, exibe as variações de temperatura da superfície do hemisfério norte ao longo do último milênio (1000-2000). A curva faz simplesmente desaparecer os contrastes do Optimum Climático Medieval e da Pequena Idade do Gelo e os substitui por uma tendência mais linear, de um leve resfriamento interrompido por volta de 1900, quando se inicia uma gritante tendência de aquecimento sem precedentes nos nove séculos anteriores. (LEROUX, 2005, p. 208).
Construído dessa forma, o taco de hóquei ignora uma grande quantidade de pesquisas extensas e sérias que atestam a ocorrência em todo o planeta dos dois períodos climáticos diferenciados do último milênio e faz o aquecimento do século XX parecer realmente dramático e incomum (LEROUX, 2005, p. 210). Para o IPCC, tanto o Optimum Climático Medieval quanto a Pequena Idade do Gelo configuraram-se como mudanças de temperatura bastante modestas, fenômenos isolados, concentrados na região do Atlântico Norte, e não podem ser consideradas mudanças climáticas em nível global”.
Do exposto acima, em linguagem simples, o que o leitor tem é a oportunidade de ver as “tacadas torturantes” reduzidas a petelecos de moleques pseudocientistas. Lamentavelmente, a riquíssima máquina de propaganda do IPCC-ONU continua a todo vapor, requentando fraudes que ainda nos custarão muito caro, tanto financeiramente quanto em termos de perda de nossas liberdades e, possivelmente, da soberania nacional. A disseminação de informações fidedignas é, por enquanto, a nossa única defesa, a nossa única arma. E se ainda resta alguma dúvida quanto ao crescente número de céticos, confira este site: http://www.petitionproject.org/index.php
* o autor é Engenheiro Mecânico pela UFPR, 1987, tradutor e escritor.
.
6 comentários:
Obrigado por participar, aguarde publicação de seu comentário.
Não publico ofensas pessoais e termos pejorativos. Não publico comentários de anônimos.
Registre seu nome na mensagem. Depois de digitar seu comentário clique na flechinha da janela "Comentar como", no "Selecionar perfil' e escolha "nome/URL"; na janela que vai abrir digite seu nome.
Se vc possui blog digite o endereço (link) completo na linha do URL, caso contrário deixe em branco.
Depois, clique em "publicar".
Se tiver gmail escolha "Google", pois o Google vai pedir a sua senha e autenticar o envio.
Assinar:
Postar comentários (Atom)
Henrique Dmyterko foi extremamente feliz em abordar o cerne do problema das discussões, supostamente acadêmicas, no que tange às provas de que a "mudança climática" ou "aquecimento global antrópico" são causados por emissões de gases como o CO2.
ResponderExcluirNeste ponto temos:
1 - Os modelos são uma visão de mundo, subjetivados pela existência do ser humano na avaliação deste mundo;
2 - Os modelos são visões imperfeitas da realidade e só assim podem ser considerados, tendo em vista que o todo da realidade é intangível;
3 - Dadas as premissas 1 e 2, os modelos são falhos e portanto, não podem ser usados como provas ou evidências do próprio mundo no qual estão tentando descrever (aceitar isto é erro crasso científico).
Justamente quando perguntamos qual é a evidência de que o CO2, por exemplo, cause "efeito estufa", ou controle as temperaturas do planeta Terra, verificamos que no mundo real isto não aconteceu, não acontece e nem acontecerá, mas nos modelos climáticos, isto é tomado como uma verdade absoluta.
Desta forma, fica a pergunta: quem está errado, o mundo real ou os modelos que o simulam? Assim sendo, conhecedores desta resposta muito óbvia, como podem esses próprios modelos serem considerados prova ou evidência de uma hipótese?
O resgate científico e histórico apresentado por Dmyterko, incluindo passagens de Kepler e Tycho, Boltzmann, Lorenz e Leroux (este último, para quem não o conheceu, já derrubou boa parte da Teoria Frontal Norueguesa), além das fraudes encontradas por McIntyre e McKitrick, substancialmente documentadas por Onça, tornam-se imprescindíveis para que as pessoas entendam bem a discussão, as quais já fazemos por mais de 15 anos, e como a questão climática não tem nada a ver com a velha geociência, mas está atrelada à geopolítica e seus desdobramentos nas relações de poder e dominação.
Excelentes considerações de Henrique Paul Dmyterko, esclarecendo as imperperfeicões dos modelos climáticos, quando comparados à realidade. Não obstante sejam formulados visando a aproximação e demonstração científica dos fenômenos naturais, não raras vezes estão distantes da comprovação das hipóteses. O debate relativo às mudanças climáticas ganha qualidade e consistentes esclarecimentos com o texto de Henrique, em especial para os leigos. Por Maurício Sprenger Natividade.
ResponderExcluirArtigo excelente e bem fundamento. Dá-nos uma visão geral e abrangente da fraca e forjada base da grande "mentira conveniente".
ResponderExcluirAo Prof. Ricardo eu pergunto: A acidificação dos oceanos é um processo real, rápido e diretamente relacionado ao aumento de CO2, com a diminuição do ph da água, comprometendo varias espécies marinhas?
ResponderExcluirTerreno Industrial,
ResponderExcluiro pH dos mares varia de 7,9 a 8,5 e, portanto, são alcalinos, não estão acidificando. Não há precisão científica que explique essas variações regionais, e calor não é uma das possíveis causas, nem mesmo o CO2.
De toda forma, o prof Ricardo Felício pode complementar esta resposta.
Excelente e oportuno artigo, que, esperamos, seja seguido por outros na mesma linha, com esclarecimentos bastante necessários nesses dias de catastrofismo hegemônico.
ResponderExcluir