top of page

Résultats de recherche

21 résultats trouvés avec une recherche vide

  • Le monde de l'énergie | Climatosceptique

    Le monde de l'énergie On peut définir l'énergie comme la capacité totale d’un système de réaliser un travail c'est-à-dire d’opérer une transformation quelconque ; et on peut définir la puissance comme la capacité instantanée de ce système d'effectuer ce travail. La puissance s'exprime généralement en watts ou ses unités supérieures, kilowatts (KW...) et l’énergie disponible en watts-heures ou kilowatts-heures (KWH) ou en unités supérieures. La puissance d’un moteur s’exprime parfois aussi en « chevaux ». 1 CV = 0,735 KW. Il y a quatre types d’énergie : mécanique, chimique, rayonnante et nucléaire. Du point de vue des modalités de production et d'usage de l’énergie par et pour les humains, l’énergie chimique est en général celle obtenue soit par combustion du charbon, des hydrocarbures, du méthane ou de l’hydrogène, soit par des piles électriques, qu’on peut donc inclure pratiquement dans l’énergie électrique lato sensu. On peut donc d’un point de vue pratique distinguer comme sources utiles les énergies mécanique, thermique, électrique et nucléaire. Il résulte du premier principe de thermodynamique, la conservation de l’énergie, que toutes les énergies peuvent théoriquement se convertir l'une dans l'autre, ce qui en pratique n’est cependant pas toujours possible pour toutes les transformations pour des raisons techniques. Il résulte du second principe de thermodynamique que chaque transformation d'énergie implique une perte partielle de sa qualité, concept qui peut donc se définir comme le caractère d'une énergie de se transformer avec le moins de perte de qualité. La qualité d'une énergie n'est cependant pas le seul critère de son intérêt. Plusieurs autres paramètres sont à considérer et notamment sa disponibilité potentielle sous forme condensée - dans un poids ou un volume le plus petit possible - et aussi les limites pratiques de sa puissance instantanée techniquement disponible. Parmi les autres paramètres non considérés ici, citons les inconvénients d’ordre divers (esthétiques, sonores, pollution) des installations productrices et des résidus des consommables générés, leur dangerosité éventuelle, leur coût d’installation et de fonctionnement, et leur disponibilité à long terme. Incidemment, l’énergie nucléaire est objectivement la plus sûre, les trois accidents majeurs avec fonte de la cuve sur un total de 443 réacteurs dans le monde à ce jour ayant fait moins de 50 décès au total (sans inclure les accidents des activités d'extraction des combustbles) soit 100 fois moins que l’hydroélectrique qui totalise plus de 150 ruptures de barrages ayant causés 5.000 à 10.000 décès, et beaucoup moins que les activités d’extraction des combustibles des centrales thermiques. Nous avons donc 3 critères majeurs d’évaluation des énergies utiles : qualité, concentration et disponibilité. Du point de vue qualitatif, l’énergie la plus précieuse est l’énergie mécanique, qui est le plus souvent l’aboutissement souhaité par la transformation des autres énergies qui servent à la produire. Ainsi, on brûle du carburant ou on utilise de l’électricité pour obtenir une énergie mécanique en sortie, avec nécessairement, en fonction de second principe de thermodynamique, une perte partielle de l’énergie initiale, essentiellement sous forme de chaleur. Vient ensuite l’énergie électrique, qui a l’intérêt majeur de générer très peu de pertes dans ses transformations. L’énergie thermique est celle qui a en principe le moins de qualité, bien qu’elle résulte souvent de la transformation volontaire d’une autre énergie, dans l’objectif du chauffage domestique principalement. Elle est aussi et surtout une étape dans la transformation des carburants fossiles et en particulier des hydrocarbures, soit en énergie mécanique par le biais des moteurs thermiques soit en énergie électrique dans les turbines des centrales hydroélectriques et nucléaires. Les sources majeures d’énergie thermique sont la combustion du bois, du charbon, du gaz naturel (composé de méthane principalement), des hydrocarbures, et marginalement (aujourd’hui…) de l’hydrogène. Si les quatre premières sont bien connues, l’hydrogène mérite un commentaire pour ses particularités. Élément largement majoritaire dans l’univers, il était jusque tout récemment estimé rarissime dans la croute terrestre mais il semblerait qu’il y en ait en fait d’énormes quantités, dont la petite minorité exploitable pourrait subvenir aux besoins de l’humanités pour des décennies. Pour l’heure il est essentiellement produit à partir du composant très majoritaire du gaz naturel, le méthane. Il est utilisé à parts égales dans la production d’engrais, dans le raffinage du pétrole et dans l’industrie chimique, pour sa propriété d’être un puissant réducteur, ce qui est le contraire d’un oxydant. Comme tel, c’est un puissant carburant, deux fois plus que les hydrocarbures à poids identique mais deux fois moins en volume (sous forme liquide évidemment) parce qu’il est très léger, ne comportant qu’un seul proton et aucun neutron. Par parenthèse, il a deux isotopes en infimes proportions, le deutérium et le tritium, qui ont respectivement 1 et 2 neutrons en plus de l’unique proton. Du fait de sa légèreté, l’hydrogène est utilisé à raison de 1% de la consommation mondiale comme carburant des engins spatiaux, pour lesquels le facteur poids est un paramètre plus limitant que le volume. Ses inconvénients sont le stockage, qui nécessite des te mpératures très basses ou une compression très élevée, et aussi son transport, qui nécessite des conduites et des réservoirs épais et adaptés au caractère très fluant de la molécule, qui du fait de sa petite taille traverse facilement les parois. Cela a évidemment un coût. Il est aussi très explosif au contact de l’oxygène de l’air à la moindre étincelle. Ces difficultés de transport et de stokage et sa faible disponibilité et donc son coût limitent son utilisation actuelle dans les transports. Toutefois, la confirmation de sources naturelles exploitables en quantités pouvant dépasser celles des carburants fossiles changerait la donne. On distingue 4 « couleurs » d’hydrogène en fonction de son mode de production : gris par reformage à partir du méthane, procédé largement majoritaire, bleu par le même processus avec mais avec stockage du CO2 produit par reformage, ce qui paradoxalement dégagerait plus de CO2 que le gris à cause de l’énergie nécessaire au stockage, jaune par électrolyse à partir de l'électricité d’origine nucléaire et vert par électrolyse à partir de l’électricité des renouvelables éolien et photovoltaïque. Toutes les transformations d’énergie se traduisent par une perte partielle sous forme d’énergie thermique, généralement non récupérable, résultant notamment des frottements dans les machines et d’une perte intrinsèque incontournable liée au processus de transformation. Une petite partie de cette perte peut parfois être récupérée, comme dans le chauffage des automobiles ou le chauffage urbain par l’eau du circuit tertiaire de refroidissement des centrales nucléaires à leur proximité. L’énergie thermique des nappes aquifères peut être utilisée pour le chauffage urbain, l’eau chaude pompée étant recyclée dans la nappe à une température inférieure. Son intérêt est un faible coût de production et une disponibilité permanente, contrairement à l’éolien et au photovoltaïque. Son inconvénient est la température peu élevée de l’eau captée, ce qui limite la puissance des installations. On peut néanmoins la convertir en électricité dans des pompes à chaleur ou utiliser directement la chaleur de l’eau dans le chauffage urbain. C’est une source d’énergie intéressante qui mérite d’être développée mais actuellement elle reste marginale. Du point de vue concentration, l’énergie nucléaire vient en tête. Ses défauts sont le poids et le volume minimal très élevés de l’installation, ce qui exclut du moins dans un horizon prévisible son utilisation dans le transport aérien et plus généralement dans les transports de petits et moyens volumes. Une exception est la pile à énergie nucléaire qui associe une très petite taille et une faible puissance à une grande longévité, ce qui lui confère un intérêt dans les petits engins d’exploration spatiale. Une autre exception est le générateur nucléaire des porte-avions et des sous-marins militaires, qui a un beaucoup plus petit volume qu’un générateur classique mais doit utiliser de l’uranium hautement enrichi, dont le coût très élevé est incompatible avec une utilisation civile. L’énergie électrique est assurément celle qui offre le plus d’avantages et sa part relative dans la consommation d’énergie totale est en constante augmentation. Elle a toutefois un défaut majeur : elle doit être consommée au moment même de sa production, par carence de moyens de stockage, à l’exception des barrages et des batteries, lesquelles ne permettent qu’un stockage d’énergie très limité : l’énergie d’un kilo de carburant fossile correspond à environ 40 kilos de batteries, ce qui comme le nucléaire rend problématique son utilisation dans le transport, surtout aérien. Une méthode de stockage indirect est l’hydrolyse de l’eau grâce au courant électrique produit par les énergies renouvelables solaires et photovoltaïq ue lorsque l’offre excède la demande, la recombinaison ultérieure de l’oxygène et de l’hydrogène obtenus permettant de produire l’électricité lors des pics de demande. L’inconvénient du processus est une perte d’énergie très élevée dans la boucle, de l’ordre de 70 % au minimum, et aussi le coût de maintenance du système. L’électricité reste produite très majoritairement, à raison de 80 % dans le monde, par combustion du charbon, des hydrocarbures et du méthane dans des centrales appelées thermiques de ce fait. La production d’électricité par les centrales nucléaires est très élevée en France (80%) et dans une moindre mesure en Belgique (50%) ainsi que dans quelques autres pays développés mais au niveau mondial elle est minoritaire (6%) et pratiquement absente dans les pays en voie de développement. Outre les centrales nucléaires classiques il existe quelques surgénérateurs qui ont le double intérêt de consommer très peu d’uranium et de laisser beaucoup moins de déchets que les centrales classiques dont elles peuvent même utiliser les déchets. Du fait de ces qualités ce sont probablement les centrales d’avenir à moyen terme mais elles posent des difficultés techniques notamment liées au caloporteur (plomb ou sodium fondu au lieu d’eau pressurisée) qui ont conduit à l’abandon regrettable de projets initiaux comme la centrale Superphenix en France. Une centrale expérimentale de nouvelle génération utilisant un autre principe sans utilisation d’uranium, produisant peu de déchets et très pilotables devrait être mise en fonction en Belgique d’ici 10 ans, pour compléter un accélérateur de particules qui sera installé dans une première étape : à suivre. Il y a un intérêt récent pour des réacteurs modulaires de petite traille (très relative…) et de moindre capacité (300 MW) qui pourraient suppléer aux centrales classiques (> 1.000 MW) à proximité des nœuds des réseaux de distribution. La perspective d’une centrale à fusion est à très long terme et la possibilité de son avènement est loin d’être assurée vu l’ampleur des difficultés à surmonter. La production d’électricité par les panneaux solaires a un intérêt certain au niveau individuel, en particulier dans les maisons isolées qui disposent d’une importante surface de toit voire de murs bien exposés. Au plan collectif son intérêt est discutable en raison de l’intermittence de production, la puissance moyenne effective n’étant que de 14 % de la puissance installée. De ce fait les installations ne sont généralement pas rentables, en tout cas dans les régions au climat tempéré, et elles n’existent que grâce aux subsides alloués, ce qui naturellement génère un surcoût important de l’électricité fournie au consommateur. La production par les installations éoliennes est rarement envisageable au niveau individuel en raison des inconvénients esthétiques et sonores et du coût généralement plus élevé que le photovoltaïque. Au plan collectif on retrouve le problème de l’intermittence de production, avec une puissance moyenne effective de 24 % de la puissance installée. Les éoliennes ont une importante répercussion environnementale, esthétique, sonore et par la pollution des hélices et des masses de béton des supports des installations en fin de vie, et aussi d’une considérable pollution dans les mines d’extraction des terres rares. A l’instar du photovoltaïques, l’éolien n’est pas rentable et génère l'augmentation du coût moyen de l’électricité, par le biais des subsides alloués. Dans les deux cas - éolien et photovoltaïque - l’intermittence nécessite en effet le déploiement de centrales thermiques de puissance équivalente pour suppléer à la demande en absence de vent et de soleil, installations qui ne peuvent pas non plus être rentables du fait de leur intermittence, étant forcées à s’arrêter lorsque les renouvelables produisent... L’énergie hydroélectrique transforme en électricité l’énergie mécanique de l'eau de retenue du barrage, qui fait tourner une turbine en dévalant dans une conduite. Le processus inverse, remontant dans la retenue l'eau d’aval avec des pompes électriques, permet de récupérer de l’énergie mécanique ultérieurement avec une perte acceptable. L’énergie marémotrice transforme sur le même principe l’énergie mécanique des mouvements marins en électricité. Son développement est très marginal du fait des difficultés de maintenance des installations, affectées par le sable et l’eau salée. Du point de vue disponibilité, on estime les réserves d'hydrocarbures à une centaine d'années, deux fois plus pour le charbon et plausiblement davantage pour les sources d'hydrogène pour autant que l'étendue des sources exploitables soit confirmée. Toutefois, il est possible de générer des hydrocarbures de synthèse à partir du Charbon et de biomasse comme les déchets agricoles, voire d'envisager une synthèse à partir du CO2. La limite est le coût actuel du processus par rapport au pétrole d'extraction mais il n'y a pas de difficulté technique particulière. Les hydrocarbures de synthèse ont d'ailleurs été largement utilisés par les militaires allemands pendant la dernière guerre après que l'accès aux sources naturelles aient été limités par l'avance des alliés en particulier en Afrique. Les réserves d'uranium seraient de l'ordre de 50 ans mais n'auraient pas de limites pratiques pour les surgénérateurs.

  • Climatosceptique Informations sur le changement climatique

    climat changement climatique climatosceptique informations sur le changement climatique réalités Accueil Climatosceptique est un blog d'information sur les idées reçues à propos changement climatique. L'objectif est de démystifier les croyances ressassées dans les média, de fournir des informations factuelles sur la réalité de l'évolution climatique, son importance et ses conséquences, de dénoncer les mythes de la scientificité du GIEC et du consensus, l'utopie et l'absence d'effet significatif de la décarbonation sur la température du globe et de rassurer sur changements attendus à la fin du siècle. Ce blog critique de la thèse du réchauffement climatique dû aux émissions de CO2 depuis l'ère industrielle est basé sur les faits. Il résume la plupart des livres et des articles en libre accès sur le web, cités dans la page « références ». Il inclut une conférence intitulée « Le déraisonnement climatique » en deux parties distinctes - faits et réflexions - et son diaporama associé. Les autres sections, accessibles dans le menu en page d’accueil, traitent les sujets liés à question climatique sous différents angles. Le terme « climatosceptique », assumé dans ce blog, a acquis une connotation à ce point négative qu'il est souvent associé au platisme et au créationnisme... C'est évidemment stupide puisque les scientifiques climatosceptiques, au sens large du terme, se comptent par milliers ; et c'est surtout paradoxal puisque le scepticisme est ou dervrait être au cœur de la démarche scientifique. Cet ostracisme envers les critiques de l'évangile climatique est révélateur du niveau de la controverse scientifique chez ses disciples. Très curieusement, la plupart des ouvrages publiés tant en français qu’en anglais ne traitent pas du tout du mécanisme de l’effet de serre. Remarquablement, dans les nombreux livres et articles qui sont à la base de ce site, il n’y en a en effet pas dix qui traitent ce mécanisme, et ils concluent presque tous à l’impossibilité physique d’une majoration significative de la température en conséquence de la progression du taux de CO2 atmosphérique. Je suis médecin, actuellement presque retraité, spécialiste en médecine nucléaire, un secteur mal connu de l’imagerie médicale. Ma biographie est résumée dans une page du site. Ma formation scientifique me permet de comprendre les mécanismes physiques intervenant dans la régulation climatique, lesquels au demeurant se résument à quelques lois simples, rappelées dans les pages qui y font référence. Il y a en médecine deux principes : le premier « primum non nocere » (avant tout, ne pas nuire) et le second : le diagnostic précède le traitement. Ces principes sont applicables à d'autres domaines. Avant de décarboner à grand frais, il faudrait d'abord s’assurer que cette mesure n’est pas nuisible, ce qui n’est pas le cas ; et ensuite qu’elle est adaptée à la situation, ce qui l’est encore moins. Une page du site (Un peu de logique) est consacrée à cette question. J’expose dans la conférence (La déraison climatique) comment je suis arrivé à douter de la thèse canonique, un doute initial qui s’est transformé avec mes lectures en conviction que la volonté de modifier l’évolution climatique en agissant sur le taux de CO2 est une utopie coûteuse et une monumentale erreur, que l’évolution climatique, loin d’être catastrophique, est au contraire bénéfique, que le GIEC n’est pas crédible, n’étant un organisme scientifique ni dans sa composition, ni dans sa compétence, ni dans son fonctionnement, et que l’allégation répétée d’un consensus scientifique sur la responsabilité anthropique du réchauffement est un mensonge éhonté. DELCOURT Eric dreric.delcourt@skynet.be .

  • Climatosceptiques | Climatosceptique

    Liste de scientifiques climatosceptiques Scientifiques climatosceptiques On peut être sceptique sur les rapports du GIEC à au moins 4 niveaux : Celui d’un changement sans précédent dans l’histoire du climat, sur la responsabilité anthropique du réchauffement, sur son impact défavorable à l’humanité, et enfin sur le réalisme et la pertinence de réduire considérablement et à bref délai les émissions de CO2. Aucune de ces allégations n'est scientifiquement prouvée. Comment dès lors expliquer la persistance des media à ressasser le consensus sur la thèse du GIEC jusqu'à la nausée quand des milliers de scientifiques ont écrit à l’ONU pour contester ses rapports ? Les raisons sont développées dans la serconde partie de la conférence « La déraison climatique ». Les statuts du GIEC, avant toute étude scientifique, stipulent qu'll y a réchauffement et que la seule cause en sont nos émissions de CO2, ce qui est une démarche anti-scientifique. Donc, le GIEC va tout faire pour nous persuader que « la science a parlé ». En réalité, des milliers de scientifiques dénoncent la doxa du GIEC. Voici le lien vers une liste des scientifiques les plus connus : https://www.wikiberal.org/wiki/Liste_de_scientifiques_sceptiques_sur_le_réchauffement_climatique Cliquer ici pour ouvrir ce lien : Download No Collections Here Sort your projects into collections. Click on "Manage Collections" to get started

  • Diaporama Déraison climatique | Climatosceptique

    DIAPORAMA Retour au texte Diapo 1 1 Le premier graphique, conforme aux données, montre bien l’optimum climatique médiéval et la croissance de la température dès 1730. Dans le second graphique, établi d’après on ne sait quel modèle, l’optimum médiéval a été effacé et l’augmentation de la température est devenue lente et régulière avant une forte augmentation récente. Le second graphique a introduit deux variantes qui rendent moins évidente sa comparaison avec le premier : un changement d’échelle ; le premier porte sur le dernier millénaire et le second sur 2.000 ans ; ensuite le second graphique n’est plus lissé des variations à court terme. On peut raisonnablement penser que cette double modification de la présentation est volontaire et est destinée à masquer la forfaiture. Le second graphique est en effet la célèbre courbe de Mann dite « en crosse de hockey ». Elle figurait encore dans l’antépénultième rapport du GIEC. Suite aux sévères critiques des statisticiens qui ont dénoncé le traitement incorrect des données permettant d’obtenir ce graphique fallacieux, le GIEC l’avait prudemment enlevé de son avant-dernier rapport mais il l’a étonnamment réintroduit dans le tout dernier. Diapo 2 2 L’alternance de glaciations et de réchauffements à intervalles de 50 à 100.00 ans. Maximiser l’effet de serre du CO2 sera indispensable pour atténuer les effets de la période glaciaire qui suivra l’holocène. Diapo 3 3 La modicité de l’effet de serre du CO2 comparativement à la vapeur d’eau, 6% contre 90%, soit 15 fois moins. Diapo 4 4 La rapide décroissance de l’effet de serre additionnel du CO2 avec l’augmentation de son taux atmosphérique. Diapo 5 5 Le réchauffement récent a débuté vers 1730 soit deux siècles avant le début des fortes émissions de CO2. Diapo 6 6 La fonte des glaciers a débuté un siècle plus tard, vers 1830 soit plus d’un siècle avant la forte augmentation des émissions de CO2. Diapo 7 7 Sur cette échelle court terme portant sur les 40 dernières années, l’évolution de la température - en rouge - précède celle du CO2 - en vert - corroborant le fait que l’augmentation du CO2 est secondaire à l’échauffement, effet du dégazement océanique, et non l’inverse. Diapo 8 8 L’élévation du niveau océanique sur toute la durée de l’holocène avec un début rapide suivi d’un ralentissement progressif Diapo 9 9 La confirmation du ralentissement ou du moins de la stabilité de la montée du niveau océanique ces dernières années. Diapo10 10 La discordance d’amplitude majeure entre les modèles d’évolution de la température du GIEC et la réalité mesurée depuis 1975La relative stabilité de la température mondiale depuis le début du siècle. Diapo 11 11 La relative stabilité de la température mondiale depuis le début du siècle. Diapo 12 12 L’augmentation nette de la population des ours polaires au cours des dernières décennies. Diapo 13 13 Reverdissement de la planète ces 50 dernières années sous l’effet direct de la croissance du taux de CO2 atmosphérique. Diapo 14 14 Reverdissement de la planète ces 50 dernières années sous l’effet direct de la croissance du taux de CO2 atmosphérique. Diapo 15 15 Le gain de 30 % des rendements agricoles sur les 50 dernières années pour la même raison d’augmentation du CO2. Diapo 16 16 La progression future de la productivité agricole, de 25 à 70 % selon les cultures, sous l’effet de la majoration du taux de CO2 attendu à la fin du siècle dans l’hypothèse probable où son augmentation se poursuivra inchangée. Diapo 17 17 La diminution des sècheresses sur une période de 30 ans Diapo 18 18 La diminution des incendies de forêts tout au long du 20ème siècle. Diapo 19 19 L’absence de variation de la fréquence des différentes formes de tempêtes tropicales sur une période de 46 ans. Diapo 20 20 L’absence de variation des canicules au cours du 20ème siècle, hormis des pics de fréquence inexpliqués dans les années 30. Diapo 21 21 La banquise antarctique a un peu rétréci ces dernières années, au grand soulagement des anthropo-réchauffistes pour qui l’absence de fonte de la glace australe était en contradiction majeure avec leurs modèles ; sauf que cette évolution récente n’apparaît pas significative lorsqu’on considère les dernières décennies. Diapo 22 22 Quelques échanges de mails des scientifiques du GIEC récupérés par des hackeurs, à l’origine du climategate. Diapo 23 23 Preuve de la censure des opinions divergentes au sein du GIEC.

  • L'effet de serre du CO2 | Climatosceptique

    L'effet de serre Parmi les nombreux ouvrages grand public publiés sur le climat ainsi que dans les sites et dans les articles en libre accès sur le net, on ne trouve qu’une infime proportion de publications consacrées au phénomène physique de l’effet de serre du CO2, et même dans le rapport complet du GIEC cette question n’est abordée que succinctement, ce qui est pour le moins paradoxal puisque c’est la base même de la doxa climatique. L’explication est sans doute que la plupart sinon la totalité des climatologues rédacteurs du rapport préliminaire du GIEC (le rapport définitif étant rédigé par des politiques) n’ont qu’une compétence limitée en physique, voire aucune. Il résulte de l’examen des rares publications consacrées au mécanisme de l’effet de serre que les théories se répartissent en 4 catégories, même si certains auteurs les développent avec des variantes voire les reprennent à leur compte inchangées sans toujours citer l’auteur de la théorie originelle. Ces 4 théories sont celles du GIEC, de Bellamy, de Morane et de Dufresne. Selon le GIEC, l’effet de serre du CO2 est reconnu (du bout des lèvres...) comme étant presque saturé, l’absorption des infra-rouges (IR) dans leur bande d’absorption (limitée à 16 % du total des IR émis) ayant lieu essentiellement dans les couches basses de la troposphère, ce qui le conduit à estimer la sensibilité climatique intrinsèque du CO2, c’est-à-dire son effet théorique sur la température par doublement de son taux, à 0,78 degrés, soit une valeur au maximum des estimations publiées par une vingtaine de scientifiques, la fourchette de majoration allant de 0 à 0,8 degrés. Si le GIEC fait l’hypothèse d’une augmentation de température supérieure à un degré, c’est en supposant un renforcement de l’effet de serre de la vapeur d’eau suite au réchauffement mineur initié par le CO2. Cette hypothèse n’est toutefois pas prouvée car l’hypothétique majoration d’humidité atmosphérique secondaire au réchauffement entrainerait également 5 autres rétroactions (voire 12 selon certains scientifiques) qui ne sont pas prises en considération par le GIEC et dont il est impossible d’estimer les contributions relatives. En particulier, une majoration de l’humidité atmosphérique augmenterait les nuages et donc l’albédo, avec un effet de refroidissement ; si bien que si synergie il y avait, elle pourrait bien être négative. Remarquablement, cet hypothétique effet de renforcement de l’effet de serre global dû à la vapeur d’eau dépendrait donc de l’augmentation de la température quelle qu’en soit la cause et non du CO2 lui-même, qui n’entrainerait de son propre fait qu’une majoration de température de 0,8 degrés au maximum à la fin du siècle. Or, on ne constate actuellement aucune majoration de l’humidité atmosphérique moyenne et une augmentation de température de plus de 0,8° à la fin du siècle suite aux émissions de CO2 est donc une pure spéculation qui n’est étayée ni par les faits ni par la théorie. La seconde théorie est celle de Bellamy qui reprend celle de Gervais, pratiquement à l'identique, en citant honnêtement sa référence. Le point clé est ici que les molécules de CO2 excitées par l’absorption d’un IR dans la basse atmosphère sont rapidement désexcitées par collisions avec les molécules principales de l’air, oxygène et surtout azote, qui n’ont pas d’effet de serre, bien avant qu’elles puissent se désexciter par ré-émission de l’IR absorbé dans une direction aléatoire et donc partiellement vers les couches supérieures de l’atmosphère. De ce fait, les IR absorbés par le CO2 sont convertis en chaleur dans la basse atmosphère et aucune émission de rayonnement ne peut atteindre la stratosphère pour sortir dans l'espace. L’effet de serre du CO2 est donc complètement saturé et il est impossible que puisse advenir un réchauffement supplémentaire lié à la majoration future de son taux actuel. Voir à ce sujet le complément d'information en bas de page, réponse de Chat-GPT à la question du transfert d'énergie de la molécule de CO2 excitée par absorption d'un IR émis de la surface (effet de serre) aux molécules de l'air n'ayant pas d'effet de serre, azote en particulier . La troisième théorie est celle de Dufresne et Treiner. Elle suppose que les molécules de CO2 excitées ré-émettent ces IR dans des directions aléatoires et donc pour moitié vers l'altitude aux couches supérieures de l'atmosphère qui les retransmettent et ainsi de suite jusqu’à la distance de libération dans la stratosphère. Le point clé ici est que les ré-émissions du CO2 des couches supérieures, bien que de moins en moins nombreuses, sont émises à une température inférieure, ce qui diminue leur énergie d'émission et tend donc à conserver davantage la chaleur dans l'atmosphère. En effet la puissance d'émission dépend de la température T absolue, en degrés Kelvin, à la puissance 4 selon la formule P = B x T4 dans laquelle P est la chaleur libérée, T4 la température à la puissance 4 et B la constante de Boltzmann. Les IR émis par la surface qui sont captés par le CO2 dans les couches basses de l'atmosphère sont donc ré-émis et captés dans les couches supérieures puis ré-émis vers la haute atmosphère avec moins d'efficacité et ainsi de suite jusqu’à l’altitude de libération. Il reste que de moins en moins d'IR émis par la terre sont captés par le CO2 avec l'altitude. Cette théorie ne moditie pas fondamentalement l'effet de serre du CO2, elle relativise seulement le phénomène de saturation ; mais surtout elle ignore la désexcitation du CO2 dans le bas de l’atmosphère par collisions moléculaires, ne prenant en compte comme le GIEC que la ré-émission d’IR comme mécanisme de désexcitation du CO2. La quatrième théorie est celle de Hadrien, Veyres et Morane, lesquels nient toute possibilité de réchauffement de l’atmosphère par effet de serre du CO2. Le point clé ici est que l’effet régulateur principal du climat est l’évaporation. Je ne m’étendrai pas ici sur cette théorie complexe mais très bien détaillée et en accès libre sur le net. Elle bouscule quelques notions généralement admises, argumentant notamment que la température d’une terre sans atmosphère serait beaucoup plus basse que - 18°. Que peut-on conclure de certain dans tout ceci ? 3 choses : Premièrement, dans leur grande majorité les scientifiques admettent le principe de l’effet de serre, qui permet en incluant toutes les molécules impliquées (H2O, CO2, méthane et quelques autres) d’avoir une température moyenne de surface de la planète de 15° au lieu de - 18°. Deuxièmement, la coexistence de théories fondamentalement divergentes élaborées par des physiciens compétents est la preuve indiscutable que l’effet de serre reste encore largement incompris, qu’il s’agit toujours d’hypothèses et non d’un savoir scientifique définitivement acquis (pour autant qu'un savoir définitif ait un sens en science...) Troisièmement, que la majoration future du taux de CO2 ne peut conduire intrinsèquement qu’à une majoration de température de 0° à 0,8° et celà quelle que soit l’importance de cette majoration. Le reste résulterait de mécanismes de rétroaction secondaires, positives ou négatives, dont on ignore leur contribution relative et dont on ignore par conséquent leur effet global sur la température. En conclusion, il est impossible de déterminer l’évolution de la température à la fin du siècle suite à la majoration continue des émissions de CO2 car on ignore dans quelle mesure elles contribuent à l’élévation de la température, voire même si elles y contribuent encore actuellement, bien qu'elles y ont sans doute contribué antérieurement, lorsque le taux de CO2 était à 200 ppm. Partant, les mesures de limitation des émissions et encore plus de décarbonation avec stockage du CO2, dont le coût estimé en Europe est impayable puisqu’il dépasse la dette souveraine de tous ses États, sont une pure folie puisque la seule certitude est que l’augmentation du taux de CO2 est extrêmement favorable à la végétation, aux cultures et au plancton océanique ; que d’autre part l’élévation actuelle de température est globalement bénéfique ; et qu’enfin, même dans l’hypothèse très improbable d’une augmentation majeure de la température due au taux de CO2, le coût qui en résulterait serait inférieur au coût consenti pour tenter de le limiter : voir à ce sujet William Nordhaus, prix Nobel d’économie 2018. Le coin des physiciens Informations recueillies sur Chat-GPT : Une molécule de dioxyde de carbone ( CO₂) excitée par absorption d'un rayonnement infrarouge peut se désactiver par collision avec une molécule d'azote (N ₂) . Ce processus est connu sous le nom de désexcitation par collision ou transfert d'énergie par collision. Lorsqu'une molécule de CO₂ absorbe un photon infrarouge, elle passe à un état excité, où ses niveaux d'énergie vibratoires ou rotationnels sont augmentés. Lorsqu'elle entre en collision avec une molécule d'azote, l'énergie excédentaire de la molécule de CO₂ peut être transférée à la molécule d'azote, ce qui permet à la molécule de CO₂ de revenir à un état d'énergie inférieur ou à son état fondamental. Ce type de processus est courant dans les gaz, où les collisions entre différentes molécules permettent de redistribuer l'énergie, stabilisant ainsi les molécules excitées. Dans l'atmosphère, ce mécanisme contribue à la dissipation de l'énergie absorbée par les gaz à effet de serre, comme le CO₂. L'absorption et l'émission de l'infrarouge par le CO₂ ne relèvent pas d'un saut d'orbitales électroniques, mais d'un processus lié aux vibrations moléculaires. Dans le cas des molécules comme le CO₂ les transitions qui se produisent lors de l'absorption et de l'émission de la lumière infrarouge sont dues à des changements dans les modes de vibration des liaisons chimiques. Le CO₂ est une molécule linéaire qui possède plusieurs modes de vibration, y compris des vibrations de flexion et d'étirement. Lorsque la molécule absorbe un photon infrarouge, cela peut exciter l'une de ces vibrations, entraînant un changement d'énergie qui correspond à la fréquence de l'infrarouge. Le mécanisme par lequel le CO₂ interagit avec le rayonnement infrarouge est principalement lié à la dynamique moléculaire et aux transitions vibratoires et non à des transitions électroniques. Les transitions électroniques, qui impliquent des sauts d'électrons d'une orbitale à une autre, se produisent généralement dans le domaine de la lumière visible ou ultraviolette, où les énergies des photons sont beaucoup plus élevées. Dont acte ; et par conséquent : Sachant que le temps moyen de contact de la molécule de excitée avec les molécules dominantes de l'atmosphère dépourvues d'effet de serre (oxygène et surtout azote) est beaucoup plus court que le temps moyen de désexcitation spontanée par ré-émission du rayonnement de l'IR absorbé, il n'y a pratiquement aucune ré-émission des IR absorbés da ns la basse troposphère, là où l'absorption des IR terrestres par le CO₂ des IR émis par la surface se fait essentiellement dans les premières diza ines de mètres au-dessus du sol. Par conséquent, la quasi totalité de l'énergie des IR émis par la surface terrestre qui sont captés par le CO₂ dans les deux bandes de son spectre d'absorption, soit 16 % du total des IR émis, se retrouve transformée en chaleur dans la très basse atmosphère et cela quel que soit le taux de CO₂ . L'augmentation du taux de CO₂ ne peut donc pas majorer de façon significative son effet de serre puisque, à son taux actuel, son effet est déjà pratiquement saturé et que l'énergie retenue est transmise aux molécules dominantes de la basse troposphère, incapables d'évacuer par rayonnement vers l'espace l'énergie qu'elles ont reçues. L'augmentation du taux de CO₂ aura donc le même effet qu'aurait, sur la luminosité d'une pièce, l'occultation de sa fenêtre par un second volet alors qu'elle en a déjà un qui empêche toute lumière d'y pénétrer. Voir à ce sujet plusieurs physiciens qui ont développé cet argument : notamment Gervais, Bellamy et Geuskens (Références ci-après) : Bellamy : Réchauffement climatique : Le pavé dans la marre. (2018) Gervais : L'Innocence du carbone : L'effet de serre remis en question. (2013) L'urgence climatique est un leurre: Prévenir d'un gâchis économique gigantesque. (2020) Impasses climatiques : Les contradictions du discours alarmiste sur le climat. (2022) Le déraisonnement climatique. (2023) Geuskens : https://www.science-climat-energie.be/author/geuskensulb-ac-be/ NB : argumentaire contesté par d'autres physiciens : https://unpeudephysique.be/wp/?p=325 Veyres : https://www.climato-realistes.fr/categorie/articles-par-auteur/francophone/veyres/ https://www.climato-realistes.fr/la-physique-du-climat-oublier-l-effet-de-serre-et-revenir-aux-fondamentaux/ Morane : Climat et CO2 : décryptage d’une manipulation (2024) https://laphysiqueduclimat.fr/wp-content/uploads/2024/01/Physique-du-climat_H_A4.pdf https://laphysiqueduclimat.fr/. Avec Veyres ; livre PDF en libre accès Voir aussi le site collectif : https://www.climato-realistes.fr/

  • Le GIEC | Climatosceptique

    GIEC : Un organisme politique Le GIEC n’est pas un organisme scientifique. Il ne l'est ni dans sa composition, ni dans sa compétence, ni dans son fonctionnement. C’est un organisme politique, émanation de l'ONU au service d’une idéologie écologiste masquée par une façade pseudo-scientifique. Il est hallucinant que le GIEC soit régulièrement cité comme organisme scientifique de référence sur la question climatique... Sa composition : Un organisme scientifique se compose de professionnels choisis par leur pairs sur base de critères objectifs de leur cursus professionnel, incluant diplômes et publications, avec souvent nécessité d'un parrainage par un nombre déterminé de scientifiques déjà titulaires. Les membres du GIEC sont désignés par les gouvernements sans critère objectif et sans consultation des membres de l'association ni d'aucune instance scientifique. Les rédacteurs et signataires du rapport final d’une quarantaine de pages, le résumé à l’intention des décideurs, ne sont pas des scientifiques mais des fonctionnaires subalternes représentant les 156 états membres, dépourvus de la moindre compétence scientifique. Sa compétence : La compétence d'un organisme scientifique est garantie par les modalités de recrutement de nouveaux membres. Il n'y a aucun membre de l'association qui ne soit un scientifique spécialiste reconnu du domaine concerné. Les scientifiques membres du GIEC ne présentent aucune garantie de compétence : des chapitres entiers de ses rapports ont été critiqués par des scientifiques en relevant l'absence de toute compétence du rédacteur dans le domaine concerné, bien qu'ils aient été choisis par leur gouvenemernt. Les scientifiques sont minoritaires dans le GIEC, ils sont 600 parmi les 2.500 membres. Son fonctionnement : Le travail du GIEC consiste à rédiger un rapport préliminaire, qui est une méta-analyse d'une sélection de travaux sur le climat. Cette sélection est orientée par leur mission qui est de corroborer l'origine anthropique du réchauffement climatique et son influence délétère pour l'humanité. Cette mission très sélective est un biais fondamental dans la sélection des articles retenus. Leur sélection inclut souvent leurs propres travaux et ils se citent largement les uns les autres. C'est là un conflit d'intérêt majeur. Cet organisme politique s’est dès l’origine entouré de collaborateurs qui ont accumulé les articles corroborant la thèse anthropo-réchauffiste, conformément à leur mandat, en écartant la quasi-totalité des travaux en sens contraire. Les membres influents du GIEC ont en outre ostracisé leurs adversaires au point de faire couper leurs subventions, de les écarter des réunions, de s’opposer à leurs publications et même de les faire licencier de leurs institutions... Lorsqu'un organisme scientifique organise un congrès, la sélection des articles est déléguée à des groupes d'experts de l'association reconnus pour leur compétence particulière dans le domaine du sujet présenté. En aucun cas un membre du groupe chargé de la sélection des présentations proposées ne peut exprimer un avis sur un travail dont il est auteur ou co-auteur. La contradiction est au coeur du fonctionnement d'un organisme scientifique, c'est l'essence même de son fonctionnement comme c'est le cas pour toute démarche scientifique en général. Dans une revue scientifique, tout projet de publication est passé au crible par un comité de lecture indépendant. L’auteur est contraint de satisfaire ses critiques et observations dans ses réponses. Il en sera de même pour les questions posées par les lecteurs après publication. Le GIEC ne suit aucune de ses procédures. Des rapports biaisés : Exemple d'une sélection orientée : dans une méta-analyse d’articles publiés en 2.020 portant sur l’incidence des phénomènes météorologiques majeurs, 52 des 53 articles inclus ne mettaient en évidence aucune augmentation. Le GIEC a sélectionné l'unique rapport conforme à ses vues qui affirmait une augmentation, ignorant superbement les 52 autres. L’Inter Academy Council des USA, un groupe d’experts mandaté pour auditer les méthodes du GIEC, y a relevé 7 défauts de procédure ; et c’était encore pire dans les parties du rapport consacrées aux prédictions, où le GIEC viole 72 principes sur les 89 applicables. Le GIEC n’a tenu aucun compte des recommandations de cet audit. Des fraudes ont aussi été mises en évidence, suite à une fuite d’échanges de mails connue sous le nom de « climategate ». Les rapports du GIEC sont biaisés à au moins quatre niveaux : Le premier biais se trouve dès le libellé de sa mission : « Évaluer les informations d’ordre scientifique, technique et socio-économique nécessaires pour comprendre les fondements scientifiques des risques liés au changement climatique d’origine humaine. » La mission confiée au GIEC contient donc sa réponse. Elle peut se reformuler ainsi : Il y a un changement climatique ; il est dû aux activités humaines ; il induit des risques : il vous appartient d’étayer cette thèse. Le second biais est dès lors implicite. Il se situe dans la sélection des articles retenus. Il n’y a pratiquement que les articles allant dans le sens anthropo-réchauffiste qui seront retenus par les réviseurs. Le troisième biais existe avant même la sélection des articles par le GIEC. Les recherches sont en effet essentiellement dirigées dans le sens de la thèse orthodoxe car ce sont celles-là qui permettent de recevoir les fonds nécessaires ; et si les résultats ne sont pas conformes aux attentes, les articles rencontreront des difficultés de publication car le GIEC exerce une pression de censure sur les journaux spécialisés. Le quatrième biais est dans la transcription du rapport préliminaire du GIEC dans le résumé à l’intention des décideurs, lequel est rédigé par des politiques et un nombre restreint de scientifiques affidés à la cause. Ce résumé va altérer le texte initial dans le sens requis, au point que de nombreux scientifiques inclus dans la rédaction du rapport préliminaire démissionnerons, certains avec fracas, la plupart avec discrétion pour ne pas mettre en péril leur carrière et le financement de leur département. Il y aura encore un cinquième biais dans la communication des médias, qui ne rapporteront que les prévisions les plus outrancières du rapport du GIEC, car ce sont celles-là évidemment qui attirent l’attention du public. Le GIEC ne suit aucune de ces procédures.

  • Idées reçues sur le climat | Climatosceptique

    Idées reçues sur le climat Malgré la désaffection populaire, politique et scientifique de la « cause climatique » les media persistent à propager des idées fausses sur le climat. En voici quelques-unes : L’augmentation du CO2 est responsable d’une augmentation de la température moyenne. FAUX : C’est l’augmentation de la température qui induit une augmentation du taux de CO2 atmosphérique, par effet de dégazage des océans. A toutes les échelles de temps, l’élévation de température précède l’augmentation du CO2 : Voir figure n° 2 dans les diapositives associées à l’exposé « La déraison climatique ». La fonte de la glace du pôle nord va entrainer une élévation majeure du niveau océanique. FAUX : La glace polaire étant une banquise, sa fonte n’est pas susceptible de modifier le niveau marin, pour la même raison que lorsque les glaçons de votre verre de whisky auront fondu le niveau du liquide sera strictement inchangé : principe d’Archimède. Les forêts vierges de l’Amazonie et d’autres régions sont des sources majeures de stockage du CO2 atmosphérique. FAUX : Dans une forêt vierge, le pourrissement des arbres morts restitue à l’atmosphère le CO2 accumulé pendant leur croissance. Ce n'est que dans une forêt exploitée associant coupes régulières et reboisement que du CO2 est prélevé dans l’atmosphère. NB : Par contre le déboisement intertropical entraîne une diminution d'évaporation non compensée par les jeunes plantations ce qui a un effet de réchauffement par diminution de l'effet de refroidissement lié à l'évaporation démultipliée par la surface des feuilles d'arbres. La déforestation est dramatique ces dernières décennies. FAUX : Nonobstant une déforestation en quelques endroits, qui a effet indirect de réchauffement, cf supra, la croissance du CO2 atmosphérique, qui est la nourriture des plantes, a entrainé ces dernières décennies une augmentation globale des espaces verts de la planète et notamment des forêts d’une superficie équivalente à la surface de l’Amazonie. Voir les figures n° 13 et 14 dans les diapositives associées à l’exposé « La déraison climatique ». NB : Par contre ce sont les forêts tempérées qui augmentent, au dépens des forêts tropicales, avec comme conséquence un effet de réchauffement suite à une différence d'évaporation: cf ci-avant. . Le CO2 est un polluant. FAUX : Le CO2 est au contraire la molécule essentielle de toute la vie sur terre et en mer, étant à la base de toutes les chaines alimentaires ; et son taux optimal est le triple de sa valeur actuelle. Voir figure n° 15 dans les diapositives associées à l’exposé « La déraison climatique ». Les sécheresses augmentent sous l’effet du réchauffement climatique. FAUX : Les sécheresses ont diminué régulièrement ces dernières décennies sous l’effet du reverdissement de la planète et peut-être, ce reste à prouver, d’une possible augmentation des précipitations secondaire à l’augmentation d'humidité atmosphérique. Voir figure n°17 dans les diapositives associées à l’exposé « La déraison climatique ». Les incendies de forêt augmentent sous l’effet du réchauffement. FAUX : Les incendies de forêt ont diminué régulièrement ces dernières décennies, sous l’effet du reverdissement la planète et peut-être aussi, ce n’est pas prouvé, d’une augmentation des précipitations secondaire à l’augmentation de l’humidité atmosphérique. Voir figure n°18 dans les diapositives associées à l’exposé « La déraison climatique ». Les cyclones, ouragans et autres tempêtes tropicales ne cessent d’augmenter en fréquence et en gravité. FAUX : La fréquence de ces différentes formes d’évènements climatiques extrêmes n’a pas varié et elle a même tendance à diminuer ces dernières décennies. Voir figure n° 19 dans les diapositives associées à l’exposé « La déraison climatique ». Le GIEC est l’organisme scientifique de référence en matière climatique. FAUX : Le GIEC n’est un organisme scientifique ni dans sa composition, ni dans sa compétence, ni dans son fonctionnement. C’est un lobby écologiste de l'ONU qui s’est donné un vernis pseudo-scientifique et qui n’a aucune crédibilité du fait de fraudes, de mensonges, d’omissions, d’affirmations erronées, du refus de contradiction, de présentations trompeuses et d’extrapolations invraisemblables. Voir figures n° 22 et 23 dans les diapositives associées à l’exposé « La déraison climatique ». Le changement climatique est exceptionnel par son amplitude et sa rapidité. FAUX : Les analyses des prélèvements de calottes glaciaires montrent que des changements plus rapides et de plus grande amplitude sont survenus de nombreuses fois dans le passé climatique. Il y a un large consensus scientifique sur la responsabilité anthropique du réchauffement actuel. FAUX : Des milliers de scientifiques contestent l’implication du CO2 dans le changement climatique. Cf liste de quelques scientifiques climatosceptiques dans l'annexe à l’exposé « La déraison climatique ». La planète se dirige vers un réchauffement catastrophique pour l’humanité. FAUX : Le climat se dirige avec une absolue certitude vers une période glaciaire dramatique dont la survenue est imprévisible, allant de quelques siècles à quelques milliers d’années. A plus court terme, le réchauffement actuel est favorable à l’humanité, comme l’ont été les deux dernières périodes de réchauffement, au moyen âge et à l’époque romaine. Il est vital de limiter le taux de CO2 atmosphérique et cela quel qu’en soit le prix, par restriction des émissions et par séquestration du CO2. FAUX : Le CO2 étant largement bénéfique pour le plancton, les espaces verts et les rendements agricoles, il faudrait au contraire majorer autant que possible son taux atmosphérique. On pourrait le faire sans gaspiller les carburants fossiles, en brûlant du calcaire dans les cimenteries avec l’électricité produite par le nucléaire, l’éolien ou le photovoltaïque en période de basse consommation. L’élévation du niveau océanique a déjà impacté de nombreuses iles du pacifique, en partie submergées. FAUX : L’élévation du niveau océanique a débuté il y a 12.000 ans, au début de l’Holocène où il était 120 mètres plus bas soit une élévation de 10 à 15 mm par an et il n’a cessé de ralentir depuis à moins de 3 mm par an aujourd’hui. Le niveau marin est une mesure relative qui dépend localement de plusieurs facteurs, notamment des mouvements de subduction, si bien que selon les endroits le niveau peut s’élever davantage ou bien baisser. La surface totale des iles du pacifique a augmenté de l’ordre de 3 % ces dernières décennies. La submersion progressive des Tuvalu est un mensonge, leur surface n'a pas diminué.

  • Sobriété ? Mauvaise idée... | Climatosceptique

    Sobriété ? Mauvaise idée Les écologistes prônent la sobriété et la décroissance, prétendument incontournables pour répondre à la destruction de l’environnement, invoquant les limites de la croissance dans un monde fini. Cet argument ne manque pas de pertinence à première vue. C’est celui de déconsidéré aujourd’hui au point que le mot « Malthusianisme » soit chargé d'une connotation nettement péjorative au point que sa simple évocation ait pratiquement acquis la valeur d’un argument définitif. Il est vrai que Malthus s’est lourdement trompé dans ses prévisions. Sa théorie était une considération simple pour ne pas dire simpliste : Toutes les espèces animales ont un taux de reproduction tel que leur population atteint rapidement un seuil qui dépasse la nourriture disponible. En pratique cependant, chaque espèce atteint un équilibre où les naissances équilibrent les décès, à un niveau qui dépend des ressources disponibles. En fait, sa théorie n’était pas foncièrement incorrecte, elle était seulement incomplète. Ses prévisions reposaient en effet sur le présupposé inexact que les ressources disponibles dans un monde fini sont également finies et invariantes. Ce n’est cependant pas le cas car les ressources disponibles varient avec un changement d’environnement et en particulier avec les progrès techniques, qui permettent d’engendrer une augmentation des ressources. Au cours des derniers siècles et particulièrement des dernières décennies, l’humanité a bénéficié d’une considérable augmentation des ressources agricoles, à la base de toutes les chaines alimentaires, par l’effet conjugué de la mécanisation et des engrais, et aussi de l’augmentation du taux de CO2. Les deux premiers facteurs se sont déployés grâce aux nouvelles énergies et en particulier grâce aux moteurs thermiques et électriques. Une majoration des ressources permet donc d’élever l’équilibre d’une population à un niveau supérieur. Le processus est néanmoins limité dans un monde fini et sur ce plan Malthus avait raison. L’humanité dépend des ressources disponibles, en particulier énergétiques et alimentaires. Si on peut concevoir, du moins en théorie, la disponibilité d’une énergie pratiquement sans limite grâce à l’énergie nucléaire, les ressources alimentaires dépendent des rendements et des surfaces cultivables, qui ont nécessairement une limite absolue même s’il reste une marge de progression. L’humanité nécessite bien entendu d’autres ressources, comme l’eau potable et des matières premières ; mais leur disponibilité n’est pas limitée dans l’absolu, ou du moins les quantités disponibles se situent très au-delà des limites alimentaires et elles n’ont donc pas de limitation pratique, avec toutefois cette réserve que leur disponibilité peut s’avérer de plus en plus difficile sur le plan technique et donc économique. Toutes les ressources matérielles élémentaires, l’eau et les molécules simples, sont néanmoins invariantes en quantité dans la croute terrestre. Elles sont donc théoriquement indéfiniment disponibles, sauf qu’avec le temps elles se diluent dans l’environnement, ce qui rend leur recyclage de plus en plus difficile. Par exemple l’eau est toujours aussi abondante qu’autrefois mais une partie est contaminée de polluants nombreux qu'il est difficile d'éliminer et le recyclage des métaux dans les machines en fin de vie et dans surtout dans les bâtiments peut être problématique. D'autre part certaines molécules simples peuvent se transformer, comme l’hydrogène qui se couple aisément avec l’oxygène pour former l’eau, une molécule très stable. Pour autant, ces difficultés ne sont pas insurmontables ; la question est essentiellement technique et économique. On peut recycler les métaux en les extrayant des structures complexes comme les bâtiments et les décharges, comme c'est déjà le cas en partie pour les machines usagées, et on peut retrouver l’hydrogène à partir de l’eau par hydrolyse. Même les hydrocarbures peuvent être synthétisés, à partir du charbon mais aussi de la biomasse. La disponibilité des matières premières se réduit donc finalement à la disponibilité d'énergie. Le problème posé, que peut apporter la sobriété ? Une seule chose : permettre à la population humaine de trouver son équilibre à un niveau supérieur, où elle se retrouvera de nouveau limitée par les ressources, en particulier alimentaires. D’où la question : Est-il préférable de vivre nombreux dans la sobriété ou moins nombreux dans l’opulence ? Dans les deux cas, il ne fait aucun doute que les ressources seront finalement utilisées au maximum: Il n’est pas d’exemple où une population ait accepté la sobriété sans autre contrainte que la limitation des ressources disponibles. Or, dans la sobriété la répercussion environnementale sera plus grande que dans l'opulence, le nombre d'individus plus élevé disposant d'un espace individuel plus restreint et exerçant de ce fait une pression sur l'environnement plus importante et une pollution totale également plus élevée. En conclusion, dans le monde fermé qui est le nôtre, la sobriété ne peut en aucun cas être une solution préservant l’environnement et l’espace vital des autres espèces : c’est exactement le contraire…

  • Mécanismes régulateurs | Climatosceptique

    Mécanismes régulateurs Selon le GIEC l'effet de serre intrinsèque du CO2 (majoration de température de 0,78 ° pour un doublement du taux atmosphérique actuel) entrainerait une augmentation secondaire de la température suite à la majoration de l'effet de serre de la vapeur d'eau, qui est la principale molécule à effet de serre de l'atmosphère. C'est en effet possible, bien que ce ne soit pas établi actuellement. Sauf que le GIEC ne parle pas des puissants mécanismes régulateurs qui tendent à limiter toute variation de température de la planète. Les 6 principaux modérateurs de la température de la planète : La majoration du taux de vapeur d'eau atmosphérique : Secondaire au réchauffement, elle tend à augmenter les nuages et donc l’albédo, qui est le taux de réflexion du rayonnement solaire par les nuages et par le sol. Or, si l’albédo actuellement stable à 29 % augmentait de seulement 1 %, le refroidissement serait de 2 degrés. L'évaporation de surface : L'élévation de la température planétaire entraîne une majoration de l'évaporation des surfaces océaniques et terrestres. Ce mécanisme est considéré par plusieurs scientifiques comme le principal modérateur des variations de température du globe. La perturbation anthropique du cycle naturel de l'eau avec diminution de l'évaporation de surface par déboisement en zone tropicale et bétonnage des surfaces urbaines et donc de son effet de refroidissement est une cause contribuant probablement de façon significative au réchauffement actuel, susceptible d'augmenter avec la poursuite du déboisement en zone intertropicale et de l'extension des zones urbanisées. Le rayonnement de Planck : Tous les corps naturels rayonnent à la puissance quatre de leur température, c'est l'émission du corps noir. Lorsque la température de surface du globe augmente de 1 % le taux du rayonnement direct renvoyé vers le cosmos augmente instantanément de 4 % ce qui entraîne son refroidissement. La conduction de Fourier : La différence de température entre le sol et le point le plus froid de la haute atmosphère, qui est de - 65 degrés Celsius à 12 km d'altitude, génère un flux de chaleur par conduction qui augmente avec le différentiel de température et donc avec la température de surface. La convexion de Hadley : Il existe 3 boucles de convection dans chaque hémisphère. La plus puissante est la cellule équatoriale de Hadley, à la source des Alizés, qui soufflent d'est vers l'ouest en conséquence de la pseudo-force de Coriolis. L’air chaud à l’équateur monte à 12 km et une fois refroidi en altitude il se dirige vers les tropiques où il redescend chargé d'humidité, et cette eau se condense alors en pluies. Les océans : Les transferts de chaleur entre la masse océanique située au dessus de la thermocline (à un kilomètres de profondeur), mille fois plus importante que la masse de la totalité de l'atmosphère, sont un puissant modérateur des variations de la température du globe. l

bottom of page