Résultats de la recherche

627 résultats correspondent à INERIS
Lundi 25 février 2013
Rapport
Le naphtalène : Bibliographie des méthodes de mesure et d’analyse pour l’air intérieur
Classé cancérogène possible (groupe 2B) par l’IARC, et cancérogène de catégorie 3 par l’Union européenne (UE), le naphtalène a été identifié comme composé d’intérêt en air intérieur et a fait, à ce titre, l’objet de l’établissement de valeurs-guide par l’Agence Nationale de SEcurité Sanitaire (ANSES) en 2009 et de valeurs repères d’aide à la gestion dans l’air des espaces clos, début 2012 par le Haut Conseil de Santé Publique.Ainsi, le HCSP recommande deux valeurs pour une exposition long terme : • Une valeur repère de qualité d’air intérieur de 10 μg m-3, immédiatement applicable et respectée dans tous les bâtiments, avec un délai des actions correctives fixé à un an. • Une valeur d’action rapide de 50 μg m-3. Les actions correctives mises en oeuvre viseront à abaisser le niveau de concentration de naphtalène dans les bâtiments concernés jusqu’à une concentration inférieure à 10 μg m-3. Le délai de mise en oeuvre de ces actions correctives ne devrait pas excéder trois mois. Le HCSP rappelle également que le naphtalène doit faire l’objet d’une surveillance, non seulement en raison de ses effets sanitaires, mais également en tant qu’indicateur de l’impact de sources de pollutions importantes de l’air intérieur que sont les processus de combustion, la contamination des sols…Afin de mener à bien cette surveillance, il est indispensable de se doter de moyens métrologiques adaptés aux niveaux de concentration rencontrée, aux contraintes des environnements clos, mais également à la surveillance au regard des valeurs repère long terme. Il n’existe pas de méthodes spécifiques au naphtalène. Du fait de ses propriétés physico-chimiques, deux types de méthodes sont éventuellement applicables à l’évaluation de ses concentrations dans l’air: • Les méthodes de prélèvement utilisées pour l’étude des COV impliquant l’utilisation de tubes d’adsorbants, • Les méthodes de prélèvement utilisées pour l’étude des HAP en phase gazeuse impliquant l’utilisation de résines ou de mousses. A ce jour, seules des valeurs de gestion pour une exposition long terme ont été publiées par le HCSP, supposant ainsi des méthodes de prélèvement de longue durée. Dans ce contexte, les méthodes par diffusion représentent un bon compromis compte tenu du faible encombrement qu’elles impliquent et l’absence de nuisances sonores pour la surveillance du naphtalène en air intérieur.Plusieurs tubes passifs, commerciaux ou mis au point par des laboratoires, sont disponibles. Cependant, ils ont été relativement peu éprouvés pour la mesure du naphtalène en air intérieur (très peu de données sont disponibles) et aucune validation de ces supports de prélèvement n’a été réalisée dans cette optique.L’ensemble des tubes passifs répertoriés dans le cadre de cette étude bibliographique est destiné à une désorption chimique par solvant. Aucun n’a été dimensionné pour une désorption thermique, offrant des limites de détection plus basses que la désorption chimique. Il serait intéressant de tester la faisabilité de mise en oeuvre de ce genre de tube pour la mesure du naphtalène.Ainsi, dans une perspective de surveillance du naphtalène en air intérieur et dans le cadre de la rédaction de protocoles à cette fin, il semble indispensable de prévoir des campagnes d’intercomparaison des méthodes existantes afin d’en évaluer l’incertitude de mesure et la pertinence de leur mise en oeuvre dans le cadre d’une surveillance en air intérieur.
Lundi 25 février 2013
Rapport
Réduction optimisée du réseau de mesures fixes d'ozone
Cette étude s’inscrit dans le cadre des travaux de coordination du LCSQA relatifs au dispositif métrologique français. Elle a pour objet l’optimisation du réseau demesures fixes français grâce aux outils de géostatistique et à l’optimisationstatistique.Ce rapport présente les résultats obtenus dans le cadre de l’étude surl’optimisation du réseau de mesures de fond d’ozone. L’objectif de celle-ci a été derechercher un réseau optimisé, à partir du dispositif actuel, opérationnel au 1er mai 2012, et de taille correspondant au nombre minimal de points de mesure fixesd’ozone, imposé par la Directive 2008-50-CE concernant « la qualité de l’airambiant et un air pur pour l’Europe » et calculé d’après le zonage défini au 1erjanvier 2010.Cet exercice d’optimisation, tel qu’il est réalisé ici, consiste en la minimisationd’une fonction de coût, définie selon les besoins de l’exercice, et en la recherche de la valeur pour laquelle le minimum est atteint. La première partie de ce rapportdétaille et justifie la méthodologie employée, du choix de la fonction de coût àl’algorithme statistique utilisé pour la minimiser. La deuxième partie présente les résultats obtenus selon les paramètres choisisdans le processus d’optimisation et compare les cartes analysées des maximajournaliers estivaux d’ozone des moyennes glissantes sur 8h, basées d’une partsur le réseau opérationnel au 1er mai 2012 et d’autre part sur les réseauxoptimisés obtenus.Enfin, la dernière partie de ce rapport compare les réseaux optimisés entre eux.Cette étude fait ainsi apparaître un groupe de stations nécessaires à l’élaboration de cartographies d’ozone et un deuxième groupe de stations dont les donnéesd’ozone apportent peu à la qualité de ces cartographies.Ces résultats constituent le début du travail sur l’optimisation du réseaufrançais et démontrent l’efficacité de la méthodologie développée. Elle seraappliquée prochainement aux réseaux NO2 et PM10 et pourrait être adaptée à l’échelle régionale comme outil de recherche d’implantation de stations.
Lundi 25 février 2013
Rapport
Carbone élémentaire ou black carbon ?
Les particules de combustions contiennent une fraction « graphitisée », formée de trop peuxd’hétéroatomes (tels que O, H, N, …) pour pouvoir être considérée comme organique. Cette fraction, appelée ici carbone suie, peut être séparée de la matière organique particulaire àl’aide de sa résistance thermique (puis analysé à plus haute température). Sa concentrationpeut également être estimée à l’aide de ces propriétés optiques. En effet le carbone suieconstitue la principale espèce particulaire absorbant le rayonnement lumineux dansl’atmosphère. Cette double caractéristique physique lui confère une dualité conceptuelle inextricable : carbone élémentaire vs. black carbon. Le carbone élémentaire - EC -représente la partie réfractaire (jusqu’à 600-800 °C selon le taux d’oxygène) de l’aérosol carboné émis par combustion, alors que le black carbon - BC - représente la fraction (la plus) absorbante de ces émissions. Si, en première approche, ils peuvent être considérés comme alter ego, l’inhomogénéité des méthodes de mesures entraine un biais, plus ou moins important, entre ces deux sousespèces. D’une part, le degré de résistance thermique du carbone suie n’est pas proportionnel à son degré de capacité absorbante. D’autre part, la mesure du carbone élémentaire dépend fortement du protocole thermique (ou thermo-optique) utilisé tandis que la mesure du black carbon dépend fortement des hypothèses utilisées pour convertir une mesure d’absorbance en concentration massique ainsi que de possibles interférences avec d’autres espèces absorbantes (en fonction de la longueur d’onde utilisée). Bien que des documents normatifs soient en cours d’élaboration par le CEN, Il n’existe pas de méthode normalisée à ce jour pour la mesure de EC ni pour celle de BC. Par ailleurs, les hypothèses de conversion de l’absorption en concentration sont généralement basée sur des mesures d’EC, d’où de récentes propositions de faire plutôt référence à des mesures optiques d’Equivalent Black Carbon (EBC). La mesure du black carbon (équivalent) est plus automatisée, moins onéreuse et plus robuste que celle du carbone élémentaire. Il est à noter que ce type de mesure est réalisé depuis de nombreuses années dans les AASQA sous la forme de l’indice de Fumées Noires, qui utilise le même principe de mesure (absorbance). Cet indicateur est très largement utilisé par la communauté scientifique de la santé. Néanmoins, la mesure thermo-optique (de EC) permet également d’estimer la part de la fraction organique des PM.
Lundi 4 février 2013
Rapport
Définition des zones sensibles dans les régions françaises. Bilan de la mise en oeuvre de la méthodologie nationale.
Le décret du 16 juin 2010 relatif aux schémas régionaux du climat, de l’air et de l’énergie prévoit que dans les zones plus particulièrement sensibles à la dégradation de la qualité de l’air, les orientations destinées à prévenir ou réduire la pollution atmosphérique soient renforcées. Afin que ces zones soient délimitées de manière homogène sur l’ensemble de la France, une méthodologie nationale a été établie. Le LCSQA et des représentants d’AASQA (Air Rhône-Alpes, ASPA, Air Normand, Airparif) en ont assuré collectivement l’élaboration dans le cadre du groupe de travail « Zones sensibles » (2010). Deux grands types de variables définissent les zones sensibles : des critères liés à la qualité de l’air, et plus spécialement aux dépassements observés ou potentiels des valeurs limites ; des critères liés à la sensibilité propre des territoires, et plus précisément à la présence de population ou de zones naturelles protégées. De janvier 2011 à janvier 2012, conformément à la demande du ministère en charge de l’écologie et du développement durable et à la mission qui leur est confiée par l’arrêté du 21 octobre 2010 (article 10), les AASQA ont appliqué la méthodologie aux différentes régions françaises. Ce travail a été conduit en concertation avec les DREAL (DEAL, DRIEE) et avec le soutien du LCSQA. La définition des zones sensibles a fait ainsi l’objet de nombreux échanges entre les AASQA et le LCSQA qui, selon les sollicitations, a apporté son aide de la manière suivante : indications sur certains points de méthode, extraction de données par région, aide à l’utilisation des SIG; avis sur la mise en œuvre de la méthodologie, aide à l’interprétation des résultats. Le présent rapport dresse un bilan du travail effectué et des résultats obtenus. La méthodologie a reçu un accueil favorable et sa mise en œuvre n’a soulevé aucune difficulté majeure. Quelques limites ou artefacts ont été néanmoins constatés lors de l’identification des zones de dépassement et des zones habitées et de la sélection des mailles et des communes sensibles. Les AASQA en ont corrigé les effets par des ajustements fondés sur des données complémentaires et sur leur expertise. Ces limites ne mettent pas en question le principe et l’organisation de la méthodologie ni la pertinence des résultats qui en découlent. S’il est besoin, elles pourront donner lieu à une mise à jour de la méthodologie lors d’une réévaluation future des zones sensibles. Au total, 5558 communes ont été déclarées sensibles. Elles représentent un peu plus de 11% de la surface du territoire et 61% de la population. Le nombre de communes sensibles, la part de surface occupée par ces dernières et la proportion de population concernée varient notablement selon les régions (ou DOM) : entre 2 et 1519 communes sensibles, entre 0,1% et 98,9% de la surface régionale, entre 30,4% et 99,8% de la population régionale. La répartition spatiale de ces communes apparaît toutefois cohérente, sans discordance entre les régions. La densité de zones sensibles augmente dans les régions les plus touchées par des dépassements consécutifs à la pollution de fond régionale (dépassements liés aux PM10 dans le Nord-Pas-de-Calais, en Picardie, Rhône-Alpes et PACA ; au NO2 et aux PM10 en Île-de-France).
Mercredi 16 janvier 2013
Rapport
Note : Etude de la stabilité des échantillons de filtres HAP lors de leur stockage dans le système de prélèvement
L’objectif de cette étude était d’évaluer la stabilité des échantillons particulaires de HAP (filtres) lors de leur stockage dans le système de prélèvement et de compléter ainsi l’étude effectuée en 2010.Dans ce cadre, quatre préleveurs haut débit DA-80 ont été mis en œuvre en parallèle sur le site urbain de Lyon 8eme (Air Rhône-Alpes) lors de l’été 2012 : un système de prélèvement de référence pour lequel le ramassage du filtre avait lieu à la fin de la période d’échantillonnage, un préleveur équipé d’un système de réfrigération des échantillons collectés, un système mis en œuvre dans une remorque climatisée et un système non réfrigéré. Quatre périodes de stockage des échantillons ont été évaluées allant de 5 à 20 jours consécutifs avec un suivi de la température interne des préleveurs au niveau du stockage des filtres. Les résultats obtenus ont tout d’abord permis de montrer qu’aucune contamination significative des échantillons n’a été observée pour les blancs de terrain sur de telles périodes de stockage des filtres. Malgré des difficultés techniques rencontrées au cours de cette étude (notamment liées au système de réfrigération du préleveur DA-80 réfrigéré), les résultats ont permis de montrer la stabilité des échantillons de filtres HAP pour une période de 7 jours consécutifs. Ces résultats semblent raisonnablement extrapolables au cas d’un préleveur disposé dans un local climatisé. A partir de 13 jours, les pertes en HAP dans le cas d’un préleveur DA-80 non réfrigéré deviennent conséquentes et peuvent être de l’ordre de 70 % pour le B[a]P et le B[a]A. Compte tenu des résultats obtenus lors de cette étude, le LCSQA recommande donc aux AASQA une période de stockage maximale de 7 jours consécutifs des échantillons collectés au sein des préleveurs réfrigérés ou mis en œuvre en station climatisée. Un suivi continu de la température interne du préleveur au niveau du stockage des échantillons, afin de s’assurer du bon fonctionnement du système de réfrigération des échantillons ou de climatisation de l’enceinte accueillant le préleveur, est toutefois indispensable. Enfin, dans le cas présent, les blancs de terrain doivent subir la même procédure que les échantillons et devront donc être stockés dans le préleveur pour la même durée que les filtres collectés afin de s’assurer qu’aucune contamination n’ait eu lieu.
Vendredi 14 décembre 2012
Rapport
Caractérisation chimique des particules : Veille sur les études de caractérisation des PM
La pollution particulaire constitue un véritable enjeu à la fois politique  sanitaire et règlementaire. Ainsi, un besoin fort est exprimé par les pouvoirs publics de se doter d’outils de compréhension des phénomènes et d’aide à la décision en accord avec la Directive 2008/50/CE et mettre en œuvre des plans de réduction des sources de matière particulaire (PM) en France. C’est pourquoi le programme CARA a été crée au sein du Laboratoire Central de Surveillance de la Qualité de l’Air (LCSQA) et que des campagnes de mesures sont menées sur le territoire pour suivre des traceurs spécifiques de certaines sources, caractériser la pollution particulaire dans des zones spécifiques telles les zones rurales, mettre au point des méthodes d’analyse et de traitement des données pour attribuer les sources et comprendre les phénomènes. En 2009, un premier rapport s’était attaché à faire l’état des lieux des différentes approches existantes pour l’attribution des sources de particules ainsi que des différentes études de source de PM menées en France au niveau national, régional et dans le domaine de la recherche. La poursuite de ce travail, entrepris chaque année, révèle la multiplicité et la diversité de ces études. En 2012, ce travail de veille s’est poursuivi et a permis de mettre en évidence les principaux éléments suivants : .Quatre études nouvelles ont été recensées : « signature PM », CHAMPROBOIS, INACS, Lanslebourg II. Il est néanmoins important de noter que cette veille ne prétend aucunement à l’exhaustivité, La plupart des études visant à caractériser les sources de PM localement se sont terminées en 2012 (Particul’Air, Particules en IDF, Vallée des Peillons, Chaudières bois en Alsace, Brumes de sable en Martinique, Lanslebourg...) ; En 2010, deux projets se destinaient à des applications épidémiologiques (« Brumes de sable » en Martinique et le site d’observation de la Meuse) et un à des études de toxicologie (PACTES en région PACA). En 2012, aucun nouveau projet ne vient renforcer les rangs des études épidémiologiques ; Alors que les études de caractérisation des sources de PM en région initiées entre 2009 et 2010 touchent à leur fin, peu sont initiées en 2012. L’on assiste plutôt à une augmentation depuis 2011 des études focalisées sur la caractérisation d’un polluant et de ses sources par le biais de campagne de terrain comme PREQUALIF qui s’intéresse au « black carbon », de mesures à la source comme NanoFluegas, projet tourné vers les nanomatériaux manufacturés, ou de la caractérisation d’une source comme PM-DRIVE, également intéressé par l’impact de la source trafic ; Plusieurs sites français (Revins, SIRTA..) ont participé à la campagne européenne intensive EMEP-ACTRIS. Cette dernière action s’inscrit dans un contexte de travail européen fort comprenant entre autre : La participation au réseau EMEP-ACTRIS comme mentionné ci-dessus ; La rédaction de guides pour l’estimation de la part des sources naturelles et de resuspension sur les concentrations en PM ; La mise en place d’un réseau de sites de mesure facilitant les échanges entre pays (ACTRIS, transnational access), La rédaction d’un protocole technique pour la mise en œuvre des modèles récepteur (Receptor Model Technical Protocol, RMTP). Les travaux européens s’organisent pour donner un cadre, harmoniser et faciliter l’ensemble des études menées par les Etats Membres afin d’identifier les sources de la pollution particulaire et mieux qualifier et quantifier les épisodes de PM en particulier ceux attribuables à des phénomènes particuliers tels le transport longue distance ou les sources naturelles. L’impulsion que l’Europe est en train de donner aux travaux relatifs à la connaissance des sources des PM devrait profiter et certainement provoquer des travaux supplémentaires au niveau national. C’est la raison pour laquelle ce travail de veille sera étendu aux travaux européens en 2013. La plupart des travaux visant à caractériser des activités locales (industrie, trafic…), des habitudes de vie (transport, chauffage…) et l’organisation même des communes sont importants dans un contexte national de mise en œuvre de plans de réduction.
Vendredi 23 novembre 2012
Rapport
Méthodologies de détermination de la composition chimique des particules submicroniques en temps réel
Outre leurs propriétés physiques, les impacts sanitaires et environnementaux des particules sont fortement liés à leur composition chimique. Les méthodologies classiquement utilisées pour la caractérisation chimique des particules (prélèvements sur filtre) se prêtent mal à l’étude approfondie des particules submicroniques, en raison notamment des faibles concentrations massiques mises en jeu au regard des incertitudes de mesure inhérentes à l’analyse différée. En revanche, ces dernières années ont vu l’émergence de techniques permettant l’étude en temps réel des principales espèces chimiques constituant l’aérosol anthropique, primaire et/ou secondaire (carbone suie, matière organique, sulfate, nitrate, ammonium, …). Ces techniques s’avèrent particulièrement intéressantes pour l’étude de la composition chimique des particules submicroniques : sensibilité analytique élevée, résolution temporelle fine, complémentarité de ces techniques entre elles et avec les analyseurs de type SMPS permettant une caractérisation quasi-exhaustive des propriétés physico-chimiques des particules (ultra-)fines. En France, ces techniques restent à l’heure actuelle mises en œuvre par des équipes de recherche, mais pourraient constituer rapidement des outils pertinents pour la surveillance en routine des espèces chimiques majeures et la détermination des principales sources anthropiques.
Vendredi 9 novembre 2012
Rapport
Note : Suivi de l’équivalence des appareils de mesure automatique homologués en PM10 – Campagnes 2012 à Douai-Dorignies
Dans la continuité des travaux 2011, le LCSQA a participé aux essais de comparaison multi-instruments de mesure PM à l’initiative d’ATMO-Nord-Pas de Calais dans la station de l’Ecole des Mines de Douai (EMD), sur le site d’observation de Dorignies. Cet exercice, réalisé de janvier à avril 2012, a permis de suivre l’équivalence des analyseurs automatiques avec la méthode de référence (gravimétrie). La présente note synthétise les résultats obtenus lors de cette campagne. Cette étude, réalisée sur la fraction PM10, confirme le respect du critère de 25% d’incertitude élargie au niveau de la valeur limite pour le TEOM-FDMS et le BAM 1020. En revanche, les résultats obtenus pour cette campagne à Dorignies indiquent une surestimation globale de l’ordre de 20% pour la jauge bêta MP101M-RST, qui présente une incertitude élargie au niveau de la valeur limite supérieure à 30% pour cette série de données.
Vendredi 5 octobre 2012
Evénement
CS Emissions, Modélisation et Traitement des données (EMTD) du 23 octobre 2012
Vendredi 5 octobre 2012
Evénement
Séminaire LCSQA: Estimation de la répartition spatiale de la population
Le calcul des populations exposées à des dépassements nécessite de disposer : -    de cartographies des zones touchées par les dépassements ;