Résultats de la recherche

627 résultats correspondent à INERIS
Mardi 8 mars 2016
Rapport
Estimation des populations exposées aux dépassements de seuils réglementaires - 1. Echelle urbaine
Conformément aux Directives européennes sur la qualité de l’air et à leur transposition en droit français, les AASQA doivent caractériser les situations de dépassement de seuil dans les zones dont elles assurent la surveillance. Pour tout dépassement observé, il convient d’évaluer la surface en dépassement et d’estimer, selon le cas, la population exposée (seuil pour la protection de la santé) ou la superficie d’écosystème exposée (seuil pour la protection de la végétation). La caractérisation des situations de dépassement en milieu urbain fait l’objet du présent rapport. Elle nécessite de disposer d’une information précise sur la distribution spatiale des concentrations dans l’agglomération. La modélisation de la dispersion est de plus en plus utilisée par les AASQA afin d'obtenir une telle information. Néanmoins, pour limiter les temps de calcul, les données ne sont généralement pas modélisées sur des grilles régulières mais sur des maillages adaptés aux variations des concentrations (plus lâches en situation de fond, et resserrés à proximité des axes routiers). C'est pourquoi il est important de définir une méthode d'interpolation qui spatialise intégralement les données du modèle. L'interpolateur linéaire est largement utilisé. L'hypothèse de linéarité est arbitraire mais peut-être considérée comme valide, principalement à de faibles distances et lorsque les concentrations varient faiblement. Des interpolateurs plus sophistiqués existent. Le krigeage, méthode d’estimation géostatistique, tient compte de la covariance spatiale des concentrations et permet d'interpoler après définition d'un modèle de covariance et d'un voisinage de points à prendre en compte. Apparue plus récemment, la méthode fondée sur la triangulation de Delaunay consiste à parcourir les triangles définis par les points de sortie du modèle et à interpoler linéairement les concentrations le long des arêtes. Elle permet de construire des polygones dans lesquels les concentrations sont comprises entre deux valeurs. Afin d’être évalués et comparés, ces interpolateurs ont été appliqués à différents jeux de données de modélisation fournis par les AASQA. Ces données résultent de simulations effectuées sur les agglomérations de Bourges, Nantes, Niort, Orléans, Reims et Tours. Le NO2, polluant  pour lequel les données étaient les plus nombreuses, a été retenu pour cette analyse. Dans toutes les validations réalisées, l’interpolateur linéaire et l’interpolateur de Delaunay se révèlent les plus précis. Le krigeage ordinaire, dans son emploi usuel, est mal adapté à des données de typologie contrastée (fond/trafic) ; pour une utilisation appropriée, le modèle géostatistique doit être modifié, ce qui requiert des développements supplémentaires. Quelle que soit la méthode, la qualité de l’interpolation est liée à  l’organisation spatiale du maillage de modélisation qui, outre une couverture régulière des zones de fond, doit permettre une bonne représentation des gradients de concentration près des routes et doit donc s’adapter au comportement du polluant considéré dans l’espace, qui n’est évidemment pas le même s’il s’agit de NO2, d’O3 ou de particules. Dans les exemples étudiés, l’interpolation a été réalisée sans prise en compte des données de mesure. La deuxième partie du rapport offre un aperçu des méthodes qui existent en matière de correction des sorties de modèle par intégration des observations. Les méthodes dérivées de la géostatistique ainsi que les derniers travaux en matière d'assimilation de données en milieu urbain sont abordés sous forme de revue documentaire. Ces éléments pourront servir à la planification de travaux ultérieurs. La troisième partie du rapport est consacrée à l’estimation des zones en dépassement et des populations exposées. La sensibilité des résultats aux paramètres de l’estimation est examinée. Si le maillage d’interpolation a peu d’influence dans la gamme de résolution testée (1m, 5m ou 10m), le mode de croisement entre zones de dépassement et population spatialisée a un effet notable. Un croisement maille à maille, si la population est préalablement répartie sur le maillage d’interpolation, ou, ce qui revient au même, un croisement au prorata de la surface de bâtiment intersectée est recommandé. Les conclusions de ce travail seront reprises en 2016 dans une note de synthèse méthodologique et technique sur l’évaluation de la population et des écosystèmes exposés. Leur adaptation aux agglomérations et zones de grande taille sera examinée en 2016 avec les AASQA concernées. Télécharger l'annexe technique au rapport (parution 2016)
Mardi 8 mars 2016
Rapport
Estimation des populations exposées aux dépassements de seuils réglementaires - 1. Echelle urbaine
Conformément aux Directives européennes sur la qualité de l’air et à leur transposition en droit français, les AASQA doivent caractériser les situations de dépassement de seuil dans les zones dont elles assurent la surveillance. Pour tout dépassement observé, il convient d’évaluer la surface en dépassement et d’estimer, selon le cas, la population exposée (seuil pour la protection de la santé) ou la superficie d’écosystème exposée (seuil pour la protection de la végétation). La caractérisation des situations de dépassement en milieu urbain fait l’objet du présent rapport. Elle nécessite de disposer d’une information précise sur la distribution spatiale des concentrations dans l’agglomération. La modélisation de la dispersion est de plus en plus utilisée par les AASQA afin d'obtenir une telle information. Néanmoins, pour limiter les temps de calcul, les données ne sont généralement pas modélisées sur des grilles régulières mais sur des maillages adaptés aux variations des concentrations (plus lâches en situation de fond, et resserrés à proximité des axes routiers). C'est pourquoi il est important de définir une méthode d'interpolation qui spatialise intégralement les données du modèle. L'interpolateur linéaire est largement utilisé. L'hypothèse de linéarité est arbitraire mais peut-être considérée comme valide, principalement à de faibles distances et lorsque les concentrations varient faiblement. Des interpolateurs plus sophistiqués existent. Le krigeage, méthode d’estimation géostatistique, tient compte de la covariance spatiale des concentrations et permet d'interpoler après définition d'un modèle de covariance et d'un voisinage de points à prendre en compte. Apparue plus récemment, la méthode fondée sur la triangulation de Delaunay consiste à parcourir les triangles définis par les points de sortie du modèle et à interpoler linéairement les concentrations le long des arêtes. Elle permet de construire des polygones dans lesquels les concentrations sont comprises entre deux valeurs. Afin d’être évalués et comparés, ces interpolateurs ont été appliqués à différents jeux de données de modélisation fournis par les AASQA. Ces données résultent de simulations effectuées sur les agglomérations de Bourges, Nantes, Niort, Orléans, Reims et Tours. Le NO2, polluant  pour lequel les données étaient les plus nombreuses, a été retenu pour cette analyse. Dans toutes les validations réalisées, l’interpolateur linéaire et l’interpolateur de Delaunay se révèlent les plus précis. Le krigeage ordinaire, dans son emploi usuel, est mal adapté à des données de typologie contrastée (fond/trafic) ; pour une utilisation appropriée, le modèle géostatistique doit être modifié, ce qui requiert des développements supplémentaires. Quelle que soit la méthode, la qualité de l’interpolation est liée à  l’organisation spatiale du maillage de modélisation qui, outre une couverture régulière des zones de fond, doit permettre une bonne représentation des gradients de concentration près des routes et doit donc s’adapter au comportement du polluant considéré dans l’espace, qui n’est évidemment pas le même s’il s’agit de NO2, d’O3 ou de particules. Dans les exemples étudiés, l’interpolation a été réalisée sans prise en compte des données de mesure. La deuxième partie du rapport offre un aperçu des méthodes qui existent en matière de correction des sorties de modèle par intégration des observations. Les méthodes dérivées de la géostatistique ainsi que les derniers travaux en matière d'assimilation de données en milieu urbain sont abordés sous forme de revue documentaire. Ces éléments pourront servir à la planification de travaux ultérieurs. La troisième partie du rapport est consacrée à l’estimation des zones en dépassement et des populations exposées. La sensibilité des résultats aux paramètres de l’estimation est examinée. Si le maillage d’interpolation a peu d’influence dans la gamme de résolution testée (1m, 5m ou 10m), le mode de croisement entre zones de dépassement et population spatialisée a un effet notable. Un croisement maille à maille, si la population est préalablement répartie sur le maillage d’interpolation, ou, ce qui revient au même, un croisement au prorata de la surface de bâtiment intersectée est recommandé. Les conclusions de ce travail seront reprises en 2016 dans une note de synthèse méthodologique et technique sur l’évaluation de la population et des écosystèmes exposés. Leur adaptation aux agglomérations et zones de grande taille sera examinée en 2016 avec les AASQA concernées.
Vendredi 4 mars 2016
Evénement
GT Zones sensibles du 7 juillet 2015
Mardi 1 mars 2016
Rapport
Méthodes d’estimation objective de la qualité de l’air
  Ce document fait partie du référentiel technique national, conformément à l'arrêté du 19 avril 2017 relatif au dispositif national de surveillance de la qualité de l'air.   Résumé du rapport : Lorsqu’à l’issue de l’évaluation préliminaire ou de la révision régulière de cette évaluation, les niveaux de concentration d’un polluant dans une zone administrative de surveillance sont classés comme étant inférieurs au seuil d’évaluation inférieur, les Directives 2008/50/CE et 2004/107/CE autorisent une surveillance par estimation objective. Le concept d’estimation objective n’est pas précisément défini dans la législation. Il sert à désigner différentes méthodes d’évaluation simplifiée de la qualité de l’air, fondées sur la mesure, le calcul, et/ou le jugement d’expert, et qui, par rapport à la mesure fixe et indicative ou à la modélisation, sont soumises à des exigences de qualité allégées. L’objectif de ces approches est de maintenir un suivi des concentrations et de leur évolution et de s’assurer que la classification de la zone reste valable. A partir d’une revue des pratiques en France et à l’étranger, plusieurs méthodes d’estimation objective sont proposées, avec pour chacune des recommandations d’usage. Elles reposent sur des approches variées telles que l’exploitation statistique ou géostatistique de données de campagnes, la connaissance des émissions, ou une évaluation simplifiée de la dispersion. Il ne s'agit pas dans ce rapport de prescrire une méthode unique, mais de plutôt définir un cadre minimal de pré-requis pour ce type de surveillance. Le document pourra évoluer en fonction de l’expérience acquise.
Mardi 1 mars 2016
Rapport
Analyse de sensibilité aux émissions du chauffage au bois
Le chauffage au bois représente une part prépondérante des émissions du secteur résidentiel.Cette note présente les résultats d’un test réalisé avec le modèle de qualité de l’air CHIMERE à 4km de résolution pour montrer l’impact d’une augmentation des émissions en particules du chauffage au bois sur les concentrations en PM10. Ce test est réalisé sur trois mois d’hiver de janvier à mars 2010. Les résultats montrent clairement l’apport d’une augmentation des émissions sur les simulations des concentrations en particules permettant logiquement de débiaiser le modèle pendant l’hiver en dégradant très peu les corrélations spatio-temporelles. Ces corrélations sont même améliorées en Aquitaine. Le test valide l’hypothèse d’une sous-estimation des inventaires d’émissions issues des feux de bois mais n’explique pas totalement la forte sous-estimation hivernale.
Jeudi 7 janvier 2010
Rapport
Mesure du formaldéhyde
Suite au Grenelle de l’Environnement, le principe de surveillance de la qualité de l’air intérieur dans les lieux clos ouverts au public a été acté (engagement numéro 152). Dans ce contexte, des protocoles de mesure pour différentes substances pouvant faire l’objet d’une surveillance ont été élaborés, au cours de l’année 2008, dans le cadre des travaux du Laboratoire central de surveillance de la qualité de l'air (LCSQA) et en partenariat avec le Centre scientifique et technique du bâtiment (CSTB). A ce jour, ces protocoles ne concernent que les lieux scolaires et d’accueil de la petite enfance dans lesquels la substance de préoccupation sanitaire majeure est le formaldéhyde. Ils ont été élaborés en référence aux Valeurs Guides Air Intérieur (VGAI) proposées par l’Agence française de sécurité sanitaire de l’environnement et du travail (AFSSET). Pour le formaldéhyde, 2 VGAI sont disponibles : 50 µg m-3 pour une exposition court terme (2 heures) et 10 µg m-3 pour une exposition long terme. Par ailleurs, il convient de noter que très récemment, des valeurs de référence en air intérieur ont été proposées par le Haut Conseil de Santé Publique (HCSP). Ces futures valeurs, dites de gestion, prennent en compte des critères sanitaires, mais également mettent en perspective des concentrations techniquement atteignables actuellement . Ces valeurs serviront de base de comparaison aux concentrations mesurées au cours de la campagne pilote nationale initiée en septembre 2009. Cette campagne (2009-2011) de surveillance de la qualité de l’air dans les écoles et les crèches françaises, lancée par Chantal Jouanno, Secrétaire d’État à l’Écologie, a pour but de définir les modalités de la surveillance obligatoire de la qualité de l’air prévue par le projet de loi dit « Grenelle 2 », à partir de 2012 pour certains établissements recevant du public comme les écoles et les crèches. Au total, 300 établissements répartis sur l’ensemble du territoire seront concernés entre 2009 et 2011 avec des mesures de formaldéhyde et de benzène ainsi que de confinement. Les mesures seront réalisées par les AASQA avec l’appui technique et organisationnel du LMesure du formaldéhyde CSQA (INERIS) et du CSTB. Dans ce contexte, l'objectif de cette étude est d’organiser une campagne de mesure dans une école pour mieux appréhender l’incertitude liée à la stratégie d’échantillonnage du formaldéhyde élaborée dans les protocoles. Afin de mieux appréhender l’incertitude liée à la représentativité spatiale, des mesures par tubes passifs ont été mises en œuvre :dans l'ensemble des classes d’une école pour évaluer l’impact du choix des salles selon le protocole sur la représentativité de la campagne de mesure ; en différents points et à différentes hauteurs d’une classe afin de renseigner la variabilité spatiale au sein d'une même pièce. Pour préciser la représentativité temporelle, des mesures actives « court terme » et en continu ont été mises en œuvre :des mesures par tubes actifs ont été réalisées tous les jours de la semaine, toutes les deux heures environ des mesures en continu ont également été réalisées dans une salle tout au long d'une journée de classe pour tenter d'identifier des variations de concentration en fonction des activités des élèves. Dans l’école étudiée et dans les conditions environnementales propres à cette campagne, peu de différences entre les niveaux de formaldéhyde mesurés dans chaque salle ainsi qu'une indépendance de la concentration en fonction du point de mesure dans la pièce et du jour de la semaine de classe choisi pour réaliser le prélèvement "court terme" ont été observées. En revanche, des pics de formaldéhyde ont été observés chaque jour à certains moments de la journée mais ces variations ne sont pas répétables d’un jour sur l’autre. Il semble donc difficile de conclure quant à la représentativité du choix de quelques heures de la journée pour réaliser une mesure "court terme". Par ailleurs, le rôle des activités scolaires ainsi que de la réactivité atmospérique diurne des COVs dans la formation de formaldéhyde semble avoir été mis en valeur. Enfin, les résultats de cette campagne seront confrontés à l’ensemble des résultats issus de la campagne pilote. Il est de plus important de noter que de manière générale, les résultats de cette étude confortent la stratégie d’échantillonnage établie par les protocoles et mise en œuvre dans la campagne pilote.
Mercredi 17 février 2016
Rapport
Voisinage de krigeage et cartes analysées
  La réalisation de cartes analysées est un outil important dans le système de prévision national de la qualité de l'air PREV’AIR. Les observations du réseau de mesures et les sorties du modèle de chimie-transport CHIMERE sont intégrés par des méthodes géostatistiques afin de fournir les cartographies les plus vraisemblables possible de la qualité de l’air. Ces méthodes géostatistiques, couramment appelées krigeage, font intervenir des paramètres de voisinage qui peuvent modifier fortement l'aspect final des cartes. Dans cette courte note, nous discuterons des performances obtenues avec les différents voisinages de krigeage testés et des problèmes qui sont susceptibles d'en découler
Jeudi 11 février 2016
Rapport
Etude d’intercomparaison des modèles de qualité de l’air à l’échelle de la rue et à l’échelle urbaine
Un premier exercice d’intercomparaison de modélisation a été mené en mode aveugle sur un quartier du centre ville de Reims par des AASQA volontaires. Cet exercice n’a malheureusement pas rencontré le succès escompté, ne suscitant qu’une participation limitée. Il a cependant permis d’initier les AASQA à ce type d’exercice ; il est donc attendu que les intercomparaisons futures rassemblent davantage de participants. Les conclusions de l’exercice montrent que de manière générale, peu de variabilité est constatée entre les différentes simulations, ce qui constitue le premier résultat de cette étude. Concernant le NO2, les modélisations montrent une sous-estimation systématique des concentrations mesurées. Les meilleures simulations ont été obtenues avec des données météorologiques complétées par des valeurs de nébulosité initialement manquantes ainsi qu’avec une reconstruction sur toute l’année de la pollution de fond à l’aide des stations existantes. Il y a peu de différences constatées entre les résultats fournis par ADMS URBAN et par SIRANE (version V2). Concernant les PM10, les modélisations montrent une sous-estimation moins importante que pour le NO2. Les biais constatés pour toutes les simulations sont faibles et l’indice de corrélation est élevé. La variabilité entre les modélisations est encore plus faible que pour le NO2. Les différences constatées entre les résultats fournis par ADMS URBAN et par SIRANE (version V2) sont également limitées. Les valeurs mesurées par le biais des échantillonneurs passifs en NO2 montrent des concentrations beaucoup plus fortes que celles indiquées par les résultats de modélisation. Le réajustement des valeurs mesurées aux tubes par l’erreur constatée au point du camion laboratoire ne permet pas d’expliquer des différences aussi importantes. L’intérêt d’une comparaison des résultats de modélisation aux valeurs mesurés par ce type de capteur est ici remis en question et appelle des approfondissements ultérieurs.
Mercredi 10 février 2016
Rapport
Normalisation 2015
Le cadre régalien et normatif de la surveillance de la qualité de l’air en France a évolué en 2015 en raison du processus de révision des 2 Directives européennes en vigueur qui a abouti fin août à la parution d’un nouveau texte modifiant plusieurs annexes des directives du Parlement européen et du Conseil 2004/107/CE et 2008/50/CE. Ces annexes concernent les méthodes de référence, les règles portant sur la validation des données et l'emplacement des points de prélèvement pour l'évaluation de la qualité de l'air ambiant. S’agissant des méthodes de référence, il s’agit essentiellement d’une mise à jour documentaire via la mention des référentiels normatifs parus depuis 2008. Outre le traitement des contentieux (en cours pour les PM10 et pour le NO2), 2015 a vu la parution du 1er Plan National de la Surveillance de la Qualité de l’Air (PNSQA) qui décrit la stratégie nationale de surveillance de la qualité de l’air sur la période 2016‐2020. Ce texte de référence va devoir être repris au niveau régional via les PRSQA des AASQA dont la 3ème version est prévue à partir de 2016, en tenant compte de la réforme territoriale et la nouvelle carte de régions entraînant la fusion des AASQA concernées. En tant que Laboratoire de Référence dans le domaine de la Qualité de l’Air notifié par le Ministère en charge de l’environnement, le LCSQA a pour missions l’aide à l’application correcte des textes de référence ainsi que l’assurance de la qualité des mesures dans le respect des exigences des Directives. Pour cela, il participe aux travaux de normalisation nationale (AFNOR – Association Française de NORmalisation) et européenne (CEN – Comité Européen de Normalisation) et assure la transmission de l’information auprès des acteurs du Dispositif National de Surveillance, notamment au travers des Groupes de Travail et des Commissions de Suivi. Il contrôle la correcte application des exigences techniques et législatives lors des audits de vérification technique. Les travaux décrits dans le présent rapport permettent au LCSQA d’apporter au Dispositif National de Surveillance les éléments d'une vision d'ensemble des activités de surveillance de la qualité de l'air sur tout le territoire, et d’assurer leur cohérence avec les contraintes régaliennes, techniques en tenant compte de la réalité du terrain. Dans la continuité des années précédentes, les travaux du LCSQA en 2015 ont permis : d’assurer une application homogène des textes de référence sur le territoire national en vue de leur respect, de contribuer aux choix stratégiques & économiques du Dispositif National, de valoriser la position française au niveau européen. Ainsi, en 2015, les travaux du LCSQA en matière de normalisation ont été les suivants : participation aux travaux de normalisation européenne, nationale et internationale: normalisation européenne (14 GT du CEN TC 264 sur l’air ambiant extérieur et intérieur impliquant 10 experts du LCSQA. 3 nouveaux GT ont été créé en 2015 : le GT42 sur les micro‐capteurs pour la qualité de l’air, le GT43 sur les objectifs de qualité des modèles  et le GT44 sur l’identification des sources), normalisation nationale (3 Commissions de l’AFNOR impliquant 4 experts du LCSQA). Il est à noter que l’année 2015 a vu la réactivation de 3 GT Ad Hoc dans le cadre de la révision de normes AFNOR (Normes sur les pesticides, sur l’étalonnage et sur la  mesure dans les dépôts, impliquant 5 experts du LCSQA), normalisation internationale (3 GT de l’ISO TC 158 sur l’analyse des gaz, en lien avec la Commission AFNOR E29EG « Préparation et utilisation de mélanges de gaz en analyse » impliquant 2 experts du LCSQA) la participation aux groupes d’expertise européens (AQUILA sur le plan technique et FAIRMODE sur le plan de la modélisation) mandatés par la Commission Européenne, impliquant 5 experts du LCSQA. Ces travaux vont dans la logique de convergence des approches métrologiques et par modélisation souhaitée par la Commission Européenne pour la surveillance de la qualité de l’air et dans le cadre du nouveau texte sorti fin août amendant les 2 Directives « qualité de l’air », la participation aux échanges avec la Commission Européenne (ex : Contentieux en cours sur les PM10 et probable pour le NO2, transposition des directives…), la mise en application effective (ou par anticipation) des exigences ou recommandations découlant des points précédents, associées à l’arrêté du 21/10/11 et à la lettre annuelle de cadrage du MEDDE, etc …), se traduisant par : l’apport d’un appui technique pour l’élaboration des recommandations nationales pour le dispositif national (note de cadrage, guide méthodologique…) et des propositions de résolutions faites dans le cadre des Commissions de Suivi, la vérification de leur application effective, au travers des actions de contrôle sur le terrain que les experts des équipes du LCSQA effectuent en audit chez les AASQA (5 audits en 2015 : Atmo Nord‐Pas de Calais, Atmo Picardie, AIRPARIF, Air Lorraine, AIRAQ), Tous ces travaux s’effectuent en collaboration avec les acteurs du dispositif national de surveillance (MEDDE, LCSQA, AASQA), notamment dans le cadre des études menées par le LCSQA et de ses missions de coordination. L’ensemble des actions d’appui à la surveillance, à la planification et aux politiques territoriales est décrit sur le site du LCSQA (http://pro-lcsqa2.lcsqa.org/fr/) et permettent notamment la mise à jour régulière du référentiel métier applicable par les AASQA pour surveiller la qualité de l'air en France.
Vendredi 29 janvier 2016
Rapport
guide méthodologique de validation des données de mesures automatiques
  Ce guide fait partie du référentiel technique national, conformément à l'arrêté du 19 avril 2017 relatif au dispositif national de surveillance de la qualité de l'air.  Il a été approuvé en CPS (comité de pilotage de la surveillance) du 19 novembre 2015. Mise en application : 1er janvier 2016. Ce guide méthodologique a pour objet de fournir aux acteurs de la qualité de l’air les informations nécessaires pour la validation et l’expertise des données afin de garantir le niveau de qualité souhaité ou exigé des informations produites par les Associations Agréées de la Surveillance de la Qualité de l’Air (AASQA) et d’harmoniser au niveau national les pratiques de validation et d’expertise des mesures automatiques. Il explicite les pré-requis et les connaissances que doivent maîtriser les personnes habilitées pour pouvoir effectuer la validation et l’expertise des données. Il détaille les différentes étapes du processus de validation et d’expertise, ainsi que les outils de validation associés. A partir de ces éléments généraux, ce guide décline également les règles de validation et d’expertise communes à l’ensemble des polluants, ainsi que des règles plus spécifiques applicables aux différents types de polluants (gazeux, particulaires et composés émergents). Ce document est la mise à jour du guide sur la validation et l’agrégation des données (ADEME, 2003[1]). Il est désormais séparé en deux parties, l’une sur l’agrégation des données et l’autre sur la validation des données. La partie consacrée à l’agrégation des données a fait l’objet de travaux spécifiques en 2013/2014 et est actuellement abordée dans un document spécifique[2]. La partie portant sur la validation des données est quant à elle divisée en deux sous-parties traitées dans le cadre de groupes de travail organisés au sein des Commissions de suivi suivantes : Commission de Suivi « Mesures automatiques » : elle porte sur la validation des données de mesures automatiques ; ces travaux font l’objet du présent document. Commission de Suivi « Benzène, HAP et métaux lourds » : elle porte sur la validation des données de mesures manuelles. Dans un premier temps, ces deux sous-parties font l’objet de deux documents distincts qui pourront être regroupés dans un document unique lors de leur révision à moyen terme (3-4 ans). Note : Le processus de validation et d’expertise correspond à la vérification selon le guide qui accompagne la décision 2011/850/EU[3] (guide IPR). Cette vérification distingue 3 états : non vérifié, vérifié de façon préliminaire et vérifié. Ces différents états sont explicités dans le tableau 2 du présent guide.   [1] Règles et recommandations en matière de : validation des données, critères d’agrégation et paramètres statistiques. ADEME (édition 2003) [2] Guide d’agrégation des données de qualité de l’air pour l’application des Directives 2004/107/CE et 2008/50/CE sur la Qualité de l’Air ambiant (édition 2015) [3] Décision d’exécution de la Commission du 12/12/2011 portant modalités d’application des directives 2004/107/CE et 2008/50/CE du Parlement européen et du Conseil concernant l’échange réciproque d’informations et la déclaration concernant l’évaluation de la qualité de l’air ambiant