• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 584
  • 363
  • 135
  • 4
  • 3
  • Tagged with
  • 1140
  • 907
  • 617
  • 345
  • 344
  • 304
  • 300
  • 289
  • 260
  • 231
  • 217
  • 211
  • 209
  • 203
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Brain decoding of the Human Connectome Project Tasks in a Dense Individual fMRI Dataset

Rastegarnia, Shima 11 1900 (has links)
Les études de décodage cérébral visent à entrainer un modèle d'activité cérébrale qui reflète l'état cognitif du participant. Des variations interindividuelles substantielles dans l'organisation fonctionnelle du cerveau représentent un défi pour un décodage cérébral précis. Dans cette thèse, nous évaluons si des modèles de décodage cérébral précis peuvent être entrainés avec succès entièrement au niveau individuel. Nous avons utilisé un ensemble de données individuel dense d'imagerie par résonance magnétique fonctionnelle (IRMf) pour lequel six participants ont terminé l'ensemble de la batterie de tâches du “Human Connectome Project” > 13 fois sur dix sessions d'IRMf distinctes. Nous avons implémenté plusieurs méthodes de décodage, des simples machines à vecteurs de support aux réseaux complexes de neurones à convolution de graphes. Tous les décodeurs spécifiques à l'individu ont été entrainés pour classifier simultanément les volumes d'IRMf simples (TR = 1,49) entre 21 conditions expérimentales, en utilisant environ sept heures de données d'IRMf par participant. Les meilleurs résultats de prédiction ont été obtenus avec notre modèle de machine à vecteurs de support avec une précision de test allant de 64 à 79 % (niveau de la chance environ 7%). Les perceptrons multiniveaux et les réseaux convolutionnels de graphes ont également obtenu de très bons résultats (63-78% et 63-77%, respectivement). Les cartes d'importance des caractéristiques dérivées du meilleur modèle (SVM) ont révélé que la classification utilise des régions pertinentes pour des domaines cognitifs particuliers, sur la base d’a priori neuro-anatomique. En appliquant un modèle individuel aux données d’un autre sujet (classification inter-sujets), on observe une précision nettement inférieure à celle des modèles spécifiques au sujet, ce qui indique que les décodeurs cérébraux individuels ont appris des caractéristiques spécifiques à chaque individu. Nos résultats indiquent que des ensembles de données de neuroimagerie profonde peuvent être utilisés pour former des modèles de décodage cérébral précis au niveau individuel. Les données de cette étude sont partagées librement avec la communauté (https://cneuromod.ca), et pourront servir de benchmark de référence, pour l’entrainement de modèles de décodage cérébral individuel, ou bien des études de “transfert learning” à partir de l’échantillon collecté par le human connectome project. / Brain decoding studies aim to train a pattern of brain activity that reflects the cognitive state of the participant. Substantial inter-individual variations in functional organization represent a challenge to accurate brain decoding. In this thesis, we assess whether accurate brain decoding models can be successfully trained entirely at the individual level. We used a dense individual functional magnetic resonance imaging (fMRI) dataset for which six participants completed the entire Human Connectome Project (HCP) task battery>13 times across ten separate fMRI sessions. We assessed several decoding methods, from simple support vector machines to complex graph convolution neural networks. All individual-specific decoders were trained to classify single fMRI volumes (TR = 1.49) between 21 experimental conditions simultaneously, using around seven hours of fMRI data per participant. The best prediction accuracy results were achieved with our support vector machine model with test accuracy ranging from 64 to 79% (chance level of about 7%). Multilevel perceptrons and graph convolutional networks also performed very well (63-78% and 63-77%, respectively). Best Model Derived Feature Importance Maps (SVM) revealed that the classification uses regions relevant to particular cognitive domains, based on neuroanatomical priors. Applying an individual model to another subject's data (across-subject classification) yields significantly lower accuracy than subject-specific models, indicating that individual brain decoders have learned characteristics specific to each individual. Our results indicate that deep neuroimaging datasets can be used to train accurate brain decoding models at the individual level. The data from this study is shared freely with the community (https://cneuromod.ca) and can be used as a reference benchmark, for training individual brain decoding models, or for “transfer learning” studies from the sample collected by the human connectome project.
192

La communauté professionnelle du secteur de l’intelligence artificielle à Montréal

Houdelinckx, Alizé 08 1900 (has links)
Cette thèse a pour objet les liens sociaux entre les travailleurs du secteur de l’intelligence artificielle (IA) à Montréal, métropole qui connaît depuis les années 2010 un engouement social, économique, politique et médiatique pour ce secteur peu touché par la crise et par l’instabilité en emploi. Les travailleurs de l’IA occupent des emplois aux savoirs et aux savoir-faire hétérogènes et collaborent directement et indirectement pour construire collectivement les passerelles entre la science et la technologie. Au croisement de la sociologie des professions et de la sociologie du lien social, cette recherche interroge les caractéristiques des liens entre ces travailleurs mais aussi l’organisation symbolique dans laquelle ils sont intégrés. Elle mobilise le concept de communauté professionnelle pour désigner d’une part les travailleurs de l’IA dans leur ensemble, et d’autre part, ce pouvoir moral qui unit leurs intérêts individuels autant qu’il les dépasse. En étudiant leurs modes d’intégration, d’engagement dans l’activité, de reconnaissance et de protection, il ressort que l’intérêt partagé pour l’intelligence artificielle et la satisfaction de participer à « l’essor » de son secteur d’activité caractérisent significativement les liens qui les unissent. La popularité politique et économique du label « IA » renforce le prestige des travailleurs, qui doivent en retour continuer de renforcer sa légitimité dans l’espace social. Construites sur une approche mixte, les analyses révèlent en effet que ces liens entrainent des formes de dépendance et des rapports de pouvoir symbolique entre les professionnels et les travailleurs de métier qui composent la communauté professionnelle de l’IA. / This dissertation investigates the social bonds between workers in the artificial intelligence (AI) industry in Montreal. Through the 2010s, this city has manifested a growing social, economic, political and media interest for this sector still rather sheltered from the crisis and job instability. AI workers occupy jobs requiring a variety of knowledge and skills and collaborate both directly and indirectly to build collectively the bridges between science and technology. At the intersection of the sociology of professions and Durkheim’s sociology of the social bond, this dissertation examines the ties that characterize these workers relationships but also the symbolic structure in which they are integrated. I use the concept of professional community to designate, on the one hand, AI workers as a whole, and on the other hand, this moral force that unites their individual interests as much as it transcends them. Through an analysis of their modes of integration, commitment to the activity, recognition, and protection, I argue that the bonds that unite the AI workers are characterized by a shared interest in artificial intelligence and the satisfaction of participating in the AI “boom”. The political and economical popularity of the “AI” label reinforces the prestige of the workers, who in return must continue to strengthen the legitimacy of the sector in the public sphere. Built on a mixed approach, the analyses presented in this dissertation show that these bonds lead to dependencies and symbolic power relationships between the professionals and the workers in the AI professional community.
193

Training large multimodal language models with ethical values

Roger, Alexis 10 1900 (has links)
The rapid expansion of artificial intelligence (AI) in modern society, exemplified by systems like ChatGPT and Stable Diffusion, has given rise to significant ethical considerations. These systems, increasingly prevalent in diverse sectors such as mental health treatment, as in Koko, and art creation, necessitate a careful examination of their alignment with human values. This thesis addresses the pressing need for ethical evaluation of multimodal AI systems - those capable of processing and responding to both text and image inputs. Our research is twofold: initially, we focus on developing a multimodal ethical database through interactive human feedback. Participants assess various examples, determining their ethical appropriateness. This process culminates in a dataset that serves as a foundation for the subsequent phase - designing and testing algorithms capable of autonomously evaluating the morality of AI responses. We explore the effectiveness of two models in this context: a RoBERTa-large classifier and a multilayer perceptron classifier. Furthermore, this thesis highlights significant limitations in the existing multimodal AI systems studied. We propose alternative models, offering a comparative analysis mainly in terms of performance. This comprehensive study not only contributes to the field of AI alignment but also proposes methodologies for enhancing the moral framework within which these influential technologies operate. / L'expansion rapide de l'intelligence artificielle (IA) dans la société moderne, illustrée par des systèmes tels que ChatGPT et Stable Diffusion, a suscité d'importantes considérations éthiques. Ces systèmes, de plus en plus présents dans divers secteurs tels que le traitement de la santé mentale, avec Koko, et la création artistique, nécessitent un examen attentif de leur alignement avec les valeurs humaines. Ce mémoire aborde le besoin pressant d'une évaluation éthique des systèmes d'IA multimodaux - capables de traiter et de répondre à la fois aux entrées textuelles et visuelles. Notre recherche est double : initialement, nous nous concentrons sur le développement d'une base de données éthiques multimodales par le biais de retours interactifs d'utilisateurs. Les participants évaluent divers exemples pour déterminer leur éthique. Ce processus aboutit à un ensemble de données qui sert de fondement à la phase suivante - la conception et le test d'algorithmes capables d'évaluer de manière autonome la moralité des réponses de l'IA. Nous explorons l'efficacité de deux modèles dans ce contexte : un classificateur RoBERTa-large et un perceptron multicouche. De plus, ce mémoire met en évidence des limitations significatives dans les systèmes d'IA multimodaux existants étudiés. Nous proposons des modèles alternatifs, offrant une analyse comparative en termes de performance. Cette étude complète contribue non seulement au domaine de l'alignement de l'IA, mais propose également des méthodologies pour améliorer le cadre moral dans lequel ces technologies influentes opèrent.
194

La métaheuristique CAT pour le design de réseaux logistiques déterministes et stochastiques

Carle, Marc-André 19 April 2018 (has links)
De nos jours, les entreprises d’ici et d’ailleurs sont confrontées à une concurrence mondiale sans cesse plus féroce. Afin de survivre et de développer des avantages concurrentiels, elles doivent s’approvisionner et vendre leurs produits sur les marchés mondiaux. Elles doivent aussi offrir simultanément à leurs clients des produits d’excellente qualité à prix concurrentiels et assortis d’un service impeccable. Ainsi, les activités d’approvisionnement, de production et de marketing ne peuvent plus être planifiées et gérées indépendamment. Dans ce contexte, les grandes entreprises manufacturières se doivent de réorganiser et reconfigurer sans cesse leur réseau logistique pour faire face aux pressions financières et environnementales ainsi qu’aux exigences de leurs clients. Tout doit être révisé et planifié de façon intégrée : sélection des fournisseurs, choix d’investissements, planification du transport et préparation d’une proposition de valeur incluant souvent produits et services au fournisseur. Au niveau stratégique, ce problème est fréquemment désigné par le vocable « design de réseau logistique ». Une approche intéressante pour résoudre ces problématiques décisionnelles complexes consiste à formuler et résoudre un modèle mathématique en nombres entiers représentant la problématique. Plusieurs modèles ont ainsi été récemment proposés pour traiter différentes catégories de décision en matière de design de réseau logistique. Cependant, ces modèles sont très complexes et difficiles à résoudre, et même les solveurs les plus performants échouent parfois à fournir une solution de qualité. Les travaux développés dans cette thèse proposent plusieurs contributions. Tout d’abord, un modèle de design de réseau logistique incorporant plusieurs innovations proposées récemment dans la littérature a été développé; celui-ci intègre les dimensions du choix des fournisseurs, la localisation, la configuration et l’assignation de mission aux installations (usines, entrepôts, etc.) de l’entreprise, la planification stratégique du transport et la sélection de politiques de marketing et d’offre de valeur au consommateur. Des innovations sont proposées au niveau de la modélisation des inventaires ainsi que de la sélection des options de transport. En deuxième lieu, une méthode de résolution distribuée inspirée du paradigme des systèmes multi-agents a été développée afin de résoudre des problèmes d’optimisation de grande taille incorporant plusieurs catégories de décisions. Cette approche, appelée CAT (pour collaborative agent teams), consiste à diviser le problème en un ensemble de sous-problèmes, et assigner chacun de ces sous-problèmes à un agent qui devra le résoudre. Par la suite, les solutions à chacun de ces sous-problèmes sont combinées par d’autres agents afin d’obtenir une solution de qualité au problème initial. Des mécanismes efficaces sont conçus pour la division du problème, pour la résolution des sous-problèmes et pour l’intégration des solutions. L’approche CAT ainsi développée est utilisée pour résoudre le problème de design de réseaux logistiques en univers certain (déterministe). Finalement, des adaptations sont proposées à CAT permettant de résoudre des problèmes de design de réseaux logistiques en univers incertain (stochastique).
195

La reconnaissance de plan des adversaires

Bisson, Francis January 2012 (has links)
Ce mémoire propose une approche pour la reconnaissance de plan qui a été conçue pour les environnements avec des adversaires, c'est-à-dire des agents qui veulent empêcher que leurs plans soient reconnus. Bien qu'il existe d'autres algorithmes de reconnaissance de plan dans la littérature, peu sont adaptés pour de tels environnements. L'algorithme que nous avons conçu et implémenté (PROBE, Provocation for the Recognition of Opponent BEhaviours ) est aussi capable de choisir comment provoquer l'adversaire, en espérant que la réaction de ce dernier à la provocation permette de donner des indices quant à sa véritable intention. De plus, PROBE utilise des machines à états finis comme représentation des plans, un formalisme différent de celui utilisé par les autres approches et qui est selon nous mieux adapté pour nos domaines d'intérêt. Les résultats obtenus suite à différentes expérimentations indiquent que notre algorithme réussit généralement à obtenir une bonne estimation des intentions de l'adversaire dès le départ et que cette estimation s'améliore lorsque de nouvelles actions sont observées. Une comparaison avec un autre algorithme de reconnaissance de plan démontre aussi que PROBE est plus efficace en temps de calcul et en utilisation de la mémoire, sans pourtant sacrifier la qualité de la reconnaissance. Enfin, les résultats montrent que notre algorithme de provocation permet de réduire l'ambiguïté sur les intentions de l'adversaire et ainsi améliorer la justesse du processus de reconnaissance de plan en sélectionnant une provocation qui force l'adversaire, d'une certaine façon, à révéler son intention.
196

Architecture générique pour la découverte de la signification d'un message

Morin, Simon-Pierre January 2008 (has links)
Ce mémoire présente la conception, la réalisation et les tests effectués pour une architecture générique permettant à une machine de reconnaitre le sens d'un message en utilisant le modèle de la cognition linguistique de l'humain et un environnement commun à celui des humains. À ce jour, les machines reconnaissent des mots clés et répondent en suivant un modèle préfabriqué, tous deux préprogrammés par des humains. Donc, chaque agent informatique muni d'une forme d'interaction avec le public se voit attribuer un certain nombre de questions potentielles avec les réponses associées, parfois préconstruite. C'est-à-dire que la machine possède une base de mots avec un ordre prédéfini de ceux-ci qu'elle peut utiliser, parfois une phrase déjà entièrement construite, que la machine utilise telle qu'elle. L'objectif principal de ce projet est de démontrer qu'il est possible pour la machine de s'approcher du modèle proposé par les linguistes, principalement un modèle proposé par Kleiber, adjoint à un modèle de cognition, celui du STI, et d'extraire le sens d'un message dans le but de l'interpréter Ainsi, il est possible d'établir une forme de dialogue entre un être humain et une machine. Cet objectif est atteint en proposant une nouvelle architecture générique pour le traitement du langage naturel. Contrairement à ce qui est fait habituellement dans ce genre de problématique, les réponses obtenues ne doivent pas être des réponses préconçues, mais bien des phrases générées par la machine à partir de la grammaire de la langue. Les résultats obtenus montrent qu'il est possible de donner un sens aux mots composant un message de manière à ce qu'une machine soit en mesure de l'interpréter dans un langage qui lui est propre. Cela est fait de manière à ce que cette même machine puisse répondre à son interlocuteur, voire éventuellement prendre une décision en rapport avec la conversation.
197

Modelage de contexte simplifié pour la compression basée sur la transformée en cosinus discrète

Auclair Beaudry, Jean-Sébastien January 2009 (has links)
Le manque grandissant de médecins spécialistes à l'extérieur des grands centres influe négativement sur' la qualité des soins reçus par les patients. Une solution possible à ce problème est la supervision des médecins généralistes en région par des spécialistes disponibles dans les grands centres. Cette supervision à distance nécessite le développement de technologies répondant aux besoins précis de celle-ci. Dans le cadre de ce projet de recherche, la transmission de l'image est considérée. En vue de développer un codec vidéo adéquat pour l'application dans le futur, le codec intra-image est étudié. Plus précisément, le but recherché est de simplifier et de rendre parallélisable le codec AGU 1 [PONOMARENKO et coll., 2005] sans en réduire les performances en deça des performances de JPEG2000 [SxoDRAS et coll., 2001]. Ces améliorations facilitent la réalisation matérielle du codec en réduisant la latence si critique aux applications de télésupervision. Pour accomplir ces objectifs, le modelage du contexte du codec AGU doit être modifié. La méthodologie proposée passe par l'implémentation du codec AGU, l'étude de la source de données et la modification du modelage de contexte. La modification en question est le remplacement de l'utilisation d'une méthode adaptative basée sur un arbre de conditions par un réseau de neurones. Au terme de cette recherche, le réseau de neurones utilisé comme modeleur de contexte s'avère être un succès. Une structure à neuf entrées et aucune couche cachée est utilisée et permet de rendre presque triviale l'opération de modelage du contexte en gardant des performances supérieures à JPEG2000 en moyenne. La performance est inférieure à JPEG2000 pour une seule image de test sur cinq. Dans le futur, il est possible d'étudier comment améliorer davantage ce codec intra-image à travers l'utilisation d'un meilleur réseau de neurones ou d'une transformée différente. Il est également souhaitable d'étudier comment faire évoluer le codec en un codec inter-image.
198

Reconnaissance de locuteurs pour robot mobile

Grondin, François January 2012 (has links)
L'audition artificielle est de plus en plus utilisée en robotique mobile pour améliorer l'interaction humain-robot. La reconnaissance de la parole occupe présentement une place importante tandis qu'un intérêt particulier se développe pour la reconnaissance de locuteurs. Le système ManyEars permet actuellement à un robot mobile de localiser, suivre et séparer plusieurs sources sonores. Ce système utilise un ensemble de huit microphones qui sont disposés en cube. Ce mémoire porte sur la conception et l'évaluation d'un système de reconnaissance de locuteurs, baptisé WISS (Who IS Speaking), couplé au système ManyEars. Le système de reconnaissance de locuteurs conçu est robuste au bruit ambiant et au changement d'environnement. Une technique de combinaison de modèle parallèle (parallel model combination (PMC)) et des masques sont utilisés pour améliorer le taux d'identification dans un milieu bruité. Un indice de confiance est également introduit pour pondérer les identifications obtenues. La simplicité du système proposé fait en sorte qu'il est possible d'exécuter en temps réel l'algorithme sur un processeur généraliste ( General Purpose Processor (GPP)). Les performances du système sont établies à l'aide de plusieurs scénarios. Dans un premier lieu, des enregistrements sont diffusés dans des haut-parleurs pour un ensemble de vingt locuteurs. Le système est ainsi caractérisé en fonction des positions angulaires et radiales des sources sonores. Le taux de reconnaissance est affecté par la qualité du signal (i.e. diminution du rapport signal sur bruit ( Signal-to-Noise Ratio (SNR))) : il passe de 95.6% à 84.3% en moyenne lorsque le SNR passe d'environ 16 dB à 2 dB lorsque le locuteur se situe à 1.5 mètres des microphones. Par la suite, un scénario dit statique est vérifié à l'aide de quatre locuteurs qui récitent chacun leur tour des phrases à un volume de voix naturel. Finalement, un scénario dynamique dans lequel un groupe de quatre locuteurs ont une conversation naturelle avec des chevauchements entre les segments de paroles est étudié. Le taux de reconnaissance varie entre 74.2% et 100.0% (avec une moyenne de 90.6%) avec le scénario statique, et entre 42.6% et 100.0% avec le scénario dynamique (avec des moyennes de 58.3%, 72.8% et 81.4% pour des segments de 1, 2 et 3 secondes respectivement). Des solutions sont identifiées afin d'améliorer les performances lors de travaux futurs. Au meilleur de notre connaissance, il n'existe aucun système qui effectue une reconnaissance de locuteurs dans un environnement contaminé simultanément par des bruits convolutif et additif. De plus, l'utilisation de masques pour estimer ces bruits est un nouveau concept. Ces masques sont d'ailleurs généralement employés pour la reconnaissance de la parole et leur utilisation dans un contexte de reconnaissance de locuteur est une première. De plus, une caractérisation complète du système qui inclue les SNRs est proposée en fonction de la position du locuteur, ce qui est rarement disponible dans la littérature en audition artificielle pour les robots.
199

Traitement bio-inspiré de la parole pour système de reconnaissance vocale

Loiselle, Stéphane January 2010 (has links)
Cette thèse présente un traitement inspiré du fonctionnement du système auditif pour améliorer la reconnaissance vocale. Pour y parvenir, le signal de la parole est filtré par un banc de filtres et compressé pour en produire une représentation auditive. L'innovation de l'approche proposée se situe dans l'extraction des éléments acoustiques (formants, transitions et onsets ) à partir de la représentation obtenue. En effet, une combinaison de détecteurs composés de neurones à décharges permet de révéler la présence de ces éléments et génère ainsi une séquence d'événements pour caractériser le contenu du signal. Dans le but d'évaluer la performance du traitement présenté, la séquence d'événements est adaptée à un système de reconnaissance vocale conventionnel, pour une tâche de reconnaissance de chiffres isolés prononcés en anglais. Pour ces tests, la séquence d'événements agit alors comme une sélection de trames automatique pour la génération des observations (coefficients cepstraux). En comparant les résultats de la reconnaissance du prototype et du système de reconnaissance original, on remarque que les deux systèmes reconnaissent très bien les chiffres prononcés dans des conditions optimales et que le système original est légèrement plus performant. Par contre, la différence observée au niveau des taux de reconnaissance diminue lorsqu'une réverbération vient affecter les données à reconnaître et les performances de l'approche proposée parviennent à dépasser celles du système de référence. De plus, la sélection de trames automatique offre de meilleures performances dans des conditions bruitées. Enfin, l'approche proposée se base sur des caractéristiques dans le temps en fonction de la nature du signal, permet une sélection plus intelligente des données qui se traduit en une parcimonie temporelle, présente un potentiel fort intéressant pour la reconnaissance vocale sous conditions adverses et utilise une détection des caractéristiques qui peut être utilisée comme séquence d'impulsions compatible avec les réseaux de neurones à décharges.
200

Efficacité d'une zone humide artificielle et d'une zone tampon forestière pour dissiper la pollution par les pesticides dans un bassin versant agricole drainé

Passeport, Elodie 12 November 2010 (has links) (PDF)
Dans le cadre du projet européen LIFE ArtWET (06 ENV/F/000133), deux zones tampons (ZTs), une zone humide artificielle (ZHA) et une zone tampon forestière (ZTF), situées à Bray (France), ont été évaluées pour leur efficacité à réduire la pollution par les pesticides venant d'un bassin versant agricole drainé de 46 ha. Traiter l'ensemble des volumes n'étant pas possible, une bonne stratégie de traitement semble être de cibler les volumes les plus concentrés en pesticides. Les trois ans de données indiquent en moyenne une réduction d'au moins 40 % des concentrations et des charges en pesticides dans les deux ZTs, bien qu'une forte variabilité ait été notée. L'isoproturon, un herbicide mobile, a donné les résultats les plus contrastés. Des expérimentations de traçage ont permis d'estimer le temps de rétention hydraulique à 66.5 h dans la ZHA. Les retards observés sur le transfert des pesticides à travers des ZTs semblent dus à l'adsorption, bien que des phénomènes de désorption soient aussi suspectés. Des sédiments et des plantes de la ZHA ainsi que du sol et de la litière de la ZTF ont été prélevés. Sur ces substrats, des molécules marquées au 14C ont permis de suivre la dégradation de l'époxiconazole (fongicide) en systèmes eau/substrats ainsi que l'adsorption et la désorption de l'isoproturon, du metazachlore (herbicide) et de l'époxiconazole. A part pour les plantes, les coefficients d'adsorption (Koc) des trois molécules sont dans les valeurs hautes des gammes de valeurs publiées indiquant un fort potentiel des substrats de ces ZTs pour la rétention des pesticides. La désorption est très faible pour l'epoxiconazole, mais assez élevée pour le metazachlore et l'isoproturon. La minéralisation de l'epoxiconazole est faible et lente mais des métabolites ont été observés, indiquant une dégradation partielle. L'adsorption-desorption semble être un phénomène important, notamment pour les ZTs où le temps de résidence est faible, laissant ainsi peu de temps pour la dégradation des molécules.

Page generated in 0.0632 seconds