Spelling suggestions: "subject:"filtre THE""
241 |
Contribution à la conception des filtres bidimensionnels non récursifs en utilisant les techniques de l’intelligence artificielle : application au traitement d’images / Contribution to the design of two-dimensional non-recursive filters using artificial intelligence techniques : application to image processingBoudjelaba, Kamal 11 June 2014 (has links)
La conception des filtres a réponse impulsionnelle finie (RIF) peut être formulée comme un problème d'optimisation non linéaire réputé pour être difficile sa résolution par les approches conventionnelles. Afin d'optimiser la conception des filtres RIF, nous explorons plusieurs méthodes stochastiques capables de traiter de grands espaces. Nous proposons un nouvel algorithme génétique dans lequel certains concepts innovants sont introduits pour améliorer la convergence et rendre son utilisation plus facile pour les praticiens. Le point clé de notre approche découle de la capacité de l'algorithme génétique (AG) pour adapter les opérateurs génétiques au cours de la vie génétique tout en restant simple et facile à mettre en oeuvre. Ensuite, l’optimisation par essaim de particules (PSO) est proposée pour la conception de filtres RIF. Finalement, un algorithme génétique hybride (HGA) est proposé pour la conception de filtres numériques. L'algorithme est composé d'un processus génétique pur et d’une approche locale dédiée. Notre contribution vise à relever le défi actuel de démocratisation de l'utilisation des AG’s pour les problèmes d’optimisation. Les expériences réalisées avec différents types de filtres mettent en évidence la contribution récurrente de l'hybridation dans l'amélioration des performances et montrent également les avantages de notre proposition par rapport à d'autres approches classiques de conception de filtres et d’autres AG’s de référence dans ce domaine d'application. / The design of finite impulse response (FIR) filters can be formulated as a non-linear optimization problem reputed to be difficult for conventional approaches. In order to optimize the design of FIR filters, we explore several stochastic methodologies capable of handling large spaces. We propose a new genetic algorithm in which some innovative concepts are introduced to improve the convergence and make its use easier for practitioners. The key point of our approach stems from the capacity of the genetic algorithm (GA) to adapt the genetic operators during the genetic life while remaining simple and easy to implement. Then, the Particle Swarm Optimization (PSO) is proposed for FIR filter design. Finally, a hybrid genetic algorithm (HGA) is proposed for the design of digital filters. The algorithm is composed of a pure genetic process and a dedicated local approach. Our contribution seeks to address the current challenge of democratizing the use of GAs for real optimization problems. Experiments performed with various types of filters highlight the recurrent contribution of hybridization in improving performance. The experiments also reveal the advantages of our proposal compared to more conventional filter design approaches and some reference GAs in this field of application.
|
242 |
Robust tools for weighted Chebyshev approximation and applications to digital filter design / Outils robustes pour l’approximation de Chebyshev pondérée et applications à la synthèse de filtres numériquesFilip, Silviu-Ioan 07 December 2016 (has links)
De nombreuses méthodes de traitement du signal reposent sur des résultats puissants d'approximation numérique. Un exemple significatif en est l'utilisation de l'approximation de type Chebyshev pour l'élaboration de filtres numériques.En pratique, le caractère fini des formats numériques utilisés en machine entraîne des difficultés supplémentaires pour la conception de filtres numériques (le traitement audio et le traitement d'images sont deux domaines qui utilisent beaucoup le filtrage). La majorité des outils actuels de conception de filtres ne sont pas optimisés et ne certifient pas non plus la correction de leurs résultats. Notre travail se veut un premier pas vers un changement de cette situation.La première partie de la thèse traite de l'étude et du développement de méthodes relevant de la famille Remez/Parks-McClellan pour la résolution de problèmes d'approximation polynomiale de type Chebyshev, en utilisant l'arithmétique virgule-flottante.Ces approches sont très robustes, tant du point de vue du passage à l'échelle que de la qualité numérique, pour l'élaboration de filtres à réponse impulsionnelle finie (RIF).Cela dit, dans le cas des systèmes embarqués par exemple, le format des coefficients du filtre qu'on utilise en pratique est beaucoup plus petit que les formats virgule flottante standard et d'autres approches deviennent nécessaires.Nous proposons une méthode (quasi-)optimale pour traîter ce cas. Elle s'appuie sur l'algorithme LLL et permet de traiter des problèmes de taille bien supérieure à ceux que peuvent traiter les approches exactes. Le résultat est ensuite utilisé dans une couche logicielle qui permet la synthèse de filtres RIF pour des circuits de type FPGA.Les résultats que nous obtenons en sortie sont efficaces en termes de consommation d'énergie et précis. Nous terminons en présentant une étude en cours sur les algorithmes de type Remez pour l'approximation rationnelle. Ce type d'approches peut être utilisé pour construire des filtres à réponse impulsionnelle infinie (RII) par exemple. Nous examinons les difficultés qui limitent leur utilisation en pratique. / The field of signal processing methods and applications frequentlyrelies on powerful results from numerical approximation. One suchexample, at the core of this thesis, is the use of Chebyshev approximationmethods for designing digital filters.In practice, the finite nature of numerical representations adds an extralayer of difficulty to the design problems we wish to address using digitalfilters (audio and image processing being two domains which rely heavilyon filtering operations). Most of the current mainstream tools for thisjob are neither optimized, nor do they provide certificates of correctness.We wish to change this, with some of the groundwork being laid by thepresent work.The first part of the thesis deals with the study and development ofRemez/Parks-McClellan-type methods for solving weighted polynomialapproximation problems in floating-point arithmetic. They are veryscalable and numerically accurate in addressing finite impulse response(FIR) design problems. However, in embedded and power hungry settings,the format of the filter coefficients uses a small number of bits andother methods are needed. We propose a (quasi-)optimal approach basedon the LLL algorithm which is more tractable than exact approaches.We then proceed to integrate these aforementioned tools in a softwarestack for FIR filter synthesis on FPGA targets. The results obtainedare both resource consumption efficient and possess guaranteed accuracyproperties. In the end, we present an ongoing study on Remez-type algorithmsfor rational approximation problems (which can be used for infinite impulseresponse (IIR) filter design) and the difficulties hindering their robustness.
|
243 |
Applications of perceptual sparse representation (Spikegram) for copyright protection of audio signals / Applications de la représentation parcimonieuse perceptuelle par graphe de décharges (Spikegramme) pour la protection du droit d’auteur des signaux sonoresErfani, Yousof January 2016 (has links)
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en
pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte
de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû
à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage,
la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007].
Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et
pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette
thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de
décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation
de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du
droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme,
pour attaquer des systèmes de tatouage sonore.
Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’)
des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié
(‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons
une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein
Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du
signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui
prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code
d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme.
Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à
partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au
décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de
tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement,
on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe
à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de
tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le
décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport
à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter
les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer
la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par
le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs
attaques. Les résultats confirment la supériorité de notre approche pour la localisation des
pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux.
Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores.
Cette technique est basée sur la représentation par spikegrammes des signaux sonores
et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est
utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour
le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction
du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et
incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il
est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est
démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode
de tatouage sonore très robuste.
Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le
signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une
charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons
étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and
Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps.
Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes
d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3
et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit
inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP,
le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de
l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme.
Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal,
les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’)
se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés
par une autre.
Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du
tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux
réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur
par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC. / Abstract : Every year global music piracy is making billion dollars of economic, job, workers’ earnings
losses and also million dollars loss in tax revenues. Most of the music piracy is because of
rapid growth and easiness of current technologies for copying, sharing, manipulating and
distributing musical data [Domingo, 2015], [Siwek, 2007]. Audio watermarking has been
proposed as one approach for copyright protection and tamper localization of audio signals
to prevent music piracy. In this thesis, we use the spikegram- which is a bio-inspired sparse
representation- to propose a novel approach to design an audio tamper localization method
as well as an audio copyright protection method and also a new perceptual attack against
any audio watermarking system.
First, we propose a tampering localization method for audio signal, based on a Modified
Spread Spectrum (MSS) approach. Perceptual Matching Pursuit (PMP) is used to compute
the spikegram (which is a sparse and time-shift invariant representation of audio signals) as
well as 2-D masking thresholds. Then, an authentication code (which includes an Identity
Number, ID) is inserted inside the sparse coefficients. For high quality watermarking, the
watermark data are multiplied with masking thresholds. The time domain watermarked
signal is re-synthesized from the modified coefficients and the signal is sent to the decoder.
To localize a tampered segment of the audio signal, at the decoder, the ID’s associated to
intact segments are detected correctly, while the ID associated to a tampered segment is
mis-detected or not detected. To achieve high capacity, we propose a modified version of
the improved spread spectrum watermarking called MSS (Modified Spread Spectrum). We
performed a mean opinion test to measure the quality of the proposed watermarking system.
Also, the bit error rates for the presented tamper localization method are computed under
several attacks. In comparison to conventional methods, the proposed tamper localization
method has the smallest number of mis-detected tampered frames, when only one frame
is tampered. In addition, the mean opinion test experiments confirms that the proposed
method preserves the high quality of input audio signals.
Moreover, we introduce a new audio watermarking technique based on a kernel-based
representation of audio signals. A perceptive sparse representation (spikegram) is combined
with a dictionary of gammatone kernels to construct a robust representation of sounds.
Compared to traditional phase embedding methods where the phase of signal’s Fourier
coefficients are modified, in this method, the watermark bit stream is inserted by modifying
the phase of gammatone kernels. Moreover, the watermark is automatically embedded only
into kernels with high amplitudes where all masked (non-meaningful) gammatones have
been already removed. Two embedding methods are proposed, one based on the watermark
embedding into the sign of gammatones (one dictionary method) and another one based
on watermark embedding into both sign and phase of gammatone kernels (two-dictionary
method). The robustness of the proposed method is shown against 32 kbps MP3 with
an embedding rate of 56.5 bps while the state of the art payload for 32 kbps MP3 robust
iii
iv
watermarking is lower than 50.3 bps. Also, we showed that the proposed method is robust
against unified speech and audio codec (24 kbps USAC, Linear predictive and Fourier
domain modes) with an average payload of 5 − 15 bps. Moreover, it is shown that the
proposed method is robust against a variety of signal processing transforms while preserving
quality.
Finally, three perceptual attacks are proposed in the perceptual sparse domain using
spikegram. These attacks are called PMP, inaudible noise adding and the sparse replacement
attacks. In PMP attack, the host signals are represented and re-synthesized with
spikegram. In inaudible noise attack, the inaudible noise is generated and added to the
spikegram coefficients. In sparse replacement attack, each specific frame of the spikegram
representation - when possible - is replaced with a combination of similar frames located
in other parts of the spikegram. It is shown than the PMP and inaudible noise attacks
have roughly the same efficiency as the 32 kbps MP3 attack, while the replacement attack
reduces the normalized correlation of the spread spectrum decoder with a greater factor
than when attacking with 32 kbps MP3 or 24 kbps unified speech and audio coding (USAC).
|
244 |
Filtrage adaptatif à l’aide de méthodes à noyau : application au contrôle d’un palier magnétique actif / Adaptive filtering using kernel methods : application to the control of an active magnetic bearingSaide, Chafic 19 September 2013 (has links)
L’estimation fonctionnelle basée sur les espaces de Hilbert à noyau reproduisant demeure un sujet de recherche actif pour l’identification des systèmes non linéaires. L'ordre du modèle croit avec le nombre de couples entrée-sortie, ce qui rend cette méthode inadéquate pour une identification en ligne. Le critère de cohérence est une méthode de parcimonie pour contrôler l’ordre du modèle. Le modèle est donc défini à partir d'un dictionnaire de faible taille qui est formé par les fonctions noyau les plus pertinentes.Une fonction noyau introduite dans le dictionnaire y demeure même si la non-stationnarité du système rend sa contribution faible dans l'estimation de la sortie courante. Il apparaît alors opportun d'adapter les éléments du dictionnaire pour réduire l'erreur quadratique instantanée et/ou mieux contrôler l'ordre du modèle.La première partie traite le sujet des algorithmes adaptatifs utilisant le critère de cohérence. L'adaptation des éléments du dictionnaire en utilisant une méthode de gradient stochastique est abordée pour deux familles de fonctions noyau. Cette partie a un autre objectif qui est la dérivation des algorithmes adaptatifs utilisant le critère de cohérence pour identifier des modèles à sorties multiples.La deuxième partie introduit d'une manière abrégée le palier magnétique actif (PMA). La proposition de contrôler un PMA par un algorithme adaptatif à noyau est présentée pour remplacer une méthode utilisant les réseaux de neurones à couches multiples / Function approximation methods based on reproducing kernel Hilbert spaces are of great importance in kernel-based regression. However, the order of the model is equal to the number of observations, which makes this method inappropriate for online identification. To overcome this drawback, many sparsification methods have been proposed to control the order of the model. The coherence criterion is one of these sparsification methods. It has been shown possible to select a subset of the most relevant passed input vectors to form a dictionary to identify the model.A kernel function, once introduced into the dictionary, remains unchanged even if the non-stationarity of the system makes it less influent in estimating the output of the model. This observation leads to the idea of adapting the elements of the dictionary to obtain an improved one with an objective to minimize the resulting instantaneous mean square error and/or to control the order of the model.The first part deals with adaptive algorithms using the coherence criterion. The adaptation of the elements of the dictionary using a stochastic gradient method is presented for two types of kernel functions. Another topic is covered in this part which is the implementation of adaptive algorithms using the coherence criterion to identify Multiple-Outputs models.The second part introduces briefly the active magnetic bearing (AMB). A proposed method to control an AMB by an adaptive algorithm using kernel methods is presented to replace an existing method using neural networks
|
245 |
Méthodes de diagnostic pour les moteurs de fusée à ergols liquides / Model-based fault diagnosis for rocket enginesIannetti, Alessandra 30 September 2016 (has links)
Cette thèse a pour objectif de démontrer l'intérêt des outils de diagnostic "intelligents" pour application sur les moteurs de fusée. En Europe beaucoup d'efforts ont été faits pour développer quelques techniques innovantes comme les réseaux neuronaux, les méthodes de suivi de raie vibratoire, ou l'identification paramétrique mais peu de résultats sont disponibles quant à la comparaison des performances de différents algorithmes. Un deuxième objectif de la thèse a été celui d'améliorer le système de diagnostic du banc d'essai Mascotte (ONERA/CNES). Il s'agit d'un banc de démonstration pour les moteurs de fusée de type cryogénique représentatif des conditions d'utilisation d'un vrai moteur. Les étapes de la thèse ont été en premier lieu de choisir et d'évaluer des méthodes de diagnostic à base de modèles, en particulier l'identification paramétrique et le filtre de Kalman, et de les appliquer pour le diagnostic d'un système critique du banc Mascotte: le circuit de refroidissement. Après une première validation des nouveaux algorithmes sur des données d'essais disponibles, un benchmark fonctionnel a été mis en place pour pouvoir comparer les performances des algorithmes sur différents types de cas de panne simulés. La dernière étape consiste à intégrer les algorithmes sur les ordinateurs du banc de contrôle de Mascotte pour pouvoir effectuer une évaluation applicative des performances et de leur intégrabilité à l'environnement informatique déjà en place. Un exemple simple de boucle de régulation intégrant l’information du diagnostic est aussi étudié pour analyser l’importance de telles méthodes dans le contexte plus large d’une régulation « intelligente » du banc. / The main objective of this work is to demonstrate and analyze the potential benefits of advanced real time algorithms for rocket engines monitoring and diagnosis. In the last two decades in Europe many research efforts have been devoted to the development of specific diagnostic technics such as neural networks, vibration analysis or parameter identification but few results are available concerning algorithms comparison and diagnosis performances analysis.Another major objective of this work has been the improvement of the monitoring system of the Mascotte test bench (ONERA/CNES). This is a cryogenic test facility based in ONERA Palaiseau used to perform analysis of cryogenic combustion and nozzle expansion behavior representative of real rocket engine operations.The first step of the work was the selection of a critical system of the bench, the water cooling circuit, and then the analysis of the possible model based technics for diagnostic such as parameter identification and Kalman filters.Three new algorithms were developed, after a preliminary validation based on real test data, they were thoroughly analyzed via a functional benchmark with representative failure cases.The last part of the work consisted in the integration of the diagnosis algorithms on the bench computer environment in order to prepare a set-up for a future real time application.A simple closed loop architecture based on the new diagnostic tools has been studied in order to assess the potential of the new methods for future application in the context of intelligent bench control strategies.
|
246 |
Évaluation de l'exposition aux microorganismes des chauffeurs de camion et des éboueurs responsables du transport des matières résiduelles et des déchetsSalambanga, Fabiola D. R. 03 1900 (has links)
Les travailleurs impliqués dans la gestion des matières résiduelles domestiques sont
continuellement exposés à des bioaérosols pouvant entrainer des problèmes de santé de nature
infectieux, allergène et cancérigène. Le but de cette étude était d’évaluer l’exposition aux
bioaérosols des éboueurs et des chauffeurs de camion durant la collecte des déchets et des matières
résiduelles à Montréal par une analyse multimétrique et multimédia.
Les conditions de travail ont été évalués dans six camions (2 recyclages, 2 organiques et 2
domestiques). Pour chaque camion, des mesures ambiantes (cabine du chauffeur) et des mesures
dans la zone respiratoire d’un collecteur et d’un chauffeur ont été réalisées. Des prélèvements sur
la surface des sièges des chauffeurs ont aussi été effectués et les filtres à air de l’habitacle des
camions ont été évalués. Les échantillons ont été analysés au laboratoire microbiologique de
l’IRSST selon la méthode par culture microbienne et la méthode moléculaire Droplet Digital PCR.
Les résultats indiquent que les collecteurs sont généralement les plus exposés aux bioaérosols. Les
collecteurs des déchets domestiques étaient notamment les plus exposés avec des concentrations
moyennes pour les bactéries (27 000 UFC/m3), les endotoxines (100 UE/m3) et les moisissures
(5 900 UFC/m3) excédant les recommandations sanitaires. Néanmoins, les collecteurs du compost
étaient les plus exposés aux moisissures (6 800 UFC/m3). E.coli et A.fumigatus ont été détectés
dans tous nos échantillons avec des expositions plus importantes pour les travailleurs du
domestique. De plus, les sièges des chauffeurs des camions domestiques avaient les niveaux de
contamination les plus élevés. La concentration moyenne de A.fumigatus (2 500 UG/m3) dans l’air
de ces camions était supérieure à celle des camions de recyclage et de compost. Les résultats des
filtres n’ont pas permis de tirer de conclusions quant à l’exposition des chauffeurs aux bioaérosols.
Les résultats de cette recherche ont permis de mettre en évidence que l’exposition des travailleurs
lors de la collecte des déchets pourrait être influencée par le type de déchets, le poste de travail
ainsi que les tâches exécutées. Cette étude confirme le potentiel élevé d’exposition aux bioaérosols
des travailleurs attitrés au transport des matières résiduelles et des déchets. Elle valide aussi le
besoin de réduire les expositions professionnelles par diverses stratégies, y compris les procédures
de nettoyage de la cabine et l’utilisation d’équipement de protection respiratoire lors de tâches
génératrices de bioaérosols (nettoyage des camions au jet, déchargement des camions). / Workers involved in the management of household residual materials are continuously exposed to
bioaerosols which can cause them health problems of an infectious, allergenic and carcinogenic
nature. The purpose of this study was to assess the exposure to bioaerosols of collectors and trucks
drivers during the collection of domestic waste and residual materials in Montreal by a multimeric
and multimedia analysis.
A sampling campaign was conducted on six drivers and six collectors. A total of 6 trucks that
collect recyclable (2), organic (2) and compost (2) waste were evaluated. Samples were also taken
from the surface of the drivers' seats, and the cabin air filters were recovered. Samples were
analyzed at the microbiology laboratory of the IRSST using the microbial culture method and the
molecular method of Droplet Digital PCR (ddPCR).
The results indicate that collectors are generally the most exposed to bioaerosols. Domestic waste
collectors were in particular the most exposed with average concentrations for bacteria (27,000
CFU/m3), endotoxins (100 EU/m3) and fungi (5,900 CFU/m3) exceeding health recommendations.
However, the compost collectors were the most exposed to fungi (6,800 CFU/m3). E. coli and A.
fumigatus were detected in all of our samples, but exposures were greater for workers collecting
domestic waste. In addition, the seats of drivers involved in domestic waste collection had the
highest levels of contamination. The average concentration of A. fumigatus (2,500 UG/m3) in the
air of the cabin of domestic waste trucks was higher than that of recycling and compost trucks.
The results of the filters did not allow us to draw any conclusions on their role in terms of drivers
exposure to bioaerosols.
The results of this research highlighted that workers exposure to bioaerosols could be influenced
by factors such as the type of waste, the workplace and workers’ tasks performed. This study
confirms the high potential for exposure to bioaerosols of workers assigned to the transport of
household residual materials and waste. It also validates the need to reduce workers exposures by
various strategies including, cabin cleaning procedures and the use of respiratory protection
equipment for specific tasks generating bioaerosols (water jet cleaning of trucks, unloading of
trucks).
|
247 |
Méthodologies et outils de synthèse pour des fonctions de filtrage chargées par des impédances complexes / Methodologies and synthesis tools for functions filters loaded by complex impedancesMartinez Martinez, David 20 June 2019 (has links)
Le problème de l'adaptation d'impédance en ingénierie des hyper fréquences et en électronique en général consiste à minimiser la réflexion de la puissance qui doit être transmise, par un générateur, à une charge donnée dans une bande de fréquence. Les exigences d'adaptation et de filtrage dans les systèmes de communication classiques sont généralement satisfaites en utilisant un circuit d'adaptation suivi d'un filtre. Nous proposons ici de concevoir des filtres d'adaptation qui intègrent à la fois les exigences d'adaptation et de filtrage dans un seul appareil et augmentent ainsi l'efficacité globale et la compacité du système. Dans ce travail, le problème d'adaptation est formulé en introduisant un problème d'optimisation convexe dans le cadre établi par la théorie de d'adaptation de Fano et Youla. De ce contexte, au moyen de techniques modernes de programmation semi-définies non linéaires, un problème convexe, et donc avec une optimalité garantie, est obtenu. Enfin, pour démontrer les avantages fournis par la théorie développée au-delà de la synthèse de filtres avec des charges complexes variables en fréquence, nous examinons deux applications pratiques récurrentes dans la conception de ce type de dispositifs. Ces applications correspondent, d'une part, à l'adaptation d'un réseau d'antennes dans le but de maximiser l'efficacité du rayonnement, et, d'autre part, à la synthèse de multiplexeurs où chacun des filtres de canal est adapté au reste du dispositif, notamment les filtres correspondant aux autres canaux. / The problem of impedance matching in electronics and particularly in RF engineering consists on minimising the reflection of the power that is to be transmitted, by a generator, to a given load within a frequency band. The matching and filtering requirements in classical communication systems are usually satisfied by using a matching circuit followed by a filter. We propose here to design matching filters that integrate both, matching and filtering requirements, in a single device and thereby increase the overall efficiency and compactness of the system. In this work, the matching problem is formulated by introducing convex optimisation on the framework established by the matching theory of Fano and Youla. As a result, by means of modern non-linear semi-definite programming techniques, a convex problem, and therefore with guaranteed optimality, is achieved. Finally, to demonstrate the advantages provided by the developed theory beyond the synthesis of filters with frequency varying loads, we consider two practical applications which are recurrent in the design of communication devices. These applications are, on the one hand, the matching of an array of antennas with the objective of maximizing the radiation efficiency, and on the other hand the synthesis of multiplexers where each of the channel filters is matched to the rest of the device, including the filters corresponding to the other channels.
|
248 |
Filtering and uncertainty propagation methods for model-based prognosis / Méthodes de filtrage et de propagation d'incertitudes pour le pronostic à base de modèlesRobinson, Elinirina Iréna 10 October 2018 (has links)
Les travaux présentés dans ce mémoire concernent le développement de méthodes de pronostic à base de modèles. Le pronostic à base de modèles a pour but d'estimer le temps qu'il reste avant qu'un système ne soit défaillant, à partir d'un modèle physique de la dégradation du système. Ce temps de vie restant est appelé durée de résiduelle (RUL) du système.Le pronostic à base de modèle est composé de deux étapes principales : (i) estimation de l'état actuel de la dégradation et (ii) prédiction de l'état futur de la dégradation. La première étape, qui est une étape de filtrage, est réalisée à partir du modèle et des mesures disponibles. La seconde étape consiste à faire de la propagation d'incertitudes. Le principal enjeu du pronostic concerne la prise en compte des différentes sources d'incertitude pour obtenir une mesure de l'incertitude associée à la RUL prédite. Les principales sources d'incertitude sont les incertitudes de modèle, les incertitudes de mesures et les incertitudes liées aux futures conditions d'opération du système. Afin de gérer ces incertitudes et les intégrer au pronostic, des méthodes probabilistes ainsi que des méthodes ensemblistes ont été développées dans cette thèse.Dans un premier temps, un filtre de Kalman étendu ainsi qu'un filtre particulaire sont appliqués au pronostic de propagation de fissure, en utilisant la loi de Paris et des données synthétiques. Puis, une méthode combinant un filtre particulaire et un algorithme de détection (algorithme des sommes cumulatives) a été développée puis appliquée au pronostic de propagation de fissure dans un matériau composite soumis à un chargement variable. Cette fois, en plus des incertitudes de modèle et de mesures, les incertitudes liées aux futures conditions d'opération du système ont aussi été considérées. De plus, des données réelles ont été utilisées. Ensuite, deux méthodes de pronostic sont développées dans un cadre ensembliste où les erreurs sont considérées comme étant bornées. Elles utilisent notamment des méthodes d'inversion ensembliste et un observateur par intervalles pour des systèmes linéaires à temps discret. Enfin, l'application d'une méthode issue du domaine de l'analyse de fiabilité des systèmes au pronostic à base de modèles est présentée. Il s'agit de la méthode Inverse First-Order Reliability Method (Inverse FORM).Pour chaque méthode développée, des métriques d'évaluation de performance sont calculées dans le but de comparer leur efficacité. Il s'agit de l'exactitude, la précision et l'opportunité. / In this manuscript, contributions to the development of methods for on-line model-based prognosis are presented. Model-based prognosis aims at predicting the time before the monitored system reaches a failure state, using a physics-based model of the degradation. This time before failure is called the remaining useful life (RUL) of the system.Model-based prognosis is divided in two main steps: (i) current degradation state estimation and (ii) future degradation state prediction to predict the RUL. The first step, which consists in estimating the current degradation state using the measurements, is performed with filtering techniques. The second step is realized with uncertainty propagation methods. The main challenge in prognosis is to take the different uncertainty sources into account in order to obtain a measure of the RUL uncertainty. There are mainly model uncertainty, measurement uncertainty and future uncertainty (loading, operating conditions, etc.). Thus, probabilistic and set-membership methods for model-based prognosis are investigated in this thesis to tackle these uncertainties.The ability of an extended Kalman filter and a particle filter to perform RUL prognosis in presence of model and measurement uncertainty is first studied using a nonlinear fatigue crack growth model based on the Paris' law and synthetic data. Then, the particle filter combined to a detection algorithm (cumulative sum algorithm) is applied to a more realistic case study, which is fatigue crack growth prognosis in composite materials under variable amplitude loading. This time, model uncertainty, measurement uncertainty and future loading uncertainty are taken into account, and real data are used. Then, two set-membership model-based prognosis methods based on constraint satisfaction and unknown input interval observer for linear discete-time systems are presented. Finally, an extension of a reliability analysis method to model-based prognosis, namely the inverse first-order reliability method (Inverse FORM), is presented.In each case study, performance evaluation metrics (accuracy, precision and timeliness) are calculated in order to make a comparison between the proposed methods.
|
249 |
Development of New Tunable Passive Microwave Components in Waveguide TechnologyOssorio García, Javier 10 May 2021 (has links)
[ES] La presente tesis doctoral tiene como objetivo principal el estudio, desarrollo, diseño y fabricación de nuevos componentes pasivos de microondas, tales como filtros y multiplexores que operen en las bandas de alta frecuencia de los actuales y futuros satélites de telecomunicación (bandas Ku, K y Ka) entre 12 y 40 GHz. Dichos componentes deben ser capaces de ofrecer tanto respuestas clásicas sencillas como avanzadas (elípticas), y presentar una capacidad de resintonización (tanto en términos de frecuencia central como de ancho de banda). Estos componentes darán solución a las necesidades actuales de los sistemas de comunicaciones espaciales, que requieren de mayores tasas de transmisión de datos (señales de mayor ancho de banda), así como de mayor flexibilidad en las frecuencias de operación, para ofrecer con un mismo dispositivo distintos servicios y prestaciones. Para ello, se proponen tanto modificaciones a las estructuras de filtros clásicos de microondas actuales, como la introducción de nuevas estructuras. Asimismo, también se investigará el uso de los tornillos de ajuste post-fabricación de los filtros como tornillos de sintonía metálicos, así como la posible introducción de tornillos de sintonía realizados con distintos materiales dieléctricos. Se pretende, de esta forma, mejorar las respuestas de los dispositivos actuales; reduciendo su tamaño y costes de producción (debido a la relajación de las tolerancias de fabricación), abaratando de esta forma la fabricación y futura operación de los mismos. Aprovechando estos nuevos dispositivos, se abordará también el diseño, fabricación y medida de componentes más complejos, como pueden ser los los diplexores de canal o los conmutadores con respuesta selectiva en frecuencia, todos ellos necesarios en los sistemas de comunicaciones espaciales y en íntima relación con los filtros previamente mencionados. Por último, el desarrollo de todos estos nuevos dispositivos vendrá acompañado de una metodología de diseño basado en el uso del Mapeo Espacial Agresivo (Aggressive Space Mapping, ASM) especialmente adaptado a los filtros en guía de onda. / [CA] La present tesis doctoral té com a objectiu el estudi, desenvolupament, diseny i fabricació de nous components pasius de microones, tals com els filtres i multiplexors que operen en les bandes d'alta freqüencia dels actuals i futurs satèl.lits de telecomunicació (bandes Ku, K i Ka) entre 12 i 40 GHz, Aquests components han de ser capaços d'oferir tant, respostes clàsiques sencilles com avançades (eliptiques), i que a més a més presenten una capacitat de resintonització (tant en termes de freqüència central com d'amplada de banda). Aquestos nous components pasius donaràn solució a les necesitats dels actuals sistemes espacials, que requereixen de majors taxes de transmissió de dades (senyals de major amplada de banda), així com de major flexibilitat en les frequencies de operació, per oferir en un mateix dispositiu distints serveis i prestacions. Per aquesta raó, es proposen tant modificacions a les estructures del filtres clàsics de microones actuals, com la introducció de noves estructures. Així mateix, també s'investigarà l'us dels tornells d'ajustament post-fabricació dels filtres com a tornells de sintonía metàl.lica i la introducció de tornells de sintonía realitzats amb diferents materials dielèctrics Es pretén, d'aquesta forma, la millora de les respostes del dispositius actuals; reduint la envergadura i els costos de producció (gràcies a la relaxació de les toleràncies de fabricació), abaratint d'aquesta forma la fabricació i futura operació dels filtres mateixos. Aprofitant aquestos nous dispositius es treballarà també en el disseny, fabricaçió i mesura de components més complexes, com poden ser els multiplexors de canal i els commutadors amb resposta selectiva en freqüencia, tots ells necessaris en els sistemes de comunicacions espacials i en íntima relació amb els filtres abans esmenats. Per analitzar, el desenvolupament de tots aquestos dispositius vindrà acompanyat d'una metodologia de disseny basada en l'us del Mapatge Espacial Agressiu (Aggressive Space Mapping, ASM), especialment adaptat als filtres en guia d'ona. / [EN] The main objective of this doctoral thesis is the study, development, design and manufacture of new passive microwave components in waveguide technology, such as filters and multiplexers, that operate in the high frequency bands of current and future telecommunication satellite payloads between 12 and 40 GHz (Ku, K and Ka bands). The new solutions developed must other both classic and advanced (elliptical) responses, as well as the possibility of being reconfigured both in terms of center frequency and bandwidth. The motivation for this research is to address the current and future needs of space communication systems which require higher data rate transmission (that is larger bandwidths), as well as flexibility with respect to the operating frequency to dynamic adaptation to possible changes in user demands. In this context, we propose in this thesis alternative microwave filter structures in metallic waveguide, as well as novel solutions. We explore different approaches to adjust the filter performance, using both traditional metallic tuning screws as well as tuning elements made with dierent dielectric materials. We also advance the state-of-the-art by developing more performing Space Mapping procedures for the design, optimization and tuning of the filter structures that we propose. The objective is to improve the response of the devices and reduce, at the same time, their manufacturing time and costs. As a fundamental element of our work, in addition to theoretical developments, we also apply the findings of our research to the design, manufacture and measurement of a number of more complex components, such as diplexers and integrated switches and filters. They are practical devices to demonstrate the ability of the novel filters that we propose to satisfy the requirements of current and future advanced satellite payloads. / Ossorio García, J. (2021). Development of New Tunable Passive Microwave Components in Waveguide Technology [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/166100
|
250 |
Advanced numerical techniques for design and optimization of optical links employing nonlinear semiconductor optical amplifiersGhazisaeidi, Amirhossein 17 April 2018 (has links)
Le traitement de signal optique est une pierre angulaire de la prochaine génération de systèmes de communications optiques avancées. En raison de son comportement non-linéaire, l'amplificateur optique à semi-conducteur (SOA) constitue un élément essentiel du traitement de signal optique. Afin de concevoir et d'optimiser de tels systèmes, des outils d'analyses ultra performants sont nécessaires. Dans la présente thèse, un simulateur basé sur l'algorithme de Monte Carlo Multi Canonique (MMC) a été développé et utilisé afin d'analyser une importante fonctionnalité du traitement de signaux optiques, à savoir la suppression du bruit d'intensité du SOA dans les spectrum-sliced wavelength division multiplexed passive optical networks (SS-WDM PON). L'algorithme de MMC a été introduit au début des années 90 en physique statistique. Depuis 2003, il est utilisé par les chercheurs dans la communauté des communications optiques. Dans le premier chapitre de cette thèse, une brève introduction de la suppression du bruit d'intensité du SOA dans les SS-WDM, ainsi que l'algorithme MMC et la modélisation du SOA seront présentés. Dans le second chapitre, l'algorithme MMC a été utilisé pour la première fois, afin d'estimer les fonctions de densités de probabilités conditionnelles (PDF) des "0" et des "1" logiques au niveau du récepteur d'un lien SS-WDM, avec un utilisateur, assisté par un SOA. En exploitant les PDF, le taux d'erreur binaire (BER) a été estimé à la fois pour les systèmes SS-WDM classiques, les systèmes SS-WDM avec suppression de bruit d'intensité d'un SOA, et finalement les systèmes SS-WDM assisté par SOA, et ce, en tenant compte de l'effet des filtres sélecteurs de canaux. Une nouvelle technique de pattern warping est aussi introduite, et ce, afin de traiter l'interférence inter-symboles (ISI) dû a la mémoire du canal de communication. Les estimations des PDF et des BER sont validées par des mesures expérimentales. Résumé v Le chapitre trois est entièrement consacré à la question de l'ISI, en particulier l'effet dû à la dynamique du SOA, qui est aussi appelé l'effet de patterning. Pour ce faire, un lien avec une source laser à 10 Gb/s est considéré. L'objectif principal est de montrer la fiabilité du simulateur pour l'estimation des PDF conditionnelles des "0" et des "1" logiques reçus en présence de l'effet de patterning. De plus, une nouvelle méthode pour mesurer directement les PDF est proposée. Les PDF conditionnelles et les BER simulées sont comparés avec les mesures expérimentales. Le chapitre 4 porte sur les systèmes SS-WDM, toujours avec des SOA, comprenant plusieurs canaux. L'objectif est d'étudier l'impact des filtres optiques sur la performance du système et de montrer comment choisir leurs caractéristiques (bande passante, forme et espacement inter-canal) afin de maximiser l'efficacité spectrale. Dans cette étude, la suppression du bruit d'intensité du SOA et les codes correcteur d'erreurs sont considérés. Ces deux problèmes sont abordés pour la première fois dans cette thèse. On montre aussi pour la première fois que la parallélisasion de l'algorithme MMC peut facilement être utilisé, et ce, contrairement aux affirmations précédentes dans la littérature. Le prix à payer est la perte d'une petite fraction d'échantillons par cycle MMC par noeud de calcul. Les résultats de simulation des BER sont validés à l'aide de résultats publié par d'autres groupes de recherche. Dans le dernier chapitre, les performances des spectral amplitude coded optical division multiple access (SAC-OCDMA), avec et sans la suppression de bruit d'intensité du SOA, sont analysées pour la première fois. Les résultats simulés pour le cas de 2 et 3 utilisateurs actifs sont validés par rapport aux mesures déjà réalisées et publiés par notre groupe de recherche.
|
Page generated in 0.0565 seconds