Spelling suggestions: "subject:"component 2analysis"" "subject:"component 3analysis""
671 |
Prise en compte de la flexibilité des ressources humaines dans la planification et l’ordonnancement des activités industrielles / Considering the flexibility of human resources in planning and scheduling industrial activitiesAtalla El-Awady Attia, El-Awady 05 April 2013 (has links)
Le besoin croissant de réactivité dans les différents secteurs industriels face à la volatilité des marchés soulève une forte demande de la flexibilité dans leur organisation. Cette flexibilité peut être utilisée pour améliorer la robustesse du planning de référence d’un programme d’activités donné. Les ressources humaines de l’entreprise étant de plus en plus considérées comme le coeur des structures organisationnelles, elles représentent une source de flexibilité renouvelable et viable. Tout d’abord, ce travail a été mis en oeuvre pour modéliser le problème d’affectation multi-périodes des effectifs sur les activités industrielles en considérant deux dimensions de la flexibilité: L’annualisation du temps de travail, qui concerne les politiques de modulation d’horaires, individuels ou collectifs, et la polyvalence des opérateurs, qui induit une vision dynamique de leurs compétences et la nécessité de prévoir les évolutions des performances individuelles en fonction des affectations successives. La nature dynamique de l’efficacité des effectifs a été modélisée en fonction de l’apprentissage par la pratique et de la perte de compétence pendant les périodes d’interruption du travail. En conséquence, nous sommes résolument placés dans un contexte où la durée prévue des activités n’est plus déterministe, mais résulte du nombre des acteurs choisis pour les exécuter, en plus des niveaux de leur expérience. Ensuite, la recherche a été orientée pour répondre à la question : « quelle genre, ou quelle taille, de problème pose le projet que nous devons planifier? ». Par conséquent, les différentes dimensions du problème posé sont classées et analysés pour être évaluées et mesurées. Pour chaque dimension, la méthode d’évaluation la plus pertinente a été proposée : le travail a ensuite consisté à réduire les paramètres résultants en composantes principales en procédant à une analyse factorielle. En résultat, la complexité (ou la simplicité) de la recherche de solution (c’est-à-dire de l’élaboration d’un planning satisfaisant pour un problème donné) peut être évaluée. Pour ce faire, nous avons développé une plate-forme logicielle destinée à résoudre le problème et construire le planning de référence du projet avec l’affectation des ressources associées, plate-forme basée sur les algorithmes génétiques. Le modèle a été validé, et ses paramètres ont été affinés via des plans d’expériences pour garantir la meilleure performance. De plus, la robustesse de ces performances a été étudiée sur la résolution complète d’un échantillon de quatre cents projets, classés selon le nombre de leurs tâches. En raison de l’aspect dynamique de l’efficacité des opérateurs, le présent travail examine un ensemble de facteurs qui influencent le développement de leur polyvalence. Les résultats concluent logiquement qu’une entreprise en quête de flexibilité doit accepter des coûts supplémentaires pour développer la polyvalence de ses opérateurs. Afin de maîtriser ces surcoûts, le nombre des opérateurs qui suivent un programme de développement des compétences doit être optimisé, ainsi que, pour chacun d’eux, le degré de ressemblance entre les nouvelles compétences développées et les compétences initiales, ou le nombre de ces compétences complémentaires (toujours pour chacun d’eux), ainsi enfin que la façon dont les heures de travail des opérateurs doivent être réparties sur la période d’acquisition des compétences. Enfin, ce travail ouvre la porte pour la prise en compte future des facteurs humains et de la flexibilité des effectifs pendant l’élaboration d’un planning de référence. / The growing need of responsiveness for manufacturing companies facing the market volatility raises a strong demand for flexibility in their organization. This flexibility can be used to enhance the robustness of a baseline schedule for a given programme of activities. Since the company personnel are increasingly seen as the core of the organizational structures, they provide the decision-makers with a source of renewable and viable flexibility. First, this work was implemented to model the problem of multi-period workforce allocation on industrial activities with two degrees of flexibility: the annualizing of the working time, which offers opportunities of changing the schedules, individually as well as collectively. The second degree of flexibility is the versatility of operators, which induces a dynamic view of their skills and the need to predict changes in individual performances as a result of successive assignments. The dynamic nature of workforce’s experience was modelled in function of learning-by-doing and of oblivion phenomenon during the work interruption periods. We firmly set ourselves in a context where the expected durations of activities are no longer deterministic, but result from the number and levels of experience of the workers assigned to perform them. After that, the research was oriented to answer the question “What kind of problem is raises the project we are facing to schedule?”: therefore the different dimensions of the project are inventoried and analysed to be measured. For each of these dimensions, the related sensitive assessment methods have been proposed. Relying on the produced correlated measures, the research proposes to aggregate them through a factor analysis in order to produce the main principal components of an instance. Consequently, the complexity or the easiness of solving or realising a given scheduling problem can be evaluated. In that view, we developed a platform software to solve the problem and construct the project baseline schedule with the associated resources allocation. This platform relies on a genetic algorithm. The model has been validated, moreover, its parameters has been tuned to give the best performance, relying on an experimental design procedure. The robustness of its performance was also investigated, by a comprehensive solving of four hundred instances of projects, ranked according to the number of their tasks. Due to the dynamic aspect of the workforce’s experience, this research work investigates a set of different parameters affecting the development of their versatility. The results recommend that the firms seeking for flexibility should accept an amount of extra cost to develop the operators’ multi functionality. In order to control these over-costs, the number of operators who attend a skill development program should be optimised, as well as the similarity of the new developed skills relative to the principal ones, or the number of the additional skills an operator may be trained to, or finally the way the operators’ working hours should be distributed along the period of skill acquisition: this is the field of investigations of the present work which will, in the end, open the door for considering human factors and workforce’s flexibility in generating a work baseline program.
|
672 |
Classification of Carpiodes Using Fourier Descriptors: A Content Based Image Retrieval ApproachTrahan, Patrick 06 August 2009 (has links)
Taxonomic classification has always been important to the study of any biological system. Many biological species will go unclassified and become lost forever at the current rate of classification. The current state of computer technology makes image storage and retrieval possible on a global level. As a result, computer-aided taxonomy is now possible. Content based image retrieval techniques utilize visual features of the image for classification. By utilizing image content and computer technology, the gap between taxonomic classification and species destruction is shrinking. This content based study utilizes the Fourier Descriptors of fifteen known landmark features on three Carpiodes species: C.carpio, C.velifer, and C.cyprinus. Classification analysis involves both unsupervised and supervised machine learning algorithms. Fourier Descriptors of the fifteen known landmarks provide for strong classification power on image data. Feature reduction analysis indicates feature reduction is possible. This proves useful for increasing generalization power of classification.
|
673 |
Effets dynamiques et conformationnels sur le rôle de transport des albumines sériques / Dynamics and conformational effects on the transport role of serum albuminsParis, Guillaume 05 June 2014 (has links)
L’albumine sérique humaine (HSA) est une protéine connue pour ses propriétés de transport exceptionnelles et son contenu élevé en ponts disulfure. L’étude de sa dynamique conformationnelle représente un défi important dans la compréhension de ses fonctions physiologiques. Le but de notre travail a été d’étudier cette dynamique conformationnelle et de comprendre le rôle des ponts disulfure dans le maintien de la structure native de la protéine. Notre analyse est basée sur des simulations de dynamique moléculaire couplées à des analyses par composantes principales. Outre la validation de la méthode de simulation les résultats fournissent de nouveaux éclairages sur les principaux effets de la réduction des ponts disulfure dans les albumines sériques. Les processus de dépliement/repliement protéique ont été détaillés. La prédiction de la structure réduite d’équilibre a également fait l’objet d’une attention particulière. Une étude détaillée de la dynamique conformationnelle globale de la protéine ainsi que celle des deux sites principaux de complexation a été effectuée. D’éventuels effets allostériques entre ces deux sites ont été recherchés. Les résultats théoriques obtenus ont été discutés avec les données expérimentales disponibles / Human serum albumin (HSA) is a protein known for its exceptional transport properties and its high content of disulfide bridges. The study of the conformational dynamics represents a major challenge in the comprehension of its physiological functions. The aim of our work was to study the conformational dynamics and to understand the roleof disulfide bonds in the stability of the native protein structure. Our analysis is based on simulations of molecular dynamics coupled with principal component analysis. Beyond the validation of the simulation method, the results provide new insights on the main effects of the disulfide bonds reduction in serum albumins. Protein unfolding/refolding processes were detailed. A special attention is paid to the prediction of the reduced structure at the equilibrium. A detailed study of the global protein conformational dynamics as well as the two main binding sites were performed. Possible allosteric effects between these two sites were researched. The theoretical results have been discussed with the available experimental data
|
674 |
Contribution à la modélisation de la qualité de l'orge et du malt pour la maîtrise du procédé de maltage / Modeling contribution of barley and malt quality for the malting process controlAjib, Budour 18 December 2013 (has links)
Dans un marché en permanente progression et pour répondre aux besoins des brasseurs en malt de qualité, la maîtrise du procédé de maltage est indispensable. La qualité du malt est fortement dépendante des conditions opératoires, en particulier des conditions de trempe, mais également de la qualité de la matière première : l'orge. Dans cette étude, nous avons établi des modèles polynomiaux qui mettent en relation les conditions opératoires et la qualité du malt. Ces modèles ont été couplés à nos algorithmes génétiques et nous ont permis de déterminer les conditions optimales de maltage, soit pour atteindre une qualité ciblée de malt (friabilité), soit pour permettre un maltage à faible teneur en eau (pour réduire la consommation en eau et maîtriser les coûts environnementaux de production) tout en conservant une qualité acceptable de malt. Cependant, la variabilité de la matière première est un facteur limitant de notre approche. Les modèles établis sont en effet très sensibles à l'espèce d'orge (printemps, hiver) ou encore à la variété d'orge utilisée. Les modèles sont surtout très dépendants de l'année de récolte. Les variations observées sur les propriétés d'une année de récolte à une autre sont mal caractérisées et ne sont donc pas intégrées dans nos modèles. Elles empêchent ainsi de capitaliser l'information expérimentale au cours du temps. Certaines propriétés structurelles de l'orge (porosité, dureté) ont été envisagées comme nouveaux facteurs pour mieux caractériser la matière première mais ils n'ont pas permis d'expliquer les variations observés en malterie.Afin de caractériser la matière première, 394 échantillons d'orge issus de 3 années de récolte différentes 2009-2010-2011 ont été analysés par spectroscopie MIR. Les analyses ACP ont confirmé l'effet notable des années de récolte, des espèces, des variétés voire des lieux de culture sur les propriétés de l'orge. Une régression PLS a permis, pour certaines années et pour certaines espèces, de prédire les teneurs en protéines et en béta-glucanes de l'orge à partir des spectres MIR. Cependant, ces résultats, pourtant prometteurs, se heurtent toujours à la variabilité. Ces nouveaux modèles PLS peuvent toutefois être exploités pour mettre en place des stratégies de pilotage du procédé de maltage à partir de mesures spectroscopiques MIR / In a continuously growing market and in order to meet the needs of Brewers in high quality malt, control of the malting process is a great challenge. Malt quality is highly dependent on the malting process operating conditions, especially on the steeping conditions, but also the quality of the raw material: barley. In this study, we established polynomial models that relate the operating conditions and the malt quality. These models have been coupled with our genetic algorithms to determine the optimal steeping conditions, either to obtain a targeted quality of malt (friability), or to allow a malting at low water content while maintaining acceptable quality of malt (to reduce water consumption and control the environmental costs of malt production). However, the variability of the raw material is a limiting factor for our approach. Established models are very sensitive to the species (spring and winter barley) or to the barley variety. The models are especially highly dependent on the crop year. Variations on the properties of a crop from one to another year are poorly characterized and are not incorporated in our models. They thus prevent us to capitalize experimental information over time. Some structural properties of barley (porosity, hardness) were considered as new factors to better characterize barley but they did not explain the observed variations.To characterize barley, 394 samples from 3 years of different crops 2009-2010-2011 were analysed by MIR spectroscopy. ACP analyses have confirmed the significant effect of the crop-years, species, varieties and sometimes of places of harvest on the properties of barley. A PLS regression allowed, for some years and for some species, to predict content of protein and beta-glucans of barley using MIR spectra. These results thus still face product variability, however, these new PLS models are very promising and could be exploited to implement control strategies in malting process using MIR spectroscopic measurements
|
675 |
Interprétation des signaux cérébraux pour l’autonomie des handicapés : Système de reconnaissance de mots imaginés / Cerebral signal processing for the autonomy of the handicapped : Imagery recognition systemAbdallah, Nassib 20 December 2018 (has links)
Les interfaces Cerveau Machine représentent une solution pour rétablir plusieurs fonctions comme le mouvement, la parole, etc. La construction de BCI se compose de quatre phases principales: "Collecte des données", "Prétraitement du signal", "Extraction et sélection de caractéristiques", "Classification". Dans ce rapport nous présentons un nouveau système de reconnaissance de mots imaginées basé sur une technique d’acquisition non invasive (EEG) et portable pour faciliter aux personnes ayant des handicaps spécifiques, leurs communications avec le monde extérieur. Cette thèse inclut un système nommé FEASR pour la construction d’une base de données pertinente et optimisée. Cette base a été testée avec plusieurs méthodes de classification pour obtenir un taux maximal de reconnaissance de 83.4% pour cinq mots imaginés en arabe. De plus, on discute de l’impact des algorithmes d’optimisations (Sélection des capteurs de Wernicke, Analyse en composante principale et sélection de sous bandes résultant de la décomposition en ondelette) sur les pourcentages de reconnaissance en fonction de la taille de notre base de données et de sa réduction. / The Brain Machine interfaces represent a solution to restore several human issues such as movement, speech, etc. The construction of BCI consists of four main phases: "Data Recording", "Signal preprocessing", "Extraction and Selection of Characteristics", and "Classification". In this report we present a new imagery recognition system based on a non-invasive (EEG) and portable acquisition technique to facilitate communication with the outside world for people with specific disabilities.This thesis includes a system called FEASR for the construction of a relevant and optimized database. This database has been tested with several classification methods to obtain a maximum recognition rate of 83.4% for five words imagined in Arabic. In addition, we discuss the impact of optimization algorithms (Wernicke sensor selection, principal component analysis algorithm and the selection of subbands resulting from the discrete wavelet transform decomposition) on recognition percentages according to the size of our database and its reduction.
|
676 |
Séparation de signaux en mélanges convolutifs : contributions à la séparation aveugle de sources parcimonieuses et à la soustraction adaptative des réflexions multiples en sismique / Signal separation in convolutive mixtures : contributions to blind separation of sparse sources and adaptive subtraction of seismic multiplesBatany, Yves-Marie 14 November 2016 (has links)
La séparation de signaux corrélés à partir de leurs combinaisons linéaires est une tâche difficile et possède plusieurs applications en traitement du signal. Nous étudions deux problèmes, à savoir la séparation aveugle de sources parcimonieuses et le filtrage adaptatif des réflexions multiples en acquisition sismique. Un intérêt particulier est porté sur les mélanges convolutifs : pour ces deux problèmes, des filtres à réponses impulsionnelles finies peuvent être estimés afin de récupérer les signaux désirés.Pour les modèles de mélange instantanés et convolutifs, nous donnons les conditions nécessaires et suffisantes pour l'extraction et la séparation exactes de sources parcimonieuses en utilisant la pseudo-norme L0 comme une fonction de contraste. Des équivalences entre l'analyse en composantes parcimonieuses et l'analyse en composantes disjointes sont examinées.Pour la soustraction adaptative des réflexions sismiques, nous discutons les limites des méthodes basées sur l'analyse en composantes indépendantes et nous soulignons l'équivalence avec les méthodes basées sur les normes Lp. Nous examinons de quelle manière les paramètres de régularisation peuvent être plus décisifs pour l'estimation des primaires. Enfin, nous proposons une amélioration de la robustesse de la soustraction adaptative en estimant les filtres adaptatifs directement dans le domaine des curvelets. Les coûts en calcul et en mémoire peuvent être atténués par l'utilisation de la transformée en curvelet discrète et uniforme. / The recovery of correlated signals from their linear combinations is a challenging task and has many applications in signal processing. We focus on two problems that are the blind separation of sparse sources and the adaptive subtraction of multiple events in seismic processing. A special focus is put on convolutive mixtures: for both problems, finite impulse response filters can indeed be estimated for the recovery of the desired signals.For instantaneous and convolutive mixing models, we address the necessary and sufficient conditions for the exact extraction and separation of sparse sources by using the L0 pseudo-norm as a contrast function. Equivalences between sparse component analysis and disjoint component analysis are investigated.For adaptive multiple subtraction, we discuss the limits of methods based on independent component analysis and we highlight equivalence with Lp-norm-based methods. We investigate how other regularization parameters may have more influence on the estimation of the desired primaries. Finally, we propose to improve the robustness of adaptive subtraction by estimating the extracting convolutive filters directly in the curvelet domain. Computation and memory costs are limited by using the uniform discrete curvelet transform.
|
677 |
Calibration d'algorithmes de type Lasso et analyse statistique de données métallurgiques en aéronautique / Calibration of Lasso-type algorithms & statistical analysis of metallurgical data in aeronauticsConnault, Pierre 06 April 2011 (has links)
Notre thèse comprend deux parties : l’une méthodologique, l’autre appliquée.La partie méthodologique porte sur le Lasso et une variante de cet algorithme, le Lasso projeté, en vue de leur calibration par pente. Notre méthode tire parti des propriétés de parcimonie du Lasso, en envisageant le problème de sa calibration comme un problème de sélection de modèles, permettant l’emploi de critères pénalisés nécessitant le réglage d’une constante. Pour déterminer la forme de la pénalité et la valeur de la constante, nous adaptons les approches classiques de Birgé et Massart. Ceci permet de dégager la notion de pénalité canonique. Pente et validation croisée sont ensuite comparées. La proximité des résultats suggère qu’en pratique on utilise les deux conjointement, avec des corrections visuelles concernant la pente. Des améliorations sur le temps de calcul des pénalités canoniques sont ensuite proposées, mais sans succès patent. La partie appliquée analyse certaines questions métallurgiques en aéronautique. En fiabilité, le grand nombre de variables présentes, relativement au nombre limité de données, mène à une instabilité des solutions par modèles linéaires et à des temps de calculs trop élevés ; c’est pourquoi le Lasso constitue une solution intéressante. Notre méthode de réglage permet souvent de retenir les variables conformes à l’expérience métier. La question de la qualité du procédé de fabrication, par contre, ne peut se traiter au moyen du Lasso. Quatre aspects sont alors envisagés : la détermination des facteurs du procédé, la mise en évidence de recettes, l’étude de la stabilité du procédé dans le temps et la détection de pièces hors-normes. Un schéma général d’étude procédé est ainsi dégagé,en qualité comme en fiabilité. / Our work contains a methodological and an applied part.In the methodological part we study Lasso and a variant of this algorithm : the projectedLasso. We develop slope heuristics to calibrate them.Our approach uses sparsity properties of the Lasso, showing how to remain to a modelselection framework. This both involves a penalized criterion and the tuning of a constant.To this aim, we adopt the classical approaches of Birgé and Massart about slope heuristics.This leads to the notion of canonical penalty.Slope and (tenfold) crossvalidation are then compared through simulations studies.Results suggest the user to consider both of them. In order to increase calculation speed,simplified penalties are (unsuccessfully) tried.The applied part is about aeronautics. The results of the methodological part doapply in reliability : in classical approaches (without Lasso) the large number of variables/number of data ratio leads to an instability of linear models, and to huge calculustimes. Lasso provides a helpful solution.In aeronautics, dealing with reliability questions first needs to study quality of theelaboration and forging processes. Four major axis have to be considered : analysing thefactor of the process, discrimining recipes, studying the impact of time on quality anddetecting outliers. This provides a global statistical strategy of impowerment for processes.
|
678 |
Imagerie des faisceaux de fibres et des réseaux fonctionnels du cerveau : application à l'étude du syndrome de Gilles de la Tourette / Imaging anatomical and functional brain cortico-subcortical loops : Application to the Gilles de la Tourette syndromeMalherbe, Caroline 28 March 2012 (has links)
L'objectif de cette thèse est d'identifier et caractériser les boucles anatomiques et fonctionnelles cortico-sous-corticales chez l'Homme, à partir de données d'imagerie par résonance magnétique fonctionnelle (IRMf) au repos et de diffusion. Une boucle est un ensemble de régions corticales, sous-corticales et cérébelleuses, qui interagissent afin d'effectuer ou de préparer une tâche.Le premier axe de ce travail vise à identifier les réseaux fonctionnels cortico-sous-corticaux en IRMf au repos. Nous proposons une méthode statistique robuste séparant l'analyse corticale de l'analyse sous-corticale. Une analyse en composantes indépendantes spatiales est d'abord réalisée individuellement sur les régions corticales, et suivie d'une classification hiérarchique. Les régions sous-corticales associées sont ensuite extraites par un modèle linéaire général dont les régresseurs comportent la dynamique des régions corticales, suivi d'une analyse de groupe à effets aléatoires. La méthode est validée sur deux jeux de données différents. Un atlas immunohistochimique des structures sous-corticales permet ensuite de déterminer la fonction sensorimotrice, associative ou limbique des réseaux obtenus. Nous montrons enfin que l'anatomie est un support pour la fonction chez des sujets sains.Le dernier axe étudie le syndrome de Gilles de la Tourette, qu'on pense être dû à un dysfonctionnement des boucles cortico-sous-corticales. Nous caractérisons d'abord les boucles cortico-sous-corticales fonctionnelles grâce à des métriques d'intégration et de théorie des graphes, et des différences en termes de connectivité sont mises en évidence entre patients adultes et volontaires sains. Nous montrons également que les boucles cortico-sous-corticales fonctionnelles chez les patients sont soutenues par l'anatomie sous-jacente. / The objective of this thesis is to identify and characterize human anatomical and functional cortico-subcortical loops, using data from resting-state functional magnetic resonance imaging (fMRI) and diffusion MRI. A loop is a set of cortical, subcortical and cerebellar regions that interact to perform or prepare for a task.We first aim to identify cortico-subcortical functional networks from resting-state fMRI data. We propose a robust statistical method that separates the analysis of cortical regions from that of subcortical structures. A spatial independent component analysis is first performed on individual cortical regions, followed by a hierarchical classification. The associated subcortical regions are then extracted by using a general linear model, the regressors of which contain the dynamics of the cortical regions, followed by a random-effect group analysis. The proposed approach is assessed on two different data sets. An immunohistochemical subcortical atlas is then used to determine the sensorimotor, associative or limbic function of the resulting networks. We finally demonstrate that anatomy is a support for function in healthy subjects.The last part is devoted to the study of the Gilles de la Tourette syndrome, thought to be due to adysfunction of cortico-subcortical loops. Firstly, cortico-subcortical functional loops are characterized using metrics such as integration and graph theory measures, showing differences in terms of connectivity between adult patients and healthy volunteers. Secondly, we show that the cortico-subcortical functional loops in patients are supported by the underlying anatomy.
|
679 |
Análise de componentes independentes aplicada à separação de sinais de áudio. / Independent component analysis applied to separation of audio signals.Moreto, Fernando Alves de Lima 19 March 2008 (has links)
Este trabalho estuda o modelo de análise em componentes independentes (ICA) para misturas instantâneas, aplicado na separação de sinais de áudio. Três algoritmos de separação de misturas instantâneas são avaliados: FastICA, PP (Projection Pursuit) e PearsonICA; possuindo dois princípios básicos em comum: as fontes devem ser independentes estatisticamente e não-Gaussianas. Para analisar a capacidade de separação dos algoritmos foram realizados dois grupos de experimentos. No primeiro grupo foram geradas misturas instantâneas, sinteticamente, a partir de sinais de áudio pré-definidos. Além disso, foram geradas misturas instantâneas a partir de sinais com características específicas, também geradas sinteticamente, para avaliar o comportamento dos algoritmos em situações específicas. Para o segundo grupo foram geradas misturas convolutivas no laboratório de acústica do LPS. Foi proposto o algoritmo PP, baseado no método de Busca de Projeções comumente usado em sistemas de exploração e classificação, para separação de múltiplas fontes como alternativa ao modelo ICA. Embora o método PP proposto possa ser utilizado para separação de fontes, ele não pode ser considerado um método ICA e não é garantida a extração das fontes. Finalmente, os experimentos validam os algoritmos estudados. / This work studies Independent Component Analysis (ICA) for instantaneous mixtures, applied to audio signal (source) separation. Three instantaneous mixture separation algorithms are considered: FastICA, PP (Projection Pursuit) and PearsonICA, presenting two common basic principles: sources must be statistically independent and non-Gaussian. In order to analyze each algorithm separation capability, two groups of experiments were carried out. In the first group, instantaneous mixtures were generated synthetically from predefined audio signals. Moreover, instantaneous mixtures were generated from specific signal generated with special features, synthetically, enabling the behavior analysis of the algorithms. In the second group, convolutive mixtures were probed in the acoustics laboratory of LPS at EPUSP. The PP algorithm is proposed, based on the Projection Pursuit technique usually applied in exploratory and clustering environments, for separation of multiple sources as an alternative to conventional ICA. Although the PP algorithm proposed could be applied to separate sources, it couldnt be considered an ICA method, and source extraction is not guaranteed. Finally, experiments validate the studied algorithms.
|
680 |
O impacto das fontes de poluição na distribuição de tamanho em número e massa do material particulado atmosférico em São Paulo / The Impact of Pollution Sources on Number and Mass Size Distribution of Atmospheric Particulate Matter in São PauloSantos, Luís Henrique Mendes dos 06 August 2018 (has links)
Diversos estudos tiveram como objetivo determinar e caracterizar o aerossol atmosférico na cidade de São Paulo, quanto a seu tamanho e composição química, bem como encontrar as suas fontes emissoras e contribuições em massa para a região estudada. A coleta dos constituintes atmosféricos foi realizada na estação de amostragem do Laboratório de Análises dos Processos Atmosféricos (LAPAt) do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da Universidade de São Paulo (USP), localizada na zona oeste da cidade de São Paulo, geograficamente em 23°3334 S e 46°4400 O. O experimento foi realizado de 15 de agosto a 16 de setembro de 2016. Foram realizadas coletas de material particulado para análise da concentração em massa de sua fração fina inalável e composição química. A distribuição de tamanho para massa de material particulado foi determinada através da coleta com um impactador em cascata. A distribuição de tamanho para número foi obtida a partir de medidas com um Scanning Mobility Particle Sampler (SMPS) com o cálculo da concentração número de partículas (PNC) para o intervalo de 9 a 450 nm de diâmetro. Para estudar as relações entre os gases presentes na região amostrada com a radiação ultravioleta e com o PNC utilizamos os valores horários de concentrações dos gases (O3, NO, NO2 e NOX) e UV medidos na Rede Telemétrica da CETESB (Companhia de Tecnologia Ambiental do Estado de São Paulo). Os filtros coletados foram analisados pela técnica de Fluorescência de Raios-X dispersivo em energia (EDX). As concentrações de Black Carbon (BC) foram obtidas por refletância. Para a determinação das fontes de material particulado fino (MP2,5) foram utilizados os seguintes modelos receptores: Análise de Componentes Principais (ACP) e Fatoração de Matriz Positiva (FMP). Para análise de dispersão do poluente, utilizamos dados meteorológicos da estação climatológica do IAG situada no Parque do Estado. A concentração média de MP2,5 foi de 18,6 (±12,5) g/m³ e a concentração média de BC foi de 1,9 (±1,5) g/m³. As principais fontes encontradas, por ambos modelos receptores ACP e FMP, foram: veículos pesados (a diesel), veículos leves, queima de biomassa, ressuspensão de poeira de solo, pavimentos e construção, processos secundários e misturas de fontes. Os elementos-traço foram definidos em diferentes modas de tamanho: Al, Ca, Si e Ti com picos nas modas de acumulação, traçadores de ressuspensão de pavimento; Fe, Mn, P, K e Cr com picos na fração mais grossa da moda de acumulação, traçadores de emissões veiculares e queima de biomassa. Cu, Zn, Br, Pb, S e BC apresentam picos na fração mais fina da moda de acumulação, traçadores de emissões veiculares e queima de biomassa. / Several studies aimed to determine and characterize the atmospheric aerosol in the city of São Paulo, not only to its size and chemical composition, but as well as to find its emitting sources and mass contributions in the studied area. The atmospheric constituents were collected at the Laboratório de Análise dos Processos Atmosféricos (LAPAt) of the Institute of Astronomy, Geophysics and Atmospheric Sciences (IAG) of the University of São Paulo (USP), located in the western zone of the city of São Paulo Paulo, geographically at 23°33\'34\"S and 46°44\'00\" W. The experiment was conducted from August 15 to September 16 of 2016. Samples of particulate matter were collected to analyze the mass concentration and chemical composition of its inhalable fine fraction. The particulate mass size distribution was determined through the collection with a cascade impactor. The number size distribution was obtained from measurements with a Scanning Mobility Particle Sampler (SMPS) with the calculated number of particle concentration (PNC) for the range of 9 to 450 nm of the diameter. In order to study the relationships among the compounds present in the region and the PNC, we used the hourly values of the gaseous concentrations (O3, NO, NO2 and NOx) and UV measured in CETESB\'s Air Quality Telemetric Network in the State of São Paulo. The sampled filters were analyzed by the energy dispersive X-ray Fluorescence (EDX) technique to determine the elemental composition. The concentrations of Black Carbon (BC) were obtained by reflectance analysis. In order to determine the sources of fine particulate matter (PM2.5), the following Receptors Models were used: Principal Component Analysis (PCA) and Positive Matrix Factorization (PMF). For air pollution dispersion analysis, we used meteorological data from the IAG climatological station located in the Southeast of the city. The mean MP2.5 concentration was 18.6 (± 12.5) g/m³ and the mean concentration of BC was 1.9 (± 1.5) g/m³ for the sampling period. The main sources found by both ACP and PMF models were heavy-duty vehicles (diesel), light-duty vehicles, biomass burning, resuspension of soil dust, pavements and construction, secondary processes and mixed sources. The trace elements were defined at different size distributions: Al, Ca, Si and Ti with peaks in accumulation fraction (related to pavement resuspension tracers); Fe, Mn, P, K and Cr with peaks in the largest fraction of accumulation mode, characteristic of vehicular emissions tracer and biomass burning. Cu, Zn, Br, Pb, S and BC presented peaks in the finer fraction of the accumulation mode, related to vehicle emissions tracer and biomass burning.
|
Page generated in 0.0826 seconds