• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 127
  • 41
  • 23
  • Tagged with
  • 191
  • 69
  • 50
  • 38
  • 31
  • 28
  • 26
  • 25
  • 25
  • 24
  • 21
  • 20
  • 19
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthode hybride d'affectation des ressources humaines pour l'amélioration de la performance de la maintenance. / Hybrid method for human resources assignment problem to improve maintenance performance

Lahiani, Nouha 09 November 2015 (has links)
Cette thèse propose un outil d’aide à la décision pour la gestion de processus de maintenance basée surune affectation optimale des ressources humaines afin d’améliorer la performance de la maintenance.En effet, une bonne performance de la fonction maintenance est indispensable pour maintenir laproductivité des installations industrielles, et donc de la compétitivité des entreprises manufacturières.L’approche que nous développons dans ce manuscrit procure un cadre de référence des leviersd’actions envisageables pour mesurer, évaluer, améliorer et optimiser la performance de lamaintenance. Nous prenons en considération un problème d’affectation des ressources humaines, quiprend en compte non seulement leurs disponibilités et compétences, mais aussi la gestion des urgencesd’intervention sur terrain.La méthode que nous proposons est basée sur un modèle de simulation à événements discrets,reproduisant au mieux un service de maintenance. Ceci nous a permis d’évaluer la situation via desindicateurs de performance présélectionnés. Pour optimiser le système, nous proposons un couplagedu modèle de simulation avec un module d’optimisation indépendant qui se réfère à une métaheuristiquebasée sur une approche Pareto. Notre proposition a été testée dans une entrepriseindustrielle réelle.L’approche que nous proposons donne un ensemble de solutions d’affectation des ressourceshumaines, aidant le décideur à mieux gérer l’indisponibilité de ses outils. Nous obtenons de bonsrésultats en un temps raisonnable. / In this thesis, a decision-making tool for maintenance management process based on assignment ofhuman resources is proposed in order to improve maintenance performance. An optimal maintenanceperformance is indispensable to guarantee the productivity and competitiveness of manufacturingcompanies.The proposed approach provides a framework of different possible levers to measure, evaluate,improve and optimize the maintenance performance. The assignment of human resources problem isconsidered. It takes into account different constraints like human resources availability, competences,urgency degree management of interventions requests etc.The proposed method is based on a discrete event simulation model, providing a better presentation ofthe maintenance service and better comprehensive thanks to the performance indicators. To improveuntil optimize the model, a simulation-based Pareto optimization method is introduced. Optimizationmodule was coded on independent programs in order to provide an opportunity of control thesimulation based optimization process.The proposed simulation based optimization method find good solutions in a reasonable amount oftime. Applying this technique on an industrial case-study, we show that it is more effective indetecting real faults than existing alternatives. The approach can be extended to cover other domainsand other types of simulation models.
32

Séparation de sources en ligne dans des environnements réverbérants en exploitant la localisation des sources / Online source separation in reverberant environments exploiting known speaker locations

Harris, Jack 12 October 2015 (has links)
Cette thèse porte sur les techniques de séparation de sources en aveugle en utilisant des statistiques de second ordre et statistiques d'ordresupérieur pour les environnements de réverbération. Un objectif de la thèse est la simplicité algorithmique en vue de l'implantation en lignedes algorithmes. Le principal défi des applications de séparation de sources aveugles est de s'occuper des environnements acoustiques de réverbération; une complication supplémentaire concerne les changements dans l'environnement acoustique lorsque les sources humaines se déplacent physiquement.Une nouvelle méthode dans le domaine temporel qui utilise une paire de filtres à réponse impulsionnelle finie est proposée. Cette méthode, dite les angles principaux, sur un décomposition en valeurs singulières. Une paire de filtres, jouant le rôle de formation de voie, est estimée de façon à annuler une des sources. Une étape de filtrage adaptatif estensuite utilisée pour récupérer la source restante, en exploitant la sortie de l'étage de beamforming en tant que une référence de bruit. Une approche commune de la séparation de sources aveugle est d'utiliser des méthodes fondée sur les statistiques d'ordre supérieur comme l'analyse en composantes indépendantes. Cependant, pour des mélanges convolutifs audio et vocales réalistes, la transformation dansle domaine fréquentiel pour chaque fréquence de calcul est nécessaire. Ceci introduit le problème de permutations, inhérentes à l'analyse en composantes indépendantes, pour tout les fréquences. L'analyse en vecteur indépendant résout directement cette question par la modélisation des dépendances entre les fréquences de calcul, à partir d'a priori sur les sources. Un algorithme de gradient naturel en temps réel est également proposé proposé avec un autre a priori sur les sources. Cette méthode exploite la fonction de densité de probabilité de Student, est connu pour être bien adapté pour les sources de parole, en raison de queues de distribution plus lourdes. L'algorithme final est implanté en temps réel sur un processeur numérique de signal à virgule flottante de Texas Instruments.Les sources mobiles, avec des environnements réverbérant, causent des problèmes significatifs dans les systèmes de séparation desources réalistes car les filtres de mélange deviennent variants dans le temps. Dans ce cadre, une méthode qui utilise conjointement leprincipe de la paire de filtres d'annulation et le principe de l'analyse en vecteurs indépendant. Cette approche permet de limiter les baisses de performance lorsque les sources sont mobiles. Les résultats montrent également que les temps moyen de convergence des divers paramètres sont diminués.Les méthodes en ligne qui sont introduites dans la thèse, sont testées en utilisant des réponses impulsionnelles mesurées dans des environnements de réverbération. Les résultats montrent leur robustesse et d'excellentes performances par rapport à d'autres méthodes classique, dans plusieurs situations expérimentales. / Methods for improving the real-time performance and speed of various source enhancement and separation are considered. Two themes of research are considered so far: a method which relies only on second order statistics to enhance a target source exploiting video cues. Secondly, a higher-order statistics method, independent vector analysis is implemented in real-time on a digital signal processor, where an alternative source prior has been used performance is shown to have improved.
33

Analyse des performances d'un turbocompresseur intégré à la boucle de suralimentation / Performance analysis of a Turbocharger integrated turbocharging loop

Le Guyader, Sébastien 03 December 2009 (has links)
Ce travail s'inscrit dans le cadre d'un partenariat entre Honeywell Turbo Technologies et le département d'Aérodynamique, Energétique et Propulsion de l'ISAE. En réponse à des objectifs industriels d'amélioration des étages turbine des systèmes de suralimentation automobile, deux axes d'étude sont dégagés: le diagnostique et l'amélioration des étages de turbine à géométrie variable utilisés dans la suralimentation des moteurs Diesel, et l'évaluation d'une turbine axiale spécifiquement conçue pour la suralimentation des moteurs essence. La première partie traite de l'influence des paramètres permettant de réaliser le couplage avec le moteur. Cette étude, basée sur une double analyse, permet d'identifier les enjeux du point de vue des performances de l'étage turbine mais aussi leur intégration dans la performance globale du moteur. Nous traitons ensuite des contraintes d'intégration imposées par le fonctionnement optimal de la boucle de suralimentation. En réponse aux problématiques soulevées, une procédure d'optimisation, basée sur une approche théorique, des étages turbine est présentée. Celle-ci permet de dégager des conclusions fortes sur la spécificité des étages à géométrie variable qui sont finalement déclinées dans un contexte industriel. Une synthèse bibliographique des règles de dimensionnement des turbines axiales débute la seconde partie. Cette architecture de machine, disposant d'une faible inertie et d'une grande compacité, semble toute indiquée pour répondre à la problématique de suralimentation des moteurs essence. La conception a nécessité une étude spécifique des différents critères de design car la géométrie axiale est atypique dans cette gamme de débit. Des résultats de simulations numériques permettent d'évaluer le potentiel aérodynamique de cet étage. Enfin, celle-ci est confrontée à l'étage de turbine radiale actuellement utilisé afin d'évaluer son potentiel dans le cadre du couplage moteur. / This work results from a partnership between Honeywell Turbo Technologies and the département d'Aérodynamique, Energétique et Propulsion of the ISAE. The main industrial goal are improving turbine stages of boosting systems. The problem is tacked through two thematics : the optimization of variable geometry radial turbine used for boosting systems of gasoline engines. The first part deals with the influence of parameters used for matching are first discussed. This study, based on double analysis, is used to identfy the stakes of turbine stage performance but also take global engine performances into account. Contraints ipmposed by peripheral systems such as cooling systems or catalytic converter are then traited. This leads to an optimization process based on theorical approach wich allows to conclude on radial turbine stage characteristics. Finally, we turn in information about industrialization. The second part begin with a literature survey of axial turbine stage design method. This type of machine, with low inertia and high compacity, can be relevant for boosting systems of gasoline engines. Design needs a specific study on criterion parameters because it is unsual to encounter axial turbines with such small diameters. CFD results give aerodynamics performances of axial stage. Then, comparison of turbocharger with engine matching between radial and axial stages is proposed.
34

Contribution à l'amélioration des processus à travers la mesure de la maturité de projet : application à l'automobile / Contribution to process improvement through measuring project maturity : application in the automotive industry

Gonzalez Ramirez, Nydia 03 December 2009 (has links)
Une grande partie des organisations fonctionne avec des projets, qui peuvent être de natures très différentes. Afin de mener à bien leur réalisation, des méthodes et des outils sont apparus (systèmes de pilotage, tableaux de bord, indicateurs de performances…) pour aider les entreprises à mieux piloter les projets, à respecter leurs exigences et à augmenter leur performance. En effet, ces outils aident à piloter les projets et à mesurer l’avancement d’une activité et/ou d’un processus dans un projet. Toutefois, il est important de s’assurer que les processus mis en place permettent aux projets d’atteindre les objectifs fixés et qu’ils sont en amélioration continue. Pour cela, des modèles de maturité : Capability Maturity Model Integration (CMMI), Organizational Project Management Maturity Model (OPM3) entre autres, aident à identifier les forces et faiblesses des processus. Cependant, ils se limitent à donner des « meilleures pratiques » pour atteindre un niveau de maturité supérieur et ils ne donnent pas tous la méthode d’évaluation à suivre ni les méthodes pour accroire la maturité dans l’intérêt d’améliorer les processus. De même, le temps pour la mise en place des modèles est très long, ce qui ne permet pas de mesurer la maturité d’un projet dans les phases de son cycle de vie. Dans ce contexte, nous avons mené un travail de recherche dont l’objectif est de proposer une approche globale d’amélioration des processus à trois niveaux : Projet, Support Projet et Organisation. Ce travail propose donc une démarche de modélisation basée sur l’approche systémique et sur l’utilisation d’un modèle de maturité dans le cycle de vie d’un projet. Il aboutit à la mise en place d’un Système de Mesure et d’Exploitation de la Maturité de Projet (SMEMP) qui est constitué d’un modèle de maturité, d’une méthodologie d’évaluation et d’une méthodologie de préconisation des plans d’actions pour l’amélioration continue. L’application industrielle de ce travail a été effectuée au sein du groupe PSA Peugeot Citroën et notre approche a été mise en ouvre sur quatre projets véhicules. Les conclusions de ce travail ont contribué à l’amélioration de certains processus de développement des projets. / Most organizations are based on projects, which can be of different types. In order to succeed in their implementation, different approaches and methods have appeared (performance systems, scorecards, performance indicators, etc) to help organizations to manage projects and to increase their performance. In fact, these tools and methods help to manage projects and to measure the progress of an activity and / or process project. However, it is important to ensure that the processes implemented are in continuous improvement and allow the project to achieve their objectives. Therefore, maturity models: Capability Maturity Model Integration (CMMI), Organizational Project Management Maturity Model (OPM3) and some others, are used as a framework to identify strengths and weaknesses of processes. They are limited however to providing "best practices" for achieving a higher maturity level and they do not provide the methods to evaluate and increase maturity in order to improve the processes. Also, the process of models establishment is very long which does not allow project maturity evaluation during the phases of the project life cycle. In this context, we achieved our research project with the aim of proposing a global approach to process improvement at three levels: Project, Project Support and Organization. Thus, this work suggests a modeling approach based on systems approach and the use of a model of maturity within the project life cycle. It leads to the establishment of an Assessment System of Project Maturity which includes a maturity model, a measurement methodology and a methodology to design continuous improvement action plans. The industrial application of this work has been carried out at PSA Peugeot Citroën and our approach has been implemented in four automotive projects. The findings of our research have contributed to the improvement of some project development processes.
35

Dévelopement d'une nouvelle approche pour la performance durable des projets d'une organisation / Development of a new approach for the sustainable project performance of an organization

Ezratty, Véronique 03 January 2012 (has links)
La thèse porte sur le développement d’une nouvelle approche pour améliorer la performance des projets d’une organisation. Cette approche est basée sur un modèle conceptuel donnant une représentation cognitive permettant à l’organisation de construire et d’adapter les éléments ayant un impact dans la performance des projets. Le modèle est formé de trois parties. Les principes sont les préalables auxquels doivent adhérer les dirigeants de l’organisation et les personnes ayant des activités de coordination. Les concepts sont des définitions, idées et représentations mentales servant de bases au modèle. Les domaines de progression sont formés de problématiques et sous-problématiques qu’il convient de parcourir de manière équilibrée. Ce modèle a été décliné en une méthode destinée aux organisations entreprenant de manière régulière des projets internes. La durée de la thèse n’a permis de tester la méthode dans des conditions réelles. / The thesis focuses on developing a new approach to improve organizational project performance. This approach is based on a conceptual model giving a cognitive representation that enables the organization to build and adapt the items affecting the project performance. The model consists of three parts. The principles are the prerequisites that the leaders of the organization and people with coordination role must comply with. The concepts are definitions, ideas and mental constructs intended to be the model basis. The progress areas are made of issues and sub-issues that should be treated in a balanced way. This model has been used to create a method for organizations undertaking regularly internal projects. In the duration of the thesis, the method cannot be tested in actual situations.
36

Contrast enhancement in digital imaging using histogram equalization / Amélioration du contraste des images numériques par égalisation d'histogrammes

Gomes, David Menotti 18 June 2008 (has links)
Aujourd’hui, des appareils capables de capter et de traiter les images peuvent être trouvés dans les systèmes complexes de surveillance ou de simples téléphones mobiles. Dans certaines applications, le temps nécessaire au traitement des images n’est pas aussi important que la qualité du traitement (par exemple, l’imagerie médicale). Par contre, dans d’autres cas, la qualité peut être sacrifiée au profit du facteur temps. Cette thèse se concentre sur ce dernier cas, et propose deux types de méthodes rapides pour l’amélioration du contraste d’image. Les méthodes proposées sont fondées sur l’égalisation d’histogramme (EH), et certaines s’adressent à des images en niveaux de gris, tandis que d’autres s’adressent à des images en couleur. En ce qui concerne les méthodes EH pour des images en niveaux de gris, les méthodes actuelles tendent à changer la luminosité moyenne de l’image de départ pour le niveau moyen de l´interval de niveaux de gris. Ce n’est pas souhaitable dans le cas de l’amélioration du contraste d’image pour les produits de l’électronique grand-public, où la préservation de la luminosité de l’image de départ est nécessaire pour éviter la production de distortions dans l’image de sortie. Pour éviter cet inconvénient, des méthodes de Biégalisation d’histogrammes pour préserver la luminosité et l’amélioration du contraste ont été proposées. Bien que ces méthodes préservent la luminosité de l’image de départ tout en améliorant fortement le contraste, elles peuvent produire des images qui ne donnent pas une impression visuelle aussi naturelle que les images de départ. Afin de corriger ce problème, nous proposons une technique appelée multi-EH, qui consiste à décomposer l’image en plusieurs sous-images, et à appliquer le procédé classique de EH à chacune d’entre elles. Bien que produisant une amélioration du contraste moins marquée, cette méthode produit une image de sortie d’une apparence plus naturelle. Nous proposons deux fonctions de décalage par découpage d’histogramme, permettant ainisi de concevoir deux nouvelle méthodes de multi-EH. Une fonction de coût est également utilisé pour déterminer automatiquement en combien de sous-images l’histogramme de l’image d’entrée sera décomposée. Les expériences montrent que nos méthodes sont meilleures pour la préservation de la luminosité et produisent des images plus naturelles que d´autres méthodes de EH. Pour améliorer le contraste dans les images en couleur, nous introduisons une méthode 5 Résumé 6 générique et rapide, qui préserve la teinte. L’égalisation d’histogramme est fondée sur l’espace couleur RGB, et nous proposons deux instantiations de la méthode générique. La première instantiation utilise des histogrammes 1D R-red, G-green, et B-bleu afin d’estimer l’histogramme 3D RGB qui doit être égalisé, alors que le deuxième instantiation utilise des histogrammes 2D RG, RB, et GB. L’égalisation d’histogramme est effectué en utilisant des transformations de décalage qui préservent la teinte, en évitant l’apparition de couleurs irréalistes. Nos méthodes ont des complexités de temps et d’espace linéaire, par rapport à la taille de l’image, et n’ont pas besoin de faire la conversion d’un espace couleur à l’autre afin de réaliser l’amélioration du contraste de l’image. Des évaluations objectives comparant nos méthodes et d’autres ont été effectuées au moyen d’une mesure de contraste et de couleur afin de mesurer la qualité de l’image, où la qualité est établie comme une fonction pondérée d’un indice de “naturalité” et d’un indice de couleur. Nous analysons 300 images extraites d’une base de données de l’Université de Berkeley. Les expériences ont montré que la valeur de contraste de l’image produite par nos méthodes est en moyenne de 50% supérieure à la valeur de contraste de l’image original, tout en conservant une qualité des images produites proche de celle des images originales / Nowadays devices are able to capture and process images from complex surveillance monitoring systems or from simple mobile phones. In certain applications, the time necessary to process the image is not as important as the quality of the processed images (e.g., medical imaging), but in other cases the quality can be sacrificed in favour of time. This thesis focuses on the latter case, and proposes two methodologies for fast image contrast enhancement methods. The proposed methods are based on histogram equalization (HE), and some for handling gray-level images and others for handling color images As far as HE methods for gray-level images are concerned, current methods tend to change the mean brightness of the image to the middle level of the gray-level range. This is not desirable in the case of image contrast enhancement for consumer electronics products, where preserving the input brightness of the image is required to avoid the generation of non-existing artifacts in the output image. To overcome this drawback, Bi-histogram equalization methods for both preserving the brightness and contrast enhancement have been proposed. Although these methods preserve the input brightness on the output image with a significant contrast enhancement, they may produce images which do not look as natural as the ones which have been input. In order to overcome this drawback, we propose a technique called Multi-HE, which consists of decomposing the input image into several sub-images, and then applying the classical HE process to each one of them. This methodology performs a less intensive image contrast enhancement, in a way that the output image presented looks more natural. We propose two discrepancy functions for image decomposition which lead to two new Multi-HE methods. A cost function is also used for automatically deciding in how many sub-images the input image will be decomposed on. Experimental results show that our methods are better in preserving the brightness and producing more natural looking images than the other HE methods. In order to deal with contrast enhancement in color images, we introduce a generic fast hue-preserving histogram equalization method based on the RGB color space, and two instances of the proposed generic method. The first instance uses R-red, G-green, and Bblue 1D histograms to estimate a RGB 3D histogram to be equalized, whereas the second instance uses RG, RB, and GB 2D histograms. Histogram equalization is performed using 7 Abstract 8 shift hue-preserving transformations, avoiding the appearance of unrealistic colors. Our methods have linear time and space complexities with respect to the image dimension, and do not require conversions between color spaces in order to perform image contrast enhancement. Objective assessments comparing our methods and others are performed using a contrast measure and color image quality measures, where the quality is established as a weighed function of the naturalness and colorfulness indexes. This is the first work to evaluate histogram equalization methods with a well-known database of 300 images (one dataset from the University of Berkeley) by using measures such as naturalness and colorfulness. Experimental results show that the value of the image contrast produced by our methods is in average 50% greater than the original image value, and still keeping the quality of the output images close to the original / Dispositivos para aquisição e processamento de imagens podem ser encontrados em sistemas complexos de monitoração de segurança ou simples aparelhos celulares. Em certas aplicações, o tempo necessário para processar uma imagem não é tão importante quanto a qualidade das imagens processadas (por exemplo, em imagens médicas), mas em alguns casos a qualidade da imagem pode ser sacrificada em favor do tempo. Essa tese se foca nesse último caso, e propõe duas metodologias eficientes para o realce de contraste de imagens. Os métodos propostos são baseados em equalização de histograma (EH), e focam em imagens em tons de cinza e em imagens coloridas. Os métodos baseados em EH atualmente utilizados para processar imagens em tons de cinza tendem a mudar o brilho médio da imagem para o tom médio do intervalo de tons de cinza. Essa mudança não é desejavél em aplicações que visam melhorar o contraste em produtos eletrônicos utilizados pelo consumidor, onde preservar o brilho da imagem original é necessário para evitar o aparecimento de artefatos não exitentes na imagem de saída. Para corrigir esse problema, métodos de bi-equalização de histogramas para preservação do brilho e contraste de imagens foram propostos. Embora esses métodos preservem o brilho da imagem original na imagem processada com um realce significante do contraste, eles podem produzir imagens que não parecem naturais. Esse novo problema foi resolvido por uma nova técnica chamada de Multi-Equalização de histogramas, que decompõe a imagem original em várias sub-imagens, e aplica o método de EH clássico em cada uma delas. Essa metodologia realiza um realce de contraste menos intenso, de forma que a imagem processada parece mais “natural”. Essa tese propõe duas novas funções de discrepância para decomposição de imagens, originando dois novos métodos de Multi-EH. Além disso, uma função de custo é utilizada para determinar em quantas sub-imagens a imagem original será dividida. Através da comparação objetiva e quantitative usando uma medida de constrate, os experimentos mostraram que os métodos propostos são melhores que outros EH estudados, uma vez que eles preservam o brilho e produzem imagens com uma aparência mais natural. Em relação aos métodos para realce de contraste em imagens coloridas, essa tese propõe um método genérico e eficiente de EH baseado no espaço de cores RGB que preserva o tom 9 Resumo 10 (a matiz), e implementa duas instâncias desse método genérico. A primeira instância utiliza os histogramas 1D R-red, G-green e B-blue para estimar um histograma 3D RGB, que é então equalizado. A segunda instância, por sua vez, utiliza os histogramas 2D RG, RB, e GB. A EH é executada utilizando transformadas de deslocamento que preservam a tonalidade da cor, evitando o aparecimento de cores não reais. Os métodos propostos tem complexidade linear no espaço e no tempo em relação ao tamanho da imagem, e não usam nenhuma conversão de um espaço de cores para outro. As imagens produzidas foram avaliadas objetivamente, comparando os métodos propostos com outros estudados. A avaliação objetiva foi feita utilizando medidas de contraste e de qualidade da cor da imagem, onde a qualidade foi definida como uma função ponderada dos índices de naturalidade e cromicidade. Um conjunto de 300 imagens extraídas da base de dados da Universidade de Berkeley foram analisadas. Os experimentos mostraram que o valor do contraste das imagens produzidas pelos métodos propostos é, em médias, 50% maior que o valor do contraste na imagem original, e ao mesmo tempo a qualidade das imagens produzidas é próxima a qualidade da imagem original / Dispositivi per l’acquisizione e lo svolgimento di immagini si possono trovare nei complessi sistemi di monitoramento di sicurezza o nei semplici cellulari. In alcune applicazioni il tempo necessario per svolgere un’immagine non è cosi importante come la qualità delle immagini svolte (es. nelle immagini mediche), ma in alcuni casi la qualità dell’immagine potrà venire daneggiata a favore del tempo. Questa tesi è basata su quest’ultimo caso e propone due metodi efficienti per evidenziare il contrasto di colore delle immagini. I metodi proposti vengono basate sull’equalizazzione d’istogramma (EI), mirati su delle immagini grigie e sulle immagini colorate. I metodi basati sull’EI attualmente utilizzati per svolgere delle immagini grigie tendono a cambiare il brillo medio dell’immagine per il tono medio dell’intervallo grigio. Questo cambiamento non è desiderato nelle applicazioni mirate al miglioramento del contrasto sui prodotti elettronici utilizzati dal consumatore, dove preservare il brillo dell’immagine originale è necessario per evitare la comparsa di artefatti inesistenti nell’immagine d’uscita. Sono stati proposti dei metodi di biequalizazzione di istogrammi per corregere questo problema della preservazione del brillo e del contrasto di colore delle immagini. Nonostante questi metodi preservino il brillo dell’immagine originale con significante rilievo del contrasto nell’immagine svolta, questi possono produrre delle immagini che non sembrino naturali. Questo nuovo problema è stato risolto con una nuova tecnica detta Multiequalizazzione di istogrammi, che decompone l’immagine originale in varie sottoimmagini, applicando su ognuna di queste il metodo EI classico. Questa metodologia realizza un contrasto di rilievo meno intenso in modo che l’immagine svolta sembri più “naturale”. Questa tesi propone due nuove funzioni di discrepanza per la decomposizione delle immagini, originandone due nuovi metodi Multi-EI. Inoltre una funzione di costo viene utilizzata per determinare in quante sottoimmagini l’immagine originale verrà divisa. Attraverso paragone obiettivo e quantitativo, usando una misura di contrasto, gli esperimenti hanno convalidato che i metodi proposti sono migliori di quegli EI studiati perché quelli preservano il brillo e producono immagini con un’apparenza più naturale. Con riferimento ai metodi utilizzati per rilevare il contrasto nelle immagini colorate questa tese propone un metodo generico ed efficiente di EI, in base negli spazi di colori 11 Risumo 12 RGB, che preserva il tono (la sfumatura) e implementa due istanze di questo metodo generico. La prima istanza utilizza gli istogrammi 1D R-Red, G-green e B-blue per stimare un istogramma 3D RGB, che viene di seguito equalizzato. La seconda istanza invece utilizza gli istogrammi 2D RG, RB e GB. La EI viene eseguita utilizzando trasformate di trasloco che preservano il tono del colore, evitando così la comparsa di colori non reali. I metodi proposti hanno complessità lineare nello spazio e nel tempo rispetto alla grandezza dell’immagine e non usano nessuna conversione da un spazio di colore all’altro. Le immagini prodotte sono state valutate in modo obiettivo, paragonando i metodi proposti con gli altri studiati. La valutazione obiettiva è stata fatta utilizzando delle misure di contrasto e qualità del colore dell’immagine, dove la qualità è stata definita come una funzione ponderata degli indici di naturalità e colorito. Si analisarano un insieme di 300 immagini tratte dalla base dei dati dell’Università di Berkeley. Gli sperimenti mostrarono che il valore del contrasto delle immagini prodotte daí metodi proposti è mediamente 50% maggiore del valore del contrasto nell’immagine originale e una volta ancora la qualità delle immagini prodotte è vicina alla qualità dell’immagine originale
37

Soins obstétricaux d'urgence et mortalité maternelle dans les maternités de troisième niveau du Cameroun : approche évaluative d'une intervention visant à améliorer le transfert obstétrical et la prise en charge des complications maternelles / Emergency obstetric care and maternal mortality in tertiary maternity centers in Cameroon : an approach to evaluate an intervention aiming at improving the obstetric referral and the management of maternal complications

Mbola Mbassi, Symplice 31 October 2014 (has links)
Malgré de nombreuses initiatives entreprises par le gouvernement au cours des dernières années, la mortalité maternelle demeure un véritable fléau au Cameroun. Pour cette raison, une recherche a été conduite pour déterminer l'ampleur de la mortalité maternelle dans les 7 maternités de troisième niveau du Cameroun, décrire les différentes étapes d'une intervention visant à améliorer le système de référence et la prise en charge des urgences obstétricales et évaluer son effet sur la mortalité maternelle.La recherche a été menée en trois phases. Une revue rétrospective des données agrégées de la période 2004 à 2006 a été réalisée incluant tous les accouchements, les complications obstétricales, les césariennes et les décès maternels. Ensuite une intervention de 33 mois a été mise en place dans 22 maternités périphériques ainsi que dans 3 maternités de troisième niveau où la mortalité maternelle était importante. L'évaluation de l'intervention a été faite à travers la méthode quasi expérimentale combinant l'étude avant-Après à l'étude ici-Ailleurs. Deux ans après l'intervention, les décès maternels enregistrés dans les 3 maternités cibles avaient diminué de plus de la moitié (P=0,000001). Le taux de létalité des complications obstétricales observé dans les mêmes maternités est passé de 2,2 à 0,7% (P=0,000001). Par ailleurs, le nombre de décès observés chez les femmes référées avait diminué et le taux de létalité était inférieur à 1%. Les résultats de la recherche mettent en évidence les conséquences du renforcement des compétences des prestataires, de l'amélioration du système de référence et de la qualité des soins sur la mortalité maternelle. / Despite numerous initiatives undertaken by health authorities in the past years, maternal mortality remains a major public health issue in Cameroon. Against this background, research was conducted (i) to determine the maternal mortality patterns in 7 tertiary maternity centers in Cameroon, (ii) to document various stages of an intervention for improving referral system and the management of obstetric emergencies and (ii) evaluate the effect of these measures on maternal mortality and propose future actions. The research was conducted in three phases. A retrospective review of the aggregate data for the period 2004-2006 was performed including all births, obstetric complications, caesarean sections and maternal deaths. Then 33 months intervention has been set up in 22 peripheral maternities and in three tertiary maternity centers where maternal mortality was very high. The evaluation of the intervention was made using the quasi-Experimental design. This method combined the pre- and post- intervention study as well as the study of the maternities where there was intervention compared to the control group. Two years after the intervention, maternal deaths recorded in the target tertiary maternity centers decreased by more than half (P = 0.000001). The case fatality rate decreased from 2.2 to 0.7% in the same group (P = 0.000001). Moreover, the number of deaths among referred women decreased significantly and the case fatality rate was less than 1%. The research findings highlight the impact of capacity building providers, improvement of the referral system and quality of care on maternal mortality.
38

Exploration des approches pangénomiques en amélioration variétale chez l'orge à six rangs dans l'Est du Canada

Abed, Amina January 2019 (has links)
L’émergence du génotypage à haut débit et le développement de méthodes statistiques reliant le génotype au phénotype ont donné lieu à des approches pangénomiques, c’est-à-dire à l’échelle du génome entier, exploitables en sélection des plantes. Ces approches ont d’abord permis d’examiner l'association entre génotype et phénotype via des analyses d'association pangénomique (GWAS en anglais) afin d’identifier des loci de caractères quantitatifs (« quantitative trait loci », QTL) utiles en sélection assistée par marqueurs (SAM). Plus récemment, ces approches ont été explorées pour la prédiction génomique, laquelle vise, d’une part, à identifier les croisements les plus prometteurs (la sélection des croisements), et d’autre part, à identifier les individus les plus prometteurs au sein d’une descendance (la sélection génomique). Dans les deux cas, ces prédictions reposent sur un modèle statistique reliant le génotype et le phénotype au sein d’une population de référence. Ces approches pangénomiques offrent un grand potentiel, mais sont encore émergentes et de nombreuses questions se posent encore chez l’orge. Notre étude s’intéresse à certaines de ces interrogations et elle est divisée en quatre volets de recherche. Les approches pangénomiques nécessitent un nombre important de marqueurs moléculaires de type SNP (« single nucleotide polymorphism »). Ainsi dans le premier volet nous avons optimisé le protocole de génotypage par séquençage. Ce volet détaille tout le processus, de la préparation des librairies de séquençage jusqu’à la production d’un catalogue de SNP de haute qualité. À titre d’illustration, nous avons généré un catalogue de 30 000 SNP ayant une distribution chromosomique intéressante et une grande exactitude des génotypes. Dans le deuxième volet, en utilisant les données phénotypiques et génotypiques d’une population d’amélioration, nous avons comparé l’efficacité de trois approches GWAS (Uni-SNP, Multi-SNP et Haplotypique) pour détecter des QTL pour des caractères agronomiques importants. Les approches Multi-SNP et Haplotypique ont identifié plus de QTL que l’approche Uni-SNP. Le chevauchement entre les approches était limité, chaque approche découvrant un sous-ensemble différent de QTL. / Dans le cadre du troisième volet, nous avons étudié l’impact de trois facteurs sur la justesse de la sélection génomique : (1) la performance de différents modèles statistiques (incluant ou non l’épistasie), (2) le nombre de marqueurs employés ainsi que (3) leur localisation (génique/nongénique). Le modèle qui intègre les effets additifs et épistatiques a montré les meilleures performances même si les différences entre les modèles étaient modestes. Jusqu’à 2K SNP, la justesse de la sélection génomique est restée comparable à celle basée sur le catalogue entier (35K), mais une diminution significative été observée à 500 SNP. Dans la plupart des cas, l’utilisation de SNP présents dans les régions géniques, voire codantes, n’a pas apporté une amélioration significative. Enfin, dans le quatrième volet, nous avons exploré la sélection génomique et la sélection des croisements. En premier lieu, nous avons constitué une population de référence pour bâtir un modèle de sélection génomique et prédire les performances de 350 descendants développés dans un programme d’amélioration. A partir des prédictions, 35 lignées ont été sélectionnées et testées au champ afin d’examiner la corrélation entre les performances prédites et observées. Les corrélations étaient satisfaisantes pour la résistance à la fusariose et le rendement. Ensuite, sur la base de ce modèle, nous avons prédit la moyenne (μ) ela variance génétique (Vg) de chacune des descendances simulées issues de tous les croisements possibles (30 000). La validation de ces prédictions a été réalisée rétrospectivement sur un sous-ensemble de croisements précédemment réalisés, en examinant leur persistance dans le processus de sélection. Tel qu’attendu les croisements les plus persistants (>F9) ont présenté des μ supérieures, mais des Vg modérées. Même si la résistance à la fusariose et le rendement sont corrélés défavorablement, nous avons pu identifier des croisements (650) où cette corrélation était rompue. Parmi ces croisements, certains (40) auraient un réel potentiel avec des performances égales ou supérieures à des lignées témoins performantes. Au terme de ce projet, nous avons démontré l'efficacité d'une procédure GWAS combinant des approches uni- et multi-locus à disséquer des caractères complexes et à détecter des QTL clés utilisables en SAM. Nous avons aussi démontré que la prédiction génomique peut être optimisée et efficacement intégrée en sélection génétique chez l’orge à six rangs pour identifier les meilleurs descendants, mais surtout pour identifier des croisements prometteurs. / Finally, in the fourth part, we explored genomic selection and genomic mating in a breeding program. First, we established a training population to build a genomic selection model and to predict the performance of 350 progeny developed in a breeding program. Based on these predictions, 35 lines were selected and tested in the field to examine the correlation between predicted and observed performances. The correlations were satisfactory for Fusarium head blight (FHB) resistance and yield. Then, based on this model, we predicted the mean (μ) and the genetic variance (VG) of each simulated progeny from all possible crosses (n = 30,000) between lines of the training population. The validation of these predictions was carried out retrospectively on a subset of previously performed crosses by examining their persistence in the selection process. As expected, the most persistent crosses (> F9) displayed high μ but moderate VG. Although resistance to FHB and yield are unfavorably correlated, we could identify crosses (650) where this correlation was weakened. Among these crosses, some (40) are predicted to offer equal or better performance than current checks. Through this project, we demonstrated the efficiency of a GWAS procedure combining single- and multi-locus approaches to dissect complex characters and to detect key QTLs that can be used in MAS. We also demonstrated that genomic prediction can be optimized and efficiently integrated in genetic improvement of six-row barley to identify the best progeny but also to identify promising crosses. / The emergence of high-throughput genotyping and the development of statistical methods linking genotype to phenotype have led to pangenomic approaches, performed on a genome-wide scale, exploitable in plant breeding. First, these approaches were used to examine the association between genotype and phenotype in genome-wide association studies (GWAS) in order to identify quantitative trait loci (QTLs) useful in marker-assisted selection (MAS). More recently, these approaches have been explored in genomic prediction which aims, on the one hand, to identify the most promising crosses (genomic mating), and on the other hand, to identify the most promising lines within a set of progeny (genomic selection). In both cases, these predictions are based on a statistical model linking genotype to phenotype in a training population. These genome-wide approaches offer great potential but are still emerging and many questions remain unanswered in barley. Our study focuses on some of these questions and is divided into four areas of research. Genome-wide approaches require a large number of single nucleotide polymorphism (SNP) markers. Thus, in the first part of this project, we optimized the protocol of genotyping by sequencing (GBS). This part details the entire process, from the preparation of GBS libraries until the production of a high-quality SNP catalog. As an illustration, we generated a catalog of 30,000 SNPs with a broad chromosome distribution and high genotype accuracy. In the second part, using phenotypic and genotypic data from a breeding population, we compared the effectiveness of three GWAS approaches (Single-SNP, Multi-SNP and Haplotype-based) to detect QTLs for important agronomic traits. The Multi-SNP and Haplotype-based approaches identified more QTLs than the Single-SNP approach. The overlap between the approaches was limited, as each approach uncovered a different subset of previously validated QTLs. In the third part we studied the impact of three factors on the accuracy of genomic selection: (1) the performance of different statistical models (including epistasis or not), (2) the number of SNP markers included in the model as well as (3) their localization (genic/non-genic regions). The model that incorporates both the additive and epistatic effects of SNPs showed the best performance even though the differences between the models were modest. With as few as 2K SNP, the accuracy of genomic selection remained comparable to that based on the entire catalog (35K), while a significant decrease in accuracy was observed at 500 SNPs. In most cases, the use of SNPs located in genic regions, even coding regions, did not provide a significant improvement.
39

Color Correction and Contrast Enhancement for Natural Images and Videos / Correction des couleurs et amélioration du contraste pour images et vidéos naturelles

Tian, Qi-Chong 04 October 2018 (has links)
L'amélioration d'image est une sorte de technique pour améliorer la qualité visuelle d'image, qui joue un rôle très important dans les domaines du traitement d'image et de la vision d'ordinateur. En particulier, nous considérons la correction de couleur et l'amélioration de contraste pour améliorer la qualité d'image.Dans la première partie de cette thèse, nous nous concentrons sur la correction des couleurs pour les images naturelles. Tout d'abord, nous donnons un examen simple de la correction des couleurs. Deuxièmement, nous proposons une méthode efficace de correction des couleurs pour la couture d'images via la spécification d'histogramme et la cartographie globale. Troisièmement, nous présentons une approche de cohérence des couleurs pour les collections d'images, basée sur la spécification de la gamme conservation histogramme.Dans la deuxième partie, nous prêtons attention à l'amélioration du contraste pour les images et les vidéos naturelles. Tout d'abord, nous donnons un simple examen de l'amélioration du contraste. Deuxièmement, nous proposons une méthode de préservation du contraste global de naturalité, qui peut éviter une survalorisation. Troisièmement, nous présentons une méthode de fusion à base de variation pour l'amélioration de l'image d'illumination non uniforme, qui peut éviter la sur-amplification ou la sous-amélioration. Enfin, nous étendons le cadre basé sur la fusion pour améliorer les vidéos avec une stratégie temporellement cohérente, qui n'entraîne pas de scintillement des artefacts. / Image enhancement is a kind of technique to improve the image visual quality, which plays a very important role in the domains of image processing and computer vision. Specifically, we consider color correction and contrast enhancement to improve the image quality.In the first part of this thesis, we focus on color correction for natural images. Firstly, we give a simple review of color correction. Secondly, we propose an efficient color correction method for image stitching via histogram specification and global mapping. Thirdly, we present a color consistency approach for image collections, based on range preserving histogram specification.In the second part, we pay attention to contrast enhancement for natural images and videos. Firstly, we give a simple review of contrast enhancement. Secondly, we propose a naturalness preservation global contrast enhancement method, which can avoid over-enhancement. Thirdly, we present a variational-based fusion method for non-uniform illumination image enhancement, which can avoid overenhancement or under-enhancement. Finally, we extend the fusion-based framework to enhance videos with a temporally consistent strategy, which does not result in flickering artifacts.
40

Pratiques de la gestion de la qualité en projets : un cas de maintenance aéronautique

Ribeiro Moreira, Adrianne January 2020 (has links) (PDF)
No description available.

Page generated in 0.122 seconds