• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 440
  • 139
  • 50
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 637
  • 211
  • 172
  • 118
  • 109
  • 100
  • 95
  • 81
  • 78
  • 72
  • 69
  • 63
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Deux études spectroscopiques d'objets évolués et compacts

Pereira, Caroline January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
62

Douleur péri-opératoire chez le cheval : problématique de son évaluation et de son contrôle à l'aide des anesthésies locorégionales

Bussières, Geneviève January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
63

Extraction de paramètres bio-geo-physiques de surfaces 3D reconstruites par multi-stéréo-restitution d'images prises sans contraintes / Bio-geo-physics parameters extraction from 3D surface reconstructed from multi-stereoscopic of images acquired without constraint

Petitpas, Benoit 15 December 2011 (has links)
Extraire des mesures sur des surfaces est un problème dans de nombreux domaines de recherche. L'archaïsme de certains systèmes ou la cherté d'appareils perfectionnés empêchent l'extraction rapide et robuste de ces paramètres. Pourtant, ils sont essentiels dans de nombreux domaines, comme les paramètres de rugosité qui interviennent dans de nombreux phénomènes physiques ou les valeurs dendrométriques pour l'étude de la bio-diversité. En parallèle, l'utilisation et la production de contenus 3D se développent considérablement ces dernières années dans des domaines très divers. Le but de cette thèse est donc d'utiliser toutes ces innovations dans le domaine de la reconstruction 3D et de les appliquer à la mesure de paramètres de surfaces. Pour cela, il est nécessaire de créer une chaîne complète de reconstruction 3D, n'utilisant que des images prises sans contrainte dans le but d'être accessible au plus grand nombre. Dans cette chaîne nous utilisons des algorithmes de stéréo-vision robustes produisant, pour chaque couple d'images, un nuage de points. Après le passage de ces nuages dans un référentiel commun, une étape de filtrage des points 3D et de suppression des redondances est nécessaire. Une étape de lissage permet d'obtenir le nuage final. Pour justifier des bons résultats obtenus, une étape de validation nous a permis de vérifier et d'étudier la robustesse de la chaîne de traitements développée. Enfin, les paramètres de rugosités et dendrométriques seront extraits. Nous étudierons dans ces deux cas, comment extraire ces informations et leurs utilisations / Extracting measures on surfaces is a problem in many areas of research. The archaism of some systems or the costliness of sophisticated devices prevent the fast and robust extraction of these parameters. Yet these measures are essential in many areas, such as roughness parameters involved in many physical phenomena or dendrometric values for the study of biodiversity. In parallel, the use and production of 3D content has grown dramatically this past year in very diverse domains. The purpose of this thesis is to use these innovations in the context of surfaces parameter measurements. It is necessary to create a complete chain of 3D reconstruction, using pictures taken without constraint, in order to be open to as many people. This chain uses robust stereo-vision algorithms in order to produce a point cloud for each pair of images. After the generation of these point cloud in the same geometric frame, a filtering step of 3D points and a deletion step of redundancies are necessary and a smoothing step allows us to obtain the final point cloud. To reveal the good results, a validation step has enabled us to verify and investigate the robustness of the developed chain. The roughness and dendrometric parameters are finally extracted. We will study in both cases, how to extract this information and their uses
64

Contribution à l'élicitation des paramètres en optimisation multicritère / Contribution to the parameter elicitation in multicriteria optimization

Aribi, Noureddine 25 June 2014 (has links)
De nombreuses méthodes existent pour résoudre des problèmes d'optimisation multicritère, et il n'est pas aisé de choisir une méthode suffisamment adaptée à un problème multicritère donné. En effet, après le choix d'une méthode multicritère, différents paramètres (e.g. poids, fonctions d'utilité, etc.) doivent être déterminés, soit pour trouver la solution optimale (meilleur compromis) ou pour classer l'ensemble des solutions faisables (alternatives). Justement, vue cette difficulté pour fixer les paramètres, les méthodes d'élicitation sont utilisées pour aider le décideur dans cette tâche de fixation des paramètres. Par ailleurs, nous supposons que nous disposons d'un ensemble de solutions plausibles, et nous faisons aussi l'hypothèse de la disponibilité au préalable, des informations préférentielles obtenues après une interaction avec le décideur. Dans la première contribution de ce travail, nous tirons profit d'une mesure statistique simple et rapidement calculable, à savoir, le coefficient de corrélation $rho$ de Spearman, afin de développer une approche gloutonne (approchée), et deux approches exactes basées sur la programmation par contraintes (PPC) et la programmation linéaire en nombres entiers (PLNE). Ces méthodes sont ensuite utilisées pour éliciter automatiquement les paramètres appropriés de la méthode multicritère basée sur l'ordre lexicographique. Nous proposons aussi des modèles d'élicitation des paramètres d'autres méthodes multicritère, telles que la méthode MinLeximax issue de la théorie du choix social et du partage équitable, la méthode de la somme pondérée et les opérateurs OWA. / Many methods exist for solving multicriteria optimization problems, and it is not easy to choose the right method well adapted to a given multicriteria problem. Even after choosing a multicriteria method, various parameters (e.g. weight, utility functions, etc.) must be carefully determined either to find the optimal solution (best compromise) or to classify all feasible solutions (the set of alternatives). To overcome this potential difficulty, elicitation methods are used in order to help the decision maker to fix safely the parameters. Additionally, we assume that we have a set of feasible solutions, and we also make the assumption that we have prior information about the preferences of the decision maker, and we focus on how to use this information, rather than how to get them. In the first contribution of this work, we take advantage of a simple and quickly computable statistical measure, namely, the Spearman $rho$ correlation coefficient, to develop an gready approche, and two exact approaches based on constraint programming (CP) and linear integer programming (MIP). These methods are then used to automatically elicit the appropriate parameter of the lexicographic ordering method. We also propose some elicitation models for most commonly used multicriteria methods, such as MinLeximax method used to ensure fairness and efficiency requirements, the weighted sum method, and OWA operators. These elicitation models are based either on solving mixed integer linear programming, or constraints networks with an objective function.
65

Reconnaissance automatique des dimensions affectives dans l'interaction orale homme-machine pour des personnes dépendantes / Automatic Recognition of Affective Dimensions in the Oral Human-Machine Interaction for Dependent People

Chastagnol, Clément 04 October 2013 (has links)
La majorité des systèmes de reconnaissance d'états affectifs est entrainée sur des données artificielles hors contexte applicatif et les évaluations sont effectuées sur des données pré-enregistrées de même qualité. Cette thèse porte sur les différents défis résultant de la confrontation de ces systèmes à des situations et des utilisateurs réels.Pour disposer de données émotionnelles spontanées au plus proche de la réalité, un système de collecte simulant une interaction naturelle et mettant en oeuvre un agent virtuel expressif a été développé. Il a été mis en oeuvre pour recueillir deux corpus émotionnels, avec la participation de près de 80 patients de centres médicaux de la région de Montpellier, dans le cadre du projet ANR ARMEN.Ces données ont été utilisées dans l'exploration d'approches pour la résolution du problème de la généralisation des performances des systèmes de détection des émotions à d'autres données. Dans cette optique, une grande partie des travaux menés a porté sur des stratégies cross-corpus ainsi que la sélection automatique des meilleurs paramètres. Un algorithme hybride combinant des techniques de sélection flottante avec des métriques de similitudes et des heuristiques multi-échelles a été proposé et appliqué notamment dans le cadre d'un challenge (InterSpeech 2012). Les résultats de l'application de cet algorithme offrent des pistes pour différencier des corpus émotionnels à partir des paramètres les plus pertinents pour les représenter.Un prototype du système de dialogue complet, incluant le module de détection des émotions et l'agent virtuel a également été implémenté. / Most of the affective states recognition systems are trained on artificial data, without any realistic context. Moreover the evaluations are done with pre-recorded data of the same quality. This thesis seeks to tackle the various challenges resulting from the confrontation of these systems with real situations and users.In order to obtain close-to-reality spontaneous emotional data, a data-collection system simulating a natural interaction was developed. It uses an expressive virtual character to conduct the interaction. Two emotional corpora where gathered with this system, with almost 80 patients from medical centers of the region of Montpellier, France, participating in. This work was carried out as part of the French ANR ARMEN collaborative project.This data was used to explore approaches to solve the problem of performance generalization for emotion detection systems. Most of the work in this part deals with cross-corpus strategies and automatic selection of the best features. An hybrid algorithm combining floating selection techniques with similarity measures and multi-scale heuristics was proposed and used in the frame of the InterSpeech 2012 Emotino Challenge. The results and insights gained with the help of this algorithm suggest ways of distinguishing between emotional corpora using their most relevant features.A prototype of the complete dialog system, including the emotion detection module and the virtual agent was also implemented.
66

Modélisation, observation et commande d'un drone miniature à birotor coaxial / Modelling, Estimation and Control of a Coaxial Rotor UAV

Koehl, Arnaud 19 March 2012 (has links)
Les drones miniatures à voilures tournantes tendent aujourd'hui à devenir les nouveaux outils du fantassin, grâce à la polyvalence des missions auxquelles ils peuvent être employés. Leur principal atout concerne leur capacité à combiner le vol stationnaire et le vol de translation rapide, dans des environnements étroits et encombrés. Nous proposons ici l'étude d'un nouveau concept de drone atypique appelé GLMAV (Gun Launched Micro Air Vehicle), qui consiste à amener un véhicule hybride projectile/drone très rapidement sur un site d'intérêt éloigné, en utilisant l'énergie fournie par une arme portable. La première tâche concerne la modélisation aérodynamique du GLMAV. L'identification paramétrique du modèle aérodynamique est alors réalisée à partir de données expérimentales d'efforts, que nous pouvons a priori quantifier par un critère algébrique d'excitabilité persistante. Nous proposons ensuite des techniques de filtrage, afin d'estimer les paramètres anémométriques inconnus mais nécessaires pour connaître l'environnement aérodynamique dans lequel l'engin évolue. De plus, pour palier à la défaillance de capteurs embarqués et qui peuvent affecter l'information de vitesse linéaire après le tir, nous proposons un estimateur d'ordre réduit de la vitesse linéaire. Dans ces deux problèmes d'estimation, nous prouvons la stabilité des observateurs proposés. Enfin, nous proposons une structure de commande pour la stabilisation de l'engin en vol quasi-stationnaire à partir d'un modèle de synthèse linéaire. Les efficacités des méthodes proposées sont illustrées par des résultats de simulations numériques et des essais expérimentaux / The miniature rotary wing UAVs are now tending to become the new tools of the soldier, with the versatility of missions they can be used. Their main advantage concerns their ability to combine the hovering and translational fast flight in narrow and congested environments. We propose the study of a new and atypical UAV concept called GLMAV (Gun Launched Micro Air Vehicle), which must bring a hybrid projectile/UAV very quickly on a site of interest, using the energy delivered by a portable weapon. The first task concerns the modelling of the aerodynamic GLMAV model. The parametric identification of the aerodynamic model is then realized from experimental load data, that can be a priori quantified by a persistent-excitability-algebraic-criterion. We then propose two filtering techniques to estimate the unknown aerodynamic parameters but needful to determine the aerodynamic environment in which the vehicle operates. In addition, to compensate the failure of embedded sensors that can affect the linear speed information after the shooting, we propose a reduced-order estimator to conserve a good linear speed information. In both estimation problems we prove the stability of the proposed observers. Finally, we propose a control scheme for the stabilization of the aircraft in the quasistationary flight mode from a linearized GLMAV model. The efficiencies of the proposed methods are illustrated through numerical results and experimental tests
67

Identification de paramètres dans la fabrication de matériaux composites / Identification of parameters in the manufacture of composite materials

Nguyen, Phuong Chi 12 April 2011 (has links)
Ce travail est une contribution à l’étude du comportement de certains matériaux composites. Nous formalisons les observations expérimentales du point de vue mathématique, et menons une étude « critique » des différents modèles utilisés pour proposer des techniques génériques d’identification de paramètres dans ce contexte. Le manuscrit se divise en trois chapitres. Le chapitre 1 rappelle les principes élémentaires et le contexte mécanique de cette étude. On y présentera les hypothèses simplificatrices faites par la suite et les modèles de lois de comportement utilisés et testés. Le chapitre 2 est consacré à la modélisation du problème inverse avec utilisation du modèle de Grosberg et à son étude théorique et numérique. Le chapitre 3 reprend la démarche du chapitre précédent avec le modèle de Dahl. Outre la méthode numérique utilisée précédemment, nous utilisons une approche contrôle optimal et présentons des résultats plus rigoureux obtenus avec AMPL. / This work is a contribution to the study of the behavior of some composite materials. We formalize the experimental observations from the mathematical point of view, and are conducting a “critical” study of the various models used to propose generic techniques for parameter identification in this context. The manuscript is divided into three chapters. Chapter 1 recalls the basic principles and mechanics context of this study. It will present the simplifying assumptions made by the following models and behaviour laws that we used and tested. Chapter 2 is devoted to modeling the inverse problem using the model of Grosberg and its theoretical and numerical study. Chapter 3 takes the approach of the previous chapter with the model of Dahl. Besides the numerical method used previously, we use an optimal control approach and present results obtained with more rigorous method and AMPL.
68

Estimation de paramètres physiques à partir de leur description par une base de mesure de très grande dimension / Estimation of physical parameters through their representation by a high dimensional database

Watson, Victor 12 July 2018 (has links)
Cette thèse contribue au développement de diverses méthodes permettant la détermination des paramètres stellaires fondamentaux (température effective, gravité de surface et "métallicité" i.e., la composition chimique globale), ainsi que de la vitesse de rotation projetée (vsini), à partir de l'analyse de spectres à haute résolution. Plusieurs méthodes seront présentées, et leurs performances respectives en terme d'extraction des paramètres fondamentaux seront discutées. Nous mettrons en particulier l'accent sur une mise en œuvre originale de la méthode dite Sliced Inverse Regression (SIR, Watson et al. 2017). / This thesis contributes to the development of various methods for the determination of the stellar fundamental parameters (effective temperature, surface gravity and "metallicity" ie, the overall chemical composition), as well as the projected rotation speed (vsini), from the analysis of high resolution spectra. Several methods will be presented, and their respective performances in terms of extraction of the fundamental parameters will be discussed. In particular, we will focus on an original implementation of the Sliced Inverse Regression method (SIR, Watson et al., 2017).
69

Capture biomoléculaire impliquée dans la reconnaissance moléculaire supportée : modélisation et caractérisation expérimentale / Biomolecular capture involved in supported molecular recognition : modeling and experimental characterization

Robin, Maëlenn 23 May 2019 (has links)
Les immunoessais en phase solide sont utilisés pour le diagnostic in vitro afin de détecter ou de quantifier une molécule dans un échantillon biologique. Ils s'appuient sur l'interaction spécifique entre un antigène et un anticorps. Habituellement, des anticorps spécifiques aux antigènes à détecter sont immobilisés sur une surface solide pour capturer les antigènes d'intérêt et les séparer du reste de l'échantillon.Lors du développement d'un immunoessai, la sensibilité, la spécificité et le temps d’analyse sont optimisés par le choix - classiquement empirique - de ligands, de supports solides, de débits,… Une meilleure compréhension et prédiction des interactions moléculaires complexes se produisant au cours d’un immunoessai seraient utiles pour : identifier les paramètres critiques des immunoessais, simplifier et accélérer le processus d’identification des meilleures conditions opératoires et améliorer les immunoessais existants.L'instrument VIDAS®, commercialisé par bioMérieux, est l'un des systèmes d’immunoessais les plus utilisés dans les laboratoires cliniques. Dans ce travail de thèse, deux outils expérimentaux basés sur la chromatographie inverse sont construits et testés. Un modèle prédictif de la cinétique d'interaction anticorps/antigène est développé. Les outils expérimentaux, fonctionnant dans des conditions très proches du VIDAS®, sont utilisés pour valider le modèle et estimer ses paramètres caractérisant les interactions anticorps/antigène à partir de courbes expérimentales. Dans l’avenir et à partir des résultats, un des outils expérimentaux associé au modèle pourra être utilisé par bioMérieux pour concevoir des systèmes d’immunoessais / Solid-phase immunoassays are used for in vitro diagnostic to detect the presence or measure the concentration of a molecule of interest in a biological sample. They rely on the specific interaction between an antigen and an antibody. Usually, antibodies specific to the antigens to be detected are immobilized on a solid surface to capture the antigens of interest and separate them from the rest of the sample components. During solid-phase immunoassay development, sensitivity, specificity and time-to-result need to be optimized through the choice of dedicated ligands, solid supports, flow rates,… Classically, these choices are made empirically. A better understanding and prediction of the complex molecular interactions that occur in the different steps of a diagnostic immunoassay is likely to be useful to: identify the critical parameters of immunoassays, simplify and speed-up the process of identification of the best immunoassay conditions and improve the immunoassays currently available. The VIDAS® instrument, commercialized by bioMérieux is one of the most widely used immunoassay system in clinical laboratories worldwide. In this PhD work, two experimental tools based on inverse chromatography are built and tested. A predictive model of antibody/antigen interaction kinetics in immunoassays is developed. The experimental tools which mimic VIDAS® process conditions are used to validate the predictive model and to estimate model parameters characterizing antibody/antigen interaction kinetics from experimental curves. In the future, based on the results, one of the experimental tools associated with the model could be used by bioMérieux to design immunoassay systems
70

Reconstruction des vitesses propres des galaxies: méthodes et applications aux observations.

Lavaux, Guilhem 02 July 2008 (has links) (PDF)
Bien que nous ayons accès à des catalogues de galaxies très détaillés, notre compréhension de la distribution spatiale de la matière noire reste encore limitée. D'importantes informations à son sujet sont cachées dans les vitesses propres des galaxies, qui reflètent la dynamique de la matière noire à différentes échelles. Malheureusement, ces vitesses sont très difficiles à observer. Nous présentons ici une approche différente pour "mesurer" ces vitesses par l'intermédiaire de méthodes de reconstruction des champs de vitesse. Nous utilisons en particulier la reconstruction dîte de Monge-Ampère-Kantorovitch (MAK). Nous testons cette méthode sur des simulations à N-corps ainsi que sur des catalogues virtuels de galaxies. Nous vérifions sa fiabilité par la comparaison des vitesses reconstruites aux vitesses simulées et aussi à travers la mesure de la densité moyenne de matière de ces univers.<br /><br />Après avoir testé cette méthode, nous l'utilisons sur un vrai catalogue de galaxie: le 2MASS Redshift survey. Après l'avoir corrigé des effets observationnels connus, nous étudions l'origine de la vitesse du Groupe Local par rapport au fond diffus cosmologique. Nous montrons que plus de la moitié de notre vitesse est due à des structures situées à plus de 40 Mpc/h. Une fois étudié le mouvement d'ensemble des structures locales, nous comparons directement les vitesses reconstruites et les distances observées dans notre voisinage de 30 Mpc/h. Nous proposons une estimation indépendante du paramètre de densité. Cette estimation peut être utilisée afin de réduire les dégénérescences dans l'espace des paramètres du modèle d'univers à base de matière noire froide.

Page generated in 0.3446 seconds