• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 43
  • 20
  • 1
  • Tagged with
  • 170
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 18
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Précision spatiale d'atteintes manuelles vers des cibles virtuelles : effet du contexte visuel et du vieillissement normal

Fortin, Stéphane January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
72

Large-scale and high-quality multi-view stereo / Stéréo multi-vues à grande-échelle et de haute-qualité

Vu, Hoang Hiep 05 December 2011 (has links)
L'acquisition de modèles 3D des scènes réelles trouve son utilité dans de nombreuses applications pratiques, comme l'archivage numérique, les jeux vidéo, l'ingénierie, la publicité. Il existe principalement deux méthodes pour acquérir un modèle 3D: la reconstruction avec un scanner laser (méthode active) et la reconstruction à partir de plusieurs photographies d'une même scène prise dans des points de vues différentes (méthode passive). Si la méthode active permet d'acquérir des modèles avec une grande précision, il est cependant coûteux et difficile à mettre en place pour de grandes scènes extérieures. La méthode passive, ou la stéréo multi-vues est en revanche plus flexible, facile à mettre en oeuvre et surtout moins coûteuse que la méthode active. Cette thèse s'attaque au problème de la reconstruction de stéréo multi-vues à grande échelle et précise pour les scènes extérieures. Nous améliorons des méthodes précédentes et les assemblons pour créer une chaîne de stéréo multi-vues efficace tirant parti de l'accélération de cartes graphiques. La chaîne produit des maillages de qualité à partir d'images de haute résolution, ce qui permet d'atteindre les meilleurs scores dans de nombreuses évaluations. Aux plus grandes échelles, nous développons d'une part des techniques de type diviser-pour-régner pour reconstruire des morceaux partiaux de la scène. D'autre part, pour combiner ces résultats séparés, nous créons une nouvelle méthode qui fusionne rapidement des centaines de maillages. Nous réussissons à reconstruire de beaux maillages urbains et des monuments historiques précis à partir de grandes collections d'images (environ 1600 images de 5M Pixel) / Acquisition of 3D model of real objects and scenes is indispensable and useful in many practical applications, such as digital archives, game and entertainment industries, engineering, advertisement. There are 2 main methods for 3D acquisition : laser-based reconstruction (active method) and image-based reconstruction from multiple images of the scene in different points of view (passive method). While laser-based reconstruction achieves high accuracy, it is complex, expensive and difficult to set up for large-scale outdoor reconstruction. Image-based, or multi-view stereo methods are more versatile, easier, faster and cheaper. By the time we begin this thesis, most multi-view methods could handle only low resolution images under controlled environment. This thesis targets multi-view stereo both both in large scale and high accuracy issues. We significantly improve some previous methods and combine them into a remarkably effective multi-view pipeline with GPU acceleration. From high-resolution images, we produce highly complete and accurate meshes that achieve best scores in many international recognized benchmarks. Aiming even larger scale, on one hand, we develop Divide and Conquer approaches in order to reconstruct many small parts of a big scene. On the other hand, to combine separate partial results, we create a new merging method, which can merge automatically and quickly hundreds of meshes. With all these components, we are successful to reconstruct highly accurate water-tight meshes for cities and historical monuments from large collections of high-resolution images (around 1600 images of 5 M Pixel images)
73

Développement d’outils pronostiques dynamiques dans le cancer de la prostate localisé traité par radiothérapie / Development of dynamic prognostic tools in localized prostate cancer treated by radiation therapy

Sene, Mbery 13 December 2013 (has links)
La prédiction d'un événement clinique à l'aide d'outils pronostiques est une question centrale en oncologie. L'émergence des biomarqueurs mesurés au cours du temps permet de proposer des outils incorporant les données répétées de ces biomarqueurs pour mieux guider le clinicien dans la prise en charge des patients. L'objectif de ce travail est de développer et valider des outils pronostiques dynamiques de rechute de cancer de la prostate, chez des patients traités initialement par radiothérapie externe, en prenant en compte les données répétées du PSA, l'antigène spécifique de la prostate, en plus des facteurs pronostiques standard. Ces outils sont dynamiques car ils peuvent être mis à jour à chaque nouvelle mesure disponible du biomarqueur. Ils sont construits à partir de modèles conjoints pour données longitudinales et de temps d'événement. Le principe de la modélisation conjointe est de décrire l'évolution du biomarqueur à travers un modèle linéaire mixte, décrire le risque d'événement à travers un modèle de survie et lier ces deux processus à travers une structure latente. Deux approches existent, les modèles conjoints à effets aléatoires partagés et les modèles conjoints à classes latentes. Dans un premier travail, nous avons tout d'abord comparé, en terme de qualité d'ajustement et de pouvoir prédictif, des modèles conjoints à effets aléatoires partagés différant par leur forme de dépendance entre le PSA et le risque de rechute clinique. Puis nous avons évalué et comparé ces deux approches de modélisation conjointe. Dans un deuxième travail, nous avons proposé un outil pronostique dynamique différentiel permettant d'évaluer le risque de rechute clinique suivant l'initiation ou non d'un second traitement (un traitement hormonal) au cours du suivi. Dans ces travaux, la validation de l'outil pronostique a été basée sur deux mesures de pouvoir prédictif: le score de Brier et l'entropie croisée pronostique. Dans un troisième travail, nous avons enfin décrit la dynamique des PSA après un second traitement de type hormonal chez des patients traités initialement par une radiothérapie seule. / The prediction of a clinical event with prognostic tools is a central issue in oncology. The emergence of biomarkers measured over time can provide tools incorporating repeated data of these biomarkers to better guide the clinician in the management of patients. The objective of this work is to develop and validate dynamic prognostic tools of recurrence of prostate cancer in patients initially treated by external beam radiation therapy, taking into account the repeated data of PSA, the Prostate-Specific Antigen, in addition to standard prognostic factors. These tools are dynamic because they can be updated at each available new measurement of the biomarker. They are built from joint models for longitudinal and time-to-event data. The principle of joint modelling is to describe the evolution of the biomarker through a linear mixed model, describe the risk of event through a survival model and link these two processes through a latent structure. Two approaches exist, shared random-effect models and joint latent class models. In a first study, we first compared in terms of goodness-of-fit and predictive accuracy shared random-effect models differing in the form of dependency between the PSA and the risk of clinical recurrence. Then we have evaluated and compared these two approaches of joint modelling. In a second study, we proposed a differential dynamic prognostic tool to evaluate the risk of clinical recurrence according to the initiation or not of a second treatment (an hormonal treatment) during the follow-up. In these works, validation of the prognostic tool was based on two measures of predictive accuracy: the Brier score and the prognostic cross-entropy. In a third study, we have described the PSA dynamics after a second treatment (hormonal) in patients initially treated by a radiation therapy alone.
74

UAV Routing Protocol (URP) for crop health management / UAV Routing Protocol (URP) pour la gestion de la santé des cultures

Mohammad, Ammad Uddin 19 December 2017 (has links)
Les réseaux de capteurs sans fil sont maintenant un moyen crédible de collecte de données sur les cultures. L'installation d'une structure de communication fixe pour relayer les données surveillées depuis la tête de grappe jusqu'à sa destination finale peut être soit impraticable en raison de la topologie du terrain, soit prohibitive en raison du coût initial élevé. Une solution plausible consiste à utiliser des véhicules aériens sans pilote (UAV) comme moyen alternatif de collecte de données et de contrôle de supervision limité de l'état des détecteurs. Dans cet article, nous considérons le cas des parcelles agricoles disjointes comprenant chacune des grappes de capteurs, organisées de manière prédéterminée en fonction des objectifs d'élevage. Cette recherche vise à trouver une solution optimale pour la recherche de UAV et la collecte de données à partir de tous les capteurs installés dans un champ de culture. En outre, le protocole de routage des capteurs tiendra compte d'un compromis entre la gestion de l'énergie et les frais généraux de diffusion des données. Le système proposé est évalué en utilisant un modèle simulé et il devrait trouver une classe parmi toutes les sous-considérations. / Wireless sensor networks are now a credible means for crop data collection. The installation of a fixed communication structure to relay the monitored data from the cluster head to its final destination can either be impractical because of land topology or prohibitive due to high initial cost. A plausible solution is to use Unmanned Aerial Vehicles (UAV) as an alternative means for both data collection and limited supervisory control of sensors status. In this paper, we consider the case of disjoint farming parcels each including clusters of sensors, organized in a predetermined way according to farming objectives. This research focuses to drive an optimal solution for UAV search and data gathering from all sensors installed in a crop field. Furthermore, the sensor routing protocol will take into account a tradeoff between energy management and data dissemination overhead.The proposed system is evaluated by using a simulated model and it should find out a class among all under consideration.
75

Biomarqueurs cellulaires circulants dans les cancers avancés / Circulating cells biomarkers in advanced cancers

Massard, Christophe 04 December 2013 (has links)
Les biomarqueurs sanguins peuvent être utilisés pour définir le pronostic des patients ou permettre de déterminer les altérations moléculaires des cancers, et peut-être pouvoir guider les traitements de thérapies ciblées.Les cellules tumorales circulantes sont le reflet de la cascade métastatique et de la progression tumorale. La détection et la caractérisation des CTC est un domaine clé de la recherche dans le cancer. Cependant, il n’existe pas de méthode standard pour la détection des CTC, et le premier objectif de notre étude a été de comparer deux systèmes de détection des CTC basé sur l’expression de l’antigène EpCAM (CellSearch), ou la taille des cellules (ISET). Nos résultats montrent qu’il existe une bonne corrélation pour la détection des CTC dans les cancers du sein ou de la prostate, mais pas dans les cancers bronchiques. Ces résultats suggèrent qu’il est nécessaire de développer d’autres techniques de détection des CTC pour l’énumération et la caractérisation pour permettre une médecine de précision.A ce jour il n’existe aucun marqueur validé pour prédire l’efficacité des antiangiogéniques. Les CEC et CEP sont des marqueurs prometteurs. Dans notre étude, nous avons fait l’hypothèse que les CEC et les CEP pouvaient être pronostic de la survie des patients inclus dans les études de phases précoces. Nos résultats montrent qu’un taux élevé de CEP est associé à un mauvais pronostic, et que les CEP pourraient permettre de mieux sélectionner les patients. En conclusion, les marqueurs sanguins comme les CTC, les CEC ou les CEP peuvent être utilisés comme des facteurs pronostiques ou permettre une caractérisation moléculaire, et être une partie intégrante des programmes de médecine de précision. / Non-inasive biomarkers detected in the blood could be use for risk) stratification or molecular classification in advanced cancer patients, and could be a guide for molecular targeted therapies. Circulating tumor cells reflect the metastatic cascade and the cancer progression. The detection and molecular characterization of circulating tumor cells (CTCs) are a key area of translational cancer research. However, there is no universal method to detect CTC, and the primary objective of our study was to compare CTC detection systems based on the expression of the EpCAM antigen (CellSearch assay) or on cell size (ISET assay). Our results showed concordant results in CTC detection in breast and prosatet cancer patients, but not in lung cancer patients. These results suggest that we need to develop other CTC-detection techniques CTC for enumeration and characterization in order to to contribute to guiding specific targeted.To date, no biomarker has been validated for the prediction of efficacy of antiangiogenic agents in patients with advanced cancer. CEC and CEP counts have recently emerged as a potential candidate. In our study, we hypothesised that CEC and CEP are prognostic in patients enrolled in phase I. Our results showed that High CEP levels are associated with poor prognostics and could provide a new tool for patient selection in early anticancer drug trials.In conclusion, non invasive biomarkers such as CTC or CEC, CEP detectable in the blood could be used in the clinic as prognostic factors or surrogates for traditional tumor biopsies, and be a major component of precision medicine.
76

Impact des variants génétiques sur la réponse immunitaire des populations humaines

Nédélec, Yohann 06 1900 (has links)
No description available.
77

Improving the Numerical Accuracy of Floating-Point Programs with Automatic Code Transformation Methods / Amélioration de la précision numérique de programmes basés sur l'arithmétique flottante par les méthodes de transformation automatique

Damouche, Nasrine 12 December 2016 (has links)
Les systèmes critiques basés sur l’arithmétique flottante exigent un processus rigoureux de vérification et de validation pour augmenter notre confiance en leur sureté et leur fiabilité. Malheureusement, les techniques existentes fournissent souvent une surestimation d’erreurs d’arrondi. Nous citons Arian 5 et le missile Patriot comme fameux exemples de désastres causés par les erreurs de calculs. Ces dernières années, plusieurs techniques concernant la transformation d’expressions arithmétiques pour améliorer la précision numérique ont été proposées. Dans ce travail, nous allons une étape plus loin en transformant automatiquement non seulement des expressions arithmétiques mais des programmes complets contenant des affectations, des structures de contrôle et des fonctions. Nous définissons un ensemble de règles de transformation permettant la génération, sous certaines conditions et en un temps polynômial, des expressions pluslarges en appliquant des calculs formels limités, au sein de plusieurs itérations d’une boucle. Par la suite, ces larges expressions sont re-parenthésées pour trouver la meilleure expression améliorant ainsi la précision numérique des calculs de programmes. Notre approche se base sur les techniques d’analyse statique par interprétation abstraite pour sur-rapprocher les erreurs d’arrondi dans les programmes et au moment de la transformation des expressions. Cette approche est implémenté dans notre outil et des résultats expérimentaux sur des algorithmes numériques classiques et des programmes venant du monde d’embarqués sont présentés. / Critical software based on floating-point arithmetic requires rigorous verification and validation process to improve our confidence in their reliability and their safety. Unfortunately available techniques for this task often provide overestimates of the round-off errors. We can cite Arian 5, Patriot rocket as well-known examples of disasters. These last years, several techniques have been proposed concerning the transformation of arithmetic expressions in order to improve their numerical accuracy and, in this work, we go one step further by automatically transforming larger pieces of code containing assignments, control structures and functions. We define a set of transformation rules allowing the generation, under certain conditions and in polynomial time, of larger expressions by performing limited formal computations, possibly among several iterations of a loop. These larger expressions are better suited to improve, by re-parsing, the numerical accuracy of the program results. We use abstract interpretation based static analysis techniques to over-approximate the round-off errors in programs and during the transformation of expressions. A tool has been implemented and experimental results are presented concerning classical numerical algorithms and algorithms for embedded systems.
78

Conception et commande de systèmes d'alimentation en composants de petites tailles pour micro-usine d'assemblage de haute précision.

Paris, Mickaël 19 December 2008 (has links) (PDF)
L'alimentation en composants est un problème majeur dans la conception des systèmes de production et plus particulièrement d'assemblage. Un système d'alimentation doit garantir la position et l'orientation des composants qu'il fournit au système d'assemblage, quelle que soit la taille des composants. En revanche, le niveau de précision sera généralement d'autant plus important que les composants sont petits. Nos travaux ont été réalisés dans le contexte de l'alimentation en composants de taille millimétrique à microscopique avec des objectifs de modularité et de haute précision de positionnement. La première contribution de la thèse a consisté à élaborer une stratégie pour l'alimentation de haute précision en composants millimétriques pour une architecture ouverte, flexible et standardisée, proposée par un projet européen EUPASS (Evolvable Ultra Precision ASembly System). Un système standard a ainsi été développé. Il est modulaire, reconfigurable pour différents types de minicomposants et permet leur maintien micrométrique. Sur la base de ces travaux, nous avons étendu notre étude aux systèmes de micro-assemblage (microusine). L'objectif était de déplacer dans un plan des micro-objets jusqu'à une position donnée. L'idée retenue se fonde sur l'utilisation des vibrations pour entraîner ces micro-objets par inertie. Il a donc été nécessaire de caractériser les interactions entre la surface du système d'alimentation et la surface du micro-objet. Pour cela nous avons élaboré une méthode pour évaluer directement la force concernée qui est la force de friction. Le contrôle des vibrations du système a ensuite été conçu. Le pas de déplacement d'un micro-objet en fonction de ses caractéristiques est alors maîtrisé. Enfin, une boucle d'asservissement permet de contrôler le déplacement des micro-objets jusqu'à une position consigne.
79

Le Higgs et le quark top dans le formalisme des relations de dispersion et le modèle standard

Bouayed, N. 08 November 2008 (has links) (PDF)
Le Higgs est la seule particule du modèle standard qui résiste encore à la découverte. Ainsi le mécanisme de la brisure spontanée de la symétrie électrofaible qui fait intervenir le champ scalaire de Higgs pour générer les masses des bosons et des fermions, reste un mystère de la physique des particules. <br /><br />Dans cette thèse, on explore de manière approfondie ce secteur scalaire du modèle standard où réside le Higgs ainsi que les autres Goldstones. Et pour réaliser cette tâche, les meilleures sondes sont d'une part les bosons vecteurs massifs avantagés par leurs couplages au Higgs et par le fait que leurs modes longitudinaux représentent les Goldstones; et d'autre part le quark top avantagé par sa masse qui est de l'ordre de grandeur de l'échelle de la brisure de la symétrie életrofaible, lui conférant ainsi une fort couplage de yukawa, d'où sa trés grande sensiblité au secteur de la brisure de symétrie.<br /><br />La masse du Higgs étant inconnue, on balaie alors tout le spectre. Ainsi, dans un premier volet, on s'interesse au cas du Higgs léger et moyennement lourd. Et comme pour pouvoir décéler, de manière univoque, un signal de nouvelle physique de celui que donnerait le modèle standard, il faut pousser au moins à d'odre de la précision expérimentale, la précision des calculs effectués via le modèle standard. On commence alors par pousser les calculs des sections efficaces électrofaibles et QCD des processus ${W^-W^+ \to t\bar{t}}$ et ${ZZ \to t\bar{t}}$ jusqu'à l'ordre de la boucle. Ceci nécessite au préalable, la renormalisation des secteurs électrofaibles scalaires et spinoriels ainsi qu'une bonne maîtrise des techniques de calcul sous-jacentes.<br />Puis pour faire la part des contributions purement électrofaibles propres aux processus d'intérêts, on établit une formule analytique permettant de quantifier la contribution photonique universelle.<br />Ensuite, pour voir comment peut se révéler un signal de nouvelle physique, on traite l'influence sur les sections efficaces différentielles angulaires, d'opérateurs effectifs paramétrant le secteur de la brisure de la symétrie.<br />Pour enfin inclure les faisceaux de bosons vecteurs massifs dans une approche fonction de structure pour une phénoménologie au plus puissant collisionneur hadronique d'aujourd'hui: le LHC (Large Hadron Collider) et au collisionneur leptonique du futur proche: l'ILC (International Linear Collider).<br /><br />Dans le deuxième volet de cette thèse, on traite du cas du Higgs lourd violant le principe d'unitarité perturbative. On suit alors la procédure initiée par Contogouris, et on construit un modèle dispersif pour l'amplitude du processus $W_LW_L \to W_LW_L$. A hautes énergies, la résolution numérique de l'équation intégrale qui découle de notre construction, nous permet de mettre en évidence, à travers les résonances de l'amplitude dispersive, les manifestations d'un comportement en force forte de l'interaction électrofaible. Une analyse attentive des résultats qu'on obtient, nous permet d'une part d'estimer la valeur de la masse d'un Higgs lourd et d'autre part d'extraire une nouvelle limite pour la validité du calcul perturbatif dans la théorie électrofaible.
80

Conception Robuste de Mécanismes

Caro, Stéphane 17 December 2004 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur l'étude de la robustesse de la conception de mécanismes. Ses principales contributions résident dans la détermination d'un indice de robustesse, le développement de deux méthodes d'analyse de sensibilité pour les manipulateurs d'architecture parallèle de type Delta-Linéaire, la formulation d'une procédure de synthèse de tolérances et l'étude de la robustesse d'une famille de manipulateurs d'architecture sérielle génériques et non-génériques<br />à trois degrés de liberté. Le mémoire est ainsi divisé en quatre chapitres. Le premier chapitre est consacré à une énumération des propriétés générales des mécanismes étudiés, à une étude bibliographique de la conception robuste et à la formulation d'un problème de conception robuste. Le deuxième chapitre traite de l'analyse de sensibilité de l'Orthoglide, manipulateur d'architecture parallèle de type Delta-Linéaire à trois degrés de liberté de translation. L'étude permet de connaître la sensibilité<br />de la situation de l'effecteur du manipulateur aux variations de ses paramètres géométriques et de repérer les configurations pour lesquelles cette sensibilité est minimale et maximale. Le troisième chapitre présente un indice de robustesse optimal pour<br />les mécanismes étudiés et une procédure de synthèse de tolérances dimensionnelles décomposée en deux étapes séquentielles. Par ailleurs, ils sont illustrés par plusieurs études de cas, notamment un amortisseur et un manipulateur d'architecture parallèle. Finalement, le quatrième chapitre décrit une étude de la robustesse d'une famille de manipulateurs d'architecture sérielle à trois degrés de liberté. Cette étude vise à identifier les corrélations entre les notions de robustesse et de généricité.<br />A cet effet, différentes notions de la robotique sont exploitées, telles que la parcourabilité, la précision et la dextérité d'un manipulateur. Il s'avère que la généricité d'un manipulateur n'a pas d'influence sur ses performances cinématiques, ni sur la sensibilité de la position de son effecteur aux variations de ses paramètres géométriques.

Page generated in 0.2616 seconds