• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 43
  • 20
  • 1
  • Tagged with
  • 170
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 18
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Randomized Clinical Trials in Oncology with Rare Diseases or Rare Biomarker-based Subtypes / Essais cliniques randomisés en oncologie dans les maladies rares ou en présence de sous-types rares identifiés par biomarqueurs

Bayar, Mohamed Amine 29 November 2019 (has links)
Le design standard des essais randomisés de phase III suppose le recrutement d'un grand nombre de patients pour assurer un risque α de 0.025 unilatéral et une puissance d'au moins 80%. Ceci s'avérer difficile dans les maladies rares, ou encore si le traitement cible une population spécifique définie par un sous-type moléculaire rare. Nous avons évalué par simulation la performance d'une série d'essais randomisés. Au terme de chaque essai, s'il est associé à une amélioration significative, le traitement expérimental devient le contrôle de l'essai suivant. Les designs ont été évalués pour différents taux de recrutement, différentes sévérités de la maladie, et différentes distributions hypothétiques des effets d'un futur traitement. Nous avons montré, que sous des hypothèses raisonnables, une série d'essais de plus petite taille et avec un risque α relâché est associée à un plus grand bénéfice à long terme que deux essais de design standard. Nous avons enrichi cette approche avec des designs plus flexibles incluant des analyses intermédiaires d'efficacité et/ou futilité, et des designs adaptatifs à trois bras avec sélection de traitement. Nous avons montré qu'une analyse intermédiaire avec une règle d'arrêt pour futilité était associé à un gain supplémentaire et à une meilleure maitrise du risque, contrairement aux règles d'arrêt pour efficacité qui ne permettent pas d'améliorer la performance. Les séries d'essais à trois bras sont systématiquement plus performants que les séries d'essais à deux bras. Dans la troisième de la thèse, nous avons étudié les essais randomisés évaluant un algorithme de traitement plutôt que l'efficacité d'un seul traitement. Le traitement expérimental est déterminé selon la mutation. Nous avons comparé deux méthodes basées sur le modèles de Cox à effets aléatoires pour l'estimation de l'effet traitement dans chaque mutation : Maximum Integrated Partial Likellihood (MIPL) en utilisant le package coxme et Maximum H-Likelihood (MHL) en utilisant le package frailtyHL. La performance de la méthode MIPL est légèrement meilleure. En présence d'un effet traitement hétérogène, les deux méthodes sousestime l'effet dans les mutations avec un large effet, et le surestime dans les mutations avec un modeste effet. / Large sample sizes are required in randomized trials designed to meet typical one-sided α-level of 0.025 and at least 80% power. This may be unachievable in a reasonable time frame even with international collaborations. It is either because the medical condition is rare, or because the trial focuses on an uncommon subset of patients with a rare molecular subtype where the treatment tested is deemed relevant. We simulated a series of two-arm superiority trials over a long research horizon (15 years). Within the series of trials, the treatment selected after each trial becomes the control treatment of the next one. Different disease severities, accrual rates, and hypotheses of how treatments improve over time were considered. We showed that compared with two larger trials with the typical one-sided α-level of 0.025, performing a series of small trials with relaxed α-levels leads on average to larger survival benefits over a long research horizon, but also to higher risk of selecting a worse treatment at the end of the research period. We then extended this framework with more 'flexible' designs including interim analyses for futility and/or efficacy, and three-arm adaptive designs with treatment selection at interim. We showed that including an interim analysis with a futility rule is associated with an additional survival gain and a better risk control as compared to series with no interim analysis. Including an interim analysis for efficacy yields almost no additional gain. Series based on three-arm trials are associated with a systematic improvement of the survival gain and the risk control as compared to series of two-arm trials. In the third part of the thesis, we examined the issue of randomized trials evaluating a treatment algorithm instead of a single drugs' efficacy. The treatment in the experimental group depends on the mutation, unlike the control group. We evaluated two methods based on the Cox frailty model to estimate the treatment effect in each mutation: Maximum Integrated Partial Likellihood (MIPL) using package coxme and Maximum H-Likelihood (MHL) using package frailtyHL. MIPL method performs slightly better. In presence of a heterogeneous treatment effect, the two methods underestimate the treatment effect in mutations where the treatment effect is large, and overestimates the treatment effect in mutations where the treatment effect is small.
102

Imagerie radar en ondes millimétriques appliquée à la viticulture / Millimeter-wave radar imagery for viticulture application

Henry, Dominique 29 May 2018 (has links)
Avec l’expansion des exploitations agricoles, le principe d’homogénéité du rendement (céréales, fruits…) devient de moins en moins pertinent. Ce phénomène de variabilité spatiale implique des conséquences économiques et environnementales avec le développement de nouveaux concepts agricoles comme les « site-specific management » (gestion spécifique des parcelles). Les traitements tels que les fertilisants, les intrants et autres pesticides doivent être utilisés de manière différente en les appliquant au bon endroit, à la bonne période et au bon taux. Cette nouvelle façon de penser l’agriculture fait partie de l’agriculture de précision (PA) et se concentre en quatre domaines technologiques : (i) la télédétection, (ii) la navigation et guidage, (iii) la gestion des données et (iv) les technologies à taux variable. Initiée à la fin des années 1990, la viticulture de précision (PV) est une branche particulière de la PA, caractérisée par des problématiques spécifiques à la viticulture. Les travaux effectués durant cette thèse entrent dans le cadre de la télédétection (ou détection proche) appliquée à la PV. Ils se focalisent sur une nouvelle méthode d’estimation de la quantité de grappes (masse ou volume) directement sur les plants de vignes. Pouvoir estimer le rendement des vignes plusieurs semaines avant la récolte offre de nombreux avantages avec des impacts économiques et qualitatifs, avec par exemple : (i) l’amélioration du rapport rendement/qualité en supprimant au plut tôt une partie de la récolte, (ii) l’optimisation des ressources humaines et la logistique à la récolte, (iii) un remboursement le plus équitable par les assurances en cas d’intempéries qui endommageraient les pieds de vignes. La méthode proposée ici repose sur l’imagerie microondes (à 24GHz ou des fréquences plus élevées) générée par un radar FM-CW. Elle implique la mise en place d’un système d’interrogation intra-parcellaire « pied par pied » à distance basé au sol, et en particulier : (i) l’évaluation de la précision des mesures et les limites du système, (ii) le développement d’algorithmes spécifiques pour l’analyse de données tridimensionnelles, (iii) la construction d’estimateurs pour retrouver le volume des grappes, et finalement (iv) l’analyse des données recueillies pendant les campagnes de mesures. Dû au caractère saisonnier des récoltes, les mesures sont en premier lieu effectuées sur des cibles canoniques, des charges variables et des capteurs passifs en laboratoire. Pour mettre en avant la flexibilité de cette interrogation radar, le même système est utilisé en parallèlement dans le cadre du projet régional PRESTIGE, pour compter à distance le nombre de pommes présentes sur les pommiers en verger. Ces travaux ont été financés par l’entreprise Ovalie-Innovation et l’ANRT (Agence Nationale de la Recherche Technologique). / With the expansion of farm operations, the principle of homogeneity of crop yields (cereals, fruits …) becomes less and less relevant. This observation of spatial variabilities implies economic and environmental consequences with the development of new arrangements of agricultural works such as “site-specific management”. Treatments such as fertilizers, nutrients and pesticides must be used differently by applying them at the right time, right place and right rate. This new way to think the agriculture is called precision agriculture (PA) and gathers four technological fields: (i) remote sensing, (ii) navigation and guidance, (iii) data management and (iv) variable-rate technologies. Precision viticulture (PV) is an application of PA which was initiated in the late 90’s and is characterized by issues specific to viticulture. Work carried out during this thesis is a direct application of remote sensing (or proximal sensing) applied to PV. It focuses on a new method of remote sensing of grapes quantity (mass or volume) directly on vine plants. Estimating the quantity of grapes several weeks before harvesting offers many advantages with qualitative and economic impacts such as: (i) improving the yield / quality ratio with an early removal of a part of the harvest, (ii) optimizing human resources and equipment during the grape harvest, and (iii) be fairly compensated by insurances in case of severe weather conditions that damaged the vine plants. The method proposed here relies on microwave imagery (24 GHz and higher) generated by a FM-CW radar. It implies the set-up of ground-based remote reading system for a plant-byplant intra-parcel analysis and particularly: (i) evaluating the measurement accuracy, precision and limits of the system, (ii) developing specific algorithms in order to analyze three-dimensional volume data, (iii) building statistical estimators for retrieving the volume of grapes and finally (iv) analyzing data acquired during field measurements. Because of the seasonality of the grape harvest, measurements are firstly performed on canonic targets, variable loads and passive sensors in laboratory. To enlighten the flexibility of the radar interrogation technique, the same system is also used as part of the regional project PRESTIGE to remotely count the number of apples on trees in orchards. This work has been funding by the company Ovalie-Innovation and the ANRT (Agence Nationale de la Recherche Technologique).
103

Fiabilité et changement minimal détectable de mesures obtenues à partir d'images enregistrées par ultrasonographie afin de caractériser l'intégrité du tendon d'Achille

Nadeau, Marie-Josée 12 1900 (has links)
Problématique : La quantification de l’intégrité du tendon d’Achille (TA) représente un défi en réadaptation. L’adoption de mesures quantitatives du TA, extraites à partir d’une image ultrasonographique (QUS), pourrait remédier à cette lacune. Objectifs : 1) Évaluer la fiabilité test-retest et la précision de mesures QUS du TA; 2) Déterminer le meilleur protocole de collecte de mesures QUS à employer en pratique clinique. Méthodologie : Un total de 23 TAs présentant des symptômes d’une tendinopathie achilléenne et 63 TAs asymptomatiques ont été évalués. Pour chaque TA, 8 images ont été enregistrées (2 visites * 2 évaluatrices * 2 images). Différents types de mesures QUS ont été prises : géométriques (épaisseur, largeur, aire), dérivées d’un histogramme des niveaux de gris et dérivées d’une matrice de co-occurrence. Une étude de généralisabilité a quantifié la fiabilité et la précision de chaque mesure QUS et une étude de décision a fait ressortir les meilleurs protocoles de prise de mesures. Résultats : Les mesures géométriques ont démontré une excellente fiabilité et précision. Les mesures dérivées de l’histogramme des niveaux de gris ont démontré une fiabilité et précision médiocres. Les mesures dérivées d’une matrice de co-occurrence ont démontré une fiabilité modérée à excellente et une précision variable. En pratique clinique, il est recommandé de moyenner les résultats de trois images collectées par un évaluateur lors d’une visite. Conclusion : L’utilisation des mesures QUS géométriques permet de quantifier l’intégrité du TA (clinique et recherche). Davantage d’études sur les mesures QUS dérivées d’une matrice de co-occurrence s’avèrent nécessaires. / Background: Quantifying the integrity of the Achilles tendon (AT) represents a challenge in rehabilitation. The adoption of quantitative measurements of the AT, extracted from an ultrasound image (QUS) could remedy this shortcoming. Objectives: 1) To assess the test-retest reliability and accuracy of QUS measurements of the AT; 2) To determine the best protocol of QUS measurements to use in clinical practice. Methods: A total of 23 ATs with symptoms of mid-portion Achilles tendinopathy and 63 asymptomatic ATs were evaluated. For each AT, 8 images were recorded (2visits* 2 evaluators* 2 images). Different types of QUS measurements were taken: geometric (thickness, width, area), derived from a gray-level histogram and derived from a co-occurrence marix. A generalizability study quantified the reliability and accuracy of each QUS measurement whereas a decision study highlighted the best protocols for measuring use. Results: The geometric measurements showed excellent reliability and accuracy. The measures derived from the gray-level histogram showed poor reliability and accuracy. The measurements derived from a co-occurrence matrix have shown moderate to excellent reliability and a variable precision. In clinical practice, it is recommended averaging the results of three images collected by an assessor during a single visit. Conclusions: The use of geometric QUS measures allows to quantify the integrity of the AT in clinical practice and in research. Further studies on QUS measurements derived from a matrix of co-occurrence are needed.
104

Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques / Data management : quality Control of the Digital Models of Geographical Databases

Zelasco, José Francisco 13 December 2010 (has links)
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants. / A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
105

Représentation interne des caractéristiques physiques d'un objet

Lefebvre, Nicolas 07 1900 (has links)
Dans les situations du quotidien, nous manipulons fréquemment des objets sans les regarder. Pour effectuer des mouvements vers une cible précise avec un objet à la main, il est nécessaire de percevoir les propriétés spatiales de l’objet. Plusieurs études ont démontré que les sujets peuvent discriminer entre des longueurs d'objet différentes sans l’aide des informations visuelles et peuvent adapter leurs mouvements aux nouvelles caractéristiques inertielles produites lors de la manipulation d’un objet. Dans cette étude, nous avons conduit deux expérimentations afin d’évaluer la capacité des sujets à adapter leurs mouvements d’atteinte à la longueur et à la forme perçues des objets manipulés sur la base unique des sensations non visuelles (sensations haptiques). Dans l'expérience 1, dix sujets devaient exécuter des mouvements d’atteintes vers 4 cibles tridimensionnelles (3D) avec un objet à la main. Trois objets de longueur différente ont été utilisés (pointeurs: 12.5, 17.5, 22.5 cm). Aucune connaissance de la position de la main et de l’objet par rapport à la cible n’était disponible pendant et après les mouvements vers les cibles 3D. Ainsi, lorsque comparé avec les erreurs spatiales commises lors des atteintes manuelles sans pointeur, l’erreur spatiale de chacun des mouvements avec pointeur reflète la précision de l’estimation de la longueur des pointeurs. Nos résultats indiquent que les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec un objet en comparaison avec la condition sans pointeur. Cependant, de façon intéressante, ils ont maintenu le même niveau de précision à travers les trois conditions avec des objets de différentes longueurs malgré une différence de 10 cm entre l’objet le plus court et le plus long. Dans l'expérience 2, neuf sujets différents ont effectué des mouvements d’atteinte vers les mêmes cibles utilisant cette fois-ci deux objets en forme de L (objet no.1 : longueur de 17,5 cm et déviation à droite de 12,5 cm – objet no.2 : longueur de 17,5 cm et déviation à droite de 17,5 cm). Comme c’était le cas lors de l'expérience 1, les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec les objets et cette augmentation était similaire entre les deux conditions avec les objets en forme de L. Une observation frappante de l’expérience 2 est que les erreurs de direction n’ont pas augmenté de façon significative entre les conditions avec objet en forme de L et la condition contrôle sans objet. Ceci démontre que les participants ont perçu de façon précise la déviation latérale des objets sans jamais avoir eu de connaissances visuelles de la configuration des objets. Les résultats suggèrent que l’adaptation à la longueur et à la forme des objets des mouvements d’atteinte est principalement basée sur l’intégration des sensations haptiques. À notre connaissance, cette étude est la première à fournir des données quantitatives sur la précision avec laquelle le système haptique peut permettre la perception de la longueur et de la forme d’un objet tenu dans la main afin d’effectuer un mouvement précis en direction d’une cible. / In everyday situations, we frequently manipulate objects without looking at them. To successfully perform goal directed movements with a handheld unseen object, one needs to perceive the spatial properties of the object. Several studies showed that subjects can discriminate between different object lengths without visual information and are able to adapt movements to novel manipulation dynamics. In this study, we evaluated the ability of subjects to adapt their reaching movements to the perceived length and shape of unseen handheld objects (haptic sensations) in two different experimentations. In experiment 1, ten subjects were required to reach to 4 different memorized 3D targets with handheld objects having three different lengths (12.5, 17.5 and 22.5 cm). No feedback of hand or object position relative to the target location was provided during and after the movements. Therefore, when compared with the ‘control’ no object condition, the spatial error of each movement reflects the precision of length perception and movement adaption in a given condition. Our results show that subjects increased their spatial errors while reaching with a handheld object compared to the no object condition. However, interestingly, they maintained the same accuracy level across the three different object length conditions despite a 10 cm length difference between the shorter and longer object. In experiment 2, nine different subjects reached to the same targets using two L-shaped objects (object no.1: 17.5 cm length and 12.5 cm rightward deviation- object no.2: 17.5 cm length and 17.5 cm deviation). As in experiment 1, subjects increased their spatial errors while reaching with handheld objects, but this increase was similar between the two object shape conditions. A striking observation is that subjects did not significantly increase their directional errors in both object shape conditions compared to the no object condition. This demonstrates that they accurately perceived the lateral deviation of objects despite never seeing nor having any explicit knowledge of object configurations. The results indicate that adaptation of reaching movements to the perceived length and shape of handheld objects is largely based on haptic sensations. To our knowledge, this study is the first to provide a quantitative evaluation of the ability of the haptic system to perceive the length and the shape of handheld objects in order to perform an accurate goal directed movement.
106

Reliable Solid Modelling Using Subdivision Surfaces

Shao, Peihui 02 1900 (has links)
Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus. / Subdivision surfaces are a promising alternative method for geometric modelling, and have some important advantages over the classical representation of trimmed-NURBS, especially in modelling piecewise smooth surfaces. In this thesis, we consider the problem of geometric operations on subdivision surfaces with the strict requirement of correct topological form, and since this problem may be ill-conditioned, we propose an approach for managing uncertainty that exists inherently in geometric computation. We take into account the requirement of the correctness of topological information when considering the nature of robustness for the problem of geometric operations on solid models, and it becomes clear that the problem may be ill-conditioned in the presence of uncertainty that is ubiquitous in the data. Starting from this point, we propose an interactive approach of managing uncertainty of geometric operations, in the context of computation using the standard IEEE arithmetic and modelling using a subdivision-surface representation. An algorithm for the planar-cut problem is then presented, which has as its goal the satisfaction of the topological requirement mentioned above.
107

Méthode de type Galerkin discontinu en maillages multi-éléments pour la résolution numérique des équations de Maxwell instationnaires / High order non-conforming multi-element Discontinuous Galerkin method for time-domain electromagnetics

Durochat, Clément 30 January 2013 (has links)
Cette thèse porte sur l’étude d’une méthode de type Galerkin discontinu en domaine temporel (GDDT), afin de résoudre numériquement les équations de Maxwell instationnaires sur des maillages hybrides tétraédriques/hexaédriques en 3D (triangulaires/quadrangulaires en 2D) et non-conformes, que l’on note méthode GDDT-PpQk. Comme dans différents travaux déjà réalisés sur plusieurs méthodes hybrides (par exemple des combinaisons entre des méthodes Volumes Finis et Différences Finies, Éléments Finis et Différences Finies, etc.), notre objectif principal est de mailler des objets ayant une géométrie complexe à l’aide de tétraèdres, pour obtenir une précision optimale, et de mailler le reste du domaine (le vide environnant) à l’aide d’hexaèdres impliquant un gain en terme de mémoire et de temps de calcul. Dans la méthode GDDT considérée, nous utilisons des schémas de discrétisation spatiale basés sur une interpolation polynomiale nodale, d’ordre arbitraire, pour approximer le champ électromagnétique. Nous utilisons un flux centré pour approcher les intégrales de surface et un schéma d’intégration en temps de type saute-mouton d’ordre deux ou d’ordre quatre. Après avoir introduit le contexte historique et physique des équations de Maxwell, nous présentons les étapes détaillées de la méthode GDDT-PpQk. Nous réalisons ensuite une analyse de stabilité L2 théorique, en montrant que cette méthode conserve une énergie discrète et en exhibant une condition suffisante de stabilité de type CFL sur le pas de temps, ainsi que l’analyse de convergence en h (théorique également), conduisant à un estimateur d’erreur a-priori. Ensuite, nous menons une étude numérique complète en 2D (ondes TMz), pour différents cas tests, des maillages hybrides et non-conformes, et pour des milieux de propagation homogènes ou hétérogènes. Nous faisons enfin de même pour la mise en oeuvre en 3D, avec des simulations réalistes, comme par exemple la propagation d’une onde électromagnétique dans un modèle hétérogène de tête humaine. Nous montrons alors la cohérence entre les résultats mathématiques et numériques de cette méthode GDDT-PpQk, ainsi que ses apports en termes de précision et de temps de calcul. / This thesis is concerned with the study of a Discontinuous Galerkin Time-Domain method (DGTD), for the numerical resolution of the unsteady Maxwell equations on hybrid tetrahedral/hexahedral in 3D (triangular/quadrangular in 2D) and non-conforming meshes, denoted by DGTD-PpQk method. Like in several studies on various hybrid time domain methods (such as a combination of Finite Volume with Finite Difference methods, or Finite Element with Finite Difference, etc.), our general objective is to mesh objects with complex geometry by tetrahedra for high precision and mesh the surrounding space by square elements for simplicity and speed. In the discretization scheme of the DGTD method considered here, the electromagnetic field components are approximated by a high order nodal polynomial, using a centered approximation for the surface integrals. Time integration of the associated semi-discrete equations is achieved by a second or fourth order Leap-Frog scheme. After introducing the historical and physical context of Maxwell equations, we present the details of the DGTD-PpQk method. We prove the L2 stability of this method by establishing the conservation of a discrete analog of the electromagnetic energy and a sufficient CFL-like stability condition is exhibited. The theoritical convergence of the scheme is also studied, this leads to a-priori error estimate that takes into account the hybrid nature of the mesh. Afterward, we perform a complete numerical study in 2D (TMz waves), for several test problems, on hybrid and non-conforming meshes, and for homogeneous or heterogeneous media. We do the same for the 3D implementation, with more realistic simulations, for example the propagation in a heterogeneous human head model. We show the consistency between the mathematical and numerical results of this DGTD-PpQk method, and its contribution in terms of accuracy and CPU time.
108

Vers l’étalonnage interne de caméra à haute précision / Towards high precision internal camera calibration

Rudakova, Victoria 21 January 2014 (has links)
Cette thèse se concentre sur le sujet de la calibration de la camera interne et, en particulier, sur les aspects de haute précision. On suit et examine deux fils principaux: la correction d'une aberration chromatique de lentille et l'estimation des paramètres intrinsèques de la caméra. Pour la problème de l'aberration chromatique, on suit un chemin de post-traitement numérique de l'image, afin de se débarrasser des artefacts de couleur provoqués par le phénomène de dispersion du système d'objectif de la caméra, ce qui produit une désalignement perceptible des canaux couleur. Dans ce contexte, l'idée principale est de trouver un modèle de correction plus général pour réaligner les canaux de couleur que ce qui est couramment utilisé - différentes variantes du polynôme radial. Celui-ci ne peut pas être suffisamment général pour assurer la correction précise pour tous les types de caméras. En combinaison avec une détection précise des points clés, la correction la plus précise de l'aberration chromatique est obtenue en utilisant un modèle polynomial qui est capable de capter la nature physique du décalage des canaux couleur. Notre détection de points clés donne une précision allant jusqu'à 0,05 pixels, et nos expériences montrent sa grande résistance au bruit et au flou. Notre méthode de correction de l’aberration, par opposition aux logiciels existants, montre une géométrique résiduelle inférieure à 0,1 pixels, ce qui est la limite de la perception de la vision humaine. En ce qui concerne l'estimation des paramètres intrinsèques de la caméra, la question est de savoir comment éviter la compensation d'erreur résiduelle qui est inhérent aux méthodes globales d'étalonnage, dont le principe fondamental consiste à estimer tous les paramètres de la caméra ensemble - l'ajustement de faisceaux. Détacher les estimations de la distorsion de la caméra et des paramètres intrinsèques devient possible lorsque la distorsion est compensée séparément. Cela peut se faire au moyen de la harpe d'étalonnage, récemment développée, qui calcule le champ de distorsion en utilisant la mesure de la rectitude de cordes tendues dans différentes orientations. Une autre difficulté, étant donnée une image déjà corrigée de la distorsion, est de savoir comment éliminer un biais perspectif. Ce biais dû à la perspective est présent quand on utilise les centres de cibles circulaires comme points clés, et il s'amplifie avec l'augmentation de l'angle de vue. Afin d'éviter la modélisation de chaque cercle par une fonction conique, nous intégrons plutôt fonction de transformation affine conique dans la procédure de minimisation pour l'estimation de l'homographie. Nos expériences montrent que l'élimination séparée de la distorsion et la correction du biais perspectif sont efficaces et plus stables pour l'estimation des paramètres intrinsèques de la caméra que la méthode d'étalonnage globale / This dissertation focuses on internal camera calibration and, especially, on its high-precision aspects. Two main threads are followed and examined: lens chromatic aberration correction and estimation of camera intrinsic parameters. For the chromatic aberration problem, we follow a path of digital post-processing of the image in order to get rid from the color artefacts caused by dispersion phenomena of the camera lens system, leading to a noticeable color channels misalignment. In this context, the main idea is to search for a more general correction model to realign color channels than what is commonly used - different variations of radial polynomial. The latter may not be general enough to ensure stable correction for all types of cameras. Combined with an accurate detection of pattern keypoints, the most precise chromatic aberration correction is achieved by using a polynomial model, which is able to capture physical nature of color channels misalignment. Our keypoint detection yields an accuracy up to 0.05 pixels, and our experiments show its high resistance to noise and blur. Our aberration correction method, as opposed to existing software, demonstrates a final geometrical residual of less than 0.1 pixels, which is at the limit of perception by human vision. When referring to camera intrinsics calculation, the question is how to avoid residual error compensation which is inherent for global calibration methods, the main principle of which is to estimate all camera parameters simultaneously - the bundle adjustment. Detachment of the lens distortion from camera intrinsics becomes possible when the former is compensated separately, in advance. This can be done by means of the recently developed calibration harp, which captures distortion field by using the straightness measure of tightened strings in different orientations. Another difficulty, given a distortion-compensated calibration image, is how to eliminate a perspective bias. The perspective bias occurs when using centers of circular targets as keypoints, and it gets more amplified with increase of view angle. In order to avoid modelling each circle by a conic function, we rather incorporate conic affine transformation function into the minimization procedure for homography estimation. Our experiments show that separate elimination of distortion and perspective bias is effective and more stable for camera's intrinsics estimation than global calibration method
109

Contribution à l'ordre dominant de la polarisation hadronique du vide au moment magnétique anomal du muon en QCD sur réseau avec quatre saveurs de quarks à leur masse physique / Leading-order hadronic vacuum polarization contribution to the anomalous magnetic moment of the muon in lattice QCD with four flavors of quarks at their physical masses

Malak, Rehan 12 December 2016 (has links)
Les moments magnétiques anomaux des leptons ont joué un rôle important dans le développement du modèle standard de la physique des particules. Aujourd’hui, celui du muon est mesuré très précisément et le sera avec une precision encore plus grande par une expérience qui débutera en 2017. Dans la mesure où la prédiction théorique pourra être faite avec des incertitudes comparables, un test rigoureux du modèle standard sera possible. Nous étudions ici le facteur limitant de cette prédiction, la contribution de la polarisation hadronique du vide à l’ordre dominant (HVP-LO). Nous calculons cette contribution numériquement à l’aide d’une version discrétisée de la théorie de l’interaction forte, la chromodynamique quantique sur réseau. Le calcul haute-performance permet de résoudre la théorie dans son régime hautement non-linéaire qui est le plus pertinent ici. Les algorithmes de simulation et les méthodes utilisées pour obtenir la polarisation hadronique, ainsi que les incertitudes associées, sont décrits. Ces méthodes sont ensuite appliquées à des simulations réalisées avec la collaboration Budapest-Marseille-Wuppertal. Dans un premier temps, elles sont implémentées dans une étude dédiée des effets de volume fini. Les méthodes les plus robustes sont ensuite utilisées pour calculer la polarisation hadronique avec des simulations qui comprennent N_f=2+1+1 saveurs de quarks. Celles-ci sont réalisées directement à la valeur physique des masses de quarks u, d, s et c, avec six tailles de maille et dans de gros volumes de 6 fm^3. Elles nous permettent de calculer la contribution HVP-LO au moment magnétique anomal du muon avec des erreurs contrôlées d’environ 3%. / The anomalous magnetic moments of leptons have played an important role in the development of the Standard Model of particle physics. Today, that of the muon is measured very precisely and will be so with even higher precision in an experiment that will begin in 2017. To the extent that the theoretical prediction can be made with comparable uncertainties, a rigorous test of the Standard Model will be possible. Here we study the limiting factor in this prediction, the leading-order hadronic vacuum polarization contribution (HVP-LO). We compute this contribution numerically with a discretized version of the theory of the strong interaction: lattice Quantum Chromodynamics. High-performance computing allows to solve the theory in its highly nonlinear regime, which is the one most relevant here. The simulation algorithms and the methods used to obtain the HVP, as well as the associated statistical and systematic uncertainties, are described. These methods are then applied to simulations performed with the Budapest-Marseille-Wuppertal collaboration. First they are implemented in a dedicated study of finite-volume effects. The most robust methods are then used to compute the HVP with simulations which include N_f=2+1+1 flavors of quarks. These are performed directly at the physical values of the u, d, s and c quark masses, with six lattice spacings and in large volumes of 6 fm^3. They allow us to compute the HVP-LO contribution to the anomalous magnetic moment of the muon with controlled errors of around 3%.
110

Implication of Sterile Fermions in Particle Physics and Cosmology / Implications des fermions stériles dans la physique des particules et dans la cosmologie

Lucente, Michele 25 September 2015 (has links)
Le mécanisme de génération de masses des neutrinos, la nature de la matière noire et l’origine de l’asymétrie baryonique de l’Univers sont les trois questions les plus pressantes dans la physique moderne des astroparticules, qui exigent l’introduction d’une nouvelle physique au-delà du Modèle Standard. Dans cette thèse, nous nous concentrons sur ces trois questions en fournissant une solution possible en termes d'une extension minimale du Modèle Standard, constituée par l’ajout d'un ensemble de fermions stériles au contenu des champs de la théorie. Les fermions stériles sont des champs qui sont singlets de jauge et qui peuvent interagir avec les neutrinos actifs à travers des termes de mélange. Nous nous concentrons sur le mécanisme dit de l’Inverse Seesaw (ISS), qui est caractérisé par une faible échelle de la nouvelle physique (de l’ordre TeV ou inférieure) et qui peut être testé dans les installations expérimentales actuelles et futures.
Nous présentons l'analyse qui permet d’identifier les réalisations minimales de ce mécanisme et l'étude phénoménologique pour prendre en compte la masses des neutrinos légers et pour imposer toutes les contraintes expérimentales pertinentes au modèle, ainsi que les signatures expérimentales attendues. Nous montrons la viabilité de l’hypothèse que les neutrinos stériles constituent la matière noire, et les caractéristiques de cette solution dans le mécanisme minimale de l’ISS. La possibilité d’expliquer avec succès l'asymétrie baryonique à travers un processus de leptogenèse dans une réalisation testable du mécanisme est aussi adressée.
Il est important de chercher des manifestations des fermions stériles dans les expériences de laboratoire. Nous abordons ce point en faisant des prévisions sur les rapports des branchement attendus pour les désintégrations des bosons vectoriels qui violent le saveur leptonique, qui peuvent être véhiculés par les fermions stériles. Nous étudions aussi l'impact des fermions stériles sur les fits globaux des données de précision électrofaible. / The neutrino mass generation mechanism, the nature of dark matter and the origin of the baryon asymmetry of the Universe are three compelling questions that cannot be accounted for in the Standard Model of particle physics. In this thesis we focus on all these issues by providing a possible solution in terms of a minimal extension of the Standard Model, consisting in the addition of a set of sterile fermions to the field content of the theory. Sterile fermions are gauge singlet fields, that can interact via mixing with the active neutrinos. We focus on the Inverse Seesaw mechanism, which is characterised by a low (TeV or lower) new physics scale and that can be tested in current and future experimental facilities. We present the model building analysis that points towards the minimal realisations of the mechanism, and the phenomenological study in order to accommodate light neutrino masses and to impose all the relevant experimental constraints in the model, as well as the expected experimental signatures. We show the viability of the sterile neutrino hypothesis as dark matter component, together with the characteristic features of this scenario in the minimal Inverse Seesaw mechanism. The possibility of successfully accounting for the baryon asymmetry in a testable realisation of the leptogenesis mechanism is also addressed.On the other side it is important to look for manifestations of sterile fermions in laboratory experiments. We address this point by making predictions for the expected rates of rare lepton number violating decays of vector bosons, that can be mediated by sterile fermions, as well as by studying the impact of sterile fermions on global fit of electroweak precision data.

Page generated in 0.0835 seconds