• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 43
  • 20
  • 1
  • Tagged with
  • 178
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 19
  • 16
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Contribution à la modélisation dynamique, l'identification et la synthèse de lois de commande adaptées aux axes flexibles d'un robot industriel. / Contribution to dynamic modeling, identification and synthesis of control laws for flexible industrial robot.

Oueslati, Marouene 18 December 2013 (has links)
Les robots industriels représentent un moyen de production sophistiqués pour l'industrie manufacturière d'aujourd'hui. Ces manipulateurs sont plus agiles, plus flexibles et moins coûteux que les machines-outils spécialisées. L'exploitation de ces avantages fait l'objet d'une demande croissante de l'industrie. La dynamique de ces manipulateurs est soumise à des nombreuses sources d'imprécision. En effet les défauts de la chaîne de transmission, ou encore les éléments de liaisons peuvent être le siège de déformations et de vibrations dégradant sensiblement leur précision. Ces phénomènes physiques sont d'autant plus difficiles à compenser que seul un sous ensemble des états du système est mesuré par les codeurs moteurs. La structure de commande industrielle actuelle d'un robot n'agit donc pas directement sur ces phénomènes. Il est nécessaire alors de progresser sur le front de l'amélioration de la précision par l'adaptation de la commande à ces nouvelles exigences. Un état de l'art met en évidence un manque de travaux qui traitent de l'élaboration d'anticipations adaptées aux axes d'un robot et intégrant les phénomènes de déformation. En outre, la planification de trajectoire n'est classiquement pas remise en cause et peu évoquée. Elle représente pourtant un moyen d'action éprouvé afin d'améliorer les performances dynamiques en suivi de profil. L'approche proposée dans ce mémoire se veut une alternative à ces méthodes. Elle est basée sur une exploitation d'un modèle dynamique représentatif et détaillé. Il intègre les principaux phénomènes physiques mis en évidence tels que les effets de la gravité, les systèmes mécaniques de compensation, les forces de frottement et la flexibilité articulaire. Cette modélisation associée à des méthodes d'identification expérimentale est exploitée afin de déduire une structure de commande. Elle permet la réduction des déformations élastiques et des vibrations par une action sur la précommande et sur la loi de mouvement adaptée. Ainsi, nous introduisons une méthode d'estimation non asymptotique appliquée en robotique, afin d'estimer rapidement les paramètres vibratoires de ce dernier et contribue à une réactualisation des modèles exploités. Des résultats expérimentaux montrent que cette méthodologie mène à une amélioration des performances de positionnement par rapport à la commande industrielle. / Anthropomorphic robots are widely used in many fields of industry to carry out repetitive tasks such as pick and place, welding, assembling, and so on. Due to their flexibility and ability to perform complex tasks in a large workspace, industrial robots are finding their way to realize continuous operations. Then, high level pose accuracy is required to achieve a good path tracking. Unfortunately these systems were designed to have a good repeatability but not a good accuracy. The dynamics of these manipulators is subject to many sources of inaccuracy. Indeed, friction, kinematic errors and joint flexibilities may be the seat of deformation and vibration which degrade the position performance. These physical phenomena are even more difficult to manage even only a subset of states of the system is measured by motor encoders. Hence, the structure of current industrial control does not act directly on these phenomena. Nevertheless, there is a growing interest from industry for an improved path tracking accuracy with standard robots controllers. A state of the art highlights a lack of works considering the development of expectations adapted to the axes of an industrial robot and incorporating deformation phenomena. The approach proposed in this PhD. Thesis is meant to be an alternative to such techniques by proposing a methodology based on exploitation of detailed physical modeling and associated to experimental identification methods. This model incorporates the main highlighted physical phenomena. It is then exploited to obtain adapted control structures and tuning methods allowing enhancing the system's performance. It is integrated in our trajectory planner in order to realize a compensation scheme of joint errors. Thus, we introduce a new non-asymptotic estimation method applied in robotics, to on-line estimate the vibration parameters and to update operated models. Experimental results show that the proposed methodology leads to an improved motion control of the point-tool.
102

Mesure de cylindricité de très haute exactitude.Développement d’une nouvelle machine de référence / Very high accurate cylindricity inspection

Vissiere, Alain 13 December 2013 (has links)
Le Laboratoire Commun de Métrologie LNE-CNAM (LCM) souhaite affiner sa maîtrise des références de pression afin de réaliser des appareillages de tout premier rang au niveau international. L'incertitude relative visée sur les références de pression est de l'ordre de 10-6. Cet objectif se traduit par une problématique de métrologie dimensionnelle où une mesure de la forme des pistons/cylindres utilisés dans les balances manométriques doit être menée. La mesure de cylindricité est également impliquée dans un très grand nombre d'applications industrielles comme la qualification d'étalons de référence destinés à la qualification d'appareillages de mesure. Notre travail de recherche, réalisé dans le cadre d'une convention CIFRE avec la SAS GEOMNIA, concerne la réalisation d'un instrument de référence de très haute précision permettant la mesure de forme de cylindres creux ou pleins. Nous proposons un saut technologique pour satisfaire un niveau d'incertitude sur la mesure de l'écart de cylindricité de l'ordre de 10 nanomètres dans un volume de mesure cylindrique de Ø350 mm et de hauteur 150 mm. La mesure de forme est habituellement pratiquée en déplaçant un capteur par rapport à la surface à mesurer par un guidage de haute précision. Il n'est cependant pas possible de réaliser un guidage entre deux solides d'un niveau de précision permettant de garantir les incertitudes souhaitées, même en utilisant les techniques de correction d'erreurs dont la précision est limitée par le défaut de répétabilité des guidages. Pour satisfaire à ce niveau d'incertitude, nous proposons une démarche basée sur le concept de structure métrologique dissociée. La mesure d'une pièce consiste alors à comparer sa forme à celle d'une pièce cylindrique de référence. Cette dernière doit seulement présenter une stabilité de forme parfaite. La cartographie d'écart de forme de la référence cylindrique doit cependant être identifiée au même niveau d'incertitude visé.Le travail de recherche développé propose une analyse détaillée des machines actuelles et de leurs limitations. Suite à cette analyse, une architecture de machine a été proposée pour lever ces limitations. Cette architecture tient compte des écarts « secondaires » liés à la position des capteurs et des effets de second ordre, pour satisfaire le niveau de précision visé. Une procédure complète d'étalonnage de la machine a été élaborée en s'inspirant des méthodes de séparation d'erreurs. Cette procédure originale permet de séparer les défauts de forme du cylindre de référence de ceux d'une pièce de qualification cylindrique mesurée simultanément. La méthode employée ne présente pas de limitations en termes d'exactitude. Cette procédure a été expérimentalement validée. Une analyse des effets liés à la mesure de surfaces cylindriques par des capteurs capacitifs a été menée. Ces essais ont conduit au développement de stratégies d'étalonnage de ces capteurs in situ utilisant des interféromètres à laser intégrés dans la machine. La traçabilité métrologique des résultats des mesures est ainsi garantie. Deux bancs de tests ont été développés pour caractériser les diverses influences et valider les procédures d'étalonnage des capteurs. La conception détaillée de l'instrument est issue de la synthèse des réflexions menées sur l'architecture, sur l'étalonnage et sur la maîtrise de la mesure de déplacements par capteurs capacitifs. Ce travail a abouti à la réalisation de ce nouvel instrument de référence ; sa conception, son montage et son réglage sont présentés. / The “Laboratoire Commun de Métrologie LNE-CNAM (LCM)” seeks to improve the measurement of primary pressure standards done using pressure balances, to an order of 10-6 relative uncertainty. Therefore, it is appropriate to back-up these pressure balances with a measurement of the topology of the piston-cylinder devices used on these balances. Cylindricity measurement is also found in many industrial applications such as the measurement of standards used for the calibration of measuring machines. This research project, conducted in collaboration with SAS GEOMNIA under a CIFRE agreement, has a main objet to develop a new ultra-high precision machine for cylinders form measurement. We pushes with this project the leading edge of the cylinders form measurement area; we propose indeed a technological leap which leads to reduce the uncertainty associated to cylindricity errors up to 10 nm in a cylindrical working volume of 350 mm diameter rand 150 mm height. Form measurement is usually done using a measurement probe moved about the surface to be measured with high precision guiding systems. Nonetheless, these guiding systems are not precise enough to offer the low uncertainty required even when error correction techniques are used. This is because the precision of the guides is limited by their low repeatability. To meet this uncertainty level, we propose an approach based on the “dissociated metrological structure” concept. The measurement consists of comparing the artifact's form with the form of a cylindrical reference which should have perfect form stability. However, the mapping form deviation of this cylindrical reference needs to be identified at the same level of uncertainty referred.The present work exposes a detailed analysis of the existing measuring machines and their limitations. Consequently, an optimized machine architecture is proposed in order to overcome the present limitations. The proposed machine architecture takes into account the "secondary" error terms relative to the probes positions and second order effects in order to satisfy the level of accuracy sought. A complete calibration procedure of the machine has been elaborated based on the error separation methods; it allows the separation of the form errors of each of the reference cylinder and a qualification cylindrical part simultaneously measured. This procedure does not present any accuracy limitations and has been experimentally verified. An analysis of the effects related to the measurement of cylindrical artifacts using capacitive sensors has also been investigated. These experiments have led to the development of in-situ calibration strategies using laser interferometers integrated in the machine. Thus, the metrological traceability of the measurements is guaranteed. Two test benches have been developed to characterize the error sources that influence the measurement and to validate the calibration procedures of the probes used. The detailed design of the instrument synthesizes all the conceptual thoughts about the architecture, the calibration and the displacement measurement of the capacitive probes. This work has resulted in the development of this new reference instrument; its design, installation and adjustment are detailed.
103

Caractérisation de détecteurs à plaques résistives de verres de basse résistivité en vue de la mise à niveau de CMS / Characterisation of low resistivity glass resistive plate chambers for the CMS upgrade

Lagarde, François 20 October 2017 (has links)
La mise à niveau du détecteur CMS (Upgrade Phase-2) en 2024 prévoit l'installation de nouveaux détecteurs à plaques résistives (RPC) dans les 2 secteurs les plus externes et les plus vers l’avant (RE3/1 et RE4/1) des bouchons. Des RPC en verre de basse résistivité (GRPC) ont été proposées afin d'instrumenter ces secteurs où le flux de particules sera de l’ordre du kHz/cm², valeurs pour lesquelles les RPC actuelles de CMS ne sont pas efficaces. Cette thèse porte sur l'étude et la caractérisation de ces GRPC, de leur électronique de lecture associée et de leur résistance aux irradiations. Deux méthodes de production de chambres de taille moitié des chambres finales à partir de pavages de verres de taille maximale 32*30cm² ont été élaborées et testées. Un nouveau circuit électronique (PCB) à bandes de détection non segmentées en êta et lues par des puces dédiées (PETIROC2A) est également présenté. Il permet grâce à des chronomètres numériques (TDC) de 25 picosecondes de résolution, une précision de l'ordre du centimètre sur la mesure de la position du passage des particules le long des bandes. Cette thèse décrit ces nouveaux dispositifs et présente les résultats obtenus avec ceux-ci lors de tests en faisceaux auprès des accélérateurs PS et SPS du CERN ainsi qu'au Gamma Irradiation Facility (GIF++). Cette étude montre que le verre de basse résistivité, bien que supportant les flux de particules, n'est pas la meilleure solution pour l'environnement de CMS car il nécessite un mélange gazeux différent pour fonctionner. Cependant, la nouvelle électronique a prouvé son adéquation à cet environnement et est maintenant considérée comme l'option privilégiée pour la mise à niveau de CMS / The installation of new resistive plate chamber detectors (RPCs) in the 2 most remote sectors (RE3 / 1 and RE4 / 1) of the CMS End-Caps is planned during the Phase-2 CMS upgrade in 2024. Glass Resistive Plate Chambers (GRPC) with low resistivity glass as electrodes have been proposed to equip these sectors. These detectors should sustain these zones' particle rate. The aim of this Thesis is to study and characterise these detectors, their associated readout electronics and their behaviour under radiations.Two ways of building half size chambers by tesselation of glass plates with maximal size 32*30cm² have been developped. A new PCB with strips readout read by dedicated ASICs (PETIROC2A) without eta segmentation is also described. It allows, thanks to a 25 ns time-resolution TDC to estimate the particle crossing position on the strip with a resolution of the order of cm. This manuscript describes all these devices and discusses the devices' performance measured in beam tests done at the CERN PS and SPS accelerator and at the Gamma Irradiation Facility (GIF++). This study shows that the low resistivity glass, though able to sustain the particule rate, is not the best option for the CMS upgrade. On the contrary, the tested electronic has been proven to fit the CMS upgrade requirements and is now considered as the baseline of the CMS End-Caps RPC upgrade project
104

Validation, optimisation et valorisation de la mesure d'orientation issue de centrales inertielles pour la biomécanique clinique / Validation, optimization and exploitation of orientation measurements issued from inertial systems for clinical biomechanics

Lebel, Karina January 2017 (has links)
Les centrales inertielles (triade de capteurs inertiels dont la fusion des données permet l’estimation de l’orientation d’un corps rigide) sont de plus en plus populaires en biomécanique. Toutefois, les qualités métrologiques des centrales inertielles (CI) sont peu documentées et leur capacité à identifier des incapacités liées à la mobilité, sous-évaluée. Objectifs : (i) Caractériser la validité de la mesure d’orientation issue de CI ; (ii) Optimiser la justesse et la fidélité de ces mesures; et (iii) Proposer des métriques de mobilité basées sur les mesures d’orientation issues de CI. Méthodologie et résultats : La validité de la mesure d’orientation de différents types de CI a d’abord été évaluée en conditions contrôlées, à l’aide d’une table motorisée et d’une mesure étalon. Il a ainsi été démontré que les mesures d’orientation issues de CI ont une justesse acceptable lors de mouvements lents (justesse moyenne ≤ 3.1º), mais que cette justesse se dégrade avec l’augmentation de la vitesse de rotation. Afin d’évaluer l’impact de ces constatations en contexte clinique d’évaluation de la mobilité, 20 participants ont porté un vêtement incorporant 17 CI lors de la réalisation de diverses tâches de mobilité (transferts assis-debout, marche, retournements). La comparaison des mesures des CI avec celles d’un système étalon a permis de dresser un portrait descriptif des variations de justesse selon la tâche exécutée et le segment/l’articulation mesuré. À partir de ces constats, l’optimisation de la mesure d’orientation issue de CI est abordée d’un point de vue utilisateur, démontrant le potentiel d’un réseau de neurones artificiel comme outil de rétroaction autonome de la qualité de la mesure d’orientation (sensibilité et spécificité ≥ 83%). Afin d’améliorer la robustesse des mesures de cinématique articulaire aux variations environnementales, l’ajout d’une photo et d’un algorithme d’estimation de pose tridimensionnelle est proposé. Lors d’essais de marche (n=60), la justesse moyenne de l’orientation à la cheville a ainsi été améliorée de 6.7° à 2.8º. Finalement, la caractérisation de la signature de la cinématique tête-tronc pendant une tâche de retournement (variables : angle maximal tête-tronc, amplitude des commandes neuromusculaires) a démontré un bon pouvoir discriminant auprès de participants âgés sains (n=15) et de patients atteints de Parkinson (PD, n=15). Ces métriques ont également démontré une bonne sensibilité au changement, permettant l’identification des différents états de médication des participants PD. Conclusion : Les mesures d’orientation issues de CI ont leur place pour l’évaluation de la mobilité. Toutefois, la portée clinique réelle de ce type de système ne sera atteinte que lorsqu’il sera intégré et validé à même un outil de mesure clinique. / Abstract : Inertial measurement of motion is emerging as an alternative to 3D motion capture systems in biomechanics. Inertial measurement units (IMUs) are composed of accelerometers, gyroscopes and magnetometers which data are fed into a fusion algorithm to determine the orientation of a rigid body in a global reference frame. Although IMUs offer advantages over traditional methods of motion capture, the value of their orientation measurement for biomechanics is not well documented. Objectives: (i) To characterize the validity of the orientation measurement issued from IMUs; (ii) To optimize the validity and the reliability of these measurements; and (iii) To propose mobility metrics based on the orientation measurement obtained from IMUs. Methods and results: The criterion of validity of multiple types of IMUs was characterized using a controlled bench test and a gold standard. Accuracy of orientation measurement was shown to be acceptable under slow conditions of motion (mean accuracy ≤ 3.1º), but it was also demonstrated that an increase in velocity worsens accuracy. The impact of those findings on clinical mobility evaluation was then assessed in the lab, with 20 participants wearing an inertial suit while performing typical mobility tasks (standing-up, walking, turning). Comparison of the assessed IMUs orientation measurements with those from an optical gold standard allowed to capture a portrait of the variation in accuracy across tasks, segments and joints. The optimization process was then approached from a user perspective, first demonstrating the capability of an artificial neural network to autonomously assess the quality of orientation data sequences (sensitivity and specificity ≥ 83%). The issue of joint orientation accuracy in magnetically perturbed environment was also specifically addressed, demonstrating the ability of a 2D photograph coupled with a 3D pose estimation algorithm to improve mean ankle orientation accuracy from 6.7° to 2.8º when walking (n=60 trials). Finally, characterization of the turn cranio-caudal kinematics signature (variables: maximum head to trunk angle and neuromuscular commands amplitude) has demonstrated a good ability to discriminate between healthy older adults (n=15) and early stages of Parkinson’s disease patients (PD, n=15). Metrics have also shown a good sensitivity to change, enabling to detect changes in PD medication states. Conclusion: IMUs offer a complementary solution for mobility assessment in clinical biomechanics. However, the full potential of this technology will only be reached when IMUs will be integrated and validated within a clinical tool.
105

Quelques contributions à l'estimation de grandes matrices de précision / Some contributions to large precision matrix estimation

Balmand, Samuel 27 June 2016 (has links)
Sous l'hypothèse gaussienne, la relation entre indépendance conditionnelle et parcimonie permet de justifier la construction d'estimateurs de l'inverse de la matrice de covariance -- également appelée matrice de précision -- à partir d'approches régularisées. Cette thèse, motivée à l'origine par la problématique de classification d'images, vise à développer une méthode d'estimation de la matrice de précision en grande dimension, lorsque le nombre $n$ d'observations est petit devant la dimension $p$ du modèle. Notre approche repose essentiellement sur les liens qu'entretiennent la matrice de précision et le modèle de régression linéaire. Elle consiste à estimer la matrice de précision en deux temps. Les éléments non diagonaux sont tout d'abord estimés en considérant $p$ problèmes de minimisation du type racine carrée des moindres carrés pénalisés par la norme $ell_1$.Les éléments diagonaux sont ensuite obtenus à partir du résultat de l'étape précédente, par analyse résiduelle ou maximum de vraisemblance. Nous comparons ces différents estimateurs des termes diagonaux en fonction de leur risque d'estimation. De plus, nous proposons un nouvel estimateur, conçu de sorte à tenir compte de la possible contamination des données par des {em outliers}, grâce à l'ajout d'un terme de régularisation en norme mixte $ell_2/ell_1$. L'analyse non-asymptotique de la convergence de notre estimateur souligne la pertinence de notre méthode / Under the Gaussian assumption, the relationship between conditional independence and sparsity allows to justify the construction of estimators of the inverse of the covariance matrix -- also called precision matrix -- from regularized approaches. This thesis, originally motivated by the problem of image classification, aims at developing a method to estimate the precision matrix in high dimension, that is when the sample size $n$ is small compared to the dimension $p$ of the model. Our approach relies basically on the connection of the precision matrix to the linear regression model. It consists of estimating the precision matrix in two steps. The off-diagonal elements are first estimated by solving $p$ minimization problems of the type $ell_1$-penalized square-root of least-squares. The diagonal entries are then obtained from the result of the previous step, by residual analysis of likelihood maximization. This various estimators of the diagonal entries are compared in terms of estimation risk. Moreover, we propose a new estimator, designed to consider the possible contamination of data by outliers, thanks to the addition of a $ell_2/ell_1$ mixed norm regularization term. The nonasymptotic analysis of the consistency of our estimator points out the relevance of our method
106

Optimisation du guidage tri-dimensionel en radiologie interventionnelle / Three-dimensional image guidance optimization in interventional radiology

Tacher, Vania 15 December 2017 (has links)
L’optimisation du guidage en radiologie interventionnelle implique de simplifier les gestes, d’améliorer la qualité d’images et leur précision tout en réduisant l’exposition aux rayons X du personnel soignants et des patients et l’usage du produit de contraste iodé, néphrotoxique. Elle implique un travail sur chacune des quatre étapes fondamentales de chaque intervention que sont : « voir », « atteindre », « intervenir » et « contrôler » le succès de l’intervention et l’absence de complication.L’étape « voir » la cible a fait l’objet de 3 études : la première, animale, portait sur l’amélioration de la qualité d’images de cone-beam computed tomography (CBCT) et la seconde, clinique, sur la précision de la segmentation des tumeurs hépatiques mise en évidence sur les images de CBCT lors de chimioembolisations (CHE). Et enfin, la troisième, clinique, sur le repérage des artères épigastriques inférieures profondes en réalité augmentée avant lambeau.L’étape « atteindre » la cible a fait l’objet de 5 études. Deux études ont validé la précision du ciblage des tumeurs hépatiques lors des CHE utilisant des logiciels de détection automatique des artères nourricières et de perfusion virtuelle du territoire tumoral à traiter sur les images de CBCT lors de CHE. Trois autres études portaient sur les cartographies 3D par la technique de fusion d’images 3D projetées sur la fluoroscopie 2D. Les deux premières premières ont montré que l’usage de la fusion d’images lors des traitements endovasculaires des anévrismes complexes de l’aorte abdominale utilisant les images d’angioscanner ou d’angioIRM préopératoires permettant de réduire voire de s’affranchir de l’usage de produit de contraste iodé dans la prise en charge de ces pathologies. Le développement de la fusion d’images notamment lors du placement de shunt porto-systémique trans-hépatique par voie trans-jugulaire a permis de faciliter ces interventions tout en limitant l’usage des rayons X dans une troisième étude.La troisième étape « interventir » a fait l’objet de trois études. Une étude, fantôme, a montré la possibilité d’obternir une imagerie sélective et quantitative des structures iodées par l’imagerie spectrale des microsphères chargées d’huile iodée. Une seconde étude préclinique animale a attesté la radioopacité de ces mêmes microsphères chargées lorsqu’elles s’accumulent dans les capillaires ou néovaisseaux et sont le reflet de la nécessité de combiner une recherche commune sur le couple imagerie/matériel. Et enfin l’étude sur la rentabilité des biospies des tumeurs guidées par l’image qui a permis de mettre fin à des dogmes.La quatrième étape « contrôler » le succès des traitements comprend deux études. La première, est une revue de la littérature et a permis de proposer une standardisation de l’usage du CBCT lors des CHE et la seconde a évalué différents facteurs prédicteurs de réponse tumorale en IRM après CHE avec un intérêt particulier porté sur l’usage de nouveaux critères d’analyse 3D (vRECIST et qEASL).Le guidage en radiologie et notamment par le CBCT est encore confronté à la limitation majeure qu’est d’utiliser des rayons X et des produits de contraste iodé mais également à un champ de vue limité et à une qualité d’images sensibles aux artéfacts. D’ou le développement d’autre moyen de guidage comme l’IRM, éléctromagnétisme, fibroptique ou encore la réalité augmentée. Ces derniers éléments font partis de projets de recherche en cours ou à venir. / Optimizing image guidance in interventional radiology involves simplifying procedures, improving image quality and accuracy while reducing X-rays exposure, and the use of iodinated contrast media, which is nephrotoxic. It involves to improve each of the four fundamental steps of each intervention: "see", "reach", "intervene" and "control" the success of the intervention and the absence of complication.To "see" the target was the subject of 3 studies: the first study, was an animal study focused on improving the quality of images of cone-beam computed tomography (CBCT). The second study was a clinical study about the precision of the tumor segmentation of on CBCT images during chemoembolization (TACE). And finally, the third study was a clinical study and described the identification of the lower deep epigastric arteries in augmented reality before flap.To "reach" the target was the subject of 5 studies. Two studies investigated the accuracy of hepatic tumor targeting in TACE using automatic feeding detection and virtual tumor perfusion software on CBCT images. Three other studies were focused on 3D roadmap using the image fusion technique overlaid onto 2D fluoroscopy. The two first studies were about endovascular treatments of complex abdominal aortic aneurysms using images fusion based on angiography of computed tomography or IRM to reduce or even eliminate the use of iodinated contrast agent in the management of such disease. The development of image fusion, particularly during trans-hepatic porto-systemic shunt placement, was shown to facilitate these interventions while limiting the use of X-rays published in to a thrid study.To "intervene" step included three studies. A phantom study showed that spectral imaging displayed selective and quantitative images of iodine content of iodine-loaded microspheres. A preclinical study demonstrated their visibility on x-ray based imaging when they accumulated in capillaries or neovessels and reflected the need to combine a common search for the couple imaging / biomaterials. And finally the study on the rentability of the image guided biospies of tumors which allowed to end dogmas.To "control" the success of treatments included two studies. The first study is a review of the literature and allowed a standardization of the use of the CBCT during the TACE and the second evaluated the factors predictors of tumor response on MRI images after TACE by the use of new 3D criteria. Image guidance with the use of CBCT, is still confronted with the major limitation of the use of X-rays and iodinated contrast media, but also to a limited field of view and a sentitive images quality to artefacts. Hence the development of other image guidance types such as MRI, electromagnetism, fibroptic or augmented reality are on its way. These last elements are part of a research projects in progress or to come.
107

Contribution de l’imagerie dronique pour la caractérisation des paramètres biophysiques des cultures agricoles

Khun, Kosal 05 1900 (has links)
Grâce aux technologies de l’information et aux systèmes de positionnement par satellites (GNSS), l’agriculture de précision raffine l’échelle d’observation et d’intervention, du champ à la plante individuelle. La télédétection, notamment à travers les images satellitaires, a également permis de surveiller l’évolution de la culture, avec une fréquence temporelle et une résolution spatiale accrues. La vigueur de la culture est un paramètre crucial de la fertilisation, permettant d’optimiser l’apport en intrants et de générer des retombées économiques et environnementales. Plusieurs manières d’estimer la vigueur sont possibles. Pour une culture en rangs comme le maïs (Zea Mays L.), nous avons privilégié la biomasse qui servira de proxy à la vigueur. Notre étude s’appuie sur l’hypothèse que l’avènement des drones agricoles ouvrira la voie à une meilleure estimation de la vigueur. Nous supposons que la flexibilité de la plateforme combinée avec la très haute résolution spatiale (THRS) des images droniques permettra un suivi plus précis de l’évolution de la vigueur, tant dans l’espace que dans le temps – conditions critiques pour le déploiement de l’agriculture de précision. Les recherches des 15 dernières années s’appuient sur le drone pour collecter des images THRS, dont le traitement fait appel principalement à la méthode des indices de végétation, tel le NDVI. Plusieurs questions se posent : – Le recours au NDVI est-il la manière la plus efficiente d’exploiter la THRS des images droniques ? Si non, comment exploiter autrement et mieux cette imagerie ? – Attendu les contraintes de temps, la quantité de données et les impératifs logistiques, la méthode de traitement adoptée sera-t-elle suffisamment robuste ? Les concepts utilisés seront-ils simples et compréhensibles pour obtenir l’adhésion des utilisateurs finaux, c’est-à-dire les agriculteurs ? – Les capteurs à bord des drones pouvant être orientés assez librement, quels sont les effets des angles de visée sur les résultats ? D’abord, nous avons évalué la pertinence de l’approche classique, consistant à utiliser l’indice NDVI pour déterminer les paramètres de la culture. Pour cela, la plateforme dronique est comparée avec le capteur de proximité GreenSeeker. Il en découle que le drone se montre moins performant que le GreenSeeker pour l’estimation de la biomasse du maïs. Nous avons ainsi délaissé l’approche classique et opté pour un indicateur de surface apparente, extrait à l’aide des techniques de vision par ordinateur appliquées à des images RGB. Cette méthode tire profit de la THRS offerte par l’imagerie dronique et produit un proxy robuste de la biomasse, au niveau surfacique (par mètre carré) et linéaire (par rang). Nous avons aussi constaté que les résultats n’étaient pas affectés par les angles d’acquisition des images (au nadir et obliques). Partant, cette recherche ouvre la perspective à des applications de la dronautique en agriculture de précision, pour l’estimation de la vigueur et d’autres paramètres fondamentaux entrant dans les algorithmes d’optimisation des intrants. Elle offre également la possibilité d’imaginer des plateformes non-droniques pour l’acquisition des images THRS dans le contexte de la fertilisation. / Thanks to information technologies and GNSS (Global Navigation Satellite System), precision agriculture is refining the scale of observation and intervention, from the field to the individual plant. Remote sensing, in particular through satellite imagery, has also made it possible to monitor the crop dynamics, with increasing time frequency and spatial resolution. Crop vigor is a crucial parameter allowing the optimization of inputs, and consequently economic and environmental benefits. Several ways to estimate crop vigor are possible. For a row crop such as corn (Zea Mays L.), aboveground biomass has been favored and will serve as a proxy for vigor. Our study is based on the hypothesis that the recent advent of agricultural UAVs (Unmanned Aerial Vehicles) will pave the way for a better estimation of crop vigor. We assume that the flexibility of the UAV combined with the very high spatial resolution of their images will allow a more accurate monitoring of crop vigor, both in space and time – conditions which are critical for the deployment of precision agriculture. Research over the past 15 years has relied on the UAV to collect images of very high spatial resolution. However, the processing of those images is mainly based on vegetation indices, especially the NDVI. Several questions arise from the above observations: – Is the use of NDVI the most efficient way to exploit the spatial resolution of UAV images? If not, is there a better way to exploit this imagery? – How to respond to time and logistical constraints in the image processing so that it is ultimately adopted by farmers? – Since UAV-borne sensors can be oriented quite freely, what are the effects of the acquisition angles on the results? First, we assessed the relevance of the traditional approach which uses the NDVI index to determine crop parameters. To do that, we compared the UAV platform with the GreenSeeker proximal sensor. The results showed that the UAV is less efficient than the GreenSeeker in estimating corn biomass. We thus moved away from the traditional approach and opted for a method extracting the apparent leaf area, through computer vision techniques applied to RGB images. This method took advantage of the very high spatial resolution offered by UAV images and produced a robust proxy for corn biomass, at the surface (per square meter) and row levels. We also found that the results were not affected by the acquisition angles of the images (nadir and oblique). Therefore, this research opens the perspective to UAV applications in precision agriculture, for the estimation of vigor and other fundamental parameters used in input optimization algorithms. It also offers the possibility to imagine non-UAV based platforms for the acquisition of very high resolution images in the context of fertilization.
108

Randomized Clinical Trials in Oncology with Rare Diseases or Rare Biomarker-based Subtypes / Essais cliniques randomisés en oncologie dans les maladies rares ou en présence de sous-types rares identifiés par biomarqueurs

Bayar, Mohamed Amine 29 November 2019 (has links)
Le design standard des essais randomisés de phase III suppose le recrutement d'un grand nombre de patients pour assurer un risque α de 0.025 unilatéral et une puissance d'au moins 80%. Ceci s'avérer difficile dans les maladies rares, ou encore si le traitement cible une population spécifique définie par un sous-type moléculaire rare. Nous avons évalué par simulation la performance d'une série d'essais randomisés. Au terme de chaque essai, s'il est associé à une amélioration significative, le traitement expérimental devient le contrôle de l'essai suivant. Les designs ont été évalués pour différents taux de recrutement, différentes sévérités de la maladie, et différentes distributions hypothétiques des effets d'un futur traitement. Nous avons montré, que sous des hypothèses raisonnables, une série d'essais de plus petite taille et avec un risque α relâché est associée à un plus grand bénéfice à long terme que deux essais de design standard. Nous avons enrichi cette approche avec des designs plus flexibles incluant des analyses intermédiaires d'efficacité et/ou futilité, et des designs adaptatifs à trois bras avec sélection de traitement. Nous avons montré qu'une analyse intermédiaire avec une règle d'arrêt pour futilité était associé à un gain supplémentaire et à une meilleure maitrise du risque, contrairement aux règles d'arrêt pour efficacité qui ne permettent pas d'améliorer la performance. Les séries d'essais à trois bras sont systématiquement plus performants que les séries d'essais à deux bras. Dans la troisième de la thèse, nous avons étudié les essais randomisés évaluant un algorithme de traitement plutôt que l'efficacité d'un seul traitement. Le traitement expérimental est déterminé selon la mutation. Nous avons comparé deux méthodes basées sur le modèles de Cox à effets aléatoires pour l'estimation de l'effet traitement dans chaque mutation : Maximum Integrated Partial Likellihood (MIPL) en utilisant le package coxme et Maximum H-Likelihood (MHL) en utilisant le package frailtyHL. La performance de la méthode MIPL est légèrement meilleure. En présence d'un effet traitement hétérogène, les deux méthodes sousestime l'effet dans les mutations avec un large effet, et le surestime dans les mutations avec un modeste effet. / Large sample sizes are required in randomized trials designed to meet typical one-sided α-level of 0.025 and at least 80% power. This may be unachievable in a reasonable time frame even with international collaborations. It is either because the medical condition is rare, or because the trial focuses on an uncommon subset of patients with a rare molecular subtype where the treatment tested is deemed relevant. We simulated a series of two-arm superiority trials over a long research horizon (15 years). Within the series of trials, the treatment selected after each trial becomes the control treatment of the next one. Different disease severities, accrual rates, and hypotheses of how treatments improve over time were considered. We showed that compared with two larger trials with the typical one-sided α-level of 0.025, performing a series of small trials with relaxed α-levels leads on average to larger survival benefits over a long research horizon, but also to higher risk of selecting a worse treatment at the end of the research period. We then extended this framework with more 'flexible' designs including interim analyses for futility and/or efficacy, and three-arm adaptive designs with treatment selection at interim. We showed that including an interim analysis with a futility rule is associated with an additional survival gain and a better risk control as compared to series with no interim analysis. Including an interim analysis for efficacy yields almost no additional gain. Series based on three-arm trials are associated with a systematic improvement of the survival gain and the risk control as compared to series of two-arm trials. In the third part of the thesis, we examined the issue of randomized trials evaluating a treatment algorithm instead of a single drugs' efficacy. The treatment in the experimental group depends on the mutation, unlike the control group. We evaluated two methods based on the Cox frailty model to estimate the treatment effect in each mutation: Maximum Integrated Partial Likellihood (MIPL) using package coxme and Maximum H-Likelihood (MHL) using package frailtyHL. MIPL method performs slightly better. In presence of a heterogeneous treatment effect, the two methods underestimate the treatment effect in mutations where the treatment effect is large, and overestimates the treatment effect in mutations where the treatment effect is small.
109

Imagerie radar en ondes millimétriques appliquée à la viticulture / Millimeter-wave radar imagery for viticulture application

Henry, Dominique 29 May 2018 (has links)
Avec l’expansion des exploitations agricoles, le principe d’homogénéité du rendement (céréales, fruits…) devient de moins en moins pertinent. Ce phénomène de variabilité spatiale implique des conséquences économiques et environnementales avec le développement de nouveaux concepts agricoles comme les « site-specific management » (gestion spécifique des parcelles). Les traitements tels que les fertilisants, les intrants et autres pesticides doivent être utilisés de manière différente en les appliquant au bon endroit, à la bonne période et au bon taux. Cette nouvelle façon de penser l’agriculture fait partie de l’agriculture de précision (PA) et se concentre en quatre domaines technologiques : (i) la télédétection, (ii) la navigation et guidage, (iii) la gestion des données et (iv) les technologies à taux variable. Initiée à la fin des années 1990, la viticulture de précision (PV) est une branche particulière de la PA, caractérisée par des problématiques spécifiques à la viticulture. Les travaux effectués durant cette thèse entrent dans le cadre de la télédétection (ou détection proche) appliquée à la PV. Ils se focalisent sur une nouvelle méthode d’estimation de la quantité de grappes (masse ou volume) directement sur les plants de vignes. Pouvoir estimer le rendement des vignes plusieurs semaines avant la récolte offre de nombreux avantages avec des impacts économiques et qualitatifs, avec par exemple : (i) l’amélioration du rapport rendement/qualité en supprimant au plut tôt une partie de la récolte, (ii) l’optimisation des ressources humaines et la logistique à la récolte, (iii) un remboursement le plus équitable par les assurances en cas d’intempéries qui endommageraient les pieds de vignes. La méthode proposée ici repose sur l’imagerie microondes (à 24GHz ou des fréquences plus élevées) générée par un radar FM-CW. Elle implique la mise en place d’un système d’interrogation intra-parcellaire « pied par pied » à distance basé au sol, et en particulier : (i) l’évaluation de la précision des mesures et les limites du système, (ii) le développement d’algorithmes spécifiques pour l’analyse de données tridimensionnelles, (iii) la construction d’estimateurs pour retrouver le volume des grappes, et finalement (iv) l’analyse des données recueillies pendant les campagnes de mesures. Dû au caractère saisonnier des récoltes, les mesures sont en premier lieu effectuées sur des cibles canoniques, des charges variables et des capteurs passifs en laboratoire. Pour mettre en avant la flexibilité de cette interrogation radar, le même système est utilisé en parallèlement dans le cadre du projet régional PRESTIGE, pour compter à distance le nombre de pommes présentes sur les pommiers en verger. Ces travaux ont été financés par l’entreprise Ovalie-Innovation et l’ANRT (Agence Nationale de la Recherche Technologique). / With the expansion of farm operations, the principle of homogeneity of crop yields (cereals, fruits …) becomes less and less relevant. This observation of spatial variabilities implies economic and environmental consequences with the development of new arrangements of agricultural works such as “site-specific management”. Treatments such as fertilizers, nutrients and pesticides must be used differently by applying them at the right time, right place and right rate. This new way to think the agriculture is called precision agriculture (PA) and gathers four technological fields: (i) remote sensing, (ii) navigation and guidance, (iii) data management and (iv) variable-rate technologies. Precision viticulture (PV) is an application of PA which was initiated in the late 90’s and is characterized by issues specific to viticulture. Work carried out during this thesis is a direct application of remote sensing (or proximal sensing) applied to PV. It focuses on a new method of remote sensing of grapes quantity (mass or volume) directly on vine plants. Estimating the quantity of grapes several weeks before harvesting offers many advantages with qualitative and economic impacts such as: (i) improving the yield / quality ratio with an early removal of a part of the harvest, (ii) optimizing human resources and equipment during the grape harvest, and (iii) be fairly compensated by insurances in case of severe weather conditions that damaged the vine plants. The method proposed here relies on microwave imagery (24 GHz and higher) generated by a FM-CW radar. It implies the set-up of ground-based remote reading system for a plant-byplant intra-parcel analysis and particularly: (i) evaluating the measurement accuracy, precision and limits of the system, (ii) developing specific algorithms in order to analyze three-dimensional volume data, (iii) building statistical estimators for retrieving the volume of grapes and finally (iv) analyzing data acquired during field measurements. Because of the seasonality of the grape harvest, measurements are firstly performed on canonic targets, variable loads and passive sensors in laboratory. To enlighten the flexibility of the radar interrogation technique, the same system is also used as part of the regional project PRESTIGE to remotely count the number of apples on trees in orchards. This work has been funding by the company Ovalie-Innovation and the ANRT (Agence Nationale de la Recherche Technologique).
110

Vers la personnalisation des services préventifs en cancer du sein : la perspective des professionnel.les de la santé au Canada

Blouin Bougie, Jolyane 21 February 2024 (has links)
Le cancer du sein est le cancer le plus fréquent chez les femmes au Canada et dans le monde. Autant les programmes de dépistage que les services cliniques réguliers et d'oncogénétique actuellement en place excluent des femmes qui pourraient bénéficier d'interventions préventives en matière de cancer du sein. Or, que la solution soit d'améliorer l'accès et les services offerts ou de proposer des alternatives, comme une approche de stratification du risque, le risque de cancer du sein devra être évalué et communiqué aux femmes pour recommander des moyens de gestion du risque appropriés à leur niveau de risque. Pour étudier ce problème, cette recherche propose d'abord un cadre conceptuel sur le conseil génétique pour le cancer du sein et de ses déterminants. Appuyée par le cadre théorique de la chaîne de valeur des connaissances, la méthode de la scoping review permet de faire un état des connaissances sur les pratiques des professionnel·les de la santé et de conceptualiser le conseil génétique en cancer du sein sous forme de processus comprenant quatre activités (l'évaluation, l'investigation, la communication et la décision), influencé par trois catégories de facteurs liées aux professionnel·les de la santé, aux patientes et à l'environnement. Deuxièmement, cette recherche explore les perceptions de professionnel·les de la santé vis-à-vis la mise en place d'une approche de stratification du risque pour le cancer du sein. Des entrevues semi-structurées, articulées autour des grandes activités du cadre conceptuel développé, ont été réalisées avec des professionnel·les de la santé du Québec. Les 11 thèmes identifiés et intégrés dans un modèle logique distinguent : les participantes potentiellement éligibles (qui?), les activités cliniques (comment?) et les outils associés (quoi?), les facteurs d'acceptabilité (lesquels?) et les effets attendus (pourquoi?). Plusieurs éléments doivent être clarifiés selon les professionnel·les interrogé·es, mais la plupart accueilleraient favorablement la mise en œuvre de cette approche. Finalement, cette recherche distingue les conditions nécessaires et suffisantes à l'adoption des modèles de prédiction du risque pour le cancer du sein : un outil essentiel d'une approche de stratification du risque. Des tests statistiques combinés à une analyse comparative qualitative ont été menés sur les données autorapportées par des professionnel·les de la santé du Canada. Plusieurs conditions et combinaisons de conditions influencent l'adoption de ces modèles, mais les connaissances en génétique, la proximité des services de génétique et le peu d'expérience clinique sont celles qui auraient plus d'impact. En somme, cette recherche propose une analyse des pratiques en conseil génétique pour le cancer du sein à l'aide de la littérature scientifique internationale et explore le degré d'acceptabilité d'une innovation organisationnelle - la stratification du risque - et d'une innovation technologique qui y est intiment reliée - les modèles de prédiction du risque - du point de vue des professionnel·les de la santé du Canada. Ensemble, ces travaux de recherche portent à croire que ce ne sont pas seulement les soins et services de santé offerts aux femmes à risque de cancer du sein qui doivent être personnalisés, mais également les moyens et les stratégies de gestion des connaissances dirigées vers les professionnel·les de la santé et les organisations dans lesquelles ils concourent à créer de la valeur : ici, la santé des femmes. / Breast cancer is the most common cancer among women in Canada and worldwide. Both the current screening programs and the regular clinical and oncogenetic services exclude women who would benefit from preventive breast cancer interventions. Whether the solution is to improve access and services or to offer alternatives, such as a risk stratification approach, women's breast cancer risk will need to be assessed and communicated to women to recommend appropriate risk management interventions according to their risk level. To address this issue, this research first proposes a conceptual framework of breast cancer genetic counselling and its determinants. Supported by the theoretical framework of the knowledge value chain, the scoping review method allows to make a state of the knowledge of healthcare professionals' practices and to conceptualize breast cancer genetic counselling as a process comprising four activities (assessment, investigation, communication and decision), influenced by three categories of factors related to healthcare professionals, patients and the environment. Second, this research explores the perceptions of healthcare professionals regarding the implementation of a breast cancer risk stratification approach. Semi-structured interviews, designed around the major activities of the conceptual framework developed, were conducted with healthcare professionals in Québec. The 11 themes identified and integrated into a logic model distinguish: the potential eligible participants (who?), the clinical activities (how?) and their associated tools (what?), some of the factors of acceptability (which?) and expected effects (why?). Several elements need to be clarified according to the healthcare professionals interviewed, but most would welcome the implementation of this approach. Finally, this research identifies the necessary and sufficient conditions for the adoption of breast cancer risk prediction models, an essential tool for a breast cancer risk stratification approach. Statistical tests combined with a qualitative comparative analysis were conducted on self-reported data from Canadian healthcare professionals. Several conditions and combinations of conditions might influence the adoption of these models, but knowledge of genetics, proximity to genetics services and limited clinical experience were found to have the greatest impact. In sum, this project provides an analysis of breast cancer genetic counselling practices using the international scientific literature and explores the acceptability of an organizational innovation - risk stratification - and a closely related technological innovation - risk prediction models - from the perspective of Canadian healthcare professionals. Taken together, these suggest that it is not only the services provided to women at risk of breast cancer that need to be personalized, but also the means and strategies of knowledge management directed at healthcare professionals and the organizations in which they contribute to create value: in this case, women's health.

Page generated in 0.0562 seconds