• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 19
  • 12
  • Tagged with
  • 81
  • 81
  • 37
  • 32
  • 22
  • 17
  • 14
  • 13
  • 13
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Méthode numérique d'estimation du mouvement des masses molles

Thouzé, Arsène 10 1900 (has links)
L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire. / Biomechanical analysis of human movement using optoelectronic system and skin markers considers body segments as rigid bodies. However the soft tissue motion relative to the bone, including muscles, fat mass, results in relative displacement of markers. This displacement is the results of two components, an own component which corresponds to a random motion of each marker and an in-unison component corresponding to the common movement of skin markers resulting from the movement of the underlying wobbling mass. While most studies aim to minimize these displacements, computer simulation models have shown that the movement of the soft tissue motion relative to the bones reduces the joint kinetics. This observation is only available using computer simulations because there are no methods able to distinguish the kinematics of wobbling mass of the bones kinematics. The main objective of this thesis is to develop a numerical method able to distinguish this different kinematics. The first aim of this thesis was to assess a local optimisation method for estimating the soft tissue motion using intra-cortical pins screwed into the humerus in three subjects. The results show that local optimisation underestimates of 50% the marker displacements. Also it leads to a different marker ranking in terms of displacement. The limit of local optimisation comes from the fact that it does not consider all the components of the soft tissue motion, especially the in-unison component. The second aim of this thesis was to develop a numerical method that accounts for all the component of the soft tissue motion. More specifically, this method should provide similar kinematics and estimate large marker displacement and distinguish the two components to conventional approaches. The lower limb is modeled using a 10 degree of freedom chain model reconstructed using global optimisation and the markers placed only on the pelvis and the medial face of the shank. The original estimate of joint kinematics without considering the markers placed on the thigh and on the calf avoids the influences of these markers displacement on the kinematic model reconstruction. This method was tested on 13 subjects who performed hopping trials and obtained up to 2.1 times of marker displacement depending the method considered ensuring similar joint-kinematics. A vector approach shown that marker displacements is more induce by the in-unison component. A matrix approach combining the local optimisation and the kinematic model shown that the wobbling mass moves around the longitudinal axis and along the antero-posterior axis of the bone. The originality of this thesis is to numerically distinguish the bone kinematics from the wobbling mass kinematics and the two components of the soft tissue motion. The methods developed in this thesis increases the knowledge on soft tissue motion and allow future studies to consider their movement in joint kinetics calculation.
22

Modélisation mathématique en imagerie cardiaque / Mathematical modeling in cardiac imaging

Benmansour, Khadidja 22 September 2014 (has links)
Les pathologies cardiovasculaires sont la première cause des décès dans le monde. Il est donc vital de les étudier afin d’en comprendre les mécanismes et pouvoir prévenir et traiter plus efficacement ces maladies. Cela passe donc par la compréhension de l’anatomie, de la structure et du mouvement du coeur. Dans le cadre de cette thèse, nous nous sommes intéressés dans un premier temps au modèle de Gabarit Déformable Élastique qui permet d’extraire l’anatomie et le mouvement cardiaques. Le Gabarit Déformable Élastique consiste à représenter le myocarde par un modèle de forme a priori donné que l’on déforme élastiquement pour l’adapter à la forme spécifique du coeur du patient Dans le premier chapitre de cette thèse, nous utilisons une méthode de perturbation singulière permettant la segmentation avec précision de l’image. Nous avons démontré que si l’on faisait tendre vers 0 les coefficients de l’élasticité, le modèle mathématique convergeait vers une solution permettant la segmentation. Dans le cadre d’une formulation au sens des moindres carrés il est nécessaire de disposer d’une méthode numérique performante pour résoudre l’équation du transport au sens des moindres carrés. La méthode des éléments finis pour traiter les phénomènes de transport ne permet pas d’avoir un principe du maximum faible, sauf si l’opérateur aux dérivées partielles en temps est séparé de l’opérateur aux dérivées partielles en espace. Dans le chapitre 2 de la thèse nous considérons une formulation au sens des moindres carrés espace-temps et nous proposons de résoudre un problème sous contraintes afin de récupérer un principe du maximum discret. Le dernier objectif de la thèse est le suivi dynamique d’images cardiaques ou la reconstruction anatomique du coeur à partir de coupes 2D dans le plan orthogonal au grand axe du cœur. La méthode mathématique que nous utilisons pour cela est le transport optimal. Dans le chapitre 3 nous analysons les performances de l’algorithme proposé par Peyré pour calculer le transport optimal de nos images. La résolution numérique du transport optimal est un problème difficile et couteux en temps de calcul. C’est pourquoi nous proposons une méthode adaptative pour le calcul de l’opérateur proximal de la fonction à minimiser permettant de diviser par quatre le nombre nécessaire des itérations pour que l’algorithme converge. / Cardiovascular disease are the leading cause of death worldwide. It is therefore vital to study them in order to understand the mechanisms and to prevent and treat these diseases more effectively. Therefore it requires an understanding of anatomy, structure and motion of the heart. In this thesis, we are interested in a first time at the Deformable Elastic Template model which can extract the cardiac anatomy and movement. The Elastic Deformable template is to represent the myocardium by a shape model a priori given that it elastically deforms to fit the specific shape of the patient’s heart. In the first chapter of this thesis, we use a singular perturbation method for accurately segmenting the image. We have demonstrated that if we did tend to 0 the coefficients of elasticity, the mathematical model converge to a solution to the problem of segmentation. As part of a formulation to the least squares sense it is necessary to have an efficient numerical method for solving the transport equation in the least squares sense. The finite element method to treat transport phenomena can not have a weak maximum principle, unless the operator of partial time is separated from the operator of partial space.In Chapter 2 of the thesis, we consider a least squares formulation of space-time and we propose to solve the problem constraints to recover a discrete maximum principle. The final objective of this thesis is the dynamic monitoring of cardiac images or anatomical reconstruction of the heart from 2D slices orthogonal to the long axis of the heart level. The mathematical method we use for this is the optimal transport. In Chapter 3 we analyze the performance of the algorithm proposed by Peyré to calculate the optimal transport of our images. The numerical resolution of optimal transport is a difficult and costly in computation time problem. That is why we propose an adaptive method for determining the proximity operator of the function to be minimized to divide by four the number of iterations required for the algorithm converges.
23

Modélisation stochastique de processus d'agrégation en chimie / Stochastic modeling of aggregation and floculation processes in chemestry

Paredes Moreno, Daniel 27 October 2017 (has links)
Nous concentrons notre intérêt sur l'Équation du Bilan de la Population (PBE). Cette équation décrit l'évolution, au fil du temps, des systèmes de particules en fonction de sa fonction de densité en nombre (NDF) où des processus d'agrégation et de rupture sont impliqués. Dans la première partie, nous avons étudié la formation de groupes de particules et l'importance relative des variables dans la formation des ces groupes en utilisant les données dans (Vlieghe 2014) et des techniques exploratoires comme l'analyse en composantes principales, le partitionnement de données et l'analyse discriminante. Nous avons utilisé ce schéma d'analyse pour la population initiale de particules ainsi que pour les populations résultantes sous différentes conditions hydrodynamiques. La deuxième partie nous avons étudié l'utilisation de la PBE en fonction des moments standard de la NDF, et les méthodes en quadrature des moments (QMOM) et l'Extrapolation Minimale Généralisée (GME), afin de récupérer l'évolution, d'un ensemble fini de moments standard de la NDF. La méthode QMOM utilise une application de l'algorithme Produit- Différence et GME récupère une mesure discrète non-négative, étant donnée un ensemble fini de ses moments standard. Dans la troisième partie, nous avons proposé un schéma de discrétisation afin de trouver une approximation numérique de la solution de la PBE. Nous avons utilisé trois cas où la solution analytique est connue (Silva et al. 2011) afin de comparer la solution théorique à l'approximation trouvée avec le schéma de discrétisation. La dernière partie concerne l'estimation des paramètres impliqués dans la modélisation des processus d'agrégation et de rupture impliqués dans la PBE. Nous avons proposé une méthode pour estimer ces paramètres en utilisant l'approximation numérique trouvée, ainsi que le Filtre Étendu de Kalman. La méthode estime interactivement les paramètres à chaque instant du temps, en utilisant un estimateur de Moindres Carrés non-linéaire. / We center our interest in the Population Balance Equation (PBE). This equation describes the time evolution of systems of colloidal particles in terms of its number density function (NDF) where processes of aggregation and breakage are involved. In the first part, we investigated the formation of groups of particles using the available variables and the relative importance of these variables in the formation of the groups. We use data in (Vlieghe 2014) and exploratory techniques like principal component analysis, cluster analysis and discriminant analysis. We used this scheme of analysis for the initial population of particles as well as in the resulting populations under different hydrodynamics conditions. In the second part we studied the use of the PBE in terms of the moments of the NDF, and the Quadrature Method of Moments (QMOM) and the Generalized Minimal Extrapolation (GME), in order to recover the time evolution of a finite set of standard moments of the NDF. The QMOM methods uses an application of the Product-Difference algorithm and GME recovers a discrete non-negative measure given a finite set of its standard moments. In the third part, we proposed an discretization scheme in order to find a numerical approximation to the solution of the PBE. We used three cases where the analytical solution is known (Silva et al. 2011) in order to compare the theoretical solution to the approximation found with the discretization scheme. In the last part, we proposed a method for estimate the parameters involved in the modelization of aggregation and breakage processes in PBE. The method uses the numerical approximation found, as well as the Extended Kalman Filter. The method estimates iteratively the parameters at each time, using an non- linear Least Square Estimator.
24

Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions

Lu, Zhiping 02 June 2009 (has links) (PDF)
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
25

Des algorithmes rapides pour la validation croisée sur des problèmes d'approximation non linéaires

Deshpande, Lalita-Narhar 04 October 1990 (has links) (PDF)
.
26

Régularisation et optimisation pour l'imagerie sismique des fondations de pylônes

Vautrin, Denis 14 December 2011 (has links) (PDF)
Cette thèse porte sur l'auscultation de fondations de pylônes électriques par contrôle non destructif. Une procédure d'imagerie par ondes sismiques est utilisée, ce qui consiste à générer une onde sismique au voisinage de la fondation avec une source vibratoire et à mesurer la vitesse de l'onde résultante à l'aide d'un réseau de géophones. Le travail présenté s'intéresse spécifiquement à la résolution du problème inverse. L'objectif est de concevoir un algorithme permettant de déterminer la géométrie de la fondation auscultée à partir des données enregistrées par les capteurs. Il s'agit d'un problème de tomographie de diffraction. Son caractère mal posé ainsi que la forte non-linéarité du modèle direct rendent sa résolution particulièrement difficile. Deux méthodes d'inversion ont été développées. Elles consistent toutes deux à reconstruire plusieurs cartes du sous-sol, chaque carte étant associée à une caractéristique physique du sous-sol. Dans les deux cas, un critère des moindres carrés régularisé est minimisé de façon itérative. Pour la première approche, peu d'a priori sont pris en compte. Elle se base sur une régularisation markovienne et la différence entre pixels voisins est pénalisée de manière à favoriser la reconstruction de régions lisses séparées par des contours francs. La seconde approche tient compte d'informations a priori plus nombreuses et plus précises. Elles sont liées à la structure particulière des fondations et aux caractéristiques de la terre et du béton. La méthode se base sur une segmentation du milieu à imager en deux régions. Des tests ont été réalisés sur des données simulées afin d'évaluer et de comparer les performances de ces deux méthodes.
27

Méthode adaptative de contrôle logique et de test de circuits AMS/RF

Khereddine, R. 07 September 2011 (has links) (PDF)
Les technologies microélectroniques ainsi que les outils de CAO actuels permettent la conception de plus en plus rapide de circuits et systèmes intégrés très complexes. L'un des plus importants problèmes rencontrés est de gérer la complexité en terme de nombre de transistors présents dans le système à manipuler ainsi qu'en terme de diversité des composants, dans la mesure où les systèmes actuels intègrent, sur un même support de type SiP ou bien SoC, de plus en plus de blocs fonctionnels hétérogènes. Le but de cette thèse est la recherche de nouvelles techniques de test qui mettent à contribution les ressources embarquées pour le test et le contrôle des modules AMS et RF. L'idée principale est de mettre en oeuvre pour ces composantes des méthodes de test et de contrôle suffisamment simples pour que les ressources numériques embarquées puissent permettre leur implémentation à faible coût. Les techniques proposées utilisent des modèles de représentation auto-régressifs qui prennent en comptes les non linéarités spécifiques à ce type de modules. Les paramètres du modèle comportemental du système sont utilisés pour la prédiction des performances du système qui sont nécessaire pour l'élaboration de la signature de test et le contrôle de la consommation du circuit. Deux démonstrateurs ont été mis en place pour valider la technique proposée : une chaine RF conçue au sein du groupe RMS et un accéléromètre de type MMA7361L.
28

Propagation des ondes acoustiques dans les turbomachines à écoulement subsonique

El Hadjen, Hakim 14 December 2010 (has links) (PDF)
De nos jours, les fabricants font face à un nouveau défit : concevoir des turbomachines à la fois performantes et à faible niveau sonore. Il convient donc de prévoir avec précision le champ sonore généré par le fonctionnement de ces machines. Le but de ce travail est de développer un solveur-2D capable de prédire efficacement la propagation des ondes acoustiques (bruit) générées par les turbomachines à écoulement subsonique, la machine étudiée est un ventilateur centrifuge composé d'un rotor et d'un stator. Afin de relever ce défit, le développement d'une méthode numérique d'ordre élevé est plus que nécessaire. La démarche retenue est basée sur la méthode des volumes finis avec approximation par moindres carrés mobiles (FV-MLS) pour résoudre les Equations d'Euler Linéarisées autour d'une solution stationnaire. Une matrice masse est définie afin de préserver l'ordre de notre méthode, une procédure d'intégration du temps implicite est employée avec un solveur de résolution des équations algébriques basé sur la méthode GMRES préconditionnée. La méthode ainsi proposée permet la reconstruction directe des flux en utilisant des pochoirs (stencil) compacts, sans introduire de nouveaux degrés de liberté, ce qui est un réel avantage par rapport aux méthodes déjà existantes.
29

Estimation de paramètres pour des processus autorégressifs à bifurcation

Blandin, Vassili 26 June 2013 (has links) (PDF)
Les processus autorégressifs à bifurcation (BAR) ont été au centre de nombreux travaux de recherche ces dernières années. Ces processus, qui sont l'adaptation à un arbre binaire des processus autorégressifs, sont en effet d'intérêt en biologie puisque la structure de l'arbre binaire permet une analogie aisée avec la division cellulaire. L'objectif de cette thèse est l'estimation les paramètres de variantes de ces processus autorégressifs à bifurcation, à savoir les processus BAR à valeurs entières et les processus BAR à coefficients aléatoires. Dans un premier temps, nous nous intéressons aux processus BAR à valeurs entières. Nous établissons, via une approche martingale, la convergence presque sûre des estimateurs des moindres carrés pondérés considérés, ainsi qu'une vitesse de convergence de ces estimateurs, une loi forte quadratique et leur comportement asymptotiquement normal. Dans un second temps, on étudie les processus BAR à coefficients aléatoires. Cette étude permet d'étendre le concept de processus autorégressifs à bifurcation en généralisant le côté aléatoire de l'évolution. Nous établissons les mêmes résultats asymptotiques que pour la première étude. Enfin, nous concluons cette thèse par une autre approche des processus BAR à coefficients aléatoires où l'on ne pondère plus nos estimateurs des moindres carrés en tirant parti du théorème de Rademacher-Menchov.
30

Imagerie 3D de l'anatomie interne d'une souris par dynamique de fluorescence

Provencher, David January 2012 (has links)
L'imagerie médicale sur petits animaux est d'une grande utilité en recherche préclinique, car elle permet d'imager in vivo et en 3D l'intérieur de l'animal. Ceci sert au développement de nouveaux médicaments et au suivi de l'évolution de certaines pathologies. En effet, les techniques d'imagerie éliminent la nécessité de sacrifier les animaux, ce qui permet le suivi de processus biomoléculaires sur un même individu et l'obtention de données statistiquement plus significatives. Cependant, l'information moléculaire recueillie s'avère généralement de faible résolution spatiale, notamment en imagerie optique à cause de la diffusion de la lumière, et donc difficile à localiser dans le corps de l'animal. Le jumelage de modalités d'imagerie complémentaires permet donc d'obtenir des images anatomiques et moléculaires superposées, mais cela s'avère toutefois relativement coûteux. Le projet présenté vise à améliorer une technique d'imagerie 2D toute optique à faible coût permettant d'obtenir une carte approximative 3D des organes internes d'une souris. Cette technique devrait permettre le recalage spatial automatique d'informations moléculaires obtenues sur le même appareil, bien que cela n'ait pas encore été démontré. L'amélioration apportée par le projet consiste à obtenir des images anatomiques 3D, plutôt que 2D, en utilisant une caméra tournante et des techniques de vision numérique stéréo. Pour ce faire, la technique existante est d'abord reproduite. Celle-ci consiste à injecter de l'ICG , un marqueur fluorescent non spécifique qui demeure confiné au réseau vasculaire une fois injecté, à une souris anesthésiée. De par leurs métabolismes distincts et le temps que met l'ICG à atteindre chacun d'eux, la dynamique de fluorescence varie entre les organes, mais demeure relativement uniforme à l'intérieur d'un même organe. Certains organes peuvent donc être segmentés par des techniques appropriées de traitement de signal, telles l'analyse en composantes principales et la régression par moindres carrés non négative. Un système d'imagerie à caméra rotative comme le QOS® de Quidd permet d'obtenir des images 2D segmentées de l'anatomie. interne de l'animal selon plusieurs plans de vue. Ces plans de vue servent à reconstruire l'information anatomique en 3D par des techniques de vision numérique. La procédure pourrait être répétée avec un ou plusieurs marqueurs fluorescents fonctionnalisés dans le but d'obtenir des images moléculaires 3D du même animal et de les superposer aux images anatomiques 3D. La technique développée devrait ainsi permettre d'obtenir à faible coût et de manière toute optique des images 3D anatomiques et moléculaires recalées spatialement automatiquement.

Page generated in 0.4528 seconds