• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 23
  • 13
  • Tagged with
  • 100
  • 81
  • 41
  • 36
  • 25
  • 20
  • 15
  • 14
  • 14
  • 14
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthode numérique d'estimation du mouvement des masses molles

Thouzé, Arsène 10 1900 (has links)
L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire. / Biomechanical analysis of human movement using optoelectronic system and skin markers considers body segments as rigid bodies. However the soft tissue motion relative to the bone, including muscles, fat mass, results in relative displacement of markers. This displacement is the results of two components, an own component which corresponds to a random motion of each marker and an in-unison component corresponding to the common movement of skin markers resulting from the movement of the underlying wobbling mass. While most studies aim to minimize these displacements, computer simulation models have shown that the movement of the soft tissue motion relative to the bones reduces the joint kinetics. This observation is only available using computer simulations because there are no methods able to distinguish the kinematics of wobbling mass of the bones kinematics. The main objective of this thesis is to develop a numerical method able to distinguish this different kinematics. The first aim of this thesis was to assess a local optimisation method for estimating the soft tissue motion using intra-cortical pins screwed into the humerus in three subjects. The results show that local optimisation underestimates of 50% the marker displacements. Also it leads to a different marker ranking in terms of displacement. The limit of local optimisation comes from the fact that it does not consider all the components of the soft tissue motion, especially the in-unison component. The second aim of this thesis was to develop a numerical method that accounts for all the component of the soft tissue motion. More specifically, this method should provide similar kinematics and estimate large marker displacement and distinguish the two components to conventional approaches. The lower limb is modeled using a 10 degree of freedom chain model reconstructed using global optimisation and the markers placed only on the pelvis and the medial face of the shank. The original estimate of joint kinematics without considering the markers placed on the thigh and on the calf avoids the influences of these markers displacement on the kinematic model reconstruction. This method was tested on 13 subjects who performed hopping trials and obtained up to 2.1 times of marker displacement depending the method considered ensuring similar joint-kinematics. A vector approach shown that marker displacements is more induce by the in-unison component. A matrix approach combining the local optimisation and the kinematic model shown that the wobbling mass moves around the longitudinal axis and along the antero-posterior axis of the bone. The originality of this thesis is to numerically distinguish the bone kinematics from the wobbling mass kinematics and the two components of the soft tissue motion. The methods developed in this thesis increases the knowledge on soft tissue motion and allow future studies to consider their movement in joint kinetics calculation.
32

Modélisation mathématique en imagerie cardiaque / Mathematical modeling in cardiac imaging

Benmansour, Khadidja 22 September 2014 (has links)
Les pathologies cardiovasculaires sont la première cause des décès dans le monde. Il est donc vital de les étudier afin d’en comprendre les mécanismes et pouvoir prévenir et traiter plus efficacement ces maladies. Cela passe donc par la compréhension de l’anatomie, de la structure et du mouvement du coeur. Dans le cadre de cette thèse, nous nous sommes intéressés dans un premier temps au modèle de Gabarit Déformable Élastique qui permet d’extraire l’anatomie et le mouvement cardiaques. Le Gabarit Déformable Élastique consiste à représenter le myocarde par un modèle de forme a priori donné que l’on déforme élastiquement pour l’adapter à la forme spécifique du coeur du patient Dans le premier chapitre de cette thèse, nous utilisons une méthode de perturbation singulière permettant la segmentation avec précision de l’image. Nous avons démontré que si l’on faisait tendre vers 0 les coefficients de l’élasticité, le modèle mathématique convergeait vers une solution permettant la segmentation. Dans le cadre d’une formulation au sens des moindres carrés il est nécessaire de disposer d’une méthode numérique performante pour résoudre l’équation du transport au sens des moindres carrés. La méthode des éléments finis pour traiter les phénomènes de transport ne permet pas d’avoir un principe du maximum faible, sauf si l’opérateur aux dérivées partielles en temps est séparé de l’opérateur aux dérivées partielles en espace. Dans le chapitre 2 de la thèse nous considérons une formulation au sens des moindres carrés espace-temps et nous proposons de résoudre un problème sous contraintes afin de récupérer un principe du maximum discret. Le dernier objectif de la thèse est le suivi dynamique d’images cardiaques ou la reconstruction anatomique du coeur à partir de coupes 2D dans le plan orthogonal au grand axe du cœur. La méthode mathématique que nous utilisons pour cela est le transport optimal. Dans le chapitre 3 nous analysons les performances de l’algorithme proposé par Peyré pour calculer le transport optimal de nos images. La résolution numérique du transport optimal est un problème difficile et couteux en temps de calcul. C’est pourquoi nous proposons une méthode adaptative pour le calcul de l’opérateur proximal de la fonction à minimiser permettant de diviser par quatre le nombre nécessaire des itérations pour que l’algorithme converge. / Cardiovascular disease are the leading cause of death worldwide. It is therefore vital to study them in order to understand the mechanisms and to prevent and treat these diseases more effectively. Therefore it requires an understanding of anatomy, structure and motion of the heart. In this thesis, we are interested in a first time at the Deformable Elastic Template model which can extract the cardiac anatomy and movement. The Elastic Deformable template is to represent the myocardium by a shape model a priori given that it elastically deforms to fit the specific shape of the patient’s heart. In the first chapter of this thesis, we use a singular perturbation method for accurately segmenting the image. We have demonstrated that if we did tend to 0 the coefficients of elasticity, the mathematical model converge to a solution to the problem of segmentation. As part of a formulation to the least squares sense it is necessary to have an efficient numerical method for solving the transport equation in the least squares sense. The finite element method to treat transport phenomena can not have a weak maximum principle, unless the operator of partial time is separated from the operator of partial space.In Chapter 2 of the thesis, we consider a least squares formulation of space-time and we propose to solve the problem constraints to recover a discrete maximum principle. The final objective of this thesis is the dynamic monitoring of cardiac images or anatomical reconstruction of the heart from 2D slices orthogonal to the long axis of the heart level. The mathematical method we use for this is the optimal transport. In Chapter 3 we analyze the performance of the algorithm proposed by Peyré to calculate the optimal transport of our images. The numerical resolution of optimal transport is a difficult and costly in computation time problem. That is why we propose an adaptive method for determining the proximity operator of the function to be minimized to divide by four the number of iterations required for the algorithm converges.
33

Étude d’algorithmes de restauration d’images sismiques par optimisation de forme non linéaire et application à la reconstruction sédimentaire. / Seismic images restoration using non linear optimization and application to the sedimentary reconstruction.

Gilardet, Mathieu 19 December 2013 (has links)
Nous présentons une nouvelle méthode pour la restauration d'images sismiques. Quand on l'observe, une image sismique est le résultat d'un système de dépôt initial qui a été transformé par un ensemble de déformations géologiques successives (flexions, glissement de la faille, etc) qui se sont produites sur une grande période de temps. L'objectif de la restauration sismique consiste à inverser les déformations pour fournir une image résultante qui représente le système de dépôt géologique tel qu'il était dans un état antérieur. Classiquement, ce procédé permet de tester la cohérence des hypothèses d'interprétations formulées par les géophysiciens sur les images initiales. Dans notre contribution, nous fournissons un outil qui permet de générer rapidement des images restaurées et qui aide donc les géophysiciens à reconnaître et identifier les caractéristiques géologiques qui peuvent être très fortement modifiées et donc difficilement identifiables dans l'image observée d'origine. Cette application permet alors d'assister ces géophysiciens pour la formulation d'hypothèses d'interprétation des images sismiques. L'approche que nous introduisons est basée sur un processus de minimisation qui exprime les déformations géologiques en termes de contraintes géométriques. Nous utilisons une approche itérative de Gauss-Newton qui converge rapidement pour résoudre le système. Dans une deuxième partie de notre travail nous montrons différents résultats obtenus dans des cas concrets afin d'illustrer le processus de restauration d'image sismique sur des données réelles et de montrer comment la version restaurée peut être utilisée dans un cadre d'interprétation géologique. / We present a new method for seismic image restoration. When observed, a seismic image is the result of an initial deposit system that has been transformed by a set of successive geological deformations (folding, fault slip, etc) that occurred over a large period of time. The goal of seismic restoration consists in inverting the deformations to provide a resulting image that depicts the geological deposit system as it was in a previous state. With our contribution, providing a tool that quickly generates restored images helps the geophysicists to recognize geological features that may be too strongly altered in the observed image. The proposed approach is based on a minimization process that expresses geological deformations in terms of geometrical constraints. We use a quickly-converging Gauss-Newton approach to solve the system. We provide results to illustrate the seismic image restoration process on real data and present how the restored version can be used in a geological interpretation framework.
34

Modélisation stochastique de processus d'agrégation en chimie / Stochastic modeling of aggregation and floculation processes in chemestry

Paredes Moreno, Daniel 27 October 2017 (has links)
Nous concentrons notre intérêt sur l'Équation du Bilan de la Population (PBE). Cette équation décrit l'évolution, au fil du temps, des systèmes de particules en fonction de sa fonction de densité en nombre (NDF) où des processus d'agrégation et de rupture sont impliqués. Dans la première partie, nous avons étudié la formation de groupes de particules et l'importance relative des variables dans la formation des ces groupes en utilisant les données dans (Vlieghe 2014) et des techniques exploratoires comme l'analyse en composantes principales, le partitionnement de données et l'analyse discriminante. Nous avons utilisé ce schéma d'analyse pour la population initiale de particules ainsi que pour les populations résultantes sous différentes conditions hydrodynamiques. La deuxième partie nous avons étudié l'utilisation de la PBE en fonction des moments standard de la NDF, et les méthodes en quadrature des moments (QMOM) et l'Extrapolation Minimale Généralisée (GME), afin de récupérer l'évolution, d'un ensemble fini de moments standard de la NDF. La méthode QMOM utilise une application de l'algorithme Produit- Différence et GME récupère une mesure discrète non-négative, étant donnée un ensemble fini de ses moments standard. Dans la troisième partie, nous avons proposé un schéma de discrétisation afin de trouver une approximation numérique de la solution de la PBE. Nous avons utilisé trois cas où la solution analytique est connue (Silva et al. 2011) afin de comparer la solution théorique à l'approximation trouvée avec le schéma de discrétisation. La dernière partie concerne l'estimation des paramètres impliqués dans la modélisation des processus d'agrégation et de rupture impliqués dans la PBE. Nous avons proposé une méthode pour estimer ces paramètres en utilisant l'approximation numérique trouvée, ainsi que le Filtre Étendu de Kalman. La méthode estime interactivement les paramètres à chaque instant du temps, en utilisant un estimateur de Moindres Carrés non-linéaire. / We center our interest in the Population Balance Equation (PBE). This equation describes the time evolution of systems of colloidal particles in terms of its number density function (NDF) where processes of aggregation and breakage are involved. In the first part, we investigated the formation of groups of particles using the available variables and the relative importance of these variables in the formation of the groups. We use data in (Vlieghe 2014) and exploratory techniques like principal component analysis, cluster analysis and discriminant analysis. We used this scheme of analysis for the initial population of particles as well as in the resulting populations under different hydrodynamics conditions. In the second part we studied the use of the PBE in terms of the moments of the NDF, and the Quadrature Method of Moments (QMOM) and the Generalized Minimal Extrapolation (GME), in order to recover the time evolution of a finite set of standard moments of the NDF. The QMOM methods uses an application of the Product-Difference algorithm and GME recovers a discrete non-negative measure given a finite set of its standard moments. In the third part, we proposed an discretization scheme in order to find a numerical approximation to the solution of the PBE. We used three cases where the analytical solution is known (Silva et al. 2011) in order to compare the theoretical solution to the approximation found with the discretization scheme. In the last part, we proposed a method for estimate the parameters involved in the modelization of aggregation and breakage processes in PBE. The method uses the numerical approximation found, as well as the Extended Kalman Filter. The method estimates iteratively the parameters at each time, using an non- linear Least Square Estimator.
35

Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions

Lu, Zhiping 02 June 2009 (has links) (PDF)
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
36

Des algorithmes rapides pour la validation croisée sur des problèmes d'approximation non linéaires

Deshpande, Lalita-Narhar 04 October 1990 (has links) (PDF)
.
37

Estimateurs cribles des processus autorégressifs Banachiques

Rachedi, Fatiha 17 November 2005 (has links) (PDF)
Le modèle autorégressif dans un espace de Banach (ARB) permet<br />de représenter des processus à temps continu. Nous considérons<br />l'estimation de l'opérateur d'autocorrelation d'un ARB(1). Les<br />méthodes classiques d'estimation (maximum de vraisemblance et<br />moindres carrées) s'avèrent inadéquates quand l'espace<br />paramétrique est de dimension infinie, Grenander (1983} a proposé<br />d'estimer le paramètre sur un sous espace de dimension en général<br />finie m, puis d'étudier la consistance de cet estimateur lorsque<br />la dimension m tend vers l'infini avec le nombres d'observations<br />à vitesse convenable. Cette méthode est dite méthode des cribles.<br />Notons que plus généralement il serait possible d'utiliser la<br />méthode des f-divergences. Nous définissons la méthode des<br />moindres carrées comme problème d'optimisation dans un espace de<br />Banach dans le cas ou l'opérateur est p-sommable,<br />p>1. Nous montrons la convergence de l'estimateur<br />crible et sa normalité asymptotique dans le cas d'un opérateur est<br />strictement -intégral. Nous utilisons la représentation duale<br />de la f-divergence pour définir l'estimateur du minimum des<br />f-divergences. Nous nous limitons ici à l'étude de<br />l'estimateur dit du minimum de KL-divergence (divergence de<br />Kullback-Leibler). Cet estimateur est celui<br /> du maximum de vraisemblance. Nous montrons par la suite qu'il<br /> converge presque surement vers la vraie valeur du paramètre<br />pour la norme des opérateurs p-sommables. La démonstration est<br />basée sur les techniques de Geman et Hwang (1982), utilisées pour<br />des observations indépendantes et identiquement distribuées, qu'on<br />a adapté au cas autorégressif.
38

Régularisation et optimisation pour l'imagerie sismique des fondations de pylônes

Vautrin, Denis 14 December 2011 (has links) (PDF)
Cette thèse porte sur l'auscultation de fondations de pylônes électriques par contrôle non destructif. Une procédure d'imagerie par ondes sismiques est utilisée, ce qui consiste à générer une onde sismique au voisinage de la fondation avec une source vibratoire et à mesurer la vitesse de l'onde résultante à l'aide d'un réseau de géophones. Le travail présenté s'intéresse spécifiquement à la résolution du problème inverse. L'objectif est de concevoir un algorithme permettant de déterminer la géométrie de la fondation auscultée à partir des données enregistrées par les capteurs. Il s'agit d'un problème de tomographie de diffraction. Son caractère mal posé ainsi que la forte non-linéarité du modèle direct rendent sa résolution particulièrement difficile. Deux méthodes d'inversion ont été développées. Elles consistent toutes deux à reconstruire plusieurs cartes du sous-sol, chaque carte étant associée à une caractéristique physique du sous-sol. Dans les deux cas, un critère des moindres carrés régularisé est minimisé de façon itérative. Pour la première approche, peu d'a priori sont pris en compte. Elle se base sur une régularisation markovienne et la différence entre pixels voisins est pénalisée de manière à favoriser la reconstruction de régions lisses séparées par des contours francs. La seconde approche tient compte d'informations a priori plus nombreuses et plus précises. Elles sont liées à la structure particulière des fondations et aux caractéristiques de la terre et du béton. La méthode se base sur une segmentation du milieu à imager en deux régions. Des tests ont été réalisés sur des données simulées afin d'évaluer et de comparer les performances de ces deux méthodes.
39

Méthode adaptative de contrôle logique et de test de circuits AMS/RF

Khereddine, R. 07 September 2011 (has links) (PDF)
Les technologies microélectroniques ainsi que les outils de CAO actuels permettent la conception de plus en plus rapide de circuits et systèmes intégrés très complexes. L'un des plus importants problèmes rencontrés est de gérer la complexité en terme de nombre de transistors présents dans le système à manipuler ainsi qu'en terme de diversité des composants, dans la mesure où les systèmes actuels intègrent, sur un même support de type SiP ou bien SoC, de plus en plus de blocs fonctionnels hétérogènes. Le but de cette thèse est la recherche de nouvelles techniques de test qui mettent à contribution les ressources embarquées pour le test et le contrôle des modules AMS et RF. L'idée principale est de mettre en oeuvre pour ces composantes des méthodes de test et de contrôle suffisamment simples pour que les ressources numériques embarquées puissent permettre leur implémentation à faible coût. Les techniques proposées utilisent des modèles de représentation auto-régressifs qui prennent en comptes les non linéarités spécifiques à ce type de modules. Les paramètres du modèle comportemental du système sont utilisés pour la prédiction des performances du système qui sont nécessaire pour l'élaboration de la signature de test et le contrôle de la consommation du circuit. Deux démonstrateurs ont été mis en place pour valider la technique proposée : une chaine RF conçue au sein du groupe RMS et un accéléromètre de type MMA7361L.
40

Propagation des ondes acoustiques dans les turbomachines à écoulement subsonique

El Hadjen, Hakim 14 December 2010 (has links) (PDF)
De nos jours, les fabricants font face à un nouveau défit : concevoir des turbomachines à la fois performantes et à faible niveau sonore. Il convient donc de prévoir avec précision le champ sonore généré par le fonctionnement de ces machines. Le but de ce travail est de développer un solveur-2D capable de prédire efficacement la propagation des ondes acoustiques (bruit) générées par les turbomachines à écoulement subsonique, la machine étudiée est un ventilateur centrifuge composé d'un rotor et d'un stator. Afin de relever ce défit, le développement d'une méthode numérique d'ordre élevé est plus que nécessaire. La démarche retenue est basée sur la méthode des volumes finis avec approximation par moindres carrés mobiles (FV-MLS) pour résoudre les Equations d'Euler Linéarisées autour d'une solution stationnaire. Une matrice masse est définie afin de préserver l'ordre de notre méthode, une procédure d'intégration du temps implicite est employée avec un solveur de résolution des équations algébriques basé sur la méthode GMRES préconditionnée. La méthode ainsi proposée permet la reconstruction directe des flux en utilisant des pochoirs (stencil) compacts, sans introduire de nouveaux degrés de liberté, ce qui est un réel avantage par rapport aux méthodes déjà existantes.

Page generated in 0.0493 seconds