• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 31
  • 6
  • Tagged with
  • 85
  • 50
  • 34
  • 29
  • 20
  • 18
  • 16
  • 14
  • 13
  • 12
  • 12
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Stabilité d'inégalités variationnelles et prox-régularité, équations de Kolmogorov périodiques contrôlées / Stability of variational inequalities and prox-regularity, Perdiodic solutions of controlled Kolmogorov equations

Sebbah, Matthieu 02 July 2012 (has links)
Dans une première partie, nous étudions la stabilité des solutions d'une inégalité variationnelle de la forme cône normal perturbé par une fonction. Pour ce faire, nous généralisons la méthode de S. Robinson, basée sur le degré topologique, aux espaces de Hilbert et à une classe de multi-applications non nécessairement convexes, appelées multi-applications prox-régulières.  Dans une deuxième partie, nous étudions des problèmes de contrôle optimal liés à la modélisation de problèmes de bio-procédés, et l'on s'intéresse à des contraintes périodiques sur l'état. Ainsi, nous étendons les résultats d'existence de solutions périodiques des EDOs de Kolmogorov au cadre du contrôle en rajoutant un paramètre contrôlé à ces équations. Ceci nous permet d'étudier par la suite un problème de commande optimale d'un chemostat sous forçage périodique, et d'en déduire la synthèse optimale pour ce problème. / In the first part, we study stability of solutions of a variational inequality of the form normal cone perturbed by a mapping. To do so, we generalize the method introduced by S. Robinson, based on the topological degree, to the general Hilbert setting on the class of non-necessarily convex set-valued mapping, called prox-regular set-valued mapping. In the second part, we study optimal control problems connected to the modelization of bio-processes and we consider periodic constraints on the state variable. We first extend the existence result of periodic solutions of Kolmogorov ODEs to the setting of control by adding a controlled parameter to those ODEs. This allows us to study an optimal control problem modeling a chemostat under a periodic forcing for which we give the optimal synthesis.
22

Vers une prise en compte des erreurs-modèle en assimilation de données 4D-variationnelle. <br />Application à un modèle réaliste d'océan

Vidard, Arthur 20 December 2001 (has links) (PDF)
L'assimilation de données est une classe de méthode mathématiques très usitées en météorologie ou en océanographie. Elle permettent de recomposer de façon adéquate l'état du système au moyen des informations fournies par le modèle d'une part et les observations d'autre part. Parmi celles-ci, les méthodes d'assimilation variationnelles ont connu récemment un fort développement jusqu'à fournir les méthodes opérationnelles dans les principaux centres de météorologie. Cependant ces méthodes ne prennent généralement pas en compte l'inexactitude des modèles. Tout au long de cette thèse, on s'est attaché à décrire et expérimenter des variantes " modèle inexacte " de la méthode 4D-Variationnelle applicable tant du point de vue algorithmique que du coût en temps de calcul.<br />Deux méthodes sont étudiées plus en détail. Premièrement, le Nudging optimal qui consiste en adjoindre au 4D-Var un rappel newtonien de l'état du modèle vers les observations et dont l'amplitude sera estimé par contrôle optimal. D'autre part le " contrôle de l'erreur systématique " considère l'erreur modèle comme étant un terme ne variant pas, ou très peu, dans le temps, ce terme étant également estimé par contrôle.<br />Dans un premier temps ces méthodes sont appliquées à des cas académiques de modèles simplifiés en assimilant des données simulées. La méthode de contrôle de la part systématique de l'erreur est ensuite appliquée à un modèle d'océan aux équations primitives dans le cadre d'une expérience réaliste afin de valider les bons résultats obtenus pour les configurations académiques.
23

Analyse mathématique de modèles de diffusion en milieu poreux élastique

Saint-Macary, Patrick 26 November 2004 (has links) (PDF)
La propagation d'ondes élastiques dans un milieu poreux saturé de fluide est un phénomène complexe intervenant dans de nombreuses applications comme la prospection d'hydrocarbures. Ce phénomène est transcrit au moyen d'un système couplé d'équations hyperbolique-parabolique dû à M. A. Biot d'inconnues u, déplacement de la structure et p, pression du fluide. La première équation décrit l'évolution en temps de u tandis que la seconde est une équation de diffusion obtenue en injectant la loi de Darcy dans la loi de conservation de la masse. Le couplage représente les effets dits de consolidation dus aux interactions entre le fluide et la structure poreuse. Un terme de consolidation secondaire peut intervenir dans la première équation et si on le néglige, le système obtenu correspond à un modèle utilisé en thermoélasticité. Un autre cas limite du modèle de Biot est le cas quasi-statique où la densité de la structure est négligeable. Enfin, un modèle non linéaire peut s'obtenir en perturbant le potentiel d'élasticité linéaire par un potentiel non linéaire représenté par un q-Laplacien. On montre ici l'existence et l'unicité des solutions des modèles de Biot linéaire et non linéaire dans différents cas variant en fonction des paramètres physiques. On utilise des méthodes d'approximation de Galerkin, des techniques de régularisation et de pénalisation pour l'existence et des fonctions-test de Ladyzenskaja pour les résultats d'unicité. On compare les modèles thermoélastique et quasi-statique au modèle complet en estimant dans chaque cas les taux de convergence en fonction des paramètres avant d'étudier le comportement en temps long du modèle.
24

Extraction de Courbes et Surfaces par Methodes de Chemins Minimaux et Ensembles de Niveaux. Applications en Imagerie Medicale 3D

Deschamps, Thomas 20 December 2001 (has links) (PDF)
Dans cette these nous nous interessons a l'utilisation des méthodes de chemins minimaux et des méthodes de contours actifs par Ensembles de Niveaux, pour l'extraction de courbes et de surfaces dans des images medicales 3D. Dans un premier temps, nous nous sommes attaches a proposer un éventail varié de techniques d'extraction de chemins minimaux dans des images 2D et 3D, basees sur la résolution de l'équation Eikonal par l'algorithme du Fast Marching. Nous avons montre des resultats de ces techniques appliquees a des problèmes d'imagerie médicale concrets, notamment en construction de trajectoires 3D pour l'endoscopie virtuelle, et en segmentation interactive, avec possibilité d'apprentissage. Dans un deuxieme temps, nous nous sommes interessés a l'extraction de surfaces. Nous avons developpé un algorithme rapide de pré-segmentation, sur la base du formalisme des chemins minimaux. Nous avons étudié en détail la mise en place d'une collaboration entre cette méthode et celle des Ensembles de Niveaux, dont un des avantages communs est de ne pas avoir d'a priori sur la topologie de l'objet a segmenter. Cette méthode collaborative a ensuite ete testée sur des problèmes de segmentation et de visualisation de pathologies telles que les anevrismes cerebraux et les polypes du colon. Dans un troisième temps nous avons fusionné les résultats des deux premières parties pour obtenir l'extraction de surfaces, et des squelettes d'objets anatomiques tubulaires. Les squelettes des surfaces fournissent des trajectoires que nous utilisons pour déplacer des cameras virtuelles, et nous servent a definir les sections des objets lorsque nous voulons mesurer l'étendue d'une pathologie. La dernière partie regroupe des applications de ces méthodes a l'extraction de structures arborescentes. Nous étudions le cas des arbres vasculaires dans des images médicales 3D de produit de contraste, ainsi que le problème plus difficile de l'extraction de l'arbre bronchique sur des images scanners des poumons.
25

Quelques modèles non linéaires en mécanique quantique

Lewin, Mathieu 21 June 2004 (has links) (PDF)
Cette thèse est consacrée à l'étude de trois modèles non linéaires issus de la mécanique quantique. Dans la première partie, nous démontrons l'existence d'un minimum et d'états excités approchés pour les modèles multi-configurations décrivant la structure électronique des molécules. Ces points critiques peuvent être calculés grâce à un nouvel algorithme. Des résultats numériques sont présentés pour le premier état excité de systèmes à deux électrons. Dans la seconde partie, nous étudions un lemme du col modélisant des réactions chimiques avec le modèle de Schrödinger indépendant du temps. Nous prouvons l'existence d'un point selle, sous l'hypothèse que les molécules à l'infini sont chargées ou polarisées. La dernière partie est consacrée à l'étude de la polarisation du vide grâce au modèle Bogoliubov-Dirac-Fock, une théorie relativiste de champ moyen issue de l'électrodynamique quantique. Nous montrons que l'énergie étudiée possède un minimum qui est le vide polarisé.
26

Modèles de graphes aléatoires à structure cachée pour l'analyse des réseaux

Latouche, Pierre 03 December 2010 (has links) (PDF)
Les réseaux sont très largement utilisés dans de nombreux domaines scientifiques afin de représenter les interactions entre objets d'intérêt. Ainsi, en Biologie, les réseaux de régulation s'appliquent à décrire les mécanismes de régulation des gènes, à partir de facteurs de transcription, tandis que les réseaux métaboliques permettent de représenter des voies de réactions biochimiques. En sciences sociales, ils sont couramment utilisés pour représenter les interactions entre individus. Dans le cadre de cette thèse, nous nous intéressons à des méthodes d'apprentissage non supervisé dont l'objectif est de classer les noeuds d'un réseau en fonction de leurs connexions. Il existe une vaste littérature se référant à ce sujet et un nombre important d'algorithmes ont été proposés depuis les premiers travaux de Moreno en 1934. Notre point de départ est le modèle à blocs stochastiques, Stochastic Block Model (SBM) (Nowicki et Snijders, 2001) en anglais, qui permet la recherche de classes topologiques hétérogènes. Nous considérons un contexte Bayésien et proposons un algorithme de type variational Bayes pour approcher la loi a posteriori des paramètres. Cette approche permet d'obtenir un nouveau critère de sélection de modèles afin d'estimer le nombre de composantes dans un réseau. Par ailleurs, il apparaît que SBM ainsi que la plupart des modèles existants de classification sont limités puisqu'ils partitionnent les noeuds dans des classes disjointes. Or, de nombreux objets d'étude dans le cadre d'applications réelles sont connus pour appartenir à plusieurs groupes en même temps. Par exemple, en Biologie, des protéines appelées moonlighting proteins en anglais ont plusieurs fonctions dans les cellules. Nous introduisons donc un nouveau modèle de graphe aléatoire que nous appelons modèle à blocs stochastiques chevauchants, Overlapping Stochastic Block Model (OSBM) en anglais. Il autorise les noeuds d'un réseau à appartenir à plusieurs groupes simultanément et peut prendre en compte des topologies de connexion très différentes. Deux algorithmes d'estimation sont proposés ainsi qu'un critère de sélection de modèles.
27

Segmentation par contours actifs basés alpha-divergences : application à la segmentation d'images médicales et biomédicales

Meziou, Leïla 28 November 2013 (has links) (PDF)
La segmentation de régions d'intérêt dans le cadre de l'analyse d'images médicales et biomédicales reste encore à ce jour un challenge en raison notamment de la variété des modalités d'acquisition et des caractéristiques associées (bruit par exemple).Dans ce contexte particulier, cet exposé présente une méthode de segmentation de type contour actif dont l 'énergie associée à l'obtention de l'équation d'évolution s'appuie sur une mesure de similarité entre les densités de probabilités (en niveau de gris) des régions intérieure et extérieure au contour au cours du processus itératif de segmentation. En particulier, nous nous intéressons à la famille particulière des alpha-divergences. L'intérêt principal de cette méthode réside (i) dans la flexibilité des alpha-divergences dont la métrique intrinsèque peut être paramétrisée via la valeur du paramètre alpha et donc adaptée aux distributions statistiques des régions de l'image à segmenter ; et (ii) dans la capacité unificatrice de cette mesure statistique vis-à-vis des distances classiquement utilisées dans ce contexte (Kullback- Leibler, Hellinger...). Nous abordons l'étude de cette mesure statistique tout d'abord d'un point de vue supervisé pour lequel le processus itératif de segmentation se déduit de la minimisation de l'alpha-divergence (au sens variationnel) entre la densité de probabilité courante et une référence définie a priori. Puis nous nous intéressons au point de vue non supervisé qui permet de s'affranchir de l'étape de définition des références par le biais d'une maximisation de distance entre les densités de probabilités intérieure et extérieure au contour. Par ailleurs, nous proposons une démarche d'optimisation de l'évolution du paramètre alpha conjointe au processus de minimisation ou de maximisation de la divergence permettant d'adapter itérativement la divergence à la statistique des données considérées. Au niveau expérimental, nous proposons une étude comparée des différentes approches de segmentation : en premier lieu, sur des images synthétiques bruitées et texturées, puis, sur des images naturelles. Enfin, nous focalisons notre étude sur différentes applications issues des domaines biomédicaux (microscopie confocale cellulaire) et médicaux (radiographie X, IRM) dans le contexte de l'aide au diagnotic. Dans chacun des cas, une discussion sur l'apport des alpha-divergences est proposée.
28

Méthodes variationnelles pour la segmentation avec application à la réalité augmentée / Variational methods for segmentation with application to augmented reality

Julian, Pauline 12 October 2012 (has links)
Dans cette thèse, nous nous intéressons au problème de la segmentation de portraits numériques. Nous appelons portrait numérique la photographie d’une personne avec un cadre allant grossièrement du gros plan au plan poitrine. Le problème abordé dans ce travail est un cas spécifique de la segmentation d’images où il s’agit notamment de définir précisément la frontière de la région « cheveux ». Ce problème est par essence très délicat car les attributs de la région « cheveux » (géométrie, couleur, texture) présentent une grande variabilité à la fois entre les personnes et au sein de la région. Notre cadre applicatif est un système d’« essayage virtuel » de lunettes à destination du grand public, il n’est pas possible de contrôler les conditions de prise de vue comme l’éclairage de la scène ou la résolution des images, ce qui accroît encore la diculté du problème. L’approche proposée pour la segmentation de portraits numériques est une approche du plus grossier au plus fin procédant par étapes successives. Nous formulons le problème comme celui d’une segmentation multi-régions, en introduisant comme « régions secondaires », les régions adjacentes à la région « cheveux » , c.-à-d. les régions « peau » et « fond ». La méthode est fondée sur l’apparence (appearance-based method) et a comme spécificité le fait de déterminer les descripteurs de régions les plus adaptés à partir d’une base d’images d’apprentissage et d’outils statistiques. À la première étape de la méthode, nous utilisons l’information contextuelle d’un portrait numérique — connaissances a priori sur les relations spatiales entre régions— pour obtenir des échantillons des régions « cheveux », « peau » et « fond ». L’intérêt d’une approche fondée sur l’apparence est de pouvoir s’adapter à la fois aux conditions de prises de vue ainsi qu’aux attributs de chaque régions. Au cours de cette étape, nous privilégions les modèles de forme polygonaux couplés aux contours actifs pour assurer la robustesse du modèle. Lors de la seconde étape, à partir des échantillons détectés à l’étape précédente, nous introduisons un descripteur prenant en compte l’information de couleur et de texture. Nous proposons une segmentation grossière par classification en nous appuyant à nouveau sur l’information contextuelle : locale d’une part grâce aux champs de Markov, globale d’autre part grâce à un modèle a priori de segmentation obtenu par apprentissage qui permet de rendre les résultats plus robustes. La troisième étape ane les résultats en définissant la frontière des « cheveux » comme une région de transition. Cette dernière contient les pixels dont l’apparence provient du mélange de contributions de deux régions (« cheveux »et « peau » ou «fond »). Ces deux régions de transition sont post-traitées par un algorithme de «démélange » (digital matting) pour estimer les coecients de transparence entre « cheveux » et « peau », et entre « cheveux » et « fond ». À l’issue de ces trois étapes, nous obtenons une segmentation précise d’un portrait numérique en trois « calques », contenant en chaque pixel l’information de transparence entre les régions « cheveux », « peau » et « fond ». Les résultats obtenus sur une base d’images de portraits numériques ont mis en évidence les bonnes performances de notre méthode. / In this thesis, we are interested in the problem of the segmentation of digital portraits. We call digital portrait the photography of a person with a frame roughly ranging from the close-up to the chest plane. The problem addressed in this work is a specific case of the segmentation of images where it is especially necessary to define precisely the border of the "hair" region. This problem is inherently very delicate because the attributes of the "hair" region (geometry, color, texture) present an important variability between people and within the region. Our application is a system of "virtual fitting" of glasses for the general audience, it is not possible to control the shooting conditions such as stage lighting or image resolution, which increases the difficulty of the problem. The approach proposed for the segmentation of digital portraits is an approach « coarse to fine », proceeding in successive stages. We formulate the problem as a multi-region segmentation, introducing as "secondary regions" regions adjacent to the "hair" region, ie, the "skin" and "background" regions. The method is based on appearance-based method and has as a specificity the determination of the descriptors of regions most adapted from a database of learning and statistical tools. In the first step of the method, we use the contextual information of a Digital portrait - a priori knowledge about the spatial relations between regions - to obtain samples of the regions "hair", "skin" and "background". The value of an appearance-based approach is to be able to adapt to both the shooting conditions and the attributes of each region. During this stage, we prefer polygonal shape models coupled with active contours to ensure the robustness of the model. In the second step, from the samples detected in the previous step, we introduce a descriptor taking into account the color and texture information. We propose a rough segmentation by classification by relying on the contextual information: local on the one hand thanks to the Markov fields, global on the other hand thanks to an a priori model of segmentation obtained by learning which il allow to obtain robust results. The third stage refines the results by defining the border of "hair" as a transition region. This région contains the pixels whose appearance comes from the mixture of contributions of two regions ("hair" and "skin" or "background"). These two transition regions are post-processed by a digital matting algorithm to estimate the coefficients of transparency between "hair" and "skin", and between "hair" and "background". At the end of these three steps, we obtain a precise segmentation of a digital portrait into three "layers", containing in each pixel the information of transparency between the regions "hair", "skin" and "background". The results obtained on the basis of images of digital portraits have highlighted the good performance of our method.
29

Problèmes de reconstruction en Imagerie par Résonance Magnétique parallèle à l'aide de représentations en ondelettes

Chaari, Lotfi 05 November 2010 (has links) (PDF)
Pour réduire le temps d'acquisition ou bien améliorer la résolution spatio-temporelle dans certaines application en IRM, de puissantes techniques parallèles utilisant plusieurs antennes réceptrices sont apparues depuis les années 90. Dans ce contexte, les images d'IRM doivent être reconstruites à partir des données sous-échantillonnées acquises dans le "k-space". Plusieurs approches de reconstruction ont donc été proposées dont la méthode SENSitivity Encoding (SENSE). Cependant, les images reconstruites sont souvent entâchées par des artéfacts dus au bruit affectant les données observées, ou bien à des erreurs d'estimation des profils de sensibilité des antennes. Dans ce travail, nous présentons de nouvelles méthodes de reconstruction basées sur l'algorithme SENSE, qui introduisent une régularisation dans le domaine transformé en ondelettes afin de promouvoir la parcimonie de la solution. Sous des conditions expérimentales dégradées, ces méthodes donnent une bonne qualité de reconstruction contrairement à la méthode SENSE et aux autres techniques de régularisation classique (e.g. Tikhonov). Les méthodes proposées reposent sur des algorithmes parallèles d'optimisation permettant de traiter des critères convexes, mais non nécessairement différentiables contenant des a priori parcimonieux. Contrairement à la plupart des méthodes de reconstruction qui opèrent coupe par coupe, l'une des méthodes proposées permet une reconstruction 4D (3D + temps) en exploitant les corrélations spatiales et temporelles. Le problème d'estimation d'hyperparamètres sous-jacent au processus de régularisation a aussi été traité dans un cadre bayésien en utilisant des techniques MCMC. Une validation sur des données réelles anatomiques et fonctionnelles montre que les méthodes proposées réduisent les artéfacts de reconstruction et améliorent la sensibilité/spécificité statistique en IRM fonctionnelle.
30

EDS Rétrogrades et Contrôle Stochastique Séquentiel en Temps Continu en Finance

Kharroubi, Idris 01 December 2009 (has links) (PDF)
Nous étudions le lien entre EDS rétrogrades et certains problèmes d'optimisation stochas- tique ainsi que leurs applications en finance. Dans la première partie, nous nous intéressons à la représentation par EDSR de problème d'optimisation stochastique séquentielle : le contrôle impul- sionnel et le switching optimal. Nous introduisons la notion d'EDSR contrainte à sauts et montrons qu'elle donne une représentation des solutions de problème de contrôle impulsionnel markovien. Nous lions ensuite cette classe d'EDSR aux EDSRs à réflexions obliques et aux processus valeurs de problèmes de switching optimal. Dans la seconde partie nous étudions la discrétisation des EDSRs intervenant plus haut. Nous introduisons une discrétisation des EDSRs contraintes à sauts utilisant l'approximation par EDSRs pénalisées pour laquelle nous obtenons la convergence. Nous étudions ensuite la discrétisation des EDSRs à réflexions obliques. Nous obtenons pour le schéma proposé une vitesse de convergence vers la solution continument réfléchie. Enfin dans la troisième partie, nous étudions un problème de liquidation optimale de portefeuille avec risque et coût d'exécution. Nous considérons un marché financier sur lequel un agent doit liquider une position en un actif risqué. L'intervention de cet agent influe sur le prix de marché de cet actif et conduit à un coût d'exécution modélisant le risque de liquidité. Nous caractérisons la fonction valeur de notre problème comme solution minimale d'une inéquation quasi-variationnelle au sens de la viscosité contrainte.

Page generated in 0.1445 seconds