• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 389
  • 209
  • 62
  • 13
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 715
  • 253
  • 185
  • 172
  • 145
  • 137
  • 117
  • 117
  • 112
  • 108
  • 104
  • 93
  • 85
  • 84
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Segmentation morphologique et topologique de cubes sismiques

Faucon, Timothée 10 January 2007 (has links) (PDF)
Dans un contexte d'exploration et d'exploitation pétrolières, le traitement des données acquises par sismique réflexion requiert une analyse structurale à des fins de modélisation. Cette analyse passe par une phase d'extraction des structures horizontales représentant les empilements géologiques. Les techniques actuelles nécessitent beaucoup de temps et l'attention quasi permanente d'un spécialiste pour réaliser et valider cette opération effectuée structure par structure. De plus, la quantité de données sismiques augmentant rapidement avec l'évolution des techniques d'acquisition, leur traitement représente une charge de travail de plus en plus importante. Dans cette thèse, nous nous proposons d'alléger la phase d'extraction des structures horizontales en réalisant une segmentation presque automatique de ces dernières à l'aide d'outils basés sur des techniques morphologiques et topologiques. Nous présentons également quelques applications s'appuyant sur les structures que nous avons extraites. Ces applications facilitent l'analyse des données 3D en proposant de nouvelles méthodes de calcul d'attributs sismiques à partir des données d'amplitude.
172

Vers un outil d'aide à la planification et à l'ordonnacement des ressources dans les services de soins

Jebali, Aïda 27 April 2004 (has links) (PDF)
Le travail présenté dans cette thèse aborde le problème de la planification et de l'ordonnancement des<br />ressources dans les services de soins. Nous avons commencé par recenser différents travaux qui ont porté<br />sur l'un des aspects de ce problème. Cette revue de la littérature nous a permis d'opter pour une approche<br />par processus de soins dans l'objectif de minimiser le délai de séjour du patient dans l'hôpital ainsi que les<br />coûts de sa prise en charge, et ce dans le respect de la qualité des soins. Cette approche a été<br />particulièrement illustrée dans le cas de processus de soins passant par un service de chirurgie.<br />Afin de tenir compte des aspects aléatoires, l'une des caractéristiques importantes de l'environnement<br />hospitalier, nous avons proposé de traiter le problème de la planification et de l'ordonnancement des<br />ressources suivant une structure hiérarchique qui porte sur quatre niveaux décisionnels. Le premier niveau<br />porte sur la planification des admissions qui consiste à fixer les dates d'hospitalisation des patients pour une<br />intervention chirurgicale. Cependant, la planification des admissions fournit au patient une date<br />d'hospitalisation qui risque de ne pas être très fiable à cause de la possibilité d'occurrence de différentes<br />perturbations. Nous avons ainsi proposé d'adopter un processus de confirmation des dates d'hospitalisation<br />conformément au programme opératoire construit sur l'horizon de T jours. Le troisième niveau décisionnel<br />consiste dans la construction du programme opératoire journalier. Cette construction est à double objectifs :<br />d'une part, mettre à jour le programme opératoire établi sur l'horizon de T jours en intégrant les différents<br />aléas qui ont pu avoir lieu dans la système de soins tel que le report d' interventions à cause d'admissions de<br />cas urgents, non programmées à l'avance ; d'autre part, préciser l'ordre de réalisation des interventions en<br />considérant les ressources critiques utilisées dans le processus opératoire. Ensuite, nous avons proposé une<br />approche temps-réel pour aider au pilotage du bloc opératoire devant l'occurrence d'aléas nécessitant de<br />repenser le programme opératoire journalier, en cours de réalisation. Parmi les différents types d'aléas<br />auxquels doit faire face le système de soins, nous avons traité ici de près le cas de la prise en compte de<br />l'urgence.
173

Equations aux dérivés partielles elliptiques non linéaires. Applications à la modélisation des solides et aux condensats de Bose-Einstein.

Blanc, Xavier 01 December 2005 (has links) (PDF)
Les travaux présentés dans ce mémoire portent sur des problèmes d'équations ou de systèmes d'équations aux dérivées partielles (EDPs) elliptiques non linéaires. Ils apparaissent comme des équations d'Euler-Lagrange de problèmes de minimisation sous contrainte avec perte de compacité à l'infini. Ces problèmes sont de plus tous liés à des modèles de physique : strucure électronique des solides et (hyper)-élasticité non linéaire (chapitres 1,2 et 3 d'une part, et condensats de Bose-Einstein (chapitre 4) d'autre part.<br /><br />La base de travail des chapitres 1, 2 et 3 est le modèle de Thomas-Fermi-von Weizsäcker (TFW), ou certaines de ses extensions. Dans ce modèle, un système moléculaire est décrit par N noyaux, qui sont des particules classiques ponctuelles, et N électrons, qui sont des particules quantiques définies par leur densité collective. L'énergie TFW, qui dépend des positions des noyaux et de la densité électronique, est minimisée par rapport à cette dernière. Ce modèle est défini au départ pour un nombre fini de noyaux et d'électrons, et sa définition pour une infinité de particules est un problème non trivial. Ce problème, dit de limite thermodynamique, consiste à faire tendre conjointement le nombre de noyaux et d'électrons vers l'infini, en imposant une certaine géométrie (typiquement la périodicité) aux noyaux, et à obtenir la convergence de la densité d'électrons, ainsi que de l'énergie moyenne du système. Ce problème a été résolu dans le cas périodique par I. Catto, C. Le Bris et P.-L. Lions.<br /><br />Le chapitre 1 aborde le problème de la justification de la périodicité supposée dans l'ouvrage de Catto, Le Bris et Lions. Dans la section 1.3, on considère l'énergie TFW d'un cristal comme une fonction du réseau périodique définissant la position des noyaux, et on étudie l'existence d'un minimiseur. Un préliminaire à ce travail, présenté dans la section 1.2, est l'étude des cas dégénérés de réseaux périodiques, à savoir le cas où les noyaux sont répartis périodiquement sur un plan d'une part, et celui où les noyaux sont répartis périodiquement sur une droite d'autre part.<br /><br />Les sections 1.4 et 1.5 abordent le problème sans supposer la périodicité : on minimise l'énergie TFW par rapport à la densité électronque et par rapport à la position des noyaux, à N fixé, et on démontre alors que quand N tend vers l'infini, la configuration minimisante devient périodique. Ce problème est traité théoriquement pour le cas 1D (section 1.4), puis une étude numérique est faite sur le cas 2D (section 1.5), indiquant que le résultat est aussi vrai dans ce cas.<br /><br />Bien que la périodicité soit une bonne approximation pour les cristaux simples, il arrive souvent (dans le cas des polycristaux, des solides amorphes ou de solides cristallins présentant des dislocations par exemple) que cette hypothèse ne soit pas valable. C'est pourquoi on étudie dans le chapitre 2 les problèmes de définition du modèle TFW, pour des solides dont les positions de noyaux ne sont pas périodiques. Un cas déterministe est présenté dans la section 2.1.1, où l'on construit le cadre fonctionnel nécessaire à la définition du modèle, puis on résout le problème de limite thermodynamique associé. La section 2.1.2 présente un cas où les positions des noyaux sont stochastiques. Là aussi, on commence par construire un cadre stochastique (stationnaire ergodique) nécessaire, puis on résout le problème de limite thermodynamique correspondant.<br /><br />Outre ces problèmes de limite thermodynamique, qui font le lien entre un modèle moléculaire et le modèle de théorie des solides correspondant, on étudie dans la section 2.2 des modèles (dits "orbital-free'') plus élaborés utilisés dans certains codes de chimie, sans chercher à les justifier par limite thermodynamique. Cette étude montre que le problème variationnel est mal posé, et que le "minimum'' calculé est un minimum local vraisemblablement dépendant de la discrétisation utilisée et du point de départ de l'algorithme de minimisation.<br /><br />Le modèle TFW est un modèle microscopique. Il est cependant naturel, après l'avoir défini pour des solides (cristallins ou non), d'étudier le lien de ce modèle avec des modèles d'élasticité non linéaire. Ce problème est évoqué dans le chapitre 3, où on considère l'énergie d'un système atomique déformé par un diffémorphisme u, et on passe à la limite quand la distance inter-atomique tend vers 0. On obtient ainsi une énergie hyperélastique qui a la forme de celles utilisées en mécanique. La section 3.1 présente ce travail dans un cadre déterministe, la section 3.2 le même type de résultat dans le cas où les positions des noyaux sont stochastiques.<br /><br />La section 3.3 présente une étude similaire, mais dans le cas d'un joint collé, c'est-à-dire d'une interface d'épaisseur nulle au niveau macroscopique (mais infinie au niveau microscopique). Ce cas est particulier car il doit autoriser un saut de la déformation à travers l'interface, ce qui lui impose une régularité moindre que précédemment.<br /><br />Dans le même esprit, la section 3.4 présente l'analyse du couplage entre un modèle de mécanique des milieux continus et le modèle discret correspondant. L'idée est ici d'étudier la déformation d'un solide qui est régulière dans une partie du solide, mais présente des singularités. Là où la déformation est régulière, on utilise un modèle d'élasticité standard, et là où la déformation est singulière, on revient au modèle discret mettant en jeu les atomes et leurs interactions. Comme à notre connaissance aucune étude théorique n'existait sur ce type de théorie, nous avons étudié un cas très simple de dimension 1, et obtenu des résultats qui laissent penser que le modèle est "bon'' dans le cas convexe (i.e si le potentiel d'interaction des atomes est convexe), mais beaucoup plus douteux dans le cas contraire.<br /><br />Le chapitre 4 présente des travaux sur les condensats de Bose-Einstein. La première section porte sur l'écoulement d'un condensat autour d'un obstacle (physiquement, un laser). Nous établissons l'existence d'une solution sans vortex si la vitesse de translation de l'obstacle est suffisamment faible. Ce résultat avait déjà été établi pour un modèle de dimension 2, et nous l'avons étendu au cas plus réaliste de dimension 3, en étudiant en particulier la zone du bord du condensat où le modèle 2D n'est pas valable (contrairement au coeur du condensat).<br /><br />La section 4.3 concerne l'étude de condensats en rotation, et en particulier des vortex nucléés par cette rotation. Les résultats présentés portent sur la rotation rapide : si Omega est la vitesse de rotation, le système n'a de minimum d'énergie que si Omega < 1. La rotation rapide correspond à la limite Omega tend vers 1. Dans ce régime, la fonction d'onde peut être approximée avec une bonne précision par une fonction analytique multipliée par une gaussienne. Les vortex sont alors les zéros de cette fonction. Nous établissons une borne supérieure de l'énergie en utilisant une fonction test dont les zéros forment un réseau distordu sur les bords du condensat. Ceci est en accord avec les observations expérimentales et numériques.
174

Finance Mathématique et Probabilités Numériques

Bouchard, Bruno 27 November 2007 (has links) (PDF)
Ce document est une synthèse de travaux menés depuis 1998 en finance mathématique et probabilité numérique. <br /> <br /> <br /><br />Le chapitre I présente différents résultats obtenus en finance théorique. La première partie concerne les marchés financiers en temps discret avec frictions. On y étudie trois extensions des modèles usuels~: évaluation d'options américaines, modèles à rendements non-linéaires, arbitrage en information incomplète. <br /> Dans la seconde partie, on résume une série de résultats portant sur les problèmes d'existence et de dualité en gestion optimale de portefeuille en temps continu. Il s'agit essentiellement de s'affranchir de trois hypothèses habituellement retenues~: absence de friction, fonctions d'utilité régulières, utilité ne dépendant que de la consommation ou de la richesse terminale. On présente également de nouveaux résultats de bipolarité sur $L^0$ qui sont liés aux problèmes duaux en optimisation de portefeuille. <br /><br /> <br /><br />Le chapitre II rassemble des travaux portant sur la résolution (explicite ou numérique) de problèmes de cibles stochastiques par des techniques de type solutions de viscosité. Les deux premières sections portent sur les cibles stochastiques et leurs liens avec les équations paraboliques. <br />La troisième section porte sur la couverture d'option en présence de coûts de transaction. <br /> <br />Le chapitre III porte sur la discrétisation et l'approximation numérique d'équations différentielles stochastiques rétrogrades (EDSR). Dans un premier temps, on étudie une famille de représentations alternatives permettant le calcul rapide d'un grand nombre d'espérances conditionnelles. Celle-ci est ensuite utilisée pour construire un schéma numérique permettant la résolution des EDSR dans un modèle markovien et le calcul de prix d'options américaines. On présente ensuite de nouveaux résultats obtenus pour les EDSR à sauts et réfléchies. <br /><br />Le chapitre IV traite de la ``randomisation'' (ou canadisation) de l'horizon de temps en contrôle stochastique.
175

L'optimisation du déploiement des réseaux optiques. Considérations sur l'incertitude de la demande.

Hervet, Cédric 18 December 2013 (has links) (PDF)
L'augmentation des besoins en bande passante dans les réseaux de télécommunications pousse les opérateurs à déployer de nouvelles infrastructures. Pour le réseau d'accès fixe, la fibre optique est la technologie envisagée. Du fait des enjeux financiers et de la complexité qui vont de pair avec ce déploiement, il est crucial d'optimiser son coût tout en respectant à la fois les attentes en qualité de service et les règles d'ingénierie du déploiement. Cette thèse fait suite à des travaux antérieurs, à l'issue desquels le problème avait été modélisé sous la forme d'un programme linéaire en nombres entiers. Un travail conséquent quant à l'amélioration de la résolution de ce problème avait été fourni, et de nombreuses pistes de recherches avaient été envisagées pour faire suite à ces travaux. Parmi ces pistes, il y avait le traitement de l'incertitude sur la demande qui occupe une grande partie de cette étude. En effet, les futurs clients ne s'étant pas encore déclarés, il n'est plus possible de dimensionner le réseau par rapport à des données connues et fixées. Dans ce cas, le problème devient un problème d'optimisation combinatoire dans l'incertain. Le choix a été fait de le traiter sous l'angle de l'optimisation robuste. Cette approche permet de se prémunir contre l'incertitude en garantissant la faisabilité des solutions dans tous les cas ainsi qu'une optimisation du " pire cas ". Le formalisme qui en découle rend souvent les problèmes étudiés complexes à résoudre. En effet, ils font intervenir des formulations à plusieurs niveaux où les décisions sont prises en séquence, avant ou après la réalisation du scénario incertain. Des algorithmes adaptés ont été développés pour permettre l'application de la robustesse au déploiement des réseaux de fibres optiques. Ces algorithmes, exacts ou approchés, ont permis, via leurs résultats, d'obtenir une connaissance stratégique réelle pour les déploiements à venir. A la suite de ces investigations sur le problème du déploiement optique, certains résultats ont pu être étendus et généralisés à d'autres problèmes d'optimisation robuste, comme par exemple des bornes de probabilité sur la pertinence des ensembles d'incertitudes ou une estimation probabiliste des coûts futurs dans les problèmes d'optimisation robuste en deux étapes. En marge de ces travaux sur l'incertitude qui occupent la plus grande partie de cette étude, d'autres travaux ont été réalisés sur ce problème. En effet, dans le but d'améliorer la prise en compte des coûts futurs du réseau (maintenance, gestion, etc.) qui sont, sur le long terme, les plus importants, une approche a été développée qui permet de prendre en compte les " bonnes pratiques " de déploiement directement dans l'optimisation. L'intégration de ces considérations, regroupées sous le terme d'OA&M (pour Organisation, Administration et Maintenance), a été validée par le développement de macro-modèles de coûts, à même d'estimer les gains futurs à attendre de ces nouvelles contraintes. Enfin, nos efforts ont porté sur la résolution d'une version particulière du problème, dans des graphes qui sont des arbres, avec la prise en compte des contraintes de câblage dans l'optimisation. Pour ce problème qui avait déjà été étudié, un nouvel algorithme de programmation dynamique a été proposé. Il s'appuie fortement sur les propriétés du problème et les utilise pour n'explorer qu'un nombre très limité de solutions tout en restant exact. Les performances de l'algorithme ont montré une nette amélioration du temps de calcul par rapport à des approches de type programmation linéaire en nombres entiers. L'ensemble de ces travaux a permis de découvrir d'autres pistes de recherche, notamment sur des versions alternatives du traitement de l'incertitude, ainsi que sur une prise en compte plus fine du câblage dans l'optimisation.
176

A generalisation of property "R"

Cebanu, Radu Andrei 03 1900 (has links) (PDF)
Nous étudions un problème de chirurgie de Dehn, à savoir la caractérisation des nœuds dans les espaces lenticulaires qui admettent des chirurgies intégrales homéomorphes à S1 x S2. Nous montrons que ces nœuds sont fibrés et qu'ils bordent des surfaces de Seifert planaires. De façon équivalente, les nœuds induits dans S1 x S2 sont isotopes à des tresses. Le principal outil que nous avons utilisé est l'homologie de Heegaard-Floer, un ensemble d'invariants de type théorie de jauge développés par Ozsváth-Szabó à partir de 2000. En outre, nous montrons que ces nœuds sont simples au sens de Floer, donc conjecturalement simples. Compte tenu de cette dernière conjecture, nous avons initié une étude de nœuds simples dans les espaces lenticulaires appropriés et nous avons donné une liste potentiellement complète de tous les nœuds simples avec des chirurgies intégrales S1 x S2. Ces nœuds se révèlent être les nœuds induits dans les espaces lenticulaires obtenues en effectuant une chirurgie de Dehn sur certains nœuds doublement primitifs dans S1 x S2, exactement ceux construits par Baker. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : chirurgie de Dehn, espace lenticulaire, homologie de Heegaard-Floer, nœud fibré.
177

Critique aristotélicienne des substances platonicienne dans les livres M-N de la Métaphysique : stratégies et enjeux à travers deux exemples

Leclair-Dufour, Nicolas January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
178

Contributions en morphologie mathématique pour l'analyse d'images multivariées

Velasco-Forero, Santiago 14 June 2012 (has links) (PDF)
Cette thèse contribue au domaine de la morphologie mathématique et illustre comment la statistique multivariée et les techniques d'apprentissage numérique peuvent être exploitées pour concevoir un ordre dans l'espace des vecteurs et pour inclure les résultats d'opérateurs morphologiques au processus d'analyse d'images multivariées. En particulier, nous utilisons l'apprentissage supervisé, les projections aléatoires, les représentations tensorielles et les transformations conditionnelles pour concevoir de nouveaux types d'ordres multivariés et de nouveaux filtres morphologiques pour les images multi/hyperspectrales. Nos contributions clés incluent les points suivants :* Exploration et analyse d'ordre supervisé, basé sur les méthodes à noyaux.* Proposition d'un ordre nonsupervisé, basé sur la fonction de profondeur statistique calculée par projections aléatoires. Nous commençons par explorer les propriétés nécessaires à une image pour assurer que l'ordre ainsi que les opérateurs morphologiques associés, puissent être interprétés de manière similaire au cas d'images en niveaux de gris. Cela nous amènera à la notion de décomposition en arrière plan. De plus, les propriétés d'invariance sont analysées et la convergence théorique est démontrée.* Analyse de l'ordre supervisé dans les problèmes de correspondance morphologique de patrons, qui correspond à l'extension de l'opérateur tout-ou-rien aux images multivariées grâce à l'utilisation de l'ordre supervisé.* Discussion sur différentes stratégies pour la décomposition morphologique d'images. Notamment, la décomposition morphologique additive est introduite comme alternative pour l'analyse d'images de télédétection, en particulier pour les tâches de réduction de dimension et de classification supervisée d'images hyperspectrales de télédétection.* Proposition d'un cadre unifié basé sur des opérateurs morphologiques, pour l'amélioration de contraste et pour le filtrage du bruit poivre-et-sel.* Introduction d'un nouveau cadre de modèles Booléens multivariés en utilisant une formulation en treillis complets. Cette contribution théorique est utile pour la caractérisation et la simulation de textures multivariées.
179

Applications of Reformulations in Mathematical Programming

Costa, Alberto 18 September 2012 (has links) (PDF)
La programmation mathématique est une technique qui peut être utilisée pour résoudre des problèmes concrets où l'on veut maximiser, ou minimiser, une fonction objectif soumise à des contraintes sur les variables décisionnelles. Les caractéristiques les plus importantes de la programmation mathématique sont la création d'un modèle pour décrire le problème (aussi appelé formulation), et la mise en œuvre d'algorithmes efficaces pour le résoudre (aussi appelés solveurs). Dans cette thèse, on s'occupe du premier point. Plus précisemment, on étudie certains problèmes qui proviennent de domaines diffèrents, et en commençant par les modèles les plus naturels pour les décrire, on présente des formulations alternatives, qui partagent certaines propriétés avec le modèle original mais qui sont en quelque sorte meilleures (par exemple au niveau du temps d'exécution nécessaire pour obtenir la solution par le solveur). Ces nouveaux modèles sont appelés reformulations. On suit la classification des reformulations proposée par Liberti dans [Reformulations in Mathematical Programming: Definitions and Systematics, RAIRO-OR, 43(1):55-86, 2009]: exact reformulations (aussi appellées opt-reformulations), narrowings, relaxations. Cette thèse concerne trois applications de la programmation mathématique où les reformulations ont été fondamentales pour obtenir une bonne solution. Le premier problème étudié est le partitionnement de graphes sur la base de la maximisation de la modularité. Comme ce problème est NP-difficile, plusieurs heuristiques sont proposées. On s'occupe d'un algorithme séparatif hiérarchique qui fonctionne en divisant récursivement une classe en deux nouvelles classes de façon optimale. Cet étape de division est accomplie en résolvant un programme binaire quadratique et convexe. Il est reformulé de manière exacte pour obtenir une forme plus compacte sans modifier l'ensemble des solutions optimales (exact reformulation). On considère aussi l'impact donné par la réduction du nombre des solutions symétriques globalement optimales. Les temps d'exécution sont considérablement réduits par rapport à la formulation originelle. Le deuxième problème étudié dans cette thèse est le placement de cercles égaux dans un carré (Packing Equal Circles in a Square, ou PECS), où l'on veut placer des cercles égaux dans un carré de côté 1 sans avoir de superposition et en maximisant le rayon commun. L'une des raisons pour laquelle le problème est difficile à résoudre vient de la présence de plusieurs solutions symétriques optimales, et par conséquent un arbre de séparation-et-évaluation (ou Branch-and-Bound) très large. Certaines solutions symétriques optimales sont rendues irréalisables en ajoutant des contraintes pour briser les symétries (Symmetry Breaking Constraints, ou SBCs) à la formulation, en obtenant ainsi un narrowing. Le temps d'exécution et la dimension de l'arbre de Branch-and-Bound sont tous les deux meilleurs par rapport à la formulation originelle. La troisième application considérée dans cette thèse est le calcul de la relaxation convexe pour des problèmes multilinéaires, et la comparaison de la formulation ''primale'' avec celle obtenue par une représentation ''duale''. Bien que ces deux relaxations soient déjà connues, il est intéressant de voir que la relaxation duale conduit à des meilleures performances de calcul.
180

Problèmes d'identification combinatoire et puissances de graphes

Auger, David 07 June 2010 (has links) (PDF)
Les codes identifiants dans les graphes modélisent des systèmes de détection et de localisation à distance de pannes multiples dans les réseaux. Nous abordons dans une première partie différents problèmes de nature algorithmique ou structurelle concernant plusieurs variations autour de ces codes ; en particulier, nous obtenons de nombreux résultats quant à la structure des graphes sans jumeaux. Ces questions nous amènent dans une deuxième partie à considérer une notion de puissance de graphe, que nous étudions plus avant. Nous obtenons en particulier des résultats de type extrémal et nous consacrons l'étude des racines carrées de graphes.

Page generated in 0.0816 seconds