• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 79
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 208
  • 52
  • 29
  • 27
  • 27
  • 26
  • 24
  • 22
  • 22
  • 21
  • 21
  • 19
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Minimisation d'énergie sous contraintes, applications en algèbre linéaire et en contrôle linéaire

Gryson, Alexis 01 July 2009 (has links) (PDF)
Le problème de Zolotarev pour des ensembles discrets apparaît pour décrire le taux de convergence de la méthode ADI, dans l'approximation de certaines fonctions matricielles ou encore pour quantifier le taux de décroissance des valeurs singulières de certaines matrices structurées. De plus, la réduction de modèle constitue un enjeu important en théorie du contrôle linéaire, et on peut prédire la qualité de l'approximation d'un système dynamique linéaire continu stationnaire de grande dimension donné grâce à la résolution approchée d'une équation de Sylvester. Après avoir prouvé l'existence d'un minimiseur pour le troisième problème de Zolotarev pour des ensembles discrets, on détermine dans cette thèse le comportement asymptotique faible de ce problème sous certaines hypothèses de régularité. Pour mener cette étude, on considère un problème de minimisation d'énergie sous contraintes pour des mesures signées en théorie du potentiel logarithmique. On discute également la précision de nos résultats asymptotiques pour des ensembles discrets généraux du plan complexe, et une formule intégrale explicite est établie dans le cas particulier de deux sous-ensembles discrets de l'axe réel symétriques par rapport à l'origine. L'impact de nos résultats théoriques pour l'analyse du taux de convergence de la méthode ADI appliquée pour la résolution approchée d'une équation de Lyapounov est estimé à l'aide de plusieurs exemples numériques après avoir exposé l'algorithme nous permettant d'obtenir les paramètres utilisés.
42

Expérimentation d'automates à seuil pour la connaissance de caractères

Pan, Xin An 14 June 1985 (has links) (PDF)
Ce travail concerne l'expérimentation numérique de trois modèles de mathématiques appliquées : le premier chapitre est consacré à la localisation des minima de Pareto relatifs à plusieurs formes quadratiques ; le second chapitre concerne l'expérimentation numérique d'un modèle itératif de la respiration; le troisième chapitre, le plus développé, est consacré à la reconnaissance de caractères par un réseau d'automates à seuil. De nouveaux algorithmes sont proposés, dont on montre l'efficacité accrue. L'expérimentation est conduite sur la reconnaissance de caractères chinois
43

Influence des perturbations géométriques de domaines sur les solutions d'équations aux dérivées partielles

Bonnivard, Matthieu 30 November 2010 (has links) (PDF)
Nous étudions l'influence des perturbations géométriques des parois d'un domaine sur les solutions d'équations aux dérivées partielles à valeurs vectorielles, à travers un effet géométrique appelé l'effet de rugosité. Cet effet consiste à transformer des conditions de non pénétration imposées sur une suite de parois oscillantes convergeant vers une paroi lisse, en une condition qualifiée de glissement dirigé avec friction, ou friction-driven, dont une formulation générale a été obtenue en 2009 par Bucur, Feireisl et Necasova. Nous caractérisons l'effet de rugosité produit par des parois périodiques ou cristallines à l'aide des mesures de Young et de mesures capacitaires permettant de comprendre l'effet des oscillations des vecteurs normaux. D'autre part, nous démontrons la stabilité de la trajectoire d'un solide déformable à faible nombre de Reynolds, par rapport aux déformations qu'on lui impose, et proposons un schéma numérique de résolution du modèle. C'est une première étape vers la compréhension d'un effet de rugosité dynamique produit par une famille continue de micro-déformations du bord. Enfin, nous considérons le problème de la traînée d'un solide immergé dans un fluide visqueux, avec des conditions friction-driven sur la paroi solide. Après avoir montré que le problème est bien posé, nous décrivons le problème de minimisation de la traînée en termes de micro-structure de la paroi associée à la condition friction-driven. À l'aide d'outils de gamma-convergence, nous montrons que ce problème de micro-optimisation de forme possède une solution. Nous validons ces résultats par des exemples numériques et mettons en oeuvre une méthode numérique d'optimisation.
44

Génération aléatoire d'automates et analyse d'algorithmes de minimisation

David, Julien 28 September 2010 (has links) (PDF)
Cette thèse porte sur la génération aléatoire uniforme des automates finis et l'analyse des algorithmes de minimisation qui s'y appliquent. La génération aléatoire permet de conduire une étude expérimentale sur les propriétésde l'objet engendré et sur les méthodes algorithmiques qui s'y appliquent. Il s'agit également d'un outil de recherche, qui permet de faciliter l'étude théorique du comportement moyen des algorithmes. L'analyse en moyenne des algorithmes s'inscrit dans la suite des travaux précurseurs de Donald Knuth. Le schéma classique en analyse d'algorithmes consiste à étudier le pire des cas, qui n'est souvent pas représentatif du comportement de l'algorithme en pratique. D'un point de vue théorique, on définit ce qui se produit "souvent'' en fixant une loi de probabilitésur les entrées de l'algorithme. L'analyse en moyenne consiste alors à estimer des ressources utiliséespour cette distribution de probabilité. Dans ce cadre, j'ai travaillé sur des algorithmes de génération aléatoire d'automatesdéterministes accessibles (complets ou non). Ces algorithmes sont basés sur de la combinatoirebijective, qui permet d'utiliser un procédé générique : les générateurs de Boltzmann. J'ai ensuite implanté ces méthodes dans deux logiciels : REGAL et PREGA. Je me suis intéressé à l'analyse en moyenne des algorithmes de minimisation d'automateset j'ai obtenu des résultats qui montrent le cas moyen des algorithmes de Moore et Hopcroft est bien meilleur que le pire des cas
45

Recalage non rigide en imagerie cérébrale : méthodes et validation

Hellier, Pierre 22 December 2000 (has links) (PDF)
Dans le contexte de la fusion de données en imagerie médicale, cette thèse s'intéresse aux problèmes de recalage non-rigide en imagerie cérébrale, monomodalité et multimodalité. Dans un premier temps, nous avons développé une approche originale pour estimer une transformation $3D$ dense entre deux volumes IRM de deux sujets différents. Cette méthode est basée sur une estimation du flot optique, exprimé dans un cadre statistique robuste. Nous avons également proposé un schéma de minimisation efficace, à la fois multirésolution et multigrille, s'appuyant sur des contraintes anatomiques. Nous avons validé cette méthode sur des données synthétiques, puis sur une base de donnée de 18 sujets. Dans un deuxième temps, nous nous sommes intéressés au problème du recalage non-rigide multimodalité. Les images fonctionnelles IRMf, en acquisition EPI, présentent des déformations géométriques qui gênent l'interprétation des données fonctionnelles. Nous avons proposé un algorithme de recalage non-rigide multimodalité à l'aide d'une mesure de similarité adaptée, dans un cadre de minimisation multigrille. Dans un troisième temps, nous avons proposé un cadre de validation de méthodes de recalage non-rigides. 5 méthodes différentes, parmi lesquelles des approches classiques et des approches plus récentes, ont été évaluées sur la base de critères globaux (volume moyen, corrélation des Lvv, recouvrement des tissus anatomiques) et de critères locaux (recalage des sillons corticaux). Enfin, nous avons étudié des approches coopératives utilisant les processus de segmentation et de recalage. Basée sur une méthode de type ``ensemble de niveaux'', la segmentation de structures anatomiques peut être guidée par un champ grossier de déformation. Le recalage permet d'initialiser correctement les modèles déformables, entraînant une segmentation automatique, plus robuste, plus précise et considérablement plus rapide. D'autre part, la segmentation de structures anatomiques d'intérêt comme les sillons corticaux permet de contraindre le processus de recalage présenté dans la première partie. En particulier, le cadre statistique permet d'intégrer cette contrainte locale et éparse de manière naturelle. Sur la base de 18 sujets, nous avons montré l'apport de cette contrainte anatomique.
46

Inégalités probabilistes pour l'estimateur de validation croisée dans le cadre de l'apprentissage statistique et Modèles statistiques appliqués à l'économie et à la finance

Cornec, Matthieu 04 June 2009 (has links) (PDF)
L'objectif initial de la première partie de cette thèse est d'éclairer par la théorie une pratique communément répandue au sein des practiciens pour l'audit (ou risk assessment en anglais) de méthodes prédictives (ou prédicteurs) : la validation croisée (ou cross-validation en anglais). La seconde partie s'inscrit principalement dans la théorie des processus et son apport concerne essentiellement les applications à des données économiques et financières. Le chapitre 1 s'intéresse au cas classique de prédicteurs de Vapnik-Chernovenkis dimension (VC-dimension dans la suite) finie obtenus par minimisation du risque empirique. Le chapitre 2 s'intéresse donc à une autre classe de prédicteurs plus large que celle du chapitre 1 : les estimateurs stables. Dans ce cadre, nous montrons que les méthodes de validation croisée sont encore consistantes. Dans le chapitre 3, nous exhibons un cas particulier important le subagging où la méthode de validation croisée permet de construire des intervalles de confiance plus étroits que la méthodologie traditionnelle issue de la minimisation du risque empirique sous l'hypothèse de VC-dimension finie. Le chapitre 4 propose un proxy mensuel du taux de croissance du Produit Intérieur Brut français qui est disponible officiellement uniquement à fréquence trimestrielle. Le chapitre 5 décrit la méthodologie pour construire un indicateur synthétique mensuel dans les enquêtes de conjoncture dans le secteur des services en France. L'indicateur synthétique construit est publié mensuellement par l'Insee dans les Informations Rapides. Le chapitre 6 décrit d'un modèle semi-paramétrique de prix spot d'électricité sur les marchés de gros ayant des applications dans la gestion du risque de la production d'électricité.
47

Processus multifractals en finance et valorisation d'options par minimisation de risques extrêmes.

Pochart, Benoit 27 November 2003 (has links) (PDF)
Dans une première partie, après avoir rappelé les principales caractéristiques statistiques des séries financières, en particulier l'existence de corrélations non linéaires à longue portée et d'une asymétrie fortement persistante, nous mettons en évidence la pertinence des processus multifractals pour la modélisation de ces faits stylisés. Les constructions récemment proposées dans la littérature demeurent cependant exclusivement symétriques et nous montrons comment introduire de l'asymétrie dans ces modèles sans sacrifier leurs propriétés d'échelle. Il est alors possible de rendre compte du phénomène de smile de volatilité. Dans une deuxième partie, nous proposons une méthode numérique pour la valorisation et la couverture d'options en marché incomplet. Notre algorithme peut en outre être généralisé sans difficulté pour tenir compte d'autres imperfections du marché comme les frais de transaction.
48

Certificats de positivité et minimisation polynomiale dans la base de Bernstein multivariée

Leroy, Richard 05 December 2008 (has links) (PDF)
L'étude des polynômes réels en plusieurs variables est un problème classique en géométrie algébrique réelle et en calcul formel. Plusieurs questions sont naturelles : positivité éventuelle, calcul du minimum...<br /><br />Nous nous proposons, dans cette thèse, d'étudier ces questions dans le cas particulier où l'étude est menée sur un simplexe de $\R^k$.<br /><br />L'outil essentiel dans notre travail est la base de Bernstein, plus adaptée à la situation que la traditionnelle base des monômes. Elle jouit notamment de propriétés de positivité et d'encadrement essentielles à notre étude.<br /><br />Elle permet tout d'abord d'obtenir un algorithme décidant si un polynôme $f$ est positif sur un simplexe $V$, et le cas échéant, fournissant une écriture de $f$ rendant triviale cette positivité : on parle de certificat de positivité.<br /><br />En outre, elle est à l'origine d'un algorithme de minimisation polynomiale sur un simplexe. Ces deux algorithmes sont certifiés, et l'étude de leur complexité est menée dans cette thèse. Ils ont également fait l'objet d'implémentation sur ordinateur.
49

Laparoscopic or Open Inguinal Hernia Repair - Which is Best for the Patient?

Eklund, Arne January 2009 (has links)
Inguinal hernia repair is the most common operation in general surgery. Its main challenge is to achieve low recurrence rates. With the introduction of mesh implants, first in open and later in laparoscopic repair, recurrence rates have decreased substantially. Therefore, the focus has been shifted from clinical outcome, such as recurrence, towards patient-experienced endpoints, such as chronic pain. In order to compare the results of open and laparoscopic hernia repair, a randomised multicentre trial - the Swedish Multicentre trial of Inguinal hernia repair by Laparoscopy (SMIL) - was designed by a study group from 11 hospitals. Between November 1996 and August 2000, 1512 men aged 30-70 years with a primary inguinal hernia were randomised to either laparoscopic (TEP, Totally ExtraPeritoneal) or open (Lichtenstein) repair. The primary endpoint was recurrence at five years. Secondary endpoints were short-term results, frequency of chronic pain and a cost analysis including complications and recurrences up to five years after surgery. In total, 1370 patients, 665 in the TEP and 705 in the Lichtenstein group, underwent operation. With 94% of operated patients available for follow-up after 5.1 years, the recurrence rate was 3.5% in the TEP and 1.2% in the Lichtenstein group. Postoperative pain was lower in the TEP group up to 12 weeks after operation, resulting in five days less sick leave and 11 days shorter time to full recovery. Patients in the TEP group had a slightly increased risk of major complications. Chronic pain was reported by 9-11% of patients in the TEP and 19-25% in the Lichtenstein group at the different follow-up points. Hospital costs for TEP were higher than for Lichtenstein, while community costs were lower due to shorter sick leave. By avoiding disposable laparoscopic equipment, the cost for TEP would be almost equal compared with Lichtenstein. In conclusion, both TEP and Lichtenstein repair have advantages and disadvantages for the patient. Depending on local resources and expertise both methods can be used and recommended for primary inguinal hernia repair.
50

Algèbres de polynômes bornés sur ensembles semi-algébriques non bornés

Michalska, Maria 30 November 2011 (has links) (PDF)
Dans cette thèse nous étudions les algèbres des polynômes qui sont bornés sur un ensemble semi-algébrique non borné. Tout d'abord nous abordons le problème consistant à déterminer si un polynôme est borné sur un ensemble. Nous résolvons ce problème pour les polynômes à deux variables définis sur des ensembles semi-algébriques quelconques. Dans la section suivante nous donnons une méthode pour déterminer des générateurs de l'algèbre des polynômes bornés et ce pour une large classe de semi-algébriques du plan réel. Dans la section 3 nous établissons une relation entre les valeurs de bifurcation du complexifié d'un polynôme $f$ à deux variables et la stabilité de la famille d'algèbres des polynômes bornés sur les ensembles ${fle c}$. Dans la section 4 nous décrivons la structure de l'algèbre des polynômes bornés sur un certain type de sous-ensembles de $mathbb{R}^n$ avec $n$ arbitraire, que nous appelons tentacules pondérées. Nous donnons aussi une preuve géométrique du fait que l'algèbre d'un sous-ensemble non borné d'un ensemble algébrique propre n'est pas de type fini. Dans la section suivante nous établissons une correspondance entre les cônes convexes et les algèbres des ensembles obtenus par des inégalités sur des monômes appropriés. Enfin, nous démontrons une version du Positivstellensatz de Schmudgen pour les polynômes bornés sur un ensemble non compact.

Page generated in 0.1087 seconds