• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 22
  • 10
  • Tagged with
  • 93
  • 34
  • 28
  • 21
  • 17
  • 17
  • 15
  • 13
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Prise en compte de la variabilité dans le calcul de structures avec contact

Bellec, Jérémie 20 June 2008 (has links) (PDF)
aL'objectif de ce travail est la représentation et la propagation de variabilités dues aux incertitudes dans lescalculs d'assemblages complexes. Nous avons donc commencé par distinguer les différents types de paramètresvariables à modéliser et par répertorier un certain nombre de moyens permettant d'obtenir des informationsstatistiques sur ceux-ci. Nous avons ensuite fait une étude bibliographique des différentes méthodes de calculpermettant de traiter ces incertitudes avec une attention particulière pour les méthodes probabilistes dites nonintrusives que nous avons testé sur un exemple simple. La disparité des résultats obtenus nous à amener à définir unestimateur d'erreur dans le cadre stochastique permettant de quantifier la qualité des modèles utilisés. A partir de cetestimateur, nous avons définit deux indicateurs heuristiques spécifiques permettant de distinguer la part de l'erreurdue à l'approximation stochastique de celle due à l'approximation géométrique. Ces outils ont ensuite permis dedéfinir une technique de calcul adaptative pour les problèmes stochastiques que nous avons appliqué sur un problèmecomplexe proposé par SNECMA.
42

Analyse et développement de méthodes de raffinement hp en espace pour l'équation de transport des neutrons

Fournier, Damien 10 October 2011 (has links) (PDF)
Pour la conception des cœurs de réacteurs de 4ème génération, une précision accrue est requise pour les calculs des différents paramètres neutroniques. Les ressources mémoire et le temps de calcul étant limités, une solution consiste à utiliser des méthodes de raffinement de maillage afin de résoudre l'équation de transport des neutrons. Le flux neutronique, solution de cette équation, dépend de l'énergie, l'angle et l'espace. Les différentes variables sont discrétisées de manière successive. L'énergie avec une approche multigroupe, considérant les différentes grandeurs constantes sur chaque groupe, l'angle par une méthode de collocation, dite approximation Sn. Après discrétisation énergétique et angulaire, un système d'équations hyperboliques couplées ne dépendant plus que de la variable d'espace doit être résolu. Des éléments finis discontinus sont alors utilisés afin de permettre la mise en place de méthodes de raffinement dite hp. La précision de la solution peut alors être améliorée via un raffinement en espace (h-raffinement), consistant à subdiviser une cellule en sous-cellules, ou en ordre (p-raffinement) en augmentant l'ordre de la base de polynômes utilisée.Dans cette thèse, les propriétés de ces méthodes sont analysées et montrent l'importance de la régularité de la solution dans le choix du type de raffinement. Ainsi deux estimateurs d'erreurs permettant de mener le raffinement ont été utilisés. Le premier, suppose des hypothèses de régularité très fortes (solution analytique) alors que le second utilise seulement le fait que la solution est à variations bornées. La comparaison de ces deux estimateurs est faite sur des benchmarks dont on connaît la solution exacte grâce à des méthodes de solutions manufacturées. On peut ainsi analyser le comportement des estimateurs au regard de la régularité de la solution. Grâce à cette étude, une stratégie de raffinement hp utilisant ces deux estimateurs est proposée et comparée à d'autres méthodes rencontrées dans la littérature. L'ensemble des comparaisons est réalisé tant sur des cas simplifiés où l'on connaît la solution exacte que sur des cas réalistes issus de la physique des réacteurs.Ces méthodes adaptatives permettent de réduire considérablement l'empreinte mémoire et le temps de calcul. Afin d'essayer d'améliorer encore ces deux aspects, on propose d'utiliser des maillages différents par groupe d'énergie. En effet, l'allure spatiale du flux étant très dépendante du domaine énergétique, il n'y a a priori aucune raison d'utiliser la même décomposition spatiale. Une telle approche nous oblige à modifier les estimateurs initiaux afin de prendre en compte le couplage entre les différentes énergies. L'étude de ce couplage est réalisé de manière théorique et des solutions numériques sont proposées puis testées.
43

Lois limites fonctionnelles pour le processus empirique et applications

Ouadah, Sarah 05 December 2012 (has links) (PDF)
Nous nous intéressons dans cette thèse à l'estimation non paramétrique de la densité à partir d'un échantillon aléatoire. Nous établissons des propriétés limites d'estimateurs de densité en les déduisant de lois limites fonctionnelles pour le processus empirique local, qui sont démontrées dans un contexte général. L'exposé de thèse, comprenant deux parties, est construit de la manière suivante. La première partie porte sur des lois limites fonctionnelles locales. Elles sont établies pour trois ensembles de suites de fonctions aléatoires, construites à partir: du processus empirique uniforme, du processus empirique de quantiles uniforme et du processus empirique de Kaplan-Meier. Ces lois sont uniformes relativement à la taille des incréments de ces processus empiriques locaux et décrivent le comportement asymptotique de la distance de Hausdorff entre chacun de ces trois ensembles et un ensemble de type Strassen. La deuxième partie porte sur l'estimation non paramétrique de la densité. Nous présentons plusieurs applications des lois limites fonctionnelles locales établies précédemment. Ces résultats comportent, d'une part, la description de lois limites pour des estimateurs non paramétriques de la densité, comprenant les estimateurs à noyau et les estimateurs de la densité par la méthode des plus proches voisins, et d'autre part, des lois limites pour les estimateurs à noyau de la densité des temps de survie et du taux de panne dans un modèle de censure à droite. Ces lois limites ont la particularité d'être établies, dans le cadre de la convergence en probabilité, uniformément relativement aux paramètres de lissage des estimateurs considérés.
44

Diagnostic non invasif de piles à combustible par mesure du champ magnétique proche

Le Ny, Mathieu 10 December 2012 (has links) (PDF)
Cette thèse propose une technique innovante de diagnostic non invasive pour les systèmes piles à combustible. Cette technique s'appuie sur la mesure de la signature magnétique générée par ces systèmes. A l'aide de ces champs magnétiques externes, il est possible d'obtenir une cartographie de la densité de courant interne par résolution d'un problème inverse. Ce problème est néanmoins mal posé : la solution est non unique et est extrêmement sensible au bruit. Des techniques de régularisation ont ainsi été mises en place pour filtrer les erreurs de mesures et obtenir une solution physiquement acceptable. Afin d'augmenter la qualité de reconstruction des courants, nous avons conçu notre outil de diagnostic de manière à ce qu'il soit uniquement sensible aux défaillances de la pile (capteur de défauts). De plus, cette reconstruction se base sur un nombre extrêmement faible de mesures. Une telle approche facilite l'instrumentation du système et augmente la précision et la rapidité de celui-ci. La sensibilité de notre outil à certaines défaillances (assèchements, appauvrissement en réactifs, dégradations) est démontrée.
45

Contribution à l'analyse des performances d'estimation en traitement statistique du signal

Renaux, Alexandre 07 July 2006 (has links) (PDF)
Cette thèse porte sur l'étude des performances des estimateurs dans le cadre du traitement du signal et s'attache plus particulièrement à étudier et unifier les bornes minimales d'estimation. Nous caractérisons ainsi les limites des méthodes du maximum de vraisemblance en terme d'erreur quadratique moyenne (EQM).<br /><br />La difficulté majeure provient du fait que l'EQM de l'estimateur d'un paramètre à support borné se divise en trois régions : la plage asymptotique, souvent caractérisée par un grand nombre d'observations ou un faible niveau de bruit, où l'erreur d'estimation est faible, la plage de décrochement où l'EQM se dégrade rapidement et la zone a priori où les observations se réduisent principalement à la seule contribution du bruit et donc, n'apportent pratiquement plus d'informations sur les paramètres à estimer. Beaucoup de résultats sont disponibles pour la zone asymptotique : distribution des estimées, biais, variance. En revanche, le comportement des estimateur dans les zones de décrochement et a priori a été beaucoup moins étudié. Pourtant ces zones non-asymptotiques constituent au même titre que le biais ou la variance une caractéristique fondamentale d'un estimateur puisque qu'elle délimite la plage acceptable de fonctionnement optimal.<br /><br />Le but de cette thèse est, dans un premier temps, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et pour un nombre d'observations fini) pour les estimateurs au sens du maximum de vraisemblance dans un contexte traitement d'antenne. Dans un second temps, le but est de donner les limites fondamentales de l'EQM d'un estimateur sur ses trois plages de fonctionnement. Les outils utilisés ici sont les bornes minimales de l'EQM autres que les bornes de Cramér-Rao dont la validité n'est qu'asymptotique.<br /><br />Les résultats obtenus sont appliqués à l'analyse spectrale et à l'estimation de porteuse dans le contexte des communications numériques et fournissent de surcroît des outils intéressants pour prédire la zone de décrochement d'un récepteur.
46

Approches variationnelles statistiques spatio-temporelles pour l'analyse quantitative de la perfusion myocardique en IRM

Hamrouni-Chtourou, Sameh 11 July 2012 (has links) (PDF)
L'analyse quantitative de la perfusion myocardique, i.e. l'estimation d'indices de perfusion segmentaires puis leur confrontation à des valeurs normatives, constitue un enjeu majeur pour le dépistage, le traitement et le suivi des cardiomyopathies ischémiques --parmi les premières causes de mortalité dans les pays occidentaux. Dans la dernière décennie, l'imagerie par résonance magnétique de perfusion (IRM-p) est la modalité privilégiée pour l'exploration dynamique non-invasive de la perfusion cardiaque. L'IRM-p consiste à acquérir des séries temporelles d'images cardiaques en incidence petit-axe et à plusieurs niveaux de coupe le long du grand axe du cœur durant le transit d'un agent de contraste vasculaire dans les cavités et le muscle cardiaques. Les examens IRM-p résultants présentent de fortes variations non linéaires de contraste et des artefacts de mouvements cardio-respiratoires. Dans ces conditions, l'analyse quantitative de la perfusion myocardique est confrontée aux problèmes complexes de recalage et de segmentation de structures cardiaques non rigides dans des examens IRM-p. Cette thèse se propose d'automatiser l'analyse quantitative de la perfusion du myocarde en développant un outil d'aide au diagnostic non supervisé dédié à l'IRM de perfusion cardiaque de premier passage, comprenant quatre étapes de traitement : -1.sélection automatique d'une région d'intérêt centrée sur le cœur; -2.compensation non rigide des mouvements cardio-respiratoires sur l'intégralité de l'examen traité; -3.segmentation des contours cardiaques; -4.quantification de la perfusion myocardique. Les réponses que nous apportons aux différents défis identifiés dans chaque étape s'articulent autour d'une idée commune : exploiter l'information liée à la cinématique de transit de l'agent de contraste dans les tissus pour discriminer les structures anatomiques et guider le processus de recalage des données. Ce dernier constitue le travail central de cette thèse. Les méthodes de recalage non rigide d'images fondées sur l'optimisation de mesures d'information constituent une référence en imagerie médicale. Leur cadre d'application usuel est l'alignement de paires d'images par appariement statistique de distributions de luminance, manipulées via leurs densités de probabilité marginales et conjointes, estimées par des méthodes à noyaux. Efficaces pour des densités jointes présentant des classes individualisées ou réductibles à des mélanges simples, ces approches atteignent leurs limites pour des mélanges non-linéaires où la luminance au pixel s'avère être un attribut trop frustre pour permettre une décision statistique discriminante, et pour des données mono-modal avec variations non linéaires et multi-modal. Cette thèse introduit un modèle mathématique de recalage informationnel multi-attributs/multi-vues générique répondant aux défis identifiés: (i) alignement simultané de l'intégralité de l'examen IRM-p analysé par usage d'un atlas, naturel ou synthétique, dans lequel le cœur est immobile et en utilisant les courbes de rehaussement au pixel comme ensemble dense de primitives; et (ii) capacité à intégrer des primitives image composites, spatiales ou spatio-temporelles, de grande dimension. Ce modèle, disponible dans le cadre classique de Shannon et dans le cadre généralisé d'Ali-Silvey, est fondé sur de nouveaux estimateurs géométriques de type k plus proches voisins des mesures d'information, consistants en dimension arbitraire. Nous étudions leur optimisation variationnelle en dérivant des expressions analytiques de leurs gradients sur des espaces de transformations spatiales régulières de dimension finie et infinie, et en proposant des schémas numériques et algorithmiques de descente en gradient efficace. Ce modèle de portée générale est ensuite instancié au cadre médical ciblé, et ses performances, notamment en terme de précision et de robustesse, sont évaluées dans le cadre d'un protocole expérimental tant qualitatif que quantitatif
47

Identification de systèmes non linéaires blocs

Rochdi, Youssef 21 December 2006 (has links) (PDF)
Cette thèse porte sur le problème d'identification des systèmes non linéaires sur la base des modèles blocs. Deux types de modèles sont considérés ici, ceux de type Hammerstein et ceux de type Wiener. La plupart des solutions antérieures ont été élaborées sous des hypothèses assez contraignantes concernant le sous-système non linéaire du modèle. Celui-ci a souvent été supposé lisse (voire polynomial), inversible et sans mémoire. Les travaux présentés dans cette thèse tentent de repousser ces limites. Dans le cas des systèmes de type Hammerstein, nous élaborons un schéma d'identification qui ne fait aucune hypothèse sur l'élément non linéaire, à l'exception du fait qu'il est sans mémoire et l¥-stable ; ce schéma estime parfaitement (du moins dans la cas idéal) les paramètres du sous-système dynamique linéaire et un nuage de points de la caractéristique de l'élément non linéaire. Ce schéma est ensuite adapté au cas où l'on connaît la structure de l'élément non linéaire ; à ce propos, les non-linéarités statiques affines par morceaux et discontinues jouissent d'une attention particulière. Nous terminons la partie consacrée à l'identification des systèmes de Hammerstein, en abordant le problème des systèmes impliquant un élément non linéaire à mémoire. Deux familles d'éléments de cette nature sont considérées : celle comprenant des éléments hystérétiques non saturés et celle des éléments hystérisis-relais. Le problème est appréhendé à l'aide d'un schéma d'identification dont on établit la consistance en présence de perturbations assimilables à un bruit blanc appliqué en sortie du système. <br /> La dernière partie du mémoire est centrée sur l'identification des systèmes de Wiener, dont l'élément non linéaire n'est pas supposé inversible. A cet effet, nous présentons deux schémas d'identification de type fréquentiel et établissons leur consistance dans les mêmes conditions que précédemment concernant les perturbations. L'exigence d'excitation persistante occupe une place centrale dans cette thèse. Pour procurer cette propriété aux différents schémas d'identifications proposés, il a été fait appel à une famille de signaux d'excitation de type impulsionnelle. Dans ce cadre, un lemme technique est élaboré précisant, pour les systèmes linéaires, le lien entre cette famille de signaux et la propriété d'excitation persistante. L'adaptation de ce lemme au cas des systèmes non linéaires est illustrée dans les différents schémas d'identification.
48

Modélisation statistique pour données fonctionnelles : approches non-asymptotiques et méthodes adaptatives

Roche, Angelina 07 July 2014 (has links) (PDF)
L'objet principal de cette thèse est de développer des estimateurs adaptatifs en statistique pour données fonctionnelles. Dans une première partie, nous nous intéressons au modèle linéaire fonctionnel et nous définissons un critère de sélection de la dimension pour des estimateurs par projection définis sur des bases fixe ou aléatoire. Les estimateurs obtenus vérifient une inégalité de type oracle et atteignent la vitesse de convergence minimax pour le risque lié à l'erreur de prédiction. Pour les estimateurs définis sur une collection de modèles aléatoires, des outils de théorie de la perturbation ont été utilisés pour contrôler les projecteurs aléatoires de manière non-asymptotique. D'un point de vue numérique, cette méthode de sélection de la dimension est plus rapide et plus stable que les méthodes usuelles de validation croisée. Dans une seconde partie, nous proposons un critère de sélection de fenêtre inspiré des travaux de Goldenshluger et Lepski, pour des estimateurs à noyau de la fonction de répartition conditionnelle lorsque la covariable est fonctionnelle. Le risque de l'estimateur obtenu est majoré de manière non-asymptotique. Des bornes inférieures sont prouvées ce qui nous permet d'établir que notre estimateur atteint la vitesse de convergence minimax, à une perte logarithmique près. Dans une dernière partie, nous proposons une extension au cadre fonctionnel de la méthodologie des surfaces de réponse, très utilisée dans l'industrie. Ce travail est motivé par une application à la sûreté nucléaire.
49

Sondages pour données fonctionnelles : construction de bandes de confiance asymptotiques et prise en compte d'information auxiliaire

Josserand, Etienne 12 October 2011 (has links) (PDF)
Lorsque des bases de données fonctionnelles sont trop grandes pour être observées de manière exhaustive, les techniques d'échantillonnage fournissent une solution efficace pour estimer des quantités globales simples, telles que la courbe moyenne, sans être obligé de stocker toutes les données. Dans cette thèse, nous proposons un estimateur d'Horvitz-Thompson de la courbe moyenne, et grâce à des hypothèses asymptotiques sur le plan de sondage nous avons établi un Théorème Central Limite Fonctionnel dans le cadre des fonctions continues afin d'obtenir des bandes de confiance asymptotiques. Pour un plan d'échantillonnage à taille fixe, nous montrons que le sondage stratifié peut grandement améliorer l'estimation comparativement au sondage aléatoire simple. De plus, nous étendons la règle d'allocation optimale de Neyman dans le contexte fonctionnel. La prise en compte d'information auxiliaire a été développée grâce à des estimateurs par modèle assisté, mais aussi en utilisant directement cette information dans les poids d'échantillonnage avec le sondage à probabilités inégales proportionnelles à la taille. Le cas des courbes bruitées est également étudié avec la mise en place d'un lissage par polynômes locaux. Pour sélectionner la largeur de la fenêtre de lissage, nous proposons une méthode de validation croisée qui tient compte des poids de sondage. Les propriétés de consistance de nos estimateurs sont établies, ainsi que la normalité asymptotique des estimateurs de la courbe moyenne. Deux méthodes de constructions des bandes de confiance sont proposées. La première utilise la normalité asymptotique de nos estimateurs en simulant un processus Gaussien conditionnellement à sa fonction de covariance afin d'en estimer la loi du sup. La seconde utilise des techniques de bootstrap en population finie qui ne nécessitent pas l'estimation de la fonction de covariance.
50

Analyse et développement de méthodes de raffinement hp en espace pour l'équation de transport des neutrons

Fournier, Damien 10 October 2011 (has links)
Pour la conception des cœurs de réacteurs de 4ème génération, une précision accrue est requise pour les calculs des différents paramètres neutroniques. Les ressources mémoire et le temps de calcul étant limités, une solution consiste à utiliser des méthodes de raffinement de maillage afin de résoudre l'équation de transport des neutrons. Le flux neutronique, solution de cette équation, dépend de l'énergie, l'angle et l'espace. Les différentes variables sont discrétisées de manière successive. L'énergie avec une approche multigroupe, considérant les différentes grandeurs constantes sur chaque groupe, l'angle par une méthode de collocation, dite approximation Sn. Après discrétisation énergétique et angulaire, un système d'équations hyperboliques couplées ne dépendant plus que de la variable d'espace doit être résolu. Des éléments finis discontinus sont alors utilisés afin de permettre la mise en place de méthodes de raffinement dite hp. La précision de la solution peut alors être améliorée via un raffinement en espace (h-raffinement), consistant à subdiviser une cellule en sous-cellules, ou en ordre (p-raffinement) en augmentant l'ordre de la base de polynômes utilisée.Dans cette thèse, les propriétés de ces méthodes sont analysées et montrent l'importance de la régularité de la solution dans le choix du type de raffinement. Ainsi deux estimateurs d'erreurs permettant de mener le raffinement ont été utilisés. Le premier, suppose des hypothèses de régularité très fortes (solution analytique) alors que le second utilise seulement le fait que la solution est à variations bornées. La comparaison de ces deux estimateurs est faite sur des benchmarks dont on connaît la solution exacte grâce à des méthodes de solutions manufacturées. On peut ainsi analyser le comportement des estimateurs au regard de la régularité de la solution. Grâce à cette étude, une stratégie de raffinement hp utilisant ces deux estimateurs est proposée et comparée à d'autres méthodes rencontrées dans la littérature. L'ensemble des comparaisons est réalisé tant sur des cas simplifiés où l'on connaît la solution exacte que sur des cas réalistes issus de la physique des réacteurs.Ces méthodes adaptatives permettent de réduire considérablement l'empreinte mémoire et le temps de calcul. Afin d'essayer d'améliorer encore ces deux aspects, on propose d'utiliser des maillages différents par groupe d'énergie. En effet, l'allure spatiale du flux étant très dépendante du domaine énergétique, il n'y a a priori aucune raison d'utiliser la même décomposition spatiale. Une telle approche nous oblige à modifier les estimateurs initiaux afin de prendre en compte le couplage entre les différentes énergies. L'étude de ce couplage est réalisé de manière théorique et des solutions numériques sont proposées puis testées. / The different neutronic parameters have to be calculated with a higher accuracy in order to design the 4th generation reactor cores. As memory storage and computation time are limited, adaptive methods are a solution to solve the neutron transport equation. The neutronic flux, solution of this equation, depends on the energy, angle and space. The different variables are successively discretized. The energy with a multigroup approach, considering the different quantities to be constant on each group, the angle by a collocation method called Sn approximation. Once the energy and angle variable are discretized, a system of spatially-dependent hyperbolic equations has to be solved. Discontinuous finite elements are used to make possible the development of $hp-$refinement methods. Thus, the accuracy of the solution can be improved by spatial refinement (h-refinement), consisting into subdividing a cell into subcells, or by order refinement (p-refinement), by increasing the order of the polynomial basis.In this thesis, the properties of this methods are analyzed showing the importance of the regularity of the solution to choose the type of refinement. Thus, two error estimators are used to lead the refinement process. Whereas the first one requires high regularity hypothesis (analytical solution), the second one supposes only the minimal hypothesis required for the solution to exist. The comparison of both estimators is done on benchmarks where the analytic solution is known by the method of manufactured solutions. Thus, the behaviour of the solution as a regard of the regularity can be studied. It leads to a hp-refinement method using the two estimators. Then, a comparison is done with other existing methods on simplified but also realistic benchmarks coming from nuclear cores.These adaptive methods considerably reduces the computational cost and memory footprint. To further improve these two points, an approach with energy-dependent meshes is proposed. Actually, as the flux behaviour is very different depending on the energy, there is no reason to use the same spatial discretization. Such an approach implies to modify the initial estimators in order to take into account the coupling between groups. This study is done from a theoretical as well as from a numerical point of view.

Page generated in 0.0531 seconds