• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 46
  • 9
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 218
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 20
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Contributions à la planification d'expériences robuste à l'erreur structurelle

Roger, Morgan 26 November 2007 (has links) (PDF)
Nous traitons le problème de planification d'expériences robuste à l'erreur structurelle pour la régression, lorsque la structure de régression est paramétrique et linéaire par rapport aux paramètres. L'erreur structurelle est modélisée par un processus stochastique, gaussien ou plus généralement qui possède un moment d'ordre deux. On considère principalement le cas de l'estimation des paramètres par moindres carrés avec comme critère de performance du prédicteur l'intégrale de l'erreur quadratique de prédiction (IEQP), mais la démarche reste valable pour les moindres carrés pondérés et pour toute fonctionnelle linéaire de l'erreur de prédiction. Les critères d'optimalité retenus sont fondés sur l'espérance totale (par rapport à la loi conjointe du bruit et l'erreur structurelle) de l'IEQP et le quantile de l'IEQP, qu'on optimise pour les protocoles exacts à l'aide d'une méthode par essaim de particules. L'optimisation du quantile a nécessité de développer une méthode numérique efficace pour l'approximation du quantile d'une somme de carrés de variables gaussiennes centrées corrélées. Le problème de la dépendance des protocoles vis-à-vis des hyperparamètres (introduits par la fonction de covariance du processus stochastique) est traité par une approche de type maximin de l'efficacité, et aboutit à la définition d'un nouveau critère d'optimalité, dont l'optimisation est rendue possible par l'emploi d'une interpolation dans l'évaluation du critère. Les protocoles optimaux obtenus prouvent leurs bonnes performances vis-à-vis d'autres critères et se comparent favorablement à d'autres protocoles issus de critères de la littérature. L'application de la démarche à la conception d'un débitmètre robuste aux singularités de conduite permet d'illustrer comment introduire des connaissances a priori précises sur la nature de l'erreur structurelle, ici des données issues de codes aux éléments finis.
72

Identification expérimentale et modélisation micromécanique du comportement d'un multicristal en alliage à mémoire de forme

Merzouki, Tarek 28 November 2008 (has links) (PDF)
Résumé : Le présent travail de thèse est une contribution à l'analyse et à la modélisation du comportement micromécanique d'un multicristal en AMF. Il est fondé sur l'exploitation de la richesse des mesures de champs cinématiques locaux dans le multicristal en vue de l'investigation des mécanismes gouvernant le comportement mécanique à l'échelle microscopique : transformation de phases, .... L'analyse et la modélisation de ces micromécanismes ont contribué, d'une part, à la mise en place du modèle à fort contenu physique reliant les causes et les effets des phénomènes mécaniques étudiés et d'autre part, à l'identification des paramètres régissant le modèle rhéologique. Le travail de thèse présente trois objectifs : le premier est le développement d'une approche expérimentale dédiée à la mesure de champs cinématiques à l'échelle microscopique sur un multicristal en alliage à mémoire de forme de type Cu-Al-Be. La mesure cinématique est réalisée par la technique de corrélation d'images numériques. Les champs de déplacement puis de déformation sont ensuite extraits par un traitement numérique à l'aide du logiciel de corrélation d'images CORRELI-Q4. Le deuxième objectif est la mise en place d'une méthodologie de couplage entre simulations numériques du comportement du multicristal et la mesure des champs cinématiques à l'échelle de la microstructure. Le troisième but visé dans ce travail est la mise en œuvre d'une méthode d'identification basée sur la minimisation d'une norme énergétique formulée par l'erreur en relation de comportement. La méthode d'identification est appliquée à l'échelle de la microstructure afin d'estimer les paramètres du comportement mécanique du multicristal à partir du champ cinématique mesuré.
73

Intégration numérique avec erreur bornée en précision arbitraire

Fousse, Laurent 04 December 2006 (has links) (PDF)
L'intégration numérique est une opération fréquemment disponible et utilisée dans les systèmes de calcul numérique. Nous nous intéressons dans ce mémoire à la maîtrise des erreurs commises lors d'un calcul numérique d'intégrale réelle à une dimension dans le contexte de la précision arbitraire pour les deux méthodes d'intégration que sont Newton-Cotes et Gauss-Legendre. Du point de vue algorithmique nous proposons pour chacune des méthodes une procédure de calcul avec une borne effective sur l'erreur totale commise. Dans le cadre de l'étude de la méthode de Gauss-Legendre nous avons étudié les algorithmes connus de raffinement de racines réelles d'un polynôme (la méthode de la sécante, l'itération de Newton, la dichotomie), et nous en avons proposé des heuristiques explicites permettant de s'assurer en pratique de la convergence. Les algorithmes proposés ont été implémentés dans une bibliothèque d'intégration numérique baptisée «Correctly Rounded Quadrature» (CRQ) disponible à l'adresse http://komite.net/laurent/soft/crq/. Nous comparons CRQ avec d'autres logiciels d'intégration dans ce mémoire.
74

Une approche de l'identification en dynamique des structures combinant l'erreur en relation de comportement et le filtrage de Kalman

Alarcon Cot, Albert 04 June 2012 (has links) (PDF)
Les méthodes d'erreur en relation de comportement (ERC) mesurent l'écart entre un modèle mathématique et des observations au moyen de fonctionnelles énergétiques qui sont, quant à elles, construites sur la base de champs admissibles. Ces méthodes présentent des excellentes capacités à localiser spatialement des défauts structuraux, une grande robustesse vis-à-vis des bruits de mesure, ou encore de bonnes propriétés de convexité des fonctions coût. Par ailleurs, les méthodes de filtrage de Kalman (KF) répondent au problème d'identification récursif dans une approche de type prédiction-correction. Elles s'avèrent tout particulièrement adaptées aux systèmes évolutifs dont les informations de modèle et d'observation peuvent être entachées d'erreurs. La partie centrale de ce travail est ainsi consacrée à la construction puis à la mise en oeuvre d'une stratégie d'utilisation combinée de l'ERC et du FK. Pour cela, l'ERC est utilisée comme une technique pour améliorer la connaissance a priori des défauts de modèle. Les fonctionnelles d'ERC sont ensuite introduites comme fonctions d'observation dans une description d'état du problème d'identification. Sa résolution est menée à bien avec le FK ''Unscented'' (UKF) présentant le double avantage d'avoir une excellente tout en évitant l'évaluation de Jacobiens et de Hessiens. Cette approche est testée et illustrée au moyen d'études numériques et appliqué à des cas complexes industriels tels que l'apparition et la progression de l'endommagement structurel au cours d'une sollicitation, la modification des conditions aux limites d'une structure entre différentes étapes de son exploitation, ou encore l'expansion de données expérimentales sur un modèle numérique.
75

Classification de menaces d'erreurs par analyse statique, simplification syntaxique et test structurel de programmes

Chebaro, Omar 13 December 2011 (has links) (PDF)
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l'analyse statique et l'analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l'analyse statique signale les instructions risquant de provoquer des erreurs à l'exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l'analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L'objectif de cette thèse est de rendre la recherche d'erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d'espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu'aucun chemin d'exécution ne peut atteindre l'état d'erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l'ensemble de toutes les alarmes du programme qui ont été détectées par l'analyse statique. L'inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d'espace et les alarmes les plus faciles à classer sont pénalisées par l'analyse d'autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d'analyse si des alarmes sont incluses dans d'autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l'utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d'alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l'union de ces sous-ensembles couvre l'ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu'avec each, et des slices plus simples qu'avec all. Cependant, l'analyse dynamique de certaines slices peut manquer de temps ou d'espace avant de classer certaines alarmes, tandis que l'analyse dynamique d'une slice éventuellement plus simple permettrait de les classer. L'utilisation smart consiste à appliquer l'utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c'est nécessaire. Lorsqu'une alarme ne peut pas être classée par l'analyse dynamique d'une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l'outil de génération de tests PathCrawler et la plate-forme d'analyse statique Frama-C. Des expérimentations ont montré, d'une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d'autre part, que la vérification devient plus rapide avec l'utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser
76

Régularité fractionnaire et analyse stochastique de discrétisations ; Algorithme adaptatif de simulation en risque de crédit

Makhlouf, Azmi 27 November 2009 (has links) (PDF)
Cette thèse concerne trois sujets de probabilités numériques et de mathématiques financières. D'abord, nous étudions le module de régularité L2 en temps de la composante Z d'une EDSR markovienne à coefficients lipschitziens, mais dont la fonction terminale g est irrégulière. Ce module est lié à l'erreur d'approximation par schéma d'Euler. Nous montrons, de façon optimale, que l'ordre de convergence est explicitement lié à la régularité fractionnaire de g. Ensuite, nous proposons une méthode de Monte-Carlo séquentielle pour le calcul efficace du prix d'une tranche de CDO, basée sur des variables de contrôle séquentielles, dans un cadre où les taux de recouvrement sont aléatoires et i.i.d. Enfin, nous analysons l'erreur de couverture associée à la stratégie en Delta-Gamma. La régularité fractionnaire de la fonction payoff joue un rôle crucial dans le choix des dates de rebalancement, afin d'atteindre des vitesses de convergence optimales.
77

Évaluation de méthodes statistiques pour l'interprétation des mélanges d'ADN en science forensique

Haned, Hinda 29 October 2010 (has links) (PDF)
L'analyse et l'interprétation d''echantillons constitu'es de mélanges d'ADN de plusieurs individus est un défi majeur en science forensique. Lorsqu'un expert de la police scientifique a affaire à un mélange d'ADN il doit répondre à deux questions: d'abord, "combien de contributeurs y a-t-il dans ce mélange ?"et puis, "quels sont les génotypes des individus impliqués ?" Le typage seul de cet ADN ne permet pas toujours de r'epondre 'a ces questions. En effet leproblème est posé d'es lors que plus de deux allèles sont observées à un locus donné, plusieurscombinaisons génotypiques sont alors 'a envisager et il est impossible de déterminer avec certitudele nombre d'individus qui ont contribué au m'elange. De plus, la présence d'anomalies liées àl'analyse de marqueurs g'en'etiques, comme la contamination ou la perte d'all'eles ("drop-out"),peut davantage compliquer l'analyse.Les nombreux d'eveloppements statistiques d'edi'es 'a ces probl'ematiques n'ont pas eu le succ'esescompt'e dans la communaut'e forensique, essentiellement, parce que ces m'ethodes n'ont pas 'et'evalid'ees. Or sans cette validation, les experts de la police scientifique ne peuvent exploiter cesm'ethodes sur des m'elanges issus d'affaires en cours d'investigation.Avant d'ˆetre valid'ees, ces m'ethodes doivent passer par une rigoureuse 'etape d''evaluation.Cette derni'ere soul'eve deux questions: d'abord, la question de la m'ethodologie 'a adopter, puis,celle des outils 'a d'eployer. Dans cette th'ese, nous tentons de r'epondre aux deux questions.D'abord, nous menons des 'etudes d''evaluation sur des m'ethodes d'edi'ees 'a deux questions cl'es: i)l'estimation du nombre de contributeurs 'a un m'elange d'ADN et ii) l'estimation des probabilit'esde "drop-out". En second lieu, nous proposons un logiciel "open-source" qui offre un certainnombre de fonctionnalit'es permettant de faciliter l''evaluation de m'ethodes statistiques d'edi'eesaux m'elanges d'ADN.Cette thèse a pour but d'apporter une r'eponse concr'ete aux experts de la police scientifiqueen leur fournissant 'a la fois une d'emarche m'ethodologique pour l''evaluation de m'ethodes, et lapossibilit'e d'analyser la sensibilit'e de leurs r'esultats au travers d'un outil informatique en libreacc'es.
78

EVALUATION DES ERREURS DE CARTES DE VEGETATION AVEC UNE APPROCHE PAR ENSEMBLES FLOUS ET AVEC LA SIMULATION D'IMAGES SATELLITE

Couturier, Stéphane 24 August 2007 (has links) (PDF)
Dans les régions de haute biodiversité, caractérisées par des paysages dynamiques, la cartographie détaillée de l'utilisation des sols et du couvert végétal est communément obtenue par la classification d'images satellite. Cependant, les cadres conceptuels d'estimation d'erreurs sur les cartes sont éprouvés pour les zones tempérées et hautement industrialisées.<br />Une nouvelle méthode est proposée pour l'évaluation de la fiabilité des cartes et une autre méthode pour l'estimation des erreurs de classification par ambiguïtés entre classes sur images satellites. La première méthode comprend un nouveau mode d'échantillonnage et une estimation par ensembles flous des incertitudes positionnelles et thématiques. Elle a été testée sur l'Inventaire Forestier Mexicain de l'an 2000. La deuxième méthode s'appuie sur la simulation d'images satellites avec le modèle de transfert radiatif DART et a été testée sur des images IKONOS de six types de forêts au Mexique, sur terrain plat et en forte pente
79

Le cortex préfrontal et la dopamine striatale dans l'apprentissage guidé par la récompense : conception et étude d'une tâche cognitive d'exploration par essais et erreurs en imagerie par résonance magnétique fonctionnelle et en tomographie par émission de positons avec le 11C-raclopride

Landmann, Claire 26 June 2007 (has links) (PDF)
Les modèles du contrôle exécutif et du cortex préfrontal accordent une place grandissante au signal de récompense dans la prise de décision. La dopamine pourrait jouer un rôle clé en signalant l'écart entre la récompense reçue et celle qui était prédite (erreur de prédiction de la récompense).<br />Nous avons combiné les méthodes de psychophysique, d'imagerie par résonance magnétique fonctionnelle (IRMf), et de tomographie par émission de positons (TEP) avec un antagoniste des récepteurs dopaminergiques D2/D3 (11C-raclopride) afin d'étudier chez l'homme les mécanismes de l'apprentissage d'une séquence motrice guidé par la récompense. L'IRMf nous a permis d'analyser en détail la dynamique de cet effort mental, impliquant un réseau préfrontal, pariétal et striatal distribué qui s'activait rapidement durant les périodes de recherche de séquences par essais et erreurs et s'effondrait durant les périodes suivantes de répétition routinière. Cet effondrement pouvait être conduit par un processus de déduction élémentaire préalable à la réception de la récompense (autoévaluation).<br />De plus, certaines sous-régions de ce réseau étaient particulièrement engagées dans le traitement de paramètres statistiques de la récompense (l'erreur de prédiction et la quantité d'information).<br />Parallèlement, nous avons développé une méthode récente d'évaluation dynamique de la libération de dopamine in vivo en TEP, et avons montré que la libération de dopamine augmentait bilatéralement au sein du striatum ventral et du noyau caudé durant la tâche de recherche. Afin de valider ces observations et d'évaluer la sensibilité de cette méthode, nous avons mis en oeuvre un paradigme TEP standard (mesure du « binding potential » du raclopride). Celui-ci nous a en outre permis de mesurer une corrélation entre la libération de dopamine dans le striatum ventral droit et les valeurs comportementales des sujets. Ces résultats sont en accord avec l'hypothèse d'un rôle de la dopamine striatale dans l'apprentissage guidé par la récompense chez l'homme.<br />Pour la première fois à notre connaissance, l'emploi combiné de l'IRMf et du marquage des récepteurs dopaminergiques en TEP nous a ainsi permis de considérer à la fois la dynamique de l'activation cérébrale et la « neurochimie cognitive » dans une situation d'effort mental et d'apprentissage guidés par la récompense.
80

Modélisation des comportements erronés du logiciel et application à la validation des tests par injection de fautes

Daran, Muriel 28 October 1996 (has links) (PDF)
Les travaux présentés dans ce mémoire concernent la modélisation des comportements erronés du logiciel et la validation des tests. L'absence d'un modèle des fautes logicielles pose le problème de la confiance que l'on peut accorder aux tests par rapport à l'élimination des fautes dans un programme. Cette confiance serait accrue si on pouvait mesurer la capacité de jeux de tests à révéler des fautes injectées dans un programme. Cependant, les méthodes d'injection de fautes, telles que l'analyse de mutation, suscitent des critiques liées à la représentativité des fautes injectées vis-à-vis de fautes réelles (c'est-à-dire effectivement introduites au cours du développement du logiciel). S'il paraît illusoire de démontrer la représentativité des fautes artificielles, étant donné l'absence d'un modèle de fautes complet et parfait, il nous paraît intéressant d'évaluer la représentativité des erreurs générées par des fautes artificielles vis-à-vis des erreurs dues à des fautes réelles. Les études expérimentales que nous avons menées, portent sur deux programmes séquentiels (appelés ETUD et LOCALES), issus d'applications critiques du nucléaire. Elles ont eu pour objet d'analyser les erreurs générées au cours de l'exécution du logiciel. Nous avons ainsi pu comparer, pour chacun de ces deux programmes, les erreurs et les comportements erronés générés, d'une part par des fautes réelles et, d'autre part par des fautes artificielles (de type mutations). Nos résultats expérimentaux permettent de montrer que les erreurs et les comportements erronés produits par des mutations peuvent être représentatifs de ceux générés par de fautes réelles. La première série d'expériences, sur le programme ETUD, a permis de définir un modèle des comportements erronés, à partir d'une représentation de l'état interne d'un programme en cours d'exécution. Ce modèle permet d'expliquer, par l'analyse des dépendances du programme, les mécanismes de création, d'annulation et de masquage d'erreurs. La deuxième série d'expériences, sur le programme LOCALES, permet d'expliquer les similitudes observées entre divers comportements erronés en appliquant le modèle proposé. En conclusion, la bonne représentativité des erreurs générées par les mutations nous permet de réhabiliter l'analyse de mutation en tant que technique de validation des tests du logiciel et d'en proposer des applications à des fins industrielles.

Page generated in 0.0466 seconds