• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 10
  • 1
  • Tagged with
  • 40
  • 14
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Dépendance et résultats limites, quelques applications en finance et assurance

Charpentier, Arthur 20 June 2006 (has links) (PDF)
Cette thèse porte sur l'étude des dépendance entre risques, à l'aide des copules. La prise en compte des dépendances qui peuvent exister entre risques est devenue cruciale pour les gestionnaires de risques, et les enjeux peuvent être colossaux (risque de contagion – et de faillites en chaîne - au sein d'un portefeuille d'obligations risquées, ou corrélations entre risques extrêmes en réassurance – ou plusieurs risques a priori indépendants sont affectés lorsqu'une catastrophe survient). Une meilleure connaissance des structures de dépendance est alors fondamentale afin de proposer une modélisation adéquate. Aussi, l'accent est mis, dans cette thèse, sur la déformation des copules en fonction du temps, ou dans les queues de distribution.<br /><br />La première partie est consacrée à la déformation temporelle des copules, dans un contexte de risque de crédit. En introduisant les copules conditionnelles, il est ainsi possible d'étudier la dépendance entre les durées de vie avant le défaut d'un émetteur, sachant qu'aucun défaut n'a été observé pendant une période de temps donnée. Des théorèmes de point fixe permettent d'obtenir des comportement limites, et d'obtenir des résultats sur les first-to-default, par exemple.<br /><br />Les chapitres suivant traitent de l'utilisation des copules conditionnelles dans la modélisation des risques extrêmes. La théorie des extrêmes dans un cadre multivarié a été faite traditionnellement en modélisant les maximas par composantes. Mais l'étude par dépassement de seuil joint offre une richesse beaucoup plus grande. En particulier, l'étude dans la queue supérieure et inférieure est présentée dans le cas des copules Archimédiennes, en insistant sur les caractérisations des cas d'indépendance asymptotique, d'ordinaire si difficile à appréhender.<br /><br />La dernière partie aborde l'estimation nonparamétrique des densités de copules, où des estimateurs à noyaux sont étudiés, permettant d'éviter des effets de bords traditionnellement inévitable lorsque l'on estime une densité à support compact. En particulier, les techniques sont utilisées pour estimer correctement la densité dans les queues de distributions, y compris avec des données censurées.<br /><br />Enfin, une bijgevoegde stelling conclue cette thèse sur l'étude de la dépendance temporelle pour les risques climatiques. Des modèles à mémoire longue sont ainsi utilisé pour modéliser le risque de tempête et estimer la période de retour de la canicule d'août 2003. Et enfin, des modèles haute-fréquences (proches de ceux utilisé en finance pour modéliser les prix de titres transaction par transaction) sont utilisés pour modéliser des données hydrologiques, et proposer de nouvelles estimations pour le risque de crue.
12

Fissuration des matériaux à gradient de propriétés. Application au Zircaloy hydruré.

Perales, Frédéric 15 December 2005 (has links) (PDF)
Cette thèse concerne la fissuration dynamique des matériaux à gradient de propriétés. Plus particulièrement, elle traite de la tenue des gaines de combustible, tubes minces et élancées, à fort taux de combustion lors de transitoires accidentels. La fissuration est étudiée à l'échelle locale et basée sur la notion de zone cohésive, laquelle est mise en oeuvre à l'aide d'une approche multicorps. Afin de prendre en compte une fissuration en mode mixte, les modèles de zone cohésive considérés sont couplés à du contact frottant. L'approche Non-Smooth Contact Dynamics est mise en oeuvre pour le traitement dynamique des problèmes de contact frottant non réguliers. Compte tenu des dimensions mises en jeu, une démarche multiéchelle permet de prendre en compte la microstructure dans un calcul de structure. A l'échelle microscopique, les propriétés effectives surfaciques, entre les corps, sont obtenues par homogénéisation numérique périodique. Une formulation à deux champs du problème Eléments Finis multicorps est ainsi obtenu. La méthode NSCD est alors étendue à cette formulation. L'outil de simulation numérique développé permet des simulations dynamiques en grandes transformations depuis l'amorçage de fissures jusqu'à la ruine du matériau. La mise en oeuvre à l'échelle microscopique est effectuée par calcul sur des cellules de bases pour plusieurs tirages de microstructures aléatoires. A l'échelle macroscopique, des calculs dynamiques de structures sur des portions de gaine en fonction du taux moyen et du gradient d'hydrogène mettent en évidence le rôle prépondérant de ces deux paramètres dans la tenue de la gaine sous chargement dynamique rapide.
13

Optimisation de la chaîne de numérisation 3D : de la surface au maillage semi-régulier / 3D digitization optimization : from surface to semi-regular mesh

Peyrot, Jean-Luc 12 December 2014 (has links)
La numérisation 3D permet de générer des représentations numériques très réalistes et fidèles géométriquement aux surfaces réelles. Cependant, cette fidélité géométrique, obtenue à l'aide d'un sur-échantillonnage de surfaces, augmente considérablement le volume de données générées. Les maillages ainsi produits sont donc très denses, et peu adaptés aux différents supports de visualisation, de transfert, de stockage, etc. La représentation semi-régulière des surfaces permet de diminuer le volume nécessaire à la représentation de ces maillages denses, et possède des qualités bien connues en matière de représentations multi-échelles et de compression. Cette thèse a pour objectif d'optimiser la chaîne de numérisation 3D classique en améliorant l'échantillonnage des surfaces tout en conservant la fidélité géométrique, et en court-circuitant les étapes fastidieuses qui conduisent à une représentation semi-régulière. Pour cela, nous avons intégré dans un système stéréoscopique, l'échantillonnage en disques de Poisson qui, grâce à ses propriétés de bruit bleu, réalise un bon compromis entre sous- et sur-échantillonnage. Ensuite, nous avons généré un mailleur semi-régulier, qui travaille directement sur les images stéréoscopiques, et non sur une version remaillée des nuages de points habituellement générés par ces systèmes. Les résultats expérimentaux montrent que ces deux contributions génèrent de façon efficace des représentations semi-régulières, qui sont géométriquement fidèles aux surfaces réelles, tout en réduisant le volume de données générées. / Nowadays, 3D digitization systems generate numeric representations that are both realistic and of high geometric accuracy with respect to real surfaces. However, this geometric accuracy, obtained by oversampling surfaces, increases significantly the generated amount of data. Consequently, the resulting meshes are very dense, and not suitable to be visualized, transmitted or even stored efficiently. Nevertheless, the semi-regular representation due to its scalable and compact representation, overcomes this problem. This thesis aims at optimizing the classic 3D digitization chain, by first improving the sampling of surfaces while preserving geometric features, and secondly shortening the number of required treatments to obtain such semi-regular meshes. To achieve this goal, we integrated in a stereoscopic system the Poisson-disk sampling that realizes a good tradeoff between undersampling and oversampling, thanks to its blue noise properties. Then, we produced a semi-regular meshing technique that directly works on the stereoscopic images, and not on a meshed version of point clouds, which are usually generated by such 3D scanners. Experimental results prove that our contributions efficiently generate semi-regular representations, which are accurate with respect to real surfaces, while reducing the generated amount of data.
14

CONTRIBUTION À L'ANALYSE DE L'IMPACT DE MISES À JOUR SUR DES VUES ET SUR DES CONTRAINTES D'INTÉGRITÉ XML.

Idabal, Hicham 25 November 2010 (has links) (PDF)
DANS CETTE THÈSE, NOUS NOUS POSITIONNONS DANS UN CONTEXTE DYNAMIQUE, OÙ LES DONNÉES XML ÉVOLUENT AU COURS DU TEMPS ET SONT SOUMISES À UN ENSEMBLE DE MISES À JOUR, ET NOUS NOUS INTÉRESSONS À DEUX PROBLÈMES MAJEURS, LARGEMENT ÉTUDIÉS DANS LE CADRE RELATIONNEL : -LA DÉTECTION DE L'IMPACT D'UN ENSEMBLE DE MISE À JOUR SUR UNE VUE, DÉFINIE PAR UNE REQUÊTE.-LA DÉTECTION DE L'IMPACT D'UN ENSEMBLE DE MISE À JOUR SUR LA SATISFACTION D'UNE DÉPENDANCE FONCTIONNELLE. DANS LE PREMIER CAS, L'OBJECTIF EST DE DÉTECTER SI L'ENSEMBLE DE MISES À JOUR A MODIFIÉ LA VUE. DANS LE DEUXIÈME CAS, L'OBJECTIF EST DE DÉTECTER SI L'ENSEMBLE DE MISE À JOUR A PRODUIT UN NOUVEAU DOCUMENT QUI NE SATISFAIT PLUS LES CONTRAINTES QU'IL SATISFAISAIT AVANT LES MISES À JOUR. NOUS NOUS DIFFÉRENCIONS DES TRAVAUX ANTÉRIEURS PRINCIPALEMENT SUR DEUX POINTS : (1) NOUS SUPPOSONS QUE LES DONNÉES SOURCES SONT À PRIORI INDISPONIBLES ET NOUS ÉTUDIONS LES DEUX PROBLÈMES EN EFFECTUANT UNE ANALYSE STATIQUE DES DÉFINITIONS DES MISES À JOUR, ET DE LA VUE (CAS1) OU DE LA DÉPENDANCE FONCTIONNELLE (CAS 2). DE PLUS, DANS LE CAS OÙ UN SCHÉMA XML CONTRAIGNANT LA STRUCTURE DES DONNÉES, EST DISPONIBLE NOUS UTILISONS CETTE INFORMATION SUPPLÉMENTAIRE DANS NOTRE ANALYSE AFIN DE DÉTECTER ÉVENTUELLEMENT PLUS DE CAS D'INDÉPENDANCES ENTRE LES MISES À JOUR ET LA VUE OU LA DÉPENDANCE FONCTIONNELLE SELON LE CAS. (2) NOUS PRENONS L'OPTION D'UTILISER, COMME MÉCANISME DE SÉLECTION DE NŒUDS, DANS LA DÉFINITION DES MISES À JOUR, DES VUES ET DES DÉPENDANCES FONCTIONNELLES, UN LANGAGE FORMEL BASÉ SUR L'UTILISATION DE MOTIFS RÉGULIER ARBORESCENTS, PERMETTANT DE DÉFINIR DES REQUÊTES APPELÉES 'REQUÊTES ARBRES RÉGULIÈRES' (EN ABRÉGÉ RARS).
15

Estimation des limites d'extrapolation par les lois de valeurs extrêmes. Application à des données environnementales / Estimation of extrapolation limits based on extreme-value distributions.Application to environmental data.

Albert, Clément 17 December 2018 (has links)
Cette thèse se place dans le cadre de la Statistique des valeurs extrêmes. Elle y apporte trois contributions principales. L'estimation des quantiles extrêmes se fait dans la littérature en deux étapes. La première étape consiste à utiliser une approximation des quantiles basée sur la théorie des valeurs extrêmes. La deuxième étape consiste à estimer les paramètres inconnus de l'approximation en question, et ce en utilisant les valeurs les plus grandes du jeu de données. Cette décomposition mène à deux erreurs de nature différente, la première étant une erreur systémique de modèle, dite d'approximation ou encore d'extrapolation, la seconde consituant une erreur d'estimation aléatoire. La première contribution de cette thèse est l'étude théorique de cette erreur d'extrapolation mal connue.Cette étude est menée pour deux types d'estimateur différents, tous deux cas particuliers de l'approximation dite de la "loi de Pareto généralisée" : l'estimateur Exponential Tail dédié au domaine d'attraction de Gumbel et l'estimateur de Weissman dédié à celui de Fréchet.Nous montrons alors que l'erreur en question peut s'interpréter comme un reste d'ordre un d'un développement de Taylor. Des conditions nécessaires et suffisantes sont alors établies de telle sorte que l'erreur tende vers zéro quand la taille de l'échantillon augmente. De manière originale, ces conditions mènent à une division du domaine d'attraction de Gumbel en trois parties distinctes. En comparaison, l'erreur d'extrapolation associée à l'estimateur de Weissman présente un comportement unifié sur tout le domaine d'attraction de Fréchet. Des équivalents de l'erreur sont fournis et leur comportement est illustré numériquement. La deuxième contribution est la proposition d'un nouvel estimateur des quantiles extrêmes. Le problème est abordé dans le cadre du modèle ``log Weibull-tail'' généralisé, où le logarithme de l'inverse du taux de hasard cumulé est supposé à variation régulière étendue. Après une discussion sur les conséquences de cette hypothèse, nous proposons un nouvel estimateur des quantiles extrêmes basé sur ce modèle. La normalité asymptotique dudit estimateur est alors établie et son comportement en pratique est évalué sur données réelles et simulées.La troisième contribution de cette thèse est la proposition d'outils permettant en pratique de quantifier les limites d'extrapolation d'un jeu de données. Dans cette optique, nous commençons par proposer des estimateurs des erreurs d'extrapolation associées aux approximations Exponential Tail et Weissman. Après avoir évalué les performances de ces estimateurs sur données simulées, nous estimons les limites d'extrapolation associées à deux jeux de données réelles constitués de mesures journalières de variables environnementales. Dépendant de l'aléa climatique considéré, nous montrons que ces limites sont plus ou moins contraignantes. / This thesis takes place in the extreme value statistics framework. It provides three main contributions to this area. The extreme quantile estimation is a two step approach. First, it consists in proposing an extreme value based quantile approximation. Then, estimators of the unknown quantities are plugged in the previous approximation leading to an extreme quantile estimator.The first contribution of this thesis is the study of this previous approximation error. These investigations are carried out using two different kind of estimators, both based on the well-known Generalized Pareto approximation: the Exponential Tail estimator dedicated to the Gumbel maximum domain of attraction and the Weissman estimator dedicated to the Fréchet one.It is shown that the extrapolation error can be interpreted as the remainder of a first order Taylor expansion. Necessary and sufficient conditions are then provided such that this error tends to zero as the sample size increases. Interestingly, in case of the so-called Exponential Tail estimator, these conditions lead to a subdivision of Gumbel maximum domain of attraction into three subsets. In constrast, the extrapolation error associated with Weissmanestimator has a common behavior over the whole Fréchet maximum domain of attraction. First order equivalents of the extrapolation error are thenderived and their accuracy is illustrated numerically.The second contribution is the proposition of a new extreme quantile estimator.The problem is addressed in the framework of the so-called ``log-Generalized Weibull tail limit'', where the logarithm of the inverse cumulative hazard rate function is supposed to be of extended regular variation. Based on this model, a new estimator of extreme quantiles is proposed. Its asymptotic normality is established and its behavior in practice is illustrated on both real and simulated data.The third contribution of this thesis is the proposition of new mathematical tools allowing the quantification of extrapolation limits associated with a real dataset. To this end, we propose estimators of extrapolation errors associated with the Exponentail Tail and the Weissman approximations. We then study on simulated data how these two estimators perform. We finally use these estimators on real datasets to show that, depending on the climatic phenomena,the extrapolation limits can be more or less stringent.
16

Classifications et grammaires des invariants lexicaux arabes en prévision d’un traitement informatique de cette langue. Construction d’un modèle théorique de l’arabe : la grammaire des invariants lexicaux temporels / Classifications and grammars of Arab lexical invariants in anticipation of an automatic processing of this language. Construction of a theoretical model of Arabic : grammar of temporal lexical invariants

Ghoul, Dhaou 07 December 2016 (has links)
Cette thèse porte sur la classification et le traitement des invariants lexicaux arabes qui expriment un aspect temporel afin de créer un modèle qui présente chaque invariant sous la forme d’un schéma de grammaire (automates à états finis). Dans ce travail nous avons limité notre traitement seulement pour 20 invariants lexicaux. Notre hypothèse part du principe que les invariants lexicaux sont situés au même niveau structural (formel) que les schèmes dans le langage quotient (squelette) de la langue arabe. Ils cachent beaucoup d’informations et entraînent des attentes syntaxiques qui permettent de prédire la structure de la phrase.Au début de cette thèse, nous abordons la notion « invariant lexical » en exposant les différents niveaux d’invariance. Ensuite, nous classons les invariants étudiés dans cette thèse selon plusieurs critères.La deuxième partie de cette thèse fait l’objet de notre propre étude concernant les invariants lexicaux temporels dans laquelle nous commençons par une présentation de notre méthode d’étude linguistique ainsi que la modélisation par schémas de grammaires des invariants lexicaux temporels étudiés. Ensuite, nous abordons l’analyse proprement dite des invariants lexicaux simples comme « ḥattā, baʿda » et complexes comme « baʿdamā, baynamā ».Enfin, une application expérimentale « Kawâkib » a été employée pour détecter et identifier les invariants lexicaux en montrant leurs points forts aussi bien que leurs lacunes. Nous proposons également une nouvelle vision de la prochaine version de « Kawâkib » qui peut représenter une application pédagogique de l'arabe sans lexique. / This thesis focuses on the classification and the treatment of Arabic lexical invariants that express a temporal aspect. Our aim is to create a diagram of grammar (finite state machine) for each invariant. In this work, we limited our treatment to 20 lexical invariants. Our assumption is that the lexical invariants are located at the same structural level (formal) as the schemes in the language quotient (skeleton) of the Arabic language. They hide much information and involve syntactic expectations that make it possible to predict the structure of the sentence.In the first part of our research tasks, we present the concept of “invariant lexical” by exposing the various levels of invariance. Then, we classify the invariants according to several criteria.The second part is the object of our own study concerning the temporal lexical invariants. We present our linguistic method as well as our approach of modelling using diagrams of grammars. Then, we analyze the simple lexical invariants such “ḥattā, baʿda” and the complexes ones such “baʿdamā, baynamā”.Finally, an experimental application “Kawâkib” was used to detect and identify the lexical invariants by showing their strong points as well as their gaps. We also propose a new vision of the next version of “Kawâkib” that can represent a teaching application of Arabic without lexicon.
17

Contribution à la modélisation mécanique et numérique des édifices maçonnés

Acary, Vincent 01 May 2001 (has links) (PDF)
Du point de son comportement mécanique, la maçonnerie apparaît comme un géomatériau quasi-fragile composite, caractérisé par la coexistence de trois échelles d'études (macroscopique, mésocopique et microscopique) et deux comportements intimement couplés, l'endommagement fragile et la plasticité non-associée. Suite à une revue bibliographique étendue des nombreuses modélisations déjà proposées (approche macroscopique phénoménologique, approche micromécanique, analyse multi-échelle), il semble que deux points importants restent encore difficiles à traiter : la prise en compte de la structure de l'appareil et la localisation de la déformation liée au caractère adoucissant et non-associé des comportements. <br />Afin de répondre à ces problèmes, une modélisation micromécanique discrète dans un cadre dynamique non-régulier a été proposée. La maçonnerie est vue comme un milieu divisé composé d'une collection de corps déformables reliés par des lois non-régulières. Le modèle de base pour les joints vifs, composé du contact unilatéral et du frottement de Coulomb est enrichi pour les joints de mortier par des modèles de zone cohésive, fragile ou à endommagement progressif. Le cadre numérique de cette modélisation s'appuie sur la méthode ``Non-Smooth Contact Dynamics'' apte à intégrer la dynamique non-régulière en présence de contraintes unilatérales et de frottement sec. Le comportement des corps est traité par des méthodes aux éléments finis adaptées au caractère discret des structures modélisées. Les lois non-régulières d'interfaces sont résolues quant à elles par des méthodes itératives dédiées aux problèmes de complémentarité de grande taille.<br /> Enfin, une collaboration interdisciplinaire a été conduite avec les architectes et les archéologues du bâti pour mener à bien des études d'édifices monumentaux en utilisant la stéréophotogrammétrie numérique.
18

Contribution à l'étude de la réduction formelle des systèmes différentiels méromorphes linéaires

Abbas, Hassane 01 September 1993 (has links) (PDF)
Cette thèse est consacrée au calcul des solutions formelles d'un système différentiel linéaire méromorphe dans un voisinage de l'origine de c de la forme y(z)=a(z)y(z). Il est bien connu qu'une matrice fondamentale de solutions s'écrit formellement sous forme h(z)=f(z)g(z), ou f(z) est une série formelle en racine de z et g(z) est une matrice de fonctions élémentaires qui constituent des exponentiels polynomiaux en racine de z#1, puissance complexe de z##1, et puissance entière positive de log z. H. L. Turrittin et w. Wasow ont propose une methode algorithmique pour calculer h(z). Cette methode coute chére en calcul. Devant ce fait, nous proposons une nouvelle approche algorithmique pour trouver h(z). Cette approche a l'avantage d'utiliser des transformations simples et moins couteuses en calcul. De plus, notre approche permet de calculer le plus grand degré des polynômes exponentiels qui se trouvent dans la matrice g(z). En pratique, les systèmes a deux dimensions sont importants. Dans ce cas, nous proposons une methode programmable, inspirée de l'approche générale précédente pour calculer les solutions au voisinage d'une singularité
19

L-infini déformations et cohomologie de Hochschild

SCHUHMACHER, Frank 21 October 2004 (has links) (PDF)
Dans la première partie de cette thèse, on définit de déformations des $L_\infty$-algèbres de telle façon que les bases de déformation sont aussi des $L_\infty$-algèbres. Pour les $L_\infty$-algèbres dont le complexe tangent est scindé on construit une déformation universelle et une déformation semi-universelle. Ensuite, on construit explicitement une $L_\infty$-structure minimale sur la cohomologie $H$ d'une algèbre differentielle graduée de Lie $L$ et un $L_\infty$-quasi-isomorphisme entre $H$ et $L$. Comme application, on montre que les singularités peuvent être décrites par les $L_\infty$-algèbres et on donne une nouvelle preuve pour l'existence des espaces formels de module pour les singularités isolées. La deuxième partie contient une approche abstraite de la (co)homologie de Hochschild en utilisant de ``bonnes paires de catégories''. On généralise le théorème HKR classique (qui donne un isomorphisme entre la $n$-ième homologie de Hochschild d'une algèbre lisse et la $n$-ième puissance extérieure de son module de differentielles de Kähler) pour des algèbres simpliciales, graduées commutatives dans de bonnes paires de catégories. On applique cette généralisation aux espaces complexes et aux schémas Noetheriens et on déduit plusieurs théorèmes de décomposition de leurs (co)homologies de Hochschild relatives.
20

Outils d'exploration de corpus et désambiguïsation lexicale automatique

AUDIBERT, Laurent 15 December 2003 (has links) (PDF)
Ce travail de thèse adresse le problème de la désambiguïsation lexicale automatique à l'aide de méthodes d'apprentissage supervisé. Dans une première partie, nous proposons un ensemble de puissants outils de manipulation de corpus linguistiques étiquetés. Pour réaliser ces outils, nous avons développé une bibliothèque C++ qui implémente un langage élaboré et expressif d'interrogation de corpus, basé sur des méta-expressions régulières. Dans une seconde partie, nous comparons divers algorithmes d'apprentissage supervisé, que nous utilisons ensuite pour mener à bien une étude systématique et approfondie de différents critères de désambiguïsation, basés sur la cooccurrence de mots et plus généralement de n-grammes. Nos résultats vont parfois à l'encontre de certaines pratiques dans le domaine. Par exemple, nous montrons que la suppression des mots grammaticaux dégrade les performances et que les bigrammes permettent d'obtenir de meilleurs résultats que les unigrammes.

Page generated in 0.041 seconds