• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 141
  • 35
  • 3
  • 1
  • Tagged with
  • 517
  • 187
  • 142
  • 103
  • 84
  • 80
  • 68
  • 66
  • 63
  • 63
  • 63
  • 62
  • 58
  • 58
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Décompositions tensorielles et factorisations de calculs intensifs appliquées à l'identification de modèles de comportement non linéaire / Tensor decompositions and factorizations of intensive computing applied to the calibration of nonlinear constitutive material laws

Olivier, Clément 14 December 2017 (has links)
Cette thèse développe une méthodologie originale et non intrusive de construction de modèles de substitution applicable à des modèles physiques multiparamétriques.La méthodologie proposée permet d’approcher en temps réel, sur l’ensemble du domaine paramétrique, de multiples quantités d’intérêt hétérogènes issues de modèles physiques.Les modèles de substitution sont basés sur des représentations en train de tenseurs obtenues lors d'une phase hors ligne de calculs intensifs.L'idée essentielle de la phase d'apprentissage est de construire simultanément les approximations en se basant sur un nombre limité de résolutions du modèle physique lancées à la volée.L'exploration parcimonieuse du domaine paramétrique couplée au format compact de train de tenseurs permet de surmonter le fléau de la dimension.L'approche est particulièrement adaptée pour traiter des modèles présentant un nombre élevé de paramètres définis sur des domaines étendus.Les résultats numériques sur des lois élasto-viscoplastiques non linéaires montrent que des modèles de substitution compacts en mémoire qui approchent précisément les différentes variables mécaniques dépendantes du temps peuvent être obtenus à des coûts modérés.L'utilisation de tels modèles exploitables en temps réel permet la conception d'outils d'aide à la décision destinés aux experts métiers dans le cadre d'études paramétriques et visent à améliorer la procédure de calibration des lois matériaux. / This thesis presents a novel non-intrusive methodology to construct surrogate models of parametric physical models.The proposed methodology enables to approximate in real-time, over the entire parameter space, multiple heterogeneous quantities of interest derived from physical models.The surrogate models are based on tensor train representations built during an intensive offline computational stage.The fundamental idea of the learning stage is to construct simultaneously all tensor approximations based on a reduced number of solutions of the physical model obtained on the fly.The parsimonious exploration of the parameter space coupled with the compact tensor train representation allows to alleviate the curse of dimensionality.The approach accommodates particularly well to models involving many parameters defined over large domains.The numerical results on nonlinear elasto-viscoplastic laws show that compact surrogate models in terms of memory storage that accurately predict multiple time dependent mechanical variables can be obtained at a low computational cost.The real-time response provided by the surrogate model for any parameter value allows the implementation of decision-making tools that are particularly interesting for experts in the context of parametric studies and aim at improving the procedure of calibration of material laws.
222

Synthèse de parole expressive à partir du texte : Des phonostyles au contrôle gestuel pour la synthèse paramétrique statistique / Expressive Text-to-Speech Synthesis : From Phonostyles to Gestural Control for Parametric Statistic Synthesis

Evrard, Marc 30 September 2015 (has links)
L’objectif de cette thèse est l’étude et la conception d’une plateforme de synthèse de parole expressive.Le système de synthèse — LIPS3, développé dans le cadre de ce travail, incorpore deux éléments : un module linguistique et un module de synthèse paramétrique par apprentissage statistique (construit à l’aide de HTS et de STRAIGHT). Le système s’appuie sur un corpus monolocuteur conçu, enregistréet étiqueté à cette occasion.Une première étude, sur l’influence de la qualité de l’étiquetage du corpus d’apprentissage, indique que la synthèse paramétrique statistique est robuste aux erreurs de labels et d’alignement. Cela répond au problème de la variation des réalisations phonétiques en parole expressive.Une seconde étude, sur l’analyse acoustico-phonétique du corpus permet la caractérisation de l’espace expressif utilisé par la locutrice pour réaliser les consignes expressives qui lui ont été fournies. Les paramètres de source et les paramètres articulatoires sont analysés suivant les classes phonétiques, ce qui permet une caractérisation fine des phonostyles.Une troisième étude porte sur l’intonation et le rythme. Calliphony 2.0 est une interface de contrôlechironomique temps-réel permettant la modification de paramètres prosodiques (f0 et tempo) des signaux de synthèse sans perte de qualité, via une manipulation directe de ces paramètres. Une étude sur la stylisation de l’intonation et du rythme par contrôle gestuel montre que cette interface permet l’amélioration, non-seulement de la qualité expressive de la parole synthétisée, mais aussi de la qualité globale perçue en comparaison avec la modélisation statistique de la prosodie.Ces études montrent que la synthèse paramétrique, combinée à une interface chironomique, offre une solution performante pour la synthèse de la parole expressive, ainsi qu’un outil d’expérimentation puissant pour l’étude de la prosodie. / The subject of this thesis was the study and conception of a platform for expressive speech synthesis.The LIPS3 Text-to-Speech system — developed in the context of this thesis — includes a linguistic module and a parametric statistical module (built upon HTS and STRAIGHT). The system was based on a new single-speaker corpus, designed, recorded and annotated.The first study analyzed the influence of the precision of the training corpus phonetic labeling on the synthesis quality. It showed that statistical parametric synthesis is robust to labeling and alignment errors. This addresses the issue of variation in phonetic realizations for expressive speech.The second study presents an acoustico-phonetic analysis of the corpus, characterizing the expressive space used by the speaker to instantiate the instructions that described the different expressive conditions. Voice source parameters and articulatory settings were analyzed according to their phonetic classes, which allowed for a fine phonostylistic characterization.The third study focused on intonation and rhythm. Calliphony 2.0 is a real-time chironomic interface that controls the f0 and rhythmic parameters of prosody, using drawing/writing hand gestures with a stylus and a graphic tablet. These hand-controlled modulations are used to enhance the TTS output, producing speech that is more realistic, without degradation as it is directly applied to the vocoder parameters. Intonation and rhythm stylization using this interface brings significant improvement to the prototypicality of expressivity, as well as to the general quality of synthetic speech.These studies show that parametric statistical synthesis, combined with a chironomic interface, offers an efficient solution for expressive speech synthesis, as well as a powerful tool for the study of prosody.
223

Contributions à la localisation intra-muros. De la modélisation à la calibration théorique et pratique d'estimateurs / Contributions to the indoor localisation. From the modelization to the theoretical and practical calibration of estimators

Dumont, Thierry 13 December 2012 (has links)
Préfigurant la prochaine grande étape dans le domaine de la navigation, la géolocalisation intra-muros est un domaine de recherche très actif depuis quelques années. Alors que la géolocalisation est entrée dans le quotidien de nombreux professionnels et particuliers avec, notamment, le guidage routier assisté, les besoins d'étendre les applications à l'intérieur se font de plus en plus pressants. Cependant, les systèmes existants se heurtent à des contraintes techniques bien supérieures à celles rencontrées à l'extérieur, la faute, notamment, à la propagation chaotique des ondes électromagnétiques dans les environnements confinés et inhomogènes. Nous proposons dans ce manuscrit une approche statistique du problème de géolocalisation d'un mobile à l'intérieur d'un bâtiment utilisant les ondes WiFi environnantes. Ce manuscrit s'articule autour de deux questions centrales : celle de la détermination des cartes de propagation des ondes WiFi dans un bâtiment donné et celle de la construction d'estimateurs des positions du mobile à l'aide de ces cartes de propagation. Le cadre statistique utilisé dans cette thèse afin de répondre à ces questions est celui des modèles de Markov cachés. Nous proposons notamment, dans un cadre paramétrique, une méthode d'inférence permettant l'estimation en ligne des cartes de propagation, sur la base des informations relevées par le mobile. Dans un cadre non-paramétrique, nous avons étudié la possibilité d'estimer les cartes de propagation considérées comme simple fonction régulière sur l'environnement à géolocaliser. Nos résultats sur l'estimation non paramétrique dans les modèles de Markov cachés permettent d'exhiber un estimateur des fonctions de propagation dont la consistance est établie dans un cadre général. La dernière partie du manuscrit porte sur l'estimation de l'arbre de contextes dans les modèles de Markov cachés à longueur variable. / Foreshadowing the next big step in the field of navigation, indoor geolocation has been a very active field of research in the last few years. While geolocation entered the life of many individuals and professionals, particularly through assisted navigation systems on roads, needs to extend the applications inside the buildings are more and more present. However, existing systems face many more technical constraints than those encountered outside, including the chaotic propagation of electromagnetic waves in confined and inhomogeneous environments. In this manuscript, we propose a statistical approach to the problem of geolocation of a mobile device inside a building, using the WiFi surrounding waves. This manuscript focuses on two central issues: the determination of WiFi wave propagation maps inside a building and the construction of estimators of the mobile's positions using these propagation maps. The statistical framework used in this thesis to answer these questions is that of hidden Markov models. We propose, in a parametric framework, an inference method for the online estimation of the propagation maps, on the basis of the informations reported by the mobile. In a nonparametric framework, we investigated the possibility of estimating the propagation maps considered as a single regular function on the environment that we wish to geolocate. Our results on the nonparametric estimation in hidden Markov models make it possible to produce estimators of the propagation functions whose consistency is established in a general framework. The last part of the manuscript deals with the estimation of the context tree in variable length hidden Markov models.
224

Few-cycle OPCPA laser chain / Chaine laser à base d’OPCPA pour des impulsions de peu de cycles optiques

Ramirez, Lourdes Patricia 29 March 2013 (has links)
La chaîne laser Apollon 10PW est un projet de grande envergure visant à fournir des impulsions de 10 PW et atteindre des intensités sur cibles de 10^22 W/cm^2. Dans l’état de l'art actuel, les lasers à dérive de fréquence (CPA) de haute intensité à base de cristaux titane saphir (Ti:Sa), sont limités à des puissances de crête de 1,3 PW pour des impulsions de 30-fs, en raison du rétrécissement spectral par gain dans les amplificateurs. Pour accéder au régime multipetawatt, le rétrécissement de gain doit être évité. Pour cela une technique alternative d’amplification appelée amplification paramétrique optique d'impulsions à dérive de fréquence (OPCPA) est utilisée. Elle offre la possibilité d’amplifier sur des très larges bandes spectrales de gain et d’accéder à des durées d'impulsion aussi courtes que 10 fs. Le laser Appolon 10 PW exploite une technologie hybride d’OPCPA et de Ti:Sa-CPA pour atteindre in fine des impulsions de 15 fs avec une énergie de 150 J. L’OPCPA est réalisé essentiellement sur les étages d'amplification de basse énergie et de très fort gain (ou le rétrécissement par le gain se fait le plus ressentir), ceci pour obtenir des impulsions de 100 mJ, 10 fs. Deux étages OPCPA sont préus ; le premier en régime picoseconde, le second en régime nanoseconde, et subséquemment on utilisera le Ti:Sa pour l'amplification de très haute énergie pour atteindre le régime multi-Joule.Les travaux de cette thèse porte sur le pilote OPCPA du laser Apollon-10 PW et se concentre sur le développement d’une source d’impulsions ultra-courtes avec un contraste élevé. Pour atteindre l’objectif final de 15 fs, 150 J, le pilote doit permettre l’obtention d’impulsions dont le spectre supporte des durées de 10 fs, ceci avec un contraste temporel d'au moins 10^10. Dans cette thèse nous nous intéressons à la mise en œuvre des premiers étages du pilote. Ce travail concerne les étages de compression, de nettoyage d’impulsions et d’amplification OPCPA en régime picoseconde. Ainsi, en partant d'une source commerciale Ti:Sa délivrant des impulsions de 25-fs avec un contraste de 10^8, nous réalisons tout d’abord un élargissement spectral par auto-modulation de phase et une amélioration du contraste par génération de polarisation croisée (XPW). Ensuite, nous nous intéressons aux différents étireurs ps possibles incluant un filtre dispersif programmable (dazzler) en vue d’injecter l’OPCPA picoseconde de manière optimale. La solution directe utilisant un bloc de verre BK7 a été retenue et son association avec un compresseur compact pour le diagnostique de la compressibilité a été étudiée. Enfin, l’amplificateur OPCPA ps a été mis en œuvre dans des configurations à simple et double étages. / The Apollon-10 PW laser chain is a large-scale project aimed at delivering 10 PW pulses to reach intensities of 10^22 W/cm^2. State of the art, high intensity lasers based solely on chirped pulse amplification (CPA) and titanium sapphire (Ti:Sa) crystals are limited to peak powers reaching 1.3 PW with 30-fs pulses as a result of gain narrowing in the amplifiers. To access the multipetawatt regime, gain narrowing can be suppressed with an alternative amplification technique called optical parametric chirped pulse amplification (OPCPA), offering a broader gain bandwidth and pulse durations as short as 10 fs. The Apollon-10 PW laser will exploit a hybrid OPCPA-Ti:Sa-CPA strategy to attain 10-PW pulses with 150 J and 15 fs. It will have two high-gain, low-energy amplification stages (10 fs ,100 mJ range) based on OPCPA in the picosecond and nanosecond timescale and afterwards, and will use Ti:Sa for power amplification to the 100-Joule level.Work in this thesis involves the progression of the development on the Apollon-10 PW front end and is focused on the development of a high contrast, ultrashort seed source supporting 10-fs pulses, stretching these pulses prior to OPCPA and the implementation of the picosecond OPCPA stage with a target of achieving 10-mJ pulses and maintaining its bandwidth. To achieve the final goal of 15-fs, 150-J pulses, the seed source must have a bandwidth supporting 10-fs and a temporal contrast of at least 10^10. Thus from an initial commercial Ti:Sa source delivering 25-fs pulses with a contrast of 10^8, spectral broadening via self-phase modulation and contrast enhancement with cross polarized (XPW) generation was performed. Subsequently, the seed pulses were stretched to a few picoseconds to match the pump for picosecond OPCPA. Strecher designs using an acousto-optic programmable dispersive filter (dazzler) for phase control in this purpose are studied. A compact and straightforward compressor using BK7 glass is used and an associated compressor for pulse monitoring was also studied. Lastly, the picosecond OPCPA stage was implemented in single and dual stage configurations.
225

Modélisation stochastique de processus pharmaco-cinétiques, application à la reconstruction tomographique par émission de positrons (TEP) spatio-temporelle / Stochastic modeling of pharmaco-kinetic processes, applied to PET space-time reconstruction

Fall, Mame Diarra 09 March 2012 (has links)
L'objectif de ce travail est de développer de nouvelles méthodes statistiques de reconstruction d'image spatiale (3D) et spatio-temporelle (3D+t) en Tomographie par Émission de Positons (TEP). Le but est de proposer des méthodes efficaces, capables de reconstruire des images dans un contexte de faibles doses injectées tout en préservant la qualité de l'interprétation. Ainsi, nous avons abordé la reconstruction sous la forme d'un problème inverse spatial et spatio-temporel (à observations ponctuelles) dans un cadre bayésien non paramétrique. La modélisation bayésienne fournit un cadre pour la régularisation du problème inverse mal posé au travers de l'introduction d'une information dite a priori. De plus, elle caractérise les grandeurs à estimer par leur distribution a posteriori, ce qui rend accessible la distribution de l'incertitude associée à la reconstruction. L'approche non paramétrique quant à elle pourvoit la modélisation d'une grande robustesse et d'une grande flexibilité. Notre méthodologie consiste à considérer l'image comme une densité de probabilité dans (pour une reconstruction en k dimensions) et à chercher la solution parmi l'ensemble des densités de probabilité de . La grande dimensionalité des données à manipuler conduit à des estimateurs n'ayant pas de forme explicite. Cela implique l'utilisation de techniques d'approximation pour l'inférence. La plupart de ces techniques sont basées sur les méthodes de Monte-Carlo par chaînes de Markov (MCMC). Dans l'approche bayésienne non paramétrique, nous sommes confrontés à la difficulté majeure de générer aléatoirement des objets de dimension infinie sur un calculateur. Nous avons donc développé une nouvelle méthode d'échantillonnage qui allie à la fois bonnes capacités de mélange et possibilité d'être parallélisé afin de traiter de gros volumes de données. L'approche adoptée nous a permis d'obtenir des reconstructions spatiales 3D sans nécessiter de voxellisation de l'espace, et des reconstructions spatio-temporelles 4D sans discrétisation en amont ni dans l'espace ni dans le temps. De plus, on peut quantifier l'erreur associée à l'estimation statistique au travers des intervalles de crédibilité. / The aim of this work is to develop new statistical methods for spatial (3D) and space-time (3D+t) Positron Emission Tomography (PET) reconstruction. The objective is to propose efficient reconstruction methods in a context of low injected doses while maintaining the quality of the interpretation. We tackle the reconstruction problem as a spatial or a space-time inverse problem for point observations in a \Bayesian nonparametric framework. The Bayesian modeling allows to regularize the ill-posed inverse problem via the introduction of a prior information. Furthermore, by characterizing the unknowns with their posterior distributions, the Bayesian context allows to handle the uncertainty associated to the reconstruction process. Being nonparametric offers a framework for robustness and flexibility to perform the modeling. In the proposed methodology, we view the image to reconstruct as a probability density in(for reconstruction in k dimensions) and seek the solution in the space of whole probability densities in . However, due to the size of the data, posterior estimators are intractable and approximation techniques are needed for posterior inference. Most of these techniques are based on Markov Chain Monte-Carlo methods (MCMC). In the Bayesian nonparametric approach, a major difficulty raises in randomly sampling infinite dimensional objects in a computer. We have developed a new sampling method which combines both good mixing properties and the possibility to be implemented on a parallel computer in order to deal with large data sets. Thanks to the taken approach, we obtain 3D spatial reconstructions without any ad hoc space voxellization and 4D space-time reconstructions without any discretization, neither in space nor in time. Furthermore, one can quantify the error associated to the statistical estimation using the credibility intervals.
226

Utilisation de prédicteurs sinusoïdaux pour la simulation temporelle de systèmes électriques en courant alternatif / Use of sinusoidal predictors for time domain simulation of AC power systems

Gibert, Pierre-Marie 30 November 2018 (has links)
Simuler temporellement les réseaux électriques modernes requiert d'importants moyens de calcul de par la dimension et la raideur des systèmes différentiels algébriques résultants. De plus, la fréquence d'oscillation de certains signaux simulés contraint fortement le pas d'intégration des schémas classiques, y compris en régime établi où ils sont proches de sinusoïdes oscillant à la fréquence nominale du système. L'objectif de la méthode des prédicteurs sinusoïdaux proposée dans cette thèse est donc de tirer parti de cette propriété afin d'améliorer les performances du solveur tout en contrôlant l'erreur de calcul. Elle consiste à décomposer la solution en deux parties : une sinusoïde, dont les coefficients de Fourier sont fixés pour chaque intervalle d'intégration puis mis à jour par estimation paramétrique, et un terme de correction sur lequel le système d'EDA est reformulé et résolu à l'aide d'un schéma d'intégration à pas adaptatif. Une attention particulière a été portée au choix de l'estimateur paramétrique, ce dernier ayant un impact direct sur le pas d'intégration de par sa précision et indirect de par son effet sur la stabilité globale de la méthode. L'estimateur finalement développé consiste à calculer les coefficients de Fourier qui minimisent une mesure de la stationnarité du système. Ce dernier étant convergent en régime permanent, le terme de correction est progressivement amorti, permettant ainsi d'accroître considérablement le pas d'intégration. Cette méthode, intégrée au sein du solveur SUNDIALS IDA puis interfacée avec un moteur de calcul industriel, permet d'accélérer très nettement les simulations en comparaison avec une implémentation classique / Modern power systems time-domain simulations require important computational resources due to the resulting differential algebraic systems dimension and stiffness. In addition, some simulated signals oscillation frequency dramatically limits the classical schemes step size, even in steady-state during which they are close to sinusoids oscillating at system nominal frequency. That's why the sinusoidal predictors method proposed in this thesis aims at taking this property into account in order to enhance solver performances while controlling the integration error. It consists in decomposing the solution into two parts: a sinusoid, whose Fourier coefficients are fixed for each time integration interval and then updated by parametric estimation, and a correction term on which the DAE system is rewritten and solved using an adaptive step size integration scheme. A particular focus has been given on the estimator choice, given its precision direct impact on the step size and its indirect effect on the global method stability. The finally developed estimator consists in computing Fourier coefficients minimizing a system stationarity measurement. As it converges in steady-state, the correction term is progressively damped, which enables to considerably increase the step size. This method, integrated into the reference solver SUNDIALS IDA and interfaced with an industrial simulation engine, enables to very significantly accelerate simulations in comparison with a classical implementation
227

Rejeu basé sur des règles de transformation de graphes / Reevaluation based on graph transformation rules

Cardot, Anais 30 January 2019 (has links)
Réaliser des variations d'un même modèle est un besoin en expansion dans de nombreux domaines de modélisation (architecture, archéologie, CAO, etc.). Mais la production manuelle de ces variations est fastidieuse, il faut donc faire appel à des techniques permettant de rejouer automatiquement tout ou partie du processus de construction du modèle, après spécification des modifications. La majorité des approches dédiées à la réalisation du rejeu sont basées sur un système de modélisation paramétrique, composée d’un modèle géométrique et d’une spécification paramétrique permettant d’enregistrer la succession d’opérations l’ayant créé ainsi que leurs paramètres. On peut ensuite faire varier ces paramètres ou éditer cette liste d’opérations afin de modifier le modèle. On utilise pour cela un système de nommage persistant, introduit dans les années 90, et permettant d’identifier et d’apparier les entités d’une spécification initiale et celles d'une spécification rejouée. L’objectif de cette thèse est de proposer un système de nommage persistant général, homogène et permettant de gérer l’édition de spécification paramétriques (déplacer, ajouter et supprimer des opérations). Nous nous basons sur la bibliothèque Jerboa, qui repose sur des règles de transformation de graphes, tant pour utiliser ces règles dans la réalisation de la méthode de nommage que pour lier les notions de spécification paramétrique à ces règles de transformations de graphes. Nous décrivons ensuite comment exploiter notre méthode de nommage pour rejouer et éditer des spécifications paramétriques d’opérations, puis nous la comparons avec les approches de la littérature. / In many modelling fields, such as architecture, archaeology or CAD, performing many variations of the same model is an expanding need. But building all those variations manually takes time. It is therefore needed to use automatic technics to revaluate some parts of a model, or even an entire model, after the user specifies the modifications. Most of the existing approaches dedicated to revaluating models are based on a system called parametric modelling. It is made of two parts, a geometric model and a parametric specification, which allows to record the series of operation that created the model, and the different parameters of those operations. This way, the user can change some parameters, or edit the list of operations to modify the model. To do so, we use a system called persistent naming, introduced during the 90ies, that allows us to identify and match the entities of an initial specification and the ones of a revaluated specification. In this thesis, our goal is to propose a persistent naming system that would be general, homogeneous and that would allow the user to edit a parametric specification (which means move, add, or delete some operations). We base our system on the Jerboa library, which uses graph transformation rules. This way, we will be able to use those rules to create our naming system, while also linking the notions of graph transformation rules and parametric specification. We will then describe how to use our naming method to revaluate or edit parametric specifications. Finally, we will compare our method with the other ones from the literature.
228

Estimation fonctionnelle non paramétrique au voisinage du bord / Functional non-parametric estimation near the edge

Jemai, Asma 16 March 2018 (has links)
L’objectif de cette thèse est de construire des estimateurs non-paramétriques d’une fonction de distribution, d’une densité de probabilité et d’une fonction de régression en utilisant les méthodes d’approximation stochastiques afin de corriger l’effet du bord créé par les estimateurs à noyaux continus classiques. Dans le premier chapitre, on donne quelques propriétés asymptotiques des estimateurs continus à noyaux. Puis, on présente l’algorithme stochastique de Robbins-Monro qui permet d’introduire les estimateurs récursifs. Enfin, on rappelle les méthodes utilisées par Vitale, Leblanc et Kakizawa pour définir des estimateurs d’une fonction de distribution et d’une densité de probabilité en se basant sur les polynômes de Bernstein.Dans le deuxième chapitre, on a introduit un estimateur récursif d’une fonction de distribution en se basant sur l’approche de Vitale. On a étudié les propriétés de cet estimateur : biais, variance, erreur quadratique intégré (MISE) et on a établi sa convergence ponctuelle faible. On a comparé la performance de notre estimateur avec celle de Vitale et on a montré qu’avec le bon choix du pas et de l’ordre qui lui correspond notre estimateur domine en terme de MISE. On a confirmé ces résultatsthéoriques à l’aide des simulations. Pour la recherche pratique de l’ordre optimal, on a utilisé la méthode de validation croisée. Enfin, on a confirmé les meilleures qualités de notre estimateur à l’aide des données réelles. Dans le troisième chapitre, on a estimé une densité de probabilité d’une manière récursive en utilisant toujours les polynômes de Bernstein. On a donné les caractéristiques de cet estimateur et on les a comparées avec celles de l’estimateur de Vitale, de Leblanc et l’estimateur donné par Kakizawa en utilisant la méthode multiplicative de correction du biais. On a appliqué notre estimateur sur des données réelles. Dans le quatrième chapitre, on a introduit un estimateur récursif et non récursif d’une fonction de régression en utilisant les polynômes de Bernstein. On a donné les caractéristiques de cet estimateur et on les a comparées avec celles de l’estimateur à noyau classique. Ensuite, on a utilisé notre estimateur pour interpréter des données réelles. / The aim of this thesis is to construct nonparametric estimators of distribution, density and regression functions using stochastic approximation methods in order to correct the edge effect created by kernels estimators. In the first chapter, we givesome asymptotic properties of kernel estimators. Then, we introduce the Robbins-Monro stochastic algorithm which creates the recursive estimators. Finally, we recall the methods used by Vitale, Leblanc and Kakizawa to define estimators of distribution and density functions based on Bernstein polynomials. In the second chapter, we introduced a recursive estimator of a distribution function based on Vitale’s approach. We studied the properties of this estimator : bias, variance, mean integratedsquared error (MISE) and we established a weak pointwise convergence. We compared the performance of our estimator with that of Vitale and we showed that, with the right choice of the stepsize and its corresponding order, our estimator dominatesin terms of MISE. These theoretical results were confirmed using simulations. We used the cross-validation method to search the optimal order. Finally, we applied our estimator to interpret real dataset. In the third chapter, we introduced a recursive estimator of a density function using Bernstein polynomials. We established the characteristics of this estimator and we compared them with those of the estimators of Vitale, Leblanc and Kakizawa. To highlight our proposed estimator, we used real dataset. In the fourth chapter, we introduced a recursive and non-recursive estimator of a regression function using Bernstein polynomials. We studied the characteristics of this estimator. Then, we compared our proposed estimator with the classical kernel estimator using real dataset.
229

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes

Diamoutene, Abdoulaye 26 November 2018 (has links) (PDF)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold"
230

De l'intention à la solution architecturale : proposition d'une méthode d'assistance à la prise en compte de la lumière naturelle durant les phases amont de conception / From intention to architectural solution : The proposal of a support method to integrate daylight during the early design steps

Gallas, Mohamed-Anis 06 September 2013 (has links)
La lumière naturelle éclaire l'espace architectural créant les conditions nécessaires pour accueillir des activités humaines. La fonction d'éclairage de la lumière naturelle est associée à une autre dimension plus sensible attribuant une identité et une singularité à l'espace conçu. La maîtrise du comportement lumineux est une activité complexe qui fait appel à une multiplicité de facteurs dont la caractérisation est confrontée à l'incertitude et l'imprécision des informations disponibles durant les phases conceptuelles du projet. L'objectif de notre recherche est de proposer une méthode d'assistance qui prend en considération les propriétés des phases amont de conception pour aider le concepteur à intégrer ses intentions d'ambiance de lumière naturelle. Nous proposons une méthode d'assistance structurée selon un processus déclaratif permettant au concepteur d'expliciter ses intentions d'effets de lumière naturelle et de les traduire en solutions architecturales potentielles qu'il peut intégrer dans son projet. Cette méthode considère les intentions d'ambiance de lumière naturelle comme une information source à utiliser pour proposer une aide à la conception pendant les phases préliminaires du projet où elles constituent les seules informations disponibles. Cette méthode offre des fonctionnalités capables de gérer l'incertitude qui caractérise les phases de recherche et de formalisation d'idées. Notre méthode d'assistance a été implémentée dans un prototype d'outil dont l'apport cognitif et la capacité d'accompagnement des activités de conception ont été évalués et analysés dans un cadre expérimental de conception de projet / The daylight illuminates the architectural space and creates the necessary conditions to accommodate human activities. The illuminating function of daylight is joined to another sensitive dimension that attributes a distinctive identity to the designed space. The control of daylight in architectural environment needs some detailed and precise characteristics about aperture and walls features. The multiplicity of these characteristics is faced with the inaccuracy and the uncertainty of the design information available during the early steps. Our research aims to propose a design support method that takes into account the early design step features and helps designers to integrate there daylight atmosphere intentions in project. We propose a design support method structured as a declarative modelling process. The declarative process helps the designer to declare his daylight intentions and to translate them to potential solutions that could be integrated in his project. This method considers the designer intentions as the main design information used to help designer during the early design steps. The proposed method provides functionalities that could operate the inaccuracy and the uncertainty of the ideas research and formalisation steps. Our design support method was implemented in a prototype design support tool. The cognitive contribution and the ability to support the design activities of the proposed tool was evaluated and analysed in an experimental design context

Page generated in 0.0813 seconds