• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1363
  • 599
  • 154
  • 4
  • 2
  • 1
  • Tagged with
  • 2092
  • 768
  • 461
  • 296
  • 294
  • 237
  • 226
  • 203
  • 200
  • 196
  • 195
  • 183
  • 159
  • 153
  • 151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Algorithms for the resolution of stochastic control problems in high dimension by using probabilistic and max-plus methods / Algorithmes de résolution de problèmes de contrôle stochastique en grande dimension par une association de méthodes probabilistes et max-plus.

Fodjo, Eric 13 July 2018 (has links)
Les problèmes de contrôle stochastique optimal à horizon fini forment une classe de problèmes de contrôle optimal où interviennent des processus stochastiques considérés sur un intervalle de temps borné. Tout comme beaucoup de problème de contrôle optimal, ces problèmes sont résolus en utilisant le principe de la programmation dynamique qui induit une équation aux dérivées partielles (EDP) appelée équation d'Hamilton-Jacobi-Bellman. Les méthodes basées sur la discrétisation de l’espace sous forme de grille, les méthodes probabilistes ou plus récemment les méthodes max-plus peuvent alors être utilisées pour résoudre cette équation. Cependant, le premier type de méthode est mis en défaut quand un espace à dimension grande est considéré à cause de la malédiction de la dimension tandis que le deuxième type de méthode ne permettait jusqu'ici que de résoudre des problèmes où la non linéarité de l'équation aux dérivées partielles par rapport à la Hessienne n'est pas trop forte. Quant au troisième type de méthode, il entraine une explosion de la complexité de la fonction valeur. Nous introduisons dans cette thèse deux nouveaux schémas probabilistes permettant d'agrandir la classe des problèmes pouvant être résolus par les méthodes probabilistes. L'une est adaptée aux EDP à coefficients bornés tandis que l'autre peut être appliqué aux EDP à coefficients bornés ou non bornés. Nous prouvons la convergence des deux schémas probabilistes et obtenons des estimées de l'erreur de convergence dans le cas d'EDP à coefficients bornés. Nous donnons également quelques résultats sur le comportement du deuxième schéma dans le cas d'EDP à coefficients non bornés. Ensuite, nous introduisons une méthode complètement nouvelle pour résoudre les problèmes de contrôle stochastique optimal à horizon fini que nous appelons la méthode max-plus probabiliste. Elle permet d'utiliser le caractère non linéaire des méthodes max-plus dans un contexte probabiliste tout en contrôlant la complexité de la fonction valeur. Une application au calcul du prix de sur-réplication d'une option dans un modèle de corrélation incertaine est donnée dans le cas d’un espace à dimension 2 et 5. / Stochastic optimal control problems with finite horizon are a class of optimal control problems where intervene stochastic processes in a bounded time. As many optimal control problems, they are often solved using a dynamic programming approach which results in a second order Partial Differential Equation (PDE) called the Hamilton-Jacobi-Bellman equation. Grid-based methods, probabilistic methods or more recently max-plus methods can be used then to solve this PDE. However, the first type of methods default in a space of high dimension because of the curse of dimensionality while the second type of methods allowed till now to solve only problems where the nonlinearity of the PDE with respect to the second order derivatives is not very high. As for the third type of method, it results in an explosion of the complexity of the value function. We introduce two new probabilistic schemes in order to enlarge the class of problems that can be solved with probabilistic methods. One is adapted to PDE with bounded coefficients while the other can be applied to PDE with bounded or unbounded coefficients. We prove the convergence of the two probabilistic scheme and obtain error estimates in the case of a PDE with bounded coefficients. We also give some results about the behavior of the second probabilistic scheme in the case of a PDE with unbounded coefficients. After that, we introduce a completely new type of method to solve stochastic optimal control problems with finite horizon that we call the max-plus probabilistic method. It allows to add the non linearity feature of max-plus methods to a probabilistic method while controlling the complexity of the value function. An application to the computation of the optimal super replication price of an option in an uncertain correlation model is given in a 5 dimensional space.
232

Calcul rapide de forces et de déformations mécaniques non-linéaires et visco-élastiques pour la simulation de chirurgie

Schwartz, Jean-Marc 11 April 2018 (has links)
Ce travail présente une méthode de calcul rapide de déformations et de forces mécaniques destinée à la simulation d'applications chirurgicales. La simulation de chirurgie vise à offrir aux praticiens des outils leur permettant de pratiquer des entraînements intensifs et de pouvoir planifier avec précision certaines interventions. La conception de tels simulateurs nécessite de disposer de modèles géométriques et mécaniques précis des organes du corps humain, et d'algorithmes de calcul suffisamment rapides pour être capable d'utiliser ces modèles dans des conditions de temps réel. La plupart des simulateurs existants utilisent des modèles mécaniques extrêmement simples, basés sur les lois de l'élasticité linéaire. Or de nombreux résultats de biomécanique indiquent que les tissus biologiques se comportent selon des lois beaucoup plus complexes, incluant des effets non-linéaires et visco-élastiques importants. Pour cette raison, nous avons développé une méthode permettant le calcul rapide de déformations et de forces incluant des effets mécaniques non-linéaires et visco-élastiques. Cette méthode utilise la théorie des éléments finis et a été conçue comme une extension de l'algorithme dit des masses-tenseurs pour l'élasticité linéaire. Son principe consiste à pré-calculer un certain nombre de tenseurs dépendant des caractéristiques géométriques et mécaniques de chaque élément fini, qui sont ensuite combinés dans la phase de simulation proprement dite. Notre modèle non-linéaire ne présage d'aucune forme particulière de loi mécanique, de sorte que la méthode proposée est suffisamment générique pour s'appliquer à une grande variété de comportements et d'objets. Après la description de l'algorithme, de ses performances en terme de temps de calcul et de ses conditions de stabilité numérique, nous démontrons que cette méthode est capable de reproduire avec précision le comportement mécanique d'un tissu biologique mou. Ce travail s'inscrivant plus spécifiquement dans le cadre du développement d'un système de simulation de la cryochirurgie du foie, nous avons étudié expérimentalement les propriétés du foie lors de sa perforation par une aiguille à biopsie. Le modèle de masses-tenseurs non-linéaire et visco-élastique construit à l'aide des paramètres expérimentaux a pu reproduire avec une bonne précision les propriétés observées. / This work presents a method for the fast computation of mechanical deformations and forces for the simulation of surgical applications. Surgery simulation aims at providing physicians with tools allowing extensive training and precise planning of given interventions. The design of such simulation systems requires accurate geometrical and mechanical models of the organs of the human body, as well as fast computation algorithms suitable for real-time conditions. Most existing simulation systems use very simple mechanical models, based on the laws of linear elasticity. Numerous biomechanical results yet indicate that biological tissues exhibit much more complex behaviour, including important non-linear and visco-elastic effects. For this reason, we developed a method allowing the fast computation of mechanical deformations and forces including non-linear and visco-elastic effects. This method uses finite element theory and has been constructed as an extension of the so-called tensor-mass algorithm for linear elasticity. It consists in pre-computing a set of tensors depending on the geometrical and mechanical properties of each finite element, which are later combined in the simulation part itself. Our non-linear model does not assume any particular form of mechanical law, so that the proposed method is generic enough to be applied to a wide variety of behaviours and objects. Following the description of the algorithm, of its performances in terms of computation time, and of its numerical stability conditions, we show that this method allows to reproduce the mechanical behaviour of a biological soft tissue with good precision. As this project is part of a broader effort aiming more specifically at developing a simulation system for liver cryosurgery, we experimentally characterized the properties of liver in perforation by a biopsy needle. The non-linear and visco-elastic tensor-mass model constructed from experimental parameters succeeded in accurately reproducing the observed properties.
233

Emergency response, the built environment and GPS signal quality: simulation and analysis of urban canyons in Quebec City

O'Hara, Casey 12 April 2018 (has links)
L’objectif général de cette recherche est de synthétiser les informations disponibles sur le développement d’un système d’urgence 9-1-1 pour les téléphones cellulaires dans le contexte nord américain. L’objectif spécifique du projet est de proposer une méthodologie qui détermine les conditions moyennes d’obstruction causée par les bâtiments qui nuisent à la qualité de la réception de signal GPS. Un modèle statistique de la qualité de signal GPS basé sur une campagne de mesures de réception des signaux GPS dans les arrondissements à caractère urbain dans la Ville de Québec (Canada) est employé pour simuler l’effet d’obstruction. Ces mesures ont montré une variabilité spatiale de la qualité de signal selon les conditions locales d’obstruction des édifices sur la voûte céleste. Une augmentation du pourcentage de ciel obstrué (effet de masque) a entraîné une augmentation de la probabilité de perte de signal GPS. Des cartes continues de la probabilité de perte de signal GPS ont été créés pour des feuillets de la Base de données topographiques de Québec au 1 : 20 000 en employant la technique d’interpolation spatiale par la méthode de la distance inverse pondérée (DIP). / The general objective of this investigation is to extract the most pertinent information currently available on developing an emergency 9-1-1 system for cellular phones in the North American context. The specific objective of this project is to propose a methodology for determining the average obstruction by buildings which affect GPS satellite signal quality. A statistical model of GPS signal quality based on a field measurement campaign in the urban districts of Quebec City (Canada) was used to simulate this phenomenon. The measurements demonstrated a spatial variation in signal quality according to the building obstruction over the local sky. An increase in the percent of obstructed sky led to an increase in the probability of losing GPS signal lock. Continuous maps of GPS signal loss probability were created for sheets of the Quebec topographic database at the 1:20,000 scale using the Inverse Distance Weighting technique of spatial interpolation (IDW).
234

Modélisation du chablis en pessières régulières et irrégulières : effet de la diversité structurale des pessières noires boréales sur la résistance et la susceptibilité au chablis

Bergeron, Carl 13 April 2018 (has links)
Des travaux ont permis d’évaluer la résistance et la susceptibilité au chablis de l’épinette noire (Picea mariana (Mill.) B.S.P.) en structure régulière et irrégulière. Des expériences de treuillage ont permis d’évaluer le moment de force critique afin de quantifier la résistance des arbres au renversement et au bris de tige. Différents modèles ont été ajustés aux données. Le moment de force critique est fonction de la masse de la tige dans tous le cas et influencée par la structure ou les ratios hauteur : diamètre dans certains cas. Ces résultats sur la résistance, de même que la modélisation de la cime et plusieurs autres ajustements, furent intégrés dans le modèle ForestGALES afin de quantifier la susceptibilité au chablis. La susceptibilité apparaît fort variable entre et au sein de chaque type de structure, mais l’espacement et le rapport hauteur : diamètre expliquent la majeure partie de la variabilité observée. / Works aimed to evaluate windthrow resistance and susceptibility for black spruce (Picea mariana (Mill.) B.S.P.) stands of regular and irregular structure are presented here. Performed tree pulling works permitted to evaluate the critical bending moment in order to quantify the resistance of trees to overturning and stem breakage. Different models where fitted to the data. The critical bending moment is function of stem weight in all cases and influenced by the structure type or the height:diameter ratio in some cases. These results on mechanical resistance, along with crown modelling results and other adjustments, were used in an adaptation of the ForestGALES model in order to quantify windthrow susceptibility. Susceptibility appears to be quite variable between compared stands, both between and within structure types, but average tree spacing and height:diameter ratio explain most of the observed variability.
235

Évaluation de la validité des modèles de risque pour prédire l’incidence des gastroentérites d’origine hydrique au Québec

Shemilt, Michèle 23 April 2018 (has links)
Les analyses de risque microbiologique, dont l'ÉQRM (évaluation quantitative du risque microbien) proposent de nouvelles techniques pour évaluer les conséquences sanitaires liées à la contamination microbiologique de l'eau potable. Ces modèles intègrent les données physico-chimiques et microbiologiques des usines de traitement d'eau pour quantifier un risque à la santé. Le projet visait à évaluer le lien entre le risque estimé selon un modèle ÉQRM et l’incidence de giardiase observée. Les banques de données des maladies à déclaration obligatoire et d’INFO-SANTÉ ont été utilisées pour comparer le résultat de l’analyse de risque à celui des analyses épidémiologiques. Les municipalités considérées les plus à risque par l'ÉQRM ont une incidence de gastroentérite et de parasitoses plus élevée. Cependant, l'ampleur du risque prédit ne correspond pas à celui observé. Il est souhaitable que les modèles d’ÉQRM incorporent des données populationnelles pour prédire avec une plus grande exactitude le risque épidémiologique.
236

Sur les intervalles de confiance bayésiens pour des espaces de paramètres contraints et le taux de fausses découvertes

Bahamyirou, Asma January 2015 (has links)
Ce mémoire traite deux problèmes : en premier lieu, l'estimation paramétrique par intervalle dans un contexte où il y a des contraintes sur le paramètre et, en deuxième lieu la probabilité de fausses découvertes lorsqu'on réalise simultanément plusieurs tests d'hypothèses. Dans le premier chapitre, nous faisons un rappel sur les notions de base de l'inférence statistique à savoir l'estimation ponctuelle et par intervalle. Dans le deuxième chapitre, nous abordons la théorie de l'estimation par intervalle de confiance bayésien décrit dans [10]. Des résultats nouveaux sont présentés dans ce chapitre. Des travaux partiels (voir [7]), montrent que la probabilité de recouvrement fréquentiste est faible aux frontières de l'intervalle. Comparé à ces derniers, nous avons montré sous certaines conditions que cette probabilité n'ira jamais au delà d'une borne supérieure qui semble éloignée de la crédibilité. Finalement, au Chapitre 4, nous traitons des estimateurs de la probabilité de fausses découvertes. Des améliorations significatives ont été faites dans ce cadre.
237

New capacity design methods for seismic design of ductile RC shear walls / Nouvelles méthodes de dimensionnement à la capacité pour la conception parasismique de murs ductiles en béton armé

Boivin, Yannick January 2012 (has links)
In order to produce economical seismic designs, the modern building codes allow reducing seismic design forces if the seismic force resisting system (SFRS) of a building is designed to develop an identified mechanism of inelastic lateral response. The capacity design aims to ensure that the inelastic mechanism develops as intended and no undesirable failure modes occur. Since the 1984 edition, this design approach is implemented in the Canadian Standards Association (CSA) standard A23.3 for seismic design of ductile reinforced concrete (RC) shear walls with the objectives of providing sufficient flexural and shear strength to confine the mechanism to the identified plastic hinges and ensure a flexure-governed inelastic lateral response of the walls. For a single regular wall, the implemented capacity design requirements assume a lateral deformation of the wall in its fundamental lateral mode of vibration, and hence aim to constrain the inelastic mechanism at the expected base plastic hinge. This design is referred to as single plastic-hinge (SPH) design. Despite these requirements, CSA standard A23.3 did not prescribe, prior to the 2004 edition, any methods for determining capacity design envelopes for flexural and shear strength design of ductile RC shear walls over their height. Only its Commentary recommended such methods. However, various studies suggested, mainly for cantilever walls, that the application of these methods could result in multistorey wall designs experiencing the formation of unintended plastic hinges at the upper storeys and a high potential of undesirable shear failure, principally at the wall base, jeopardizing the intended ductile flexural response of the wall. These design issues result from an underestimation of dynamic amplification due to lateral modes of vibration higher than the fundamental lateral mode. The 2004 CSA standard A23.3 now prescribes capacity design methods intending in part to address these design issues. Although these methods have not been assessed yet, their formulation appears deficient in accounting for the higher mode amplification effects. In this regard, this research project proposes for CSA standard A23.3 new capacity design methods, considering these effects, for a SPH design of regular ductile RC cantilever walls used as SFRS for multistorey buildings. In order to achieve this objective, first a seismic performance assessment of a realistic ductile shear wall system designed according to the 2004 CSA standard A23.3 is carried out to assess the prescribed capacity design methods. Secondly, an extensive parametric study based on sophisticated inelastic dynamic simulations is conducted to investigate the influence of various parameters on the higher mode amplification effects, and hence on the seismic force demand, in regular ductile RC cantilever walls designed with the 2004 CSA standard A23.3. Thirdly, a review of various capacity design methods proposed in the current literature and recommended by design codes for a SPH design is performed. From the outcomes of this review and the parametric study, new capacity design methods are proposed and a discussion on the limitations of these methods and on their applicability to various wall systems is presented.
238

Modélisation du smile de volatilité pour les produits dérivés de taux d'intérêt / Multi factor stochastic volatility for interest rates modeling

Palidda, Ernesto 29 May 2015 (has links)
L'objet de cette thèse est l'étude d'un modèle de la dynamique de la courbe de taux d'intérêt pour la valorisation et la gestion des produits dérivées. En particulier, nous souhaitons modéliser la dynamique des prix dépendant de la volatilité. La pratique de marché consiste à utiliser une représentation paramétrique du marché, et à construire les portefeuilles de couverture en calculant les sensibilités par rapport aux paramètres du modèle. Les paramètres du modèle étant calibrés au quotidien pour que le modèle reproduise les prix de marché, la propriété d'autofinancement n'est pas vérifiée. Notre approche est différente, et consiste à remplacer les paramètres par des facteurs, qui sont supposés stochastiques. Les portefeuilles de couverture sont construits en annulant les sensibilités des prix à ces facteurs. Les portefeuilles ainsi obtenus vérifient la propriété d’autofinancement / This PhD thesis is devoted to the study of an Affine Term Structure Model where we use Wishart-like processes to model the stochastic variance-covariance of interest rates. This work was initially motivated by some thoughts on calibration and model risk in hedging interest rates derivatives. The ambition of our work is to build a model which reduces as much as possible the noise coming from daily re-calibration of the model to the market. It is standard market practice to hedge interest rates derivatives using models with parameters that are calibrated on a daily basis to fit the market prices of a set of well chosen instruments (typically the instrument that will be used to hedge the derivative). The model assumes that the parameters are constant, and the model price is based on this assumption; however since these parameters are re-calibrated, they become in fact stochastic. Therefore, calibration introduces some additional terms in the price dynamics (precisely in the drift term of the dynamics) which can lead to poor P&L explain, and mishedging. The initial idea of our research work is to replace the parameters by factors, and assume a dynamics for these factors, and assume that all the parameters involved in the model are constant. Instead of calibrating the parameters to the market, we fit the value of the factors to the observed market prices. A large part of this work has been devoted to the development of an efficient numerical framework to implement the model. We study second order discretization schemes for Monte Carlo simulation of the model. We also study efficient methods for pricing vanilla instruments such as swaptions and caplets. In particular, we investigate expansion techniques for prices and volatility of caplets and swaptions. The arguments that we use to obtain the expansion rely on an expansion of the infinitesimal generator with respect to a perturbation factor. Finally we have studied the calibration problem. As mentioned before, the idea of the model we study in this thesis is to keep the parameters of the model constant, and calibrate the values of the factors to fit the market. In particular, we need to calibrate the initial values (or the variations) of the Wishart-like process to fit the market, which introduces a positive semidefinite constraint in the optimization problem. Semidefinite programming (SDP) gives a natural framework to handle this constraint
239

Précision d'extrapolation des éphémérides des objets du système solaire. Application aux satellites de Saturne.

Desmars, Josselin 26 June 2009 (has links) (PDF)
La précision globale des éphémérides est déterminée à la fois par la précision du modèle dynamique (précision interne) et par la qualité (précision et distribution) des observations utilisées pour l'ajustement du modèle (précision externe). La précision interne est bien estimée et de bonne qualité. En revanche, la précision externe est mal connue et tend à dégrader la qualité globale de l'éphéméride. L'un des moyens d'estimer la précision d'une éphéméride est la comparaison aux observations (O-C) qui n'est toutefois valable que pendant une période d'observations. En dehors de ces périodes, l'estimation de la précision reste difficile. L'objectif de ce travail est donc de mettre en lumière des méthodes statistiques qui permettent d'estimer la précision d'une éphéméride au cours du temps. Notre étude porte en particulier sur deux des huit satellites principaux de Saturne mais le cas d'un astéroîde est également étudié. Nous montrons que l'une des méthodes, le bootstrap, possède une implémentation simple et permet cette estimation en utilisant des hypothèses minimales sur la distribution des erreurs d'observations. La détermination de cette précision permet de mieux appréhender la manière d'utiliser les observations pour ajuster des théories. L'impact de la mission Gaia sur la précision des éphémérides peut également être mesurée. Un catalogue d'observations des satellites de Saturne, dont l'utilisation ne s'est pas limitée à l'ajustement du modèle, a été compilé. La longue période couverte par cette base de données autorise ainsi une mesure des forces de marées de Saturne, à travers la détection de l'accélération séculaire de la longitude moyenne de certains satellites.
240

Inférence rétrospective de réseaux de gènes à partir de données génomiques temporelles

Rau, Andrea 01 June 2010 (has links) (PDF)
Les réseaux de gènes régulateurs représentent un ensemble de gènes qui interagissent, directement ou indirectement, les uns avec les autres ainsi qu'avec d'autres produits cellulaires. Comme ces interactions réglementent le taux de transcription des gènes et la production subséquente de protéines fonctionnelles, l'identification de ces réseaux peut conduire à une meilleure compréhension des systèmes biologiques complexes. Les technologies telles que les puces à ADN (microarrays) et le séquençage à ultra-haut débit (RNA sequencing) permettent une étude simultanée de l'expression des milliers de gènes chez un organisme, soit le transcriptome. En mesurant l'expression des gènes au cours du temps, il est possible d'inférer (soit "reverse-engineer") la structure des réseaux biologiques qui s'impliquent pendant un processus cellulaire particulier. Cependant, ces réseaux sont en général très compliqués et difficilement élucidés, surtout vu le grand nombre de gènes considérés et le peu de répliques biologiques disponibles dans la plupart des données expérimentales.<br /> <br /> Dans ce travail, nous proposons deux méthodes pour l'identification des réseaux de gènes régulateurs qui se servent des réseaux Bayésiens dynamiques et des modèles linéaires. Dans la première méthode, nous développons un algorithme dans un cadre bayésien pour les modèles linéaires espace-état (state-space model). Les hyperparamètres sont estimés avec une procédure bayésienne empirique et une adaptation de l'algorithme espérance-maximisation. Dans la deuxième approche, nous développons une extension d'une méthode de Approximate Bayesian Computation basé sur une procédure de Monte Carlo par chaînes de Markov pour l'inférence des réseaux biologiques. Cette méthode échantillonne des lois approximatives a posteriori des interactions gène-à-gène et fournit des informations sur l'identifiabilité et le robustesse des structures sous-réseaux. La performance des deux approches est étudié via un ensemble de simulations, et les deux sont appliqués aux données transcriptomiques.

Page generated in 0.0486 seconds