Spelling suggestions: "subject:"modèle"" "subject:"codèle""
1 |
Les risques des hedge funds / Hedge funds risksKhanniche, Sabrina 03 December 2010 (has links)
Les hedge funds ont fait leur place dans le paysage financier. Ils se sont fermement imposés au cours de cette décennie. La perspective de rendements décorrélés a trouvé écho auprès des investisseurs, secoués après la crise de la bulle internet et partis à la recherche de rendements nouveaux. Afin de répondre à leur objectif, ils s’exposent à l’ensemble des marchés du globe, mais prennent part également à la vie des entreprises. Ils ont recours à une large palette d’instruments financiers. Les sources de risque sont donc hétérogènes, multiples et parfois interconnectées. Ces risques sont par ailleurs amplifiés du levier. Ainsi dans une situation normale, les hedge funds ont des performances supérieures, puisqu’ils exhibent des rendements bien plus attrayants, que ceux des classes d’actifs traditionnelles. Cependant, les hedge fund sont soumis à des risques de pertes extrêmes lorsque des chocs défavorables se produisent sur les marchés. Il est donc nécessaire de rendre compte de manière plus adéquate du risque des hedge funds. A ce titre, la Value at Risk est une alternative intéressante, lorsque le modèle de volatilité est plus sophistiqué que la mesure standard de la volatilité et le quantile retenu pour son estimation dépasse le cadre de la loi normale. L’analyse dynamique des hedge funds met en évidence l’existence d’un régime extrême vers lequel tendent les hedge funds dans le cas d’un retournement de marché. / Hedge funds are getting more and more importance. Fuelled by the prospect of returns disconnected from global markets, a wide range of investors have sought exposure to hedge funds, especially after the losses caused by the dot com bubble. They invest in a wide range of markets as well as in companies. The underlying risks are heterogeneous, varied and sometimes interconnected. Furthermore, those risks are magnified by leverage hedge funds undertake. When markets are normal, hedge funds are able to generate returns more attractive than those provided by traditional assets. However, they exhibit an extreme losses risk when markets go suddenly down. Thus, it is important to have an idea of those risks and think about a more accurate measure of hedge fund risks. We thus take into account Value at Risk for which volatility is evaluated in a better manner and quantile retained is different from the normal law. The dynamic analysis of hedge funds suggest that their returns are exposed to an extreme regime when markets go down.
|
2 |
Contribution à la modélisation et à la simulation de vêtements sur mannequin adaptatif / Contribution to modelling and the simulation clothing on an adaptive mannequinSerwatka, Agnieszka 10 July 2008 (has links)
Ce travail s'inscrit dans une politique de réorganisation de la chaîne de confection pour le secteur du textile habillement. L'objectif principal est de développer un nouveau concept de création de vêtements afin de réduire les temps et coûts de développement des produits. Deux marchés industriels ont été analysés, celui du prêt-à-porter (Mass production) et celui du sur-mesure (Mass customisation). On remarque que les effets de la mondialisation entraînent de produire vite pour éviter la copie et imposent un renouvellement constant des collections dans un délai très court. La production n'étant plus de proximité, il est impératif maintenant de communiquer les données par la voix de l'internet sous une forme numérique. Cette analyse du métier de la confection montre la nécessité d'évoluer vers un monde virtuel 3D corrélé avec les besoins industriels évoqués lors des campagnes de mensuration internationales. Ces dernières conseillent de travailler avec des mannequins virtuels 3D respectant les morphologies du corps humain pour éviter les retours d'invendus. Ce besoin a transformé la notion de taille en concept de morphotype à forte segmentation. Pour satisfaire à l'ensemble de ces critères, les méthodes de travail doivent changer, les concepteurs doivent s'adapter au monde moderne du virtuel 3D par l'intemet. Aussi, nous proposons un concept original de création de vêtements virtuels en 3D sur mannequin morphotype adaptatif. Le premier chapitre présente l'état de l'art du sujet dans les différents domaines représentatifs de l'étude, c'est-à-dire : l'anthropométrie, la biométrie et ces moyens de mesure, la conception de vêtements virtuels fortement orientée essayage virtuel. Le second chapitre est consacré à la modélisation du corps humain par la concrétisation et le développement d'un mannequin morphotype adaptatif. Le troisième chapitre propose un modèle de vêtement virtuel 3D associé au précédent mannequin. Un modèle d'aisance paramétré est intégré en amont de la modélisation pour contrôler le bien aller et le tombé du vêtement. Une orientation de l'application vers un procédé mass customisé a permis d'ajuster précisément les paramètres d'aisance par les outils de traitement d'images. Le dernier chapitre représente notre contribution à l'extension du modèle dynamique de vêtement par la mise en place d'un modèle de tissu non linéaire dont la valeur des paramètres est calculée par les algorithmes génétiques avec une méthodologie adaptée au processus à identifier. / This work is part of a reorganization of the chain of c10thing for the textile c10thing sector. The main objective is to develop a new concept of creating c10thing to reduce time and costs of product development. Among other things, recent international campaigns surveying advise working with 3D virtual models respecting the morphologies of the human body to minimize the losses caused unsold clothes. Also, we propose an original concept of creating virtual clothing 3D on an adaptive mannequin morphotype. The first chapter sets the state of the art of the subject in different areas representative of the study, i.e.: anthropometry, biometrics and its means of measurement, design virtual clothing strongly oriented virtual trying-on. The second chapter is devoted ta modelling the human body by the realization and development of an adaptive mannequin morphotype. The third chapter provides a model of 3D virtual clothing associated with the model presented in previous chapter. A parametric ease model is integrated upstream from modelling to control the weil fitting and c10thing drape. An orientation of the application process ta a mass customized market led to highly précised ease parameters adjustment with the help of tools of image treatment. The last chapter represents our contribution to the extension of the dynamic model c10thes by setting up a model of non-linear fa bric who's the parameters value is calculated by genetic algorithms with a suitable methodology for the process to identify.
|
3 |
Mesures des sections efficaces d'ionisations de la couche K induites par des protons de haute énergie pour une large plage de numéro atomique / Measurements of K-shell ionization cross sections induced by high energy proton beams over a wide range of atomic numberHazim, Mostafa 14 March 2017 (has links)
La connaissance des sections efficaces d’ionisation de la couche K est nécessaire pour faire des analyses quantitatives avec la méthode PIXE à haute énergie (HEPIXE) ainsi que pour valider les modèles théoriques développés comme le modèle ECPSSR. Actuellement, il n’y a que peu de données expérimentales disponibles. C’est dans ce contexte qu’une campagne d’expériences a été menée au cyclotron ARRONAX avec pour objectif de mesurer les sections efficaces dans une large gamme en énergie (de 30 MeV à 68 MeV) et pour une large gamme d’atomes. Afin d’avoir les mesures les plus précises possibles, l’ensemble des paramètres du dispositif expérimental nécessaires à cette mesure comme les efficacités en énergie du détecteur, le faisceau et les cibles, ont été caractérisés avec la plus grande rigueur. Une étude bibliographique a été menée pour choisir les paramètres intrinsèques comme le rendement de fluorescence de la couche K ou les intensités relatives des différentes transitions. Enfin, une expérience à basse énergie (6 MeV/u) a été réalisée dont les résultats sont en bon accord avec les données de la bibliographie, ce qui valide la démarche et les outils utilisés et permet de faire le lien avec les données expérimentales existantes. Un ensemble cohérent et fiable de nouvelles valeurs de sections efficaces a été mesuré. Les valeurs données par le modèle ECPSSR dans notre gamme d’énergie montrent un écart de moins de 10% pour les atomes lourds et de moins de 20% pour les atomes légers. La prise en compte de l’effet relativiste du projectile, modèle RECPSSR, réduit cet écart surtout pour les éléments lourds. / The knowledge of the K-Shell ionization cross sections is necessary to perform quantitative analyzes with the high energy PIXE method (HEPIXE) as well as to validate theoretical models like the the ECPSSR model. Currently, experimental data available are scarce.Within this context, an experimental campaign has been conducted at the ARRONAX cyclotron with the aim of measuring these cross-sections in a wide energy range (from 30 MeV to 68 MeV) and for a wide range of atoms. In order to obtain the most precise measurements, all the parameters of the experimental devices necessary for these measurements, such as energy efficiencies and geometry of the detector, the beam and the targets, have been characterized accurately A special care has been made to select the most accurate physical parameters from the literature data, like the K-shell fluorescence yields and the X-rays emission rates. Finally, a low-energy experiment (6 MeV/u) was performed and the results are in good agreement with the bibliographic data validating our approach and our tools. This experiment also allows to link our data to the existing experimental data.A coherent and reliable set of new cross section data has been measured. The values given by the ECPSSR model in our energy range show a difference of less than 10% for heavy atoms and less than 20% for light atoms. Taking into account the relativistic effect of the projectile, model RECPSSR, reduces this difference especially for heavy elements.
|
4 |
Une approche orientée modèle pour la parallélisation d'un code de calcul éléments finis / A model driven approach to parallelize finite element methodTaillard, Julien 09 February 2009 (has links)
La généralisation des processeurs multi-coeurs rendant la plupart des machines disponibles parallèles, l’utilisation de ce parallélisme est important afin d’obtenir des performances. Les travaux de cette thèse s’inscrivent dans le cadre du développement d’applications parallèles afin de bénéficier du parallélisme des architectures d’exécution actuelles. Dans cette thèse, nous proposons une méthodologie de développement d’applications parallèles basée sur l’ingénierie dirigée par les modèles (IDM). La spécification des applications est réalisée à l’aide du langage de modélisation UML. Après avoir défini cette méthodologie d’IDM, l’extension d’un profil UML basé sur le langage Array-OL est ensuite proposé afin d’étendre le domaine des applications modélisables aux applications de calcul scientifique. La partie suivante est la définition d’un métamodèle de langage de procédural. Ce métamodèle est indépendant des langages cibles et permet l’utilisation de la même transformation afin de produire ces différentes cibles. Ce métamodèle autorise l’utilisation des bibliothèques parallèles (OpenMP ou MPI) dans le but de produire du code parallèle. Ensuite la chaîne de compilation reposant sur le concept de transformations de modèles est développée et introduite dans le cadre de l’environnement Gaspard. La cible de cette compilation est les machines à mémoires partagées programmées à l’aide du langage OpenMP. Enfin, cette méthodologie est utilisée dans le cadre du développement d’applications de simulations de phénomènes électromagnétiques. À partir de ces modélisations, des patrons de conceptions génériques de calculs classiques sont extraits. Les résultats obtenus sur les applications modélisées statiquement sont satisfaisants. / The multicore processors generalization has led to the fact that most of the available computers are parallel, and utilization of this parallelism is important to obtain performance. This thesis deals with the development of parallel applications in order to benefit the available parallelism. In this thesis, we propose a methodology to develop parallel application based on the Model Driven Engineering (MDE). Applications specification is realized using the Unified Modeling Language (UML). After defining this methodology, an extension of the UML profile based on the Array-OL language is proposed to extend the application domain to scientific computing applications. The following part is the definition of a metamodel of procedural languages. This metamodel, independent of the targeted languages, allows to use the same model transformations for different targets. The use of a parallel library (such as OpenMP or MPI) makes possible the production of parallel code. Then, the transformation chain based on the model transformation concept is developped and introduced in the Gaspard framework. Shared memory machines are the target of this compilation using the OpenMP language. Finally, this methodology is used in the development of an electromagnetism simulation. Starting from models, generic design patterns of classical computations are extracted. Results given on the modeled applications are satisfying.
|
5 |
Modèle formel pour intégrer le diagnostic de fautes multiples et la reconfiguration / Formal model-based framework for integrating multi-faults diagnosis and reconfigurationHu, He-Xuan 17 December 2009 (has links)
Ces travaux de recherche présentent un nouveau cadre formel pour intégrer le diagnostic de fautes multiples et la reconfiguration. L'idée principale est d'utiliser STRIPS (Stanford Research Institute Problem Solver), un langage formel pour la planification automatisée qui peut intégrer les relations cause_effect et le mécanisme de raisonnement automatique dans un modèle. Le processus de diagnostic de fautes multiples et son module de vérification de cohérence sont basés sur le langage STRIPS. En outre, le modèle de faute est introduit dans le module de vérification de cohérence pour empêcher les diagnostics impossibles. Le langage STRIPS peut définir qualitativement le modèle de faute, sans nécessiter une connaissance précise et détaillée des composants défaillants. A partir des résultats du diagnostic, la reconfiguration met à jour le modèle du système. Elle vérifie que le modèle permet de réaliser les objectifs à partir d’une approche basée sur la vérification de modèle. Les objectifs sont pour ceci, exprimés à l’aide une logique temporelle. / This research presents a new formal framework for integrating multi-fault diagnosis and reconfiguration. The main idea is to use the STRIPS (STanford Research Institute Problem Solver), a formal language for automated planning which can integrate the cause_effect knowledge and the automated reasoning mechanism into one model. The multi-fault diagnostic process and its consistency-checking module are all based on the models defined by STRIPS actions. Moreover, the fault models are introduced into the consistency-checking module for preventing the impossible diagnoses. The STRIPS can qualitatively define the fault models without requiring detail and precise knowledge of faulty components. According to the results of diagnosis, the reconfiguration updates the system’s model. It uses the model checking to verify whether the updated model satisfies the desired objectives. These objectives are described by a temporal language.
|
6 |
Reconnaissance des gestes expressifs inspirée du modèle LMA pour une interaction naturelle homme-robot / Expressive gesture recognition inspired by the LMA model for a natural human-robot interactionAjili, Insaf 03 December 2018 (has links)
Dans cette thèse, nous traitons le problème de la reconnaissance des gestes dans un contexte d'interaction homme-robot. De nouvelles contributions sont apportées à ce sujet. Notre système consiste à reconnaitre les gestes humains en se basant sur une méthode d'analyse de mouvement qui décrit le geste humain d'une manière précise. Dans le cadre de cette étude, un module de niveau supérieur est intégré afin de reconnaître les émotions de la personne à travers le mouvement de son corps. Trois approches sont réalisées : la première porte sur la reconnaissance des gestes dynamiques en appliquant le modèle de Markov caché (MMC) comme méthode de classification.Un descripteur de mouvement local est implémenté basé sur une méthode d'analyse de mouvement,nommée LMA (Laban Movement Analysis) qui permet de décrire le mouvement de la personne dans ses différents aspects. Notre système est invariant aux positions et orientations initiales des personnes.Un algorithme d'échantillonnage a été développé afin de réduire la taille de notre descripteur et aussi adapter les données aux modèles de Markov cachés. Une contribution est réalisée aux MMCs pour analyser le mouvement dans deux sens (son sens naturel et le sens inverse) et ainsi améliorer la classification des gestes similaires. Plusieurs expériences sont faites en utilisant des bases de données d'actions publiques, ainsi que notre base de données composée de gestes de contrôle. Dans la seconde approche, un système de reconnaissance des gestes expressifs est mis en place afin de reconnaitre les émotions des personnes à travers leurs gestes. Une deuxième contribution consiste en le choix d'un descripteur de mouvement global basé sur les caractéristiques locales proposées dans la première approche afin de décrire l'entièreté du geste. La composante Effort de LMA est quantifiée afin de décrire l'expressivité du geste avec ses 4 facteurs (espace, temps, poids et flux). La classification des gestes expressifs est réalisée avec 4 méthodes d'apprentissage automatique réputées (les forêts d'arbres décisionnels, le perceptron multicouches, les machines à vecteurs de support : un-contre-un et un-contre-tous). Une étude comparative est faite entre ces 4 méthodes afin de choisir la meilleure. L'approche est validée avec des bases publiques et notre propre base des gestes expressifs.La troisième approche consiste en une étude statistique basée sur la perception humaine afin d'évaluer le système de reconnaissance ainsi que le descripteur de mouvement proposé. Cela permet d'estimer la capacité de notre système à pouvoir classifier et analyser les émotions comme un humain. Dans cette partie deux tâches sont réalisées avec les deux classifieurs (la méthode d'apprentissage RDF quia donné les meilleurs résultats dans la deuxième approche et le classifieur humain) : la classification des émotions et l'étude de l'importance des caractéristiques de mouvement pour discriminer chaque émotion. / In this thesis, we deal with the problem of gesture recognition in a human-robot interaction context. New contributions are being made on this subject. Our system consists in recognizing human gestures based on a motion analysis method that describes movement in a precise way.As part of this study, a higher level module is integrated to recognize the emotions of the person through the movement of her body. Three approaches are carried out: the first deals with the recognition of dynamic gestures by applying the hidden Markov model (HMM) as a classification method. A local motion descriptor is implemented based on a motion analysis method, called LMA(Laban Movement Analysis), which describes the movement of the person in its different aspects.Our system is invariant to the initial positions and orientations of people. A sampling algorithm has been developed in order to reduce the size of our descriptor and also adapt the data to hidden Markov models. A contribution is made to HMMs to analyze the movement in two directions (its natural and opposite directions) and thus improve the classification of similar gestures. Severalexperiments are done using public action databases, as well as our database composed of controlgestures. In the second approach, an expressive gestures recognition system is set up to recognizethe emotions of people through their gestures. A second contribution consists of the choice of a global motion descriptor based on the local characteristics proposed in the first approach to describethe entire gesture. The LMA Effort component is quantified to describe the expressiveness of the gesture with its four factors (space, time, weight and flow). The classification of expressive gesturesis carried out with four well-known machine learning methods (random decision forests, multilayerperceptron, support vector machines: one-against-one and one-against-all. A comparative study is made between these 4 methods in order to choose the best one. The approach is validated with public databases and our database of expressive gestures. The third approach is a statistical studybased on human perception to evaluate the recognition system as well as the proposed motiondescriptor. This allows us to estimate the ability of our system to classify and analyze emotionsas a human. In this part, two tasks are carried out with the two classifiers (the RDF learning method that gave the best results in the second approach and the human classifier): the classification of emotions and the study of the importance of our motion features to discriminate each emotion.
|
7 |
Optimisation du procédé de contrôle non destructif par thermographie inductive pour des applications du domaine nucléaire / Optimization of inductive thermography non-destructive testing method for nuclear applicationsAzzabi Zouraq, Brahim 03 October 2019 (has links)
Les travaux de cette thèse traitent d’une technique de contrôle non destructif (CND) novatrice et de son adaptation au domaine du nucléaire civil. L’outil numérique est utilisé à cette fin. Une présentation exhaustive des modèles numériques adaptés à la problématique est tout d’abord faite. Ces outils sont par la suite implémentés et leurs performances comparées. Ceci a permis de mettre en place un outil numérique rapide et capable de prendre en comptes différentes contraintes de modélisation. Il s’agit plus essentiellement de la prise en compte du circuit, d’alimentation du système de chauffe, de la modélisation des régions à effet de peau prononcé, ainsi que la modélisation des défauts fins. Ceci est suivi par une validation expérimentale des performances numériques. L’outil implémenté est validé et exploité dans le cadre d’une démarche d’évaluation de fiabilité basé sur une approche MAPOD. Dans ce cadre tout un système de tirage de données d’entrée et de gestion de données de sortie est établi. Le fruit de ceci est un outil logiciel fiable et rapide dédié à l’évaluation de la sensibilité de la technique thermo-inductive. / The work of this thesis deals with an innovative non-destructive testing (NDT) technique and its adaptation to the civil nuclear field. The numerical tool is used for this purpose. An exhaustive presentation of numerical models adapted to our problematic is made at first. These tools are then implemented and their performance compared. This made it possible to set up a fast digital tool capable of taking into account different modeling constraints such as circuit coupling, modeling of pronounced skineffect regions, as well as modeling of thin defects. This was followed by an experimental validation of the performances. Once the tool implemented and validated, it was exploited as part of a reliability assessment approach based on a MAPOD approach. In this context, an entire system for drawing input data and managing output data will be established. The result of this is a reliable and fast software tool dedicated to the evaluation of the sensibility of the thermoinductive technique.
|
8 |
Extension des modèles de prédiction de la qualité du logiciel en utilisant la logique floue et les heuristiques du domaineSerhani, Mohamed Adel January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
9 |
Semiparametric Estimation for Extreme ValuesBouquiaux, Christel C. N. C. I. 05 September 2005 (has links)
Nous appliquons la théorie asymptotique des expériences statistiques à des problèmes liés aux valeurs extrêmes. Quatre modèles semi-paramétriques sont envisagés. Tout d'abord le modèle d'échantillonnage de fonction de répartition de type Pareto. L'index de Pareto est le paramètre d'intérêt tandis que la fonction à variation lente, qui intervient dans la décomposition de la fonction de survie, joue le rôle de nuisance. Nous considérons ensuite des observations i.i.d. de fonction de répartition de type Weibull. Le troisième modèle étudié est un modèle de régression. On considère des couples d'observations $(Y_i,X_i)$ indépendants, les v.a. $X_i$ sont i.i.d. de loi connue et on suppose que la fonction de répartition de la loi de $Y$ conditionnellement à $X$ est de type Pareto, avec une fonction à variation lente et un index $gamma$ qui dépendent de $X$. On fait l'hypothèse que la fonction $gamma$ a une forme quelconque mais connue, qui dépend d'un paramètre $ heta$ dans $SR^K$. Le paramètre d'intérêt est $ heta$. Enfin, nous étudions un modèle linéaire avec des innovations de fonction de répartition de type Pareto. Pour chacun de ces modèles, notre démarche est de construire des alternatives, d'établir la normalité locale asymptotique et l'existence d'un estimateur asymptotiquement efficace, ce qui n'est possible que parce que les alternatives que nous avons construites sont des alternatives les plus difficiles. Pour les deux derniers modèles, l'estimateur asymptotiquement efficace que nous proposons n'a, à notre connaissance, pas encore fait l'objet d'une publication.
|
10 |
Prédiction de la toxicocinétique des composés organiques volatils à partir de leur structure moléculaireKamgang, Ervane January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
Page generated in 0.0441 seconds