• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 41
  • 9
  • 1
  • Tagged with
  • 183
  • 84
  • 33
  • 28
  • 23
  • 18
  • 17
  • 16
  • 16
  • 15
  • 15
  • 15
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Interaction Fluide-Structure dans le Système Cardiovasculaire. Analyse Numérique et Simulation

Astorino, Matteo 13 April 2010 (has links) (PDF)
Dans cette thèse, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d'interaction fluide-structure (IFS) dans le système cardiovasculaire. Nous considérons en particulier l'interaction mécanique du sang avec la paroi des grosses artères, avec des valves cardiaques et avec le myocarde. Dans les algorithmes IFS partitionnés, le couplage entre le fluide et la structure peut être imposé de manière implicite, semi-implicite ou explicite. Dans la première partie de cette thèse, nous faisons l'analyse de convergence d'un algorithme de projection semi-implicite. Puis, nous proposons une nouvelle version de ce schéma qui possède de meilleures propriétés de stabilité. La modification repose sur un couplage Robin-Robin résultant d'une ré-interprétation de la formulation de Nitsche. Dans la seconde partie, nous nous intéressons à la simulation de valves cardiaques. Nous proposons une stratégie partionnée permettant la prise en compte du contact entre plusieurs structures immergées dans un fluide. Nous explorons également l'utilisation d'une technique de post-traitement récente, basée sur la notion de structures Lagrangiennes cohérentes, pour analyser qualitativement l'hémodynamique complexe en aval des valves aortiques. Dans la dernière partie, nous proposons un modèle original de valves cardiaques. Ce modèle simplifié offre un compromis entre les approches 0D classiques et les simulations complexes d'interaction fluide-structure 3D. Diverses simulations numériques sont présentées pour illustrer l'efficacité et la robustesse de ce modèle, qui permet d'envisager des simulations réalistes de l'hémodynamique cardiaque, à un coût de calcul modéré.
172

Quelques contributions à l'analyse numérique d'équations stochastiques

Kopec, Marie 25 June 2014 (has links) (PDF)
Ce travail présente quelques résultats concernant le comportement en temps fini et en temps long de méthodes numériques pour des équations stochastiques. On s'intéresse d'abord aux équations différentielles stochastiques de Langevin et de Langevin amorti. On montre un résultat concernant l'analyse d'erreur faible rétrograde de ses équations par des schémas numériques implicites. En particulier, on montre que l'erreur entre le générateur associé au schéma numérique et la solution d'une équation de Kolmogorov modifiée est d'ordre élevé par rapport au pas de discrétisation. On montre aussi que la dynamique associée au schéma numérique est exponentiellement mélangeante. Dans un deuxième temps, on étudie le comportement en temps long d'une discrétisation en temps et en espace d'une EDPS semi-linéaire avec un bruit blanc additif, qui possède une unique mesure invariante . On considère une discrétisation en temps par un schéma d'Euler et en espace par une méthode des éléments finis. On montre que la moyenne, par rapport aux lois invariantes (qui n'est pas forcément unique) associées à l'approximation, par des fonctions tests suffisamment régulières est proche de la quantité correspondante pour . Plus précisément, on étudie la vitesse de convergence par rapport aux différents paramètres de discrétisation. Enfin, on s'intéresse à une EDPS semi-linéaire avec un bruit blanc additif dont le terme non-linéaire est un polynôme. On étudie la convergence au sens faible d'une approximation en temps par un schéma de splitting implicite.
173

Méthode de Galerkin Discontinue et intégrations explicites-implicites en temps basées sur un découplage des degrés de liberté. Applications au système des équations de Navier-Stokes.

Gérald, Sophie 26 November 2013 (has links) (PDF)
En mécanique des fluides numérique, un enjeu est le développement de méthodes d'approximation d'ordre élevé, comme celles de Galerkin Discontinues (GD). Si ces méthodes permettent d'envisager la simulation d'écoulements complexes en alternative aux méthodes usuelles d'ordre deux, elles souffrent cependant d'une forte restriction sur le pas de temps lorsqu'elles sont associées à une discrétisation explicite en temps. Ce travail de thèse consiste à mettre en œuvre une stratégie d'intégration temporelle explicite-implicite efficace, associée à une discrétisation spatiale GD d'ordre élevé, pour les écoulements instationnaires à convection dominante de fluides visqueux compressibles modélisés par le système des équations de Navier-Stokes. La discrétisation spatiale de la méthode GD est associée à des flux numériques de fluides parfaits et visqueux à stencil compact. En présence de frontières matérielles courbes, l'ordre élevé est garanti par la discrétisation du domaine de calcul à l'aide d'une représentation iso-paramétrique. La stratégie d'intégration temporelle repose sur une décomposition d'opérateurs de Strang, où les termes de convection sont résolus explicitement et ceux de diffusion implicitement. Son efficacité résulte d'une simplification du schéma implicite, où le calcul de la matrice implicite est approché avec une méthode sans jacobienne et où les degrés de liberté du schéma sont découplés. De fait, la taille du système linéaire à résoudre et le temps de calcul de la résolution sont significativement réduits. Enfin, la validation et l'évaluation des performances du schéma numérique sont réalisées à travers cinq cas tests bien référencés en deux dimensions d'espace.
174

Modélisation et implémentation de parallélisme implicite pour les simulations scientifiques basées sur des maillages / Model and implementation of implicit parallélism for mesh-based scientific simulations

Coullon, Hélène 29 September 2014 (has links)
Le calcul scientifique parallèle est un domaine en plein essor qui permet à la fois d’augmenter la vitesse des longs traitements, de traiter des problèmes de taille plus importante ou encore des problèmes plus précis. Ce domaine permet donc d’aller plus loin dans les calculs scientifiques, d’obtenir des résultats plus pertinents, car plus précis, ou d’étudier des problèmes plus volumineux qu’auparavant. Dans le monde plus particulier de la simulation numérique scientifique, la résolution d’équations aux dérivées partielles (EDP) est un calcul particulièrement demandeur de ressources parallèles. Si les ressources matérielles permettant le calcul parallèle sont de plus en plus présentes et disponibles pour les scientifiques, à l’inverse leur utilisation et la programmation parallèle se démocratisent difficilement. Pour cette raison, des modèles de programmation parallèle, des outils de développement et même des langages de programmation parallèle ont vu le jour et visent à simplifier l’utilisation de ces machines. Il est toutefois difficile, dans ce domaine dit du “parallélisme implicite”, de trouver le niveau d’abstraction idéal pour les scientifiques, tout en réduisant l’effort de programmation. Ce travail de thèse propose tout d’abord un modèle permettant de mettre en oeuvre des solutions de parallélisme implicite pour les simulations numériques et la résolution d’EDP. Ce modèle est appelé “Structured Implicit Parallelism for scientific SIMulations” (SIPSim), et propose une vision au croisement de plusieurs types d’abstraction, en tentant de conserver les avantages de chaque vision. Une première implémentation de ce modèle, sous la forme d’une librairie C++ appelée SkelGIS, est proposée pour les maillages cartésiens à deux dimensions. Par la suite, SkelGIS, et donc l’implémentation du modèle, est étendue à des simulations numériques sur les réseaux (permettant l’application de simulations représentant plusieurs phénomènes physiques). Les performances de ces deux implémentations sont évaluées et analysées sur des cas d’application réels et complexes et démontrent qu’il est possible d’obtenir de bonnes performances en implémentant le modèle SIPSim. / Parallel scientific computations is an expanding domain of computer science which increases the speed of calculations and offers a way to deal with heavier or more accurate calculations. Thus, the interest of scientific computations increases, with more precised results and bigger physical domains to study. In the particular case of scientific numerical simulations, solving partial differential equations (PDEs) is an especially heavy calculation and a perfect applicant to parallel computations. On one hand, it is more and more easy to get an access to very powerfull parallel machines and clusters, but on the other hand parallel programming is hard to democratize, and most scientists are not able to use these machines. As a result, high level programming models, framework, libraries, languages etc. have been proposed to hide technical details of parallel programming. However, in this “implicit parallelism” field, it is difficult to find the good abstraction level while keeping a low programming effort. This thesis proposes a model to write implicit parallelism solutions for numerical simulations such as mesh-based PDEs computations. This model is called “Structured Implicit Parallelism for scientific SIMulations” (SIPSim), and proposes an approach at the crossroads of existing solutions, taking advantage of each one. A first implementation of this model is proposed, as a C++ library called SkelGIS, for two dimensional Cartesian meshes. A second implementation of the model, and an extension of SkelGIS, proposes an implicit parallelism solution for network-simulations (which deals with simulations with multiple physical phenomenons), and is studied in details. A performance analysis of both these implementations is given on real case simulations, and it demonstrates that the SIPSim model can be implemented efficiently.
175

La carence de l'administration / The deficiency of the administration

Parinet, Pauline 08 December 2017 (has links)
La carence de l’administration est à la fois évocatrice et ambigüe. Évocatrice pour l’administré, car elle ravive les mauvais souvenirs administratifs de chacun. Ambigüe pourtant, pour le juriste, car la carence évoque spontanément de multiples termes qui en sont proches, comme l’inertie ou l’abstention. Elle doit néanmoins en être distinguée et peut être définie comme le résultat de certaines inactions : celles qui n’auraient pas dû avoir lieu. Ainsi, la reconnaissance d’une carence administrative a une fonction : elle signale un comportement passif inadmissible. Elle dénonce à la fois une utilisation insuffisante de ses moyens pour remplir sa mission et une inaction administrative abusive. Le caractère anormal de l’inaction dénoncée par cette reconnaissance implique, alors, une réaction du système juridique, afin que le manque constaté ne puisse échapper à toute sanction, que celle-ci soit juridictionnelle ou non. / The deficiency of the administration is meaningful and also ambiguous. Meaningful as it brings back administrative bad memories for every citizen. But ambiguous, for jurists, as the deficiency naturally reminds them of many terms which are very close, such as lethargy or abstention. Nevertheless, the deficiency has to be distinguished from these terms and can be defined as the result of some inactions : the ones which should not have happened. The recognition of the administrative deficiency has thus a function : highlighting an unacceptable passive behaviour. What it means an insufficient use of its means to fulfil its mission and an abusive abstention. So, the abnormal nature of this inaction highlighted by this recognition needs a reaction of the legal system, in order to condemn this noted lack, jurisdictionally or not.
176

L'autorisation implicite en matière de recours à la force / The implied authorization regarding use of force in international law

Khiar, Yazid 10 December 2012 (has links)
Iraq, 2003 : une coalition menée par les États-Unis et le Royaume-Uni engagea une action militaire juridiquement fondée sur une autorisation de recourir à la force implicitement contenue dans la résolution 1441 (2002) du Conseil de sécurité. Ce fondement fut également mis en avant au Kosovo (1999) ou encore au Liberia (1992).Ces trois cas illustrent l'application d'une pratique qualifiée d'autorisation implicite en matière de recours à la force. Alors que l'autorisation de recourir à la force doit résulter d'une mention explicite du Conseil de sécurité, l'autorisation implicite repose sur une interprétation entre les lignes des résolutions du Conseil afin d'y mettre en évidence une telle autorisation. Les États qui y recourent n'ont guère manqué de préciser qu'un précédent ne saurait se révéler de cette pratique en marge de la légalité internationale. Malgré son caractère controversé, ce moyen juridique tend cependant à devenir le support privilégié des États en l'absence d'une autorisation explicite.D'où, un paradoxe de l'autorisation implicite dont il nous reviendra d'en évaluer la légalité en examinant les modalités de son élaboration et de son application. Les difficultés à trancher la question de sa validité en droit international nous amèneront notamment à dépasser ce standard de légalité pour lui substituer celui de conformité, plus souple, dans un cadre juridique original : la légalité d'exception. Nous verrons enfin que l'approche téléologique de l'autorisation implicite souffre de lacunes substantielles au point de réaffirmer la double exigence du mandat clair ainsi que du contrôle des résolutions du Conseil de sécurité autorisant le recours à la force. / Iraq 2003: a coalition led by the United States and the United Kingdom undertook military action based on a legal authorization to use force implicitly contained in Security Council Resolution 1441 (2002). This argument was also highlighted in Kosovo (1999), and Liberia (1992).These three cases illustrate the application of a practice known as the implied authorization for use of force. While the authorization for use of military force must result from explicit Security Council Resolution, the implied authorization is based on an interprÉtation between the lines of Security Council Resolutions in order to highlight such an authorization. The States that had recourse to it made it abundantly clear that a precedent cannot result of this practice on the sidelines of international legality. However, despite its controversial nature, it tends to become the privileged support of the State in the absence of an explicit authorization.Hence a paradox of the implied authorization which we will assess the legality, by examining the modalities of its elaboration and its application. The difficulties by resolving the question of its validity under international law will lead us to overcome this particular standard of legality by substituting it for that of conformity, more flexible, in an original legal framework: the legality of exception. We shall finally see that the teleological approach of the implied authorization suffers substantial gaps so that we will reaffirm the dual requirement of the clear mandate and the control within the Security Council Resolutions authorizing use of force.
177

Sensitivity to changes with and without awareness: an empirical investigation

Laloyaux, Cédric 08 May 2007 (has links)
Ce travail a pour objectif d'investiguer le sort réservé à  des changements de nature visuelle qui se produisent dans notre environnement et que nous ne détectons pas consciemment. J'investiguerai en particulier si de tels changements non-perçus consciemment peuvent néanmoins (1) être représentés d'une certaine manière en-dessous du seuil de la conscience, et (2) exercer une influence causale sur des tâches comportementales subséquentes. A cette fin, une première étude cherche à établir si les paradigmes classiques de détection de changement sous-évaluent les capacités réelles de la mémoire visuelle à court terme. Cette étude a effectivement montré qu'il était possible de récupérer de l'information stockée en mémoire visuelle à court terme (MVCT), suggérant donc qu'il existe plus de capacités mnésiques visuelles que ce qui est utilisé dans les tâches classiques de détection de changement. Ensuite, une seconde étude a répliqué un paradigme dit d'identification implicite de changements et qui était controversé dans la littérature en raison de biais potentiels. Après correction de ces biais, nous avons pu démontrer que ce paradigme suggère bel et bien un effet d'identification implicite de changement puisque l'identité d'un changement simple (changement d'orientation d'un rectangle parmi 8 rectangles orientés de différentes manières) peut indicer un jugement d'orientation subséquent. Finalement, dans le dernier groupe d'expériences, un nouveau paradigme dans lequel les changements se produisent très progressivement et très lentement sera décrit. En utilisant ce paradigme, j'ai pu démontrer qu'alors que les observateurs demeurent inconscients du changement, ils restent néanmoins sensibles aux changements puisqu'ils « synchronisent » leur représentation en mémoire visuelle avec le stimulus présenté à l'écran. Enfin, dans la conclusion, je m'attacherai également à  développer l'idée selon laquelle nous sommes (1) capables, au minimum, de mettre à jour notre mémoire visuelle d'un changement et probablement d'identifier, un tel changement sans conscience et (2) influençables par ce changement. En effet, à la fin de ce travail, j'arriverai à la conclusion que les représentations visuelles sont ébruitéess et incomplètes. Ceci est dû (1) à  la constitution de la rétine, qui n'est pas homogène (la quantité de photorécepteurs n'est pas identique dans la partie centrale et dans la périphérie du champ visuel), (2) aux imperfections des systèmes biologiques (des imperfections et des erreurs dans la planification des saccades et dans leurs exécutions surgissent,) et (3) aux limitations de nos capacités attentionnelles. / Doctorat en sciences psychologiques / info:eu-repo/semantics/nonPublished
178

Shifting the boundaries of experimental studies in engineering enzymatic functions : combining the benefits of computational and experimental methods

Ebert, Maximilian 12 1900 (has links)
Cette thèse comporte quatre fichiers vidéo. This thesis comes with four video files. / L'industrie chimique mondiale est en pleine mutation, cherchant des solutions pour rendre la synthèse organique classique plus durable. Une telle solution consiste à passer de la catalyse chimique classique à la biocatalyse. Bien que les avantages des enzymes incluent leur stéréo, régio et chimiosélectivité, cette sélectivité réduit souvent leur promiscuité. Les efforts requis pour adapter la fonction enzymatique aux réactions désirées se sont révélés d'une efficacité modérée, de sorte que des méthodes rapides et rentables sont nécessaires pour générer des biocatalyseurs qui rendront la production chimique plus efficace. Dans l’ère de la bioinformatique et des outils de calcul pour soutenir l'ingénierie des enzymes, le développement rapide de nouvelles fonctions enzymatiques devient une réalité. Cette thèse commence par un examen des développements récents sur les outils de calcul pour l’ingénierie des enzymes. Ceci est suivi par un exemple de l’ingénierie des enzymes purement expérimental ainsi que de l’évolution des protéines. Nous avons exploré l’espace mutationnel d'une enzyme primitive, la dihydrofolate réductase R67 (DHFR R67), en utilisant l’ingénierie semi-rationnelle des protéines. La conception rationnelle d’une librarie de mutants, ou «Smart library design», impliquait l’association covalente de monomères de l’homotétramère DHFR R67 en dimères afin d’augmenter la diversité de la librairie d’enzymes mutées. Le criblage par activité enzymatique a révélé un fort biais pour le maintien de la séquence native dans un des protomères tout en tolérant une variation de séquence élevée pour le deuxième. Il est plausible que les protomères natifs procurent l’activité observée, de sorte que nos efforts pour modifier le site actif de la DHFR R67 peuvent n’avoir été que modérément fructueux. Les limites des méthodes expérimentales sont ensuite abordées par le développement d’outils qui facilitent la prédiction des points chauds mutationnels, c’est-à-dire les sites privilégiés à muter afin de moduler la fonction. Le développement de ces techniques est intensif en termes de calcul, car les protéines sont de grandes molécules complexes dans un environnement à base d’eau, l’un des solvants les plus difficiles à modéliser. Nous présentons l’identification rapide des points chauds mutationnels spécifiques au substrat en utilisant l'exemple d’une enzyme cytochrome P450 industriellement pertinente, la CYP102A1. En appliquant la technique de simulation de la dynamique moléculaire par la force de polarisation adaptative, ou «ABF», nous confirmons les points chauds mutationnels connus pour l’hydroxylation des acides gras tout en identifiant de nouveaux points chauds mutationnels. Nous prédisons également la conformation du substrat naturel, l’acide palmitique, dans le site actif et nous appliquons ces connaissances pour effectuer un criblage virtuel d'autres substrats de cette enzyme. Nous effectuons ensuite des simulations de dynamique moléculaire pour traiter l’impact potentiel de la dynamique des protéines sur la catalyse enzymatique, qui est le sujet de discussions animées entre les experts du domaine. Avec la disponibilité accrue de structures cristallines dans la banque de données de protéines (PDB), il devient clair qu’une seule structure de protéine n’est pas suffisante pour élucider la fonction enzymatique. Nous le démontrons en analysant quatre structures cristallines que nous avons obtenues d’une enzyme β-lactamase, parmi lesquelles un réarrangement important des résidus clés du site actif est observable. Nous avons réalisé de longues simulations de dynamique moléculaire pour générer un ensemble de structures suggérant que les structures cristallines ne reflètent pas nécessairement la conformation de plus basse énergie. Enfin, nous étudions la nécessité de compléter de manière informatisée un hémisphère où l’expérimental n’est actuellement pas possible, à savoir la prédiction de la migration des gaz dans les enzymes. À titre d'exemple, la réactivité des enzymes cytochrome P450 dépend de la disponibilité des molécules d’oxygène envers l’hème du site actif. Par le biais de simulations de la dynamique moléculaire de type Simulation Implicite du Ligand (ILS), nous dérivons le paysage de l’énergie libre de petites molécules neutres de gaz pour cartographier les canaux potentiels empruntés par les gaz dans les cytochromes P450 : CYP102A1 et CYP102A5. La comparaison pour les gaz CO, N2 et O2 suggère que ces enzymes évoluent vers l’exclusion du CO inhibiteur. De plus, nous prédisons que les canaux empruntés par les gaz sont distincts des canaux empruntés par le substrat connu et que ces canaux peuvent donc être modifiés indépendamment les uns des autres. / The chemical industry worldwide is at a turning point, seeking solutions to make classical organic synthesis more sustainable. One such solution is to shift from classical catalysis to biocatalysis. Although the advantages of enzymes include their stereo-, regio-, and chemoselectivity, their selectivity often reduces versatility. Past efforts to tailor enzymatic function towards desired reactions have met with moderate effectiveness, such that fast and cost-effective methods are in demand to generate biocatalysts that will render the production of fine and bulk chemical production more benign. In the wake of bioinformatics and computational tools to support enzyme engineering, the fast development of new enzyme functions is becoming a reality. This thesis begins with a review of recent developments on computational tools for enzyme engineering. This is followed by an example of purely experimental enzyme engineering and protein evolution. We explored the mutational space of a primitive enzyme, the R67 dihydrofolate reductase (DHFR), using semi-rational protein engineering. ‘Smart library design’ involved fusing monomers of the homotetrameric R67 DHFR into dimers, to increase the diversity in the resulting mutated enzyme libraries. Activity-based screening revealed a strong bias for maintenance of the native sequence in one protomer with tolerance for high sequence variation in the second. It is plausible that the native protomers procure the observed activity, such that our efforts to modify the enzyme active site may have been only moderately fruitful. The limitations of experimental methods are then addressed by developing tools that facilitate computational mutational hotspot prediction. Developing these techniques is computationally intensive, as proteins are large molecular objects and work in aqueous media, one of the most complex solvents to model. We present the rapid, substrate-specific identification of mutational hotspots using the example of the industrially relevant P450 cytochrome CYP102A1. Applying the adaptive biasing force (ABF) molecular dynamics simulation technique, we confirm the known mutational hotspots for fatty acid hydroxylation and identify a new one. We also predict a catalytic binding pose for the natural substrate, palmitic acid, and apply that knowledge to perform virtual screening for further substrates for this enzyme. We then perform molecular dynamics simulations to address the potential impact of protein dynamics on enzyme catalysis, which is the topic of heated discussions among experts in the field. With the availability of more crystal structures in the Protein Data Bank, it is becoming clear that a single protein structure is not sufficient to elucidate enzyme function. We demonstrate this by analyzing four crystal structures we obtained of a β-lactamase enzyme, among which a striking rearrangement of key active site residues was observed. We performed long molecular dynamics simulations to generate a structural ensemble that suggests that crystal structures do not necessarily reflect the conformation of lowest energy. Finally, we address the need to computationally complement an area where experimentation is not currently possible, namely the prediction of gas migration into enzymes. As an example, the reactivity of P450 cytochrome enzymes depends on the availability of molecular oxygen at the active-site heme. Using the Implicit Ligand Sampling (ILS) molecular dynamics simulation technique, we derive the free energy landscape of small neutral gas molecules to map potential gas channels in cytochrome P450 CYP102A1 and CYP102A5. Comparison of CO, N2 and O2 suggests that those enzymes evolved towards exclusion of the inhibiting CO. In addition, we predict that gas channels are distinct from known substrate channels and therefore can be engineered independently from one another.
179

Sculpture virtuelle par système de particules / Virtual sculpture using particles system

Helbling, Marc 25 November 2010 (has links)
La 3D s'impose comme un nouveau média dont l'adoption généralisée passe par la conception d'outils, accessibles au grand public, de création et de manipulation de formes tridimensionnelles quelconques. Les outils actuels reposent fortement sur la modélisation sous-jacente des formes, généralement surfacique, et sont alors peu intuitifs ou limitatifs dans l'expressivité offerte à l'utilisateur.Nous souhaitons, dans ces travaux, définir une approche ne présentant pas ces défauts et permettant à l'utilisateur de se concentrer sur le processus créatif. En nous inspirant de l'utilisation séculaire de l'argile, nous proposons une approche modélisant la matière sous forme lagrangienne.Une forme est ainsi décrite par un système de particules, où chaque particule représente un petit volume du volume global.Dans ce cadre lagrangien, la méthode Smoothed Particle Hydrodynamics (SPH) permet l'approximation de grandeurs physiques en tout point de l'espace. Nous proposons alors une modélisation de matériaux à deux couches, l'une décrivant la topologie et l'autre décrivant la géométrie du système global.La méthode SPH permet, entre autres, d'évaluer la densité de matière. Ceci nous permet de définir une surface implicite basée sur les propriétés physiques du système de particules pour redonner un aspect continu à la matière.Ces matériaux peuvent alors être manipulés au moyen d'interactions locales reproduisant le maniement de la pâte à modeler, et de déformations globales. L'intérêt de notre approche est démontrée par plusieurs prototypes fonctionnant sur des stations de travail standard ou dans des environnements immersifs. / 3D is emerging as a new media. Its widespread adoption requires the implementation of userfriendly tools to create and manipulate three-dimensional shapes. Current softwares heavily rely on underlying shape modeling, usually a surfacic one, and are then often counter-intuitive orlimiting. Our objective is the design of an approach alleviating those limitations and allowing the user to only focus on the process of creating forms. Drawing inspiration from the ancient use of clay,we propose to model a material in a lagrangian description. A shape is described by a particles system, where each particle represents a small fraction of the total volume of the shape. In this framework, the Smoothed Particle Hydrodynamics method enables to approximate physical values anywhere in space. Relying on this method, we propose a modeling of material with two levels, one level representing the topology and the other one describing local geometry of the shape.The SPH method especially enables to evaluate a density of matter. We use this property todefine an implicit surface based on the physical properties of the particles system to reproduce the continuous aspect of matter. Those virtual materials can then be manipulated locally through interactions reproducing the handling of dough in the real world or through global shape deformation. Our approach is demonstrated by several prototypes running either on typical desktop workstation or in immersive environment system.
180

Modélisation de la Volatilité Implicite, Primes de Risque d’Assurance, et Stratégies d’Arbitrage de Volatilité / Implied Volatility Modelling, Tail Risk Premia, and Volatility Arbitrage Strategies

Al Wakil, Anmar 11 December 2017 (has links)
Les stratégies de volatilité ont connu un rapide essor suite à la crise financière de 2008. Or, les récentes performances catastrophiques de ces instruments indiciels ont remis en question leurs contributions en couverture de portefeuille. Mes travaux de thèse visent à repenser, réinventer la philosophie des stratégies de volatilité. Au travers d'une analyse empirique préliminaire reposant sur la théorie de l'utilité espérée, le chapitre 1 dresse le diagnostic des stratégies traditionnelles de volatilité basées sur la couverture de long-terme par la réplication passive de la volatilité implicite. Il montre que, bien que ce type de couverture bat la couverture traditionnelle, elle s'avère inappropriée pour des investisseurs peu averses au risque.Le chapitre 2 ouvre la voie à une nouvelle génération de stratégies de volatilité, actives, optionnelles et basées sur l'investissement factoriel. En effet, notre décomposition analytique et empirique du smile de volatilité implicite en primes de risque implicites, distinctes et investissables permet de monétiser de manière active le portage de risques d'ordres supérieurs. Ces primes de risques mesurent l'écart de valorisation entre les distributions neutres au risque et les distributions physiques.Enfin, le chapitre 3 compare notre approche investissement factoriel avec les stratégies de volatilité employées par les hedge funds. Notre essai montre que nos stratégies de primes de risque d'assurance sont des déterminants importants dans la performance des hedge funds, tant en analyse temporelle que cross-sectionnelle. Ainsi, nous mettons en évidence dans quelle mesure l'alpha provient en réalité de la vente de stratégies d'assurance contre le risque extrême. / Volatility strategies have flourished since the Great Financial Crisis in 2008. Nevertheless, the recent catastrophic performance of such exchange-traded products has put into question their contributions for portfolio hedging and diversification. My thesis work aims to rethink and reinvent the philosophy of volatility strategies.From a preliminary empirical study based on the expected utility theory, Chapter 1 makes a diagnostic of traditional volatility strategies, based on buy-and-hold investments and passive replication of implied volatility. It exhibits that, although such portfolio hedging significantly outperforms traditional hedging, it appears strongly inappropriate for risk-loving investors.Chapter 2 paves the way for a new generation of volatility strategies, active, option-based and factor-based investing. Indeed, our both analytical and empirical decomposition of implied volatility smiles into a combination of implied risk premia, distinct and tradeable, enables to harvest actively the compensation for bearing higher-order risks. These insurance risk premia measure the pricing discrepanciesbetween the risk-neutral and the physical probability distributions.Finally, Chapter 3 compares our factor-based investing approach to the strategies usually employed in the hedge fund universe. Our essay clearly evidences that our tail risk premia strategies are incremental determinants in the hedge fund performance, in both the time-series and the cross-section of returns. Hence, we exhibit to what extent hedge fund alpha actually arises from selling crash insurance strategies against tail risks.

Page generated in 0.062 seconds