Spelling suggestions: "subject:"calcul."" "subject:"oalcul.""
1151 |
Étude et modélisation des équations différentielles stochastiques / High weak order discretization schemes for stochastic differential equationRey, Clément 04 December 2015 (has links)
Durant les dernières décennies, l'essor des moyens technologiques et particulièrement informatiques a permis l'émergence de la mise en œuvre de méthodes numériques pour l'approximation d'Equations Différentielles Stochastiques (EDS) ainsi que pour l'estimation de leurs paramètres. Cette thèse aborde ces deux aspects et s'intéresse plus spécifiquement à l'efficacité de ces méthodes. La première partie sera consacrée à l'approximation d'EDS par schéma numérique tandis que la deuxième partie traite l'estimation de paramètres. Dans un premier temps, nous étudions des schémas d'approximation pour les EDSs. On suppose que ces schémas sont définis sur une grille de temps de taille $n$. On dira que le schéma $X^n$ converge faiblement vers la diffusion $X$ avec ordre $h in mathbb{N}$ si pour tout $T>0$, $vert mathbb{E}[f(X_T)-f(X_T^n)] vertleqslant C_f /n^h$. Jusqu'à maintenant, sauf dans certains cas particulier (schémas d'Euler et de Ninomiya Victoir), les recherches sur le sujet imposent que $C_f$ dépende de la norme infini de $f$ mais aussi de ses dérivées. En d'autres termes $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Notre objectif est de montrer que si le schéma converge faiblement avec ordre $h$ pour un tel $C_f$, alors, sous des hypothèses de non dégénérescence et de régularité des coefficients, on peut obtenir le même résultat avec $C_f=C Vert f Vert_{infty}$. Ainsi, on prouve qu'il est possible d'estimer $mathbb{E}[f(X_T)]$ pour $f$ mesurable et bornée. On dit alors que le schéma converge en variation totale vers la diffusion avec ordre $h$. On prouve aussi qu'il est possible d'approximer la densité de $X_T$ et ses dérivées par celle $X_T^n$. Afin d'obtenir ce résultat, nous emploierons une méthode de calcul de Malliavin adaptatif basée sur les variables aléatoires utilisées dans le schéma. L'intérêt de notre approche repose sur le fait que l'on ne traite pas le cas d'un schéma particulier. Ainsi notre résultat s'applique aussi bien aux schémas d'Euler ($h=1$) que de Ninomiya Victoir ($h=2$) mais aussi à un ensemble générique de schémas. De plus les variables aléatoires utilisées dans le schéma n'ont pas de lois de probabilité imposées mais appartiennent à un ensemble de lois ce qui conduit à considérer notre résultat comme un principe d'invariance. On illustrera également ce résultat dans le cas d'un schéma d'ordre 3 pour les EDSs unidimensionnelles. La deuxième partie de cette thèse traite le sujet de l'estimation des paramètres d'une EDS. Ici, on va se placer dans le cas particulier de l'Estimateur du Maximum de Vraisemblance (EMV) des paramètres qui apparaissent dans le modèle matriciel de Wishart. Ce processus est la version multi-dimensionnelle du processus de Cox Ingersoll Ross (CIR) et a pour particularité la présence de la fonction racine carrée dans le coefficient de diffusion. Ainsi ce modèle permet de généraliser le modèle d'Heston au cas d'une covariance locale. Dans cette thèse nous construisons l'EMV des paramètres du Wishart. On donne également la vitesse de convergence et la loi limite pour le cas ergodique ainsi que pour certains cas non ergodiques. Afin de prouver ces convergences, nous emploierons diverses méthodes, en l'occurrence : les théorèmes ergodiques, des méthodes de changement de temps, ou l'étude de la transformée de Laplace jointe du Wishart et de sa moyenne. De plus, dans dernière cette étude, on étend le domaine de définition de cette transformée jointe / The development of technology and computer science in the last decades, has led the emergence of numerical methods for the approximation of Stochastic Differential Equations (SDE) and for the estimation of their parameters. This thesis treats both of these two aspects. In particular, we study the effectiveness of those methods. The first part will be devoted to SDE's approximation by numerical schemes while the second part will deal with the estimation of the parameters of the Wishart process. First, we focus on approximation schemes for SDE's. We will treat schemes which are defined on a time grid with size $n$. We say that the scheme $ X^n $ converges weakly to the diffusion $ X $, with order $ h in mathbb{N} $, if for every $ T> 0 $, $ vert mathbb{E} [f (X_T) -f (X_T^n)]vert leqslant C_f / h^n $. Until now, except in some particular cases (Euler and Victoir Ninomiya schemes), researches on this topic require that $ C_f$ depends on the supremum norm of $ f $ as well as its derivatives. In other words $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Our goal is to show that, if the scheme converges weakly with order $ h $ for such $C_f$, then, under non degeneracy and regularity assumptions, we can obtain the same result with $ C_f=C Vert f Vert_{infty}$. We are thus able to estimate $mathbb{E} [f (X_T)]$ for a bounded and measurable function $f$. We will say that the scheme converges for the total variation distance, with rate $h$. We will also prove that the density of $X^n_T$ and its derivatives converge toward the ones of $X_T$. The proof of those results relies on a variant of the Malliavin calculus based on the noise of the random variable involved in the scheme. The great benefit of our approach is that it does not treat the case of a particular scheme and it can be used for many schemes. For instance, our result applies to both Euler $(h = 1)$ and Ninomiya Victoir $(h = 2)$ schemes. Furthermore, the random variables used in this set of schemes do not have a particular distribution law but belong to a set of laws. This leads to consider our result as an invariance principle as well. Finally, we will also illustrate this result for a third weak order scheme for one dimensional SDE's. The second part of this thesis deals with the topic of SDE's parameter estimation. More particularly, we will study the Maximum Likelihood Estimator (MLE) of the parameters that appear in the matrix model of Wishart. This process is the multi-dimensional version of the Cox Ingersoll Ross (CIR) process. Its specificity relies on the square root term which appears in the diffusion coefficient. Using those processes, it is possible to generalize the Heston model for the case of a local covariance. This thesis provides the calculation of the EMV of the parameters of the Wishart process. It also gives the speed of convergence and the limit laws for the ergodic cases and for some non-ergodic case. In order to obtain those results, we will use various methods, namely: the ergodic theorems, time change methods or the study of the joint Laplace transform of the Wishart process together with its average process. Moreover, in this latter study, we extend the domain of definition of this joint Laplace transform
|
1152 |
Bordures : de la sélection de vues dans un cube de données au calcul parallèle de fréquents maximauxTofan, Radu-Ionel 28 September 2010 (has links)
La matérialisation de vues est une technique efficace d'optimisation de requêtes. Dans cette thèse, nous proposons une nouvelle vision "orientée utilisateur" de solutions pour le problème de sélection de vues à matérialiser dans les entrepôt de données : l'utilisateur fixe le temps de réponse maximal. Dans cette vision nous proposons des algorithmes qui s'avèrent compétitifs avec les algorithmes de type "orienté système", dans lesquels les ressources, comme la mémoire, sont considérées comme la contrainte forte. L'approche "orientée utilisateur" est étudiée avec un contexte dynamique de système d'optimisation de requêtes. Nous analysons la stabilité de ce système par rapport à la dynamique de la charge de requêtes et des données qui sont insérées ou supprimées. Le concept clé de nos algorithmes de sélection de vues à matérialiser est la bordure. Ce concept a été très étudié en fouille de données dans le cadre du calcul des fréquents maximaux. Plusieurs algorithmes séquentiels ont été proposés pour résoudre ce problème. Nous proposons un nouvel algorithme séquentiel MineWithRounds, facilement parallélisable, qui se distingue des autres propositions par une garantie théorique d'accélération dans le cas de machines à plusieurs unités de calcul et à mémoire partagée. / The materialization of views is an effective technique for optimizing queries. In this thesis, we propose a new vision, we qualify it as "user oriented", of the solutions to the problem of selecting views to materialize in data warehouses : the user fixes the maximum response time. In this vision, we propose algorithms that are competitive with the algorithms "oriented system" type, where resources such as memory, are considered as the major constraint. The "user oriented" approach is studied under a dynamic context. We analyze the stability of this system with respect to the dynamic query workload dynamic as well as data dynamic (insertions and deletions). The key concept of our algorithms for selecting views to materialize is the border. This concept has been widely studied in the data mining community under the maximal frequent itemset extration setting. Many sequential algorithms have been proposed. We propose a new sequential algorithm MineWithRounds, easily parallelizable, which differs from the others in that it guarantees a theoretical speed up in the case of multiprocessors shared memory case.
|
1153 |
Fiabilité du temps de transport : Mesures, valorisation monétaire et intégration dans le calcul économique public / Travel time reliability : Measurement, monetary valuation and cost-benefit implicationStéphan, Maïté 09 November 2015 (has links)
Cette thèse aborde la question de la fiabilité du temps de transport. L’étude de la fiabilité du temps de transport trouve ses sources dans le fait que, dans biens des situations, le temps de transport n’est pas certain, mais aléatoire. De nombreux évènements peuvent en effet modifier le temps de transport prévu par les opérateurs ou espéré par les usagers. Par ailleurs, lors de l’évaluation socioéconomique de projets d’investissement en infrastructure de transport, il peut exister un arbitrage entre gain de temps et gain de fiabilité. Or, comme la fiabilité est encore à l’heure actuelle, difficilement intégrable dans ce type d’évaluation, ces projets d’investissement voient leur rentabilité collective sous-estimée conduisant à leurs reports. Il émerge ainsi trois problématiques majeures relatives à l’étude de la fiabilité du temps de transport : sa mesure, sa valorisation monétaire (i.e. la disposition à payer des individus pour améliorer la fiabilité du temps de transport) et enfin, sa prise en compte dans les analyses coûts-avantages. Un premier chapitre permet d’adapter les mesures usuelles de la fiabilité du temps de transport appliquées dans le cadre du transport routier, aux modes de transport collectif (fer et aérien plus particulièrement). Nous proposons également une nouvelle mesure de la fiabilité, le Delay-at-Risk (DaR) inspiré de la littérature financière. Le DaR est une transposition de la mesure de la Value-at-Risk (V aR) à l’économie des transports. Cette mesure est plus utile du point de vue des usagers pour la planification des trajets avec correspondance que les autres mesures. Le deuxième chapitre a pour principal objectif de déterminer la disposition à payer des individus pour améliorer la fiabilité du temps de transport. Nous proposons un cadre théorique inspiré de la théorie de la décision en univers risqué à partir duquel nous définissons la préférence des individus à l’égard de la fiabilité (i.e. reliabilityproneness) ainsi que la prudence. Nous développons des nouvelles mesures de la fiabilité du temps de transport, exprimées comme des primes de risque : la reliability-premium et la V OR. La reliability-premium détermine le temps de transport maximum supplémentaire qu’un individu est prêt à accepter pour supprimer l’intégralité du risque sur le temps de transport. La V OR, quant à elle, se définit comme la disposition maximale à payer d’un individu pour supprimer l’intégralité du risque sur le temps de transport. Par ailleurs, nous établissons également les conséquences sur la valeur du temps (V TTS) et de la fiabilité (V OR), de la prise en considération de l’attitude à l’égard du risque sur le temps de transport des usagers (aversion et prudence). Le dernier chapitre de cette thèse a pour objet d’intégrer la fiabilité dans les évaluations socioéconomiques de projet d’investissement et plus particulièrement dans la détermination du surplus des usagers. Nous mettons en exergue un effet de diffusion des gains de fiabilité par rapport aux gains de temps. Ainsi, nous proposons des recommandations quant à l’arbitrage entre les projets générateurs de gain de temps et de gain de fiabilité en fonction des valeurs monétaires du temps (V TTS) et de la fiabilité (V OR). / This thesis deals with the issue of travel time reliability. The study of travel time reliability emerges from the fact that in many situations, travel time is random. Many events can change the travel time forecasted by operators or expected by users. Moreover, a tradeoff may exist between time and reliability benefits when evaluating socio economic appraisal of transport infrastructure. However, since reliability is still difficult to integrate in this type of evaluation, investment projects’ collective profitability is underestimated and often postponed. Thus, three main issues of travel time reliability analysis emerge: measurement, monetary valuation and implication for cost benefit analysis. This thesis is organized in three chapters. The first chapter adapts the measure of travel time reliability typically used in the road transport context to the collective modes (rail and air, in particular). We also develop a new reliability measure: the Delay-at-Risk (DaR). DaR is an implementation of the Value-at-Risk (V aR) measure into the transport economic framework. The DaR seem to be relevant and understandable information for the users, especially to plan their travel and avoid missing their connections. The main objective of the second chapter is to define the users’ willingness to pay to improve travel time reliability. We present a theoretical framework based on decision theory under risk. We introduce the concept of reliability-proneness (i.e. travel time risk aversion) and prudence. We develop new measures of travel time reliability expressed as risk premium: the reliability-premium and V OR. The reliability-premium is the maximum amount of additional travel time that an individual is willing to accept to escape all the risk of travel time. The V OR is defined as the maximum monetary amount that an individual is willing to pay to escape all the risk of travel time. Furthermore, we also establish the link with attitudes towards risks of travel time (aversion and prudence) and the impact of the value of travel time (V TTS) and the value of reliability (V OR). The final chapter of this thesis integrates reliability in investments project’s socioeconomic appraisal. More particularly, it allows to determine users’ surplus valuation. We highlight a diffusion effect of reliability benefits with regard to travel time benefits. Thus, we propose recommendations regarding the tradeoff between projects that generate time benefits compared with reliability benefits, according to the monetary values of travel time (V TTS) and reliability (V OR).
|
1154 |
Performance-cost trade-offs in heterogeneous clouds / Compromis performance-coût dans les clouds hétérogènesIordache, Ancuta 09 September 2016 (has links)
Les infrastructures de cloud fournissent une grande variété de ressources de calcul à la demande avec différents compromis coût-performance. Cela donne aux utilisateurs des nombreuses opportunités pour exécuter leurs applications ayant des besoins complexes en ressources, à partir d’un grand nombre de serveurs avec des interconnexions à faible latence jusqu’à des dispositifs spécialisés comme des GPUs et des FPGAs. Les besoins des utilisateurs concernant l’exécution de leurs applications peuvent varier entre une exécution la plus rapide possible, la plus chère ou un compromis entre les deux. Cependant, le choix du nombre et du type des ressources à utiliser pour obtenir le compromis coût-performance que les utilisateurs exigent constitue un défi majeur. Cette thèse propose trois contributions avec l’objectif de fournir des bons compromis coût-performance pour l’exécution des applications sur des plates-formes hétérogènes. Elles suivent deux directions : un bon usage des ressources et un bon choix des ressources. Nous proposons comme première contribution une méthode de partage pour des accélérateurs de type FPGA dans l’objectif de maximiser leur utilisation. Dans une seconde contribution, nous proposons des méthodes de profilage pour la modélisation de la demande en ressources des applications. Enfin, nous démontrons comment ces technologies peuvent être intégrées dans une plate-forme de cloud hétérogène. / Cloud infrastructures provide on-demand access to a large variety of computing devices with different performance and cost. This creates many opportunities for cloud users to run applications having complex resource requirements, starting from large numbers of servers with low-latency interconnects, to specialized devices such as GPUs and FPGAs. User expectations regarding the execution of applications may vary between the fastest possible execution, the cheapest execution or any trade-off between the two extremes. However, enabling cloud users to easily make performance-cost trade-offs is not a trivial exercise and choosing the right amount and type of resources to run applications accordingto user expectations is very difficult. This thesis proposes three contributions to enable performance-cost trade-offs for application execution in heterogeneous clouds by following two directions: make good use of resources and make good choice of resources. We propose as a first contribution a method to share FPGA-based accelerators in cloud infrastructures having the objective to improve their utilization. As a second contribution we propose profiling methods to automate the selection of heterogeneous resources for executing applications under user objectives. Finally, we demonstrate how these technologies can be implemented and exploited in heterogeneous cloud platforms.
|
1155 |
Etude de l'impact des incertitudes dans l'évaluation du risque NRBC provoqué en zone urbaine / A study on the impact of uncertainties in the risk assessment of CBRN scenarios in urban areasMargheri, Luca 13 November 2015 (has links)
La dispersion d'agents biologiques hautement pathogène dans une zone urbanisée après un acte terroriste est l'une des situations que les agences de sécurité nationales ont besoin d'évaluer en termes des risques et de la prise de décision. La simulation numérique des écoulements turbulents dans les zones urbaines, y compris la surveillance de la dispersion des polluants, a atteint un niveau de maturité suffisant pour faire des prédictions sur les zones urbaines réalistes jusqu'à 4 km2. Les simulations existantes sont déterministes dans le sens que tous les paramètres qui définissent le cas étudié (l'intensité et la direction du vent, la stratification atmosphérique, l'emplacement de la source des émissions, etc.) devraient être bien connu. Cette précision ne peut être atteint dans la pratique en raison d'un manque de connaissances sur la source d'émissions et de l'incertitude aléatoire intrinsèque des conditions météorologiques.Pour augmenter la contribution de la simulation numérique pour l'évaluation des risques et la prise de décision, il est essentiel de mesurer quantitativement l'impact d'un manque de connaissances en termes de résolution spatiale et temporelle des zones de danger.L'objet de cette thèse est d'appliquer des méthodes de quantification d'incertitude pour quantifier l'impact de ces incertitudes dans l'évaluation des zones de danger à moyenne portée dans des scénarios de dispersion de gaz toxiques. Une méthode hybride c-ANOVA et POD/Krigeage permet d'envisager jusqu'à 5 paramètres incertains dans une simulation 3D-CFD haute fidélité non-stationnaire de la dispersion d'un gaz toxique provenant d'une source type flaque dans une zone urbaine de 1km2. / The dispersion of highly pathogenic biological agents in an urbanized area following a terrorist act is one of the situations that national security agencies need to evaluate in terms of risk assessment and decision-making. The numerical simulation of turbulent flows in urban areas, including monitoring the dispersion of pollutants, has reached a sufficient level of maturity to make predictions on realistic urban zones up to 4 square kilometers. However, the existing simulations are deterministic in the sense that all the parameters that define the case studied (intensity and wind direction, atmospheric stratification, source of emissions location, quantity of injected toxic agent, etc.) should be well known. Such precision cannot be achieved in practice due to a lack of knowledge about the source of emission and the intrinsic aleatoric uncertainty of the meteorological conditions. To significantly increase the contribution of numerical simulation for risk assessment and decision-making, it is essential to quantitatively measure the impact of a lack of knowledge especially in terms of spatial and temporal resolution of the danger zones. The object of this thesis is to apply uncertainty quantification methods to quantify the impact of these uncertainties in the evaluation of the danger zones in medium range toxic gas dispersion scenarios. A hybrid method merging c-ANOVA and POD/Kriging allows to consider up to 5 uncertain parameters in a high-fidelity unsteady 3D-CFD simulation of the dispersion of a toxic gas from a pond-like source in an urban area of 1km2.
|
1156 |
Optimisation du codage HEVC par des moyens de pré-analyse et/ou pré-codage du contenu / HEVC encoder optimization with pre-analysis and/or pre-encoding of the video contentDhollande, Nicolas 21 April 2016 (has links)
La compression vidéo HEVC standardisée en 2013 offre des gains de compression dépassant les 50% par rapport au standard de compression précédent MPEG4-AVC/H.264. Ces gains de compression se paient par une augmentation très importante de la complexité de codage. Si on ajoute à cela l’augmentation de complexité générée par l’accroissement de résolution et de fréquence image du signal vidéo d’entrée pour passer de la Haute Définition (HD) à l’Ultra Haute Définition (UHD), on comprend vite l’intérêt des techniques de réduction de complexité pour le développement de codeurs économiquement viables. En premier lieu, un effort particulier a été réalisé pour réduire la complexité des images Intra. Nous proposons une méthode d'inférence des modes de codage à partir d'un pré-codage d'une version réduite en HD de la vidéo UHD. Ensuite, nous proposons une méthode de partitionnement rapide basée sur la pré-analyse du contenu. La première méthode offre une réduction de complexité d'un facteur 3 et la deuxième, d'un facteur 6, contre une perte de compression proche de 5%. En second lieu, nous avons traité le codage des images Inter. En mettant en œuvre une solution d'inférence des modes de codage UHD à partir d'un pré-codage au format HD, la complexité de codage est réduite d’un facteur 3 en considérant les 2 flux produits et d’un facteur 9.2 sur le seul flux UHD, pour une perte en compression proche de 3%. Appliqué à une configuration de codage proche d'un système réellement déployé, l'apport de notre algorithme reste intéressant puisqu'il réduit la complexité de codage du flux UHD d’un facteur proche de 2 pour une perte de compression limitée à 4%. Les stratégies de réduction de complexité mises en œuvre au cours de cette thèse pour le codage Intra et Inter offrent des perspectives intéressantes pour le développement de codeurs HEVC UHD plus économes en ressources de calculs. Elles sont particulièrement adaptées au domaine de la WebTV/OTT qui prend une part croissante dans la diffusion de la vidéo et pour lequel le signal vidéo est codé à des résolutions multiples pour adresser des réseaux et des terminaux de capacités variées. / The High Efficiency Video Coding (HEVC) standard was released in 2013 which reduced network bandwidth by a factor of 2 compared to the prior standard H.264/AVC. These gains are achieved by a very significant increase in the encoding complexity. Especially with the industrial demand to shift in format from High Definition (HD) to Ultra High Definition (UHD), one can understand the relevance of complexity reduction techniques to develop cost-effective encoders. In our first contribution, we attempted new strategies to reduce the encoding complexity of Intra-pictures. We proposed a method with inference rules on the coding modes from the modes obtained with pre-encoding of the UHD video down-sampled in HD. We, then, proposed a fast partitioning method based on a pre-analysis of the content. The first method reduced the complexity by a factor of 3x and the second one, by a factor of 6, with a loss of compression efficiency of 5%. As a second contribution, we adressed the Inter-pictures. By implementing inference rules in the UHD encoder, from a HD pre-encoding pass, the encoding complexity is reduced by a factor of 3x when both HD and UHD encodings are considered, and by 9.2x on just the UHD encoding, with a loss of compression efficiency of 3%. Combined with an encoding configuration imitating a real system, our approach reduces the complexity by a factor of close to 2x with 4% of loss. These strategies built during this thesis offer encouraging prospects for implementation of low complexity HEVC UHD encoders. They are fully adapted to the WebTV/OTT segment that is playing a growing part in the video delivery, in which the video signal is encoded with different resolution to reach heterogeneous devices and network capacities.
|
1157 |
Towards optimal design of multiscale nonlinear structures : reduced-order modeling approaches / Vers une conception optimale des structures multi-échelles non-linéaires : approches de réduction de modèleXia, Liang 25 November 2015 (has links)
L'objectif principal est de faire premiers pas vers la conception topologique de structures hétérogènes à comportement non-linéaires. Le deuxième objectif est d’optimiser simultanément la topologie de la structure et du matériau. Il requiert la combinaison des méthodes de conception optimale et des approches de modélisation multi-échelle. En raison des lourdes exigences de calcul, nous avons introduit des techniques de réduction de modèle et de calcul parallèle. Nous avons développé tout d’abord un cadre de conception multi-échelle constitué de l’optimisation topologique et la modélisation multi-échelle. Ce cadre fournit un outil automatique pour des structures dont le modèle de matériau sous-jacent est directement régi par la géométrie de la microstructure réaliste et des lois de comportement microscopiques. Nous avons ensuite étendu le cadre en introduisant des variables supplémentaires à l’échelle microscopique pour effectuer la conception simultanée de la structure et de la microstructure. En ce qui concerne les exigences de calcul et de stockage de données en raison de multiples réalisations de calcul multi-échelle sur les configurations similaires, nous avons introduit: les approches de réduction de modèle. Nous avons développé un substitut d'apprentissage adaptatif pour le cas de l’élasticité non-linéaire. Pour viscoplasticité, nous avons collaboré avec le Professeur Felix Fritzen de l’Université de Stuttgart en utilisant son modèle de réduction avec la programmation parallèle sur GPU. Nous avons également adopté une autre approche basée sur le potentiel de réduction issue de la littérature pour améliorer l’efficacité de la conception simultanée. / High-performance heterogeneous materials have been increasingly used nowadays for their advantageous overall characteristics resulting in superior structural mechanical performance. The pronounced heterogeneities of materials have significant impact on the structural behavior that one needs to account for both material microscopic heterogeneities and constituent behaviors to achieve reliable structural designs. Meanwhile, the fast progress of material science and the latest development of 3D printing techniques make it possible to generate more innovative, lightweight, and structurally efficient designs through controlling the composition and the microstructure of material at the microscopic scale. In this thesis, we have made first attempts towards topology optimization design of multiscale nonlinear structures, including design of highly heterogeneous structures, material microstructural design, and simultaneous design of structure and materials. We have primarily developed a multiscale design framework, constituted of two key ingredients : multiscale modeling for structural performance simulation and topology optimization forstructural design. With regard to the first ingredient, we employ the first-order computational homogenization method FE2 to bridge structural and material scales. With regard to the second ingredient, we apply the method Bi-directional Evolutionary Structural Optimization (BESO) to perform topology optimization. In contrast to the conventional nonlinear design of homogeneous structures, this design framework provides an automatic design tool for nonlinear highly heterogeneous structures of which the underlying material model is governed directly by the realistic microstructural geometry and the microscopic constitutive laws. Note that the FE2 method is extremely expensive in terms of computing time and storage requirement. The dilemma of heavy computational burden is even more pronounced when it comes to topology optimization : not only is it required to solve the time-consuming multiscale problem once, but for many different realizations of the structural topology. Meanwhile we note that the optimization process requires multiple design loops involving similar or even repeated computations at the microscopic scale. For these reasons, we introduce to the design framework a third ingredient : reduced-order modeling (ROM). We develop an adaptive surrogate model using snapshot Proper Orthogonal Decomposition (POD) and Diffuse Approximation to substitute the microscopic solutions. The surrogate model is initially built by the first design iteration and updated adaptively in the subsequent design iterations. This surrogate model has shown promising performance in terms of reducing computing cost and modeling accuracy when applied to the design framework for nonlinear elastic cases. As for more severe material nonlinearity, we employ directly an established method potential based Reduced Basis Model Order Reduction (pRBMOR). The key idea of pRBMOR is to approximate the internal variables of the dissipative material by a precomputed reduced basis computed from snapshot POD. To drastically accelerate the computing procedure, pRBMOR has been implemented by parallelization on modern Graphics Processing Units (GPUs). The implementation of pRBMOR with GPU acceleration enables us to realize the design of multiscale elastoviscoplastic structures using the previously developed design framework inrealistic computing time and with affordable memory requirement. We have so far assumed a fixed material microstructure at the microscopic scale. The remaining part of the thesis is dedicated to simultaneous design of both macroscopic structure and microscopic materials. By the previously established multiscale design framework, we have topology variables and volume constraints defined at both scales.
|
1158 |
Multiplicité des tests, et calculs de taille d'échantillon en recherche clinique / Multiplicity of tests, and sample size determination of clinical trialsRiou, Jérémie 11 December 2013 (has links)
Ce travail a eu pour objectif de répondre aux problématiques inhérentes aux tests multiples dans le contexte des essais cliniques. A l’heure actuelle un nombre croissant d’essais cliniques ont pour objectif d’observer l’effet multifactoriel d’un produit, et nécessite donc l’utilisation de co-critères de jugement principaux. La significativité de l’étude est alors conclue si et seulement si nous observons le rejet d’au moins r hypothèses nulles parmi les m hypothèses nulles testées. Dans ce contexte, les statisticiens doivent prendre en compte la multiplicité induite par cette pratique. Nous nous sommes consacrés dans un premier temps à la recherche d’une correction exacte pour l’analyse des données et le calcul de taille d’échantillon pour r = 1. Puis nous avons travaillé sur le calcul de taille d’´echantillon pour toutes valeurs de r, quand les procédures en une étape, ou les procédures séquentielles sont utilisées. Finalement nous nous sommes intéressés à la correction du degré de signification engendré par la recherche d’un codage optimal d’une variable explicative continue dans un modèle linéaire généralisé / This work aimed to meet multiple testing problems in clinical trials context. Nowadays, in clinical research it is increasingly common to define multiple co-primary endpoints in order to capture a multi-factorial effect of the product. The significance of the study is concluded if and only if at least r null hypotheses are rejected among the m null hypotheses. In this context, statisticians need to take into account multiplicity problems. We initially devoted our work on exact correction of the multiple testing for data analysis and sample size computation, when r = 1. Then we worked on sample size computation for any values of r, when stepwise and single step procedures are used. Finally we are interested in the correction of significance level generated by the search for an optimal coding of a continuous explanatory variable in generalized linear model.
|
1159 |
Extensional collapses in the overpressured frictional upper crust based on limit analysis / Approche par analyse limite des mécanismes de ruine en extension dans la croute supérieure frictionnelle en présence de surpressions de fluidesYuan, Xiaoping 04 July 2016 (has links)
Dans ce manuscrit nous développons l'approche cinématique 2D du calcul à la rupture pour examinerles effondrements en extension (ou failles normales) de la croûte supérieure cassante qui résultent desurpressions de fluides. Les sujets d'intérêt liés à la déformation en extension sont (1) les roles de lapression des fluides, des processus de surface, et des propriétés des matériaux et des failles sur lastabilité des structures d'extension; (2) la formation de failles normales à faible pendage et de failleslistriques; (3) la distribution de la déformation au dessus d'un glissement à faible pendage; et (4)l'influence de l'adoucissement mécanique des failles et des processus de sédimentation sur cettedistribution.Cette approche mécanique est vérifiée par la théorie du prisme critique de Coulomb, et la généralise pour étudier la topographie complexe de la péninsule de Mejillones dans le Nord du Chili. Cetteapproche est aussi appliquée à l'instabilité gravitaire dans le delta du Niger en reliant les structurescompressives en bas de pente aux structure extensives en amont par un détachement profond. Nousprédisons des surpressions de fluides beaucoup plus élevée que celles obtenues par application duprisme de Coulomb. Enfin, cette méthodologie est appliquée à l'étude de la forme de failles normalesreliant un détachement profond à la surface. Dans le cas du delta du Niger, nous montrons que lesfailles à faible pendage et les failles listriques impliquent que la profondeur de rétention des fluides estfaible. La version séquentielle de l'analyse limite ouvre de nouvelles voies pour suivre l'évolutionstructurale dans le temps du jeu sur les failles normales. Les simulations montrent en particulier qu'unefaille normale tourne vers des pendage plus faibles au fur et à mesure de la dénudation du mur, formantune région qui passe du mur au toit de la faille active en rotation. La prédiction de cette région estillustrée par des expériences analogiques et des exemples de terrain. / This manuscript develops a 2D kinematic approach of Limit Analysis to examine the extensionalfailures in the brittle, upper crust resulting from fluid overpressures and normal faulting. There aremany interesting topics related to the extensional deformation such as (1) the roles of fluid pressure,topographic process, material and fault properties on the stability of extensional structures; (2) theformation of low-angle and listric normal fault; (3) the deformation pattern due to slip on a low-anglefault; and (4) the influence of fault softening and sedimentation processes on this deformation pattern.This mechanical approach applied to wedge prototypes is validated by the critical Coulomb wedge(CCW) theory, and it generalizes the CCW theory to investigate the complex topography on theMejillones peninsula, Northern Chile. Additionally, this approach is also applied to investigate gravityinstability of Niger Delta by linking down-slope compressional to up-slope extensional failures througha deep detachment. We predict much higher fluid overpressures than that of the CCW theory. Finally,this Limit Analysis methodology is applied to investigate the shape of normal fault linking a lowdetachment to the surface. The application to Niger Delta implies that the formation of very low-angleand strongly listric faults results from a shallow fluid-retention depth. The sequential version of LimitAnalysis opens new ways to envision the structural evolution through time resulting from normalfaulting. The simulations show that the normal fault rotates during extension, forming a region of Footto-Hanging Wall (FHW) where the material in the footwall is sheared upon entering the hanging wall.The creation of the FHW region is illustrated by sandbox experiments and field examples.
|
1160 |
Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l’apprentissage humain / Specification and design of usage analysis services for a tel systemPham Thi Ngoc, Diem 25 November 2011 (has links)
Notre travail de recherche s’inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l’indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d’indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d’un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l’automatisation du calcul d’indicateurs. Pour cela, nous avons élaboré une nouvelle version d’UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l’enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d’indicateurs à partir des traces collectées par un EIAH, (2) d’intégrer des fonctions externes (qui proviennent d’autres outils d’analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d’indicateurs. Nous avons également développé un outil d’analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d’une analyse de l’état de l’art, mais aussi de travaux exploratoires sur la modélisation d’indicateurs et l’analyse de traces. L’approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants. / The research topic of this thesis is a part of the REDIM (model driven re-engineering) research project. It focuses specifically on the analysis of tracks collected during the learning session by a TEL (Technology Enhanced Learning) system in order to provide teachers indicators calculated. In our work environment, UTL (Usage Tracking Language) allows users to define the indicators in a form close to the design patterns. It was designed to response capitalization and reuse questions. However, UTL did not initially have any means to formally specify how to calculate indicators based on tracks collected. In general, design patterns are limited to the description, they cannot be automated. In addition, textual descriptions in UTL to produce indicators from tracks do not allow generating automatically an indicator’s values.Our main research objective was therefore to define models, methods and tools for formalizing and automating the calculation of indicators. We propose an extension for UTL named DCL4UTL (Data Combination Language for UTL) to model indicators in a capitalizable, automatable and reusable form to provide meaningful indicators to teachers/designers. With this new version, the indicators can be calculated in real-time or after a learning session in the context of tutoring actions or the reengineering of learning scenarios, respectively.The originality of our approach (DCL4UTL) lies in the fact that this version not only capitalize know-how on analysis techniques of the use an TEL system, but also (1) formally describe models and calculation methods of indicators from tracks collected by a TEL system, (2) integrate external functions (from other analysis tools), and (3) create parameterized intermediate data facilitating the modeling and reuse of indicators’ calculation method. We have also developed an analysis tool to calculate modeled indicators. Our approach and language have been validated by several experiments with several existent TEL systems.
|
Page generated in 0.0619 seconds