• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 65
  • 22
  • 1
  • Tagged with
  • 221
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 33
  • 32
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Analyse de connectivité et techniques de partitionnement de données appliquées à la caractérisation et la modélisation d'écoulement au sein des réservoirs très hétérogènes / Connectivity analysis and clustering techniques applied for the characterisation and modelling of flow in highly heterogeneous reservoirs

Darishchev, Alexander 10 December 2015 (has links)
Les techniques informatiques ont gagné un rôle primordial dans le développement et l'exploitation des ressources d'hydrocarbures naturelles ainsi que dans d'autres opérations liées à des réservoirs souterrains. L'un des problèmes cruciaux de la modélisation de réservoir et les prévisions de production réside dans la présélection des modèles de réservoir appropriés à la quantification d'incertitude et au le calage robuste des résultats de simulation d'écoulement aux réelles mesures et observations acquises du gisement. La présente thèse s'adresse à ces problématiques et à certains autres sujets connexes.Nous avons élaboré une stratégie pour faciliter et accélérer l'ajustement de tels modèles numériques aux données de production de champ disponibles. En premier lieu, la recherche s'était concentrée sur la conceptualisation et l'implémentation des modèles de proxy reposant sur l'analyse de la connectivité, comme une propriété physique intégrante et significative du réservoir, et des techniques avancées du partitionnement de données et de l'analyse de clusters. La méthodologie développée comprend aussi plusieurs approches originales de type probabiliste orientées vers les problèmes d'échantillonnage d'incertitude et de détermination du nombre de réalisations et de l'espérance de la valeur d'information d'échantillon. Afin de cibler et donner la priorité aux modèles pertinents, nous avons agrégé les réalisations géostatistiques en formant des classes distinctes avec une mesure de distance généralisée. Ensuite, afin d'améliorer la classification, nous avons élargi la technique graphique de silhouettes, désormais appelée la "séquence entière des silhouettes multiples" dans le partitionnement de données et l'analyse de clusters. Cette approche a permis de recueillir une information claire et compréhensive à propos des dissimilarités intra- et intre-cluster, particulièrement utile dans le cas des structures faibles, voire artificielles. Finalement, la séparation spatiale et la différence de forme ont été visualisées graphiquement et quantifiées grâce à la mesure de distance probabiliste.Il apparaît que les relations obtenues justifient et valident l'applicabilité des approches proposées pour améliorer la caractérisation et la modélisation d'écoulement. Des corrélations fiables ont été obtenues entre les chemins de connectivité les plus courts "injecteur-producteur" et les temps de percée d'eau pour des configurations différentes de placement de puits, niveaux d'hétérogénéité et rapports de mobilité de fluides variés. Les modèles de connectivité proposés ont produit des résultats suffisamment précis et une performance compétitive au méta-niveau. Leur usage comme des précurseurs et prédicateurs ad hoc est bénéfique en étape du traitement préalable de la méthodologie. Avant le calage d'historique, un nombre approprié et gérable des modèles pertinents peut être identifié grâce à la comparaison des données de production disponibles avec les résultats de... / Computer-based workflows have gained a paramount role in development and exploitation of natural hydrocarbon resources and other subsurface operations. One of the crucial problems of reservoir modelling and production forecasting is in pre-selecting appropriate models for quantifying uncertainty and robustly matching results of flow simulation to real field measurements and observations. This thesis addresses these and other related issues. We have explored a strategy to facilitate and speed up the adjustment of such numerical models to available field production data. Originally, the focus of this research was on conceptualising, developing and implementing fast proxy models related to the analysis of connectivity, as a physically meaningful property of the reservoir, with advanced cluster analysis techniques. The developed methodology includes also several original probability-oriented approaches towards the problems of sampling uncertainty and determining the sample size and the expected value of sample information. For targeting and prioritising relevant reservoir models, we aggregated geostatistical realisations into distinct classes with a generalised distance measure. Then, to improve the classification, we extended the silhouette-based graphical technique, called hereafter the "entire sequence of multiple silhouettes" in cluster analysis. This approach provided clear and comprehensive information about the intra- and inter-cluster dissimilarities, especially helpful in the case of weak, or even artificial, structures. Finally, the spatial separation and form-difference of clusters were graphically visualised and quantified with a scale-invariant probabilistic distance measure. The obtained relationships appeared to justify and validate the applicability of the proposed approaches to enhance the characterisation and modelling of flow. Reliable correlations were found between the shortest "injector-producer" pathways and water breakthrough times for different configurations of well placement, various heterogeneity levels and mobility ratios of fluids. The proposed graph-based connectivity proxies provided sufficiently accurate results and competitive performance at the meta-level. The use of them like precursors and ad hoc predictors is beneficial at the pre-processing stage of the workflow. Prior to history matching, a suitable and manageable number of appropriate reservoir models can be identified from the comparison of the available production data with the selected centrotype-models regarded as the class representatives, only for which the full fluid flow simulation is pre-requisite. The findings of this research work can easily be generalised and considered in a wider scope. Possible extensions, further improvements and implementation of them may also be expected in other fields of science and technology.
212

Prévision de la durée de vie des composites à matrice céramique auto cicatrisante, en fatigue statique, à haute température (= 800°C) / Prediction of lifetime in static fatigue, at high temperatures for ceramic matrix composites

De Melo - Loseille, Olivier 15 March 2010 (has links)
La rupture différée d’un composite SiC/SiC a été étudiée en fatigue statique, sous air, aux températures intermédiaires (500°C-800°C). Les résultats expérimentaux (durée de vie, loi de comportement en traction, déformation) et les fractographies ont permis d’identifier les modes de rupture de fibre qui interviennent dans la rupture différée. Un modèle mécanique probabiliste multiéchelle a été développé pour simuler le comportement en fatigue et prévoir la durée de vie. La microstructure est décrite par des distributions statistiques identifiées à partir des résultats de l’étude fractographique. Des diagrammes d’endurance du composite en fatigue ont été calculés pour prévoir la durée de vie. Ces derniers confirment que la tenue du composite est dictée par les fils. La modélisation montre que la microstructure joue un rôle déterminant sur la durée de vie et sa variabilité. Des relations microstructures-propriétés sont établies. Le lien entre contrainte résiduelle et durée de vie est également examiné. Une approche fiabiliste sur les échantillons à information faible est menée à l’aide de l’inférence bayésienne. Les résultats concordent avec l’approche mécanique. / Delayed failure of SiC/SiC woven composite is studied under static fatigue, in air, for intermediate temperatures (500°C – 800°C). Experimental results and fractographic examination are used to identify damage mechanisms. A multi-scale probabilistic facture based model is proposed to simulate damage kinetics in longitudinal tows. Microstructure is described with appropriate statistical distributions identified on fractographic investigations. Simulations demonstrate a significant effect of the microstructure on the lifetime of the tows. Microstructure – properties relations are established.
213

Decision making strategy for antenatal echographic screening of foetal abnormalities using statistical learning / Méthodologie d'aide à la décision pour le dépistage anténatal échographique d'anomalies fœtales par apprentissage statistique

Besson, Rémi 01 October 2019 (has links)
Dans cette thèse, nous proposons une méthode pour construire un outil d'aide à la décision pour le diagnostic de maladie rare. Nous cherchons à minimiser le nombre de tests médicaux nécessaires pour atteindre un état où l'incertitude concernant la maladie du patient est inférieure à un seuil prédéterminé. Ce faisant, nous tenons compte de la nécessité dans de nombreuses applications médicales, d'éviter autant que possible, tout diagnostic erroné. Pour résoudre cette tâche d'optimisation, nous étudions plusieurs algorithmes d'apprentissage par renforcement et les rendons opérationnels pour notre problème de très grande dimension. Pour cela nous décomposons le problème initial sous la forme de plusieurs sous-problèmes et montrons qu'il est possible de tirer partie des intersections entre ces sous-tâches pour accélérer l'apprentissage. Les stratégies apprises se révèlent bien plus performantes que des stratégies gloutonnes classiques. Nous présentons également une façon de combiner les connaissances d'experts, exprimées sous forme de probabilités conditionnelles, avec des données cliniques. Il s'agit d'un aspect crucial car la rareté des données pour les maladies rares empêche toute approche basée uniquement sur des données cliniques. Nous montrons, tant théoriquement qu'empiriquement, que l'estimateur que nous proposons est toujours plus performant que le meilleur des deux modèles (expert ou données) à une constante près. Enfin nous montrons qu'il est possible d'intégrer efficacement des raisonnements tenant compte du niveau de granularité des symptômes renseignés tout en restant dans le cadre probabiliste développé tout au long de ce travail. / In this thesis, we propose a method to build a decision support tool for the diagnosis of rare diseases. We aim to minimize the number of medical tests necessary to achieve a state where the uncertainty regarding the patient's disease is less than a predetermined threshold. In doing so, we take into account the need in many medical applications, to avoid as much as possible, any misdiagnosis. To solve this optimization task, we investigate several reinforcement learning algorithm and make them operable in our high-dimensional. To do this, we break down the initial problem into several sub-problems and show that it is possible to take advantage of the intersections between these sub-tasks to accelerate the learning phase. The strategies learned are much more effective than classic greedy strategies. We also present a way to combine expert knowledge, expressed as conditional probabilities, with clinical data. This is crucial because the scarcity of data in the field of rare diseases prevents any approach based solely on clinical data. We show, both empirically and theoretically, that our proposed estimator is always more efficient than the best of the two models (expert or data) within a constant. Finally, we show that it is possible to effectively integrate reasoning taking into account the level of granularity of the symptoms reported while remaining within the probabilistic framework developed throughout this work.
214

Analyse temporelle et sémantique des réseaux sociaux typés à partir du contenu de sites généré par des utilisateurs sur le Web / Temporal and semantic analysis of richly typed social networks from user-generated content sites on the web

Meng, Zide 07 November 2016 (has links)
Nous proposons une approche pour détecter les sujets, les communautés d'intérêt non disjointes,l'expertise, les tendances et les activités dans des sites où le contenu est généré par les utilisateurs et enparticulier dans des forums de questions-réponses tels que StackOverFlow. Nous décrivons d'abordQASM (Questions & Réponses dans des médias sociaux), un système basé sur l'analyse de réseauxsociaux pour gérer les deux principales ressources d’un site de questions-réponses: les utilisateurs et lecontenu. Nous présentons également le vocabulaire QASM utilisé pour formaliser à la fois le niveaud'intérêt et l'expertise des utilisateurs. Nous proposons ensuite une approche efficace pour détecter lescommunautés d'intérêts. Elle repose sur une autre méthode pour enrichir les questions avec un tag plusgénéral en cas de besoin. Nous comparons trois méthodes de détection sur un jeu de données extrait dusite populaire StackOverflow. Notre méthode basée sur le se révèle être beaucoup plus simple et plusrapide, tout en préservant la qualité de la détection. Nous proposons en complément une méthode pourgénérer automatiquement un label pour un sujet détecté en analysant le sens et les liens de ses mots-clefs.Nous menons alors une étude pour comparer différents algorithmes pour générer ce label. Enfin, nousétendons notre modèle de graphes probabilistes pour modéliser conjointement les sujets, l'expertise, lesactivités et les tendances. Nous le validons sur des données du monde réel pour confirmer l'efficacité denotre modèle intégrant les comportements des utilisateurs et la dynamique des sujets / We propose an approach to detect topics, overlapping communities of interest, expertise, trends andactivities in user-generated content sites and in particular in question-answering forums such asStackOverFlow. We first describe QASM (Question & Answer Social Media), a system based on socialnetwork analysis to manage the two main resources in question-answering sites: users and contents. Wealso introduce the QASM vocabulary used to formalize both the level of interest and the expertise ofusers on topics. We then propose an efficient approach to detect communities of interest. It relies onanother method to enrich questions with a more general tag when needed. We compared threedetection methods on a dataset extracted from the popular Q&A site StackOverflow. Our method basedon topic modeling and user membership assignment is shown to be much simpler and faster whilepreserving the quality of the detection. We then propose an additional method to automatically generatea label for a detected topic by analyzing the meaning and links of its bag of words. We conduct a userstudy to compare different algorithms to choose the label. Finally we extend our probabilistic graphicalmodel to jointly model topics, expertise, activities and trends. We performed experiments with realworlddata to confirm the effectiveness of our joint model, studying the users’ behaviors and topicsdynamics
215

Apprentissage statistique avec le processus ponctuel déterminantal

Vicente, Sergio 02 1900 (has links)
Cette thèse aborde le processus ponctuel déterminantal, un modèle probabiliste qui capture la répulsion entre les points d’un certain espace. Celle-ci est déterminée par une matrice de similarité, la matrice noyau du processus, qui spécifie quels points sont les plus similaires et donc moins susceptibles de figurer dans un même sous-ensemble. Contrairement à la sélection aléatoire uniforme, ce processus ponctuel privilégie les sous-ensembles qui contiennent des points diversifiés et hétérogènes. La notion de diversité acquiert une importante grandissante au sein de sciences comme la médecine, la sociologie, les sciences forensiques et les sciences comportementales. Le processus ponctuel déterminantal offre donc une alternative aux traditionnelles méthodes d’échantillonnage en tenant compte de la diversité des éléments choisis. Actuellement, il est déjà très utilisé en apprentissage automatique comme modèle de sélection de sous-ensembles. Son application en statistique est illustrée par trois articles. Le premier article aborde le partitionnement de données effectué par un algorithme répété un grand nombre de fois sur les mêmes données, le partitionnement par consensus. On montre qu’en utilisant le processus ponctuel déterminantal pour sélectionner les points initiaux de l’algorithme, la partition de données finale a une qualité supérieure à celle que l’on obtient en sélectionnant les points de façon uniforme. Le deuxième article étend la méthodologie du premier article aux données ayant un grand nombre d’observations. Ce cas impose un effort computationnel additionnel, étant donné que la sélection de points par le processus ponctuel déterminantal passe par la décomposition spectrale de la matrice de similarité qui, dans ce cas-ci, est de grande taille. On présente deux approches différentes pour résoudre ce problème. On montre que les résultats obtenus par ces deux approches sont meilleurs que ceux obtenus avec un partitionnement de données basé sur une sélection uniforme de points. Le troisième article présente le problème de sélection de variables en régression linéaire et logistique face à un nombre élevé de covariables par une approche bayésienne. La sélection de variables est faite en recourant aux méthodes de Monte Carlo par chaînes de Markov, en utilisant l’algorithme de Metropolis-Hastings. On montre qu’en choisissant le processus ponctuel déterminantal comme loi a priori de l’espace des modèles, le sous-ensemble final de variables est meilleur que celui que l’on obtient avec une loi a priori uniforme. / This thesis presents the determinantal point process, a probabilistic model that captures repulsion between points of a certain space. This repulsion is encompassed by a similarity matrix, the kernel matrix, which selects which points are more similar and then less likely to appear in the same subset. This point process gives more weight to subsets characterized by a larger diversity of its elements, which is not the case with the traditional uniform random sampling. Diversity has become a key concept in domains such as medicine, sociology, forensic sciences and behavioral sciences. The determinantal point process is considered a promising alternative to traditional sampling methods, since it takes into account the diversity of selected elements. It is already actively used in machine learning as a subset selection method. Its application in statistics is illustrated with three papers. The first paper presents the consensus clustering, which consists in running a clustering algorithm on the same data, a large number of times. To sample the initials points of the algorithm, we propose the determinantal point process as a sampling method instead of a uniform random sampling and show that the former option produces better clustering results. The second paper extends the methodology developed in the first paper to large-data. Such datasets impose a computational burden since sampling with the determinantal point process is based on the spectral decomposition of the large kernel matrix. We introduce two methods to deal with this issue. These methods also produce better clustering results than consensus clustering based on a uniform sampling of initial points. The third paper addresses the problem of variable selection for the linear model and the logistic regression, when the number of predictors is large. A Bayesian approach is adopted, using Markov Chain Monte Carlo methods with Metropolis-Hasting algorithm. We show that setting the determinantal point process as the prior distribution for the model space selects a better final model than the model selected by a uniform prior on the model space.
216

Advanced modulation formats and nonlinear mitigation for spectral efficient optical transmission systems / Formats de modulation avancés et compensation de non linéarités pour les systèmes de transmission par fibre optique à haute efficacité spectrale

Fernandez de Jauregui Ruiz, Ivan 12 April 2018 (has links)
La majeure partie des communications mondiales est transportée par des systèmes transocéaniques à fibre optique. Il est estimé que d'ici 2020 le trafic de données atteindra 4.3 ZB par an. Afin de faire face à cette demande, différentes technologies sont actuellement étudiées pour augmenter la capacité des systèmes de transmission très longue distance. Avec l'avènement des circuits intégrés à haute vitesse, des formats de modulation avancés et des techniques de traitement de signal numérique (DSP) peuvent être utilisés pour maximiser l'efficacité spectrale de transmission. Par ailleurs, la capacité des systèmes modernes est fortement limitée par les effets non-linéaires de type Kerr dans la fibre. Ainsi, la première partie de ce travail est axée sur l’étude de la performance et des gains réalisables par des techniques DSP à faible complexité pour mitiger les effets non-linéaires monocanal. En outre, l’utilisation des formats de modulation multiniveaux à haute efficacité spectrale au-delà de 16QAM a pris de l'ampleur pour augmenter le débit de transmission des systèmes, notamment avec l’introduction des formats QAM avec mise en forme probabiliste (PCS-QAM), plus performants que les formats QAM classiques. La deuxième partie de ce travail présente donc une comparaison théorique ainsi qu’expérimentale du format PCS-64QAM avec d’autres formats à haute efficacité spectrale pour les distances transatlantiques. La mise en œuvre d’un format PCS-64QAM conçu pour les distances transpacifiques est également abordée. Enfin, la dernière partie de ce travail concrétise les résultats des travaux menés dans les deux sections précédentes en présentant plusieurs records de transmission / Global data traffic is expected to reach up to 4.3 ZB per year by 2020. With the majority of the global communications being transported on submarine point-to-point fiber-optic systems, different cutting-edge technologies have been under research to cope with this unprecedented traffic growth. Continuous advances in high-speed integrated circuits have allowed the use of advanced modulation formats and digital signal processing (DSP) techniques to maximize the transmission spectral efficiency. With mitigation of fiber linear effects efficiently carried out by DSP with relative low-complexity, the capacity of modern fiber optic systems rests limited by fiber nonlinearities. To this extent, in the first part of this work, the performance and achievable benefits of low-complexity DSP techniques aiming to mitigate fiber Kerr nonlinear effects are investigated. Besides nonlinear compensation techniques, the use of multi-level modulation formats beyond 16QAM and high symbol rate channels have gained momentum to increase the system spectral efficiency. One of the major breakthroughs in the recent years, has been the introduction of QAM-based probabilistic constellation shaping (PCS-QAM), which has proven to outperform regular QAM formats. In this sense, in the second part of this work, the practical achievable rate increase brought by PCS-QAM for transoceanic distances is investigated. A theoretical and experimental comparison with other high-capacity formats is performed, and the design of a PCS-QAM for trans-Pacific distances is addressed. Finally, in the last section, several transmission records using the two above techniques are reported
217

Représentation probabiliste de type progressif d'EDP nonlinéaires nonconservatives et algorithmes particulaires. / Forward probabilistic representation of nonlinear nonconservative PDEs and related particles algorithms.

Le cavil, Anthony 09 December 2016 (has links)
Dans cette thèse, nous proposons une approche progressive (forward) pour la représentation probabiliste d'Equations aux Dérivées Partielles (EDP) nonlinéaires et nonconservatives, permettant ainsi de développer un algorithme particulaire afin d'en estimer numériquement les solutions. Les Equations Différentielles Stochastiques Nonlinéaires de type McKean (NLSDE) étudiées dans la littérature constituent une formulation microscopique d'un phénomène modélisé macroscopiquement par une EDP conservative. Une solution d'une telle NLSDE est la donnée d'un couple $(Y,u)$ où $Y$ est une solution d' équation différentielle stochastique (EDS) dont les coefficients dépendent de $u$ et de $t$ telle que $u(t,cdot)$ est la densité de $Y_t$. La principale contribution de cette thèse est de considérer des EDP nonconservatives, c'est-à- dire des EDP conservatives perturbées par un terme nonlinéaire de la forme $Lambda(u,nabla u)u$. Ceci implique qu'un couple $(Y,u)$ sera solution de la représentation probabiliste associée si $Y$ est un encore un processus stochastique et la relation entre $Y$ et la fonction $u$ sera alors plus complexe. Etant donnée la loi de $Y$, l'existence et l'unicité de $u$ sont démontrées par un argument de type point fixe via une formulation originale de type Feynmann-Kac. / This thesis performs forward probabilistic representations of nonlinear and nonconservative Partial Differential Equations (PDEs), which allowto numerically estimate the corresponding solutions via an interacting particle system algorithm, mixing Monte-Carlo methods and non-parametric density estimates.In the literature, McKean typeNonlinear Stochastic Differential Equations (NLSDEs) constitute the microscopic modelof a class of PDEs which are conservative. The solution of a NLSDEis generally a couple $(Y,u)$ where $Y$ is a stochastic process solving a stochastic differential equation whose coefficients depend on $u$ and at each time $t$, $u(t,cdot)$ is the law density of the random variable $Y_t$.The main idea of this thesis is to consider this time a non-conservative PDE which is the result of a conservative PDE perturbed by a term of the type $Lambda(u, nabla u) u$. In this case, the solution of the corresponding NLSDE is again a couple $(Y,u)$, where again $Y$ is a stochastic processbut where the link between the function $u$ and $Y$ is more complicated and once fixed the law of $Y$, $u$ is determined by a fixed pointargument via an innovating Feynmann-Kac type formula.
218

Opérations de proximité en orbite : évaluation du risque de collision et calcul de manoeuvres optimales pour l'évitement et le rendez-vous / Orbital proximity operations : evaluation of collision risk and computation of optimal maneuvers for avoidance and rendezvous

Serra, Romain 10 December 2015 (has links)
Cette thèse traite de l'évitement de collision entre un engin spatial opérationnel, appelé objet primaire, et un débris orbital, dit secondaire. Ces travaux concernent aussi bien la question de l'estimation du risque pour une paire d'objets sphériques que celle du calcul d'un plan de manoeuvres d'évitement pour le primaire. Pour ce qui est du premier point, sous certaines hypothèses, la probabilité de collision s'exprime comme l'intégrale d'une fonction gaussienne sur une boule euclidienne, en dimension deux ou trois. On en propose ici une nouvelle méthode de calcul, basée sur les théories de la transformée de Laplace et des fonctions holonomes. En ce qui concerne le calcul de manoeuvres de propulsion, différentes méthodes sont développées en fonction du modèle considéré. En toute généralité, le problème peut être formulé dans le cadre de l'optimisation sous contrainte probabiliste et s'avère difficile à résoudre. Dans le cas d'un mouvement considéré comme relatif rectiligne, l'approche par scénarios se prête bien au problème et permet d'obtenir des solutions admissibles. Concernant les rapprochements lents, une linéarisation de la dynamique des objets et un recouvrement polyédral de l'objet combiné sont à la base de la construction d'un problème de substitution. Deux approches sont proposées pour sa résolution : une première directe et une seconde par sélection du risque. Enfin, la question du calcul de manoeuvres de proximité en consommation optimale et temps fixé, sans contrainte d'évitement, est abordée. Par l'intermédiaire de la théorie du vecteur efficacité, la solution analytique est obtenue pour la partie hors-plan de la dynamique képlérienne linéarisée. / This thesis is about collision avoidance for a pair of spherical orbiting objects. The primary object - the operational satellite - is active in the sense that it can use its thrusters to change its trajectory, while the secondary object is a space debris that cannot be controlled in any way. Onground radars or other means allow to foresee a conjunction involving an operational space craft,leading in the production of a collision alert. The latter contains statistical data on the position and velocity of the two objects, enabling for the construction of a probabilistic collision model.The work is divided in two parts : the computation of collision probabilities and the design of maneuvers to lower the collision risk. In the first part, two kinds of probabilities - that can be written as integrals of a Gaussian distribution over an Euclidean ball in 2 and 3 dimensions -are expanded in convergent power series with positive terms. It is done using the theories of Laplace transform and Definite functions. In the second part, the question of collision avoidance is formulated as a chance-constrained optimization problem. Depending on the collision model, namely short or long-term encounters, it is respectively tackled via the scenario approach or relaxed using polyhedral collision sets. For the latter, two methods are proposed. The first one directly tackles the joint chance constraints while the second uses another relaxation called risk selection to obtain a mixed-integer program. Additionaly, the solution to the problem of fixed-time fuel minimizing out-of-plane proximity maneuvers is derived. This optimal control problem is solved via the primer vector theory.
219

Reparametrization in deep learning

Dinh, Laurent 02 1900 (has links)
No description available.
220

Application of the Stimulus-Driven Theory of Probabilistic Dynamics to the hydrogen issue in level-2 PSA / Application de la Stimulus Driven Theory of Probabilistic Dynamics (SDTPD) au risque hydrogène dans les EPS de niveau 2.

Peeters, Agnes 05 October 2007 (has links)
Les Etudes Probabilistes de Sûreté (EPS) de niveau 2 en centrale nucléaire visent à identifier les séquences d’événements pouvant correspondre à la propagation d’un accident d’un endommagement du cœur jusqu’à une perte potentielle de l’intégrité de l’enceinte, et à estimer la fréquence d’apparition des différents scénarios possibles.<p>Ces accidents sévères dépendent non seulement de défaillances matérielles ou d’erreurs humaines, mais également de l’occurrence de phénomènes physiques, tels que des explosions vapeur ou hydrogène. La prise en compte de tels phénomènes dans le cadre booléen des arbres d’événements s’avère difficile, et les méthodologies dynamiques de réalisation des EPS sont censées fournir une manière plus cohérente d’intégrer l’évolution du processus physique dans les changements de configuration discrète de la centrale au long d’un transitoire accidentel.<p>Cette thèse décrit l’application d’une des plus récentes approches dynamiques des EPS – la Théorie de la Dynamique Probabiliste basée sur les Stimuli (SDTPD) – à différents modèles de déflagration d'hydrogène ainsi que les développements qui ont permis cette applications et les diverses améliorations et techniques qui ont été mises en oeuvre.<p><p>Level-2 Probabilistic Safety Analyses (PSA) of nuclear power plants aims to identify the possible sequences of events corresponding to an accident propagation from a core damage to a potential loss of integrity of the containment, and to assess the frequency of occurrence of the different scenarios.<p>These so-called severe accidents depend not only on hardware failures and human errors, but also on the occurrence of physical phenomena such as e.g. steam or hydrogen explosions. Handling these phenomena in the classical Boolean framework of event trees is not convenient, and dynamic methodologies to perform PSA studies are expected to provide a more consistent way of integrating the physical process evolution with the discrete changes of plant configuration along an accidental transient.<p>This PhD Thesis presents the application of one of the most recently proposed dynamic PSA methodologies, i.e. the Stimulus-Driven Theory of Probabilistic Dynamics (SDTPD), to several models of hydrogen explosion in the containment of a plant, as well as the developed methods and improvements.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished

Page generated in 0.0883 seconds