• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Mesures de sections efficaces d'actinides mineurs d'intérêt pour la transmutation

Kessedjian, Grégoire 19 November 2008 (has links)
Les réacteurs actuels produisent deux types de déchets dont la gestion et le devenir soulèvent des problèmes. Il s’agit d’abord de certains produits de fission et de noyaux lourds (isotopes de l’Américium et du Curium) au-delà de l’uranium appelés actinides mineurs. Deux options sont envisagées : le stockage en site géologique profond et/ou l’incinération de ces déchets dans un flux de neutrons rapides, c’est-à-dire, la transmutation par fission. Ces études font appel à de nombreuses données neutroniques. Malheureusement, les bases de données présentent encore de nombreuses insuffisances pour parvenir à des résultats fiables. L’objectif de ce travail est ici d’actualiser des données nucléaires et de les compléter. Nous avons ainsi mesuré la section efficace de fission de l’243Am (7370 ans) en référence à la diffusion élastique (n,p) afin de fournir des données indépendantes des mesures existantes dans la gamme des neutrons rapides (1 - 8 MeV). La réaction 243Am(n,f) a été analysée en utilisant un modèle statistique décrivant les voies de désexcitation du noyau composé d’244Am. Ainsi les sections efficaces de capture radiative (n,?) et de diffusion inélastique (n,n’) ont pu être évaluées. La mesure directe des sections efficaces neutroniques d’actinides mineurs constitue très souvent un véritable défi compte tenu de la forte activité des actinides mineurs. Pour cela, une méthode indirecte a été développée utilisant les réactions de transfert dans le but d’étudier certains isotopes du curium. Les réactions 243Am(3He,d)244Cm, 243Am(3He,t)243Cm et 243Am(3He,alpha)242Am nous ont permis de mesurer les probabilités de fission des noyaux de 243,244Cm et de l’242Am. Les sections efficaces de fission des curiums 242,243Cm(162,9 j, 28,5 ans) et de l’américium 241Am sont obtenues en multipliant ces probabilités par les sections efficaces calculées de formation des noyaux composés. Pour chaque mesure, une évaluation précise des erreurs a été réalisée à travers une étude des variances-covariances des résultats présentés. Pour les mesures de la réaction 243Am(n,f), une analyse des corrélations d’erreurs a permis d’interpréter la portée de ces mesures au sein des mesures existantes. / The existing reactors produce two kinds of nuclear waste : the fission products and heavy nuclei beyond uranium called minor actinides (Americium and Curium isotopes). Two options are considered: storage in deep geological site and/or transmutation by fast neutron induced fission. These studies involve many neutron data. Unfortunately, these data bases have still many shortcomings to achieve reliable results. The aim of these measurements is to update nuclear data and complement them. We have measured the fission cross section of 243Am (7370y) in reference to the (n,p) elastic scattering to provide new data in a range of fast neutrons (1 - 8 MeV). A statistical model has been developed to describe the reaction 243Am(n,f). Moreover, the cross sections from the following reactions have been be extracted from these calculations: inelastic scattering 243Am(n,n’) and radiative capture 243Am(n,?) cross sections. The direct measurements of neutron cross sections are often a challenge considering the short half-lives of minor actinides. To overcome this problem, a surrogate method using transfer reactions has been used to study few isotopes of curium. The reactions 243Am(3He, d)244cm, 243Am(3He, t)243cm and 243Am(3He, alpha)242Am allowed to measure the fission probabilities of 243,244Cm and 242Am. The fission cross sections of 242,243Cm(162,9d, 28,5y) and 241Am(431y) have been obtained by multiplying these fission probabilities by the calculated compound nuclear neutron cross section relative to each channel. For each measurement, an accurate assessment of the errors was realized through variance-covariance studies. For measurements of the reaction 243Am(n,f), the analysis of error correlations allowed to interpret the scope of these measures within the existing measurements.
222

Stochastic Combinatorial Optimization / Optimisation combinatoire stochastique

Cheng, Jianqiang 08 November 2013 (has links)
Dans cette thèse, nous étudions trois types de problèmes stochastiques : les problèmes avec contraintes probabilistes, les problèmes distributionnellement robustes et les problèmes avec recours. Les difficultés des problèmes stochastiques sont essentiellement liées aux problèmes de convexité du domaine des solutions, et du calcul de l’espérance mathématique ou des probabilités qui nécessitent le calcul complexe d’intégrales multiples. A cause de ces difficultés majeures, nous avons résolu les problèmes étudiées à l’aide d’approximations efficaces.Nous avons étudié deux types de problèmes stochastiques avec des contraintes en probabilités, i.e., les problèmes linéaires avec contraintes en probabilité jointes (LLPC) et les problèmes de maximisation de probabilités (MPP). Dans les deux cas, nous avons supposé que les variables aléatoires sont normalement distribués et les vecteurs lignes des matrices aléatoires sont indépendants. Nous avons résolu LLPC, qui est un problème généralement non convexe, à l’aide de deux approximations basée sur les problèmes coniques de second ordre (SOCP). Sous certaines hypothèses faibles, les solutions optimales des deux SOCP sont respectivement les bornes inférieures et supérieures du problème du départ. En ce qui concerne MPP, nous avons étudié une variante du problème du plus court chemin stochastique contraint (SRCSP) qui consiste à maximiser la probabilité de la contrainte de ressources. Pour résoudre ce problème, nous avons proposé un algorithme de Branch and Bound pour calculer la solution optimale. Comme la relaxation linéaire n’est pas convexe, nous avons proposé une approximation convexe efficace. Nous avons par la suite testé nos algorithmes pour tous les problèmes étudiés sur des instances aléatoires. Pour LLPC, notre approche est plus performante que celles de Bonferroni et de Jaganathan. Pour MPP, nos résultats numériques montrent que notre approche est là encore plus performante que l’approximation des contraintes probabilistes individuellement.La deuxième famille de problèmes étudiés est celle relative aux problèmes distributionnellement robustes où une partie seulement de l’information sur les variables aléatoires est connue à savoir les deux premiers moments. Nous avons montré que le problème de sac à dos stochastique (SKP) est un problème semi-défini positif (SDP) après relaxation SDP des contraintes binaires. Bien que ce résultat ne puisse être étendu au cas du problème multi-sac-à-dos (MKP), nous avons proposé deux approximations qui permettent d’obtenir des bornes de bonne qualité pour la plupart des instances testées. Nos résultats numériques montrent que nos approximations sont là encore plus performantes que celles basées sur les inégalités de Bonferroni et celles plus récentes de Zymler. Ces résultats ont aussi montré la robustesse des solutions obtenues face aux fluctuations des distributions de probabilités. Nous avons aussi étudié une variante du problème du plus court chemin stochastique. Nous avons prouvé que ce problème peut se ramener au problème de plus court chemin déterministe sous certaine hypothèses. Pour résoudre ce problème, nous avons proposé une méthode de B&B où les bornes inférieures sont calculées à l’aide de la méthode du gradient projeté stochastique. Des résultats numériques ont montré l’efficacité de notre approche. Enfin, l’ensemble des méthodes que nous avons proposées dans cette thèse peuvent s’appliquer à une large famille de problèmes d’optimisation stochastique avec variables entières. / In this thesis, we studied three types of stochastic problems: chance constrained problems, distributionally robust problems as well as the simple recourse problems. For the stochastic programming problems, there are two main difficulties. One is that feasible sets of stochastic problems is not convex in general. The other main challenge arises from the need to calculate conditional expectation or probability both of which are involving multi-dimensional integrations. Due to the two major difficulties, for all three studied problems, we solved them with approximation approaches.We first study two types of chance constrained problems: linear program with joint chance constraints problem (LPPC) as well as maximum probability problem (MPP). For both problems, we assume that the random matrix is normally distributed and its vector rows are independent. We first dealt with LPPC which is generally not convex. We approximate it with two second-order cone programming (SOCP) problems. Furthermore under mild conditions, the optimal values of the two SOCP problems are a lower and upper bounds of the original problem respectively. For the second problem, we studied a variant of stochastic resource constrained shortest path problem (called SRCSP for short), which is to maximize probability of resource constraints. To solve the problem, we proposed to use a branch-and-bound framework to come up with the optimal solution. As its corresponding linear relaxation is generally not convex, we give a convex approximation. Finally, numerical tests on the random instances were conducted for both problems. With respect to LPPC, the numerical results showed that the approach we proposed outperforms Bonferroni and Jagannathan approximations. While for the MPP, the numerical results on generated instances substantiated that the convex approximation outperforms the individual approximation method.Then we study a distributionally robust stochastic quadratic knapsack problems, where we only know part of information about the random variables, such as its first and second moments. We proved that the single knapsack problem (SKP) is a semedefinite problem (SDP) after applying the SDP relaxation scheme to the binary constraints. Despite the fact that it is not the case for the multidimensional knapsack problem (MKP), two good approximations of the relaxed version of the problem are provided which obtain upper and lower bounds that appear numerically close to each other for a range of problem instances. Our numerical experiments also indicated that our proposed lower bounding approximation outperforms the approximations that are based on Bonferroni's inequality and the work by Zymler et al.. Besides, an extensive set of experiments were conducted to illustrate how the conservativeness of the robust solutions does pay off in terms of ensuring the chance constraint is satisfied (or nearly satisfied) under a wide range of distribution fluctuations. Moreover, our approach can be applied to a large number of stochastic optimization problems with binary variables.Finally, a stochastic version of the shortest path problem is studied. We proved that in some cases the stochastic shortest path problem can be greatly simplified by reformulating it as the classic shortest path problem, which can be solved in polynomial time. To solve the general problem, we proposed to use a branch-and-bound framework to search the set of feasible paths. Lower bounds are obtained by solving the corresponding linear relaxation which in turn is done using a Stochastic Projected Gradient algorithm involving an active set method. Meanwhile, numerical examples were conducted to illustrate the effectiveness of the obtained algorithm. Concerning the resolution of the continuous relaxation, our Stochastic Projected Gradient algorithm clearly outperforms Matlab optimization toolbox on large graphs.
223

Analyse du transport turbulent dans une zone de mélange issue de l'instabilité de Richtmyer-Meshkov à l'aide d'un modèle à fonction de densité de probabilité : Analyse du transport de l’énergie turbulente / Simulation of a turbulent mixing zone resulting from the Richtmyer-Meshkov instability using a probability density function model : Analysis of the turbulent kinetic energy transport

Guillois, Florian 07 September 2018 (has links)
Cette thèse a pour objet la simulation d'une zone de mélange turbulente issue de l'instabilité de Richtmyer-Meshkov à l'aide d'un modèle à fonction de densité de probabilité (PDF). Nous analysons plus particulièrement la prise en charge par le modèle PDF du transport de l'énergie cinétique turbulente dans la zone de mélange.Dans cette optique, nous commençons par mettre en avant le lien existant entre les statistiques en un point de l'écoulement et ses conditions initiales aux grandes échelles. Ce lien s'exprime à travers le principe de permanence des grandes échelles, et permet d'établir des prédictions pour certaines grandeurs de la zone de mélange, telles que son taux de croissance ou son anisotropie.Nous dérivons ensuite un modèle PDF de Langevin capable de restituer cette dépendance aux conditions initiales. Ce modèle est ensuite validé en le comparant à des résultats issus de simulations aux grandes échelles (LES).Enfin, une analyse asymptotique du modèle proposé permet d'éclairer notre compréhension du transport turbulent. Un régime de diffusion est mis en évidence, et l'expression du coefficient de diffusion associé à ce régime atteste l'influence de la permanence des grandes échelles sur le transport turbulent.Tout au long de cette thèse, nous nous sommes appuyés sur des résultats issus de simulations de Monte Carlo du modèle de Langevin. A cet effet, nous avons développé une méthode spécifique eulérienne et à l'avons comparé à des alternatives lagrangiennes. / The aim of the thesis is to simulate a turbulent mixing zone resulting from the Richtmyer-Meshkov instability using a probability density function (PDF) model. An emphasis is put on the analysis of the turbulent kinetic energy transport.To this end, we first highlight the link existing between the one-point statistics of the flow and its initial conditions at large scales. This link is expressed through the principle of permanence of large eddies, and allows to establish predictions for quantities of the mixing zone, such as its growth rate or its anisotropy.We then derive a Langevin PDF model which is able to reproduce this dependency of the statistics on the initial conditions. This model is then validated by comparing it against large eddy simulations (LES).Finally, an asymptotic analysis of the derived model helps to improve our understanding of the turbulent transport. A diffusion regime is identified, and the expression of the diffusion coefficient associated with this regime confirms the influence of the permanence of large eddies on the turbulent transport.Throughout this thesis, our numerical results were based on Monte Carlo simulations for the Langevin model. In this regard, we proceeded to the development of a specific Eulerian method and its comparison with Lagrangian counterparts.
224

Analyse de signaux d'arrêts cardiaques en cas d'intervention d'urgence avec défibrillateur automatisé : optimisation des temps de pause péri-choc et prédiction d'efficacité de défibrillation / Analysis of cardiac arrest signals in emergency response with automated defibrillator : Peri-shock pauses optimization and prediction of the efficiency of defibrillation

Ménétré, Sarah 02 November 2011 (has links)
L'arrêt cardiaque est principalement d'étiologie cardio-vasculaire. Dans le contexte actuel des arrêts cardiaques extrahospitaliers, 20 à 25% des victimes présentent une fibrillation ventriculaire. Environ 3 à 5% des personnes sont sauvées sans séquelle neurologique. La survie à un arrêt cardiaque extrahospitalier dépend d'une prise en charge précoce et rapide de la victime. Les premiers témoins actifs réalisant la réanimation cardio-pulmonaire combinée à l'utilisation d'un défibrillateur sont ainsi un maillon important pour sauver la victime.Notre objectif principal est d'améliorer le taux de survie à un arrêt cardiaque extrahospitalier. Une première voie d'investigation est de proposer un fonctionnement de défibrillateur optimal combinant judicieusement les différents modules de détection embarqués (détection de fibrillation ventriculaire, détection de massage cardiaque, détection d'interférences électromagnétiques) afin de réduire les temps de pause péri-choc durant la procédure de réanimation. En effet, pendant ces temps, dits « hands-off » en anglais, aucun geste de secours n'est administré au patient qui, lui, voit d'une part sa pression de perfusion coronarienne chuter, d'autre part la probabilité de succès des tentatives de défibrillation décroître. C'est pourquoi une deuxième voie d'investigation porte sur la prédiction de l'efficacité de choc. Dans ce contexte, nous proposons de combiner des paramètres de l'électrocardiogramme dans les domaines temporel, fréquentiel et de la dynamique non-linéaire. Un classifieur bayésien utilisant le modèle de mélange de gaussiennes a été appliqué aux vecteurs de paramètres les plus prédicteurs de l'issue de la défibrillation et l'algorithme Espérance-Maximisation a permis de mener à bien la procédure d'apprentissage des paramètres du modèle probabiliste représentant les distributions conditionnelles de classe.L'ensemble des méthodes proposées a permis d'atteindre des résultats prometteurs pour à la fois réduire les temps de pause péri-choc et prédire l'efficacité de défibrillation et ainsi espérer améliorer le taux de survie à un arrêt cardiaque / The cardiac arrest is mainly of cardiovascular etiology. In the actual context of out-of-hospital cardiac arrests, 20 to 25% of the victims present a ventricular fibrillation. About 3 to 5% of the victims are saved without neurological damage. The chance of surviving a cardiac arrest outside an hospital depends on the early and fast support of the victim. The first active witnesses performing cardiopulmonary resuscitation combined with the use of a defibrillator are an important link to save the victim.Our main objective is to improve survival rate in out-of-hospital cardiac arrest cases. A first way of investigation is to propose an optimal functioning of defibrillator combining wisely the different processes of detection embedded (ventricular fibrillation detection, chest compressions detection, electromagnetic interferences detection), in order to reduce the peri-shock pauses during the resuscitation procedure. In fact, during these pauses, known as "hands-off" pauses, no emergency action is provided to the patient, what is correlated to a drop of the coronary pression, but also to a decrease of the chance of successful defibrillation. That is the reason why, a second way of investigation is based on the prediction of the efficiency of defibrillation. In this context, we propose to use a combination of parameters extracted from electrocardiogram in time, frequency and non-linear dynamics domains. A bayesian classifier using a gaussian mixture model was applied to the vectors of parameters, which are the most predictor of the defibrillation outcome and the algorithm Expectation-Maximization allowed to learn the parameters of the probabilistic model representing the class conditional distributions.All of the proposed methods allowed to reach promising results for both reducing the peri-shock pauses and predicting the efficiency of defibrillation in hope to improve the survival rate in cardiac arrest cases
225

Simulation du canal optique sans fil. Application aux télécommunications optique sans fil / Optical wireless channel simulation. Applications to optical wireless communications

Behlouli, Abdeslam 07 December 2016 (has links)
Le contexte de cette thèse est celui des communications optiques sans fil pour des applications en environnements indoor. Pour discuter des performances d'une liaison optique sans fil, il est nécessaire d'établir une étude caractéristique du comportement du canal de propagation. Cette étude passe par l'étape de la mesure ou de l'estimation par la simulation de la réponse impulsionnelle. Après avoir décrit la composition d'une liaison et passé en revue les méthodes de simulation existantes, nous présentons nos algorithmes de simulation dans des environnements réalistes, en nous intéressant à leurs performances en termes de précision et de temps de calcul. Ces méthodes sont basées sur la résolution des équations de transport de la lumière par du lancer de rayons associées aux méthodes d'intégration stochastique de Monte Carlo. La version classique de ces méthodes est à la base de trois algorithmes de simulations proposés. En utilisant une optimisation par des chaînes de Markov, nous présentons ensuite deux autres algorithmes. Un bilan des performances de ces algorithmes est établi dans des scénarios mono et multi-antennes. Finalement, nous appliquons nos algorithmes pour caractériser l'impact de l'environnement de simulation sur les performances d'une liaison de communication par lumière visible, à savoir les modèles d'émetteurs, les matériaux des surfaces, l'obstruction du corps de l'utilisateur et sa mobilité, et la géométrie de la scène de simulation. / The context of this PhD thesis falls within the scope of optical wireless communications for applications in indoor environments. To discuss the performance of an optical wireless link, it is necessary to establish a characteristic study of the behavior of the optical wave propagation channel. This study can be realized by measurement or by the simulation of the channel impulse response. After describing the composition of an optical wireless link and reviewing existing simulation methods, we present our new simulation algorithms channel in realistic environments by focusing on their performances in terms of accuracy and their complexity in terms of computation time. These methods are based on solving the light transport equations by ray-tracing techniques associated with stochastic Monte Carlo integration methods. The classical version of these methods is the basis of three proposed simulation algorithms. By applying an optimization using Markov Chain, we present two new algorithms. A performance assessment of our simulation algorithms is established in mono and multi-antenna scenarios of our simulation algorithms. Finally, we present the application of these algorithms for characterizing the impact of the simulation environment on the performances of a visible light communication link. We particularly focus on the transmitter models, surface coating materials, obstruction of the user's body and its mobility, and the geometry of the simulation scene.
226

Distributed Coding for Wireless Cooperative Networks. / Codage distribué pour les réseaux coopératifs sans fil

Hatefi, Atoosa 25 October 2012 (has links)
Cette thèse est consacrée à l'étude théorique et à la conception pratique de schémas de codage conjoint réseau/canal adaptés à différents scénarii de communications dans les réseaux sans fil. Contrairement aux hypothèses conventionnelles retenues dans la littérature (accès multiple orthogonal, absence d'erreurs sur certains liens), les caractéristiques de diffusion et de superposition des signaux propres au canal radio et la présence d'évanouissements lents et de bruit sur tous les liens sont prises en compte dans la formulation du problème et exploitées. Différentes stratégies de coopération au niveau du ou des relais sont examinées et comparées. Le point commun entre toutes ces stratégies est que le système doit fonctionner même en absence de coopération. Seuls le ou les relais et la destination sont informés d'une coopération. Ni les sources, ni le ou les relais ne connaissent l'état du canal à l'émission.
Le premier volet de la thèse porte sur le canal à accès multiple avec relais unique (slow fading MARC). Le problème du codage et décodage conjoint canal/réseau (JNCC/JNCD) est étudié sur un plan théorique et pratique. Différentes hypothèses au niveau de l'accès multiple (semi-orthogonal et non-orthogonal) et différents modes de fonctionnement du relais (half-duplex et full-duplex) sont envisagés. Une nouvelle stratégie de coopération adaptative (SDF pour selective decode and forward) est définie dans laquelle le relais calcule et retransmet une fonction déterministe des messages de sources qu'il a pu décoder sans erreur. Le ré-encodage, défini sur un corps fini (corps binaire), est également conçu de manière à assurer que la performance finale au niveau de la destination atteint bien un ordre de diversité 2.
Le modèle de canal MARC est par la suite étendu à plusieurs relais (slow fading MAMRC). Une analyse théorique est conduite et des nouveaux schémas JNCC/JNCD permettant de s'approcher des limites théoriques sont décrits. Afin d'assurer la diversité pleine, nous proposons de combiner un codage canal binaire et un codage réseau non-binaire.
Pour les deux types de canaux, nous montrons que l'interférence naturellement induite par la diffusion des signaux dans un environnement sans fil, n'est pas un inconvénient mais bien un avantage dès lors qu'on est en mesure de la traiter via des techniques de codage et de décodage sophistiquées (turbo codes et leur décodage, turbo détection). Les gains en termes de capacité (rapportée à une certaine probabilité de coupure) obtenus avec un accès multiple semi-orthogonal ou non-orthogonal sont substantiels comparés à un accès multiple orthogonal (référence).
Dans la dernière partie de la thèse, la stratégie de coopération SDF est comparée à deux autres stratégies de coopération s'appuyant sur un procédé de décodage-et-retransmission "souple" (sans prise de décisions intermédiaires) : l'une basée sur les rapports logarithmiques de probabilité a posteriori sur les bits codés et l'autre basée sur l'estimation de l'erreur quadratique moyenne (MSE). Nous vérifions que la stratégie de coopération SDF fonctionne bien dans la plupart des configurations, les stratégies de coopération souples n'améliorant légèrement les performances que dans certains cas extrêmes. / With the rapid growth of wireless technologies, devices and mobile applications, the quest of high throughput and ubiquitous connectivity in wireless communications increases rapidly as well. Relaying is undoubtedly a key concept to provide coverage extension and capacity increase in wireless networks. Network coding, which allows the intermediate nodes to share their computation capabilities in addition to their resource and their power, has grabbed a significant research attention since its inception in information theory. It has become an attractive candidate to bring promising performance improvement, especially in terms of throughput, in relay-based cellular networks. Substantial research efforts are currently focused on theoretical analysis, implementation and evaluation of network coding from a physical layer perspective. The question is, what is the most efficient and practical way to use network coding in wireless relay-based networks, and whether it is beneficial to exploit the broadcast and multiple-access properties of the wireless medium to perform network coding. It is in such a context, that this thesis proceeds. In the first part of the thesis, the problem of Joint Network-Channel Coding (JNCC) for a Multiple Access Relay Channel (MARC) is investigated in the presence of multiple access interferences and for both of the relay operating modes, namely, half-duplex and full-duplex. To this end, three new classes of MARC, referred to as Half-Duplex Semi-Orthogonal MARC (HD-SOMARC), Half-Duplex Non-Orthogonal MARC (HD-NOMARC), and Full-Duplex Non-Orthogonal MARC (FD-NOMARC) have been introduced and studied. The relaying function in all of the classes is based on a Selective Decode-and-Forward (SDF) strategy, which is individually implemented for each source, i.e, the relay forwards only a deterministic function of the error-free decoded messages. For each class, an information-theoretic analysis is conducted, and practical coding and decoding techniques are proposed. The proposed coding schemes, perform very close to the outage limit for both cases of HD-SOMARC and HD-NOMARC. Besides, in the case of HD-NOMARC, the optimal allocation of the transmission time to the relay is considered. It is also verified that exploiting multiple access interferences, either partially or totally, results in considerable gains for MARC compared to the existing interference-avoiding structures, even in the case of single receive antenna. In the second part of the thesis, the network model is extended by considering multiple relays which help multiple sources to communicate with a destination. A new class of Multiple Access Multiple Relay Channel (MAMRC), referred to as Half-Duplex Semi-Orthogonal MAMRC (HD-SOMAMRC) is then proposed and analyzed from both information theoretic and code design perspective. New practical JNCC schemes are proposed, in which binary channel coding and non binary network coding are combined, and they are shown to perform very close to the outage limit. Moreover, the optimal allocation of the transmission time to the sources and relays is considered. Finally, in the third part of the thesis, different ways of implementing cooperation, including practical relaying protocols are investigated for the half-duplex MARC with semi-orthogonal transmission protocol and in the case of JNCC. The hard SDF approach is compared with two Soft Decode and Forward (SoDF) relaying functions: one based on log a posterior probability ratios (LAPPRs) and the other based on Mean Square Error (MSE) estimate. It is then shown that SDF works well in most of the configurations and just in some extreme cases, soft relaying functions (based on LAPPR or MSE estimate) can slightly outperform the hard selective one.
227

Approche stochastique de l'analyse du « residual moveout » pour la quantification de l'incertitude dans l'imagerie sismique / A stochastic approach to uncertainty quantification in residual moveout analysis

Tamatoro, Johng-Ay 09 April 2014 (has links)
Le principale objectif de l'imagerie sismique pétrolière telle qu'elle est réalisée de nos jours est de fournir une image représentative des quelques premiers kilomètres du sous-sol. Cette image permettra la localisation des structures géologiques formant les réservoirs où sont piégées les ressources en hydrocarbures. Pour pouvoir caractériser ces réservoirs et permettre la production des hydrocarbures, le géophysicien utilise la migration-profondeur qui est un outil d'imagerie sismique qui sert à convertir des données-temps enregistrées lors des campagnes d'acquisition sismique en des images-profondeur qui seront exploitées par l'ingénieur-réservoir avec l'aide de l'interprète sismique et du géologue. Lors de la migration profondeur, les évènements sismiques (réflecteurs,…) sont replacés à leurs positions spatiales correctes. Une migration-profondeur pertinente requiert une évaluation précise modèle de vitesse. La précision du modèle de vitesse utilisé pour une migration est jugée au travers l'alignement horizontal des évènements présents sur les Common Image Gather (CIG). Les évènements non horizontaux (Residual Move Out) présents sur les CIG sont dus au ratio du modèle de vitesse de migration par la vitesse effective du milieu. L'analyse du Residual Move Out (RMO) a pour but d'évaluer ce ratio pour juger de la pertinence du modèle de vitesse et permettre sa mise à jour. Les CIG qui servent de données pour l'analyse du RMO sont solutions de problèmes inverses mal posés, et sont corrompues par du bruit. Une analyse de l'incertitude s'avère nécessaire pour améliorer l'évaluation des résultats obtenus. Le manque d'outils d'analyse de l'incertitude dans l'analyse du RMO en fait sa faiblesse. L'analyse et la quantification de l'incertitude pourrait aider à la prise de décisions qui auront des impacts socio-économiques importantes. Ce travail de thèse a pour but de contribuer à l'analyse et à la quantification de l'incertitude dans l'analyse des paramètres calculés pendant le traitement des données sismiques et particulièrement dans l'analyse du RMO. Pour atteindre ces objectifs plusieurs étapes ont été nécessaires. Elles sont entre autres :- L’appropriation des différents concepts géophysiques nécessaires à la compréhension du problème (organisation des données de sismique réflexion, outils mathématiques et méthodologiques utilisés);- Présentations des méthodes et outils pour l'analyse classique du RMO;- Interprétation statistique de l’analyse classique;- Proposition d’une approche stochastique;Cette approche stochastique consiste en un modèle statistique hiérarchique dont les paramètres sont :- la variance traduisant le niveau de bruit dans les données estimée par une méthode basée sur les ondelettes, - une fonction qui traduit la cohérence des amplitudes le long des évènements estimée par des méthodes de lissages de données,- le ratio qui est considéré comme une variable aléatoire et non comme un paramètre fixe inconnue comme c'est le cas dans l'approche classique de l'analyse du RMO. Il est estimé par des méthodes de simulations de Monte Carlo par Chaîne de Markov.L'approche proposée dans cette thèse permet d'obtenir autant de cartes de valeurs du paramètre qu'on le désire par le biais des quantiles. La méthodologie proposée est validée par l'application à des données synthétiques et à des données réelles. Une étude de sensibilité de l'estimation du paramètre a été réalisée. L'utilisation de l'incertitude de ce paramètre pour quantifier l'incertitude des positions spatiales des réflecteurs est présentée dans ce travail de thèse. / The main goal of the seismic imaging for oil exploration and production as it is done nowadays is to provide an image of the first kilometers of the subsurface to allow the localization and an accurate estimation of hydrocarbon resources. The reservoirs where these hydrocarbons are trapped are structures which have a more or less complex geology. To characterize these reservoirs and allow the production of hydrocarbons, the geophysicist uses the depth migration which is a seismic imaging tool which serves to convert time data recorded during seismic surveys into depth images which will be exploited by the reservoir engineer with the help of the seismic interpreter and the geologist. During the depth migration, seismic events (reflectors, diffractions, faults …) are moved to their correct locations in space. Relevant depth migration requires an accurate knowledge of vertical and horizontal seismic velocity variations (velocity model). Usually the so-called Common-Image-Gathers (CIGs) serve as a tool to verify correctness of the velocity model. Often the CIGs are computed in the surface offset (distance between shot point and receiver) domain and their flatness serve as criteria of the velocity model correctness. Residual moveout (RMO) of the events on CIGs due to the ratio of migration velocity model and effective velocity model indicates incorrectness of the velocity model and is used for the velocity model updating. The post-stacked images forming the CIGs which are used as data for the RMO analysis are the results of an inverse problem and are corrupt by noises. An uncertainty analysis is necessary to improve evaluation of the results. Dealing with the uncertainty is a major issue, which supposes to help in decisions that have important social and commercial implications. The goal of this thesis is to contribute to the uncertainty analysis and its quantification in the analysis of various parameters computed during the seismic processing and particularly in RMO analysis. To reach these goals several stages were necessary. We began by appropriating the various geophysical concepts necessary for the understanding of:- the organization of the seismic data ;- the various processing ;- the various mathematical and methodological tools which are used (chapters 2 and 3). In the chapter 4, we present different tools used for the conventional RMO analysis. In the fifth one, we give a statistical interpretation of the conventional RMO analysis and we propose a stochastic approach of this analysis. This approach consists in hierarchical statistical model where the parameters are: - the variance which express the noise level in the data ;- a functional parameter which express coherency of the amplitudes along events ; - the ratio which is assume to be a random variable and not an unknown fixed parameter as it is the case in conventional approach. The adjustment of data to the model done by using smoothing methods of data, combined with the using of the wavelets for the estimation of allow to compute the posterior distribution of given the data by the empirical Bayes methods. An estimation of the parameter is obtained by using Markov Chain Monte Carlo simulations of its posterior distribution. The various quantiles of these simulations provide different estimations of . The proposed methodology is validated in the sixth chapter by its application on synthetic data and real data. A sensitivity analysis of the estimation of the parameter was done. The using of the uncertainty of this parameter to quantify the uncertainty of the spatial positions of reflectors is presented in this thesis.
228

Méthodes accélérées de Monte-Carlo pour la simulation d'événements rares. Applications aux Réseaux de Petri / Fast Monte Carlo methods for rare event simulation. Applications to Petri nets

Estecahandy, Maïder 18 April 2016 (has links)
Les études de Sûreté de Fonctionnement (SdF) sur les barrières instrumentées de sécurité représentent un enjeu important dans de nombreux domaines industriels. Afin de pouvoir réaliser ce type d'études, TOTAL développe depuis les années 80 le logiciel GRIF. Pour prendre en compte la complexité croissante du contexte opératoire de ses équipements de sécurité, TOTAL est de plus en plus fréquemment amené à utiliser le moteur de calcul MOCA-RP du package Simulation. MOCA-RP permet d'analyser grâce à la simulation de Monte-Carlo (MC) les performances d'équipements complexes modélisés à l'aide de Réseaux de Petri (RP). Néanmoins, obtenir des estimateurs précis avec MC sur des équipements très fiables, tels que l'indisponibilité, revient à faire de la simulation d'événements rares, ce qui peut s'avérer être coûteux en temps de calcul. Les méthodes standard d'accélération de la simulation de Monte-Carlo, initialement développées pour répondre à cette problématique, ne semblent pas adaptées à notre contexte. La majorité d'entre elles ont été définies pour améliorer l'estimation de la défiabilité et/ou pour les processus de Markov. Par conséquent, le travail accompli dans cette thèse se rapporte au développement de méthodes d'accélération de MC adaptées à la problématique des études de sécurité se modélisant en RP et estimant notamment l'indisponibilité. D'une part, nous proposons l'Extension de la Méthode de Conditionnement Temporel visant à accélérer la défaillance individuelle des composants. D'autre part, la méthode de Dissociation ainsi que la méthode de ``Truncated Fixed Effort'' ont été introduites pour accroitre l'occurrence de leurs défaillances simultanées. Ensuite, nous combinons la première technique avec les deux autres, et nous les associons à la méthode de Quasi-Monte-Carlo randomisée. Au travers de diverses études de sensibilité et expériences numériques, nous évaluons leur performance, et observons une amélioration significative des résultats par rapport à MC. Par ailleurs, nous discutons d'un sujet peu familier à la SdF, à savoir le choix de la méthode à utiliser pour déterminer les intervalles de confiance dans le cas de la simulation d'événements rares. Enfin, nous illustrons la faisabilité et le potentiel de nos méthodes sur la base d'une application à un cas industriel. / The dependability analysis of safety instrumented systems is an important industrial concern. To be able to carry out such safety studies, TOTAL develops since the eighties the dependability software GRIF. To take into account the increasing complexity of the operating context of its safety equipment, TOTAL is more frequently led to use the engine MOCA-RP of the GRIF Simulation package. Indeed, MOCA-RP allows to estimate quantities associated with complex aging systems modeled in Petri nets thanks to the standard Monte Carlo (MC) simulation. Nevertheless, deriving accurate estimators, such as the system unavailability, on very reliable systems involves rare event simulation, which requires very long computing times with MC. In order to address this issue, the common fast Monte Carlo methods do not seem to be appropriate. Many of them are originally defined to improve only the estimate of the unreliability and/or well-suited for Markovian processes. Therefore, the work accomplished in this thesis pertains to the development of acceleration methods adapted to the problematic of performing safety studies modeled in Petri nets and estimating in particular the unavailability. More specifically, we propose the Extension of the "Méthode de Conditionnement Temporel" to accelerate the individual failure of the components, and we introduce the Dissociation Method as well as the Truncated Fixed Effort Method to increase the occurrence of their simultaneous failures. Then, we combine the first technique with the two other ones, and we also associate them with the Randomized Quasi-Monte Carlo method. Through different sensitivities studies and benchmark experiments, we assess the performance of the acceleration methods and observe a significant improvement of the results compared with MC. Furthermore, we discuss the choice of the confidence interval method to be used when considering rare event simulation, which is an unfamiliar topic in the field of dependability. Last, an application to an industrial case permits the illustration of the potential of our solution methodology.
229

Sections efficaces neutroniques via la méthode de substitution

Boutoux, Guillaume 25 November 2011 (has links) (PDF)
Les sections efficaces neutroniques des noyaux de courte durée de vie sont des données cruciales pour la physique fondamentale et appliquée dans des domaines tels que la physique des réacteurs ou l'astrophysique nucléaire. En général, l'extrême radioactivité de ces noyaux ne nous permet pas de procéder à des mesures induites par neutrons. Cependant, il existe une méthode de substitution (" surrogate " dans la littérature) qui permet de déterminer ces sections efficaces neutroniques par l'intermédiaire de réactions de transfert ou de réactions de diffusion inélastique. Son intérêt principal est de pouvoir utiliser des cibles moins radioactives et ainsi d'accéder à des sections efficaces neutroniques qui ne pourraient pas être mesurées directement. La méthode est basée sur l'hypothèse de formation d'un noyau composé et sur le fait que la désexcitation ne dépend essentiellement que de l'énergie d'excitation et du spin et parité de l'état composé peuplé. Toutefois, les distributions de moments angulaires et parités peuplés dans des réactions de transfert et celles induites par neutrons sont susceptibles d'être différentes. Ce travail fait l'état de l'art sur la méthode substitution et sa validité. En général, la méthode de substitution fonctionne très bien pour extraire des sections efficaces de fission. Par contre, la méthode de substitution dédiée à la capture radiative est mise à mal par la comparaison aux réactions induites par neutrons. Nous avons réalisé une expérience afin de déterminer les probabilités de désexcitation gamma du 176Lu et du 173Yb à partir des réactions de substitution 174Yb(3He,p)176Lu* et 174Yb(3He,alpha)173Yb*, respectivement, et nous les avons comparées avec les probabilités de capture radiative correspondantes aux réactions 175Lu(n,gamma) et 172Yb(n,gamma) qui sont bien connues. Cette expérience a permis de comprendre pourquoi, dans le cas de la désexcitation gamma, la méthode de substitution donne des écarts importants par rapport à la réaction neutronique correspondante. Ce travail dans la région de terres rares a permis d'évaluer dans quelle mesure la méthode de substitution peut s'appliquer pour extraire des probabilités de capture dans la région des actinides. Des expériences précédentes sur la fission ont aussi pu être réinterprétées. Ce travail apporte donc un éclairage nouveau sur la méthode de substitution.
230

Voyage au coeur des EDSRs du second ordre et autres problèmes contemporains de mathématiques financières.

Possamaï, Dylan 12 December 2011 (has links) (PDF)
Cette thèse présente deux principaux sujets de recherche indépendants, le dernier étant décliné sous la forme de deux problèmes distincts. Dans toute la première partie de la thèse, nous nous intéressons à la notion d'équations différentielles stochastiques rétrogrades du second ordre (dans la suite 2EDSR), introduite tout d'abord par Cheredito, Soner, Touzi et Victoir puis reformulée récemment par Soner, Touzi et Zhang. Nous prouvons dans un premier temps une extension de leurs résultats d'existence et d'unicité lorsque le générateur considéré est seulement continu et à croissance linéaire. Puis, nous poursuivons notre étude par une nouvelle extension au cas d'un générateur quadratique. Ces résultats théoriques nous permettent alors de résoudre un problème de maximisation d'utilité pour un investisseur dans un marché incomplet, à la fois car des contraintes sont imposées sur ses stratégies d'investissement, et parce que la volatilité du marché est supposée être inconnue. Nous prouvons dans notre cadre l'existence de stratégies optimales, caractérisons la fonction valeur du problème grâce à une EDSR du second ordre et résolvons explicitement certains exemples qui nous permettent de mettre en exergue les modifications induites par l'ajout de l'incertitude de volatilité par rapport au cadre habituel. Nous terminons cette première partie en introduisant la notion d'EDSR du second ordre avec réflexion sur un obstacle. Nous prouvons l'existence et l'unicité des solutions de telles équations, et fournissons une application possible au problème de courverture d'options Américaines dans un marché à volatilité incertaine. Le premier chapitre de la seconde partie de cette thèse traite d'un problème de pricing d'options dans un modèle où la liquidité du marché est prise en compte. Nous fournissons des développements asymptotiques de ces prix au voisinage de liquidité infinie et mettons en lumière un phénomène de transition de phase dépendant de la régularité du payoff des options considérées. Quelques résultats numériques sont également proposés. Enfin, nous terminons cette thèse par l'étude d'un problème Principal/Agent dans un cadre d'aléa moral. Une banque (qui joue le rôle de l'agent) possède un certain nombre de prêts dont elle est prête à échanger les intérêts contre des flux de capitaux. La banque peut influencer les probabilités de défaut de ces emprunts en exerçant ou non une activité de surveillance coûteuse. Ces choix de la banque ne sont connus que d'elle seule. Des investisseurs (qui jouent le rôle de principal) souhaitent mettre en place des contrats qui maximisent leur utilité tout en incitant implicitement la banque à exercer une activité de surveillance constante. Nous résolvons ce problème de contrôle optimal explicitement, décrivons le contrat optimal associé ainsi que ses implications économiques et fournissons quelques simulations numériques.

Page generated in 0.085 seconds