• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1061

Evitement de conflits aériens par une régulation subliminale en vitesse : modélisation & résolution via le contrôle optimal / Velocity-based aircraft conflict avoidance through optimal control model and solution approaches

Cellier, Loïc 29 September 2015 (has links)
À travers une approche de contrôle optimal, cette thèse de doctorat propose une étude des modèles et des techniques de résolution dans un domaine d'application propre à la gestion du trafic aérien. Motivés par la croissance des flux aériens d'une part, et les développements en théorie du contrôle optimal d'autre part, ces travaux portent sur l'analyse du problème d'évitement de conflits aériens. Cette étude permet le développement de nouvelles approches et algorithmes en vue d'aider les contrôleurs aériens dans leur tâche. Ainsi, dans le cadre du trafic aérien, afin de préserver des distances minimales de sécurité entre avions, lors de phases tactiques et de configurations des vols en-route, notre recherche se focalise sur une stratégie de régulation subliminale en vitesse (variations très réduites), pour assurer la séparation entre avions, tout en conservant leur trajectoire prédéfinie. D'une part, une méthode de résolution numérique en contrôle optimal telle que la méthode directe de tir, impliquant une discrétisation totale ou partielle du problème, transforme le problème initial en un problème en programmation non linéaire de grande taille. Ce type de méthodes peut générer des problèmes d'optimisation de grande taille numériquement di_ciles à résoudre. Suivant le nombre de variables du problème, elles peuvent s'avérer trop coûteuse en termes de temps de calculs. D'autre part, les contraintes sur les variables d'états du problème posent des di_cultés de résolution, par exemple, pour l'usage d'une méthode numérique indirecte de tir. Développant les informations caractéristiques des conflits aériens, une détection et une détermination a priori des zones de conflits permettent alors la décomposition du problème présenté de contrôle optimal en sous-problèmes plus aisés à résoudre. La résolution des sous-problèmes hors-zones peut être abordée en utilisant les conditions du principe du maximum de Pontryagin, ce qui en permet une résolution e_cace. Une combinaison de méthodes numériques directes de tir et d'application des conditions du principe du maximum de Pontryagin est proposée, et des implémentations numériques valident ce type d'approche. / The purpose of this doctoral thesis is to study models and solution techniques based on optimal control approaches to address air tra_c management problems. Motivated by the growth of air tra_c volume, and by the advances in optimal control theory, this research works focus on analysing aircraft conflict avoidance problem. This study allows development of new approaches and algorithms to help air tra_c controllers. In the framework of air tra_c management, to ensure the minimum safety distances between aircraft, in tactical phases and en-route flight configurations, this thesis focusses on a subliminal velocity regulation strategy to perform the separation, while preserving the aircraft predefined trajectories. A numerical optimal control solution approach as the direct shooting method, wherein involves a total or partial discretization of the problem, transforms the initial problem into a large scale nonlinear programming problem. This kind of methods could generate large-size optimization problems which are numerically di_cult to solve. Depending on the number of variables which involved, this approaches could be too expensive in terms of computation time. Moreover, the state-variables constraints of the problem lead to numerical di_culties, e.g., considering the indirect numerical shooting method. Tailored on aircraft conflict avoidance problems, a detection and a determination of a priori conflict zones allow the decomposition of the optimal control problem into sub-problems, easier to solve than the original one. Solving the o_-zones sub-problems can be addressed using the Pontryagin maximum principle, which allows in this case directly the solution. A combination of direct numerical shooting method and application of conditions of Pontryagin's maximum principle is proposed, and numerical experiments validate this approach.
1062

Le problème de Dirichlet pour les équations de Monge-Ampère complexes / The dirichlet problem for complex Monge-Ampère equations

Charabati, Mohamad 14 January 2016 (has links)
Cette thèse est consacrée à l'étude de la régularité des solutions des équations de Monge-Ampère complexes ainsi que des équations hessiennes complexes dans un domaine borné de Cn. Dans le premier chapitre, on donne des rappels sur la théorie du pluripotentiel. Dans le deuxième chapitre, on étudie le module de continuité des solutions du problème de Dirichlet pour les équations de Monge-Ampère lorsque le second membre est une mesure à densité continue par rapport à la mesure de Lebesgue dans un domaine strictement hyperconvexe lipschitzien. Dans le troisième chapitre, on prouve la continuité hölderienne des solutions de ce problème pour certaines mesures générales. Dans le quatrième chapitre, on considère le problème de Dirichlet pour les équations hessiennes complexes plus générales où le second membre dépend de la fonction inconnue. On donne une estimation précise du module de continuité de la solution lorsque la densité est continue. De plus, si la densité est dans Lp , on démontre que la solution est Hölder-continue jusqu'au bord. / In this thesis we study the regularity of solutions to the Dirichlet problem for complex Monge-Ampère equations and also for complex Hessian equations in a bounded domain of Cn. In the first chapter, we give basic facts in pluripotential theory. In the second chapter, we study the modulus of continuity of solutions to the Dirichlet problem for complex Monge-Ampère equations when the right hand side is a measure with continuous density with respect to the Lebesgue measure in a bounded strongly hyperconvex Lipschitz domain. In the third chapter, we prove the Hölder continuity of solutions to this problem for some general measures. In the fourth chapter, we consider the Dirichlet problem for complex Hessian equations when the right hand side depends on the unknown function. We give a sharp estimate of the modulus of continuity of the solution as the density is continuous. Moreover, for the case of Lp-density we demonstrate that the solution is Hölder continuous up to the boundary.
1063

Allocation dynamique de portefeuille avec profil de gain asymétrique : risk management, incitations financières et benchmarking / Dynamic asset allocation with asymmetric payoffs : risk management, financial incentives, and benchmarking

Tergny, Guillaume 31 May 2011 (has links)
Les gérants de portefeuille pour compte de tiers sont souvent jugés par leur performance relative à celle d'un portefeuille benchmark. A ce titre, ils sont amenés très fréquemment à utiliser des modèles internes de "risk management" pour contrôler le risque de sous-performer le benchmark. Par ailleurs, ils sont de plus en plus nombreux à adopter une politique de rémunération incitative, en percevant une commission de sur-performance par rapport au benchmark. En effet, cette composante variable de leur rémunération leur permet d'augmenter leur revenu en cas de sur-performance sans contrepartie en cas de sous-performance. Or de telles pratiques ont fait récemment l'objet de nombreuses polémiques : la période récente de crise financière mondiale a fait apparaître certaines carences de plusieurs acteurs financiers en terme de contrôle de risque ainsi que des niveaux de prise de risque et de rémunération jugés excessifs. Cependant, l'étude des implications de ces pratiques reste un thème encore relativement peu exploré dans le cadre de la théorie classique des choix dynamiques de portefeuille en temps continu. Cette thèse analyse, dans ce cadre théorique, les implications de ces pratiques de "benchmarking" sur le comportement d'investissement de l'asset manager. La première partie étudie les propriétés de la stratégie dynamique optimale pour l'asset manager concerné par l'écart entre la rentabilité de son portefeuille et celle d'un benchmark fixe ou stochastique (sur ou sous-performance). Nous considérons plusieurs types d'asset managers, caractérisés par différentes fonctions d'utilité et qui sont soumis à différentes contraintes de risque de sous-performance. Nous montrons en particulier quel est le lien entre les problèmes d'investissement avec prise en compte de l'aversion à la sous-performance et avec contrainte explicite de "risk management". Dans la seconde partie, on s'intéresse à l'asset manager bénéficiant d'une rémunération incitative (frais de gestion variables, bonus de sur-performance ou commission sur encours additionnelle). On étudie, selon la forme de ses incitations financières et son degré d'aversion à la sous-performance, comment sa stratégie d'investissement s'écarte de celle de l'investisseur (ou celle de l'asset manager sans rémunération incitative). Nous montrons que le changement de comportement de l'asset manager peut se traduire soit par une réduction du risque pris par rapport à la stratégie sans incitation financière soit au contraire par une augmentation de celui-ci. Finalement, nous montrons en quoi la présence de contraintes de risque de sous-performance, imposées au gérant ou traduisant son aversion à la sous-performance, peut être bénéfique à l'investisseur donnant mandat de gestion financière. / It is common practice to judge third-party asset managers by looking at their financial performance relative to a benchmark portfolio. For this reason, they often choose to rely on internal risk-management models to control the downside risk of their portfolio relative to the benchmark. Moreover, an increasing number are adopting an incentive-based scheme, by charging an over-performance commission relative to the benchmark. Indeed, including this variable component in their global remuneration allows them to increase their revenue in case of over-performance without any penalty in the event of underperforming the benchmark. However, such practices have recently been at the heart of several polemics: the recent global financial crisis has uncovered some shortcomings in terms of internal risk control as well as excessive risk-taking and compensation levels of several financial players. Nevertheless, it appears that analyzing the impact of these practices remains a relatively new issue in continuous time-dynamic asset allocation theory. This thesis analyses in this theoretical framework the implications of these "benchmarking" practices on the asset manager's investment behavior. The first part examines the properties of the optimal dynamic strategy for the asset manager who is concerned by the difference of return between their portfolio and a fix or stochastic benchmark (over- or under-performance). Several asset manager types are considered, defined by different utility functions and different downside-risk constraints. In particular, the link between investment problems with aversion to under-performance and risk management constraints is shown. In the second part, the case of the asset manager who benefits from an incentive compensation scheme (variable asset management fees, over-performance bonuses or additional commission on asset under management), is investigated. We study how, depending on the choice of financial inventive structure and loss aversion level, the asset manager's strategy differs from that of the investor (or the strategy of the asset manager receiving no incentive remuneration). This study shows that the change in investment behavior of the asset manager can lead to both a reduction in the risk taken relative to the strategy without financial incentives or conversely an increase thereof. Finally we show that the existence of downside risk constraints, imposed on the asset manager or corresponding to their aversion for under-performance, can be beneficial to the investor mandating financial management.
1064

Recourse policies in the vehicle routing problem with stochastic demands

Salavati-Khoshghalb, Majid 09 1900 (has links)
No description available.
1065

Inversion des formes d'ondes électromagnétiques en 2D pour le géoradar : vers une imagerie multi-paramètre à partir des données de surface / 2D Full waveform inversion of ground penetrating radar data : towards multiparameter imaging from surface data

Lavoué, François 09 July 2014 (has links)
Les premiers mètres à centaines de mètres de la proche surface terrestre sont le siège de processus naturels dont la compréhension requiert une caractérisation fine de la subsurface, via une estimation quantifiée de ses paramètres. Le géoradar est un outil de prospection indirecte à même d'ausculter les milieux naturels et d'en estimer les propriétés électriques (permittivité et conductivité). Basé sur la propagation d'ondes électromagnétiques à des fréquences allant du MHz à quelques GHz, le géoradar est utilisé à des échelles et pour des applications variées concernant la géologie, l'hydrologie ou le génie civil. Dans ce travail de thèse, je propose une méthode d'imagerie quantitative des propriétés électriques sur des sections 2D de la subsurface, à partir de données radar acquises à la surface du sol. La technique mise en oeuvre est l'inversion des formes d'ondes, qui utilise l'intégralité du champ d'ondes enregistré.Dans une première partie, je présente les principes physiques et l'outil de modélisation numérique utilisés pour simuler la propagation des ondes électromagnétiques dans les milieux hétérogènes à deux dimensions. Pour cela, un algorithme de différences finies en domaine fréquentiel développé dans le cadre des ondes visco-acoustiques est adapté au problème électromagnétique 2D grâce à une analogie mathématique.Dans une deuxième partie, le problème d'imagerie est formulé sous la forme d'une optimisation multi-paramètre puis résolu avec l'algorithme de quasi-Newton L-BFGS. Cet algorithme permet d'estimer l'effet de la matrice Hessienne, dont le rôle est crucial pour la reconstruction de paramètres de différents types comme la permittivité et la conductivité. Des tests numériques montrent toutefois que l'algorithme reste sensible aux échelles utilisées pour définir ces paramètres. Dans un exemple synthétique représentatif de la proche surface, il est cependant possible d'obtenir des cartes 2D de permittivité et de conductivité à partir de données de surface, en faisant intervenir des facteurs d'échelle et de régularisation visant à contraindre les paramètres auxquelles l'inversion est la moins sensible. Ces facteurs peuvent être déterminés en analysant la qualité de l'ajustement aux données, sans hypothèse a priori autre que la contrainte de lissage introduite par la régularisation.Dans une dernière partie, la méthode d'imagerie est confrontée à deux jeux de données réelles. Dans un premier temps, l'examen de données expérimentales permet de tester la précision des simulations numériques vis-à-vis de mesures effectuées en environnement contrôlé. La connaissance des cibles à imager permet en outre de valider la méthodologie proposée pour l'imagerie multiparamètre dans des conditions très favorables puisqu'il est possible de calibrer le signal source et de considérer l'espace libre environnant les cibles comme modèle initial pour l'inversion.Dans un deuxième temps, j'envisage le traitement d'un jeu de données radar multi-offsets acquises au sein d'un massif calcaire. L'interprétation de ces données est rendue beaucoup plus difficile par la complexité du milieu géologique environnant, ainsi que par la méconnaissance des caractéristiques précises des antennes utilisées. L'application de la méthode d'inversion des formes d'ondes à ces données requiert donc une étape préliminaire impliquant une analyse de vitesse plus classique, basée sur les arrivées directes et réfléchies, et des simulations numériques dans des modèles hypothétiques à même d'expliquer une partie des données. L'estimation du signal source est effectuée à partir d'arrivées sélectionnées, simultanément avec des valeurs moyennes de conductivité et de hauteur d'antennes de façon à reproduire au mieux les amplitudes observées. Un premier essai d'inversion montre que l'algorithme est capable d'expliquer les données dans la gamme de fréquences considérée et de reconstruire une ébauche des principaux réflecteurs. / The quantitative characterization of the shallow subsurface of the Earth is a critical issue for many environmental and societal challenges. Ground penetrating radar (GPR) is a geophysical method based on the propagation of electromagnetic waves for the prospection of the near subsurface. With central frequencies between 10~MHz and a few GHz, GPR covers a wide range of applications in geology, hydrology and civil engineering. GPR data are sensitive to variations in the electrical properties of the medium which can be related, for instance, to its water content and bring valuable information on hydrological processes. In this work, I develop a quantitative imaging method for the reconstruction of 2D distributions of permittivity and conductivity from GPR data acquired from the ground surface. The method makes use of the full waveform inversion technique (FWI), originating from seismic exploration, which exploits the entire recorded radargrams and has been proved successful in crosshole GPR applications.In a first time, I present the numerical forward modelling used to simulate the propagation of electromagnetic waves in 2D heterogeneous media and generate the synthetic GPR data that are compared to the recorded radargrams in the inversion process. A frequency-domain finite-difference algorithm originally developed in the visco-acoustic approximation is adapted to the electromagnetic problem in 2D via an acoustic-electromagnetic mathematical analogy.In a second time, the inversion scheme is formulated as a fully multiparameter optimization problem which is solved with the quasi-Newton L-BFGS algorithm. In this formulation, the effect of an approximate inverse Hessian is expected to mitigate the trade-off between the impact of permittivity and conductivity on the data. However, numerical tests on a synthetic benchmark of the literature display a large sensitivity of the method with respect to parameter scaling, showing the limits of the L-BFGS approximation. On a realistic subsurface benchmark with surface-to-surface configuration, it has been shown possible to ally parameter scaling and regularization to reconstruct 2D images of permittivity and conductivity without a priori assumptions.Finally, the imaging method is confronted to two real data sets. The consideration of laboratory-controlled data validates the proposed workflow for multiparameter imaging, as well as the accuracy of the numerical forward solutions. The application to on-ground GPR data acquired in a limestone massif is more challenging and necessitates a thorough investigation involving classical processing techniques and forward simulations. Starting permittivity models are derived from the velocity analysis of the direct arrivals and of the reflected events. The estimation of the source signature is performed together with an evaluation of an average conductivity value and of the unknown antenna height. In spite of this procedure, synthetic data do not reproduce the observed amplitudes, suggesting an effect of the radiation pattern of the shielded antennae. In preliminary tests, the inversion succeeds in fitting the data in the considered frequency range and can reconstruct reflectors from a smooth starting model.
1066

Flow-shop with time delays, linear modeling and exact solution approaches / Flow-shop avec temps de transport, modélisation linéaire et approches de résolution exacte

Mkadem, Mohamed Amine 07 December 2017 (has links)
Dans le cadre de cette thèse, nous traitons le problème de flow-shop à deux machines avec temps de transport où l’objectif consiste à minimiser le temps de complétion maximal. Dans un premier temps, nous nous sommes intéressés à la modélisation de ce problème. Nous avons proposé plusieurs programmes linéaires en nombres entiers. En particulier, nous avons introduit une formulation linéaire basée sur une généralisation non triviale du modèle d’affectation pour le cas où les durées des opérations sur une même machine sont identiques. Dans un deuxième temps, nous avons élargi la portée de ces formulations mathématiques pour développer plusieurs bornes inférieures et un algorithme exact basé sur la méthode de coupe et branchement (Branch-and-Cut). En effet, un ensemble d’inégalités valides a été considéré afin d’améliorer la relaxation linéaire de ces programmes et d’accélérer leur convergence. Ces inégalités sont basées sur la proposition de nouvelles règles de dominance et l’identification de sous-instances faciles à résoudre. L’identification de ces sous-instances revient à déterminer les cliques maximales dans un graphe d’intervalles. En plus des inégalités valides, la méthode exacte proposée inclut la considération d’une méthode heuristique et d’une procédure visant à élaguer les nœuds. Enfin, nous avons proposé un algorithme par séparation et évaluation (Branch-and-Bound) pour lequel, nous avons introduit des règles de dominance et une méthode heuristique basée sur la recherche locale. Nos expérimentations montrent l’efficacité de nos approches qui dominent celles de la littérature. Ces expérimentations ont été conduites sur plusieurs classes d’instances qui incluent celles de la littérature, ainsi que des nouvelles classes d’instances où les algorithmes de la littérature se sont montrés peu efficaces. / In this thesis, we study the two-machine flow-shop problem with time delays in order to minimize the makespan. First, we propose a set of Mixed Integer Programming (MIP) formulations for the problem. In particular, we introduce a new compact mathematical formulation for the case where operations are identical per machine. The proposed mathematical formulations are then used to develop lower bounds and a branch-and-cut method. A set of valid inequalities is proposed in order to improve the linear relaxation of the MIPs. These inequalities are based on proposing new dominance rules and computing optimal solutions of polynomial-time-solvable sub-instances. These sub-instances are extracted by computing all maximal cliques on a particular Interval graph. In addition to the valid inequalities, the branch-and-cut method includes the consideration of a heuristic method and a node pruning procedure. Finally, we propose a branch-and-bound method. For which, we introduce a local search-based heuristic and dominance rules. Experiments were conducted on a variety of classes of instances including both literature and new proposed ones. These experiments show the efficiency of our approaches that outperform the leading methods published in the research literature.
1067

Développement d’un schéma aux volumes finis centré lagrangien pour la résolution 3D des équations de l’hydrodynamique et de l’hyperélasticité / Development of a 3D cell-centered Lagrangian scheme for the numerical modeling of the gas dynamics and hyperelasticity systems

Georges, Gabriel 19 September 2016 (has links)
La Physique des Hautes Densités d’Énergies (HEDP) est caractérisée par desécoulements multi-matériaux fortement compressibles. Le domaine contenant l’écoulementsubit de grandes variations de taille et est le siège d’ondes de chocs et dedétente intenses. La représentation Lagrangienne est bien adaptée à la descriptionde ce type d’écoulements. Elle permet en effet une très bonne description deschocs ainsi qu’un suivit naturel des interfaces multi-matériaux et des surfaces libres.En particulier, les schémas Volumes Finis centrés Lagrangiens GLACE (GodunovtypeLAgrangian scheme Conservative for total Energy) et EUCCLHYD (ExplicitUnstructured Cell-Centered Lagrangian HYDrodynamics) ont prouvé leur efficacitépour la modélisation des équations de la dynamique des gaz ainsi que de l’élastoplasticité.Le travail de cette thèse s’inscrit dans la continuité des travaux de Maireet Nkonga [JCP, 2009] pour la modélisation de l’hydrodynamique et des travauxde Kluth et Després [JCP, 2010] pour l’hyperelasticité. Plus précisément, cettethèse propose le développement de méthodes robustes et précises pour l’extension3D du schéma EUCCLHYD avec une extension d’ordre deux basée sur les méthodesMUSCL (Monotonic Upstream-centered Scheme for Conservation Laws) et GRP(Generalized Riemann Problem). Une attention particulière est portée sur la préservationdes symétries et la monotonie des solutions. La robustesse et la précision duschéma seront validées sur de nombreux cas tests Lagrangiens dont l’extension 3Dest particulièrement difficile. / High Energy Density Physics (HEDP) flows are multi-material flows characterizedby strong shock waves and large changes in the domain shape due to rarefactionwaves. Numerical schemes based on the Lagrangian formalism are good candidatesto model this kind of flows since the computational grid follows the fluid motion.This provides accurate results around the shocks as well as a natural tracking ofmulti-material interfaces and free-surfaces. In particular, cell-centered Finite VolumeLagrangian schemes such as GLACE (Godunov-type LAgrangian scheme Conservativefor total Energy) and EUCCLHYD (Explicit Unstructured Cell-CenteredLagrangian HYDrodynamics) provide good results on both the modeling of gas dynamicsand elastic-plastic equations. The work produced during this PhD thesisis in continuity with the work of Maire and Nkonga [JCP, 2009] for the hydrodynamicpart and the work of Kluth and Després [JCP, 2010] for the hyperelasticitypart. More precisely, the aim of this thesis is to develop robust and accurate methodsfor the 3D extension of the EUCCLHYD scheme with a second-order extensionbased on MUSCL (Monotonic Upstream-centered Scheme for Conservation Laws)and GRP (Generalized Riemann Problem) procedures. A particular care is taken onthe preservation of symmetries and the monotonicity of the solutions. The schemerobustness and accuracy are assessed on numerous Lagrangian test cases for whichthe 3D extensions are very challenging.
1068

Développement d'outils statistiques pour l'amélioration de dispositifs d'imagerie acoustique et micro-onde

Diong, Mouhamadou 09 December 2015 (has links)
L'un des enjeux majeurs pour les systèmes d'imagerie par diffraction acoustique et micro-onde, est l'amélioration des performances obtenues au moment de la reconstruction des objets étudiés. Cette amélioration peut s'effectuer par la recherche d'algorithmes d'imagerie plus performants d'une part et par la recherche d'une meilleure configuration de mesures d'autre part. La première approche (recherche d'algorithmes) permet d'améliorer le processus d'extraction de l'information présente dans un échantillon de mesures donné. Néanmoins, la qualité des résultats d'imagerie reste limitée par la quantité d'information initialement disponible. La seconde approche consiste à choisir la configuration de mesures de manière à augmenter la quantité d'information disponible dans les données. Pour cette approche, il est nécessaire de quantifier la quantité d'information dans les données. En théorie de l'estimation, ceci équivaut à quantifier la performance du système. Dans cette thèse, nous utilisons la Borne de Cramer Rao comme mesure de performance, car elle permet d'analyser la performance des systèmes de mesures sans être influencé par le choix de la méthode d'inversion utilisée. Deux analyses sont proposées dans ce manuscrit. La première consiste en l'évaluation de l'influence des facteurs expérimentaux sur la performance d'inversion. Cette analyse a été effectuée pour différents objets le tout sous une hypothèse de configuration bidimensionnelle. La seconde analyse consiste à comparer les performances de l'estimateur obtenu avec l'approximation de Born aux valeurs de la borne de Cramer Rao (BCR); l'objectif étant d'illustrer d'autres applications possibles de la BCR. / Improving the performance of diffraction based imaging systems constitutes a major issue in both acoustic and electromagnetic scattering. To solve this problem, two main approaches can be explored. The first one consists in improving the inversion algorithms used in diffraction based imaging. However, while this approach generally leads to a significant improvement of the performance of the imaging system, it remains limited by the initial amount of information available within the measurements. The second one consists in improving the measurement system in order to maximize the amount of information within the experimental data. This approach does require a quantitative mean of measuring the amount of information available. In estimation problems, the {appraisal of the} performance of the system is often used for that purpose. In this Ph.D. thesis, we use the Cramer Rao bound to assess the performance of the imaging system. In fact, this quantity has the advantage of providing an assessment which is independent from the inversion algorithm used. Two main analysis are discussed in this thesis. The first analysis explores the influence on the system's performance, of several experimental conditions such as the antennas positions, the radiation pattern of the source, the properties of the background medium, etc. Two classes of objects are considered: 2D homogeneous circular cylindrical objects and 2D cylindrical objects with defect. The second analysis studies the performance of an estimator based on Born approximation with the Cramer Rao Bound as reference. The aim of this second analysis is to showcase other possible applications for the Cramer Rao Bound.
1069

L’espérance comme expérience ontologique chez Gabriel Marcel / Hope as ontological experience for Gabriel Marcel

Adjobi, Vast-Amour Dingui 12 December 2017 (has links)
L'espérance se présente comme l'expérience d'un avenir qui n'a pas été encore vécu et qui se donne comme inobjectivable. Cette intuition a commandé la problématique de cette recherche, qui met au jour les conditions de possibilité d'une espérance véritable dans un monde – le nôtre – où elle ne trouve pas immédiatement sa place. Ce monde ''cassé'', comme l'appelle Gabriel Marcel, est sous l'emprise de la technique. C'est un monde où prime l'exigence du faire et où les questions existentielles sont réduites elles-mêmes à des ''problèmes'' qui doivent trouver leur ''solution'' comme n'importe quel problème relevant de l'ordre de l'avoir. Il y a, en ce sens, un ''problème de l'espérance ». Il se développe dans une philosophie qui s'émancipe de la foi et dont on trouve des illustrations notamment dans le probabilisme de Hume et dans le matérialisme de Bloch. Or Gabriel Marcel fait le pari, par la méthode dite de la ''réflexion seconde'', de placer l'espérance sous le sceau du ''mystère''. Il s'agit alors de comprendre que l'espérance, pensée sur le plan de l'être et non plus de l'avoir, relève d'une expérience qui est toujours en cours de formation, et qui ouvre le chemin que suit une personne que définissent sa capacité d'agir, ses relations avec les autres personnes et son aptitude à la responsabilité. Nous soutenons dans ce sens, avec l'appui de Ricœur, que l'identité du sujet de l'espérance est essentiellement intersubjective et ouverte, selon une exigence de fidélité créatrice.  Nous trouvons plus précisément dans le nous familial, comme l'appelle Marcel, la condition de possibilité d'une expérience concrète de l'espérance, comprise alors comme patience d'un présent éprouvant et confiance en un avenir incertain. Renvoyant dos à dos, pour ce faire, les conceptions essentialiste et constructiviste de la famille, nous appelons vœu créateur ce qui, au sein même de la famille, dont nous proposons une conception élargie, est jaillissement du nouveau et promesse de vie. Ainsi nous affirmons que l'espérance, pour invérifiable qu'elle soit, est, mais selon des formes authentiques ou inauthentiques. L'enjeu de ce travail, en reconnaissant cette différence au cœur même de l'espérance, est de comprendre comment celle-ci, plus que comme un ensemble de moyens, se présente fondamentalement comme une mise en route qui se reçoit d'un appel de ou à l'autre, et qui est constitutive de toute action vouée au temps. La présence de cet autre déborde toute tentative d'objectivation. Elle est le lieu intérieur où se vit in fine l'attente active qu'est l'espérance comme expérience ontologique. / Hope appears as the experience of a future which was not still lived yet and which is given as inobjectivable. This intuition has commanded the problematic of this research, which brings to light the conditions of possibility of a true hope in a world – ours – where it does not immediately find its place. This « broken » world, as Gabriel Marcel calls it, is under the influence of technic. It's a world in which prevail the need to do things, and also where existential questions are reduced to ''problems'' which must find their ''solution'' as any other problem come under the order of the possession. In this way, there is a ''problem of hope''. A philosophy is growing which emancipate itself from faith and which illustrations are found in particular in Hume's probabilism and Bloch's materialism. But Gabriel Marcel, by the method said about ''second reflection », bet to place hope under the seal of ''mystery''. It's all about understanding that hope, thought on the plan of ''the being'' and no more of ''the having'' is an experience still on training and which opens the way that follows a person defined by its ability to act, its relations to others and its aptitude to responsibility. In this sense, we support, with Ricoeur's support, that the subject identity of hope is essentially intersubjective and opened, according to a requirement of creative fidelity. We find more exactly in the « I and you familial» as Marcel calls it, the condition of possibility of a concrete experience of hope, understood as patience of a trying present and trust in an uncertain future. Referring back to back, the essentialist and constructivist conceptions of the family, we call creative vow, what within the family, of which we propose an enlarged conception is springing forth for the new and promise of life. So we assert that hope, however unverifiable as it may be, is, but according to authentic and inauthentic forms. The challenge of this work, recognizing this difference at the very heart of hope, is to understand how it, more than as a set of means, is fundamentally a start-up that is received from a call. From one to other, and which is constitutive of all action devoted to time. The presence of this other overflows any attempt at objectification. It is the inner place where the active expectation of hope as an ontological experience is lived.
1070

Contribution à l’étude des processus markoviens déterministes par morceaux : étude d’un cas-test de la sûreté de fonctionnement et problème d’arrêt optimal à horizon aléatoire

Gonzalez, Karen 03 December 2010 (has links)
Les Processus Markoviens Déterministes par Morceaux (PDMP) ont été introduits dans la littérature par M.H.A Davis comme une classe générale de modèles stochastiques. Les PDMP forment une famille de processus markoviens qui décrivent une trajectoire déterministe ponctuée par des sauts aléatoires. Dans une première partie, les PDMP sont utilisés pour calculer des probabilités d'événements redoutés pour un cas-test de la fiabilité dynamique (le réservoir chauffé) par deux méthodes numériques différentes : la première est basée sur la résolution du système différentieldécrivant l'évolution physique du réservoir et la seconde utilise le calcul de l'espérancede la fonctionnelle d'un PDMP par un système d'équations intégro-différentielles.Dans la seconde partie, nous proposons une méthode numérique pour approcher lafonction valeur du problème d'arrêt optimal pour un PDMP. Notre approche estbasée sur la quantification de la position après saut et le temps inter-sauts de lachaîne de Markov sous-jacente au PDMP, et la discréetisation en temps adaptée à latrajectoire du processus. Ceci nous permet d'obtenir une vitesse de convergence denotre schéma numérique et de calculer un temps d'arrêt ε-optimal. / Piecewise Deterministic Markov Processes (PDMP's) have been introduced inthe literature by M.H.A. Davis as a general class of stochastics models. PDMP's area family of Markov processes involving deterministic motion punctuated by randomjumps. In a first part, PDMP's are used to compute probabilities of top eventsfor a case-study of dynamic reliability (the heated tank system) with two di#erentmethods : the first one is based on the resolution of the differential system giving thephysical evolution of the tank and the second uses the computation of the functionalof a PDMP by a system of integro-differential equations. In the second part, wepropose a numerical method to approximate the value function for the optimalstopping problem of a PDMP. Our approach is based on quantization of the post-jump location and inter-arrival time of the Markov chain naturally embedded in thePDMP, and path-adapted time discretization grids. It allows us to derive boundsfor the convergence rate of the algorithm and to provide a computable ε-optimalstopping time.

Page generated in 0.0557 seconds