• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 106
  • 40
  • 6
  • Tagged with
  • 153
  • 46
  • 46
  • 35
  • 35
  • 34
  • 34
  • 34
  • 33
  • 33
  • 32
  • 26
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Analyse numérique de systèmes hyperboliques-dispersifs / Numerical analysis of hyperbolic-dispersive systems

Courtès, Clémentine 23 November 2017 (has links)
Le but de cette thèse est d’étudier certaines équations aux dérivées partielles hyperboliques-dispersives. Une part importante est consacrée à l’analyse numérique et plus particulièrement à la convergence de schémas aux différences finies pour l’équation de Korteweg-de Vries et les systèmes abcd de Boussinesq. L’étude numérique suit les étapes classiques de consistance et de stabilité. Nous transposons au niveau discret la propriété de stabilité fort-faible des lois de conservations hyperboliques. Nous déterminons l’ordre de convergence des schémas et le quantifions en fonction de la régularité de Sobolev de la donnée initiale. Si nécessaire, nous régularisons la donnée initiale afin de toujours assurer les estimations de consistance. Une étape d’optimisation est alors nécessaire entre cette régularisation et l’ordre de convergence du schéma. Une seconde partie est consacrée à l’existence d’ondes progressives pour l’équation de Korteweg de Vries-Kuramoto-Sivashinsky. Par des méthodes classiques de systèmes dynamiques : système augmenté, fonction de Lyapunov, intégrale de Melnikov, par exemple, nous démontrons l’existence d’ondes oscillantes de petite amplitude. / The aim of this thesis is to study some hyperbolic-dispersive partial differential equations. A significant part is devoted to the numerical analysis and more precisely to the convergence of some finite difference schemes for the Korteweg-de Vries equation and abcd systems of Boussinesq. The numerical study follows the classical steps of consistency and stability. The main idea is to transpose at the discrete level the weak-strong stability property for hyperbolic conservation laws. We determine the convergence rate and we quantify it according to the Sobolev regularity of the initial datum. If necessary, we regularize the initial datum for the consistency estimates to be always valid. An optimization step is thus necessary between this regularization and the convergence rate of the scheme. A second part is devoted to the existence of traveling waves for the Korteweg-de Vries-Kuramoto-Sivashinsky equation. By classical methods of dynamical systems : extended systems, Lyapunov function, Melnikov integral, for instance, we prove the existence of oscillating small amplitude traveling waves.
132

Adaptive Large Eddy Simulations based on discontinuous Galerkin methods / Simulation adaptative des grandes échelles d'écoulements turbulents fondée sur une méthode Galerkine discontinue

Naddei, Fabio 08 October 2019 (has links)
L'objectif principal de ce travail est d'améliorer la précision et l'efficacité des modèles LES au moyen des méthodes Galerkine discontinues (DG). Deux thématiques principales ont été étudiées: les stratégies d'adaptation spatiale et les modèles LES pour les méthodes d'ordre élevé.Concernant le premier thème, dans le cadre des méthodes DG la résolution spatiale peut être efficacement adaptée en modifiant localement soit le maillage (adaptation-h) soit le degré polynômial de la solution (adaptation-p). L'adaptation automatique de la résolution nécessite l'estimation des erreurs pour analyser la qualité de la solution locale et les exigences de résolution. L'efficacité de différentes stratégies de la littérature est comparée en effectuant des simulations h- et p-adaptatives.Sur la base de cette étude comparative, des algorithmes statiques et dynamiques p-adaptatifs pour la simulation des écoulements instationnaires sont ensuite développés et analysés. Les simulations numériques réalisées montrent que les algorithmes proposés peuvent réduire le coût de calcul des simulations des écoulements transitoires et statistiquement stationnaires.Un nouvel estimateur d'erreur est ensuite proposé. Il est local, car n'exige que des informations de l'élément et de ses voisins directs, et peut être calculé en cours de simulation pour un coût limité. Il est démontré que l'algorithme statique p-adaptatif basé sur cet estimateur d'erreur peut être utilisé pour améliorer la précision des simulations LES sur des écoulements turbulents statistiquement stationnaires.Concernant le second thème, une nouvelle méthode, consistante avec la discrétisation DG, est développée pour l'analyse a-priori des modèles DG-LES à partir des données DNS. Elle permet d'identifier le transfert d'énergie idéal entre les échelles résolues et non résolues. Cette méthode est appliquée à l'analyse de l'approche VMS (Variational Multiscale). Il est démontré que pour les résolutions fines, l'approche DG-VMS est capable de reproduire le transfert d'énergie idéal. Cependant, pour les résolutions grossières, typique de la LES à nombres de Reynolds élevés, un meilleur accord peut être obtenu en utilisant un modèle mixte Smagorinsky-VMS. / The main goal of this work is to improve the accuracy and computational efficiency of Large Eddy Simulations (LES) by means of discontinuous Galerkin (DG) methods. To this end, two main research topics have been investigated: resolution adaptation strategies and LES models for high-order methods.As regards the first topic, in the framework of DG methods the spatial resolution can be efficiently adapted by modifying either the local mesh size (h-adaptation) or the degree of the polynomial representation of the solution (p-adaptation).The automatic resolution adaptation requires the definition of an error estimation strategy to analyse the local solution quality and resolution requirements.The efficiency of several strategies derived from the literature are compared by performing p- and h-adaptive simulations. Based on this comparative study a suitable error indicator for the adaptive scale-resolving simulations is selected.Both static and dynamic p-adaptive algorithms for the simulation of unsteady flows are then developed and analysed. It is demonstrated by numerical simulations that the proposed algorithms can provide a reduction of the computational cost for the simulation of both transient and statistically steady flows.A novel error estimation strategy is then introduced. It is local, requiring only information from the element and direct neighbours, and can be computed at run-time with limited overhead. It is shown that the static p-adaptive algorithm based on this error estimator can be employed to improve the accuracy for LES of statistically steady turbulent flows.As regards the second topic, a novel framework consistent with the DG discretization is developed for the a-priori analysis of DG-LES models from DNS databases. It allows to identify the ideal energy transfer mechanism between resolved and unresolved scales.This approach is applied for the analysis of the DG Variational Multiscale (VMS) approach. It is shown that, for fine resolutions, the DG-VMS approach is able to replicate the ideal energy transfer mechanism.However, for coarse resolutions, typical of LES at high Reynolds numbers, a more accurate agreement is obtained by a mixed Smagorinsky-VMS model.
133

Three essays in applied economics with panel data / Trois essais d'économie appliquée sur données de panel

Darpeix, Pierre-Emmanuel 01 October 2018 (has links)
Cette thèse se compose de trois articles empiriques appliquant à divers sujets des techniques d'économétrie sur données de panel. L'article principal étudie l'évolution de la transmission des prix des trois principales céréales (blé, maïs, riz) des marchés internationaux vers les producteurs domestiques pour 52 pays sur la période 1970-2013, et cherche à identifier les principaux facteurs expliquant l'hétérogénéité des pass-through. Le second article mesure l'élasticité du trafic aérien au produit intérieur brut dans le monde et met en évidence la grande stabilité de la relation tant dans le temps que d'une région à l'autre. Enfin, le troisième article modélise le mécanisme de fixation du taux de rendement servi par les assureurs français à leurs clients sur les produits d'assurance-vie. / This dissertation is composed of three empirical articles resorting to econometric methods in panel data analysis to address various research questions. The main article investigates the evolution of the level of price transmission for the three major cereals (wheat, maize and rice) from the international commodity markets down to the local producers for 52 countries between 1970 and 2013 while attempting to identify the main drivers of the heterogeneity in pass-through. The second article measures the elasticity of air-traffic to GDP around the world and demonstrates that the relationship is very stable across régions and through time. Eventually, the third article models the mechanisms through which French life-insurers set the rate of return they pay annually to their policyholders.
134

Formulation éléments finis variationnelle adaptative et calcul massivement parallèle pour l’aérothermique industrielle / Variational adaptive finite element formulation and massively parallel computing for aerothermal industry applications

Bazile, Alban 25 April 2019 (has links)
Considérant les récents progrès dans le domaine du Calcul Haute Performance, le but ultime des constructeurs aéronautiques tels que Safran Aircraft Engines (SAE) sera de simuler un moteur d'avion complet, à l'échelle 1, utilisant la mécanique des fluides numérique d'ici 2030. Le but de cette thèse de doctorat est donc de donner une contribution scientifique à ce projet. En effet, ce travail est consacré au développement d'une méthode élément finis variationnelle adaptative visant à améliorer la simulation aérothermique du refroidissement des aubes de turbine. Plus précisément, notre objectif est de développer une nouvelle méthode d'adaptation de maillage multi-échelle adaptée à la résolution des transferts thermiques hautement convectifs dans les écoulements turbulents. Pour cela, nous proposons un contrôle hiérarchique des erreurs, basé sur des estimateurs d'erreur sous-échelle de type VMS. La première contribution de ce travail est de proposer une nouvelle méthode d'adaptation de maillage isotrope basée sur ces estimateurs d'erreur sous-échelle. La seconde contribution est de combiner (i) un indicateur d'erreur d'interpolation anisotrope avec (ii) un estimateur d'erreur sous-échelle pour l'adaptation anisotrope de maillage. Les résultats sur des cas analytiques 2D et 3D montrent que la méthode d'adaptation de maillage multi-échelle proposée nous permet d'obtenir des solutions hautement précises utilisant moins d'éléments, en comparaison avec les méthodes d'adaptation de maillage traditionnelles. Enfin, nous proposons dans cette thèse une description des méthodes de calcul parallèle dans Cimlib-CFD. Ensuite, nous présentons les deux systèmes de calcul utilisés pendant le doctorat. L'un d'eux est, en particulier, le super-calculateur GENCI Occigen II qui nous a permit de produire des résultats numériques sur un cas d'aube de turbine complète composé de 39 trous en utilisant des calculs massivement parallèles. / By 2030, considering the progress of HPC, aerospace manufacturers like Safran Aircraft Engines (SAE), hope to be able to simulate a whole aircraft engine, at full scale, using Computational Fluid Dynamic (CFD). The goal of this PhD thesis is to bring a scientific contribution to this research framework. Indeed, the present work is devoted to the development of a variational adaptive finite element method allowing to improve the aerothermal simulations related to the turbine blade cooling. More precisely, our goal is to develop a new multiscale mesh adaptation technique, well suited to the resolution of highly convective heat transfers in turbulent flows. To do so, we propose a hierarchical control of errors based on recently developed subscales VMS error estimators. The first contribution of this work is then to propose a new isotropic mesh adaptation technique based on the previous error estimates. The second contribution is to combine both (i) the coarse scales interpolation error indicator and (ii) the subscales error estimator for anisotropic mesh adaptation. The results on analytic 2D and 3D benchmarks show that the proposed multiscale mesh adaptation technique allows obtaining highly precise solutions with much less elements in comparison with other mesh adaptation techniques. Finally, we propose in this thesis a description of the parallel software capabilities of Cimlib-CFD. Then, we present the two hardware systems used during this PhD thesis. The first one is the lab's cluster allowing the development of numerical methods. The second one however, is the GENCI Occigen II supercomputer which allows producing numerical results using massively parallel computations. In particular, we present a more realistic industrial concerning the cooling of a complete turbine vane composed by 39 holes.
135

Modèles de flammelette en combustion turbulente avec extinction et réallumage : étude asymptotique et numérique, estimation d’erreur a posteriori et modélisation adaptative

Turbis, Pascal 01 1900 (has links)
No description available.
136

A step further in the theory of regional economic integration : a look at the Unasur's integration strategy / Une étape supplémentaire dans la théorie de l’intégration économique régionale : un regard sur la stratégie d’intégration de Unasur

Bonilla Bolanos, Andrea 08 July 2015 (has links)
La nouvelle stratégie d'intégration adoptée en 2000 par les pays Sud-Américains, après trois décennies d'instabilité économique et de crises récurrentes, est un jalon de l'histoire économique de la région. En effet, la volatilité du cycle économique de ces pays s'est réduite significativement à partir de cette date, atteignant son niveau le plus bas depuis 1950. L'analyse d'un tel phénomène est particulièrement intéressante en particulier lorsque l'on se place dans le contexte de turbulences et de crises des années 2000, à savoir, la crise financière mondiale (2008-2009) et, dans son sillage, la crise des dettes souveraines en zone euro. Dans cette thèse, l'objectif est d'étudier le projet d'intégration régionale d'Amérique du Sud, institutionnalisé en 2008 avec la création de l'Union des Nations Sud-Américaines Unasur, en tant que vecteur de stabilisation de ces économies. De ce fait, il s'agit de concentrer l'analyse sur les interactions entre les douze pays du continent Sud-Américain – Argentine, Bolivie, Brésil, Chili, Colombie, Équateur, Guyana, Paraguay, Pérou, Uruguay, Suriname et Venezuela – qui forment un groupe hétérogène autour d'un objectif commun l' "… intégration culturelle, sociale, économique et politique …" et la "… réduction des asymétries de la qualité de vie de ses citoyens … ". La thèse s'intéresse exclusivement aux aspects économiques d'un tel projet d'intégration régionale. À partir d'outils empiriques et théoriques, nous cherchons à évaluer le niveau de convergence et de vulnérabilité des économies concernées. Plus particulièrement une analyse des impacts des politiques d'intégration dans court terme et une étude de leurs performances macroéconomiques de long terme. La thèse se divise en quatre chapitres et s'appuie sur des modèles qui intègrent diverses sources de diffusion des chocs asymétriques. Le premier chapitre présente l'état de l'art de la théorie d'intégration économique régionale en soulignant le cas Sud-Américain. Le deuxième chapitre analyse, à l'aide de modèles vectoriels autorégressifs structurels et de mesures de corrélation, l'impact de chocs externes sur les secteurs réel, monétaire et budgétaire des pays membres de l'Unasur. L'analyse montre que : (i) même les pays les plus fermés (Argentine et Venezuela) et les plus industrialisées (Brésil) présentent une forte vulnérabilité aux perturbations internationales, (ii) cette vulnérabilité individuelle se traduit en une convergence de court terme des trajectoires des principales variables macroéconomiques des pays concernés. Dans le troisième chapitre, on cherche à mesurer le degré de convergence de long terme des niveaux de vie des citoyens Sud-Américains à l’aide de modèles empiriques vectoriels à correction d'erreur et de techniques de cointégration. Les résultats montrent l'existence de tendances stochastiques communes à long terme. Cela signifie que les pays sont engagés dans un processus d'évolution vers un objectif commun, autrement dit, que les conditions de vie des citoyens Sud-Américains ne divergent pas à long terme. En fin, le troisième chapitre vise à analyser l'impact de l'investissement dans la construction de réseaux régionaux de transport, de communication et d'énergie, sur la réduction de l'hétérogénéité structurelle des pays de l'Unasur (projet IIRSA). En effectuant un certain nombre d'expériences de politique dans un cadre théorique, cette analyse constate que : (i) une accroissement d'investissement public en infrastructure suscite une augmentation du commerce intra-intra-régional mais pas forcément une réduction de l'écart de production entre les pays, (ii) l'écart de production à long terme entre l'Argentine et le Brésil diminue, dans un scénario gagnant-gagnant, en termes de croissance économique, seulement si les gouvernements de ces deux pays coordonnent leur augmentation d'investissement en infrastructure, comme proposé par l'IIRSA. / Economic integration seems to be a new global trend. The past two decades have witnessed the formation of several economic unions in Asia (ASEAN+3 in 1997), Europe (Eurozone in 1999), Africa, and America (Union of South American Nations, Unasur in 2008). The South American case deserves special attention because, unlike the other blocs, the Unasur emerged as a political alliance and not as an economic one. Furthermore, Unasur is conceived as a strategy for improving the socioeconomic conditions of nations that have a common history of economic instability and external dependence. However, while common concerns and political willingness exist among group members, the question of whether that consensus is sufficient to ensure economic integration remains unanswered. For instance, economic integration as a strategy for macroeconomic stability has seemed to work well in Europe after the euro was launched in 1999 (Sapir, 2011), until the breakdown of the European sovereign debt crisis in recent years has revealed the inherent weaknesses of an economic union that lacks a political union (Fligstein et al., 2012, Issing, 2011). This development suggests that the Unasur project is likely to fail if the concerned economies do not converge economically. This is the reason why, this thesis assesses the Unasur project from an economic integration perspective, thus, complementing the huge body of political literature that has been developed on the issue (Briceño-Ruiz, 2014, Sanahuja, 2012). The first chapter describes the theory of economic integration' state of art focusing on South America. The second chapter examines the reactions of the Unasur economies to external shocks. By using a structural vector autoregression approach, it measures the impact of three external shocks (monetary, commercial, and financial) in the real, monetary, and fiscal economic sectors of Unasur economies and investigates co-movement paths. The results show (i) a non-negligible degree of synchronization across the studied economies, confirming their high external vulnerability, (ii) irrespective of size or integration degree, all Unasur members share mutual weaknesses, which they must fight to overcome. The third chapter evaluates the convergence in real GDP per-capita, as a suitable proxy measure, of the concerned economies for the period 1951-2011. By relying on cointegration techniques and applying Bernard and Durlauf's (1995) stochastic definitions of convergence and common trends, the presented evidence supports the existence of common long-run trends driving output in South America, meaning that the region is involved in a dynamic process of convergence in living standards. Finally, the fourth chapter studies the economic spillovers of the most advanced structural project of the group: the Initiative for the Integration of Regional Infrastructure in South America (IIRSA). A micro-founded two-country general equilibrium model is constructed to evaluate potential gains or losses (in terms of output convergence and trade integration) of raising publicly provided transportation infrastructure in a coordinated and uncoordinated manner. The model is solved using data from Argentina and Brazil. Results show that: (i) rising public investment in infrastructure boost commercial integration but not necessarily generates output converge, (ii) the only way for the Argentina and Brazil to achieve output convergence is to coordinate their increments on public infrastructure as proposed by the IIRSA.
137

Experimental identification of physical thermal models for demand response and performance evaluation / Identification expérimentale des modèles thermiques physiques pour la commande et la mesure des performances énergétiques

Raillon, Loic 16 May 2018 (has links)
La stratégie de l’Union Européenne pour atteindre les objectifs climatiques, est d’augmenter progressivement la part d’énergies renouvelables dans le mix énergétique et d’utiliser l’énergie plus efficacement de la production à la consommation finale. Cela implique de mesurer les performances énergétiques du bâtiment et des systèmes associés, indépendamment des conditions climatiques et de l’usage, pour fournir des solutions efficaces et adaptées de rénovation. Cela implique également de connaître la demande énergétique pour anticiper la production et le stockage d’énergie (mécanismes de demande et réponse). L’estimation des besoins énergétiques et des performances énergétiques des bâtiments ont un verrou scientifique commun : l’identification expérimentale d’un modèle physique du comportement intrinsèque du bâtiment. Les modèles boîte grise, déterminés d’après des lois physiques et les modèles boîte noire, déterminés heuristiquement, peuvent représenter un même système physique. Des relations entre les paramètres physiques et heuristiques existent si la structure de la boîte noire est choisie de sorte qu’elle corresponde à la structure physique. Pour trouver la meilleure représentation, nous proposons d’utiliser, des simulations de Monte Carlo pour analyser la propagation des erreurs dans les différentes transformations de modèle et, une méthode de priorisation pour classer l’influence des paramètres. Les résultats obtenus indiquent qu’il est préférable d’identifier les paramètres physiques. Néanmoins, les informations physiques, déterminées depuis l’estimation des paramètres, sont fiables si la structure est inversible et si la quantité d’information dans les données est suffisante. Nous montrons comment une structure de modèle identifiable peut être choisie, notamment grâce au profil de vraisemblance. L’identification expérimentale comporte trois phases : la sélection, la calibration et la validation du modèle. Ces trois phases sont détaillées dans le cas d’une expérimentation d’une maison réelle en utilisant une approche fréquentiste et Bayésienne. Plus précisément, nous proposons une méthode efficace de calibration Bayésienne pour estimer la distribution postérieure des paramètres et ainsi réaliser des simulations en tenant compte de toute les incertitudes, ce qui représente un atout pour le contrôle prédictif. Nous avons également étudié les capacités des méthodes séquentielles de Monte Carlo pour estimer simultanément les états et les paramètres d’un système. Une adaptation de la méthode de prédiction d’erreur récursive, dans une stratégie séquentielle de Monte Carlo, est proposée et comparée à une méthode de la littérature. Les méthodes séquentielles peuvent être utilisées pour identifier un premier modèle et fournir des informations sur la structure du modèle sélectionnée pendant que les données sont collectées. Par la suite, le modèle peut être amélioré si besoin, en utilisant le jeu de données et une méthode itérative. / The European Union strategy for achieving the climate targets, is to progressively increase the share of renewable energy in the energy mix and to use the energy more efficiently from production to final consumption. It requires to measure the energy performance of buildings and associated systems, independently of weather conditions and user behavior, to provide efficient and adapted retrofitting solutions. It also requires to known the energy demand to anticipate the energy production and storage (demand response). The estimation of building energy demand and the estimation of energy performance of buildings have a common scientific: the experimental identification of the physical model of the building’s intrinsic behavior. Grey box models, determined from first principles, and black box models, determined heuristically, can describe the same physical process. Relations between the physical and mathematical parameters exist if the black box structure is chosen such that it matches the physical ones. To find the best model representation, we propose to use, Monte Carlo simulations for analyzing the propagation of errors in the different model transformations, and factor prioritization, for ranking the parameters according to their influence. The obtained results show that identifying the parameters on the state-space representation is a better choice. Nonetheless, physical information determined from the estimated parameters, are reliable if the model structure is invertible and the data are informative enough. We show how an identifiable model structure can be chosen, especially thanks to profile likelihood. Experimental identification consists of three phases: model selection, identification and validation. These three phases are detailed on a real house experiment by using a frequentist and Bayesian framework. More specifically, we proposed an efficient Bayesian calibration to estimate the parameter posterior distributions, which allows to simulate by taking all the uncertainties into account, which is suitable for model predictive control. We have also studied the capabilities of sequential Monte Carlo methods for estimating simultaneously the states and parameters. An adaptation of the recursive prediction error method into a sequential Monte Carlo framework, is proposed and compared to a method from the literature. Sequential methods can be used to provide a first model fit and insights on the selected model structure while the data are collected. Afterwards, the first model fit can be refined if necessary, by using iterative methods with the batch of data.
138

Méthodes numériques adaptatives pour la simulation de la dynamique de fronts de réaction multi-échelles en temps et en espace

Duarte, Max 09 December 2011 (has links) (PDF)
Nous abordons le développement d'une nouvelle génération de méthodes numériques pour la résolution des EDP évolutives qui modélisent des phénomènes multi-échelles en temps et en espace issus de divers domaines applicatifs. La raideur associée à ce type de problème, que ce soit via le terme source chimique qui présente un large spectre d'échelles de temps caractéristiques ou encore via la présence de fort gradients très localisés associés aux fronts de réaction, implique en général de sévères difficultés numériques. En conséquence, il s'agit de développer des méthodes qui garantissent la précision des résultats en présence de forte raideur en s'appuyant sur des outils théoriques solides, tout en permettant une implémentation aussi efficace. Même si nous étendons ces idées à des systèmes plus généraux par la suite, ce travail se focalise sur les systèmes de réaction-diffusion raides. La base de la stratégie numérique s'appuie sur une décomposition d'opérateur spécifique, dont le pas de temps est choisi de manière à respecter un niveau de précision donné par la physique du problème, et pour laquelle chaque sous-pas utilise un intégrateur temporel d'ordre élevé dédié. Ce schéma numérique est ensuite couplé à une approche de multirésolution spatiale adaptative permettant une représentation de la solution sur un maillage dynamique adapté. L'ensemble de cette stratégie a conduit au développement du code de simulation générique 1D/2D/3D académique MBARETE de manière à évaluer les développements théoriques et numériques dans le contexte de configurations pratiques raides issue de plusieurs domaines d'application. L'efficacité algorithmique de la méthode est démontrée par la simulation d'ondes de réaction raides dans le domaine de la dynamique chimique non-linéaire et dans celui de l'ingénierie biomédicale pour la simulation des accidents vasculaires cérébraux caractérisée par un terme source "chimique complexe''. Pour étendre l'approche à des applications plus complexes et plus fortement instationnaires, nous introduisons pour la première fois une technique de séparation d'opérateur avec pas de temps adaptatif qui permet d'atteindre une précision donnée garantie malgré la raideur des EDP. La méthode de résolution adaptative en temps et en espace qui en résulte, étendue au cas convectif, permet une description consistante de problèmes impliquant une très large palette d'échelles de temps et d'espace et des scénarios physiques très différents, que ce soit la propagation des décharges répétitives pulsées nanoseconde dans le domaine des plasmas ou bien l'allumage et la propagation de flammes dans celui de la combustion. L'objectif de la thèse est l'obtention d'un solveur numérique qui permet la résolution des EDP raides avec contrôle de la précision du calcul en se basant sur des outils d'analyse numérique rigoureux, et en utilisant des moyens de calculs standard. Quelques études complémentaires sont aussi présentées comme la parallélisation temporelle, des techniques de parallélisation à mémoire partagée et des outils de caractérisation mathématique des schémas de type séparation d'opérateur.
139

Décodage des codes algébriques et cryptographie

Augot, Daniel 07 June 2007 (has links) (PDF)
Je traite du décodage de deux grandes familles de codes algébriques :<br />les codes cycliques binaires et les codes de Reed-Solomon sur un<br />alphabet $q$-aire (ainsi que les codes géométriques). En ce qui<br />concerne les codes cycliques, ceux-ci n'ont pas d'algorithme générique<br />de décodage, mis à part les codes BCH ou assimilés (bornes de<br />Hartman-Tzeng, de Roos). Au premier rang des codes intéressants pour<br />lesquels on ne connaît pas d'algorithme de décodage {\em générique}<br />figurent les {\em codes à résidus quadratiques}, qui ont de bons<br />paramètres. J'étudie une mise en équation du problème du décodage par<br />syndrôme de ces codes, que l'on peut résoudre avec des outils de base<br />de Gröbner. On obtient ainsi des algorithmes de décodage de complexité<br />raisonnable pour ces codes. Ces travaux ont fait l'objet d'une partie<br />de la thèse de Magali Bardet.<br /><br /><br />En ce qui concerne les codes de Reed-Solomon, ceux-ci peuvent être vus<br />comme des {\em codes d'évaluation}, et le problème de décodage associé<br />revient à approcher une fonction par des polynômes de base degré. De<br />grands progrès ont été réalisés par Guruswami et Sudan, qui ont trouvé<br />un algorithme qui décode bien au delà des rayons classiques de<br />décodage, en relaxant l'hypothèse que la solution doit être unique. Je<br />propose d'améliorer certaines étapes de cet algorithme, en le rendant<br />plus rapide et déterministe (notamment en évitant une factorisation de<br />polynôme sur un corps fini), dans le cas des codes Reed-Solomon, et<br />dans le cas des codes géométriques. Ces travaux ont été effectués en<br />encadrant Lancelot Pecquet.<br /><br />Du point de vue théorique, j'ai étudié des généralisations<br />multivariées, qui correspondent à certains codes: les codes produits<br />de Reed-Solomon, et les codes de Reed-Muller. On obtient ainsi un bon<br />rayon de décodage, dans le cas des codes de petit taux. Dans le cas de<br />codes de Reed-Muller sur l'alphabet binaire, Cédric Tavernier, dans sa<br />thèse sous ma direction, a produit et implanté un algorithme efficace,<br />plus que ceux basés sur l'algorithme de Guruswami-Sudan.<br /><br /><br /><br />J'ai étudié les aspects négatifs du problème de décodage par syndrôme<br />des codes linéaires, et du décodage des codes de Reed-Solomon, quand<br />le nombre d'erreurs est élevé, en but d'application en cryptographie.<br />Dans le premier cas, j'ai construit une fonction de hachage<br />cryptographique à réduction de sécurité, c'est-à-dire que trouver une<br />faiblesse dans le fonction de hachage revient à résoudre un problème<br />réputé difficile de codage. J'ai aussi construit une nouvelle<br />primitive de chiffrement à clé publique, reposant sur la difficulté de<br />décoder les codes de Reed-Solomon.<br /><br />Dans un domaine plus appliqué, j'ai proposé avec Raghav Bhaskar un<br />nouvel algorithme d'échange de clé multi-utilisateurs, fondé sur le<br />problème du logarithme discret. Raghav Bhaskar a fourni une preuve de<br />sécurité de ce protocole, pendant sa thèse sous ma direction. Nous<br />avons aussi étudié comment adapter ce protocole aux pertes de<br />messages, car notre protocole est un des seuls qui est robuste à ces<br />pertes.
140

Navigation visuelle de robots mobiles dans un environnement d'intérieur

Ghazouani, Haythem 12 December 2012 (has links) (PDF)
Les travaux présentés dans cette thèse concernent le thème des fonctionnalités visuelles qu'il convient d'embarquer sur un robot mobile, afin qu'il puisse se déplacer dans son environnement. Plus précisément, ils ont trait aux méthodes de perception par vision stéréoscopique dense, de modélisation de l'environnement par grille d'occupation, et de suivi visuel d'objets, pour la navigation autonome d'un robot mobile dans un environnement d'intérieur. Il nous semble important que les méthodes de perception visuelle soient à la fois robustes et rapide. Alors que dans les travaux réalisés, on trouve les méthodes globales de mise en correspondance qui sont connues pour leur robustesse mais moins pour être employées dans les applications temps réel et les méthodes locales qui sont les plus adaptées au temps réel tout en manquant de précision. Pour cela, ce travail essaye de trouver un compromis entre robustesse et temps réel en présentant une méthode semi-locale, qui repose sur la définition des distributions de possibilités basées sur une formalisation floue des contraintes stéréoscopiques. Il nous semble aussi important qu'un robot puisse modéliser au mieux son environnement. Une modélisation fidèle à la réalité doit prendre en compte l'imprécision et l'incertitude. Ce travail présente une modélisation de l'environnement par grille d'occupation qui repose sur l'imprécision du capteur stéréoscopique. La mise à jour du modèle est basée aussi sur la définition de valeurs de crédibilité pour les mesures prises. Enfin, la perception et la modélisation de l'environnement ne sont pas des buts en soi mais des outils pour le robot pour assurer des tâches de haut niveau. Ce travail traite du suivi visuel d'un objet mobile comme tâche de haut niveau.

Page generated in 0.1476 seconds