• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 192
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 963
  • 354
  • 284
  • 190
  • 150
  • 103
  • 94
  • 91
  • 89
  • 89
  • 87
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
601

La résolution européenne de l'article 88-4 de la Constitution du 4 octobre 1958 / The European resolution of article 88-4 of the Constitution of 4 October 1958

Ammar, Sinane 13 November 2014 (has links)
L’usage de la résolution européenne a débuté en 1992, quand un nouvel article, le 88-4, a été introduit dans la Constitution, donnant pour la première fois à l’Assemblée nationale et au Sénat le droit de voter des résolutions sur des projets et propositions d’actes communautaires soumis par le Gouvernement. Le but de cet avantage en faveur du Parlement était de mettre en vigueur un contrôle parlementaire sur la politique européenne du Gouvernement. Au cours des années, la pratique de la résolution européenne montre l’inefficacité du rôle du Parlement au niveau européen. La portée de la résolution européenne demeure en soi non contraignante vis-à-vis du Gouvernement et des institutions européennes. Les cinq révisions constitutionnelles concernant les affaires européennes depuis 1992 ne peuvent pas y contribuer, malgré la dernière révision du 23 juillet 2008 reconnaissant le droit d’adoption d’une résolution européenne sur non seulement les projets ou propositions d’actes européens soumis par le Gouvernement, mais aussi sur « tout document émanant d’une institution de l’Union ». Le temps est venu pour le Parlement de mettre en place un contrôle parlementaire efficace au niveau européen. / The use of the European resolution started in 1992, when a new article, 88-4, was introduced in the Constitution, giving for the first time in the National Assembly and the Senate the right to vote on resolutions on projects and proposals for Community acts submitted by the Government. The purpose of this advantage in favor of the Parliament was put in force a parliamentary control over the Government's European policy. Over the years, the practice of the European resolution demonstrates the ineffectiveness of the role of the Parliament at European level. The scope of the European resolution remains inherently non-binding towards the Government and the European institutions. Five constitutional revisions concerning European Affairs since 1992 cannot contribute, despite the latest revision of July 23, 2008, recognizing the right to adoption of a European resolution on not only the projects or proposals of European acts submitted by the Government, but on ' any document emanating from an institution of the Union ' also. The time has come for Parliament to put in place an effective parliamentary control at European level.
602

Prise en compte des fluctuations spatio-temporelles pluies-débits pour une meilleure gestion de la ressource en eau et une meilleure évaluation des risques / Taking into account the space-time rainfall-discharge fluctuations to improve water resource management and risk assessment

Hoang, Cong Tuan 30 November 2011 (has links)
Réduire la vulnérabilité et accroître la résilience des sociétés d'aujourd'hui aux fortes précipitations et inondations exige de mieux caractériser leur très forte variabilité spatio-temporelle observable sur une grande gamme d'échelle. Nous mettons donc en valeur tout au long de cette thèse l'intérêt méthodologique d'une approche multifractale comme étant la plus appropriée pour analyser et simuler cette variabilité. Cette thèse aborde tout d'abord le problème de la qualité des données, qui dépend étroitement de la résolution temporelle effective de la mesure, et son influence sur l'analyse multifractale et la détermination de lois d'échelle des processus de précipitations. Nous en soulignons les conséquences pour l'hydrologie opérationnelle. Nous présentons la procédure SERQUAL qui permet de quantifier cette qualité et de sélectionner les périodes correspondant aux critères de qualité requise. Un résultat surprenant est que les longues chronologies de pluie ont souvent une résolution effective horaire et rarement de 5 minutes comme annoncée. Ensuite, cette thèse se penche sur les données sélectionnées pour caractériser la structure temporelle et le comportement extrême de la pluie. Nous analysons les sources d'incertitudes dans les méthodes multifractales « classiques » d'estimation des paramètres et nous en déduisons des améliorations pour tenir compte, par exemple, de la taille finie des échantillons et des limites de la dynamique des capteurs. Ces améliorations sont utilisées pour obtenir les caractéristiques multifractales de la pluie à haute résolution de 5 minutes pour plusieurs départements de la France (à savoir, les départements 38, 78, 83 et 94) et pour aborder la question de l'évolution des précipitations durant les dernières décennies dans le cadre du changement climatique. Cette étude est confortée par l'analyse de mosaïques radars concernant trois événements majeurs en région parisienne. Enfin, cette thèse met en évidence une autre application des méthodes développées, à savoir l'hydrologie karstique. Nous discutons des caractéristiques multifractales des processus de précipitation et de débit à différentes résolutions dans deux bassins versant karstiques au sud de la France. Nous analysons, en utilisant les mesures journalière, 30 minutes et 3 minutes, la relation pluie-débit dans le cadre multifractal. Ceci est une étape majeure dans la direction d'une définition d'un modèle multi-échelle pluie-débit du fonctionnement des bassins versants karstiques / To reduce vulnerability and to increase resilience of nowadays societies to heavy precipitations and floods require better understanding of their very strong spatio-temporal variability observable over a wide range of scales. Therefore, throughout this thesis we highlight the methodological interest of a multifractal approach as being most appropriate to analyze and to simulate such the variability. This thesis first discusses the problem of data quality, which strongly depends on the effective temporal resolution of the measurements, and its influence on multifractal analysis determining the scaling laws of precipitation processes. We emphasize the consequences for operational hydrology. We present the SERQUAL procedure that allows to quantify the data quality and to select periods corresponding to the required quality criteria. A surprising result is that long chronological series of rainfall often have an effective hourly data, rather than the pretended 5-minute rainfall data. Then, this thesis focuses on the selected data to characterize the temporal structure and extreme behaviour of rainfall. We analyze the sources of uncertainties of already "classical" multifractal methods for the parameter estimates, and we therefore developed their improvements considering e.g., the finite size of data samples and the limitation of sensor dynamics. These improvements are used to obtain proper multifractal characteristics of 5-minute high-resolution rainfall for several French departments (i.e., 38, 78, 83 and 94), and hence to raise the question of preicipitation evolution during the last decades in the context of climate change. This study is reinforced by the analysis of radar mosaics for three major events in the Paris region. Finally, this thesis highlights another application of the developed methods, i.e. for the karst hydrology. We discuss the multifractal characteristics of rainfall and runoff processes observed at the different resolutions in two karst watersheds on the south of France. Using daily, 30-minute and 3-minute measurements we analyse the rainfall-runoff relationships within the multifractal framework. This is a major step towards defining a rainfall-runoff multi-scale model of the karst watershed functioning
603

Diversité structurale des forêts denses humides de la Province Nord de Nouvelle Calédonie : de l'arbre au paysage / Structural diversity of rainforests of North Province of New Caledonia : from tree to landscape

Blanchard, Elodie 20 December 2016 (has links)
Dans un contexte de changements globaux, il est primordial de mettre au point des pratiques de gestion durable des forêts tropicales assurant le maintien de services environnementaux clés (e.g., biodiversité, stockage de carbone) et la production de biens essentiels aux communautés locales. La mesure, la spatialisation et la compréhension des déterminismes de la structure des forêts tropicales est un challenge pour la gestion durable des ressources forestières. Les forêts denses humides (FDH) de Nouvelle-Calédonie, un point chaud de biodiversité localisé dans le Pacifique Sud-Ouest, sont un modèle d'étude idéal pour comprendre les déterminants de la structure des FDH. En effet, les FDH néo-calédoniennes sont réparties le long d’une chaîne de montagne et sont ainsi soumises à de forts gradients environnementaux auxquels se superposent différents gradients de perturbations naturelles ou anthropiques. Les objectifs de cette thèse sont (i) de définir les caractéristiques structurales des FDH néo-calédoniennes, (ii) de cartographier les FDH et prédire leur structure à large échelle, et (iii) de quantifier l'influence de l’environnement et des dynamiques forestières sur la structure des FDH. Pour cela, 23 parcelles d’inventaire forestier de 100 m x 100 m ont été mise en place en Province Nord, entre 250 et 900 m d'altitude et 1500 et 3000 mm de précipitations annuelles. En plus de caractériser localement la structure des FDH, ces parcelles ont permis de calibrer un modèle prédictif basé sur l’analyse de la texture de la canopée, à l'aide la méthode FOTO (FOurier transform Textural Ordination), qui a été appliqué à huit images satellitaires à très haute résolution Pléiades (couvrant 1295 km2). Un tel modèle capable de lier texture et structure repose sur le postulat que la relation allométrique entre le DBH (Diameter at Breast Height) et l'aire de la couronne des arbres de canopée est stable. Nous avons également testé cette relation à échelle pantropicale. Nos résultats ont montré que les FDH néo-calédoniennes sont denses (1182 ± 233 tiges/ha), ont une aire basale élevée (44 ± 11 m2/ha), une canopée relativement basse (14 ± 3 m) et une biomasse aérienne caractéristique des forêts tropicales (299 ± 83 t/ha). Elles se distinguent également par une importante variabilité structurale. Cette variabilité est du même ordre que ce soit le long de gradients environnementaux ou de gradients de succession forestière. La méthode FOTO appliquée aux images Pléiades a permis de prédire et de spatialiser des paramètres structuraux clefs (tels que la densité de tiges et la biomasse aérienne des FDH) à partir de corrélations robustes avec les indices de texture de la canopée (R² ≥ 0,6; RMSE ≤ 20%). La structure des FDH est principalement dirigée par l'insolation potentielle et l'altitude à l'échelle des massifs montagneux, et par la pente et un indicateur topographique d'humidité à l'échelle du versant. Ces travaux permettront d'estimer les ressources forestières à l'échelle de la Nouvelle-Calédonie et de définir une nouvelle typologie des FDH sur le territoire intégrant leur variabilité structurale. / In the course of global change, new practices of sustainable management in tropical rainforests that maintain key environmental services (e.g., biodiversity, carbon sequestration) and produce goods on which local communities rely is needed. The measurement, spatialization and understanding of the drivers of rainforest structure at large scale is challenging for managing sustainably forest resources. Rainforests of New Caledonia, a biodiversity hotspot located in the South-West Pacific, are a well-suited study model to explore the drivers of rainforest structure. Indeed, New Caledonian rainforests are distributed along a mountain chain, which creates strong environmental gradients overlaid by a range of natural and anthropogenic disturbance gradients. The aims of this thesis are (i) to define some structural features of New Caledonian rainforests, (ii) to map rainforests and to predict their structure at large scale, and (iii) to quantify the influence of the environment and the forest dynamics on rainforest structure. To this end, 23 one hectare forest inventories were set up in the North Province of New Caledonia. In these plots, elevation ranged between 250 and 900 m and annual rainfall between 1500 and 3000 mm. In addition to characterize locally rainforest structure, these plots were used to calibrate a predictive model based on a textural analysis of the canopy, using the FOTO (FOurier transform Textural Ordination) method, which was applied to eight very high resolution images from a Pléiades satellite (covering 1295 km2). Such a model able to relate texture and structure is based on the hypothesis that the allometric relationship between the DBH (Diameter at Breast Height) and the crown size of a canopy tree is stable. We tested this hypothesis tropics-wide. Our results show that New Caledonian rainforests are dense (1182 ± 233 tree/ha), with a high basal area (44 ± 11 m2/ha), a relatively low canopy (14 ± 3 m) and an above-ground biomass typical of tropical rainforests (299 ± 83 t/ha). These forests are also characterized by a high structural variability. This variability has the same range when influenced by environmental gradients as when influenced by forest succession gradients. The FOTO method applied to Pléiades images allowed to predict and spatialize key structural parameters (like the stem density or the above-ground biomass of rainforests) from robust correlations with the textural indices of the canopy (R² ≥ 0,6; RMSE ≤ 20%). The structure of New Caledonian rainforest is mainly driven by the potential insolation and the elevation at the scale of mountain massifs, and by the slope and the topographic wetness at the scale of a mountainside. These findings will enable to estimate rainforest resources across the territory and to define a new typology of New Caledonian rainforests taking into account their structural variability.
604

L'UEMOA : la cohabitation des juridictions intervenant dans la résolution des conflits issus des investissements internationaux

Berte, Tandjaman Abiba Grace 07 1900 (has links)
Les traditions culturelles et l’histoire commune des états membres de l’UEMOA ont été des facteurs clé de leur rapprochement dans divers domaines. En effet, la monnaie commune de ces différents pays a permis d’instaurer les fondements d’un droit commun des investissements, et une zone de coopération fondée sur une profonde solidarité . Ceci devait se faire, à travers la reconnaissance de la liberté de circulation des capitaux dans le traité du 12 mai 1962 instituant l’UMOA qu’ils s’étaient engagés à transformer en Union Économique et Monétaire Ouest-Africaine . Au fil du temps, le développement du droit communautaire en Afrique de l’Ouest a évolué et couvert un large champ qui s’étend désormais aux investissements . Les enjeux du Droit International des Investissements, en raison des exigences de la mondialisation des économies, ont contraint les États de l’espace UEMOA, importateurs de capitaux, à faire converger leur réglementation des investissements afin de favoriser leur attractivité et d’en tirer le meilleur parti . La difficulté d’un tel objectif réside d’une part, dans la nécessité d’arriver à̀ concilier leurs intérêts avec ceux des investisseurs ; qui ne sont pas toujours convergents et d’autre part, soulèvent certaines questions concernant le choix des juridictions compétentes et du droit applicable aux conventions d’investissements. L’Union n’a pas dérogé aux standards internationaux de protection des investissements qui existent pour les garanties procédurales . Elle a reconnu la pertinence de l’arbitrage comme principal mode de règlement des différends tout en réaffirmant le principe de la compétence des juridictions nationales et communautaires. Dès lors, pour débattre « de la cohabitation des juridictions encadrant la résolution des conflits issus des investissements internationaux dans l’UEMOA » thème de l’étude que nous avons menée, nous avons suivi la démarche ci-après : Au Chapitre I, nous avons présenté l’UEMOA dans toute sa composante. Dans le Chapitre II, nous avons présenté les différents investissements au sein de l’UEMOA. Quant au Chapitre III, il a porté des éclairages sur l’arbitrage au sein de l’UEMOA, l’un des principaux modes de résolution des conflits issus des investissements internationaux et traite de certaines sentences arbitrales sur des cas de conflits entre États membres de l’Union et des investisseurs. Par ailleurs, le chapitre IV propose quelques analyses critiques sur la gestion des conflits. Enfin, le Chapitre V, fait état de nos analyses critiques et recommandations à l’effet d’apporter notre contribution pour l’amélioration de cette pratique importante et délicate pour l’Union. / The cultural traditions and the common history of the UEMOA member states have been key factors in bringing them together in various fields. Indeed, the common currency of these different countries has made it possible to establish the foundations of a common investment law, and an area of cooperation based on deep solidarity. This was to be done, through the recognition of the freedom of movement of capital in the treaty of May 12, 1962 establishing the UEMOA which they had undertaken to transform into the West African Economic and Monetary Union. Over time, the development of community law in West Africa has evolved and covered a large field which now extends to and covered to investment. The challenges of International Investment Law, due to the requirements of the globalization of economies, have forced the WAEMU States, importers of capital, to converge their investment regulations in order to promote their attractiveness and draw better. The difficulty of such an objective lies, on the one hand, in the need to manage to reconcile their interests with those of investors ; which are not always convergent and on the other hand, raise certain questions concerning the choice of competent courts and the law applicable to investment agreements. The Union has not departed from the international investment protection standards that exist for procedural guarantees. It recognized the relevance of arbitration as a means of settling disputes while reaffirming the principle of the jurisdiction of national and Community courts. Therefore, to debate "the cohabitation of the jurisdictions framing the arbitration of conflicts arising from international investments in the UEMOA" theme of the study that we conducted, we followed the following approach : vi In Chapter I, we presented UEMOA in its entire component. In Chapter II, we presented the various investments within the UEMOA. As for Chapter III, it shed light on arbitration within the UEMOA and deals with certain arbitral awards on cases of conflicts between Member States of the Union and investors. In addition, Chapter IV offers some critical analyzes on conflict management. Finally, Chapter V presents our critical analyzes and recommendations to make our contribution to the improvement of this important and delicate practice for the Union.
605

Ultrafast, broadband and multi-pulse transmissions for ultrasonic imaging / Émission d'ondes multi-impulsions, planes et larges bandes pour l'acquisition d'images ultrasonores

Benane, Mehdi Yanis 10 December 2018 (has links)
L'échographie est un outil de diagnostic largement utilisé grâce à des vertus telles que l'acquisition / traitement de données en temps réel, la facilité d'utilisation et la sécurité pour le patient / praticien pendant l'examen. Cependant, comparée à d'autres méthodes d'imagerie telles que la tomographie à rayons X et l'imagerie par résonance magnétique, l'échographie présente l'inconvénient de fournir une qualité d'image relativement basse. Dans cette thèse, nous étudions une méthode capable d'augmenter la qualité d'image, permettant ainsi de meilleurs diagnostics échographiques. Afin d'augmenter le rapport signal / bruit des signaux reçus, nous proposons d'utiliser des signaux modulés en fréquence (chirps). Pour éviter l'effet négatif de la bande passante limitée de la sonde, nous modulons en amplitude les signaux d'excitations afin d'augmenter l'énergie du signal dans les bandes de fréquences où la sonde est moins efficace. Pour compresser l'énergie des échos, nous utilisons des filtres de Wiener afin d'obtenir un bon compromis résolution spatiale / stabilité du bruit. Nous combinons cette méthode appelée REC (Resolution Enhancement Technique) avec l’imagerie ultrarapide. Nous montrons des résultats simulés et expérimentaux (in-vitro, ex-vivo et in-vivo) prometteurs. De plus, nous adaptons REC afin de compenser l'effet d'atténuation tissulaire. Cette amélioration est validée expérimentalement sur des phantoms. Nous adaptons également REC à la propagation non linéaire des ondes ultrasonores, en proposant une technique d'inversion d'impulsions qui utilise REC pour fournir une meilleure résolution et un meilleur rapport contraste / bruit. Ensuite, nous appliquons REC à différents schémas d’acquisition tels que les ondes divergentes et la transmission multi-lignes (MLT). Nous montrons également que la qualité d’image peut être augmentée davantage en tenant compte de la réponse impulsionnelle spatiale de la sonde lorsque REC et MLT sont combinés / Ultrasound imaging is a diagnostic tool widely used thanks to such virtues as real-time data acquisition / processing, ease of use and safety for the patient / practitioner during examination. However, when compared to other imaging methods such as X-ray tomography and Magnetic Resonance Imaging, the echography has the disadvantage to provide relatively low image quality. In this thesis, we study a method that is able to increase the ultrasound image quality, thus paving the way towards improved diagnostics based on echography and novel ultrasound applications. In order to increase the echo signal to noise ratio of the received signals, we propose to use linear frequency modulated signals, also called chirps. To avoid the negative effect of the bandlimited acquisition probe, we apply a pre-enhancement step on the probe excitation signals in order to boost the signal energy in the frequency bands where the probe is less efficient. To compress the echo energy in reception, we use Wiener filters that allow obtaining a good trade-off between the spatial resolution and noise stability. We apply the previously detailed pipeline, also called REC (Resolution Enhancement Technique) on ultrafast imaging schemes. We show promising results in simulation and in-vitro, ex-vivo, in-vivo acquisitions. Furthermore, we adapt REC in such way that the frequency dependent tissue attenuation effect is compensated for. This improvement is validated in simulation and phantom experiments. We also adapt REC to the nonlinear propagation of ultrasound waves, by proposing a pulse inversion technique that uses REC to provide a better image resolution and contrast to noise ratio. Then, we demonstrate the generality of the REC method by applying it to different acquisition schemes such as diverging wave compounding and Multi Line Transmit (MLT). We also show that the image quality can be increased more by taking into account the spatial impulse response of the ultrasound probe when REC and MLT are combined
606

Spectroscopie d'absorption et d'émission des excitons dans les nanotubes de carbone / Absorption and emission spectroscopy of exciton in carbon nanotubes

Raynaud, Christophe 29 November 2018 (has links)
Les propriétés optiques de nanotubes de carbone sont décrites idéalement parla physique d’un objet unidimensionnel, donnant lieu notamment à l’apparition des excitons pour décrire les transitions optiques de ces objets. Les expériences d’optique(émission, absorption) réalisées sur ces objets à température ambiante et sur des ensemble d’objets ont permis de confirmer les prédictions théoriques basées sur la physique des objets 1D. Mais à température cryogénique et à l’échelle de l’objet unique,les propriétés optiques observées expérimentalement sont systématiquement très éloignées de celles d’un objet 1D. On peut notamment citer l’apparition de propriétés comme l’émission de photons uniques, qui a largement contribué à l’intensification de la recherche sur ces objets pour des applications en photonique quantique. Ces propriétés sont attribuées à la localisation des excitons le long de l’axe des nanotubes dans des puits de potentiel créés aléatoirement par l’interaction des nanotubes avec leur environnement. Les propriétés optiques sont alors proches de celles des objets0D, et sont fortement modulées par l’environnement. Les mécanismes et l’origine de la localisation et la connaissance physique de ces puits sont encore très limités. Ce travail montre d’une part le développement d’une technique d’absorption sur objet individuel et la caractérisation de sa sensibilité, et d’autre part l’étude statistique de l’émission de nanotubes à température cryogénique. Les résultats obtenus par une technique de super-résolution couplée à une imagerie hyper-spectrale montrent les grandeurs caractéristiques des puits de potentiels au sein de nanotubes individuels.Un dispositif expérimental de photoluminescence résolue en excitation implémenté au cours de ce travail a également montré une modification de l’état excitonique fondamental par l’environnement, avec l’apparition d’une discrétisation spatiale et spectrale de l’état fondamental délocalisé en une multitude d’états localisés. / The optical properties of carbon nanotubes are ideally described by the physicsof a one-dimensional object, giving rise in particular to the emergence of excitons todescribe the optical transitions of these objects. The optical experiments (emission,absorption) carried out on these objects at ambient temperature and on ensemblesconfirm the theoretical predictions based on the physics of 1D objects. But atcryogenic temperature and at the single emitter scale, the optical properties observedexperimentally are systematically different from those of a 1D object. One can citethe emergence of properties such as photon antibunching, which largely contributed tothe intensification of research on these objects for applications in quantum photonics.These properties are attributed to the localization of excitons along the nanotube axisin local potential wells (traps) created randomly by the interaction of nanotubes withtheir environment. The optical properties are then close to those of 0D objects, andare strongly modulated by the environment. The mechanisms and the origin of thelocalization and the physical knowledge of these traps are still very limited. This workshows on the one hand the development of an absorption setup on individual objectand the characterization of its sensitivity, and on the other hand the statistical studyof the emission of nanotubes at cryogenic temperature in a micro-photoluminescencesetup. The results obtained in the later setup by a super-resolution technique coupledwith hyper-spectral imaging show the characteristic quantities of potential wellswithin individual nanotubes. An experimental excitation-resolved photoluminescencesetup implemented during this work also showed a modification of the fundamentalexcitonic state by the environment, with the emergence of a spatial and spectraldiscretization of the delocalized ground state in a multitude of localized states.
607

Contribution à la résolution de problèmes inverses sous contraintes et application de méthodes de conception robuste pour le dimensionnement de pièces mécaniques de turboréacteurs en phase avant-projets. / Contribution to solving inverse problems under constraints and application of robust design methods for the design of mechanical parts of preliminary design stage

Biret, Maëva 18 November 2016 (has links)
L'objectif de ce travail est de proposer une nouvelle démarche pour améliorer et accélérer les études de dimensionnement des pièces de turboréacteurs en avant-projets. Il s'agit de fournir une méthodologie complète pour la conception robuste sous contraintes. Cette méthodologie consiste en trois étapes : la réduction de la dimension et la méta-modélisation, la conception robuste sous contraintes puis la résolution de problèmes inverses sous contraintes. Ce sont les trois principaux sujets abordés dans cette thèse. La réduction de la dimension est un pré-traitement indispensable à toute étude. Son but est de ne conserver, pour une sortie choisie du système, que les entrées influentes. Ceci permet de réduire la taille du domaine d'étude afin de faciliter la compréhension du système et diminuer les temps de calculs des études. Les méthodes de méta-modélisations contribuent également à ces deux objectifs. L'idée est de remplacer le code de calculs coûteux par un modèle rapide à évaluer et qui représente bien la relation entre la sortie étudiée et les entrées du système. La conception robuste sous contraintes est une optimisation bi-objectifs où les différentes sources d'incertitudes du système sont prises en compte. Il s'agit, dans un premier temps, de recenser et modéliser les incertitudes puis de choisir une méthode de propagation de ces incertitudes dans le code de calculs. Ceci permet d'estimer les moments (moyenne et écart-type) de la loi de la sortie d'intérêt. L'optimisation de ces moments constitue les deux objectifs de la conception robuste. En dernier lieu, il s'agit de choisir la méthode d'optimisation multi-objectifs qui sera utilisée pour obtenir l'optimum robuste sous contraintes. La partie innovante de cette thèse porte sur le développement de méthodes pour la résolution de problèmes inverses mal posés. Ce sont des problèmes pour lesquels il peut y avoir une infinité de solutions constituant des ensembles non convexes et même disjoints. L'inversion a été considérée ici comme un complément à l'optimisation robuste dans laquelle l'optimum obtenu ne satisfaisait pas une des contraintes. Les méthodes d'inversion permettent alors de résoudre ce problème en trouvant plusieurs combinaisons des entrées qui satisfont la contrainte sous la condition de rester proche de l'optimum robuste. Le but est d'atteindre une valeur cible de la contrainte non satisfaite tout en respectant les autres contraintes du système auxquelles on ajoute la condition de proximité à l'optimum. Appliquée au dimensionnement d'un compresseur HP en avants-projets, cette méthodologie s'inscrit dans l'amélioration et l'accélération des études marquées par de nombreux rebouclages chronophages en termes de ressources informatiques et humaines. / The aim of this PhD dissertation is to propose a new approach to improve and accelerate preliminary design studies for turbofan engine components. This approach consists in a comprehensive methodology for robust design under constraints, following three stages : dimension reduction and metamodeling, robust design under constraints and finally inverse problem solving under constraints. These are the three main subjects of this PhD dissertation. Dimension reduction is an essential pre-processing for any study. Its aim is to keep only inputs with large effects on a selected output. This selection reduces the size of the domain on which is performed the study which reduces its computational cost and eases the (qualitative) understanding of the system of interest. Metamodeling also contributes to these two objectives by replacing the time-consuming computer code by a faster metamodel which approximates adequately the relationship between system inputs and the studied output. Robust design under constraints is a bi-objectives optimization where different uncertainty sources are included. First, uncertainties must be collected and modeled. Then a propagation method of uncertainties in the computation code must be chosen in order to estimate moments (mean and standard deviation) of output distribution. Optimization of these moments are the two robust design objectives. Finally, a multi-objectives optimization method has to be chosen to find a robust optimum under constraints. The development of methods to solve ill-posed inverse problems is the innovative part of this PhD dissertation. These problems can have infinitely many solutions constituting non convex or even disjoint sets. Inversion is considered here as a complement to robust design in the case where the obtained optimum doesn't satisfy one of the constraints. Inverse methods then enable to solve this problem by finding several input datasets which satisfy all the constraints and a condition of proximity to the optimum. The aim is to reach a target value of the unsatisfied constraint while respecting other system constraints and the optimum proximity condition. Applied to preliminary design of high pressure compressor, this methodology contributes to the improvement and acceleration of studies currently characterized by a numerous of loopbacks which are expensive in terms of cpu-time and human resources.
608

Super-resolution in wave imaging / Super-résolution en imagerie par ondes

Wintz, Timothée 26 June 2017 (has links)
Les différentes modalités d’imagerie par ondes présentent chacune des limitations en termes de résolution ou de contraste. Dans ce travail, nous modélisons l’imagerie ultrasonore ultrarapide et présentons des méthodes de reconstruction qui améliorent la précision de l’imagerie ultrasonore. Nous introduisons deux méthodes qui permettent d’augmenter le contraste et de mesurer la position super-résolue et la vitesse dans les vaisseaux sanguins. Nous présentons aussi une méthode de reconstruction des paramètres microscopiques en tomographie d’impédance électrique en utilisant des mesures multifréquence et en s’aidant de la théorie de l’homogénéisation. / Different modalities in wave imaging each present limitations in terms of resolution or contrast. In this work, we present a mathematical model of the ultrafast ultrasound imaging modality and reconstruction methods which can improve contrast and resolution in ultrasonic imaging. We introduce two methods which allow to improve contrast and to locate blood vessels belowthe diffraction limit while simultaneously estimating the blood velocity. We also present a reconstruction method in electrical impedance tomography which allows reconstruction of microscopic parameters from multi-frequency measurements using the theory of homogenization.
609

Fusion techniques for iris recognition in degraded sequences / Techniques de fusion pour la reconnaissance de personne par l’iris dans des séquences dégradées

Othman, Nadia 11 March 2016 (has links)
Parmi les diverses modalités biométriques qui permettent l'identification des personnes, l'iris est considéré comme très fiable, avec un taux d'erreur remarquablement faible. Toutefois, ce niveau élevé de performances est obtenu en contrôlant la qualité des images acquises et en imposant de fortes contraintes à la personne (être statique et à proximité de la caméra). Cependant, dans de nombreuses applications de sécurité comme les contrôles d'accès, ces contraintes ne sont plus adaptées. Les images résultantes souffrent alors de diverses dégradations (manque de résolution, artefacts...) qui affectent négativement les taux de reconnaissance. Pour contourner ce problème, il est possible d’exploiter la redondance de l’information découlant de la disponibilité de plusieurs images du même œil dans la séquence enregistrée. Cette thèse se concentre sur la façon de fusionner ces informations, afin d'améliorer les performances. Dans la littérature, diverses méthodes de fusion ont été proposées. Cependant, elles s’accordent sur le fait que la qualité des images utilisées dans la fusion est un facteur crucial pour sa réussite. Plusieurs facteurs de qualité doivent être pris en considération et différentes méthodes ont été proposées pour les quantifier. Ces mesures de qualité sont généralement combinées pour obtenir une valeur unique et globale. Cependant, il n'existe pas de méthode de combinaison universelle et des connaissances a priori doivent être utilisées, ce qui rend le problème non trivial. Pour faire face à ces limites, nous proposons une nouvelle manière de mesurer et d'intégrer des mesures de qualité dans un schéma de fusion d'images, basé sur une approche de super-résolution. Cette stratégie permet de remédier à deux problèmes courants en reconnaissance par l'iris: le manque de résolution et la présence d’artefacts dans les images d'iris. La première partie de la thèse consiste en l’élaboration d’une mesure de qualité pertinente pour quantifier la qualité d’image d’iris. Elle repose sur une mesure statistique locale de la texture de l’iris grâce à un modèle de mélange de Gaussienne. L'intérêt de notre mesure est 1) sa simplicité, 2) son calcul ne nécessite pas d'identifier a priori les types de dégradations, 3) son unicité, évitant ainsi l’estimation de plusieurs facteurs de qualité et un schéma de combinaison associé et 4) sa capacité à prendre en compte la qualité intrinsèque des images mais aussi, et surtout, les défauts liés à une mauvaise segmentation de la zone d’iris. Dans la deuxième partie de la thèse, nous proposons de nouvelles approches de fusion basées sur des mesures de qualité. Tout d’abord, notre métrique est utilisée comme une mesure de qualité globale de deux façons différentes: 1) comme outil de sélection pour détecter les meilleures images de la séquence et 2) comme facteur de pondération au niveau pixel dans le schéma de super-résolution pour donner plus d'importance aux images de bonnes qualités. Puis, profitant du caractère local de notre mesure de qualité, nous proposons un schéma de fusion original basé sur une pondération locale au niveau pixel, permettant ainsi de prendre en compte le fait que les dégradations peuvent varier d’une sous partie à une autre. Ainsi, les zones de bonne qualité contribueront davantage à la reconstruction de l'image fusionnée que les zones présentant des artéfacts. Par conséquent, l'image résultante sera de meilleure qualité et pourra donc permettre d'assurer de meilleures performances en reconnaissance. L'efficacité des approches proposées est démontrée sur plusieurs bases de données couramment utilisées: MBGC, Casia-Iris-Thousand et QFIRE à trois distances différentes. Nous étudions séparément l'amélioration apportée par la super-résolution, la qualité globale, puis locale dans le processus de fusion. Les résultats montrent une amélioration importante apportée par l'utilisation de la qualité globale, amélioration qui est encore augmentée en utilisant la qualité locale / Among the large number of biometric modalities, iris is considered as a very reliable biometrics with a remarkably low error rate. The excellent performance of iris recognition systems are obtained by controlling the quality of the captured images and by imposing certain constraints on users, such as standing at a close fixed distance from the camera. However, in many real-world applications such as control access and airport boarding these constraints are no longer suitable. In such non ideal conditions, the resulting iris images suffer from diverse degradations which have a negative impact on the recognition rate. One way to try to circumvent this bad situation is to use some redundancy arising from the availability of several images of the same eye in the recorded sequence. Therefore, this thesis focuses on how to fuse the information available in the sequence in order to improve the performance. In the literature, diverse schemes of fusion have been proposed. However, they agree on the fact that the quality of the used images in the fusion process is an important factor for its success in increasing the recognition rate. Therefore, researchers concentrated their efforts in the estimation of image quality to weight each image in the fusion process according to its quality. There are various iris quality factors to be considered and diverse methods have been proposed for quantifying these criteria. These quality measures are generally combined to one unique value: a global quality. However, there is no universal combination scheme to do so and some a priori knowledge has to be inserted, which is not a trivial task. To deal with these drawbacks, in this thesis we propose of a novel way of measuring and integrating quality measures in a super-resolution approach, aiming at improving the performance. This strategy can handle two types of issues for iris recognition: the lack of resolution and the presence of various artifacts in the captured iris images. The first part of the doctoral work consists in elaborating a relevant quality metric able to quantify locally the quality of the iris images. Our measure relies on a Gaussian Mixture Model estimation of clean iris texture distribution. The interest of our quality measure is 1) its simplicity, 2) its computation does not require identifying in advance the type of degradations that can occur in the iris image, 3) its uniqueness, avoiding thus the computation of several quality metrics and associated combination rule and 4) its ability to measure the intrinsic quality and to specially detect segmentation errors. In the second part of the thesis, we propose two novel quality-based fusion schemes. Firstly, we suggest using our quality metric as a global measure in the fusion process in two ways: as a selection tool for detecting the best images and as a weighting factor at the pixel-level in the super-resolution scheme. In the last case, the contribution of each image of the sequence in final fused image will only depend on its overall quality. Secondly, taking advantage of the localness of our quality measure, we propose an original fusion scheme based on a local weighting at the pixel-level, allowing us to take into account the fact that degradations can be different in diverse parts of the iris image. This means that regions free from occlusions will contribute more in the image reconstruction than regions with artefacts. Thus, the quality of the fused image will be optimized in order to improve the performance. The effectiveness of the proposed approaches is shown on several databases commonly used: MBGC, Casia-Iris-Thousand and QFIRE at three different distances: 5, 7 and 11 feet. We separately investigate the improvement brought by the super-resolution, the global quality and the local quality in the fusion process. In particular, the results show the important improvement brought by the use of the global quality, improvement that is even increased using the local quality
610

Approches bayésiennes appliquées à l’identification d’efforts vibratoires par la méthode de Résolution Inverse / Bayesian approaches and Force Analysis Technique applied to the vibration source identification

Faure, Charly 09 January 2017 (has links)
Des modèles de plus en plus précis sont développés pour prédire le comportement vibroacoustique des structures et dimensionner des traitements adaptés. Or, les sources vibratoires, qui servent de données d'entrée à ces modèles, restent assez souvent mal connues. Une erreur sur les sources injectées se traduit donc par un biais sur la prédiction vibroacoustique. En amont des simulations, la caractérisation expérimentale de sources vibratoires en conditions opérationnelles est un moyen de réduire ce biais et fait l'objet de ces travaux de thèse.L'approche proposée utilise une méthode inverse, la Résolution Inverse (RI), permettant l'identification de sources à partir des déplacements de structure. La sensibilité aux perturbations de mesure, commune à la plupart des méthodes inverses, est traitée dans un cadre probabiliste par des méthodes bayésiennes.Ce formalisme bayésien permet : d'améliorer la robustesse de la méthode RI ; la détection automatique de sources sur la distribution spatiale ; l'identification parcimonieuse pour le cas de sources ponctuelles ; l'identification de paramètres de modèle pour les structures homogénéisées ; l'identification de sources instationnaires ; la propagation des incertitudes de mesures sur l'évaluation du spectre d'effort ; l'évaluation de la qualité de la mesure par un indicateur empirique de rapport signal à bruit.Ces deux derniers points sont obtenus avec une unique mesure, là où des approches statistiques plus classiques demandent une campagne de mesures plus conséquente. Ces résultats ont été validés à la fois numériquement et expérimentalement, avec une source maîtrisée mais aussi avec une source industrielle. De plus, la procédure est en grande partie non-supervisée. Il ne reste alors à la charge de l’utilisateur qu’un nombre restreint de paramètres à fixer. Lesapproches proposées peuvent donc être utilisées dans une certaine mesure comme des boites noires. / Increasingly accurate models are developped to predict the vibroacoustic behavior of structures and to propose adequate treatments.Vibration sources used as input of these models are still broadly unknown. In simulation, an error on vibration sources produces a bias on the vibroacoustic predictions. A way to reduce this bias is to characterize experimentally the vibration sources in operational condition before some simulations. It is therefore the subject of this PhD work.The proposed approach is based on an inverse method, the Force Analysis Technique (FAT), and allows the identification of vibration sources from displacement measurements. The noise sensibility, common to most of inverse methods, is processed in a probabilistic framework using Bayesian methods.This Bayesian framework allows: some improvements of the FAT robustness; an automatic detection of sources; the sparse identification of sources for pointwise sources; the model parameters identification for the purpose of homogenized structures; the identification of unsteady sources; the propagation of uncertainties through force spectrum (with credibility intervals); measurement quality assessment from a empirical signal to noise ratio.These two last points are obtained from a unique scan of the structure, where more traditional statistical methods need multiple scans of the structure. Both numerical and experimental validations have been proposed, with a controled excitation and with an industrial source. Moreover, the procedure is rather unsupervised in this work. Therefore, the user only has a few number of parameters to set by himself. In a certain extent, the proposed approaches can then be applied as black boxes.

Page generated in 0.0823 seconds