• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 20
  • 5
  • 1
  • 1
  • Tagged with
  • 65
  • 22
  • 14
  • 14
  • 13
  • 12
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Etude et réalisation de filtres matriochkas pour des applications spatiales / Conception and fabrication of matriochka filters for spatial applications

Hallet, Christophe 26 October 2018 (has links)
Le résonateur matriochka est conçu à partir de résonateurs coaxiaux ré-entrants créant ainsi des sauts d’impédances (SIR). La thèse développe alors des innovations théoriques sur la technologie matriochka en proposant des modèles analytiques précis sur le comportement fréquentiel et du facteur de qualité du résonateur. Les modélisations mettent en relief l’existence de degrés de liberté au sein du résonateur matriochka induisant une flexibilité du rapport de forme du résonateur. Les degrés de liberté créent ainsi une multitude de configurations du résonateur matriochka pour une fréquence fondamentale et un facteur de qualité donnés. Par conséquent, une optimisation en volume est réalisée pour concevoir deux filtres en bande L et C afin de minimiser leur encombrement. Une étude de la tenue en puissance dans le vide est également effectuée pour le filtre en bande L. Une méthode conjointe d’optimisation de la tenue en puissance et de minimisation en volume est alors proposée pour ce filtre. Ainsi, les modélisations et les optimisations sont employées afin de concevoir et de fabriquer deux filtres hyperfréquences. Le premier est un filtre de transmission en bande L conçu pour l’application de navigation Galileo qui propose une alternative d’encombrement et une tenue en puissance dans le vide élevée. Enfin, le second est un filtre de réception en bande C conçu, fabriqué et mesuré pour l’application de télémesure qui propose de meilleures performances en réjection et un volume réduit par rapport à l’existant. Finalement, la technologie matriochka est une alternative de résonateur par rapport à l’état de l’art en proposant, selon les configurations, un rejet élevé des harmoniques et un volume réduit pour une fréquence fondamentale et un facteur de qualité donnés. / The matriochka resonator is based on reentrant coaxial Stepped Impedance Resonator (SIR). So, the thesis develops theoretical innovations on the matriochka technology offering accurate analytical models on the frequency and the quality factor behaviors of the resonator. The models prove the existence of degrees of freedom within the matriochka resonator which allows to get different form factors of the resonator. The degrees of freedom create many configurations of the matriochka resonator for a fundamental frequency and a quality factor. Consequently, a volume optimization is realized to design a L-band filter and a C-band filter. A multipactor study is also carried out for the L-band filter. So, a joint optimization method of the multipactor and the volume minimization is proposed for this filter. Thus, the models and optimisations are used in the order to to design and fabricate the microwave filters. The first one is a transmission L-band filter for the navigation application Galileo which offers a volume alternative and a high power in the vaccum. Then, the second one is a reception C-band filter for the telemetry application which offers wide spurious free-performance and a low volume compared to the state of the art. Finally, for a frequency and a quality factor and depending on the configurations, the matriochka technology offers an alternative of the resonator volume, and it offers a wide spurious free- performance and a low volume compared to the state of the art.
52

Recherche et étude des premières galaxies

Laporte, Nicolas 23 October 2012 (has links) (PDF)
L'évolution des galaxies est relativement bien contrainte jusqu'au premier milliard d'années de l'Univers. Au delà de cette limite et compte-tenu du faible nombre de sources confirmées à z>6.0, il est difficile de déterminer le rôle joué par les premières galaxies à cette époque. L'objectif de ce travail de thèse était de déterminer l'évolution de la fonction de luminosité des galaxies au cours du premier milliard d'années en se basant sur un échantillon représentatif d'objets à grand redshift (z>4.5) suffisamment brillant pour être observé par les spectrographes actuels. Dans ce but, nous avons réalisé une sélection photométrique ciblée de galaxies à cassure de Lyman dans deux champs de vue : un premier autour de l'amas de galaxies d'Abell 2667 et un second dans un très grand champ vide (le relevé WUDS). L'étude des données prises autour d'Abell 2667 a montré un taux de contamination d'environ 80% de notre échantillon d'objets à z≈8. Nous avons mis en évidence l'existence d'une population atypique de galaxies fortement rougies par la poussière à z≈2, et qui ne peuvent être écartées des échantillons qu'en ajoutant des contraintes dans l'IR lointain. Les observations spectroscopiques ont permis d'identifier un nouveau type de contaminant à bas redshift combinant deux populations stellaires d'âges très différents, et demandant une profondeur photométrique extrême afin de les exclure des échantillons actuels. A partir des échantillons dégagés nous avons pu apporter des contraintes fortes et indépendantes sur la partie brillante de la fonction de luminosité, et ainsi en déduire de façon homogène son évolution au cours du premier milliard d'années de l'Univers.
53

Détection, suivi et ré-identification de personnes à travers un réseau de caméra vidéo

Souded, Malik 20 December 2013 (has links) (PDF)
Cette thèse CIFRE est effectuée dans un contexte industriel et présente un framework complet pour la détection, le suivi mono-caméra et de la ré-identification de personnes dans le contexte multi-caméras. Les performances élevés et le traitement en temps réel sont les deux contraintes critiques ayant guidé ce travail. La détection de personnes vise à localiser/délimiter les gens dans les séquences vidéo. Le détecteur proposé est basé sur une cascade de classifieurs de type LogitBoost appliqué sur des descripteurs de covariances. Une approche existante a fortement été optimisée, la rendant applicable en temps réel et fournissant de meilleures performances. La méthode d'optimisation est généralisable à d'autres types de détecteurs d'objets. Le suivi mono-caméra vise à fournir un ensemble d'images de chaque personne observée par chaque caméra afin d'extraire sa signature visuelle, ainsi qu'à fournir certaines informations du monde réel pour l'amélioration de la ré-identification. Ceci est réalisé par le suivi de points SIFT à l'aide d'une filtre à particules, ainsi qu'une méthode d'association de données qui infère le suivi des objets et qui gère la majorité des cas de figures possible, notamment les occultations. Enfin, la ré-identification de personnes est réalisée avec une approche basée sur l'apparence globale en améliorant grandement une approche existante, obtenant de meilleures performances tout en étabt applicable en temps réel. Une partie "conscience du contexte" est introduite afin de gérer le changement d'orientation des personnes, améliorant les performances dans le cas d'applications réelles.
54

Détection, suivi et ré-identification de personnes à travers un réseau de caméra vidéo / People detection, tracking and re-identification through a video camera network

Souded, Malik 20 December 2013 (has links)
Cette thèse CIFRE est effectuée dans un contexte industriel et présente un framework complet pour la détection, le suivi mono-caméra et de la ré-identification de personnes dans le contexte multi-caméras. Les performances élevés et le traitement en temps réel sont les deux contraintes critiques ayant guidé ce travail. La détection de personnes vise à localiser/délimiter les gens dans les séquences vidéo. Le détecteur proposé est basé sur une cascade de classifieurs de type LogitBoost appliqué sur des descripteurs de covariances. Une approche existante a fortement été optimisée, la rendant applicable en temps réel et fournissant de meilleures performances. La méthode d'optimisation est généralisable à d'autres types de détecteurs d'objets. Le suivi mono-caméra vise à fournir un ensemble d'images de chaque personne observée par chaque caméra afin d'extraire sa signature visuelle, ainsi qu'à fournir certaines informations du monde réel pour l'amélioration de la ré-identification. Ceci est réalisé par le suivi de points SIFT à l'aide d'une filtre à particules, ainsi qu'une méthode d'association de données qui infère le suivi des objets et qui gère la majorité des cas de figures possible, notamment les occultations. Enfin, la ré-identification de personnes est réalisée avec une approche basée sur l'apparence globale en améliorant grandement une approche existante, obtenant de meilleures performances tout en étabt applicable en temps réel. Une partie "conscience du contexte" est introduite afin de gérer le changement d'orientation des personnes, améliorant les performances dans le cas d'applications réelles. / This thesis is performed in industrial context and presents a whole framework for people detection and tracking in a camera network. It addresses the main process steps: people detection, people tracking in mono-camera context, and people re-identification in multi-camera context. High performances and real-time processing are considered as strong constraints. People detection aims to localise and delimits people in video sequences. The proposed people detection is performed using a cascade of classifiers trained using LogitBoost algorithm on region covariance descriptors. A state of the art approach is strongly optimized to process in real time and to provide better detection performances. The optimization scheme is generalizable to many other kind of detectors where all possible weak classifiers cannot be reasonably tested. People tracking in mono-camera context aims to provide a set of reliable images of every observed person by each camera, to extract his visual signature, and it provides some useful real world information for re-identification purpose. It is achieved by tracking SIFT features using a specific particle filter in addition to a data association framework which infer object tracking from SIFT points one, and which deals with most of possible cases, especially occlusions. Finally, people re-identification is performed using an appearance based approach by improving a state of the art approach, providing better performances while keeping the real-time processing advantage. A context-aware part is introduced to robustify the visual signature against people orientations, ensuring better re-identification performances in real application case.
55

Contributions to decision tree based learning / Contributions à l’apprentissage de l’arbre des décisions

Qureshi, Taimur 08 July 2010 (has links)
Advances in data collection methods, storage and processing technology are providing a unique challenge and opportunity for automated data learning techniques which aim at producing high-level information, or models, from data. A Typical knowledge discovery process consists of data selection, data preparation, data transformation, data mining and interpretation/validation of the results. Thus, we develop automatic learning techniques which contribute to the data preparation, transformation and mining tasks of knowledge discovery. In doing so, we try to improve the prediction accuracy of the overall learning process. Our work focuses on decision tree based learning and thus, we introduce various preprocessing and transformation techniques such as discretization, fuzzy partitioning and dimensionality reduction to improve this type of learning. However, these techniques can be used in other learning methods e.g. discretization can also be used for naive-bayes classifiers. The data preparation step represents almost 80 percent of the problem and is both time consuming and critical for the quality of modeling. Discretization of continuous features is an important problem that has effects on accuracy, complexity, variance and understandability of the induction models. In this thesis, we propose and develop resampling based aggregation techniques that improve the quality of discretization. Later, we validate by comparing with other discretization techniques and with an optimal partitioning method on 10 benchmark data sets.The second part of our thesis concerns with automatic fuzzy partitioning for soft decision tree induction. Soft or fuzzy decision tree is an extension of the classical crisp tree induction such that fuzzy logic is embedded into the induction process with the effect of more accurate models and reduced variance, but still interpretable and autonomous. We modify the above resampling based partitioning method to generate fuzzy partitions. In addition we propose, develop and validate another fuzzy partitioning method that improves the accuracy of the decision tree.Finally, we adopt a topological learning scheme and perform non-linear dimensionality reduction. We modify an existing manifold learning based technique and see whether it can enhance the predictive power and interpretability of classification. / La recherche avancée dans les méthodes d'acquisition de données ainsi que les méthodes de stockage et les technologies d'apprentissage, s'attaquent défi d'automatiser de manière systématique les techniques d'apprentissage de données en vue d'extraire des connaissances valides et utilisables.La procédure de découverte de connaissances s'effectue selon les étapes suivants: la sélection des données, la préparation de ces données, leurs transformation, le fouille de données et finalement l'interprétation et validation des résultats trouvés. Dans ce travail de thèse, nous avons développé des techniques qui contribuent à la préparation et la transformation des données ainsi qu'a des méthodes de fouille des données pour extraire les connaissances. A travers ces travaux, on a essayé d'améliorer l'exactitude de la prédiction durant tout le processus d'apprentissage. Les travaux de cette thèse se basent sur les arbres de décision. On a alors introduit plusieurs approches de prétraitement et des techniques de transformation; comme le discrétisation, le partitionnement flou et la réduction des dimensions afin d'améliorer les performances des arbres de décision. Cependant, ces techniques peuvent être utilisées dans d'autres méthodes d'apprentissage comme la discrétisation qui peut être utilisées pour la classification bayesienne.Dans le processus de fouille de données, la phase de préparation de données occupe généralement 80 percent du temps. En autre, elle est critique pour la qualité de la modélisation. La discrétisation des attributs continus demeure ainsi un problème très important qui affecte la précision, la complexité, la variance et la compréhension des modèles d'induction. Dans cette thèse, nous avons proposes et développé des techniques qui ce basent sur le ré-échantillonnage. Nous avons également étudié d'autres alternatives comme le partitionnement flou pour une induction floue des arbres de décision. Ainsi la logique floue est incorporée dans le processus d'induction pour augmenter la précision des modèles et réduire la variance, en maintenant l'interprétabilité.Finalement, nous adoptons un schéma d'apprentissage topologique qui vise à effectuer une réduction de dimensions non-linéaire. Nous modifions une technique d'apprentissage à base de variété topologiques `manifolds' pour savoir si on peut augmenter la précision et l'interprétabilité de la classification.
56

Understanding the influence of environment on the solid lubrication processes of carbon-based thin films / Compréhension de l’influence de l’environnement sur les mécanismes de lubrification solide des couches minces à base carbone

Koshigan, Komlavi Dzidula 29 September 2015 (has links)
Les revêtements de carbone amorphe hydrogéné (a-C:H) avec incorporation de silicium et d’oxygène (a-C:H:Si:O) sont une catégorie de lubrifiants solides, de la famille des Diamond-Like Carbon (DLC), présentant aussi bien de bonnes propriétés mécaniques que tribologiques et une bonne stabilité thermique. Bien qu’il soit établi que le comportement tribologique de ces couches est moins dépendant de l’environnement que celui des couches a-C:H, sans éléments d’addition, l’origine physicochimique de ce comportement reste à élucider. Ce travail de thèse s’inscrit dans le cadre une collaboration internationale entre le Laboratoire de Tribologie et Dynamique des Systèmes de l’Ecole Centrale Lyon et le département de Génie Mécanique et Mécanique Appliquée de l’Université de Pennsylvanie, et a pour objectifs d’apporter des réponses à ces questions ouvertes. Un large éventail de techniques expérimentales complémentaires, notamment la nanoindentation, la microscopie à force atomique (AFM), la microscopie à mesure de force (FFM), la microscopie optique et électronique, le Raman, la spectroscopie de photoélectron X (XPS) et la spectroscopie de structure près du front d’absorption de rayons X (NEXAFS) a été mis en oeuvre pour non seulement établir une carte d’identité mécanique, structurale et chimique du revêtement initial, mais aussi comprendre les modifications structurelles induites par le frottement. Afin de contrôler l’environnement au cours des essais tribologiques, nous avons utilisé d’une part un tribomètre linéaire alternatif, que nous avons équipé d’un système de soufflage de gaz permettant de changer rapidement l’environnent au cours des essais, et d’autre part un tribomètre analytique à environnement contrôlé autorisant des expérimentations tant sous vide poussé qu’à pression élevée de gaz. Ainsi, nous avons pu montrer que le coefficient de frottement augmente avec le taux de vapeur d’eau dans l’environnement et cela est réversible lorsqu’on diminue brusquement l’humidité. En outre, la vapeur d’eau protège la couche de l’usure alors que la présence d’oxygène la favorise. Grace aux observations en microscopie électronique, nous avons pu prouver que le comportement tribologique des couches a- C:H:Si:O, lors d’un frottement contre de l’acier 100Cr6, est essentiellement contrôlé par la formation de jonctions adhésives dans l’interface. Sous vide poussé ou à faible pression de gaz (<1 mbar de vapeur d’eau, <10 mbar d’oxygène ou <50 mbar d’hydrogène), la rupture de ces jonctions adhésives a lieu dans l’acier, résultant en un transfert de matériau de l’acier vers l’a-C:H:Si:O s’accompagnant d’un coefficient de frottement élevé (μ≈1.2). Au delà de ces pressions seuils de gaz, les jonctions adhésives se rompent du côté du a-C:H:Si:O, le transfert de matière s’opérant alors dans la direction opposée, du revêtement vers l’acier. Des analyses NEXAFS ont révélé que ce phénomène s’expliquait par une réaction dissociative entre les éléments du gaz environnant et les liaisons carbone C–C contraintes, favorisée par la sollicitation mécanique en extrême surface de l’a-C:H:Si:O. Ceci résulte en une diminution drastique du coefficient de frottement à des valeurs d’un ordre de grandeur inférieures à celles obtenues dans la configuration précédente. L’ensemble de ces résultats nous a ainsi permis de développer un modèle expérimental expliquant les mécanismes fondamentaux d’interaction entre l’environnement et les lubrifiants solides du type a-C:H:Si:O. / Like Carbon (DLC) coatings that exhibit outstanding mechanical properties, thermal stability and tribological performance. It is well established that the frictional and wear performances of a-C:H:Si:O are less dependent on environment than that of pure hydrogenated amorphous carbon (a-C:H). However the fundamental mechanisms accounting for such excellent tribological behavior of a-C:H:Si:O are still not fully understood. The present work, which is part of a collaboration between the Laboratoire de Tribologie et Dynamique des Systèmes of Ecole Centrale de Lyon and the department of Mechanical Engineering and Applied Mechanics of University of Pennsylvania, consists in using a multi-scale, multidisciplinary and multi-technique experimental approach for understanding the influence of environment on the tribological response of a-C:H:Si:O. A wide rang of complementary techniques, including nanoindentation, Atomic Force Microscopy (AFM), Friction Force Microscopy (FFM), optical and electron microscopy, Raman, X-ray Photoelectron Spectroscopy (XPS) and near edge x-ray absorption fine structure spectroscopy (NEXAFS), have thus been used to fully characterize the structure, composition and mechanics of the studied material, as deposited as well as after tribological testing. Control of the environment has been achieved first thanks to an open air linear reciprocating tribometer that we equipped with a gas blowing system, thus allowing a quick change of the sliding environment, and a environment-controlled analytical tribometer operating from high vacuum to elevated pressures of desired gases. We were able to evidence the strong influence of the amount of water vapor in the environment on the friction behavior of a- C:H:Si:O, with a reversible behavior when abruptly changing the environment. Contrary to water vapor, oxygen promotes the wear of a-C:H:Si:O. SEM observations revealed that while sliding a-C:H:Si:O against 52100 steel, the frictional response is controlled by the build-up and the release of adhesive junctions within the interface. Under high vacuum and below a threshold pressure of water vapor (1 mbar), oxygen (10 mbar) and hydrogen (50 mbar), adhesive junctions are released in the steel, resulting in a transfer of material from steel to a-C:H:Si:O and in a high coefficient of friction (μ≈1.2). However, as the gas pressure is increased above the threshold, the adhesive junctions break on the a-C:H:Si:O side, leading to a material transfer in the opposite direction, from the a-C:H:Si:O to the steel. NEXAFS spectroscopy revealed that a dissociative reaction occurs between the gaseous species and the strained C–C atoms in the near surface region ofa-C:H:Si:O, thus resulting in a drastic decrease of the steady state coefficient of friction by at least an order of magnitude. In light of these observations, an analytical model has been proposed to describe the fundamental interaction mechanisms between the environment and the a-C:H:Si:O/steel tribopairs.
57

Contribution to a kernel of symbolic asymptotic modeling software. / Contribution au noyau d'un logiciel de modélisation asymptotique symbolique

Yang, Bin 16 December 2014 (has links)
Cette thèse est consacrée au développement d’un noyau du logiciel MEMSALab de modélisation parcalcul symbolique qui sera utilisé pour la génération automatique de modèles asymptotiques pourdes matrices de micro et nano-systèmes. Contrairement à des logiciels traditionnels réalisant des simulationsnumériques utilisant des modèles prédéfinis, le principe de fonctionnement de MEMSALabest de construire des modèles asymptotiques qui transforment des équations aux dérivées partiellesen tenant compte de leurs caractéristiques. Une méthode appelée ”par extension-combinaison” pourla modélisation asymptotique, qui permet la construction de modèle de façon incrémentale de sorteque les caractéristiques désirées soient incluses étape par étape est tout d’abord proposé pour lemodèle d’homogénéisation dérivation. Il repose sur une combinaison de méthodes asymptotiquesissues de la théorie des équations aux dérivés partielles et de techniques de réécriture issues del’informatique. Cette méthode concentre sur la dérivation de modèle pour les familles de PDEs aulieu de chacune d’entre elles. Un modèle d’homogénéisation de l’électro thermoélastique équationdéfinie dans un domaine mince multicouche est dérivé par utiliser la méthode mathématique danscette approche. Pour finir, un outil d’optimisation a été développé en combinant SIMBAD, une boite `aoutils logicielle pour l’optimisation et développée en interne, et COMSOL-MATLAB. Il a ´ et ´e appliquépour étudier la conception optimale d’une classe de sondes de microscopie atomique thermique et apermis d’ établir des règles générale pour leurs conception / This thesis is dedicated to develop a kernel of a symbolic asymptotic modeling software packageMEMSALab which will be used for automatic generation of asymptotic models for arrays of micro andnanosystems. Unlike traditional software packages aimed at numerical simulations by using pre-builtmodels, the purpose of MEMSALab is to derive asymptotic models for input equations by taking intoaccount their own features. An approach called ”by extension-combination” for the asymptotic modelingwhich allows an incremental model construction is firstly proposed for the homogenization modelderivation. It relies on a combination of the asymptotic method used in the field of partial differentialequations with term rewriting techniques coming from computer science. This approach focuses onthe model derivation for family of PDEs instead of each of them. An homogenization model of theelectrothermoelastic equation defined in a multi-layered thin domain has been derived by applyingthe mathematical method used in this approach. At last, an optimization tool has been developed bycombining a house-made optimization software package SIMBAD and COMSOL-MATLAB simulationand it has been applied for optimization of a SThM probe.
58

Algorithmes parallèles pour le suivi de particules / Parallel algorithms for tracking of particles

Bonnier, Florent 12 December 2018 (has links)
Les méthodes de suivi de particules sont couramment utilisées en mécanique des fluides de par leur propriété unique de reconstruire de longues trajectoires avec une haute résolution spatiale et temporelle. De fait, de nombreuses applications industrielles mettant en jeu des écoulements gaz-particules, comme les turbines aéronautiques utilisent un formalisme Euler-Lagrange. L’augmentation rapide de la puissance de calcul des machines massivement parallèles et l’arrivée des machines atteignant le petaflops ouvrent une nouvelle voie pour des simulations qui étaient prohibitives il y a encore une décennie. La mise en oeuvre d’un code parallèle efficace pour maintenir une bonne performance sur un grand nombre de processeurs devra être étudié. On s’attachera en particuliers à conserver un bon équilibre des charges sur les processeurs. De plus, une attention particulière aux structures de données devra être fait afin de conserver une certaine simplicité et la portabilité et l’adaptabilité du code pour différentes architectures et différents problèmes utilisant une approche Lagrangienne. Ainsi, certains algorithmes sont à repenser pour tenir compte de ces contraintes. La puissance de calcul permettant de résoudre ces problèmes est offerte par des nouvelles architectures distribuées avec un nombre important de coeurs. Cependant, l’exploitation efficace de ces architectures est une tâche très délicate nécessitant une maîtrise des architectures ciblées, des modèles de programmation associés et des applications visées. La complexité de ces nouvelles générations des architectures distribuées est essentiellement due à un très grand nombre de noeuds multi-coeurs. Ces noeuds ou une partie d’entre eux peuvent être hétérogènes et parfois distants. L’approche de la plupart des bibliothèques parallèles (PBLAS, ScalAPACK, P_ARPACK) consiste à mettre en oeuvre la version distribuée de ses opérations de base, ce qui signifie que les sous-programmes de ces bibliothèques ne peuvent pas adapter leurs comportements aux types de données. Ces sous programmes doivent être définis une fois pour l’utilisation dans le cas séquentiel et une autre fois pour le cas parallèle. L’approche par composants permet la modularité et l’extensibilité de certaines bibliothèques numériques (comme par exemple PETSc) tout en offrant la réutilisation de code séquentiel et parallèle. Cette approche récente pour modéliser des bibliothèques numériques séquentielles/parallèles est très prometteuse grâce à ses possibilités de réutilisation et son moindre coût de maintenance. Dans les applications industrielles, le besoin de l’emploi des techniques du génie logiciel pour le calcul scientifique dont la réutilisabilité est un des éléments des plus importants, est de plus en plus mis en évidence. Cependant, ces techniques ne sont pas encore maÃotrisées et les modèles ne sont pas encore bien définis. La recherche de méthodologies afin de concevoir et réaliser des bibliothèques réutilisables est motivée, entre autres, par les besoins du monde industriel dans ce domaine. L’objectif principal de ce projet de thèse est de définir des stratégies de conception d’une bibliothèque numérique parallèle pour le suivi lagrangien en utilisant une approche par composants. Ces stratégies devront permettre la réutilisation du code séquentiel dans les versions parallèles tout en permettant l’optimisation des performances. L’étude devra être basée sur une séparation entre le flux de contrôle et la gestion des flux de données. Elle devra s’étendre aux modèles de parallélisme permettant l’exploitation d’un grand nombre de coeurs en mémoire partagée et distribuée. / The complexity of these new generations of distributed architectures is essencially due to a high number of multi-core nodes. Most of the nodes can be heterogeneous and sometimes remote. Today, nor the high number of nodes, nor the processes that compose the nodes are exploited by most of applications and numerical libraries. The approach of most of parallel libraries (PBLAS, ScalAPACK, P_ARPACK) consists in implementing the distributed version of its base operations, which means that the subroutines of these libraries can not adapt their behaviors to the data types. These subroutines must be defined once for use in the sequential case and again for the parallel case. The object-oriented approach allows the modularity and scalability of some digital libraries (such as PETSc) and the reusability of sequential and parallel code. This modern approach to modelize sequential/parallel libraries is very promising because of its reusability and low maintenance cost. In industrial applications, the need for the use of software engineering techniques for scientific computation, whose reusability is one of the most important elements, is increasingly highlighted. However, these techniques are not yet well defined. The search for methodologies for designing and producing reusable libraries is motivated by the needs of the industries in this field. The main objective of this thesis is to define strategies for designing a parallel library for Lagrangian particle tracking using a component approach. These strategies should allow the reuse of the sequential code in the parallel versions while allowing the optimization of the performances. The study should be based on a separation between the control flow and the data flow management. It should extend to models of parallelism allowing the exploitation of a large number of cores in shared and distributed memory.
59

La variabilité hydrologique et climatique dans les bassins versants de la Sibérie Occidentale (selon les données des stations météorologiques, de ré-analyse météorologique et d'altimétrie satellitaire)

Kolmakova, Maria 17 December 2012 (has links) (PDF)
Le caractère fortement marécageux du territoire de la Sibérie Occidentale et la rareté des stations d'observations hydrométéorologiques compliquent le suivi du régime hydrologique des bassins versants. Dans une telle situation, la prise en compte des données de ré-analyse météorologique et d'altimétrie satellitaires, assurant une couverture régulière de l'ensemble du territoire étudié, permet de compléter les observations in situ et d'élargir considérablement la portée des recherches, ce qui détermine la pertinence de ce travail. Le premier chapitre décrit les principaux facteurs physiques et géographiques qui ont déterminé le développement de la zone d'étude ; le deuxième chapitre est consacré aux méthodes d'étude; le troisième chapitre présente les résultats d'analyse de la variabilité des caractéristiques climatiques et hydrologiques dans les bassins fluviaux. L'originalité de cette thèse est d'appliquer une nouvelle approche de la quantité d'eau de la zone étudiée.
60

La traduction française de textes littéraires en anglais non standard / French translation of nonstandard english literary texts

Bruneaud, Karen 18 June 2010 (has links)
Selon Berman, une caractéristique de la grande prose consiste à « capter et condenser tout l’espace polylangagier d’une communauté ». Certains écrivains, comme Twain, Faulkner, Steinbeck et Salinger, ont ainsi puisé dans l’ensemble des ressources de l’anglais, pour recréer des parlers vernaculaires ou des idiolectes dits « non standard ». Cette stratégie stylistique, qui engage l’auteur idéologiquement et politiquement, passe souvent mal l’épreuve de la traduction en français. La traduction de ces « écritures-déviances » pose des problèmes spécifiques tout en étant paradigmatique de la manière dont le traducteur s’inscrit dans le texte traduit : ce type de stylisation discursive offre donc une perspective privilégiée pourétudier l’action du traducteur ainsi que les stratégies qu’il met en oeuvre pour véhiculer, dans le texte traduit, le projet sthético-idéologique de l’original. Notre étude s’ouvre sur l’analyse de la nature sociolinguistique de l’anglais non standard, avant d’examiner son emploi en littérature, afin de comprendre le rapport de « tension et d’intégration » qui lie les sociolectes littéraires à la réalité linguistique dont ils sont issus. Nous explorons ensuite les mécanismesqui orientent le travail du traducteur et son traitement des écritures non standard à travers la tradition théorique et pratique de la traduction littéraire, avant d’analyser un corpus de traductions. En nous appuyant sur l’éclairage théorique de la sociologie bourdieusienne et le système analytique des « tendances déformantes » (Berman), nous analysons les stratégies de« ré-énonciation » (Folkart) adoptées par différents traducteurs et les « effets de lecture » qui en découlent. / For Antoine Berman, a major characteristic of great prose is its ability to “span the whole linguistic range of a community”. Some writers, such as Twain, Faulkner, Steinbeck and Salinger, have thus drawn on all the resources of the English language in order to recreate vernacular discourse and/or nonstandard idiolects. This stylistic strategy, which expresses theauthor’s particular ideological and political attitudes, is often lost when translated into French. Translating these “deviant” forms of writing poses specific problems while being paradigmatic of the way in which the translator is embedded in the translated text : nonstandard discursive patterns therefore provide a privileged viewpoint from which to study the translator’s action as well as the strategies he uses to transfer the original’s ideological and aesthetical dimensions to the translated text. Our study begins with a sociolinguistic analysis of nonstandard English, before examining its use in literature, in order to understand the dual dialectic of “mediation and emulation” that links literary sociolects to linguistic reality. Wethen explore the practical and theoretical tradition of literary translation to understand what factors affect the translator’s work and his/her approach to nonstandard writing. Finally, we analyse a corpus of translations: using Bourdieu’s sociological theory and Berman’s “systems of deformation” analytical system, we examine the “re-enunciation” (Folkart) strategiesadopted by various translators and the potential readings that result.

Page generated in 0.0555 seconds