• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 181
  • 68
  • 22
  • 7
  • Tagged with
  • 276
  • 116
  • 59
  • 59
  • 54
  • 30
  • 26
  • 26
  • 26
  • 23
  • 22
  • 21
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Contributions aux problèmes de l'étalonnage extrinsèque d'affichages semi-transparents pour la réalité augmentée et de la mise en correspondance dense d'images / Contributions to the problems of extrinsic calibration semitransparent displays for augmented reality and dense mapping images

Braux-Zin, Jim 26 September 2014 (has links)
La réalité augmentée consiste en l'insertion d'éléments virtuels dans une scène réelle, observée à travers un écran. Les systèmes de réalité augmentée peuvent prendre des formes différentes pour obtenir l'équilibre désiré entre trois critères : précision, latence et robustesse. On identifie trois composants principaux : localisation, reconstruction et affichage. Nous nous concentrons sur l'affichage et la reconstruction. Pour certaines applications, l'utilisateur ne peut être isolé de la réalité. Nous proposons un système sous forme de "tablette augmentée" avec un écran semi transparent, au prix d'un étalonnage adapté. Pour assurer l'alignement entre augmentations et réalité, il faut connaître les poses relatives de l'utilisateur et de la scène observée par rapport à l'écran. Deux dispositifs de localisation sont nécessaires et l'étalonnage consiste à calculer la pose de ces dispositifs par rapport à l'écran. Le protocole d'étalonnage est le suivant : l'utilisateur renseigne les projections apparentes dans l'écran de points de référence d'un objet 3D connu ; les poses recherchées minimisent la distance 2D entre ces projections et celles calculées par le système. Ce problème est non convexe et difficile à optimiser. Pour obtenir une estimation initiale, nous développons une méthode directe par l'étalonnage intrinsèque et extrinsèque de caméras virtuelles. Ces dernières sont définies par leurs centres optiques, confondus avec les positions de l'utilisateur, ainsi que leur plan focal, constitué par l'écran. Les projections saisies par l'utilisateur constituent alors les observations 2D des points de référence dans ces caméras virtuelles. Un raisonnement symétrique permet de considérer des caméras virtuelles centrées sur les points de référence de l'objet, "observant" les positions de l'utilisateur. Ces estimations initiales sont ensuite raffinées par ajustement de faisceaux. La reconstruction 3D est basée sur la triangulation de correspondances entre images. Ces correspondances peuvent être éparses lorsqu'elles sont établies par détection, description et association de primitives géométriques ou denses lorsqu'elles sont établies par minimisation d'une fonction de coût sur toute l'image. Un champ dense de correspondance est préférable car il permet une reconstruction de surface, utile notamment pour une gestion réaliste des occultations en réalité augmentée. Les méthodes d'estimation d'un tel champ sont basées sur une optimisation variationnelle, précise mais sensible aux minimums locaux et limitée à des images peu différentes. A l'opposé, l'emploi de descripteurs discriminants peut rendre les correspondances éparses très robustes. Nous proposons de combiner les avantages des deux approches par l'intégration d'un coût basé sur des correspondances éparses de primitives à une méthode d'estimation variationnelle dense. Cela permet d'empêcher l'optimisation de tomber dans un minimum local sans dégrader la précision. Notre terme basé correspondances éparses est adapté aux primitives à coordonnées non entières, et peut exploiter des correspondances de points ou de segments tout en filtrant implicitement les correspondances erronées. Nous proposons aussi une détection et gestion complète des occultations pour pouvoir mettre en correspondance des images éloignées. Nous avons adapté et généralisé une méthode locale de détection des auto-occultations. Notre méthode produit des résultats compétitifs avec l'état de l'art, tout en étant plus simple et plus rapide, pour les applications de flot optique 2D et de stéréo à large parallaxe. Nos contributions permettent d'appliquer les méthodes variationnelles à de nouvelles applications sans dégrader leur performance. Le faible couplage des modules permet une grande flexibilité et généricité. Cela nous permet de transposer notre méthode pour le recalage de surfaces déformables avec des résultats surpassant l'état de l'art, ouvrant de nouvelles perspectives. / Augmented reality is the process of inserting virtual elements into a real scene, observed through a screen. Augmented Reality systems can take different forms to get the desired balance between three criteria: accuracy, latency and robustness. Three main components can be identified: localization, reconstruction and display. The contributions of this thesis are focused on display and reconstruction. Most augmented reality systems use non-transparent screens as they are widely available. However, for critical applications such as surgery or driving assistance, the user cannot be ever isolated from reality. We answer this problem by proposing a new “augmented tablet” system with a semi-transparent screen. Such a system needs a suitable calibration scheme:to correctly align the displayed augmentations and reality, one need to know at every moment the poses of the user and the observed scene with regard to the screen. Two tracking devices (user and scene) are thus necessary, and the system calibration aims to compute the pose of those devices with regard to the screen. The calibration process set up in this thesis is as follows: the user indicates the apparent projections in the screen of reference points from a known 3D object ; then the poses to estimate should minimize the 2D on-screen distance between those projections and the ones computed by the system. This is a non-convex problem difficult to solve without a sane initialization. We develop a direct estimation method by computing the extrinsic parameters of virtual cameras. Those are defined by their optical centers which coincide with user positions, and their common focal plane consisting of the screen plane. The user-entered projections are then the 2D observations of the reference points in those virtual cameras. A symmetrical thinking allows one to define virtual cameras centered on the reference points, and “looking at” the user positions. Those initial estimations can then be refined with a bundle adjustment. Meanwhile, 3D reconstruction is based on the triangulation of matches between images. Those matches can be sparse when computed by detection and description of image features or dense when computed through the minimization of a cost function of the whole image. A dense correspondence field is better because it makes it possible to reconstruct a 3D surface, useful especially for realistic handling of occlusions for augmented reality. However, such a field is usually estimated thanks to variational methods, minimizing a convex cost function using local information. Those methods are accurate but subject to local minima, thus limited to small deformations. In contrast, sparse matches can be made very robust by using adequately discriminative descriptors. We propose to combine the advantages of those two approaches by adding a feature-based term into a dense variational method. It helps prevent the optimization from falling into local minima without degrading the end accuracy. Our feature-based term is suited to feature with non-integer coordinates and can handle point or line segment matches while implicitly filtering false matches. We also introduce comprehensive handling of occlusions so as to support large deformations. In particular, we have adapted and generalized a local method for detecting selfocclusions. Results on 2D optical flow and wide-baseline stereo disparity estimation are competitive with the state of the art, with a simpler and most of the time faster method. This proves that our contributions enables new applications of variational methods without degrading their accuracy. Moreover, the weak coupling between the components allows great flexibility and genericness. This is the reason we were able to also transpose the proposed method to the problem of non-rigid surface registration and outperforms the state of the art methods.
212

Algorithmes de comparaison de génomes appliqués aux génomes bactériens / Algorithms for the comparisons of genomic sequences applied to bacterial genomes

Uricaru, Raluca 14 December 2010 (has links)
Avec plus de 1000 génomes complets disponibles (la grande majorité venant de bactéries), les analyses comparatives de génomes deviennent indispensables pour leurs annotations fonctionnelles, ainsi que pour la compréhension de leur structure et leur évolution, et s'appliquent par exemple en phylogénomique ou au design des vaccins. L'une des approches de plus utilisées pour comparer des génomes est l'alignement de leurs séquences d'ADN, i.e. alignement de génomes complets, c'est à dire identifier les régions de similarité en s'affranchissant de toute annotation. Malgré des améliorations significatives durant les dernières années, des outils performants pour cette approche ainsi que des méthodes pour l'estimation de la qualité des résultats qu'elle produit, en particulier sur les génomes bactériens, restent encore à développer. Outre leurs grandes tailles qui rendent les solutions classiques basées sur la programmation dynamique inutilisables, l'alignement de génomes complets posent des difficultés supplémentaires dues à leur évolution particulière, comprenant: la divergence, qui estompe les similarités entre les séquences, le réordonnancent des portions génomiques (réarrangements), ou l'acquisition de matériel génétique extérieur, qui produit des régions non alignables entres les séquences, e.g. transfert horizontal des gènes, phages. En conséquence, les solutions pour l'alignement de génomes sont des heuristiques, dont la plus commune est appelée stratégie basée sur des ancres. Cette stratégie commence par identifier un ensemble initial de régions de similarité (phase 1). Ensuite une phase de chaînage sélectionne un sous-ensemble (non-chevauchantes et généralement colinéaires) de ces similarités de poids maximal, nommées ancres (phase 2). Les phases 1 et 2 sont appliquées de manière récursive sur les régions encore non-alignées (phase 3). La dernière phase consiste en l'application systématique des outils d'alignement classiques sur toutes les régions courtes qui n'ont pas encore été alignées. Cette thèse adresse plusieurs problèmes liés à l'alignement de génomes complets dont: l'évaluation de la qualité des résultats produits par les outils d'alignement et l'amélioration de la stratégie basée sur des ancres. Premièrement, nous avons créé un protocole pour évaluer la qualité des résultats d'alignement, contenant des mesures de calcul quantitatives et qualitatives, dont certaines basées sur des connaissances biologiques. Une analyse de la qualité des alignements produits par deux des principaux outils existants sur des paires de génomes bactériens intra-espèces révèle leurs limitations: des similarités non détectées et des portions d'alignement incorrectes. À partir de ces résultats, qui suggèrent un manque de sensibilité et spécificité, nous proposons un nouvel outil pour l'alignement deux à deux de génomes complets, YOC, qui implémente une version simplifiée de la stratégie basée sur des ancres, contenant seulement deux phases. Dans la phase 1, YOC améliore la sensibilité en utilisant comme ancres, pour la première fois dans cette stratégie, des similarités locales basées sur des graines espacées, capables de détecter des similarités plus longues dans des régions plus divergentes. Cette phase est suivie par une méthode de chainage adaptée aux similarités locales, un nouveau type de chaînage colinéaire, permettant des chevauchements proportionnels. Nous avons donné une formulation de ce nouveau problème et réalisé un premier algorithme. L'algorithme, qui adopte une approche de programmation dynamique basée sur le paradigme de la ``sweep-line'', donne une solution optimale, i.e. est exacte, et s'exécute en temps quadratique. Nous avons montré que cet algorithme, comparé au chainage colinéaire classique, améliore les résultats sur des génomes bactériens, tout en restant aussi efficace en pratique. / With more than 1000 complete genomes available (among which, the vast majority come from bacteria), comparative genomic analysis become essential for the functional annotation of genomes, the understanding of their structure and evolution and have applications in phylogenomics or vaccine design. One of the main approaches for comparing genomes is by aligning their DNA sequences, i.e. whole genome alignment (WGA), which means identifying the similarity regions without any prior annotation knowledge. Despite the significant improvements during the last years, reliable tools for WGA and methodology for estimating its quality, in particular for bacterial genomes, still need to be designed. Besides their extremely large lengths that make classical dynamic programming alignment methods unsuitable, aligning whole genomes involves several additional difficulties, due to the mechanisms through which genomes evolve: the divergence, which let sequence sim ilarity vanish over time, the reordering of genomic segments (rearrangements), or the acquisition of external genetic material generating regions that are unalignable between sequences, e.g. horizontal gene transfer, phages. Therefore, whole genome alignment tools implement heuristics, among which the most common is the anchor based strategy. It starts by detecting an initial set of similarity regions (phase 1), and, through a chaining phase (phase 2), selects a non-overlapping maximum-weighted, usually collinear, subset of those similarities, called anchors. Phases 1 and 2 are recursively applied on yet unaligned regions (phase 3). The last phase (phase 4) consists in systematically applying classical alignment tools to all short regions still left unaligned.This thesis addresses several problems related to whole genome alignment: the evaluation of the quality of results given by WGA tools and the improvement of the classical anchor based strategy. We first designed a protocol for evaluating the quality of alignment results, based on both computational and biological measures. An evaluation of the results given by two state of the art WGA tools on pairs of intra-species bacterial genomes revealed their shortcomings: the failure of detecting some of the similarities between sequences and the misalignment of some regions. Based on these results, which imply a lack in both sensitivity and specificity, we propose a novel, pairwise whole genome alignment tool, YOC, implementing a simplified two-phase version of the anchor strategy. In phase 1, YOC improves sensitivity by using as anchors, for the first time, local similarities based on spaced seeds that are capable of detecting larger similarity regions in divergent sequences. This ph ase is followed by a chaining method adapted to local similarities, a novel type of collinear chaining, allowing for proportional overlaps. We give a formulation for this novel problem and provide the first algorithm for it. The algorithm, implementing a dynamic programming approach based on the sweep-line paradigm, is exact and runs in quadratic time. We show that, compared to classical collinear chaining, chaining with overlaps improves on real bacterial data, while remaining almost as efficient in practice. Our novel tool, YOC, is evaluated together with other four WGA tools on a dataset composed of 694 pairs of intra-species bacterial genomes. The results show that YOC improves on divergent cases by detecting more distant similarities and by avoiding misaligned regions. In conclusion, YOC should be easier to apply automatically and systematically to incoming genomes, for it does not require a post-filtering step to detect misalignment and is less complex to calibrate.
213

Alignement sémantique entre référentiels d’entreprise : Application aux systèmes d’exécution de la fabrication (MES) / Semantic alignment between Enterprise Repositories : Application to manufacturing execution systems (MES)

Sakka, Omar 21 March 2012 (has links)
L’interopérabilité entre applications d’entreprise est une problématique à multiples facettes. Pour y répondre, nous avons investigué l’alignement sémantique des connaissances sur les processus et objets métier supportés par les différentes applications d’entreprise. Ces connaissances sont souvent hétérogènes selon les métiers et implémentées de manières diverses, engendrant ainsi des conflits sémantiques dues aux différentes interprétations des acteurs. Nous étudions l’identification de correspondances et/ou de conflits sémantiques entre ces connaissances, plus particulièrement dans le domaine des applications de gestion d’atelier (MES – Manufacturing Execution System). Nous proposons une démarche de formalisation de ces connaissances sous la forme d’un référentiel standardisé conforme à la norme ISO 62264 : "le référentiel MES", ainsi qu’une démarche d’enrichissement de ce référentiel par alignements successifs avec d’autres normes et/ou référentiels. Nous définissons ainsi formellement un méta-modèle qui décrit les relations sémantiques entre les éléments des référentiels à aligner, et des règles de contrôle sémantique pour garder la cohérence du référentiel MES et sa conformité au standard. Enfin, nous présentons une démarche d’alignement des besoins client sur le référentiel MES pour aider à la mise en œuvre des applications d’entreprise. Ce travail de recherche a été réalisé dans le cadre d’un projet de Recherche et Développement soutenu par le cluster économique EDIT de la région Rhône-Alpes, et sur ses résultats ont été utilisés dans une nouvelle offre de « MES à la carte ». / Interoperability between enterprise applications is a multifaceted problem. In response, we have investigated the semantic alignment of business process and object knowledge supported by enterprise applications. This knowledge is heterogeneous across business and is implemented in different ways, generating semantic conflicts due to different interpretations of the actors. We study the identification of correspondences and/or conflicts between semantic knowledge, especially in the field of Manufacturing Execution System (MES). We propose an approach to formalize knowledge as a standardized repository ISO 62264 compliant: the "MES repository", and an approach to enhance the MES repository by successive alignments with other standards and/or repositories. Thus, we formally define a meta-model that describes the semantic relationships between elements of the aligned repositories, and semantic control rules to keep MES repository consistency and its ISO compliance. Finally, we present an approach to align customer needs with the MES repository, in order to assist the implementation of enterprise applications. This PhD thesis was conducted as part of a research and development project supported by the economic Cluster Edit (Rhône-Alpes, France), and its results have been used in the new proposal “on demand MES”.
214

Modelling and inference for biological systems : from auxin dynamics in plants to protein sequences. / Modélisation et inférence de systèmes biologiques : de la dynamique de l’auxine dans les plantes aux séquences des protéines

Grigolon, Silvia 14 September 2015 (has links)
Tous les systèmes biologiques sont formés d’atomes et de molécules qui interagissent et dont émergent des propriétés subtiles et complexes. Par ces interactions, les organismes vivants peuvent subvenir à toutes leurs fonctions vitales. Ces propriétés apparaissent dans tous les systèmes biologiques à des niveaux différents, du niveau des molécules et gènes jusqu’aux niveau des cellules et tissus. Ces dernières années, les physiciens se sont impliqués dans la compréhension de ces aspects particulièrement intrigants, en particulier en étudiant les systèmes vivants dans le cadre de la théorie des réseaux, théorie qui offre des outils d’analyse très puissants. Il est possible aujourd’hui d’identifier deux classes d’approches qui sont utilisée pour étudier ces types de systèmes complexes : les méthodes directes de modélisation et les approches inverses d’inférence. Dans cette thèse, mon travail est basé sur les deux types d’approches appliquées à trois niveaux de systèmes biologiques. Dans la première partie de la thèse, je me concentre sur les premières étapes du développement des tissus biologiques des plantes. Je propose un nouveau modèle pour comprendre la dynamique collective des transporteurs de l’hormone auxine et qui permet la croissance non-homogène des tissu dans l’espace et le temps. Dans la deuxième partie de la thèse, j’analyse comment l’évolution contraint la diversité́ de séquence des protéines tout en conservant leur fonction dans différents organismes. En particulier, je propose une nouvelle méthode pour inférer les sites essentiels pour la fonction ou la structure de protéines à partir d’un ensemble de séquences biologiques. Finalement, dans la troisième partie de la thèse, je travaille au niveau cellulaire et étudie les réseaux de signalisation associés à l’auxine. Dans ce contexte, je reformule un modèle préexistant et propose une nouvelle technique qui permet de définir et d’étudier la réponse du système aux signaux externes pour des topologies de réseaux différentes. J’exploite ce cadre théorique pour identifier le rôle fonctionnel de différentes topologies dans ces systèmes. / All biological systems are made of atoms and molecules interacting in a non- trivial manner. Such non-trivial interactions induce complex behaviours allow- ing organisms to fulfill all their vital functions. These features can be found in all biological systems at different levels, from molecules and genes up to cells and tissues. In the past few decades, physicists have been paying much attention to these intriguing aspects by framing them in network approaches for which a number of theoretical methods offer many powerful ways to tackle systemic problems. At least two different ways of approaching these challenges may be considered: direct modeling methods and approaches based on inverse methods. In the context of this thesis, we made use of both methods to study three different problems occurring on three different biological scales. In the first part of the thesis, we mainly deal with the very early stages of tissue development in plants. We propose a model aimed at understanding which features drive the spontaneous collective behaviour in space and time of PINs, the transporters which pump the phytohormone auxin out of cells. In the second part of the thesis, we focus instead on the structural properties of proteins. In particular we ask how conservation of protein function across different organ- isms constrains the evolution of protein sequences and their diversity. Hereby we propose a new method to extract the sequence positions most relevant for protein function. Finally, in the third part, we study intracellular molecular networks that implement auxin signaling in plants. In this context, and using extensions of a previously published model, we examine how network structure affects network function. The comparison of different network topologies provides insights into the role of different modules and of a negative feedback loop in particular. Our introduction of the dynamical response function allows us to characterize the systemic properties of the auxin signaling when external stimuli are applied.
215

Étude de la réduction segmentale en français parlé à travers différents styles : apports des grands corpus et du traitement automatique de la parole à l’étude du schwa, du /ʁ/ et des réductions à segments multiples / Segmental reduction in spoken French through different speech styles : contributions of large speech corpora and automatic speech processing on schwa, /ʁ/ and reduction of multiple segments

Wu, Yaru 14 September 2018 (has links)
Ce travail sur la réduction segmentale (i.e. délétion ou réduction temporelle) en français spontané nous a permis non seulement de proposer deux méthodes de recherche pour les études en linguistique, mais également de nous interroger sur l'influence de différents facteurs de variation sur divers phénomènes de réduction et d'apporter des connaissances sur la propension à la réduction des segments. Nous avons appliqué la méthode descendante qui utilise l'alignement forcé avec variantes lorsqu’il s’agissait de phénomènes de réduction spécifiques. Lorsque ce n'était pas le cas, nous avons utilisé la méthode ascendante qui examine des segments absents et courts. Trois phénomènes de réduction ont été choisis : l'élision du schwa, la chute du /ʁ/ et la propension à la réduction des segments. La méthode descendante a été utilisée pour les deux premiers. Les facteurs en commun étudiés sont le contexte post-lexical, le style, le sexe et la profession. L’élision du schwa en syllabe initiale de mots polysyllabiques et la chute du /ʁ/ post-consonantique en finale de mots ne sont pas toujours influencées par les mêmes facteurs. De même, l’élision du schwa lexical et celle du schwa épenthétique ne sont pas conditionnées par les mêmes facteurs. L’étude sur la propension à la réduction des segments nous a permis d'appliquer la méthode ascendante et d’étudier la réduction des segments de manière générale. Les résultats suggèrent que les liquides et les glides résistent moins à la réduction que les autres consonnes et que les voyelles nasales résistent mieux à la réduction que les voyelles orales. Parmi les voyelles orales, les voyelles hautes arrondies ont tendance à être plus souvent réduites que les autres voyelles orales. / This study on segmental reduction (i.e. deletion or temporal reduction) in spontaneous French allows us to propose two research methods for linguistic studies on large corpora, to investigate different factors of variation and to bring new insights on the propensity of segmental reduction. We applied the descendant method using forced alignment with variants when it concerns a specific reduction phenomena. Otherwise, we used the ascendant method using absent and short segments as indicators. Three reduction phenomena are studied: schwa elision, /ʁ/ deletion and the propensity of segmental reduction. The descendant method was used for analyzing schwa elision and /ʁ/ deletion. Common factors used for the two studies are post-lexical context, speech style, sex and profession. Schwas elision at initial syllable position in polysyllabic words and post-consonantal /ʁ/ deletion at word final position are not always conditioned by the same variation factors. Similarly, lexical schwa and epenthetic schwa are not under the influence of the same variation factors. The study on the propensity of segmental reduction allows us to apply the ascendant method and to investigate segmental reduction in general. Results suggest that liquids and glides resist less the reduction procedure than other consonants and nasal vowels resist better reduction procedure than oral vowels. Among oral vowels, high rounded vowels tend to be reduced more often than other oral vowels.
216

Développement, fabrication et caractérisation de modules photovoltaïques à concentration à ultra haut rendement à base de micro-concentrateurs / Development, manufacturing and characterization of ultra-high efficiency concentrated photovoltaic modules based on micro-concentrators

Ritou, Arnaud 22 November 2018 (has links)
Les modules photovoltaïques à concentration (CPV) ont tendance à se miniaturiser. D’une part, la distance focale plus courte des optiques de concentration permet de réduire le besoin en matériaux pour l’assemblage du module ; et d’autre part, le rendement des modules est sensiblement meilleurs que ceux des modules CPV de taille normale. L’étude de chaque élément de la chaine de pertes dans la littérature des micro-concentrateurs a permis de confirmer cette tendance. Cette thèse aborde les problématiques de coût et de rendement à travers la conception optique d’un concentrateur à deux étages de lentilles, sa fabrication puis une étude approfondie de ses performances.La méthode de conception, développée à partir de lois d’optique géométrique et non-imageante, définit le profil des lentilles à λ=589nm en premiers lieux. Ensuite, une simulation par tracé de rayons permet d’optimiser ces lentilles pour l’ensemble du spectre solaire puis d’étudier l’impact de leur désalignement lors de la mise en module. Les limites des déplacements des éléments du module ainsi déterminées conditionnent la précision de sa fabrication. Dans notre cas, l’alignement est réalisé automatiquement par un jeu de repères mécaniques lors du moulage simultané des optiques primaires (POE) et des optiques secondaires (SOE). Contrairement aux procédés habituels, ce procédé de moulage innovant permet d’assembler un module en seulement trois étapes au lieu de cinq.Pour caractériser les micro-concentrateurs réalisés, une méthode de mesure du rapport module à cellule (CTM) est développée. Pour cela, le rendement des cellules est mesuré en simulateur solaire avant et après leur mise en module. Les cellules multi-jonctions mises en œuvre étant sensibles aux variations spectrales et spatiales de l’éclairement, la validation préalable de ces mesures est primordiale. En complément du CTM qui quantifie la somme des pertes introduites lors de la mise en module, d’autres mesures sont développées pour comprendre la chaine de perte plus en détails.Le dispositif étudié au cours de cette thèse utilise des cellules triple-jonction de 0,6 x 0,6mm² avec une concentration de 1000X et atteint un rendement de 29%. Le CTM est de 70% et l’analyse de la chaine de perte montre que le procédé inventé n’impacte pas ou peu les performances du module. De plus, la détermination de la chaine de perte montre que les pertes par réflexion et par absorption sont prédominantes, au même titre que les pertes dues à la diffusion des lentilles ainsi que les pertes dues aux non-uniformités d’éclairement sur la cellule. / The actual trend of CPV is the micro-scaling of modules. A bibliographic study shows that shorter focal length of optics implies less material consumption in manufacturing and an enhanced efficiency of the modules. In this thesis, a double stage refractive micro-concentrator is designed, manufactured and characterized. First, the optical design of the concentrator is based on non-imaging technics. Thus, the profile of the lenses is generated for a single wavelength. Then, a ray tracing simulator is used to optimize the lens profile for the overall solar spectrum and study the concentrator element misalignment effect on the performances.Secondly, a three steps self-assembly process is developed instead of the usual five steps one. Both POE and SOE lenses of our device are molded simultaneously and a mechanical guidance system in the mold ensures the alignment of the micro-concentrator elements (POE, SOE and Cell).Finally, the performances measurements of the manufactured modules are managed in solar simulators in which the lightening condition are previously studied and validated. Comparing the bare cells efficiency with the module efficiency, the cell-to-module ratio (CTM) represents the overall losses in the module. Further experiments are managed to quantify each loss of the module. The manufactured and characterized micro-concentrator is a 1000X concentrating ratio with 0.6 x 0.6mm² triple junction cells. It efficiency is 29% with a 70% CTM. Finally, the loss chain study reveals that the three steps self-assembly process is reliable.
217

Epidemiology of representations : an empirical approach / Epidemiology of representations : an empirical approach / Epidemiología de las representaciones : un enfoque empírico

Lerique, Sébastien 27 October 2017 (has links)
Nous proposons une contribution empirique aux tentatives récentes d'unification des sciences cognitives et des sciences sociales.La Théorie de l'Attraction Culturelle (CAT) propose de s'atteler à des questions interdisciplinaires en utilisant une ontologie commune faite de représentations.D'après la CAT, malgré des transformations au niveau micro, la distribution globale des représentations peut rester stable grâce à des attracteurs culturels.Cette hypothèse est difficile à tester, mais les technologies du web permettent de combiner les avantages des techniques existantes pour étendre le champ des études possibles.Nous présentons deux études de cas sur de courts énoncés écrits.La première examine les changements que des citations subissent lorsqu'elles sont copiées en ligne.En combinant psycholinguistique et fouille de données, nous montrons que les substitutions de mots sont cohérentes avec l'hypothèse des attracteurs culturels, et avec les effets connus de variables lexicales.La deuxième étude étend ces résultats, et utilise une expérience web permettant de récolter des chaînes de transmission de qualité et en grande quantité.En étendant un algorithme bioinformatique, nous décomposons les transformations en des opérations plus simples, et proposons un premier modèle descriptif du processus qui relie les connaissances psycholinguistiques sur la transformation de phrases aux tendances de haut niveau identifiées dans la littérature sur l'évolution culturelle.Enfin, nous montrons que la compréhension de l'évolution de telles représentations nécessite une théorie du sens des énoncés, une tâche pour laquelle nous explorons les approches empiriques possibles. / We propose an empirical contribution to recent attempts to unify cognitive science and social science.We focus on Cultural Attraction Theory (CAT), a framework that proposes a common ontology made of representations for cognitive and social science to address interdisciplinary questions.CAT hypothesizes that in spite of important transformations at the micro-level, the overall distribution of representations remains stable due to dynamical attractors.Testing this hypothesis is challenging and existing approaches have several shortcomings.Yet, by taking advantage of web technologies one can combine the advantages of existing techniques to expand the range of possible empirical studies.We develop two case studies to show this with short written utterances.The first examines transformations that quotations undergo as they are propagated online.By connecting data mining tools with psycholinguistics, we show that word substitutions in quotations are consistent with the hypothesis of cultural attractors and with known effects of lexical features.The second case study expands these results, and makes use of a purposefully developed web experiment to gather quality transmission chain data sets.By extending a bioinformatics alignment algorithm, we decompose transformations into simpler operations, and propose a first descriptive model which relates psycholinguistic knowledge of sentence transformation to evolutionary trends elicited in the cultural evolution literature.Finally, we show that further understanding the evolution of such representations requires an account of meaning in context, a task for which we flesh out possible empirical approaches.
218

Etude de matrices de filtres Fabry Pérot accordables en technologie MOEMS intégré 3D : Application à l’imagerie multispectrale / Array of tunable Fabry Perot filters in 3D MOEMS integration technology : Application to multispectral imaging

Bertin, Hervé 23 July 2013 (has links)
L’imagerie multispectrale permet d’améliorer la détection et la reconnaissance de cibles dans les applications de surveillance. Elle consiste à analyser des images de la même scène acquises simultanément dans plusieurs bandes spectrales grâce à un filtrage. Cette thèse étudie la possibilité de réaliser une matrice de 4 filtres Fabry Pérot (FP) intégrés 3D et ajustables par actionnement électrostatique dans le domaine visible-proche infrarouge. Les miroirs fixes des filtres FP sont des multicouches ZnS/YF₃ déposés sur un wafer de borosilicate, et les miroirs mobiles sont des membranes multicouches PECVD SiNH/SiOH encastrées sur une structure mobile très compacte micro-usinée dans un wafer en silicium. Les performances optiques des filtres FP ont été optimisées en prenant en compte la dissymétrie et le déphasage à la réflexion des miroirs. La structure mobile a été modélisée par éléments finis pour minimiser ses déformations lors de l’actionnement. Les étapes critiques des procédés de fabrication des miroirs mobiles en technologie Si ou SOI ont été mises au point : i) la fabrication et la libération par gravures profondes DRIE et XeF₂ des membranes multicouches avec une contrainte résiduelle ajustée par recuit et une réflectance voisine de 50% dans une large gamme spectrale, ii) le contrôle des vitesse de la gravure DRIE avec des motifs temporaires permettant la gravure simultanée de motifs de largeur et de profondeur variables, et iii) la délimitation de motifs sur surfaces fortement structurées à l’aide de pochoirs alignés mécaniquement ou de films secs photosensibles. Ces travaux ouvrent la voie vers une réalisation complète d’une matrice de filtres FP intégrés 3D. / Multispectral imaging is used to improve target detection and identification in monitoring applications. It consists in analyzing images of the same scene simultaneously recorded in several spectral bands owing to a filtering. This thesis investigates the possibility to realize, an array of four 3D integrated Fabry-Perot (FP) filters that are tunable in the visible-near infrared range by electrostatic actuation. The fixed mirrors of the FP filters are ZnS/YF₃ multilayers deposited on a borosilicate wafer, and the movable mirrors are PECVD SiNH/SiOH multilayer membranes clamped in a very compact movable structure micromachined in a Si wafer. A 3rd glass wafer is used for filters packaging. Optical performances of the FP filters have been optimized by taking into account the asymmetry and the reflection phase shift of the mirrors and the mobile structure has been modeled by finite elements analysis notably to minimize its deformation during actuation. The critical steps of the movable mirrors fabrication process in Si or SOI technology have been developed : i) the fabrication and the release by DRIE and XeF₂ etching of 8 or 12 layers membranes with a residual stress tunable by annealing and a reflectance close to 50% in broad wavelength range (570-900nm), ii) the control with temporary patterns of the simultaneous deep etching of patterns with different widths and depths, and iv) various patterning techniques on highly structured surfaces based on shadow masks (with mechanical alignment) or laminated photosensitive dry films. These results open the way towards the full realization of an array of 3D integrated FP filters.
219

Évolution des génomes par mutations locales et globales : une approche d’alignement

Benzaid, Billel 10 1900 (has links)
Durant leur évolution, les génomes accumulent des mutations pouvant affecter d’un nucléotide à plusieurs gènes. Les modifications au niveau du nombre et de l’organisation des gènes dans les génomes sont dues à des mutations globales, telles que les duplications, les pertes et les réarrangements. En comparant les ordres de gènes des génomes, il est possible d’inférer les événements évolutifs les plus fréquents, le contenu en gènes des espèces ancestrales ainsi que les histoires évolutives ayant menées aux ordres observés. Dans cette thèse, nous nous intéressons au développement de nouvelles méthodes algorithmiques, par approche d’alignement, afin d’analyser ces différents aspects de l’évolution des génomes. Nous nous intéressons à la comparaison de deux ou d’un ensemble de génomes reliés par une phylogénie, en tenant compte des mutations globales. Pour commencer, nous étudions la complexité théorique de plusieurs variantes du problème de l’alignement de deux ordres de gènes par duplications et pertes, ainsi que de l’approximabilité de ces problèmes. Nous rappelons ensuite les algorithmes exacts, en temps exponentiel, existants, et développons des heuristiques efficaces. Nous proposons, dans un premier temps, DLAlign, une heuristique quadratique pour le problème d’alignement de deux ordres de gènes par duplications et pertes. Ensuite, nous présentons, OrthoAlign, une extension de DLAlign, qui considère, en plus des duplications et pertes, les réarrangements et les substitutions. Nous abordons également le problème de l’alignement phylogénétique de génomes. Pour commencer, l’heuristique OrthoAlign est adaptée afin de permettre l’inférence de génomes ancestraux au noeuds internes d’un arbre phylogénétique. Nous proposons enfin, MultiOrthoAlign, une heuristique plus robuste, basée sur la médiane, pour l’inférence de génomes ancestraux et d’histoires évolutives d’un ensemble de génomes représentés aux feuilles d’un arbre phylogénétique. / During the evolution process, genomes accumulate mutations that may affect the genome at different levels, ranging from one base to the overall gene content. Global mutations affecting gene content and organization are mainly duplications, losses and rearrangements. By comparing gene orders, it is possible to infer the most frequent events, the gene content in the ancestral genomes and the evolutionary histories of the observed gene orders. In this thesis, we are interested in developing new algorithmic methods based on an alignment approach for comparing two or a set of genomes represented as gene orders and related through a phylogenetic tree, based on global mutations. We study the theoretical complexity and the approximability of different variants of the two gene orders alignment problem by duplications and losses. Then, we present the existing exact exponential time algorithms, and develop efficient heuristics for these problems. First, we developed DLAlign, a quadratic time heuristic for the two gene orders alignment problem by duplications and losses. Then, we developed OrthoAlign, a generalization of DLAlign, accounting for most genome-wide evolutionary events such as duplications, losses, rearrangements and substitutions. We also study the phylogenetic alignment problem. First, we adapt our heuristic OrthoAlign in order to infer ancestral genomes at the internal nodes of a given phylogenetic tree. Finally, we developed MultiOrthoAlign, a more robust heuristic, based on the median problem, for the inference of ancestral genomes and evolutionary histories of extent genomes labeling leaves of a phylogenetic tree.
220

Modules réactionnels : un nouveau concept pour étudier l'évolution des voies métaboliques / Reaction modules : a new concept to study the evolution of metabolic pathways

Barba, Matthieu 16 December 2011 (has links)
J'ai mis au point une méthodologie pour annoter les superfamilles d'enzymes, en décrire l'histoire et les replacer dans l'évolution de leurs voies métaboliques. J'en ai étudié trois : (1) les amidohydrolases cycliques, dont les DHOases (dihydroorotases, biosynthèse des pyrimidines), pour lesquelles j'ai proposé une nouvelle classification. L'arbre phylogénétique inclut les dihydropyrimidinases (DHPases) et allantoïnases (ALNases) qui ont des réactions similaires dans d'autres voies (dégradation des pyrimidines et des purines respectivement). (2) L'étude de la superfamille des DHODases (qui suivent les DHOases) montre une phylogénie semblable aux DHOases, avec également des enzymes d'autres voies, dont les DHPDases (qui suivent les DHPases). De cette observation est né le concept de module réactionnel, qui correspond à la conservation de l’enchaînement de réactions semblables dans différentes voies métaboliques. Cela a été utilisé lors de (3) l'étude des carbamoyltransférases (TCases) qui incluent les ATCases (précédant les DHOases). J'ai d'abord montré l'existence d'une nouvelle TCase potentiellement impliquée dans la dégradation des purines et lui ai proposé un nouveau rôle en utilisant le concept de module réactionnel (enchaînement avec l'ALNase). Dans ces trois grandes familles j'ai aussi mis en évidence trois groupes de paralogues non identifiés qui se retrouvent pourtant dans un même contexte génétique appelé « Yge » et qui formeraient donc un module réactionnel constitutif d'une nouvelle voie hypothétique. Appliqué à diverses voies, le concept de modules réactionnels refléterait donc les voies métaboliques ancestrales dont ils seraient les éléments de base. / I designed a methodology to annotate enzyme superfamilies, explain their history and describe them in the context of metabolic pathways evolution. Three superfamilies were studied: (1) cyclic amidohydrolases, including DHOases (dihydroorotases, third step of the pyrimidines biosynthesis), for which I proposed a new classification. The phylogenetic tree also includes dihydropyrimidinases (DHPases) and allantoinases (ALNases) which catalyze similar reactions in other pathways (pyrimidine and purine degradation, respectively). (2) The DHODases superfamily (after DHOases) show a similar phylogeny as DHOases, including enzymes from other pathways, DHPDases in particular (after DHPases). This led to the concept of reaction module, i.e. a conserved series of similar reactions in different metabolic pathways. This was used to study (3) the carbamoyltransferases (TCases) which include ATCases (before DHOases). I first isolated a new kind of TCase, potentially involved in the purine degradation, and I proposed a new role for it in the light of reaction modules (linked with ALNase). In those three superfamilies I also found three groups of unidentified paralogs that were remarkably part of the same genetic context called “Yge” which would be a reaction module part of an unidentified pathway. The concept of reactions modules may then reflect the ancestral metabolic pathways for which they would be basic elements.

Page generated in 0.0502 seconds