Spelling suggestions: "subject:"groupement"" "subject:"groupements""
21 |
Résumé automatique multi-document dynamique / Multi-document Update-summarizationMnasri, Maali 20 September 2018 (has links)
Cette thèse s’intéresse au Résumé Automatique de texte et plus particulièrement au résumémis-à-jour. Cette problématique de recherche vise à produire un résumé différentiel d'un ensemble denouveaux documents par rapport à un ensemble de documents supposés connus. Elle intègre ainsidans la problématique du résumé à la fois la question de la dimension temporelle de l'information etcelle de l’historique de l’utilisateur. Dans ce contexte, le travail présenté s'inscrit dans les approchespar extraction fondées sur une optimisation linéaire en nombres entiers (ILP) et s’articule autour dedeux axes principaux : la détection de la redondance des informations sélectionnées et la maximisationde leur saillance. Pour le premier axe, nous nous sommes plus particulièrement intéressés àl'exploitation des similarités inter-phrastiques pour détecter, par la définition d'une méthode deregroupement sémantique de phrases, les redondances entre les informations des nouveaux documentset celles présentes dans les documents déjà connus. Concernant notre second axe, nous avons étudiél’impact de la prise en compte de la structure discursive des documents, dans le cadre de la Théorie dela Structure Rhétorique (RS), pour favoriser la sélection des informations considérées comme les plusimportantes. L'intérêt des méthodes ainsi définies a été démontré dans le cadre d'évaluations menéessur les données des campagnes TAC et DUC. Enfin, l'intégration de ces critères sémantique etdiscursif au travers d'un mécanisme de fusion tardive a permis de montrer dans le même cadre lacomplémentarité de ces deux axes et le bénéfice de leur combinaison. / This thesis focuses on text Automatic Summarization and particularly on UpdateSummarization. This research problem aims to produce a differential summary of a set of newdocuments with regard to a set of old documents assumed to be known. It thus adds two issues to thetask of generic automatic summarization: the temporal dimension of the information and the history ofthe user. In this context, the work presented here is based on an extractive approach using integerlinear programming (ILP) and is organized around two main axes: the redundancy detection betweenthe selected information and the user history and the maximization of their saliency . For the first axis,we were particularly interested in the exploitation of inter-sentence similarities to detect theredundancies between the information of the new documents and those present in the already knownones, by defining a method of semantic clustering of sentences. Concerning our second axis, westudied the impact of taking into account the discursive structure of documents, in the context of theRhetorical Structure Theory (RST), to favor the selection of information considered as the mostimportant. The benefit of the methods thus defined has been demonstrated in the context ofevaluations carried out on the data of TAC and DUC campaigns. Finally, the integration of thesesemantic and discursive criteria through a delayed fusion mechanism has proved the complementarityof these two axes and the benefit of their combination.
|
22 |
Problèmes de clustering liés à la synchronie en écologie : estimation de rang effectif et détection de ruptures sur les arbres / Clustering problems for synchrony in ecology : estimation of effective rank and change-points detection on treesThépaut, Solène 06 December 2019 (has links)
Au vu des changements globaux actuels engendrés en grande partie par l'être humain, il devient nécessaire de comprendre les moteurs de la stabilité des communautés d'êtres vivants. La synchronie des séries temporelles d'abondances fait partie des mécanismes les plus importants. Cette thèse propose trois angles différents permettant de répondre à différentes questions en lien avec la synchronie interspécifique ou spatiale. Les travaux présentés trouvent des applications en dehors du cadre écologique. Un premier chapitre est consacré à l'estimation du rang effectif de matrices à valeurs dans ℝ ou ℂ. Nous apportons ainsi des outils permettant de mesurer le taux de synchronisation d'une matrice d'observations. Dans le deuxième chapitre, nous nous basons sur les travaux existants sur le problème de détection de ruptures sur les chaînes afin de proposer plusieurs algorithmes permettant d'adapter ce problème au cas des arbres. Les méthodes présentées peuvent être utilisées sur la plupart des données nécessitant d'être représentées sous la forme d'un arbre. Afin d'étudier les liens entre la synchronie interspécifique et les tendances à long termes ou les traits d'espèces de papillons, nous proposons dans le dernier chapitre d'adapter des méthodes de clustering et d'apprentissage supervisé comme les Random Forest ou les Réseaux de Neurones artificiels à des données écologiques. / In the view of actual global changes widely caused by human activities, it becomes urgent to understand the drivers of communities' stability. Synchrony between time series of abundances is one of the most important mechanisms. This thesis offers three different angles in order to answer different questions linked to interspecific and spatial synchrony. The works presented find applications beyond the ecological frame. A first chapter is dedicated to the estimation of effective rank of matrices in ℝ or ℂ. We offer tools allowing to measure the synchronisation rate of observations matrices. In the second chapter, we base on the existing work on change-points detection problem on chains in order to offer algorithms which detects change-points on trees. The methods can be used with most data that have to be represented as a tree. In order to study the link between interspecific synchrony and long term tendencies or traits of butterflies species, we offer in the last chapter adaptation of clustering and supervised machine learning methods, such as Random Forest or Artificial Neural Networks to ecological data.
|
23 |
Probing Cosmology with the homogeneity scale of the universe through large scale structure surveys / Test de la cosmologie via l'échelle de transition vers l'homogénéité au travers des relevés des grandes structures dans l'UniversNtelis, Pierros 28 September 2017 (has links)
Cette thèse présente ma contribution à la mesure de l’échelle d’homogénéité à l’aide de galaxies, avec l’interprétation cosmologique des résultats. En physique, tout modèle est constitué par un ensemble de principes. La plupart des modèles de cosmologie sont basés sur le principe cosmologique, qui indique que l’univers est statistiquement homogène et isotrope à grande échelle. Aujourd’hui, ce principe est considéré comme vrai car il est respecté par ces modèles cosmologiques qui décrivent avec précision les observations. Cependant, l’isotropie de l’univers est maintenant confirmée par de nombreuses expériences, mais ce n’est pas le cas pour l’homogénéité. Pour étudier l’homogénéité cosmique, nous proposons un postulat d’homogénéité cosmique. Depuis 1998, les mesures des distances cosmiques à l’aide de supernovae de type Ia, nous savons que l’univers est maintenant en phase d’expansion accélérée. Ce phénomène s’explique par l’ajout d’une composante énergétique inconnue, appelée énergie sombre. Puisque l’énergie noire est responsable de l’expansion de l’univers, nous pouvons étudier ce fluide mystérieux en mesurant le taux d’expansion de l’univers. L’échelle d’oscillation acoustique Baryon (BAO). En mesurant cette échelle à différents moments de la vie de notre univers, il est alors possible de mesurer le taux d'expansion de l’univers et donc de caractériser cette énergie sombre. Alternativement, nous pouvons utiliser l’échelle d’homogénéité pour étudier cette énergie sombre. L’étude l’échelle de l’homogénéité et l’échelle BAO réclament l’étude statistique du regroupement de la matière de l’univers à grandes échelles, supérieure à plusieurs dizaines de Megaparsecs. Les galaxies et les quasars sont formés dans les vastes surdensités de la matière et ils sont très lumineuses: ces sources tracent la distribution de la matière. En mesurant les spectres d’émission de ces sources en utilisant de larges études spectroscopiques, telles que BOSS et eBOSS, nous pouvons mesurer leurs positions. Il est possible de reconstruire la distribution de la matière en trois dimensions en volumes gigantesques. Nous pouvons ensuite extraire divers observables statistiques pour mesurer l’échelle BAO et l’échelle d’homogénéité de l’univers. En utilisant les catalogues de diffusion de données 12 de la version 12 de données, nous avons obtenu une précision sur l’échelle d’homogénéité réduite de 5 par rapport la mesure de WiggleZ. À grande échelle, l’univers est remarquablement bien décrit en ordre linéaire selon le modèle LCDM, le modèle standard de la cosmologie. En général, il n’est pas nécessaire de prendre en compte les effets non linéaires qui compliquent le modèle à petites échelles. D’autre part, à grande échelle, la mesure de nos observables devient très sensible aux effets systématiques. Ceci est particulièrement vrai pour l’analyse de l’homogénéité cosmique, qui nécessite une méthode d’observation. Afin d’étudier le principe d’homogénéité d’une manière indépendante du modèle, nous explorons une nouvelle façon d’inférer des distances en utilisant des horloges cosmiques et SuperNovae de type Ia. C'est la théorie la plus couramment utilisée dans le domaine des hypothèses astrophysiques / This thesis exposes my contribution to the measurement of homogeneity scale using galaxies, with the cosmological interpretation of results. In physics, any model is characterized by a set of principles. Most models in cosmology are based on the Cosmological Principle, which states that the universe is statistically homogeneous and isotropic on a large scales. Today, this principle is considered to be true since it is respected by those cosmological models that accurately describe the observations. However, while the isotropy of the universe is now confirmed by many experiments, it is not the case for the homogeneity. To study cosmic homogeneity, we propose to not only test a model but to test directly one of the postulates of modern cosmology. Since 1998 the measurements of cosmic distances using type Ia supernovae, we know that the universe is now in a phase of accelerated expansion. This phenomenon can be explained by the addition of an unknown energy component,which is called dark energy. Since dark energy is responsible for the expansion of the universe, we can study this mysterious fluid by measuring the rate of expansion of the universe. Nature does things well: the universe has imprinted in its matter distribution a standard ruler, the Baryon Acoustic Oscillation (BAO) scale. By measuring this scale at different times in the life of our universe, it is then possible to measure the rate of expansion of the universe and thus characterize this dark energy. Alternatively, we can use the homogeneity scale to study this dark energy. Studying the homogeneity and the BAO scale requires the statistical study of the matter distribution of the universe at large scales, superior to tens of Megaparsecs. Galaxies and quasars are formed in the vast overdensities of matter and they are very luminous: these sources trace the distribution of matter. By measuring the emission spectra of these sources using large spectroscopic surveys, such as BOSS and eBOSS, we can measure their positions. It is thus possible to reconstruct the distribution of matter in 3 dimensions in gigantic volumes. We can then extract various statistical observables to measure the BAO scale and the scale of homogeneity of the universe. Using Data Release 12 CMASS galaxy catalogs, we obtained precision on the homogeneity scale reduced by 5 times compared to WiggleZ measurement. At large scales, the universe is remarkably well described in linear order by the ΛCDM-model, the standard model of cosmology. In general, it is not necessary to take into account the nonlinear effects which complicate the model at small scales. On the other hand, at large scales, the measurement of our observables becomes very sensitive to the systematic effects. This is particularly true for the analysis of cosmic homogeneity, which requires an observational method so as not to bias the measurement In order to study the homogeneity principle in a model independent way, we explore a new way to infer distances using cosmic clocks and type Ia SuperNovae. This establishes the Cosmological Principle using only a small number of a priori assumption, i.e. the theory of General Relativity and astrophysical assumptions that are independent from Friedmann Universes and in extend the homogeneity assumption
|
24 |
Shared-Neighbours methods for visual content structuring and mining / Structuration et découverte de contenus visuels par des méthodes basées sur les voisins partagésHamzaoui, Amel 10 May 2012 (has links)
Cette thèse étudie les méthodes de regroupement basées sur le principe des plus proches voisins partagés (SNN). Comme la plupart des autres approches de clustering à base de graphe, les méthodes SNN sont effectivement bien adaptées à surmonter la complexité des données, l'hétérogénéité et la haute dimensionnalité. La première contribution de la thèse est de revisiter une méthode existante basée sur les voisins partagés en deux points. Nous présentons d'abord un formalisme basé sur la la théorie de décision à contrario. Cela nous permet de tirer des scores de connectivité plus fiable des groupes et une interprétation plus intuitive des voisinage selectionnés optimalement. Nous proposons également un nouveau algorithme de factorisation pour accélérer le calcul intensif nécessaire des matrices des voisins partagés. La deuxième contribution de cette thèse est une généralisation de la classification SNNau cas multi-source. La principale originalité de notre approche est que nous introduisons une étape de sélection des sources d'information optimales dans le calcul de scores de groupes candidats. Chaque groupe est alors associé à son propre sous-ensemble optimal des modalités. Comme le montre le expériences, cette étape de sélection de source rend notre approche largement robuste à la présence de sources locales aberrantes. Cette nouvelle méthode est appliquée à un large éventail de problèmes, y compris la structuration multimodale des collections d'images et dans le regroupement dans des sous-espaces basés sur les projections aléatoires.La troisième contribution de la thèse est une tentative pour étendre les méthodes SNNdans le contexte des graphes biparites. Nous introduisons de nouvelles mesures de pertinence SNNrevisitées pour ce contexte asymétrique et nous montrons qu'elles peuvent être utiliséespour sélectionner localement des voisinages optimales. En conséquence, nous proposons un nouveau algorithme de clustering bipartite SNN qui est appliqué à la découverte d'objets visuels.Les expériences montrent que cette nouvelle méthode est meilleure par rapport aux méthodes de l'état de l'art. Basé sur les objets découverts, nous introduisons également un paradigme de recherche visuelle, c.-à-d les objet basés sur la suggestion de requêtes visuel les. / This thesis investigates new clustering paradigms and algorithms based on the principle of the shared nearest-neighbors (SNN. As most other graph-based clustering approaches, SNN methods are actually well suited to overcome data complexity, heterogeneity and high-dimensionality.The first contribution of the thesis is to revisit existing shared neighbors methods in two points. We first introduce a new SNN formalism based on the theory of a contrario decision. This allows us to derive more reliable connectivity scores of candidate clusters and a more intuitive interpretation of locally optimum neighborhoods. We also propose a new factorization algorithm for speeding-up the intensive computation of the required sharedneighbors matrices.The second contribution of the thesis is a generalization of the SNN clustering approach to the multi-source case. Whereas SNN methods appear to be ideally suited to sets of heterogeneous information sources, this multi-source problem was surprisingly not addressed in the literature beforehand. The main originality of our approach is that we introduce an information source selection step in the computation of candidate cluster scores. As shown in the experiments, this source selection step makes our approach widely robust to the presence of locally outlier sources. This new method is applied to a wide range of problems including multimodal structuring of image collections and subspace-based clustering based on random projections. The third contribution of the thesis is an attempt to extend SNN methods to the context of bipartite k-nn graphs. We introduce new SNN relevance measures revisited for this asymmetric context and show that they can be used to select locally optimal bi-partite clusters. Accordingly, we propose a new bipartite SNN clustering algorithm that is applied to visual object’s discovery based on a randomly precomputed matching graph. Experiments show that this new method outperformed state-of-the-art object mining results on OxfordBuilding dataset. Based on the discovered objects, we also introduce a new visual search paradigm, i.e. object-based visual query suggestion.
|
25 |
Relation entre déviance constructive, comportements proactifs et innovation : analyse des construits et de leurs conséquences / Relationship between Constructive Deviance, Proactive Behaviors and Innovation : analysis of the Constructs and their ConsequencesDeprez, Guillaume 04 May 2017 (has links)
Le but de cette recherche était d'examiner la relation entre la déviance constructive (Galperin, 2012 ; Warren, 2003 ; Vadera, Pratt, & Mishra, 2013), la proactivité (Grant & Ashford, 2008 ; Parker & Collins, 2010) et leur rôle dans le processus de changement et d'innovation (CI) en contexte organisationnel (Potočnik & Anderson, 2016). Nous avons tout d'abord examiné la littérature portant sur la déviance et la proactivité. Nous avons ensuite concentré notre attention sur la création d'une échelle d'attitudes normatives et déviantes (NDAS) pour traiter l'aspect dynamique de la déviance. Ensuite, nous avons exploré la nature du construit de déviance et ainsi traité la relation aux CI. Nous avons proposé l'existence de deux facteurs d'ordre supérieur: le constructive dark side et constructive bright side. Ensuite, nous avons testé la relation entre ces facteurs et des conséquences communes (engagement affectif, bien-être, détresse et intention de départ). Nous avons recruté des travailleurs français par le biais de questionnaires pour tester nos hypothèses. Nous avons donc utilisé, créé ou traduit des échelles de mesures des comportements de déviance constructive (Galperin, 2012), d'innovation (Janseen, 2000), de prise en main (Morisson & Phelps, 1998) ou la NDAS... Nous avons également procédé, dans certains cas, à plusieurs recueils de données espacées dans le temps. Dans la plupart des cas, des analyses de modélisation d'équations structurelles ont été utilisées. Les résultats et les limites sont discutés dans chaque chapitre des articles. Ces résultats aident à clarifier le construit de déviance constructive et sa relation avec la proactivité dans la littérature de CI. / The aim of this research was to examine the relation between constructive deviance (Galperin, 2012; Warren, 2003; Vadera, Pratt, & Mishra, 2013), proactivity (Grant & Ashford, 2008; Parker & Collins, 2010) and their role in change and innovation (CI) processes in organizational context (Potočnik & Anderson, 2016). After we examined the deviance and proactive literature related to work and organizational psychology, we focused our attention on the creation of a normative and deviant attitudinal scale (NDAS) to deal with the dynamic aspect of deviance. Then, we explored the nomological network of deviance and treated its relationship with CI related-constructs. We, therefore, proposed the existence of two higher-order factors named constructive dark-side and constructive bright-side. Latterly, we tested for a second time the relation between these second-order factors and common outcomes (affective commitment, well-being, distress, and turnover intent). We used research by questionnaire to test our entire hypothesis on French workers. For this, we used, created and/or translated scales of constructive deviant behaviours (Galperin, 2012), NDAS, innovative work behaviour (Janseen, 2000) or taking charge (Morisson & Phelps, 1998)... We also proceeded, in some cases, with measurements at different times to provide better analysis. In most cases, structural equation modelling analyses were performed. Results and limitations are discussed in each article chapters (chapters 2, 3, & 4). These results help to clarify the nomological network of constructive deviance and its relationship with proactivity in the CI literature. To our knowledge, this study is one of the first to follow this path and test it.
|
26 |
Simulation globale de l'éclairage pour des séquences animées prenant en en compte la cohérence temporelleDamez, Cyrille 10 December 2001 (has links) (PDF)
Les méthodes globales de simulation de l'éclairage permettent, à la différence des méthodes d'éclairage local, d'exprimer l'équilibre énergétique dans les échanges entre différents objets, et donc de simuler précisément les effets subtils d'éclairage dûs aux nombreuses inter-réflexions. Il est donc naturel de souhaiter les utiliser pour la synthèse réaliste de films d'animation. Plutôt que de résoudre une succession d'équations intégrales tri-dimensionelles, nous modélisons les échanges lumineux ayant lieu au cours de l'animation sous la forme d'une unique équation intégrale quadri-dimensionelle. Dans le cas ou l'intégralité des mouvements est connue à l'avance, nous proposons une extension de l'algorithme de radiosité hiérarchique mettant à profit la cohérence temporelle. La radiosité en chaque point et à chaque instant y est exprimée dans une base de fonctions hiérarchiques définies sur un maillage produit par un processus de raffinement. L'extension de ce maillage à un espace à quatre dimensions nous permet de calculer des échanges lumineux sur un intervalle de temps fini au lieu d'une date donnée. L'algorithme ainsi défini permet la simulation de l'éclairage global diffus dans une scène animée, dans un temps largement inférieur, avec une qualité équivalente. Nous avons développé pour cela de nouveaux oracles de raffinement ad hoc, que nous présentons ici. Afin de permettre le calcul de scènes géométriquement complexes, nous présentons une nouvelle politique de regroupement hiérarchique des objets adaptée au cas quadri-dimensionnel. Nous présentons également un algorithme permettant la réduction des discontinuités temporelles dues aux approximations effectuées lors de la résolution, basé sur l'emploi de bases de multi-ondelettes. Finalement, nous présentons un mécanisme d'ordonnancement des calculs et de sauvegarde temporaire sur une mémoire de masse permettant de réduire la consommation en mémoire vive de l'algorithme.
|
27 |
Optimisation de la préparation de commandes dans les entrepôts de distribution / Order picking optimization in a distribution warehouseLenoble, Nicolas 23 October 2017 (has links)
La préparation de commandes est une activité primordiale dans les entrepôts de distribution (près de 60% des coûts opérationnels dans les entrepôts traditionnels). Un des moyens de réduire ces coûts est de collecter plusieurs commandes simultanément, plutôt qu’une par une ; cela permet d’éviter des déplacements inutiles des opérateurs dans le cas de collecte manuelle des produits, et de moins solliciter les machines, dans le cas de collecte automatisée. Nous considérons dans cette thèse des entrepôts de distribution où les produits sont stockés dans des machines appelées stockeurs automatisés composés de plateaux sur lesquels les produits sont stockés ; nous prenons en compte deux types de stockeurs : les VLMs et Carousels. Ces deux types de machines, en plein développement, se différencient par le temps nécessaire pour passer d’un plateau au plateau suivant à visiter (constant dans le cas d’un VLM, dépendant du nombre d’étages entre les 2 plateaux visités dans le cadre des carousels). L’objectif de la thèse est donc de développer des méthodes pour faire des regroupements de commandes en lots dans des entrepôts automatisés afin de collecter un ensemble donné de commandes le plus efficacement possible selon des critères que nous allons définir.Nous étudions tout d’abord un premier type de regroupement de commandes en lots, pour lequel chaque lot sera collecté entièrement (toutes les commandes composant le lot seront traitées) avant de passer au suivant. Nous parlerons simplement de batching. Nous évaluons le temps de préparation de commandes, dans le cas où l’opérateur effectue la collecte sur une ou sur plusieurs machines. L’intérêt d’utiliser plusieurs machines est de permettre la recherche de plateaux en temps masqué (le stockeur effectue un changement de plateaux pendant que l’opérateur est occupé à effectuer la collecte sur d’autres stockeurs). Cette évaluation du temps de préparation de commandes nous permet d’extraire un critère d’optimisation et d’établir des modèles d’optimisation exacts pour les VLMs puis les carousels. Ces modèles sont ensuite testés avec des données réelles d’entreprise, grâce au partenariat avec l’entreprise KLS Logistic, éditeur du WMS Gildas. Enfin, nous étendons la résolution aux méthodes approchées de type métaheuristiques, afin de garantir de bonnes solutions sous un temps de calcul raisonnable. Des résultats significatifs en termes de réduction du temps de préparation de commandes permettent de justifier l’intérêt de nos travaux.Nous étudions ensuite un deuxième type de regroupement, où un ensemble de commandes est collecté simultanément mais, contrairement au cas précédent, à chaque fois qu’une commande est terminée, elle est immédiatement remplacée. Nous parlerons ici de « Rolling batching ». Cette approche est classiquement utilisée dans les « Drive ». Nous nous focalisons sur le cas de collecte effectuée sur des carousels, système le plus utilisé dans les « Drive ». Nous développons un algorithme permettant le calcul du temps d’attente de l’opérateur. Une résolution approchée couplant l’utilisation d’heuristiques et d’une métaheuristique est proposée afin de résoudre efficacement le séquencement des commandes. Nous notons que des gains significatifs sont obtenus par l’utilisation de la méthode proposée. / The order picking is a critical activity in distribution warehouses (60% of the operational costs in traditional warehouses). One way to reduce these costs is to collect several orders simultaneously, rather than individually, to avoid unnecessary travels to the operators in the case of manual picking of the products, and less workload for the machines, in the case of automated picking. We consider, in this PhD, warehouses where products are stored in automated storage systems composed by trays on which products are stored. We consider two types of machines: VLMs and Carousels. These two types differ by the time required to move from a tray to the next one to visit (constant in the case of a VLM, depending on the number of trays between 2 consecutively visited trays for the carousels). We aim to develop order batching methods in automated warehouses to collect a set of orders efficiently, according to criteria that we will define.We study a first category of order batching, for which each batch will be entirely collected (all orders associated with a given batch will be collected) before moving to the next batch. We evaluate completion time, when the operator does the picking on one or several machines. The interest of using multiple machines is to search trays in masked time (the machine change trays while the operator is busy to collect on other machines). From this evaluation of the completion time, we extract an optimization criterion and establish optimization models for the VLMs then the carousels. These models are then tested with actual data, thanks to the partnership with the company KLS Logistic, editor of the WMS Gildas. Finally, we extend the resolution to metaheuristics, to ensure good solutions under reasonable computation time. Significant savings in terms of completion time reduction justifies the interest of our work.We then study the second category, where a set of orders is collected simultaneously, but unlike the previous case, whenever an order is collected, it is immediately replaced by a new one. We'll talk here about "Rolling batching”. This approach is typically used in the "Drive-in shops". We develop an algorithm for the computation of the waiting time of the operator. Resolution coupling heuristics and a metaheuristic is proposed in order to effectively resolve the order sequencing. Significant gains are achieved by the use of the proposed method.
|
28 |
Nouveaux logiciels pour la biologie structurale computationnelle et la chémoinformatique / New software for computational structural biology and chemoinformaticsBérenger, François 05 July 2016 (has links)
Ma thèse introduit cinq logiciels de trois différents domaines: le calcul parallèle et distribué, la biologie structurale computationnelle et la chémoinformatique. Le logiciel pour le calcul parallèle et distribué s'appelle PAR. PAR permet d'exécuter des expériences indépendantes de manière parallèle et distribuée. Les logiciels pour la biologie structurale computationnelle sont Durandal, EleKit et Fragger. Durandal exploite la propagation de contraintes géométriques afin d'accélérer l'algorithme de partitionnement exact pour des modèles de protéines. EleKit permet de mesurer la similarité électrostatique entre une petite molécule et la protéine qu'elle est conçue pour remplacer sur une interface protéine-protéine. Fragger est un cueilleur de fragments de protéines permettant de sélectionner des fragments dans la banque de protéines mondiale. Enfin, le logiciel de chémoinformatique est ACPC. ACPC permet l'encodage fin, d'une manière rotation-translation invariante, d'une molécule dans un ou une combinaison des trois espaces chimiques (électrostatique, stérique ou hydrophobe). ACPC est un outil de criblage virtuel qui supporte les requêtes consensus, l'annotation de la molécule requête et les processeurs multi-coeurs. / This thesis introduces five software useful in three different areas : parallel and distributed computing, computational structural biology and chemoinformatics. The software from the parallel and distributed area is PAR. PAR allows to execute independent experiments in a parallel and distributed way. The software for computational structural biology are Durandal, EleKit and Fragger. Durandal exploits the propagation of geometric constraints to accelerate the exact clustering algorithm for protein models. EleKit allows to measure the electrostatic similarity between a chemical molecule and the protein it is designed to replace at a protein-protein interface. Fragger is a fragment picker able to select protein fragments in the whole protein data-bank. Finally, the chemoinformatics software is ACPC. ACPC encodes in a rotation-translation invariant way a chemical molecule in any or a combination of three chemical spaces (electrostatic, steric or hydrophobic). ACPC is a ligand-based virtual screening tool supporting consensus queries, query molecule annotation and multi-core computers.
|
29 |
Coordination inside centralized radio access networks with limited fronthaul capacity / Coordination dans les réseaux d'accès radio centralidés avec liaisons de transport à débit limitéDuan, Jialong 27 November 2017 (has links)
Le réseau d'accès radio centralisé (C-RAN) peut fortement augmenter la capacité des réseaux mobiles. Cependant, la faisabilité de C-RAN est limitée par le débit considérable engendré sur les liaisons de transport, appelées également fronthaul. L'objectif de cette thèse est d'améliorer les performances de C-RAN tout en considérant les limitations du débit sur le frontaul, l'allocation de ressources et l'ordonnancement des utilisateurs.Nous étudions d'abord les séparations fonctionnelles possibles entre les têtes radios distantes (RRH) et les unités de traitement en bande de base (BBU) sur la liaison montante pour réduire le débit de transmission sur le fronthaul : certaines fonctions de couche basse sont déplacées du BBU vers les RRH. Nous fournissons une analyse quantitative des améliorations de performances ainsi obtenues.Nous nous concentrons ensuite sur la transmission coordonnée Multi-point (CoMP) sur le lien descendant. CoMP peut améliorer l'efficacité spectrale mais nécessite une coordination inter-cellule, ce qui est possible uniquement si une capacité fronthaul élevée est disponible. Nous comparons des stratégies de transmission avec et sans coordination inter-cellule. Les résultats de simulation montrent que CoMP doit être préféré pour les utilisateurs situés en bordure de cellule et lorsque la capacité du fronthaul est élevée. Nous en déduisons une stratégie hybride pour laquelle Les utilisateurs sont divisés en deux sous-ensembles en fonction de la puissance du signal. Les utilisateurs situés dans les zones centrales sont servis par un seul RRH avec une coordination simple et ceux en bordure de cellule sont servis en mode CoMP. Cette stratégie hybride constitue un bon compromis entre les débits offerts aux utilisateurs et les débits sur le fronthaul. / Centralized/Cloud Radio Access Network (C-RAN) is a promising mobile network architecture, which can potentially increase the capacity of mobile networks while reducing operators¿ cost and energy consumption. However, the feasibility of C-RAN is limited by the large bit rate requirement in the fronthaul. The objective of this thesis is to improve C-RAN performance while considering fronthaul throughput reduction, fronthaul capacity allocation and users scheduling.We first investigate new functional split architectures between Remote Radio Heads (RRHs) and Baseband Units (BBU) on the uplink to reduce the transmission throughput in fronthaul. Some low layer functions are moved from the BBU to RRHs and a quantitative analysis is provided to illustrate the performance gains. We then focus on Coordinated Multi-point (CoMP) transmissions on the downlink. CoMP can improve spectral efficiency but needs tight coordination between different cells, which is facilitated by C-RAN only if high fronthaul capacity is available. We compare different transmission strategies without and with multi-cell coordination. Simulation results show that CoMP should be preferred for users located in cell edge areas and when fronthaul capacity is high. We propose a hybrid transmission strategy where users are divided into two parts based on statistical Channel State Informations (CSIs). The users located in cell center areas are served by one transmission point with simple coordinated scheduling and those located in cell edge areas are served with CoMP joint transmission. This proposed hybrid transmission strategy offers a good trade-off between users¿ transmission rates and fronthaul capacity cost.
|
30 |
Segmentation et identification audiovisuelle de personnes dans des journaux télévisés / Audiovisual segmentation and identification of persons in broadcast newsGay, Paul 25 March 2015 (has links)
Cette thèse traite de l’identification des locuteurs et des visages dans les journaux télévisés. L’identification est effectuée à partir des noms affichés à l’écran dans les cartouches qui servent couramment à annoncer les locuteurs. Puisque ces cartouches apparaissent parcimonieusement dans la vidéo, obtenir de bonnes performances d’identification demande une bonne qualité du regroupement audiovisuel des personnes. Par regroupement, on entend ici la tâche de détecteret regrouper tous les instants où une personne parle ou apparaît. Cependant les variabilités intra-personnes gênent ce regroupement. Dans la modalité audio, ces variabilités sont causées par la parole superposée et les bruits de fond. Dans la modalité vidéo, elles correspondent essentiellement à des variations de la pose des visages dans les scènes de plateaux avec, en plus, des variations de luminosité (notamment dans le cas des reportages). Dans cette thèse, nous proposons une modélisation du contexte de la vidéo est proposée afin d’optimiser le regroupement pour une meilleure identification. Dans un premier temps, un modèle basé sur les CRF est proposé afin d’effectuer le regroupement audiovisuel des personnes de manière jointe. Dans un second temps, un système d’identification est mis en place, basé sur la combinaison d’un CRF de nommage à l’échelle des classes, et du CRF développé précédemment pour le regroupement. En particulier, des informations de contexte extraites de l’arrière plan des images et des noms extraits des cartouches sont intégrées dans le CRF de regroupement. Ces éléments permettent d’améliorer le regroupement et d’obtenir des gains significatifs en identification dans les scènes de plateaux. / This Phd thesis is about speaker and face identification in broadcast news. The identification is relying on the names automatically extracted from overlaid texts which are used to announce the speakers. Since those names appear sparsely in the video, identification performance depends on the diarization performance i.e. the capacity of detecting and clustering together all the moments when a given person appears or speaks. However, intra-person variability in the video signal make this task difficult. In the audio modality, this variability comes from overlap speech and background noise. For the video, it consists in head pose variations and lighting conditions (especially in report scenes). A context-aware model is proposed to optimize the diarization for a better identification. Firstly, a Conditional Random Field (CRF) model isproposed to perform the diarization jointly over the speech segments and the face tracks. Secondly, an identifcation system is designed. It is based on the combination of a naming CRF at cluster level and the diarization CRF. In particular, context information extracted from the image background and the names extracted from the overlaid texts are integrated in the diarization CRF at segment level. The use of those elements enable us to obtain better performances in diarization and identification, especially in studio scenes.
|
Page generated in 0.2434 seconds