• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 473
  • 212
  • 42
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 734
  • 349
  • 156
  • 123
  • 98
  • 85
  • 75
  • 60
  • 59
  • 59
  • 59
  • 57
  • 56
  • 55
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modèles génératifs pour la classification et la séparation de sources sonores en temps-réel / Generative models for real-time audio sources classification and separation

Baelde, Maxime 20 September 2019 (has links)
Cette thèse s'inscrit dans le cadre de l'entreprise A-Volute, éditrice de logiciels d'amélioration d'expérience audio. Elle propose un radar qui transpose l'information sonore multi-canale en information visuelle en temps-réel. Ce radar, bien que pertinent, manque d'intelligence car il analyse uniquement le flux audio en terme d'énergie et non en termes de sources sonores distinctes. Le but de cette thèse est de développer des algorithmes de classification et de séparation de sources sonores en temps-réel. D'une part, la classification de sources sonores a pour but d'attribuer un label (par exemple voix) à un son monophonique (un label) ou polyphonique (plusieurs labels). La méthode développée utilise un attribut spécifique, le spectre de puissance normalisé, utile à la fois dans le cas monophonique et polyphonique de part sa propriété d'additivité des sources sonores. Cette méthode utilise un modèle génératif qui permet de dériver une règle de décision basée sur une estimation non paramétrique. Le passage en temps-réel est réalisé grâce à un pré-traitement des prototypes avec une classification hiérarchique ascendante. Les résultats sont encourageants sur différentes bases de données (propriétaire et de comparaison), que ce soit en terme de précision ou de temps de calcul, notamment dans le cas polyphonique. D'autre part, la séparation de sources consiste à estimer les sources en terme de signal dans un mélange. Deux approches de séparation ont été considérées dans la thèse. La première considère les signaux à retrouver comme des données manquantes et à les estimer via un schéma génératif et une modélisation probabiliste. L'autre approche consiste, à partir d'exemples sonores présent dans une base de données, à calculer des transformations optimales de plusieurs exemples dont la combinaison tends vers le mélange observé. Les deux propositions sont complémentaires, avec chacune des avantages et inconvénients (rapidité de calcul pour la première, interprétabilité du résultat pour la deuxième). Les résultats expérimentaux semblent prometteurs et nous permettent d'envisager des perspectives de recherches intéressantes pour chacune des propositions. / This thesis is part of the A-Volute company, an audio enhancement softwares editor. It offers a radar that translates multi-channel audio information into visual information in real-time. This radar, although relevant, lacks intelligence because it only analyses the audio stream in terms of energy and not in terms of separate sound sources. The purpose of this thesis is to develop algorithms for classifying and separating sound sources in real time. On the one hand, audio source classification aims to assign a label (e.g. voice) to a monophonic (one label) or polyphonic (several labels) sound. The developed method uses a specific feature, the normalized power spectrum, which is useful in both monophonic and polyphonic cases due to its additive properties of the sound sources. This method uses a generative model that allows to derive a decision rule based on a non-parametric estimation. The real-time constraint is achieved by pre-processing the prototypes with a hierarchical clustering. The results are encouraging on different databases (owned and benchmark), both in terms of accuracy and computation time, especially in the polyphonic case. On the other hand, source separation consists in estimating the sources in terms of signal in a mixture. Two approaches to this purpose were considered in this thesis. The first considers the signals to be found as missing data and estimates them through a generative process and probabilistic modelling. The other approach consists, from sound examples present in a database, in computing optimal transformations of several examples whose combination tends towards the observed mixture. The two proposals are complementary, each having advantages and drawbacks (computation time for the first, interpretability of the result for the second). The experimental results seem promising and allow us to consider interesting research perspectives for each of the proposals.
12

Optimized modeling of membrane gas phase separation processes

Gilassi, Sina 01 February 2021 (has links)
Le schéma traditionnel d'utilisation de l'énergie est désormais considéré comme un problème sérieux en raison de sa relation directe avec le changement climatique. Actuellement, notre dépendance vis-à-vis des combustibles fossiles augmente de façon spectaculaire, ce qui peut être attribué à la croissance de la population mondiale et à la forte demande d'énergie pour le développement économique. Ce modèle semble être préférable uniquement pour une économie florissante, mais ses perspectives pour les générations futures seront sans aucun doute décevantes. Dans ce scénario, un volume gigantesque de CO₂ produit par la combustion des combustibles fossiles dans les industries chimiques, les cimenteries et les centrales électriques, est rejeté de manière irresponsable dans l'atmosphère. Il ne fait aucun doute qu'une telle exploitation des combustibles fossiles nous conduit à des catastrophes environnementales sans précédent en ce qui concerne l'émission de CO₂, qui est le principal contributeur aux gaz à effet de serre (GES). L'une des solutions disponibles pour faire face à cette situation critique est de moderniser les centrales existantes qui émettent du CO₂ avec des technologies de capture et de stockage du carbone (CSC) afin de lutter systématiquement contre le changement climatique. Toutefois, les technologies actuelles de CSC présentent encore des problèmes techniques et des limites opérationnelles qui entraînent un surcoût pour les dépenses d'une usine et une augmentation de sa consommation d'énergie. La technologie membranaire est actuellement considérée comme une méthode de séparation prometteuse pour la séparation des gaz en raison de la simplicité de son procédé et de son mécanisme écologique. Par rapport aux autres méthodes de séparation, cette technologie est encore en cours de développement. Actuellement, la recherche se concentre sur l'amélioration des caractéristiques des membranes afin de faire face à un compromis bien connu entre la perméabilité et la sélectivité décrit par les graphiques de Robeson. Cette approche pourrait viser à commercialiser cette technologie plus efficacement dans le domaine de la séparation des gaz, tandis qu'une technologie d'absorption à base d'amines sera encore utilisée de manière dominante à cette fin pendant plusieurs années. Malgré cela, il est également nécessaire d'évaluer la performance des membranes fabriquées pour la séparation de différents mélanges de gaz avant de les utiliser pour des projets industriels réalistes. Pour ce faire, un outil de simulation est nécessaire pour prédire la composition des composants gazeux dans les flux de produits du rétentat et du perméat dans différentes conditions de fonctionnement. Ainsi, au chapitre 1, un modèle fiable est développé pour la simulation de la séparation des gaz à l'aide de modules de membranes à fibres creuses. Ensuite, ce modèle permet d'identifier les propriétés requises de la membrane, ce qui permet d'obtenir des performances intéressantes pour le module. Un procédé membranaire à plusieurs étapes est nécessaire pour atteindre les spécifications du produit qui sont une pureté et une récupération élevées du CO₂ dans le cas de projets de capture du CO₂. Dans ce cas, au chapitre 2, un modèle d'optimisation est proposé pour déterminer les valeurs optimales des paramètres de fonctionnement pour chaque étape et surtout pour déterminer une disposition optimisée à différents taux de récupération tout en minimisant le coût de la capture du CO₂. Dans le chapitre 3, nous comparons les performances de séparation de la technologie membranaire et du procédé d'absorption enzymatique en effectuant plusieurs analyses technico-économiques. Cette approche vise à démontrer la viabilité technique et l'efficacité économique de ces méthodes pour la modernisation d'une centrale électrique de 600 MWe par rapport aux procédés traditionnels d'absorption à base d'amines. Enfin, au chapitre 4, un système hybride est présenté en combinant les procédés d'absorption membranaire et enzymatique pour capturer le CO₂ des gaz de combustion d'une centrale électrique de 600 MWe. Ce système hybride est ensuite évalué pour révéler la faisabilité du procédé et pour étudier les performances de séparation en partageant la capture partielle du CO₂ entre ces deux unités de séparation. Dans l'ensemble, cette thèse de doctorat contribue à tirer parti de la fusion de la technologie membranaire avec d'autres méthodes de séparation conventionnelles telles que le procédé d'absorption enzymatique pour faciliter plus rapidement son intégration industrielle et sa commercialisation sur le marché de la séparation des gaz. / The traditional pattern of energy use is now regarded as a serious problem due to its direct relationship to the climate change. Currently, our dependency on fossil fuels is dramatically increasing which can be attributed to the world population growth and heavy energy demand for economic development. This model appears to be preferable only for flourishing economy but undoubtedly its outlook for the future generations will be disappointing. Under this scenario, a gigantic volume of CO₂ produced by burning the fossil fuels in chemical industries, cement manufactures, and power plants, is recklessly released in the atmosphere. Undoubtedly, such exploitation of the fossil fuels is bringing us further to unprecedented environmental disasters pertaining to the emission of CO₂ which is the major contributor to the greenhouse gases (GHGs). One of the available solutions to deal with this critical situation is to retrofit existing CO₂ emitter plants with carbon capture and storage (CCS) technologies in order to systematically combat with the climate change. However, the current CCS technologies still have technical issues and operational limitations resulting in incurring extra cost to a plant’s expenditures and increasing its energy consumption. Membrane technology is currently regarded as a promising separation method for gas separation due to its process simplicity and eco-friendly mechanism. In comparison to other separation methods, this technology is still under progress. Currently, the research focus is on the enhancement of membrane characteristics in order to deal with a well-known trade-off between permeability and selectivity described by Robeson plots. This approach might aim at commercializing this technology more efficiently in the gas separation area while an amine-based absorption technology will still be dominantly utilized for this purpose for several years. Despite this, it is also needed to evaluate the performance of fabricated membranes for the separation of different gas mixtures prior to utilizing for realistic industrial projects. To do so, a simulation tool is required to predict the composition of gas components in retentate and permeate product streams under different operating conditions. Thus, in Chapter 1, a reliable model is developed for the simulation of gas separation using hollow fiber membrane modules. Later, this model allows identifying the required membrane properties hence, resulting in module performances of interest. A multi-stage membrane process is required to hit product specifications which are high CO₂ purity and recovery in the case of CO₂ capture projects. In this case, an optimization model is proposed in Chapter 2 to determine the optimal values of operating parameters for each stage and more importantly to determine an optimized layout at different recovery rates while CO₂ capture cost is minimized. In Chapter 3, we compare the separation performance of membrane technology and the enzymatic-absorption process through performing several techno-economic analyses. This approach aims at demonstrating the technical viability and economic efficiency of these methods for retrofitting to a 600 MWe power plant compared to traditional amine-based absorption processes. Finally, a hybrid system is introduced in Chapter 4 by combining membrane and enzymatic-absorption processes to capture CO₂ from flue-gas of a 600 MWe power plant. This hybrid system is then assessed to reveal the process feasibility and to investigate separation performance through sharing partial CO₂ capture between these two separation units. Overall, this PhD thesis contributes to leverage the merge of membrane technology with other conventional separation methods such as the enzymatic-absorption process to more rapidly facilitate its industrial integration and commercialization in the gas separation market.
13

Séparation aveugle de mélanges convolutifs de sources cyclostationnaires / Blind source separation of convolutive mixtures of cyclostationary signals

Florian, Elena 14 December 2010 (has links)
Dans cette thèse, nous nous sommes intéressés aux méthodes de séparation de mélanges convolutifs de signaux cyclostationnaires, et particulièrement de signaux issus de systèmes de communications numériques. Les résultats de ces travaux concernent principalement les méthodes de séparation basées sur la minimisation d'un critère du type CMA avec une approche par déflation. Dans la première partie de ce manuscrit nous nous sommes concentrés sur les mélanges de sources non-circulaires à l'ordre 2, notamment des sources BPSK ou CPM d'indice 1/2. Nous avons montré que dans le cas où les sources ont des caractéristiques différentes (en terme de débit et de résidu de porteuse) la minimisation du critère du module constant couplée avec une approche par déflation permet d'extraire les sources du mélange sans connaître leurs fréquences cycliques ni leurs fréquences cycliques non conjuguées. Dans le cas opposé, où les sources partagent les mêmes fréquences cycliques et les mêmes fréquences cycliques non conjuguées, nous avons prouvé l'existence de minima locaux non-séparants du critère du CMA. Nous avons aussi montré que le critère du CMA converge dans un grand nombre de cas vers ces points et que par conséquent la séparation de sources n'est pas toujours réalisée pour ce type de mélanges. Nous avons ensuite proposé un nouveau critère basé sur le critère du CMA qui, couplé avec une approche par déflation, assure l'extraction des sources dans ces situations. Ce nouveau critère ne nécessite pas la connaissance des fréquences cycliques des signaux mais nécessite quand même la connaissance des fréquences cycliques non-conjuguées les plus significatives. Nous avons proposé une méthode assez grossière d'estimation de ces fréquences et nous avons montré que, avec les fréquences cycliques non-conjuguées significatives ainsi estimées, l'algorithme proposé fonctionne correctement et qu'il est capable d'extraire les sources des mélanges pour lesquels le critère du CMA échoue. Dans la deuxième partie de ce manuscript, nous nous sommes intéressés aux séparateurs dérivés du principe du maximum de vraisemblance. Nous avons d'abord étudié des mélanges instantanés des signaux cyclostationnaires et circulaires à l'ordre 2. Dans ce contexte, nous avons mis en évidence des estimateurs basés sur le principe du maximum de vraisemblance et nous avons présenté une méthode pour les implanter. Nous avons ensuite étudié les propriétés asymptotiques de ces estimateurs et nous avons montré que, dans des conditions idéales (absence du bruit), ces estimateurs permettent d'améliorer les performances du critère du CMA. Toujours dans ces conditions, nous avons montré que les estimateurs dérivés du critère du maximum de vraisemblance permettent dans certains cas d'estimer la source ayant la bande passante la plus petite avec une erreur plus petite que les méthodes usuelles. Ces résultats ne sont malheureusement plus vrais dans un context plus réaliste comme en présence de bruit. Nous avons généralisé les idées développées dans le cas de mélanges instantanés au cas de mélanges convolutifs mais pour ce type de mélanges, nous n'avons pas constaté d'amélioration des performances du critère du CMA même dans le cas non-bruité. Bien qu'en pratique cette étude n'apporte pas de grandes contributions, elle a néanmoins un intérêt théorique certain / This thesis addresses the problem of blind separation of convolutive mixtures of cyclostationnary, linearly modulated signals. We mainly focus on signals issued from digital communications systems. Our work involves separating methods based on the minimisation of a criterion (like the constant modulus) combined with a deflation approach. In the first part of the manuscript we considered convolutive mixtures of non second order circular signals such as BPSK and $1/2$ index CPM modulations. We have proven that if the transmission sources all have different baud rates and offset frequencies, minimizing the constant modulus criterion and using a deflation approach successfully achieves the extraction of the original signals from the mixture without prior knowledge of the signal cyclic and non conjugate cyclic frequencies. This result is no longer obtained if all the transmission sources have the same baud rate and frequency offset. We have proven that in this case the CMA criterion has non separating local minima and that the minimisation algorithm very often converges to these spurious points. This means that in a non-negligible number of cases separation is not achieved for this type of mixtures. We therefore propose a new criterion based on the CMA which combined with a deflation approach ensures the extraction of source signals from this particular type of mixtures. This new criterion does not need prior knowledge of the cyclic frequencies but does need information on the most significant non conjugate cyclic frequencies of the signals. We also propose an estimation method for these frequencies and we show that our new algorithm works correctly with the estimated non conjugate cyclic frequencies and that it is capable to extract all the source signals from those types of mixtures for which the CMA fails.The second part of this manuscript focuses on a class of Maximum Likelihood derived separators. We are only considering second order circularly modulated signals. We first studied the case of instantaneous mixtures and then extended our results to convolutive mixtures. For the instantaneous mixtures, we have developed Maximum Likelihood based estimators and presented an implementation method for them. We have then studied their asymptotic properties and we have shown that, in the absence of noise, these estimators improve the performance of the CMA algorithm. Under the same assumptions we have shown that the Maximum Likelihood based estimators allow, in some cases, to extract the signal with the largest bandwidth with a lower error than the one obtained when using other well known separating methods. This results however are no longer true in more realistic contexts such as the presence of noise. We have extended this study to the convolutive mixtures of signals but in this case we have not seen an important improvement on the performances achieved by the CMA algorithm, not even in the absence of noise. Even though this study does not have practical applications, it has nevertheless a certain theoretical significance
14

Parallel hybrid optimization methods for permutation based problems / Méthodes d'optimisation parallèles hybrides pour les problèmes de permutation

Mehdi, Malika 20 October 2011 (has links)
La résolution efficace de problèmes d'optimisation à permutation de grande taille nécessite le développement de méthodes hybrides complexes combinant différentes classes d'algorithmes d'optimisation. L'hybridation des métaheuristiques avec les méthodes exactes arborescentes, tel que l'algorithme du branch-and-bound (B&B), engendre une nouvelle classe d'algorithmes plus efficace que ces deux classes de méthodes utilisées séparément. Le défi principal dans le développement de telles méthodes consiste à trouver des liens ou connections entre les stratégies de recherche divergentes utilisés dans les deux classes de méthodes. Les Algorithmes Génétiques (AGs) sont des métaheuristiques, à base de population, très populaires basés sur des opérateurs stochastiques inspirés de la théorie de l'évolution. Contrairement aux AGs et aux métaheuristiques généralement, les algorithmes de B&B sont basés sur l'énumération implicite de l'espace de recherche représenté par le moyen d'un arbre, dit arbre de recherche. Notre approche d'hybridation consiste à définir un codage commun des solutions et de l'espace de recherche ainsi que des opérateurs de recherche adéquats afin de permettre un couplage efficace de bas niveau entre les deux classes de méthodes AGs et B&B. La représentation de l'espace de recherche par le moyen d'arbres est traditionnellement utilisée dans les algorithmes de B&B. Dans cette thèse, cette représentation a été adaptée aux métaheuristiques. L'encodage des permutations au moyen de nombres naturels faisant référence à l'ordre d'énumération lexicographique des permutations dans l'arbre du B&B, est proposé comme une nouvelle manière de représenter l'espace de recherche des problèmes à permutations dans les métaheuristiques. Cette méthode de codage est basée sur les propriétés mathématiques des permutations, à savoir les codes de Lehmer et les tables d'inversions ainsi que les système d'énumération factoriels. Des fonctions de transformation permettant le passage entre les deux représentations (permutations et nombres) ainsi que des opérateurs de recherche adaptés au codage, sont définis pour les problèmes à permutations généralisés. Cette représentation, désormais commune aux métaheuristiques et aux algorithmes de B&B, nous a permis de concevoir des stratégies d'hybridation et de collaboration efficaces entre les AGs et le B&B. En effet, deux approches d'hybridation entre les AGs et les algorithmes de B&B (HGABB et COBBIGA) basés sur cette représentation commune ont été proposées dans cette thèse. Pour validation, une implémentation a été réalisée pour le problème d'affectation quadratique à trois dimension (Q3AP). Afin de résoudre de larges instances de ce problème, nous avons aussi proposé une parallélisation pour les deux algorithmes hybrides, basée sur des techniques de décomposition d'espace (décomposition par intervalle) utilisées auparavant pour la parallélisation des algorithmes de B&B. Du point de vue implémentation, afin de faciliter de futurs conceptions et implémentations de méthodes hybrides combinant métaheuristiques et méthodes exacte arborescentes, nous avons développé une plateforme d'hybridation intégrée au logiciel pour métaheuristiques, ParadisEO. La nouvelle plateforme a été utilisée pour réaliser des expérimentations intensives sur la grille de calcul Grid'5000. / Solving efficiently large benchmarks of NP-hard permutation-based problems requires the development of hybrid methods combining different classes of optimization methods. Indeed, it is now acknowledged that such methods perform better than traditional optimization methods when used separately. The key challenge is how to find connections between the divergent search strategies used in each class of methods in order to build efficient hybridization strategies. Genetic algorithms (GAs) are very popular population-based metaheuristics based on stochastic evolutionary operators. The hybridization of GAs with tree-based exact methods such as Branch-and-Bound is a promising research trend. B&B algorithms are based on an implicit enumeration of the solution space represented as a tree. Our hybridization approach consists in providing a common solution and search space coding and associated search operators enabling an efficient cooperation between the two methods. The tree-based representation of the solution space is traditionally used in B&B algorithms to enumerate the solutions of the problem at hand. In this thesis, this special representation is adapted to metaheuristics. The encoding of permutations as natural numbers, which refer to their lexicographic enumeration in the tree, is proposed as a new way to represent the solution space of permutation problems in metaheuristics. This encoding approach is based on the mathematical properties of permutations (Lehmer codes, inversion tables, etc.). Mapping functions between the two representations (permutations and numbers) and special search operators adapted to the encoding are defined for general permutation problems, with respect to the theory of representation. This common representation allows the design of efficient cooperation strategies between GAs and B\&B algorithms. In this thesis, two hybridization schemes combining GAs with B\&B based on this common representation are proposed. The two hybridization approaches HGABB/HAGABB (Hybrid Adaptive GA-B\&B) and COBBIGA (cooperative B&B interval-based GA), have been validated on standard benchmarks of one of the hardest permutation-based problems, the three dimensional quadratic assignment problem (Q3AP). In order to solve large benchmarks of permutation-based problems, a parallelization for computational grids is also proposed for the two hybrid schemes. This parallelization is based on space decomposition techniques (the decomposition by intervals) used in parallel B\&B algorithms. From the implementation point of view, in order to facilitate further design and implementation of hybrid methods combining metaheuristics with tree-based exact methods, a hybridization C++ framework integrated to the framework for metaheuristics ParadisEO is developed. The new framework is used to conduct extensive experiments over the computational grid Grid'5000.
15

Filtrage d'artefacts par analyse multicomposante de l'électroencéphalogramme de patients épileptiques / Artifact filtering by multicomponent analysis on electroencephalogram of epileptic patients

Boudet, Samuel 03 July 2008 (has links)
L'électroencéphalographie (EEG) consiste à mesurer l'activité électrique du cerveau à l'aide d'électrodes placées à la surface du cuir chevelu. Cette technique est principalement utilisée pour le diagnostic de l'épilepsie. Certains grapho-éléments comme des ondes lentes et des pointes-ondes peuvent apparaitre sur l'EEG permettant au neurologue de détecter une souffrance épileptique. Malheureusement, cette activité peut être fortement contaminée par des signaux parasites appelés artefacts. Ces artefacts ont pour origines principales l'activité oculaire, l'activité musculaire, le rythme cardiaque et les légers déplacements d'électrodes. Les fréquences des grapho-éléments pathologique recouvrent celles des artefacts et nous avons alors recours à des filtres spatiaux, reposant sur la séparation de sources. Le principe est de déterminer un ensemble de sources d'origines cérébrales et un ensemble de sources d'artefacts. Les sources d'artefacts sont supprimées et les sources cérébrales sont utilisées pour reconstruire le signal. Nous présentons dans cette thèse plusieurs méthodes combinant les filtres spatiaux et les filtres frèquentiels afin d'automatiser le filtrage. Une démarche quantitative a été définie afin de valider ces méthodes, nous permettant de choisir la méthode la plus performante appelée Adaptive Filtering by Optimal Projection (AFOP). Les tests sur des enregistrements cliniques de patient épileptiques, ont montré, selon l'avis du neurologue, l'efficacité d'AFOP sur la plupart des types d'artefacts ainsi que son respect des rythmes cérébraux. / The electroencephalography (EEG) consists in measuring brain electrical activity thanks to electrodes located on the scalp surface. This technique is mainly used for the diagnostic of epilepsy. Sorne grapho-elements like slow waves and spike waves can appear on the EEG, enabling the neurologist to detect an epilepsy pain. Unfortunately, this activity can be highly contaminated by parasitical signals called artifacts. These artifacts have for main origins, the ocular activity, the muscular activity, the cardiac rhythm and tight electrode displacements. The frequencies of pathological grapho-elements recover those of artifacts, and it is then required to use spatial filter which rests on source separation. The principle is to determine a set of cerebral sources and a set of artifacts sources. Artifact sources are then cancelled and the cerebral ones are used to rebuild the signal. This thesis presents several methods using both spatial and frequential filters, making the EEG filtering automated. A quantitative approach of filtering validation is defined, which enables the author to choose the most efficient called Adaptive Filtering by Optimal Projection (AFOP). According to the neurologist, tests on clinical recordings of epileptic patients prove AFOP efficiency on cancelling most of artifact types as well as on respecting cerebn rhythms.
16

Résolution exacte de problèmes de localisation de services bi-objectifs en variables mixtes / Exact algorithm for multi-objective mixed integer programming problems

Delmée, Quentin 19 October 2018 (has links)
Dans ce travail, nous nous intéressons à la résolution exacte de problèmes de localisation de service en variables mixtes. Les problèmes de programmation linéaire bi-objectif en variables mixtes ont été très étudiés dans les dernières années, mais uniquement dans un contexte générique. De même, les problèmes de localisation de services bi-objectif n’ont été étudiés que dans un cas purement discret. Nous considérons dans un premier temps le problème de localisation de services bi-objectif sans capacité. Afin de le résoudre, nous adaptons la méthode de pavage par boîtes proposée pour le cas discret. Les boîtes rectangulaires deviennent triangulaires dans le cas mixte. De plus, leur exploration est grandement facilitée, ce qui déplace la difficulté du problème dans l’énumération et le filtrage de ces boîtes. Différentes stratégies d’énumération sont proposées. Le problème de localisation de services bi-objectif avec capacité est ensuite considéré. Tout d’abord, une adaptation de la méthode de pavage par boîtes triangulaires est réalisée pour le cas avec capacité. Cependant, la nature du problème rend cette méthode beaucoup plus limitée. Nous considérons ensuite une méthode en deux phases dont la principale routine d’exploration repose sur une adaptation d’un algorithme de branch and bound initialement proposé par Beasley, dans le contexte bi-objectif. Les résultats expérimentaux sur des instances aux caractéristiques variées attestent de la pertinence des méthodes que nous proposons. / The purpose of this work is the exact solution of biobjective mixed-integer facility location problems. Biobjective mixed integer linear programming problem have been largely studied in recent years but only in the generic context. The same way, the study of biobjective facility location problems has been restricted to the discrete case. We consider first the bi-objective uncapacitated facility location problem. To solve it, we adapt the box paving method proposed for the discrete case. Rectangular boxes become triangular. Moreover, their exploration becomes considerably easier. The difficulty of the problem is therefore translated to the enumeration and the filtering of these boxes. Different enumeration strategies are proposed. Next, we consider the bi-objective capacitated facility location problem. We first propose an adaptation of the triangular box paving method to the capacitated case. However, the structure of the problem highly limits the method. Thus, we consider a two phase method. The main exploration routine is based on the adaptation of a branch and bound algorithm proposed by Beasley that we adapt to the bi-objective context. Experimental results on various instances show the efficiency of the proposed methods.
17

Nouveaux matériaux à conduction mixte protonique-électronique : Développement de membranes sélectives destinées à la séparation de l'hydrogène / Novel mixed protonic-electronic materials : Development of selective membranes devoted for hydrogen separation

Mao, Visot 05 December 2016 (has links)
La formulation de matériaux à conduction mixte protonique-électronique (MIEC-H+) performants constituerait une avancée majeure pour le développent d’applications liées au vecteur hydrogène. En particulier cette classe de matériaux constitue une alternative prometteuse aux membranes métalliques ou poreuses pour les dispositifs dédiés de la séparation de l’hydrogène. L’objectif de ce travail de thèse a ainsi été de développer, de caractériser des matériaux présentant des conductivités suffisantes pour l’application visée, de mettre en forme des membranes et d’évaluer leurs performances.La première approche a consisté développer des matériaux monophasiques par substitution d’oxydes conducteurs protoniques par un élément multivalent, Ba(Ce0.5Zr0.5)0.9-xPrxY0.1O3-δ). Parallèlement, nos travaux ont porté sur des composites céramique-céramique constitués d’une phase à conduction protonique et d’une phase à conduction électronique dans des conditions réductrices, xBaCe0.9Y0.1O3-δ-(1-x)Ce0.9Y0.1O2-δ et xBaZr0.9Y0.1O3-δ-(1-x)CeY0.1O2-δ.Les résultats les plus prometteurs en terme de conductivité (> 100 mS.cm-1 @ 600°C) ont été obtenus avec le composite de composition 20BaZr0.9Y0.1O3-δ-80Ce0.9Y0.1O2-δ qui présente une perméabilité à l’hydrogène (VALEUR) du même ordre de grandeur que les meilleures reportées dans la littérature. / The formulation of high-performance mixed protonic-electronic conductors (MPEC) presents a major advancement for the development of hydrogen-linked application. In particular, this class of materials constitute a promising alternative to the metallic or porous membranes for devices devoted for separation of hydrogen. Thus, objective of this thesis work is to develop, characterize materials presenting sufficient conductivities for the targeted applications, to fabricate the membrane and to evaluate their performances.The first approach consisted of developing single-phase materials by substitution of proton-conducting oxides by a multivalent element, Ba(Ce0.5Zr0.5)0.9-xPrxY0.1O3-δ. In parallel, our works focused on the ceramic-ceramic composites which were consisted of a proton-conducting phase and an electron-conducting phase in reducing conditions, xBaCe0.9Y0.1O3-δ-(1-x)Ce0.9Y0.1O2-δ et xBaZr0.9Y0.1O3-δ-(1-x)CeY0.1O2-δ.The most promising results in terms of conductivity (> 100 mS.cm-1 @ 600°C) was obtained with the composite of composition 20BaZr0.9Y0.1O3-δ-80CeY0.1O2-δ which presented hydrogen permeability in the same order of magnitude as the best values reported in the literature.
18

Traitement de la polyphonie pour l'analyse informatique de partitions musicales

Guiomard-Kagan, Nicolas 20 March 2017 (has links)
La musique peut être monophonique – une seule note est jouée à chaque instant – ou polyphonique – plusieurs notes sont jouées simultanément, formant des harmonies. Comprendre la musique polyphonique peut être très complexe. L'objectif de cette thèse en informatique musicale est de simplifier l'analyse de partitions polyphoniques en les décomposant en voix monophoniques ou en streams (ensembles cohérents de notes). Ces deux approches n'ayant jamais été confrontées, mes premiers travaux consistent à comparer trois algorithmes de séparation en voix et trois algorithmes de séparation en streams. Je propose pour cela des méthodes d'évaluation équitables pour ces deux approches. Les tests réalisés sur un corpus de musique classique et de musique pop ont mis en avant les qualités de l'algorithme de séparation en voix de Chew et Wu. La première étape de cet algorithme, qui segmente la partition en "contigs" avec un nombre de voix constant, est particulièrement robuste. La suite des travaux de cette thèse porte sur la seconde étape de l'algorithme de Chew et Wu, qui définit l'ordre de connexions des contigs et la manière de les connecter. J'améliore ces connexions en utilisant des paramètres musicaux comme la différence des moyennes des hauteurs des notes entre contigs voisins. La thèse se conclut en évaluant conjointement la séparation en voix et la recherche de motifs pour l'analyse musicale de fugues / Music can be either monophonic (a single note sounds at each time) or polyphonic (several notes sound simultaneously, building harmonies). Understanding polyphonic music can be very complex. The goal of this thesis in computer music is to ease the analysis of polyphonic scores by splitting them in either monophonic voices or streams (coherent sets of notes). Research in this thesis first consists in comparing three voices separation algorithms and three streams separation algorithms. I propose an evaluation method to fairly compare these two approaches. This study shows the qualities of the Chew and Wu algorithm. The first step of this algorithm, which segments the score into “contigs” having a constant number of voices, is particularly robust. Further work of this thesis focuses on the second stage of the Chew and Wu algorithm that defines what contigs to connect and how to connect them. I improve these connections by using musical parameters such as the average pitch difference between neighbor contigs. The thesis concludes by evaluating simultaneously voice separation and pattern matching for the music analysis of fugues
19

Etude structurale et rhéologique des systèmes mixtes caséinates/carraghénanes

Nono djamen, Merveille Clay 14 February 2011 (has links) (PDF)
Les produits laitiers d'aujourd'hui contiennent souvent des polysaccharides qui permettent de les texturer et de les stabiliser. La compréhension et le contrôle de ces mélanges sont essentiels pour la fabrication et le développement de nouveaux produits. Le carraghénane est un polysaccharide sulfaté provenant des algues. Il existe principalement trois types de carraghénanes : le λ-carraghénane, le κ-carraghénane (KC) et l' τ-carraghénane (IC). Les deux derniers sont ceux utilisés pour notre étude. Le KC et l'IC présentent une transition pelote-hélice en dessous d'une température critique qui dépend du type et de la concentration de cations. Dans la conformation hélice, les chaînes peuvent s'agréger, puis gélifier. La caséine est la protéine majoritaire du lait. Dans le lait, elle est présente sous forme d'un complexe stabilisé par le phosphate de calcium colloïdal (CCP). Le caséinate de sodium (SC) est obtenu à partir de la caséine native en enlevant le CCP par acidification, puis par addition de soude. Dans l'eau, les particules de SC ont un rayon de 11nm et sont constituées d'environ 15 molécules de caséines. Les mêmes particules peuvent être formées par chélation du CCP par le triphosphate de sodium. Elles sont alors appelées submicelles de caséines. Le projet de cette thèse vise à approfondir les connaissances sur la nature des interactions dans les systèmes mixtes caséinates/carraghénane. Ce mélange est un modèle pour certains produits laitiers. Les principaux résultats de cette étude sont les suivants : Etude des mélanges de SC et de KC sous forme pelote. Nous avons établi un diagramme de phase à l'aide de la microscopie confocale à balayage laser (MCBL), de la spectroscopie UV et de la rhéologie. Deux domaines ont été définis : un domaine biphasique aux fortes concentrations de SC où la séparation de phase est ségrégative et un domaine monophasique aux faibles concentrations des deux composés. Dans les mélanges monophasiques ou biphasiques, nous avons observé des agrégats riches en protéines qui sont irréversibles. Ces agrégats contiennent très peu de carraghénane et ont un impact sur la viscosité du mélange. La teneur en protéine dans ces agrégats augmente linéairement avec l'augmentation de la concentration de KC mais est indépendante de la concentration de SC. Cette fraction est également influencée par le pH et la force ionique. Gélification des mélanges monophasiques de SC et de KC. Les caséines n'influencent pas la température critique de gélification, mais augmentent la température critique de fonte ainsi que le module du gel. Nous avons montré que le système forme un gel mixte. Ce gel mixte contient deux types de liaisons : des liaisons entre SC-KC et des liaisons entre KC-KC purs. La compétition entre ces deux types d'interactions dépend de la force ionique et de la nature du sel. Etude comparative des SC et des submicelles de caséines. On n'observe aucune différence entre les deux systèmes, à part la diminution de la température critique de gélification due au triphosphate de sodium. Etude comparative de KC et d'IC en présence de SC. La séparation de phase ségrégative des mélanges d'IC est déplacée vers les hautes concentrations de SC. Le pourcentage d'agrégats dans le mélange est négligeable. On observe également la présence d'un gel mixte, mais de module plus faible. En conclusion, cette thèse a permis de mieux comprendre le comportement complexe des carraghénanes dans les suspensions de caséines, ce qui devrait permettre le développement plus rationnel de certains produits laitiers.
20

Séparation des oligomères du chitosane par chromatographie d'affinité sur ions métalliques immobilisés

Le Devedec, Frantz January 2008 (has links) (PDF)
Depuis les années 1990, les oligomères du chitosane (COS) suscitent un intérêt croissant pour certaines applications biomédicales et alimentaires. Il est possible d'obtenir différents ratios d'oligomères à des degrés de polymérisation (DP) variant de 2 à 8 unités, selon le procédé d'hydrolyse du chitosane employé (chimique ou enzymatique). Il est difficile d'étudier leurs effets tant physiques que biochimiques de façon individuelle car ces oligomères sont difficiles à séparer et jusqu'à maintenant, leur commercialisation est limitée. Tout comme le chitosane, les oligomères possèdent des propriétés de complexation avec des ions métalliques de transition. Plusieurs facteurs interviennent lors de la formation de complexes avec le chitosane, notamment le pH, le degré de polymérisation (DP) ainsi que l'ion métallique. Le travail élaboré dans ce mémoire s'est basé sur l'hypothèse d'une séparation possible d'un mélange de COS (dimère, trimère, tétramère) en faisant intervenir l'affinité avec des ions métalliques en fonction du DP. Nous proposons ainsi une méthode chromatographique basée sur l'affinité entre les ions métalliques cuivre (II) et les groupements amine des oligomères de chitosane. La chromatographie d'affinité sur des ions métalliques immobilisés (IMAC) est déjà appliquée à la purification de biomacromolécules (protéines, ADN). L'adaptation de ce type chromatographique à notre problématique montre un réel intérêt car le développement du système est économique et simple d'utilisation. Des matériaux polyhydroxyliques (Agarose et silice) ont été fonctionnalisés par des groupements de type IMAC. Différentes fonctions chélatantes ont été greffés sur la Sepharose CL-6B (agarose réticulé): l'acide iminodiacétique (IDA), l'acide aspartique carboxyméthylé (CM-Asp) et le tris(carboxymethyl)diamine (TED). Ces matrices ont été caractérisées par FTIR et leurs capacités de rétention de Cu2+ par spectrophotométrie d'adsorption atomique (AAS). Un mélange commercial de COS (dimère, trimère, tétramère) fourni par ISM Biopolymer inc, a été utilisé pour l'étude sur les capacités de rétention. Les différents supports IMAC à base d'agarose (ACL6B) ont montré des quantités de rétention en COS respectivement de 6 mg/cm³, 4 mg/cm³ et 2 mg/cm³ sur les matrices modifiées (ACL6B-IDA, ACL6B-CM-Asp, ACL6B-TED). Les matériaux chromatographiques IMAC ont été employés en mode FPLC (à pression moyenne). Les fractions obtenues ont été analysées par une technique colorimétrique à base d'acide bicinconinique (BCA) et par chromatographie en couche mince avec la détection des oligomères à la ninhydrine. Les résultats sont corrélés avec l'analyse de la population retrouvée des différentes fractions par spectrométrie de masse quadripôle simple. Les oligomères de chitosane ont été partiellement séparés et/ou enrichis (selon la méthode employée) à 95 % pour le dimère, 70 % pour le trimère et 90 % pour le tétramère, avec nos matériaux chélatants obtenus au laboratoire, à base d'agarose réticulée. Ces résultats sont nettement supérieurs à ceux obtenus avec des matériaux chromatographiques commerciaux (Profinity, Chelex-100). Cette nouvelle méthode originale, à base de chromatographie d'affinité IMAC, offre des possibilités de diversification d'applications des COS et pourrait permettre de diminuer les coûts de revient lors de leur préparation à l'échelle industrielle. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Chitosane, Chitooligosaccharide (COS), Chromatographie d'affinité sur ions métalliques immobilisés (IMAC).

Page generated in 0.5035 seconds