• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1054
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 144
  • 116
  • 100
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Optimisation heuristique pour la résolution du m-PDPTW statique et dynamique / Heuristics optimization for the resolution of the m-PDPTW static and dynamic

Harbaoui dridi, Imen 15 December 2010 (has links)
De nos jours, le problème de transport de marchandise occupe une place importante dans la vie économique des sociétés modernes. Le problème de ramassage et de livraison (pick-up and delivery problem) est l’un des problèmes dont une grande partie des chercheurs s’y est intéressée.Il s’agit de déterminer un circuit de plusieurs véhicules, de façon à servir à coût minimal un ensemble de clients et de fournisseurs répartis dans un réseau, satisfaisant certaines contraintes relatives aux véhicules, à leurs capacités et à des précédences entre les nœuds. Les travaux de recherche développés dans cette thèse portent sur le PDPTW (Pickup and Delivery Problem with Time Windows) à plusieurs véhicules (m-PDPTW). Ce dernier a été traité dans les deux cas : statique et dynamique. Nous avons proposé plusieurs approches de résolution du m-PDPTW basées sur les algorithmes génétiques, l’optimisation multicritère et le calcul des bornes inférieures, et ceci pour minimiser un certain nombre de critères comme : le nombre de véhicules utilisés, la somme des retards ou le coût total de transport. Ces approches ont donné de bons résultats, principalement au niveau de la minimisation de la somme des retards où nous avons obtenu, dans plusieurs cas, un retard nul avec un coût de transport tolérable / Nowadays, the transport goods problem occupies an important place in the economic life of modern societies. The PDPTW (Pickup and delivery problem with Time Windows) is one which a large part of researchers was interested. This is an optimization vehicles routing problem which must meet requests for transport between suppliers and customers satisfying precedence and capacity.Researchers developed in this thesis concerns the resolution of the PDPTW with multiple vehicles (m-PDPTW). The latter was treated in two cases: static and dynamic.We have proposed some approaches to solving the m- PDPTW, based on genetic algorithms, multicriteria optimization and the lower bounds, and this to minimize a number of criteria such as: the vehicles number, the total travel cost, and the total tardiness time.Computational results indicate that the proposed approach gives good results with a total tardiness equal to zero with a tolerable cost
372

Treewidth : algorithmic, combinatorial, and practical aspects / Treewidth : aspects algorithmiques, combinatoires et pratiques

Baste, Julien 22 September 2017 (has links)
Dans cette thèse, nous étudions la complexité paramétrée de problèmes combinatoires dans les graphes. Plus précisément, nous présentons une multitude d’algorithmes de programmation dynamique ainsi que des réductions montrant que certains de ces algorithmes sont optimaux. Nous nous intéressons principalement à la treewidth, un paramètre de graphes pouvant être vu comme une mesure de distance entre la structure d’un graphe et la structure topologique d’un arbre. Certains de nos algorithmes sont aussi paramétrés par la taille de la solution demandée et le degré maximum du graphe donné en entrée. Nous avons obtenu un certain nombre de résultats dont certains d’entre eux sont listés ci-dessous. Nous présentons un encadrement du nombre de graphes étiquetés de treewidth bornée. Nous étendons le domaine d’application de la théorie de la bidimensionalité par contraction au delà des graphes ne contenant pas de graphe apex en tant que mineur. Nous montrons aussi que la technique des structures de Catalan, outil améliorant l’efficacité des algorithmes résolvant des problèmes de connexité lorsque le graphe d’entrée est creux, ne peut être appliquée à la totalité des problèmes de connectivité, même si l’on ne considère, parmi les graphes creux, que les graphes planaires. Nous considérons le problème F-M-Deletion qui, étant donné une collection de graphes F, un graphe G et un entier k, demande s’il est possible de retirer au plus k sommets de G de telle sorte que le graphe restant ne contienne aucun graphe de F en tant que mineur. Nous considérons aussi la version topologique de ce problème, à savoir F-TM-Deletion. Ces deux problèmes généralisent des problèmes de modification de graphes bien connus tels que Vertex Cover, Feedback Vertex Set et Vertex Planarization. En fonction de la collection de graphes F, nous utilisons différentes techniques de programmation dynamique pour résoudre F-M-Deletion et F-TM-Deletion paramétrés par la treewidth. Nous utilisons des techniques standards, la structure des graphes frontières et l’approche basée sur le rang. En dernier lieu, nous appliquons ces techniques algorithmiques à deux problèmes issus du réseau de communications, à savoir une variation du problème classique de domination et un problème consistant à trouver un arbre couvrant possédant certaines propriétés, et un problème issu de la bioinformatique consistant à construire un arbre contenant en tant que mineur (topologique) un ensemble d’arbres donnés correspondant à des relations d’évolution entre ensembles d’espèces. / In this thesis, we study the Parameterized Complexity of combinatorial problems on graphs. More precisely, we present a multitude of dynamic programming algorithms together with reductions showing optimality for some of them. We mostly deal with the graph parameter of treewidth, which can be seen as a measure of how close a graph is to the topological structure of a tree. We also parameterize some of our algorithms by two other parameters, namely the size of a requested solution and the maximum degree of the input graph. We obtain a number of results, some of which are listed in the following. We estimate the number of labeled graphs of bounded treewidth. We extend the horizon of applicability of the theory of contraction Bidimensionality further than apex-minor free graphs, leading to a wider applicability of the design of subexponential dynamic programming algorithms. We show that the Catalan structure technique, that is a tool used to improve algorithm efficiency for connectivity problems where the input graph is restricted to be sparse, cannot be applied to all planar connectivity problems. We consider the F-M-Deletion problem that, given a set of graphs F, a graph G, and an integer k, asks if we can remove at most k vertices from G such that the remaining graph does not contain any graph of F as a minor. We also consider the topological version of this problem, namely F-TM-Deletion. Both problems generalize some well-known vertex deletion problems, namely Vertex Cover, Feedback Vertex Set, and Vertex Planarization. Depending on the set F, we use distinct dynamic programming techniques to solve F-M-Deletion and F-TM-Deletion when parameterized by treewidth. Namely, we use standard techniques, the rank based approach, and the framework of boundaried graphs. Finally, we apply these techniques to two problems originating from Networks, namely a variation of the classical dominating set problem and a problem that consists in finding a spanning tree with specific properties, and to a problem from Bioinformatics, namely that of construcing a tree that contains as a minor (or topological minor) a set of given trees corresponding to the evolutionary relationships between sets of species.
373

Une proposition pour de nouveaux moyens pour simuler les transformations d'un paysage urbain : le cas des devantures commerciales du Mile End

Zakaria, Hicham January 2006 (has links)
No description available.
374

Algorithmes adaptatifs pour la simulation moléculaire / Adaptive algorithms for molecular simulation

Artemova, Svetlana 30 May 2012 (has links)
Les simulations moléculaires sont devenues un outil essentiel en biologie, chimie et physique. Malheureusement, elles restent très coûteuses. Dans cette thèse, nous proposons des algorithmes qui accélèrent les simulations moléculaires en regroupant des particules en plusieurs objets rigides. Nous étudions d’abord plusieurs algorithmes de recherche de voisins dans le cas des grands objets rigides, et démontrons que les algorithmes hiérarchiques permettent d’obtenir des accélérations importantes. En conséquence, nous proposons une technique pour construire une représentation hiérarchique d’un graphe moléculaire arbitraire. Nous démontrons l’usage de cette technique pour la mécanique adaptative en angles de torsion, une méthode de simulation qui décrit les molécules comme des objets rigides articulés. Enfin, nous introduisons ARPS – Adaptively Restrained Particle Simulations (“Simulations de particules restreintes de façon adaptative”) – une méthode mathématiquement fondée capable d’activer et de désactiver les degrés de liberté en position. Nous proposons deux stratégies d’adaptation, et illustrons les avantages de ARPS sur plusieurs exemples. En particulier, nous démontrons comment ARPS permet de choisir finement le compromis entre précision et vitesse, ainsi que de calculer rapidement des proprietésstatiques d’équilibre sur les systèmes moléculaires. / Molecular simulations have become an essential tool in biology, chemistry and physics. Unfortunately, they still remain computationally challenging. In this dissertation, we propose algorithms that accelerate molecular simulations by clustering particles into rigid bodies.We first study several neighbor-search algorithms for large rigid bodies, and show that hierarchy-based algorithms may provide significant speedups. Accordingly, we propose a technique to build a hierarchical representation of an arbitrary molecular graph. We show how this technique can be used in adaptive torsion-angle mechanics, a simulation method that describes molecules as articulated rigid bodies. Finally, we introduce ARPS – Adaptively Restrained Particle Simulations – a mathematically-grounded method able to switch positional degrees of freedom on and off. We propose two switching strategies, and illustrate the advantages of ARPS on various examples. In particular, we show how ARPS allow us to smoothly trade between precision and speed, and to efficiently compute correct static equilibrium properties on molecular systems.
375

Exploring the reuse of past search results in information retrieval / Exploration de la réutilisation des résultats des recherches passées dans récupération de l'information

Gutierrez Soto, Claudio 17 May 2016 (has links)
Les recherches passées constituent pourtant une source d'information utile pour les nouveaux utilisateurs (nouvelles requêtes). En raison de l'absence de collections ad-hoc de RI, à ce jour il y a un faible intérêt de la communauté RI autour de l'utilisation des recherches passées. En effet, la plupart des collections de RI existantes sont composées de requêtes indépendantes. Ces collections ne sont pas appropriées pour évaluer les approches fondées sur les requêtes passées parce qu'elles ne comportent pas de requêtes similaires ou qu'elles ne fournissent pas de jugements de pertinence. Par conséquent, il n'est pas facile d'évaluer ce type d'approches. En outre, l'élaboration de ces collections est difficile en raison du coût et du temps élevés nécessaires. Une alternative consiste à simuler les collections. Par ailleurs, les documents pertinents de requêtes passées similaires peuvent être utilisées pour répondre à une nouvelle requête. De nombreuses contributions ont été proposées portant sur l'utilisation de techniques probabilistes pour améliorer les résultats de recherche. Des solutions simples à mettre en œuvre pour la réutilisation de résultats de recherches peuvent être proposées au travers d'algorithmes probabilistes. De plus, ce principe peut également bénéficier d'un clustering des recherches antérieures selon leurs similarités. Ainsi, dans cette thèse un cadre pour simuler des collections pour des approches basées sur les résultats de recherche passées est mis en œuvre et évalué. Quatre algorithmes probabilistes pour la réutilisation des résultats de recherches passées sont ensuite proposés et évalués. Enfin, une nouvelle mesure dans un contexte de clustering est proposée. / Past searches provide a useful source of information for new users (new queries). Due to the lack of ad-hoc IR collections, to this date there is a weak interest of the IR community on the use of past search results. Indeed, most of the existing IR collections are composed of independent queries. These collections are not appropriate to evaluate approaches rooted in past queries because they do not gather similar queries due to the lack of relevance judgments. Therefore, there is no easy way to evaluate the convenience of these approaches. In addition, elaborating such collections is difficult due to the cost and time needed. Thus a feasible alternative is to simulate such collections. Besides, relevant documents from similar past queries could be used to answer the new query. This principle could benefit from clustering of past searches according to their similarities. Thus, in this thesis a framework to simulate ad-hoc approaches based on past search results is implemented and evaluated. Four randomized algorithms to improve precision are proposed and evaluated, finally a new measure in the clustering context is proposed.
376

Modélisation Monte-Carlo d'un accélérateur linéaire pour la prise en compte des densités pulmonaires dans le calcul de la dose absorbée en radiothérapie stéréotaxique / Monte-Carlo model of a linear accelerator for the absorbed dose computation of Stereotactic Radiotherapy in presence of very low lung densities

Beilla, Sara 27 September 2016 (has links)
Le calcul de la distribution de dose en Radiothérapie externe se fait en routine clinique à l'aide de Systèmes de Planification de Traitement (TPS) commerciaux. Les algorithmes de calcul de ces TPS ont énormément progressé ces dernières années. Cependant ils sont basés sur des approximations qui restent acceptables pour la plupart des conditions cliniques mais qui montrent leurs limites dans certains cas notamment avec des petites tailles de champ d'irradiation et/ou des faibles densités massiques dans un milieu. Or ces deux conditions sont pourtant réunies dans le cadre de la radiothérapie stéréotaxique des tumeurs bronchiques. Si quelques études ont été réalisées pour des densités massiques classiques de poumon, aucune n'a été réalisée pour des densités pulmonaires très faibles comme par exemple lorsque le patient est traité en inspiration profonde (" Deep Inspiration BreathHold ", i.e. DIBH). Mes travaux de recherche de thèse proposent une étude du calcul de dose pour différentes densités massiques et différentes tailles de champ en se basant sur un modèle Monte-Carlo (MC). La première étape modélise un accélérateur de type TrueBeam(r) (Varian, Palo Alto, CA) en utilisant les données du constructeur. Le modèle est construit à l'aide de la plateforme GATE basée sur la librairie Geant4. Les éléments principaux de la tête de l'appareil sont modélisés. Les espaces de phases (fichiers de particules) fournis par le constructeur au format " .IAEAphsp " sont situés en amont des mâchoires. Pour valider ce modèle, une série de champs simples (3x3 à 20x20 cm2) dans un fantôme d'eau sont implémentés pour des faisceaux de photons de 6X FF (" Flattening Filter "), 6X FFF, 10X FF et 10X FFF (" Flattening Filter Free "). Les résultats (profils, rendements de dose) sont comparés à des mesures de référence obtenues dans une cuve d'eau : respectivement 99% et 97% des points de dose des rendements et des profils respectent les critères de gamma index de 2%-2mm. Une fois le modèle validé, nous avons réalisé une série de simulations pour des champs de petites tailles (3x3 à 8x8 cm2) avec des fantômes hétérogènes de formes simples, pour lesquels la mesure reste accessible. Pour cette dernière, ont été insérés des films radio-chromiques dans des fantômes composés de plaques de PMMA et de deux types de liège de densité 0,12 et 0,24 correspondant respectivement aux poumons en DIBH et en respiration libre. Les résultats du modèle MC pour les quatre énergies ont été confrontés aux mesures expérimentales et aux algorithmes AAA et Acuros (Varian). De façon générale l'algorithme AAA surestime la dose au sein de l'hétérogénéité pulmonaire pour les petites tailles de champ et les faibles densités massiques. Par exemple, pour un champ de 3x3 cm2 et une densité de 0,12 au sein de l'hétérogénéité, une surestimation de la dose absorbée dans le poumon de 16% est mise en évidence pour l'algorithme AAA. Enfin, le modèle est utilisé pour trois cas non mesurables : un objet-test numérique cylindrique hétérogène, des données tomodensitométriques d'un patient en DIBH pour un champ fixe et en arc-thérapie en condition de stéréotaxie pulmonaire. Les résultats ont démontré respectivement pour les études sur TDM une surestimation de la dose dans la tumeur de 7% et 5,4% et dans le poumon de 14% et 9,6% par AAA. D'un point de vue clinique, cela se traduit par un sous-dosage du patient et donc un risque de récidive. / For clinical routine in external Radiotherapy, dose computation is achieved using commercial Treatment Planning Systems (TPS). Since ten years, TPS algorithms have been improved. However they include approximations that are acceptable in most of the clinical cases but they show their limits in some particular conditions for example in presence of small fields and/or low mass y media. And these two conditions are found in the context of stereotactic body radiation therapy (SBRT) of lung tumor. Some studies were published for standard lung densities but none for very low y like in lung during Deep Inspiration Breath Hold (DIBH). This work is a study of dose computation based on a Monte Carlo (MC) model, for different field sizes and mass densities. The first step was to model a TrueBeam(r) linac (Varian, Palo Alto, CA) using data furnished by the manufacturer. This model is built using the Geant4-based GATE platform. The main compounds of the linac head are modeled. Space phase files (i.e. particles files) are furnished by Varian in "IAEAphsp" format and are integrated to the model above the main jaws. To validate this model, a set of simple fields (from 3x3 to 20x20 cm2) in a water phantom is implemented for different photon energies: 6FF, 6FFF, 10FF and 10FFF (FFF = "Flattening Filter Free"). Percentage depth dose (PDD) and lateral profiles are compared to reference measurement in a water tank: respectively 99% and 97% of all the points of these curves passed the Gamma Index test (2% 2mm). Once this validation was completed, a set of simulation was achieved with small field sizes (3x3 to 8x8 cm2) for simple heterogeneous phantoms for which the measurement was achievable. For this purpose, radiochromic films were inserted in phantoms made of PMMA slabs and two types of cork. Cork densities were 0.12 and 0.24 that correspond respectively to lungs during DIBH and free breathing. Results of the MC model for four energies are compared to experimental measurements and to AAA and Acuros Varian's algorithms. AAA algorithm overestimates the dose inside the lung heterogeneity for small field sizes and low density. As an example in the case a 3x3 cm2 field, inside the heterogeneity of density 0.12 an over estimation of 16% in the lung is observed for AAA. The model is finally used for three non-measurable cases: a cylindrical digital reference object and computerized tomography data of a patient during DIBH with a static and stereotactic arc field. Results showed respectively for CT studies an overestimation of dose in the tumor of 7% and 5.4% and in the lungs of 14% and 9.6% by AAA. From a clinical point of view, this means under-dosing the patient and thus a risk of recurrence.
377

Calcul haute performance pour la simulation d'interactions fluide-structure

Partimbene, Vincent 25 April 2018 (has links) (PDF)
Cette thèse aborde la résolution des problèmes d'interaction fluide-structure par un algorithme consistant en un couplage entre deux solveurs : un pour le fluide et un pour la structure. Pour assurer la cohérence entre les maillages fluide et structure, on considère également une discrétisation de chaque domaine par volumes finis. En raison des difficultés de décomposition du domaine en sous-domaines, nous considérons pour chaque environnement un algorithme parallèle de multi-splitting (ou multi-décomposition) qui correspond à une présentation unifiée des méthodes de sous-domaines avec ou sans recouvrement. Cette méthode combine plusieurs applications de points fixes contractantes et nous montrons que, sous des hypothèses appropriées, chaque application de points fixes est contractante dans des espaces de dimensions finies normés par des normes hilbertiennes et non-hilbertiennes. De plus, nous montrons qu'une telle étude est valable pour les résolutions parallèles synchrones et plus généralement asynchrones de grands systèmes linéaires apparaissant lors de la discrétisation des problèmes d'interaction fluide-structure et peut être étendue au cas où le déplacement de la structure est soumis à des contraintes. Par ailleurs, nous pouvons également considérer l’analyse de la convergence de ces méthodes de multi-splitting parallèles asynchrones par des techniques d’ordre partiel, lié au principe du maximum discret, aussi bien dans le cadre linéaire que dans celui obtenu lorsque les déplacements de la structure sont soumis à des contraintes. Nous réalisons des simulations parallèles pour divers cas test fluide-structure sur différents clusters, en considérant des communications bloquantes et non bloquantes. Dans ce dernier cas nous avons eu à résoudre une difficulté d'implémentation dans la mesure où une erreur irrécupérable survenait lors de l'exécution ; cette difficulté a été levée par introduction d’une méthode assurant la terminaison de toutes les communications non bloquantes avant la mise à jour du maillage. Les performances des simulations parallèles sont présentées et analysées. Enfin, nous appliquons la méthodologie présentée précédemment à divers contextes d'interaction fluide-structure de type industriel sur des maillages non structurés, ce qui constitue une difficulté supplémentaire.
378

Algorithmes génériques en temps constant pour la résolution de problèmes combinatoires dans la classe des rotagraphes et fasciagraphes. Application aux codes identifiants, dominants-localisateurs et dominants-total-localisateurs / Constant time generic algorithms for resolution of combinatorial optimization problems in the class of rotagraphs and fasciagraphs. Application to identifying codes, locating-dominating set and locating-total-dominating set.

Bouznif, Marwane 04 July 2012 (has links)
Un fasciagraphe de taille n et de fibre F est constitué de n copies consécutives du graphe F, chaque copie étant reliée à la suivante selon le même schéma. Les rotagraphes sont définis similairement, mais selon une structure circulaire. Dans cette thèse nous caractérisons un ensemble de problèmes combinatoires qui peuvent être résolus de façon efficace dans la classe des fasciagraphes et rotagraphes. Dans ce contexte, nous définissons les (d,q,w)-propriétés closes et stables, et présentons pour de telles propriétés un algorithme pour calculer une solution optimale en temps constant pour l'ensemble des fasciagraphes ou rotagraphes de fibre fixée. Nous montrons que plusieurs problèmes communément étudiés dans la théorie des graphes et NP-complets dans le cas général sont caractérisés par des (d,q,w)-propriétés closes ou stables. Dans une seconde partie de la thèse, nous adaptons cet algorithme générique à trois problèmes spécifiques caractérisés par des (d,q,w)-propriétés stables : le problème du code identifiant minimum, et deux problèmes proches, celui de dominant-localisateur minimum et celui du dominant-total-localisateur minimum. Nous présentons alors une implémentation de l'algorithme qui nous a permis de répondre à des questions ouvertes dans certains rotagraphes particuliers : les bandes circulaires de hauteur bornée. Nous en déduisons d'autres résultats sur les bandes infinies de hauteur bornée. Enfin, nous explorons le problème du code identifiant dans une autre classe de graphes à structure répétitive : les graphes fractals de cycle. / A fasciagraph of length n and of fiber F, is constituted of n consecutive copies of a graph F, each copy being linked to the next one according to a same scheme. Rotagraphs are defines similarily, but along a circular structure. In this thesis, we caracterize a set of combinatorial problems that can be efficiently solved when applied on the class of rotagraphs and fasciagraphs. In this context, we define closed and stable (d,q,w)-properties, and we present, for such properties, an algorithm to compute an optimal solution, in constant time, for the set of fasciagraphs or rotagraphs of fixed fiber. We show that several problems, largely studied in graph theory, are caracterized by closed or stable (d,q,w)-properties. In a second part of the thesis, we adapt the generic algorithm to three problems caracterized by stable (d,q,w)-properties : the problem of minimum indentifying code, and two other, close to this one, the problem of minimum locating-dominating set et the one of minimum locating-total-dominating set. We present an implementation of our algorithm which has let us respond to open questions in a certain sub-class of rotagraphs : the circular strips of bounded height. We deduce from there other results on infinite strips of bounded height. Finaly we explore the problem of minimum identifying code in another class of graphs with repetitive structure : the fractal graphs.
379

Estimation sous contraintes de communication : algorithmes et performances asymptotiques / Estimation under communication constraints : algorithms and asymptotic performance

Cabral Farias, Rodrigo 17 July 2013 (has links)
L'essor des nouvelles technologies de télécommunication et de conception des capteurs a fait apparaître un nouveau domaine du traitement du signal : les réseaux de capteurs. Une application clé de ce nouveau domaine est l'estimation à distance : les capteurs acquièrent de l'information et la transmettent à un point distant où l'estimation est faite. Pour relever les nouveaux défis apportés par cette nouvelle approche (contraintes d'énergie, de bande et de complexité), la quantification des mesures est une solution. Ce contexte nous amène à étudier l'estimation à partir de mesures quantifiées. Nous nous concentrons principalement sur le problème d'estimation d'un paramètre de centrage scalaire. Le paramètre est considéré soit constant, soit variable dans le temps et modélisé par un processus de Wiener lent. Nous présentons des algorithmes d'estimation pour résoudre ce problème et, en se basant sur l'analyse de performance, nous montrons l'importance de l'adaptativité de la dynamique de quantification pour l'obtention d'une performance optimale. Nous proposons un schéma adaptatif de faible complexité qui, conjointement, estime le paramètre et met à jour les seuils du quantifieur. L'estimateur atteint de cette façon la performance asymptotique optimale. Avec 4 ou 5 bits de résolution, nous montrons que la performance optimale pour la quantification uniforme est très proche des performances d'estimation à partir de mesures continues. Finalement, nous proposons une approche à haute résolution pour obtenir les seuils de quantification non-uniformes optimaux ainsi qu'une approximation analytique des performances d'estimation. / With recent advances in sensing and communication technology, sensor networks have emerged as a new field in signal processing. One of the applications of his new field is remote estimation, where the sensors gather information and send it to some distant point where estimation is carried out. For overcoming the new design challenges brought by this approach (constrained energy, bandwidth and complexity), quantization of the measurements can be considered. Based on this context, we study the problem of estimation based on quantized measurements. We focus mainly on the scalar location parameter estimation problem, the parameter is considered to be either constant or varying according to a slow Wiener process model. We present estimation algorithms to solve this problem and, based on performance analysis, we show the importance of quantizer range adaptiveness for obtaining optimal performance. We propose a low complexity adaptive scheme that jointly estimates the parameter and updates the quantizer thresholds, achieving in this way asymptotically optimal performance. With only 4 or 5 bits of resolution, the asymptotically optimal performance for uniform quantization is shown to be very close to the continuous measurement estimation performance. Finally, we propose a high resolution approach to obtain an approximation of the optimal nonuniform quantization thresholds for parameter estimation and also to obtain an analytical approximation of the estimation performance based on quantized measurements.
380

High-multiplicity Scheduling and Packing Problems : Theory and Applications / Ordonnancement en high-multiplicity et applications : théorie et applications

Gabay, Michael 20 October 2014 (has links)
L'encodage High-Multiplicity est un encodage naturel des données consistant, en ordonnancement, à réunir les tâches similaires et, pour chaque type, décrire les caractéristiques d'une seule tâche et le nombre de tâches de ce type. Cet encodage est très compact et lorsqu'il est considéré, pose de nombreux problème pour analyser la complexités des problèmes considérés. L'objectif de cette thèse est de proposer des techniques permettant de traiter les problèmes high-multiplicity. Nous exposons celles-ci à travers divers exemples. Nous étudions le problème d'ordonnancement high-multiplicity avec indisponibilités des opérateurs et montrons que celui-ci est polynomial lorsque le nombre de type de tâches est supérieur au nombre d'instants d'indisponibilités. Nous étudions les problème d'ordonnancement de tâches couplées identiques et montrons sur ce problème de nombreuses difficultés majeures de l'ordonnancement high-multiplicity. Nous améliorons les meilleures bornes supérieures et inférieures sur le problème de bin stretching. Nous étudions le problème de vector packing avec des récipients hétérogènes et proposons des heuristiques pour celui-ci. Enfin, nous proposons un algorithme de réduction très général pour les problèmes de placement d'objets. Cet algorithme peut être appliqué en temps polynomial en le nombre de type d'objets et de récipients. / High-Multiplicity encoding is a natural encoding of data. In scheduling, it simply consists in stating once the characteristics of each type of tasks and the number of tasks of this type. This encoding is very compact and natural but it is generally supposed in scheduling that all tasks are specified separately. High-Multiplicity scheduling, when considered, raises many complexity issues because of the small input size. The aim of this thesis is to provide insights on how to cope with high-multiplicity scheduling problems. We also seek to contribute to scheduling and packing in general. We expose different techniques and approaches and use them to solve specific scheduling and packing problems. We study the high-multiplicity single machine scheduling problem with forbidden start and completion times and show that this problem is polynomial with large diversity instances. We present the identical coupled-task scheduling problem and display many difficulties and issues occurring in high-multiplicity scheduling on this problem. We improve the best upper and lower bounds on the bin stretching problem. We study the vector packing problems with heterogeneous bins and propose heuristics for this problem. Finally, we present a general reduction algorithm for packing problems which can be applied in polynomial time, even with high-multiplicity encoding of the input.

Page generated in 0.0685 seconds