• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 322
  • 50
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1055
  • 348
  • 219
  • 208
  • 204
  • 167
  • 145
  • 144
  • 116
  • 101
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Approche neuronale de la représentation et de la commande multimodèles de processus complexes / A neural multimodel approach of complex processes identification and control

Elfelly, Nesrine 13 December 2010 (has links)
Les travaux présentés dans ce mémoire portent sur la représentation et la commande multimodèles de processus complexes. L'approche envisagée, essentiellement basée sur des techniques de classification neuro-floues, vise à établir une base de modèles décrivant le système dans l'ensemble de son espace de fonctionnement en se servant seulement des mesures de type entrée/sortie. L'implémentation de cette approche nécessite trois étapes principales :(1) détermination de la structure multimodèle, pour laquelle le nombre de modèles est tout d'abord selectionné en utilisant un réseau de neurones à apprentissage compétitif pénalisant le rival. Les différentes classes de fonctionnement sont ensuite déterminées en se servant d'un algorithme de classification adéquat (carte de Kohonen, K-moyennes ou K-moyennes floues),(2) identification paramétrique des modèles basée sur les résultats de la classification et une procédure de validation dont l'objectif est de confirmer l'efficacité de la structure multimodèle proposée en faisant intervenir un mécanisme de décision convenable permettant l'estimation de la contribution (ou validité) de chaque modèle,(3) calcul des paramètres du contrôleur global du système à travers une fusion entre les paramètres des commandes partielles associées aux différents modèles de la base.L’approche suggérée se distingue essentiellement par son aspect général et pratique dans la mesure où elle est simple à mettre en œuvre, ne nécessite aucune connaissance a priori et propose d’adapter le traitement en choisissant les méthodes adéquates de classification et de calcul des validités, suivant certains aspects de l’espace de fonctionnement du processus considéré. / This contribution deals with a new approach for complex processes modeling and control. It is essentially based on neuro-fuzzy classification methods and aims to derive a base of models describing the system in the whole operating domain by using only input/output measurements. The implementation of this approach requires three main steps:(1) determination of the multimodel stucture, for which the number of models are firstly worked out by using a neural network with a rival penalized competitive learning. The different operating clusters are then selected referring to an adequate classification algorithm (Kohonen card, K-means or fuzzy K-means),(2) parametric model identification using the classification results and a validation procedure to confirm the efficiency of the proposed multimodel structure through an appropriate decision mechanism which allows the estimation of the contribution (or validity) of each model.(3) determination of the global system control parameters deduced through a fusion of models control parameters.The suggested approach seems to be interessent since it's easy to apply, doesn't require any a priori knowledge and propose to adapt the processing by choosing the adequate methods of data classification and validity computation referring to some aspects of the operating domain of the considered process.
62

Disparate treatments discovery : disparate treatments discovery algorithm framework with no access to protected attribute values

Racicot, Taha 09 November 2022 (has links)
Les nouveaux algorithmes en intelligence artificielle offrent une opportunité d'améliorer la rapidité et l'efficacité de la prise de décision. Ceux-ci sont certainement bénéfique, lorsqu'ils permettent de prendre en compte plus de critères qu'un humain pourrait considérer et de prendre plus de décisions plus rapidement qu'un humain pourrait le faire. Cependant, l'utilisation d'algorithmes de décision mal conçus a un effet social majeur. En effet, ces algorithmes peuvent apprendre à baser leurs décisions sur des critères socialement inacceptables comme la race, le sexe, l'origine ethnique, ou l'orientation sexuelle, et ainsi formaliser et propager les discriminations du passé. Dans de tels cas, l'impact de ces algorithmes est de renforcer et propager à grande échelle les inégalités économiques, sociales, et d'opportunités, entre les diverses communautés composant notre société. On pourrait croire qu'il est facile d'examiner les règles de recommandation d'un algorithme pour vérifier quels critères sont considérés. Cependant, ce n'est pas le cas : plusieurs algorithmes d'intelligence artificielle, comme les réseaux de neurones profonds, sont des "boites noires" qui fournissent des résultats d'une manière incompréhensible aux humains. De plus, une discrimination sur un critère inacceptable n'a pas besoin de considérer explicitement ce critère dans ses facteurs de décision, mais peut être réalisée en utilisant uniquement des facteurs acceptables ou même anodins, mais qui sont corrélés au critère inacceptable. Ainsi à chaque fois que des systèmes intelligents sont utilisés, on se retrouve à se demander si le système va prendre la décision optimale sans discrimination malgré qu'aucun attribut sensible n'a été utilisé. Dans ce travail, nous explorons une nouvelles méthodes pour l'identification de la discrimination dans les décisions de systèmes intelligents sans avoir accès aux attributs sensibles. Nous commençons par explorer les métriques de mesures de discrimination utilisés communément et nous identifions leurs lacunes. Par la suite, étant donné ces lacunes, nous explorons de nouvelles méthodes émergeantes basés sur la causalité permettant de palier à celles-ci. Ensuite, nous étudions la possibilité d'utiliser des attributs corrélés avec les attributs sensibles manquants comme le nom et le prénom pour retrouver les attributs sensibles. Par la suite, nous explorons les méthodes de mesure d'incertitude dans les nouveaux algorithmes en IA afin d'évaluer à quel point nous pouvons être certain de la mesure de discrimination lors de l'utilisation d'attributs non protégés corrélés avec les attributs sensibles. Enfin, nous présentons notre méthode sur la discrimination raciale en utilisant le nom et de prénom comme proxy pour l'ethnicité et nous réalisons des tests à partir de données synthétiques. / New algorithms in artificial intelligence offer an opportunity to improve the speed and efficiency of decision-making. These are certainly beneficial, when they allow to take into account more criteria than a human could consider and to make more decisions more quickly than a human could. However, the use of poorly designed decision algorithms has a major social effect. Indeed, these algorithms can learn to base their decisions on socially unacceptable criteria such as race, gender, ethnic origin, or sexual orientation, and thus formalize and propagate the discriminations of the past. In such cases, the impact of these algorithms is to reinforce and propagate on a large scale economic, social and opportunity inequalities between the various communities that make up our society. One might think that it is easy to examine the recommendation rules of an algorithm to check which criteria are considered. However, this is not the case : many AI algorithms, such as deep neural networks, are "black boxes" that deliver results in ways that humans cannot understand. Moreover, discrimination on an unacceptable criterion does not need to explicitly consider this criterion in its decision factors, but can be achieved by using only acceptable or even innocuous factors, but which are correlated to the unacceptable criterion. So whenever intelligent systems are used, we find ourselves wondering if the system will make the optimal decision without discrimination despite the fact that no sensitive attribute has been used. In this work, we explore a new method for the identification of discrimination in decisions of intelligent systems without having access to sensitive attributes. We begin by exploring commonly used discrimination measurement metrics and identifying their shortcomings. Subsequently, given these shortcomings, we explore new emerging methods based on causality to overcome them. Then, we study the possibility of using attributes correlated with the missing sensitive attributes like the name and the first name to find the sensitive attributes. Subsequently, we explore methods for measuring uncertainty in new AI algorithms in order to assess how certain we can be of the discrimination measure when using unprotected attributes correlated with sensitive attributes. Finally, we present our method on racial discrimination using surname and first name as a proxy for ethnicity and we perform tests using synthetic data.
63

Disparate treatments discovery : disparate treatments discovery algorithm framework with no access to protected attribute values

Racicot, Taha 13 December 2023 (has links)
Les nouveaux algorithmes en intelligence artificielle offrent une opportunité d'améliorer la rapidité et l'efficacité de la prise de décision. Ceux-ci sont certainement bénéfique, lorsqu'ils permettent de prendre en compte plus de critères qu'un humain pourrait considérer et de prendre plus de décisions plus rapidement qu'un humain pourrait le faire. Cependant, l'utilisation d'algorithmes de décision mal conçus a un effet social majeur. En effet, ces algorithmes peuvent apprendre à baser leurs décisions sur des critères socialement inacceptables comme la race, le sexe, l'origine ethnique, ou l'orientation sexuelle, et ainsi formaliser et propager les discriminations du passé. Dans de tels cas, l'impact de ces algorithmes est de renforcer et propager à grande échelle les inégalités économiques, sociales, et d'opportunités, entre les diverses communautés composant notre société. On pourrait croire qu'il est facile d'examiner les règles de recommandation d'un algorithme pour vérifier quels critères sont considérés. Cependant, ce n'est pas le cas : plusieurs algorithmes d'intelligence artificielle, comme les réseaux de neurones profonds, sont des "boites noires" qui fournissent des résultats d'une manière incompréhensible aux humains. De plus, une discrimination sur un critère inacceptable n'a pas besoin de considérer explicitement ce critère dans ses facteurs de décision, mais peut être réalisée en utilisant uniquement des facteurs acceptables ou même anodins, mais qui sont corrélés au critère inacceptable. Ainsi à chaque fois que des systèmes intelligents sont utilisés, on se retrouve à se demander si le système va prendre la décision optimale sans discrimination malgré qu'aucun attribut sensible n'a été utilisé. Dans ce travail, nous explorons une nouvelles méthodes pour l'identification de la discrimination dans les décisions de systèmes intelligents sans avoir accès aux attributs sensibles. Nous commençons par explorer les métriques de mesures de discrimination utilisés communément et nous identifions leurs lacunes. Par la suite, étant donné ces lacunes, nous explorons de nouvelles méthodes émergeantes basés sur la causalité permettant de palier à celles-ci. Ensuite, nous étudions la possibilité d'utiliser des attributs corrélés avec les attributs sensibles manquants comme le nom et le prénom pour retrouver les attributs sensibles. Par la suite, nous explorons les méthodes de mesure d'incertitude dans les nouveaux algorithmes en IA afin d'évaluer à quel point nous pouvons être certain de la mesure de discrimination lors de l'utilisation d'attributs non protégés corrélés avec les attributs sensibles. Enfin, nous présentons notre méthode sur la discrimination raciale en utilisant le nom et de prénom comme proxy pour l'ethnicité et nous réalisons des tests à partir de données synthétiques. / New algorithms in artificial intelligence offer an opportunity to improve the speed and efficiency of decision-making. These are certainly beneficial, when they allow to take into account more criteria than a human could consider and to make more decisions more quickly than a human could. However, the use of poorly designed decision algorithms has a major social effect. Indeed, these algorithms can learn to base their decisions on socially unacceptable criteria such as race, gender, ethnic origin, or sexual orientation, and thus formalize and propagate the discriminations of the past. In such cases, the impact of these algorithms is to reinforce and propagate on a large scale economic, social and opportunity inequalities between the various communities that make up our society. One might think that it is easy to examine the recommendation rules of an algorithm to check which criteria are considered. However, this is not the case : many AI algorithms, such as deep neural networks, are "black boxes" that deliver results in ways that humans cannot understand. Moreover, discrimination on an unacceptable criterion does not need to explicitly consider this criterion in its decision factors, but can be achieved by using only acceptable or even innocuous factors, but which are correlated to the unacceptable criterion. So whenever intelligent systems are used, we find ourselves wondering if the system will make the optimal decision without discrimination despite the fact that no sensitive attribute has been used. In this work, we explore a new method for the identification of discrimination in decisions of intelligent systems without having access to sensitive attributes. We begin by exploring commonly used discrimination measurement metrics and identifying their shortcomings. Subsequently, given these shortcomings, we explore new emerging methods based on causality to overcome them. Then, we study the possibility of using attributes correlated with the missing sensitive attributes like the name and the first name to find the sensitive attributes. Subsequently, we explore methods for measuring uncertainty in new AI algorithms in order to assess how certain we can be of the discrimination measure when using unprotected attributes correlated with sensitive attributes. Finally, we present our method on racial discrimination using surname and first name as a proxy for ethnicity and we perform tests using synthetic data.
64

Automated medical scheduling : fairness and quality

Picard-Cantin, Émilie 31 January 2021 (has links)
Dans cette thèse, nous étudions les façons de tenir compte de la qualité et de l’équité dans les algorithmes de confection automatique d’horaires de travail. Nous découpons ce problème en deux parties. La modélisation d’un problème d’horaires permet de créer des horaires plus rapidement qu’un humain peut le faire manuellement, puisqu’un ordinateur peut évaluer plusieurs horaires simultanément et donc prendre des décisions en moins de temps. La première partie du problème étudié consiste à améliorer la qualité des horaires en encodant des contraintes et des préférences à l’aide de modèles mathématiques. De plus, puisque la création est plus rapide à l’aide d’un ordinateur, il est plus facile pour un ordinateur de trouver l’horaire ayant la meilleure qualité lorsque les règles et préférences sont clairement définies. Toutefois, déterminer les règles et préférences d’un groupe de personne n’est pas une tâche facile. Ces individus ont souvent de la difficulté à exprimer formellement leurs besoins et leurs préférences. Par conséquent, la création d’un bon modèle mathématique peut prendre beaucoup de temps, et cela même pour un expert en création d’horaires de travail. C’est pourquoi la deuxième partie de cette thèse concerne la réduction du temps de modélisation à l’aide d’algorithmes capable d’apprendre un modèle mathématique à partir de solutions données comme par exemple, dans notre cas, des horaires de travail. / In this thesis, we study the ways to take quality and fairness into account in the algorithms of automatic creation of work schedules. We separate this problem into two subproblems. The modeling of a scheduling problem allows a faster creation of schedules than what a human can produce manually. A computer can generate and evaluate multiple schedules at a time and therefore make decisions in less time. This first part of the studied problem consists in improving the quality of medical schedules by encoding constraints and preferences using mathematical models. Moreover, since the creation is faster, it is easier for a computer to find the schedule with the highest quality when the rules and the preferences are clearly defined. However, determining the rules and preferences of a group of people is not an easy task. Those individuals often have difficulties formally expressing their requirements and preferences. Therefore, the creation a good mathematical model might take a long time, even for a scheduling expert. This is why the second part of this thesis concerns the reduction of modeling time using algorithms able to learn mathematical models from given solutions, in our case schedules.
65

Next generation of optimization and interactive planning algorithms for brachytherapy treatments

Bélanger, Cédric 19 January 2024 (has links)
Titre de l'écran-titre (visionné le 12 janvier 2024) / La curiethérapie est une modalité de traitement du cancer utilisant le rayonnement ionisant d'une source radioactive. En curiethérapie à haut débit de dose (HDR), un appareil motorisé blindé est utilisé pour guider la source radioactive à proximité ou à l'intérieur de la tumeur par l'intermédiaire d'applicateurs intracavitaires (IC) et/ou de cathéters interstitiels (IS). En s'arrêtant un certain temps (temps d'arrêt) à des positions spécifiques (positions d'arrêt), une dose de rayonnement conforme peut être adminisitrée à la tumeur tout en épargnant les organes à risque (OARs) avoisinants. Cependant, en raison de la nature du rayonnement ionisant, il est impossible d'administrer une dose de radiation curative à la tumeur sans exposer les OARs. Ces objectifs contradictoires doivent donc être optimisés simultanément. Par conséquent, le problème de planification de traitement en curiethérapie est intrinsèquement un problème d'optimisation multicritère (MCO), où de nombreuses solutions optimales (solutions Pareto-optimales) caractérisent les compromis cliniquement importants. Actuellement, les algorithmes commerciaux de planification en curiethérapie sont limités à l'ajustement manuel d'un objectif et/ou des temps d'arrêt. À cet égard, les algorithmes de planification inverse ne peuvent générer qu'un seul plan de traitement par cycle d'optimisation (en quelques secondes de temps de calcul) sans garantie de rencontrer les critères cliniques lors du premier cycle. Cette approche peut rendre la tâche de planification itérative et fastidieuse pour les planificateurs/planificatrices. Par conséquent, la qualité du plan peut dépendre des compétences de l'utilisateur/utilisatrice. En outre, la génération itérative d'un plan de traitement par cycle d'optimisation, comme c'est le cas en clinique, ne permet pas au planificateur/ planificatrice d'explorer facilement les compromis entre le tumeur cible et les OARs. La littérature présente également une lacune importante en ce qui concerne les méthodes d'optimisation permettant d'intégrer efficacement les applicateurs IC/IS complexes récents (par exemple, l'applicateur Venezia fabriqué par Elekta, Veenendaal, Pays-Bas) pour la curiethérapie du cancer du col de l'utérus. Le principal défi pour ces applicateurs complexes est de déterminer automatiquement le nombre optimal de cathéters, leur position et leur profondeur compte tenu du grand nombre de degrés de liberté dans le problème d'optimisation et des grandes variations dans la forme des tumeurs. Pour résoudre ces problèmes, cette thèse propose une nouvelle génération d'algorithmes d'optimisation et de planification interactive pour la curiethérapie. Pour atteindre cet objectif, un algorithme MCO (gMCO) basé sur une unité de processeur graphique (GPU) est d'abord mis en œuvre et comparé à un algorithme de planification inverse standard utilisé en clinique. gMCO met en œuvre un nouveau schéma d'optimisation des plans en parallèle sur l'architecture GPU permettant d'optimiser des milliers de plans Pareto-optimaux en quelques secondes. Ensuite, pour tirer pleinement profit de MCO en clinique, une interface graphique interactive appelée gMCO-GUI est développée. Cette interface permet au planificateur/planificatrice de naviguer et d'explorer les compromis en temps réel à partir des plans Pareto-optimaux générés par gMCO. gMCO-GUI permet entre autre d'afficher les indices dose-volume histogram (DVH), les courbes DVH et les lignes d'isodose pendant la navigation. Pour intégrer le flux de travail MCO dans la clinique, la mise en service de gMCO et de gMCO-GUI est effectuée en comparaison avec Oncentra Prostate et Oncentra Brachy, deux systèmes de planification de traitement largement utilisés. Suite à la mise en service, afin de caractériser l'utilisation de la planification interactive MCO en clinique, une étude inter-observateurs est menée. Deux physiciens/physiciennes expérimentés sont invités à replanifier 20 cas de cancer de la prostate chacun à l'aide de la planification interactive MCO. La qualité des plans préférés (obtenus par navigation) est comparée entre les deux physiciens/ phyciennes et le temps de planification MCO est enregistré. De plus, trois radio-oncologues sont invités à comparer l'aveugle les plans MCO (générés par les physiciens/physiciennes) et les plans cliniques afin d'établir le meilleur plan pour chaque patient. Finalement, motivé par le manque d'algorithmes d'optimisation des cathéters et de la dose dans le traitement du cancer du col de l'utérus dans les logiciels commerciaux et dans la littérature, un nouvel algorithme d'optimisation multicritère des cathéters pour les applicateurs IC/IS complexes tels que l'applicateur Venezia est conçu. Le problème d'optimisation avec l'applicateur Venezia est difficile car les composants de l'applicateur ne sont pas coplanaires. Le gain dosimétrique de l'optimisation simultanée des cathéters et MCO est comparé à MCO seul (cathéters cliniques) et aux plans cliniques basé sur les critères EMBRACE-II. En résumé, une nouvelle génération d'algorithmes d'optimisation et de planification interactive est développée pour la curiethérapie. Les cinq chapitres principaux de cette thèse rapportent les résultats et les contributions scientifiques de ces algorithmes comparés à la planification clinique standard. La thèse guide également les utilisateurs/utilisatrices dans l'intégration du flux de travail MCO interactif dans la clinique. / Brachytherapy is a treatment modality for cancer using ionizing radiation of a radioactive source. In high-dose-rate (HDR) brachytherapy, an afterloading unit is used to guide the radioactive source near or inside the tumor via intracavity (IC) applicators and/or interstitial (IS) catheters. By stopping a specific amount of time (dwell time) at specific positions (dwell positions), a conformal radiation dose can be delivered to the tumor while spearing nearby organs at risk (OARs). However, because of the nature of ionizing radiation, it is in fact impossible to deliver the curative dose to the tumor without exposing OARs. Instead, those conflicting objectives need to be simultaneously optimized. Therefore, the planning problem in HBR is inherently a multi-criteria optimization (MCO) problem, where many optimal solutions (Pareto-optimal solutions) can effectively characterize the clinically relevant trade-offs. Current commercial planning algorithms in HDR brachytherapy are limited to the manual fine-tuning of an objective and/or dwell times. In that regard, inverse planning algorithms can generate only one treatment plan per optimization run (few seconds of optimization time) without guarantee of meeting clinical goals in the first run, which makes the planning task iterative and cumbersome for the planners. Therefore, the plan quality may be dependent on the user skills. Furthermore, iterative generation of one treatment plan per optimization run as done in the clinic does not easily allow the planner to explore the trade-offs between targets and OARs. There is also an important gap in optimization methods in the literature to efficiently incorporate recent complex IC/IS applicators (e.g., the Venezia applicator manufactured by Elekta, Veenendaal, The Netherlands) for cervical cancer brachytherapy. The main challenge for these complex applicators is to automatically determine the optimal IS catheter number, position, and depth given large number of degrees of freedom in the optimization problem and large variations in tumor shapes. To address these problems, this thesis proposes next generation of optimization and interactive planning algorithms for brachytherapy. A graphics processing unit (GPU)-based MCO algorithm (gMCO) is first implemented and compared with a standard inverse planning algorithm used in the clinic. gMCO implements a novel parallel plan optimization scheme on GPU architecture that can optimize thousands of Pareto-optimal plans within seconds. Next, to fully benefit of MCO in the clinic, an interactive graphical user interface called gMCO-GUI is developed to allow the planner to navigate and explore the trade-offs in real-time through gMCO-generated plans. gMCO-GUI enables the display of dose-volume histogram (DVH) indices, DVH curves, and isodose lines during the plan navigation. To incorporate the proposed MCO workflow the clinic, the commissioning of gMCO and gMCO-GUI is conducted against Oncentra Prostate and Oncentra Brachy, two widely used treatment planning systems. Following the commissioning, and to further characterize the utilization of MCO interactive planning in the clinic, an inter-observer study is conducted. Two experienced physicists are asked to re-plan 20 prostate cases each using MCO interactive planning. The quality of the preferred plans (obtained by plan navigation) is compared between the two physicists and the MCO planning time is recorded. In addition, three radiation oncologists are invited to blindly compare MCO plans (generated by physicists) and clinical plans to assess the best plan for each patient. Finally, motivated by the lack of catheter and dose optimization algorithms in the treatment of cervical cancer in commercial software and in the literature, a novel simultaneous catheter optimization and MCO algorithm for complex IC/IS applicators such as the Venezia applicator is designed. The optimization problem with the Venezia applicator is challenging because the applicator components are non coplanar. The dosimetric gain of simultaneous catheter optimization and MCO is compared with MCO alone (clinical catheters), and clinical plans following EMBRACE-II criteria. In summary, next generation of optimization and interactive planning algorithms are developed for brachytherapy. The five main chapters of this thesis report the findings and scientific contributions of these algorithms compared with standard clinical planning. The thesis also guide users in the integration of the proposed interactive MCO workflow in the clinic.
66

EXPLORATION DES GRAPHES ARETES-COLOREES : TOPOLOGIE, ALGORITHMES, COMPLEXITE ET (NON)-APPROXIMABILITE

Abouelaoualim, Abdelfattah 27 September 2007 (has links) (PDF)
Dans la pratique, énormément de problèmes concrets peuvent être modélisés par un graphe. Par exemple, une carte géographique est typiquement un graphe dans lequel on serait amener à chercher des chemins courts entre les villes, ou à passer par toutes les routes ou toutes les villes.... Cela explique pourquoi la théorie des graphes est certainement le domaine le plus populaire des mathématiques discrètes malgré son jeune âge....
67

Application des algorithmes de haute résolution à la localisation de mobiles en milieu confiné / Localization of mobile objects in indoor environments based on the exploitation of high resolution signal parameter estimation algorithms

Stefanut, Paul 24 June 2010 (has links)
La diversité spatiale nécessitant des réseaux d’antennes à l’émission et/ou à la réception, connue sous la terminologie MIMO pour « Multiple Input Multiple Output », est intégrée dans les derniers standards des réseaux sans fil et fait déjà son apparition sur le marché des téléphones portables et des stations Wi-Fi. Au delà des solutions offertes pour augmenter le débit des communications, les techniques MIMO offrent la possibilité de retrouver, à l’aide d’algorithmes de traitement du signal, quelques paramètres physiques des signaux reçus et/ou transmis. Cette propriété va être exploitée pour offrir, par exemple aux terminaux Wi-Fi, la possibilité de se localiser dans des milieux confinés où les techniques développées pour la localisation des mobiles en extérieur ne sont pas aisément transposables.La demande est très forte pour ce genre d’application, notamment dans les lieux publics tels que les gares ou zones d’échanges multimodales, puisque la technologie pourrait permettre le développement de nouveaux services en rendant le voyage « intelligent » et en proposant l’accès à une vaste gamme de services en temps réel. L’objectif général de cette thèse est donc de proposer une solution de localisation pour aider le voyageur dans ses déplacements dans une zone d’échanges ou des gares.Le procédé de localisation développé est basé sur l’utilisation des paramètres angulaires et temporels d’au moins deux trajets entre le mobile à localiser et au moins deux réseaux de récepteurs. On suppose que ces trajets ont subi au maximum une interaction avec l’environnement. L’estimation des paramètres nécessaires à la localisation est effectuée à l’aide d’algorithmes à haute résolution de problèmes inverses tels SAGE et plus récemment RIMAX. Les études paramétriques sur les performances des algorithmes ont permis de déterminer les ressources nécessaires pour l’estimation des retards et des paramètres angulaires avec des précisions compatibles avec des applications de localisation. L’algorithme de localisation a été testé et validé dans différentes configurations, en utilisant les paramètres exacts des signaux ou ceux estimés par RIMAX. / Spatial diversity exploits antenna array at the transmitter and the receiving station. The resulting technology, known as MIMO (Multiple Input Multiple Output), has already been implemented in latest generation equipments and standards like Wi-Fi 802.11n. Excepting the advantage of increased data throughput, the technology allows extracting physical parameters of the received signals via signal processing algorithms. This property can be used to develop localization applications in indoor environments.The request for such applications continued increasing in the last decade. In the public transportation systems domain, the technology allows the development of intelligent solutions giving access to a wide range of real time services. The objective of this PhD is the development of an indoor localization solution in the context of public transportation systems.The proposed localization method is based on the exploitation of time domain and angular domain parameters of 2 or more LOS or NLOS of first order paths between the mobile object being localized and 2 or more receiving stations. Both the transmitter and the emitters are equipped with antenna arrays. The estimation of the parameters exploited in the localization method is obtained through high resolution signal parameter algorithms like SAGE and RIMAX. The parametric studies on the performance of parameter estimation algorithms allowed us to set a basis for the configuration allowing us to estimate the delays and the directions of arrival and departure within the limits set by the localization application. The localization algorithm has been tested and validated in different setups using the exact parameters of the signals or the parameters estimated by SAGE and RIMAX.
68

Reacting and adapting to the environment : designing autonomous methods for multi-objective combinatorial optimisation / Réagir et s'adapter à son environnement : concevoir des méthodes autonomes pour l'optimisation combinatoire à plusieurs objectifs

Blot, Aymeric 21 September 2018 (has links)
Les problèmes d'optimisation à grande échelle sont généralement difficiles à résoudre de façon optimale.Des algorithmes d'approximation tels que les métaheuristiques, capables de trouver rapidement des solutions sous-optimales, sont souvent préférés. Cette thèse porte sur les algorithmes de recherche locale multi-objectif (MOLS), des métaheuristiques capables de traiter l'optimisation simultanée de plusieurs critères. Comme de nombreux algorithmes, les MOLS exposent de nombreux paramètres qui ont un impact important sur leurs performances. Ces paramètres peuvent être soit prédits et définis avant l'exécution de l'algorithme, soit ensuite modifiés dynamiquement. Alors que de nombreux progrès ont récemment été réalisés pour la conception automatique d'algorithmes, la grande majorité d'entre eux ne traitent que d'algorithmes mono-objectif et l'optimisation d'un unique indicateur de performance. Dans cette thèse, nous étudions les relations entre la conception automatique d'algorithmes et l'optimisation multi-objective. Nous passons d'abord en revue les stratégies MOLS possibles et présentons un framework MOLS général et hautement configurable. Nous proposons également MO-ParamILS, un configurateur automatique spécialement conçu pour gérer plusieurs indicateurs de performance. Nous menons ensuite plusieurs études sur la conception automatique de MOLS sur de multiples problèmes combinatoires bi-objectifs. Enfin, nous discutons deux extensions de la configuration d'algorithme classique : d'abord l'intégration des mécanismes de contrôle de paramètres, pour bénéficier de multiples prédictions de configuration; puis l'utilisation séquentielle de plusieurs configurations. / Large-scale optimisation problems are usually hard to solve optimally.Approximation algorithms such as metaheuristics, able to quickly find sub-optimal solutions, are often preferred.This thesis focuses on multi-objective local search (MOLS) algorithms, metaheuristics able to deal with the simultaneous optimisation of multiple criteria. As many algorithms, metaheuristics expose many parameters that significantly impact their performance. These parameters can be either predicted and set before the execution of the algorithm, or dynamically modified during the execution itself. While in the last decade many advances have been made on the automatic design of algorithms, the great majority of them only deal with single-objective algorithms and the optimisation of a single performance indicator such as the algorithm running time or the final solution quality. In this thesis, we investigate the relations between automatic algorithm design and multi-objective optimisation, with an application on MOLS algorithms. We first review possible MOLS strategies ans parameters and present a general, highly configurable, MOLS framework. We also propose MO-ParamILS, an automatic configurator specifically designed to deal with multiple performance indicators. Then, we conduct several studies on the automatic offline design of MOLS algorithms on multiple combinatorial bi-objective problems. Finally, we discuss two online extensions of classical algorithm configuration: first the integration of parameter control mechanisms, to benefit from having multiple configuration predictions; then the use of configuration schedules, to sequentially use multiple configurations.
69

Conception et réalisation d’une plateforme mécatronique dédiée à la simulation de conduite des véhicules deux-roues motorisés / Design and realization of a mechatronic platform for motorized two-wheeled vehicle riding simulation

Nehaoua, Lamri 10 December 2008 (has links)
Le sujet de thèse concerne la réalisation et la caractérisation d’un simulateur dynamique de véhicule deux-roues. La thèse est organisée en plusieurs parties essentielles. D’abord, une étude bibliographique est menée pour cerner la problématique de la simulation de conduite d’une manière générale en se focalisant sur les simulateurs de point de vue conception. Dans cette partie, on a pris connaissance des différentes architectures mécaniques utilisées auparavant ainsi que les problèmes liés. Le choix de l'architecture du simulateur est guidé par les besoins nécessaires d'avoir une perception suffisante au cours de la simulation de conduite. Notre objectif est de reproduire les effets inertiels (accélération, effort,..) les plus pertinents perçus dans une conduite réelle. Le second chapitre aborde la dynamique des véhicules et compare celle des deux-roues contre les automobiles. Des adaptations pour des modèles dynamiques de moto ont été présentées pour répondre à nos besoins en termes de rendus privilégiés. Le troisième chapitre présente les aspects conception, réalisation, caractérisation et identification du simulateur de moto mis au point dans le cadre de cette thèse. Il constitue la principale contribution de ces travaux de recherche. Les deux derniers chapitres sont dédiés aux algorithmes de contrôle/commande ainsi qu’essais expérimentaux sur la plateforme. Ces tests ont été réalisés en vue de la caractérisation et la validation de performances de toute la chaîne de simulation. / This thesis deals with the design and realization of a dynamic mechanical platform intended to the motorcycle riding simulation. This dissertation is organized into several principal sections. First, a literature review is conducted to identify the driving simulation problematic in a general way by focusing on the simulator design. In this part, it was aware of the various mechanical architectures used previously as well as the related limitations. The choice of the simulator‘s mechanical architecture of is driven by the needs to have an sufficient perception during simulated driving situation. Our goal is to reproduce the most relevant inertial effects (acceleration, torque, ..) perceived in a real world driving. The second chapter discusses an exhaustive comparison between automotive vehicles dynamics against the two-wheeled vehicles against. Existing motorcycles dynamic models are adjusted and of have been adapted to meet our needs in terms of privileged inertial cues. The third chapter presents the design aspects, mechanical realization, characterization and identification of the motorcycle simulator developed within the framework of this thesis. It constitutes the main contribution of this research works. Finally, the last two chapters are dedicated to motion cueing /control algorithms and open-loop experimentation on the simulator’s platform. These tests were performed for the characterization and validation of performance of the entire simulation loop.
70

Algorithmes d'adaptation pour la couche physique de systèmes multi-porteuses

Mahmood, Asad 16 July 2008 (has links) (PDF)
Les systèmes multi-porteuses (MCM) actuelles n'atteignent pas leurs potentiel en raison de non-adaptation des paramètres de fonctionnement (e.g. taille de constellation, taux de codage, puissance émis etc.) par rapport l'état de canal (CSI) sur chaque sous-porteuse Cette thèse aborde le problème de la complexité des algorithmes d'adaptation en proposant des nouveaux algorithmes d'optimisation pour MCM. La complexité des algorithmes est ciblé sur le plan théorique / algorithmique ainsi que sur la coté architecture. La conception d'un nouvel algorithme de Bit-Loading (adaptation par rapport taille de constellation) est fait basé sur un rythme d'allocation présent dans l'allocation optimale/greedy. Le nouveau algorithme a une complexité beaucoup plus faible que d'autres algorithmes. Ensuite, développements théoriques et conception d'un nouvel algorithme de répartition optimale de puissance totale, en tenant compte la contrainte de puissance-maximale, est fait. Taux de codage étant un paramètre importante de la couche physique, une nouvelle méthode d'optimisation du profil d'irrégularité des codes LDPC irrégulière basé sur la quantification du phénomène de l'effet de vague (= ' Wave-Effect') est proposé avec les développements théoriques conduisant à une méthode de calcul efficace. Finalement, en utilisant les aspects adaptatif architecturale, une nouvelle méthodologie pour l'optimisation des ressources architecture pour un algorithme d'adaptation donné, en tenant compte les contraintes temporel de la canal de la transmission en temps réel., a été proposé.

Page generated in 0.0526 seconds