• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 388
  • 208
  • 60
  • 13
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 711
  • 251
  • 183
  • 170
  • 143
  • 137
  • 117
  • 117
  • 112
  • 107
  • 104
  • 91
  • 85
  • 84
  • 82
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approches par bandit : inférence statistique et partage d'information

Gariépy, Antoine 15 September 2023 (has links)
Titre de l'écran-titre (visionné le 6 septembre 2023) / Ce mémoire aborde l'utilisation de stratégies d'allocation typiquement optimales pour des bandits contextuels, Lin-TS et Lin-RUCB, pour résoudre un problème d'inférence statistique sur des données collectées adaptativement par ces stratégies. L'inférence statistique est une étape très importante qui permet de tirer des conclusions par rapport aux données étudiées. Faire de l'inférence statistique sur des données collectées sur un environnement de bandit contextuel pose un défi technique parce qu'on cherche à tester une fonction. Ces stratégies apportent un biais dans les données collectées. Nous introduisons à cet effet des notions permettant de définir le concept d'inférence statistique sur des fonctions d'espérances. L'outil proposé est utilisé pour évaluer la qualité de l'inférence statistique conduite sur des données collectées par les stratégies d'allocation typiques optimales pour des bandits contextuels. Il est commun dans certains problèmes d'inférence statistique de séparer les données en groupe lorsque l'hypothèse sur les actions est qu'elles auront des fonctions de récompense différentes dans les différents groupes. Cependant, en pratique, il arrive que cette hypothèse soit fausse. Dans cette situation, il pourrait être bénéfique de partager les données recueillies sur cette action à travers les différents groupes, d'une part pour accélérer l'apprentissage et d'autre part pour améliorer la qualité de l'inférence statistique. Nous abordons donc ce nouvel environnement pour étudier les bénéfices du partage d'information entre des agents apprenant sur des problèmes de bandits contextuels. Une approche y est présentée pour étendre facilement les stratégies d'allocation existantes de manière à permettre un partage de données pour des actions spécifiques. À cet effet, nous introduisons Lin-TS-AC et Lin-RUCB-AC. Nous explorons ensuite l'application des stratégies proposées à des données simulées provenant d'une ancienne étude randomisée. En effet, nous montrons comment simuler un problème à partir de vraies données, ce qui nous permet d'évaluer les approches proposées sur un environnement plus proche de la réalité. / This thesis discusses the use of typically optimal allocation strategies for contextual bandits, Lin-TS and Lin-RUCB, to solve a statistical inference problem on data collected adaptively by these strategies. Statistical inference is a very important step in drawing conclusions about the data under study. Doing statistical inference on data collected on a contextual bandit environment is technically challenging because we are trying to test a function. These strategies bring a bias in the collected data. To this end, we introduce notions to define the concept of statistical inference on expectation functions. The proposed tool is used to evaluate the quality of statistical inference conducted on data collected by typical optimal allocation strategies for contextual bandits. It is common in some statistical inference problems to separate the data into groups when the assumption about the actions is that they will have different reward functions in the different groups. However, in practice, sometimes this assumption is wrong. In this situation, it might be beneficial to share the data collected on this action across the different groups, both to speed up learning and to improve the quality of statistical inference. We therefore approach this new environment to study the benefits of information sharing between agents learning on contextual bandit problems. An approach is presented to easily extend existing allocation strategies to allow data sharing for specific actions. To this end, we introduce Lin-TS-AC and Lin-RUCB-AC. We then explore the application of the proposed strategies to simulated data from an old randomized study. Indeed, we show how to simulate a problem from real data, which allows us to evaluate the proposed approaches on an environment closer to reality.
2

Analyse des représentations mentales utilisées en résolution de problèmes arithmétiques chez des élèves du troisième cycle primaire

St-Vincent, Lise-Anne January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Une lecture transcendantale du problème de la causalité en mécanique quantique

Damarsing, Karine R. January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Élaboration et analyse d'une intervention didactique co-construite entre chercheur et enseignant, visant le développement d'un contrôle sur l'activité mathématique chez les élèves du secondaire

Saboya Mandico, Mireille January 2010 (has links) (PDF)
Certaines composantes de l'activité mathématique de l'élève telles que la vérification du résultat obtenu, la justification d'un énoncé, d'une proposition ou de la démarche adoptée dans un problème, un engagement réfléchi dans la tâche, la validation reflètent l'acquisition de ce que nous avons nommé le contrôle. Plusieurs études montrent l'importance de ces composantes dans l'activité mathématique chez l'élève (Balacheff, 1987; Artigue, 1993; Butlen et al., 1989), et chez les mathématiciens (Hadamard, 1975; Nimier, 1989; Smith et Hungwe, 1998), cette activité apparaissant également centrale dans le contexte scolaire (MELS, 2003, 2006). Néanmoins différentes recherches (Delorme, 1985; Richard, 1998; Coppé, 1993; Dib, 2000-01; Polya, 1945/1965; Vivier, 1998; Chalancon et al., 2002; Artigue, 2002; Cortés et Kavafian, 1999; Bednarz et Janvier, 1992; Schmidt, 1994; Richard, 1998; Butlen et Pezard, 1990-91; Schoenfeld, 1985) soulignent le peu de contrôle exercé par les élèves face à l'activité mathématique et ce, à tous les niveaux et dans différents domaines des mathématiques. Ce constat rejoint celui émis par les enseignants en exercice sous l'angle d'une vérification du résultat, de la démarche. Cette double préoccupation sur le contrôle que les élèves exercent en mathématiques, provenant à la fois des travaux menés en recherche en didactique des mathématiques et de la pratique à travers ce qu'expriment les enseignants nous a poussé à investiguer les situations susceptibles de développer le contrôle chez les élèves. Pour fonder l'élaboration de ces situations didactiques, nous avons mené une analyse du concept de contrôle autour de cinq perspectives différentes: sociologique, psychologique, éducation mathématique, mathématique et didactique. Nous en avons ressorti six composantes (même si les auteurs n'utilisent pas tous le terme contrôle) : anticipation, validation / vérification, engagement réfléchi, choix éclairé / discernement, utilisation de métaconnaissances, perception des erreurs / sensibilité à la contradiction / capacité de dépasser la contradiction. Une recherche collaborative a été menée avec une enseignante de secondaire 3 autour de l'algèbre et plus précisément sur les exposants. Nous avons cherché à cerner d'une part les situations élaborées conjointement et les stratégies d'intervention mises en place en classe et d'autre part à mieux comprendre ce qu'il advient sur le plan du développement du contrôle chez les élèves du secondaire au cours de ces situations. L'analyse des rencontres entre l'enseignante et la chercheure a permis de cerner sur quelle base s'est fait le choix des tâches retenues au cours de la planification, comment elles ont été modifiées au cours du processus de collaboration entre chercheure et enseignante (tâches redéfinies) et quelles sont les raisons qui ont guidé cette modification. Nous nous sommes également attardés sur les tâches effectives en classe, et les modifications apportées en cours de réalisation. Cette analyse a permis d'éclairer une didactique d'intervention autour du développement du contrôle. Ainsi, les composantes du contrôle et les critères en arrière du choix des tâches retenus au cadre théorique sont redéfinies à la lumière des rencontres de planification ; de nouvelles composantes et critères sont de plus mis de l'avant. Notre travail enrichit également les différentes stratégies d'intervention favorisant le développement du contrôle ainsi que des indicateurs de contrôle chez les élèves, catégories sur lesquelles nous n'avions pas beaucoup d'information dans notre cadre théorique. À la suite de l'analyse des séances en classe, des productions des élèves, des questionnaires écrits qui ont été passés au début et à la fin de l'expérimentation ainsi que des entrevues faites à certains élèves, nous avons pu tracer le développement du point de vue du contrôle auprès de huit élèves judicieusement choisis. Il en ressort pour certains un développement du contrôle sur le processus de résolution de problèmes et sur l'écriture. Nous avons toutefois noté certaines difficultés de contrôle qui persistent. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Contrôle, Secondaire, Mathématique, Recherche collaborative.
5

Next generation of optimization and interactive planning algorithms for brachytherapy treatments

Bélanger, Cédric 19 January 2024 (has links)
Titre de l'écran-titre (visionné le 12 janvier 2024) / La curiethérapie est une modalité de traitement du cancer utilisant le rayonnement ionisant d'une source radioactive. En curiethérapie à haut débit de dose (HDR), un appareil motorisé blindé est utilisé pour guider la source radioactive à proximité ou à l'intérieur de la tumeur par l'intermédiaire d'applicateurs intracavitaires (IC) et/ou de cathéters interstitiels (IS). En s'arrêtant un certain temps (temps d'arrêt) à des positions spécifiques (positions d'arrêt), une dose de rayonnement conforme peut être adminisitrée à la tumeur tout en épargnant les organes à risque (OARs) avoisinants. Cependant, en raison de la nature du rayonnement ionisant, il est impossible d'administrer une dose de radiation curative à la tumeur sans exposer les OARs. Ces objectifs contradictoires doivent donc être optimisés simultanément. Par conséquent, le problème de planification de traitement en curiethérapie est intrinsèquement un problème d'optimisation multicritère (MCO), où de nombreuses solutions optimales (solutions Pareto-optimales) caractérisent les compromis cliniquement importants. Actuellement, les algorithmes commerciaux de planification en curiethérapie sont limités à l'ajustement manuel d'un objectif et/ou des temps d'arrêt. À cet égard, les algorithmes de planification inverse ne peuvent générer qu'un seul plan de traitement par cycle d'optimisation (en quelques secondes de temps de calcul) sans garantie de rencontrer les critères cliniques lors du premier cycle. Cette approche peut rendre la tâche de planification itérative et fastidieuse pour les planificateurs/planificatrices. Par conséquent, la qualité du plan peut dépendre des compétences de l'utilisateur/utilisatrice. En outre, la génération itérative d'un plan de traitement par cycle d'optimisation, comme c'est le cas en clinique, ne permet pas au planificateur/ planificatrice d'explorer facilement les compromis entre le tumeur cible et les OARs. La littérature présente également une lacune importante en ce qui concerne les méthodes d'optimisation permettant d'intégrer efficacement les applicateurs IC/IS complexes récents (par exemple, l'applicateur Venezia fabriqué par Elekta, Veenendaal, Pays-Bas) pour la curiethérapie du cancer du col de l'utérus. Le principal défi pour ces applicateurs complexes est de déterminer automatiquement le nombre optimal de cathéters, leur position et leur profondeur compte tenu du grand nombre de degrés de liberté dans le problème d'optimisation et des grandes variations dans la forme des tumeurs. Pour résoudre ces problèmes, cette thèse propose une nouvelle génération d'algorithmes d'optimisation et de planification interactive pour la curiethérapie. Pour atteindre cet objectif, un algorithme MCO (gMCO) basé sur une unité de processeur graphique (GPU) est d'abord mis en œuvre et comparé à un algorithme de planification inverse standard utilisé en clinique. gMCO met en œuvre un nouveau schéma d'optimisation des plans en parallèle sur l'architecture GPU permettant d'optimiser des milliers de plans Pareto-optimaux en quelques secondes. Ensuite, pour tirer pleinement profit de MCO en clinique, une interface graphique interactive appelée gMCO-GUI est développée. Cette interface permet au planificateur/planificatrice de naviguer et d'explorer les compromis en temps réel à partir des plans Pareto-optimaux générés par gMCO. gMCO-GUI permet entre autre d'afficher les indices dose-volume histogram (DVH), les courbes DVH et les lignes d'isodose pendant la navigation. Pour intégrer le flux de travail MCO dans la clinique, la mise en service de gMCO et de gMCO-GUI est effectuée en comparaison avec Oncentra Prostate et Oncentra Brachy, deux systèmes de planification de traitement largement utilisés. Suite à la mise en service, afin de caractériser l'utilisation de la planification interactive MCO en clinique, une étude inter-observateurs est menée. Deux physiciens/physiciennes expérimentés sont invités à replanifier 20 cas de cancer de la prostate chacun à l'aide de la planification interactive MCO. La qualité des plans préférés (obtenus par navigation) est comparée entre les deux physiciens/ phyciennes et le temps de planification MCO est enregistré. De plus, trois radio-oncologues sont invités à comparer l'aveugle les plans MCO (générés par les physiciens/physiciennes) et les plans cliniques afin d'établir le meilleur plan pour chaque patient. Finalement, motivé par le manque d'algorithmes d'optimisation des cathéters et de la dose dans le traitement du cancer du col de l'utérus dans les logiciels commerciaux et dans la littérature, un nouvel algorithme d'optimisation multicritère des cathéters pour les applicateurs IC/IS complexes tels que l'applicateur Venezia est conçu. Le problème d'optimisation avec l'applicateur Venezia est difficile car les composants de l'applicateur ne sont pas coplanaires. Le gain dosimétrique de l'optimisation simultanée des cathéters et MCO est comparé à MCO seul (cathéters cliniques) et aux plans cliniques basé sur les critères EMBRACE-II. En résumé, une nouvelle génération d'algorithmes d'optimisation et de planification interactive est développée pour la curiethérapie. Les cinq chapitres principaux de cette thèse rapportent les résultats et les contributions scientifiques de ces algorithmes comparés à la planification clinique standard. La thèse guide également les utilisateurs/utilisatrices dans l'intégration du flux de travail MCO interactif dans la clinique. / Brachytherapy is a treatment modality for cancer using ionizing radiation of a radioactive source. In high-dose-rate (HDR) brachytherapy, an afterloading unit is used to guide the radioactive source near or inside the tumor via intracavity (IC) applicators and/or interstitial (IS) catheters. By stopping a specific amount of time (dwell time) at specific positions (dwell positions), a conformal radiation dose can be delivered to the tumor while spearing nearby organs at risk (OARs). However, because of the nature of ionizing radiation, it is in fact impossible to deliver the curative dose to the tumor without exposing OARs. Instead, those conflicting objectives need to be simultaneously optimized. Therefore, the planning problem in HBR is inherently a multi-criteria optimization (MCO) problem, where many optimal solutions (Pareto-optimal solutions) can effectively characterize the clinically relevant trade-offs. Current commercial planning algorithms in HDR brachytherapy are limited to the manual fine-tuning of an objective and/or dwell times. In that regard, inverse planning algorithms can generate only one treatment plan per optimization run (few seconds of optimization time) without guarantee of meeting clinical goals in the first run, which makes the planning task iterative and cumbersome for the planners. Therefore, the plan quality may be dependent on the user skills. Furthermore, iterative generation of one treatment plan per optimization run as done in the clinic does not easily allow the planner to explore the trade-offs between targets and OARs. There is also an important gap in optimization methods in the literature to efficiently incorporate recent complex IC/IS applicators (e.g., the Venezia applicator manufactured by Elekta, Veenendaal, The Netherlands) for cervical cancer brachytherapy. The main challenge for these complex applicators is to automatically determine the optimal IS catheter number, position, and depth given large number of degrees of freedom in the optimization problem and large variations in tumor shapes. To address these problems, this thesis proposes next generation of optimization and interactive planning algorithms for brachytherapy. A graphics processing unit (GPU)-based MCO algorithm (gMCO) is first implemented and compared with a standard inverse planning algorithm used in the clinic. gMCO implements a novel parallel plan optimization scheme on GPU architecture that can optimize thousands of Pareto-optimal plans within seconds. Next, to fully benefit of MCO in the clinic, an interactive graphical user interface called gMCO-GUI is developed to allow the planner to navigate and explore the trade-offs in real-time through gMCO-generated plans. gMCO-GUI enables the display of dose-volume histogram (DVH) indices, DVH curves, and isodose lines during the plan navigation. To incorporate the proposed MCO workflow the clinic, the commissioning of gMCO and gMCO-GUI is conducted against Oncentra Prostate and Oncentra Brachy, two widely used treatment planning systems. Following the commissioning, and to further characterize the utilization of MCO interactive planning in the clinic, an inter-observer study is conducted. Two experienced physicists are asked to re-plan 20 prostate cases each using MCO interactive planning. The quality of the preferred plans (obtained by plan navigation) is compared between the two physicists and the MCO planning time is recorded. In addition, three radiation oncologists are invited to blindly compare MCO plans (generated by physicists) and clinical plans to assess the best plan for each patient. Finally, motivated by the lack of catheter and dose optimization algorithms in the treatment of cervical cancer in commercial software and in the literature, a novel simultaneous catheter optimization and MCO algorithm for complex IC/IS applicators such as the Venezia applicator is designed. The optimization problem with the Venezia applicator is challenging because the applicator components are non coplanar. The dosimetric gain of simultaneous catheter optimization and MCO is compared with MCO alone (clinical catheters), and clinical plans following EMBRACE-II criteria. In summary, next generation of optimization and interactive planning algorithms are developed for brachytherapy. The five main chapters of this thesis report the findings and scientific contributions of these algorithms compared with standard clinical planning. The thesis also guide users in the integration of the proposed interactive MCO workflow in the clinic.
6

Définition et évaluation d'approches pour la validation des graphiques acycliques dirigés à partir de données

Gadio, Souleymane 01 February 2021 (has links)
L’évaluation de relations causales à l’aide de données observationnelles est une pratique courante en épidémiologie. En présence de telles données, l’exposition d’intérêt est non randomisée et l’estimation des effets peut être biaisée par l’existence de variables confondantes. Les graphes acycliques dirigés (DAG) permettent de représenter les relations causales présumées entre les variables jugées pertinentes, ainsi que d’identifier les variables réellement confondantes, mais tracer un DAG peut être un défi majeur. Dans ce mémoire, nous avons étudié, développé et comparé différentes méthodes de validation des DAG. Un DAG est dit compatible avec les données si les indépendances statistiques sous-tendues par le DAG sont présentes dans les données. Nous avons considéré quatre méthodes statistiques paramétriques et deux non-paramétriques afin de tester l’ensemble de ces indépendances. À partir de données synthétiques simulées, nous avons évalué la capacité de ces tests à distinguer les DAG valides de ceux non valides. Plusieurs simulations variant en fonction de la taille d’échantillon, du nombre et du type de variables, ainsi que de la forme de leurs relations ont été réalisées. Par ailleurs, nous avons illustré l’application de nos tests pour valider un DAG concernant l’impact des nouveaux retards vaccinaux aux visites de vaccination sur le statut vaccinal. La performance des tests varie d’un scénario à l’autre. La majorité des tests rejettent plus souvent la validité des DAG pourtant valides dans certains scénarios que l’erreur de type I prévue de 5% à l’exception du test d’équations structurelles WLSMV (mean and variance adjusted weighted least squares) qui donne des résultats assez satisfaisant, notamment en absence de relations quadratiques dans la structure des données. Ce dernier test a toutefois une puissance relativement faible à détecter les DAG non valides dans certains cas. Par ailleurs, nos résultats illustrent que certains DAG non valides sont impossibles à discerner d’un DAG valide à partir des données observées. Les tests que nous avons explorés peuvent aider à discerner certains problèmes dans les DAG. Malgré leurs limites, ces tests sont des outils avec un potentiel important pour aider les épidémiologistes à valider leurs hypothèses lorsqu’ils utilisent des DAG. / Assessing causal relationships using observational data is common practice in epidemiology. In the presence of such data, the exposure of interest is non-randomized and the estimation of the effects may be biased by the existence of confounding variables. Directed acyclic graphs (DAGs) allow depicting the presumed causal relationships between variables deemed relevant, as well as identify truly confounding variables, but building a DAG can be a major challenge. In this thesis, we have developed and compared different DAG validation methods. A DAG is said to be compatible with the data if the statistical independencies underlying the DAG are present in the data. We consider three parametric and two nonparametric statistical methods in order to test all of these independencies. Using simulated synthetic data, we evaluate the ability of these tests to distinguish valid DAGs from those that are not valid. Several simulations varying according to the sample size, the number and type of variables, as well as the form of their relationships were performed. In addition, we illustrate the application of our tests to validate a DAG concerning the impact of new vaccine delays on vaccination visits at vaccination status. Tests’ performance vary from scenario to scenario. The majority of tests reject more often the validity of DAG yet valid in some scenarios than the type I error of 5% expected with the exception of the structural equation WLSMV (mean and variance adjusted weighted least squares) which gives fairly satisfactory results, especially in the absence of quadratic relationships in the data structure. However, this last test has a relatively low power to detect invalid DAGs in certain cases. Our results also illustrate that some invalid DAGs are impossible to discern from a valid DAG based on the observed data. The tests we have explored can help detect certain problems in DAGs. Despite their limitations, these tests are therefore tools with significant potential to help epidemiologists to validate their hypotheses when using DAGs.
7

Extraction de caractéristiques, segmentation d'image et morphologie mathématique

Vachier, Corinne 18 December 1995 (has links) (PDF)
Cette thèse se propose d'explorer de nouvelles méthodes morphologiques permettant d'extraire les caractéristiques des régions qui composent une image. Ces méthodes sont en- suite destinées à être appliquées au problème de la segmentation d'image. Nous présentons tout d'abord deux approches classiques du problème de l'extraction de caractéristiques : celles basées sur les granulométries (opérations de tamisage) et celles basées sur l' étude des extrema des images numériques, en consacrant une attention particulière à la notion de dynamique. La dynamique value les extrema d'une image selon le contraste des régions qu'ils marquent ; nous montrons qu'elle équivaut à une opération de tamisage en contraste et que son principe rejoint celui des granulométries. Nous nous concentrons ensuite sur une généralisation du principe de la dynamique. Nous basons notre approche sur les opérateurs morphologiques connexes. Ces opérateurs ont pour spécificité d'agir sur les images en fusionnant leurs zones plates. Lorsqu'on ap- plique des opérateurs connexes de plus en plus sélectifs, des régions de l'image disparais- sent progressivement. Le niveau pour lequel une région disparaît caractérise la région au sens du critère du filtrage (en forme, en taille, en contraste, en volume...). Ceci nous conduit à introduire une nouvelle classe de transformations morphologiques, les fonctions d'extinction, qui valuent les extrema des images numériques selon les caractéristiques des régions qu'ils marquent. Une particularité importante des fonctions d'extinction, mise en évidence par l'algorithme de calcul efficace que nous proposons, est de fournir une descrip- tion hiérarchique des régions de l'image. Ceci se traduit, dans le calcul algorithmique, par la construction d'un arbre de fusion des extrema de l'image. Les fonctions d'extinction peuvent être utilisées pour sélectionner les régions perti- nentes d'une image et sont donc de grand intérêt dans les applications de filtrage et surtout de segmentation d'image (pour extraire les marqueurs des régions avant le cal- cul de la ligne de partage des eaux). Ce dernier point fait l'objet d'une étude appro- fondie. Nous donnons de nombreux exemples permettant d'illustrer leur intérêt pour la segmentation d'images complexes. Les résultats obtenus par cette méthode sont com- parés à ceux déduits de méthodes de marquage plus traditionnelles. L'apport le plus significatif des fonctions d'extinction pour la segmentation d'image est de systématiser et de simplifier considérablement la mise au point des algorithmes. Notamment, elles perme- ttent de mettre en oeuvre des processus rapides de segmentation hi érarchique interactive.
8

Stabilité de la réentrée anatomique dans le muscle cardiaque et annihilation par un protocole à deux stimulations : études de modélisation et aspects expérimentaux

Comtois, Philippe January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
9

Des multiples facettes des graphes circulants

Pêcher, Arnaud 17 October 2008 (has links) (PDF)
Ce document présente une vue synthétique de mes travaux de recherche menés ces cinq dernières années, au sein du LaBRI.<br />Les activités de recherche d'un enseignant-chercheur ne s'inscrivent pas souvent dans un plan de recherche soigneusement pensé. Elles évoluent en fonction de multiples impondérables, dont notamment les rencontres avec d'autres chercheurs ou encore les opportunités ``stratégiques'' de financement. De ce fait, il n'est pas toujours facile de dégager un fil conducteur qui permette de regrouper un ensemble des résultats obtenus ``au fil de l'eau'' sans avoir recours à des raccourcis un peu ``artificiels''. <br /><br />Lorsque je me suis efforcé de dégager un point commun à mes travaux, je me suis aperçu que des objets mathématiques bien particuliers n'étaient jamais très loin de mes activités: les groupes cycliques finis. En creusant un peu plus cette perception, il m'est apparu que mes travaux accordent une place considérable à des graphes élémentaires associés aux groupes cycliques, dits graphes ou encore webs.<br /><br />Ce document est donc consacré à la mise en valeur des multiples facettes de ces graphes. ``Facettes'' est ici à double sens, puisqu'une partie conséquente de mes résultats est précisément dédiée à la détermination des facettes de certains polytopes associés aux graphes!<br /><br />Sur la forme, les preuves ont été omises afin d'alléger le texte, à l'exception de quelques preuves sélectionnées pour leur brièveté et pour la pertinence du résultat qu'elles procurent. Des hyperliens pointent vers la version anglaise des preuves manquantes, telles qu'elles figurent dans le recueil d'articles en annexe. Pour faciliter également la lecture, l'index à la fin de l'ouvrage redonne toutes les principales définitions.<br /><br />Sur le fond, ce document est structuré de la manière suivante.<br /><br />Le premier chapitre est consacré aux principaux résultats connus sur les graphes parfaits. Ceci permet de définir les objets mathématiques utilisés par la suite, et de rappeler l'extraordinaire richesse conceptuelle des graphes parfaits.<br /><br />Dans le second chapitre, nous abordons un raffinement de la coloration usuelles des graphes, appelé ``coloration circulaire''. Cette coloration est à l'origine d'une généralisation récente des graphes parfaits: les ``graphes circulaires-parfaits''. Nous étudions la possibilité d'une caractérisation analogue à celles des graphes parfaits, que ce soit par sous-graphes exclus ou bien polyédrale. <br /><br />Dans le troisième chapitre, nous nous intéressons à une généralisation naturelle des webs: ``les graphes quasi-adjoints''. Il s'agit d'une sous-famille des graphes sans griffe, et à ce titre, l'étude de leur polytope des stables est de première importance.<br /><br />Dans le quatrième chapitre, nous menons des investigations directes sur le polytope des stables des graphes sans griffe.<br /><br />La conclusion est donnée dans le dernier et cinquième chapitre, qui contient également une brève présentation de quelques résultats préliminaires quant au calcul en temps polynomial du nombre circulaire-chromatique des graphes circulaires-parfaits et au calcul du nombre de stabilité des graphes quasi-adjoints. Tout repose sur l'introduction d'un nouveau polytope construit à partir des webs ...
10

Nonlinear optimization-based control techniques applied to cement grinding and polymerization processes

Lepore, Renato 02 June 2006 (has links)
Durant ces dernières années, l’intérêt pour les techniques de commande basées sur l’optimisation augmente en raison, d’une part de la compétitivité et des réglementations accrues dans le milieu industriel, et d’autre part de la puissance de calcul disponible aujourd’hui pour leur mise en œuvre efficace. Ce travail évalue les potentialités de ces techniques sur deux applications différentes en simulation, les simulateurs ayant été préalablement identifiés sur des installations réelles. La première application consiste en un circuit fermé de broyage du ciment fini. Un nouveau modèle à paramètres distribués est établi, qui décrit les masses mais aussi les distributions granulométriques à l’aide d’un nombre réduit d’intervalles de taille. Ce modèle est utilisé ensuite dans un but de commande et d’estimation de l’état. Sur le plan de la commande, de nouveaux objectifs sont définis en relation avec la résistance du ciment produit et l’efficacité du broyage. Les variables à contrôler sont deux fractions massiques mesurées par tamisage en ligne. Une stratégie de commande prédictive (horizon glissant), multivariable et non-linéaire, est mise au point, qui assure, en agissant sur le débit des matières premières et la recirculation, des changements de production efficaces et sécurisés, c’est-à-dire en tenant compte des limites des actionneurs et du bon fonctionnement du procédé. Le schéma de commande est complété par un module « output feedback », qui permet de compenser avantageusement les incertitudes structurelles du modèle, surtout si le système (procédé ou modèle) est pré-stabilisé et partiellement linéarisé à l’aide d’une simple boucle de régulation du débit du broyeur. Sur le plan de l’estimation d’état, un algorithme à horizon glissant, dual de l’algorithme de commande prédictive, est conçu et évalué, qui permet d’estimer la charge en matériau et les granulométries à l’intérieur du broyeur à partir de mesures à la sortie du broyeur uniquement. Cet algorithme peut être étendu de manière à déterminer l’état ainsi qu’un paramètre sujet à variations lentes, comme la broyabilité du matériau. L’estimateur d’état est également intégré à la commande prédictive. L’ensemble donne de bons résultats sous l’angle de la robustesse aux erreurs de mesure et aux incertitudes paramétriques, pourvu qu’il soit aussi muni d’un module de compensation « output feedback » (comme celui mentionné ci-avant). La seconde application est un procédé batch de polymérisation du méthacrylate de méthyle (MMA). Une représentation d’état est adoptée, qui se base sur des bilans de masse (la méthode des moments est utilisée) et d’énergie. Ces équations prennent aussi en compte l’effet de gel. Grâce à ce dernier aspect du modèle, un double objectif final de qualité et de taux de conversion peut être atteint. Dans l’hypothèse où deux incertitudes existent sur le modèle (l’échange de chaleur entre la paroi du réacteur et la solution est affecté par des dépôts d’impuretés, l’effet de gel n’est pas correctement identifié), trois stratégies de commande basées sur l’optimisation sont évaluées dans le cas pratique où seule la température de la solution est mesurée. La première stratégie combine une optimisation réalisée hors ligne avec le modèle nominal qui délivre la température de solution optimale comme consigne à un contrôleur classique. Cette stratégie s’avère néanmoins insuffisante par rapport à une perturbation sur l’effet de gel. La deuxième stratégie est basée sur une approche robuste par rapport à l’effet de gel, plus précisément une approche robuste de type « pire cas » qui permet de compenser la plus grave dégradation des performances due à la perturbation sur l’effet de gel. La variante moins conservatrice de cette stratégie comportant une boucle interne de contrôle ne peut malheureusement convenir pour les deux perturbations simultanément. La troisième stratégie est basée sur le principe d’estimation/ré-optimisation, cependant avec une estimation découplée (l’effet de gel se manifeste tard dans le déroulement du procédé) et donc très efficace des paramètres. De plus, l’estimation/ré-optimisation par rapport à l’effet de gel n’est réalisée que si cela s’avère nécessaire (écart significatif par rapport à la trajectoire optimale). Cette étude met en évidence les potentialités (diversité des utilisations), la flexibilité (couplage avec des stratégies plus classiques) des techniques basées sur l’optimisation. Il apporte aussi des solutions à des problèmes rencontrés dans l’industrie, inhérents à l’incertitude sur le modèle et au nombre limité de mesures.

Page generated in 0.0653 seconds