41 |
Etude de noyaux de semigroupe pour objets structurés dans le cadre de l'apprentissage statistiqueCuturi, Marco 17 November 2005 (has links) (PDF)
Les méthodes à noyaux désignent une famille récente d'outils d'analyse de données, pouvant être utilisés dans une grande variété de tâches classiques comme la classification ou la régression. Ces outils s'appuient principalement sur le choix a priori d'une fonction de similarité entre paires d'objets traités, communément appelée "noyau'' en apprentissage statistique et analyse fonctionnelle. Ces méthodes ont récemment gagné en popularité auprès des praticiens par leur simplicité d'utilisation et leur performance. Le choix d'un noyau adapté à la tâche traitée demeure néanmoins un problème épineux dans la pratique, et nous proposons dans cette thèse plusieurs noyaux génériques pour manipuler des objets structurés, tels que les séquences, les graphes ou les images. L'essentiel de notre contribution repose sur la proposition et l'étude de différents noyaux pour nuages de points ou histogrammes, et plus généralement de noyaux sur mesures positives. Ces approches sont principalement axées sur l'utilisation de propriétés algébriques des ensembles contenant les objets considérés, et nous faisons ainsi appel pour une large part à la théorie des fonctions harmoniques sur semigroupes. Nous utilisons également la théorie des espaces de Hilbert à noyau reproduisant dans lesquels sont plongées ces mesures, des éléments d'analyse convexe ainsi que plusieurs descripteurs de ces mesures utilisés en statistiques ou en théorie de l'information, comme leur variance ou leur entropie. En considérant tout objet structuré comme un ensemble de composants, à l'image d'une séquence transformée en un ensemble de sous-séquences ou d'images en ensembles de pixels, nous utilisons ces noyaux sur des données issues principalement de la bioinformatique et de l'analyse d'images, en les couplant notamment avec des méthodes discriminantes comme les machines à vecteurs de support. Nous terminons ce mémoire sur une extension de ce cadre, en considérons non plus chaque objet comme un seul nuage de point, mais plutôt comme une suite de nuages emboîtés selon un ensemble d'évènements hierarchisés, et aboutissons à travers cette approche à une famille de noyaux de multirésolution sur objets structurés.
|
42 |
L’histoire de la philosophie des sciences mathématiques, physiques et chimiques au tournant du XXe siècle à travers l’étude des Scientifiques-Philosophes et de leurs pratiques philosophiques et éditoriales au sein de l’univers des revues philosophiques francophones / The history of philosophy during the twentieth century through the study of the “Scientifiques-Philosophes” and their epistemological and editorial practices within the universe of French-speaking philosophical journalsGreber, Jules-Henri 17 December 2014 (has links)
Depuis une vingtaine d'année, pour examiner le développement historique des sciences, les historiens emploient des méthodes quantitatives. Utilisées dans une historiographie visant à lier le point de vue quantitatif et le point de vue qualitatif, ces méthodes ont donné lieu à des travaux importants dans différents domaines, en particulier l'étude des sociétés savantes, des revues, des institutions ou d'un secteur scientifique particulier. Bien que prometteuses, ces méthodes restent encore marginales dans le traitement de l'histoire de la philosophie des sciences. L'objectif de la présente thèse est alors de faire la preuve de l'utilité et du bien fondé des méthodes quantitatives dans ce domaine. Après avoir rappelé les thèses habituellement entretenues au sujet du contexte francophone en histoire et philosophie des sciences au tournant du XXe siècle, et dégagé les différents problèmes rencontrés au sein des études classiques et contemporaines consacrées à ce contexte, nous montrons en quoi une étude quantitative s'avère nécessaire. Nous présentons ensuite les différentes étapes et méthodes qui ont permis de constituer une base de données dont l’enjeu final est de dresser un tableau général et systématique du contexte en histoire et philosophie des sciences entre 1870 et 1930. Enfin, nous présentons et analysons certaines pratiques épistémologiques et éditoriales des Scientifiques-Philosophes au sein des périodiques philosophiques. Nous montrons comment ces pratiques ont participé à l’institutionnalisation de la philosophie des sciences au tournant du XXe siècle. / For approximately twenty years, historians have used quantitative methods to examine the historic development of sciences. These methods have been used in a historiography to connect the quantitative point of view and the qualitative one. They gave rise to important works in various areas, particularly in the study of learned societies, journals, institutions or and specific scientific fields. Although promising, these methods still remain marginal in the study of the history of philosophy of sciences. This PhD thesis aims to give evidence of the utility and legitimacy of the quantitative methods in this area.We discuss theories usually endorsed of context in history and philosophy of sciences in the turn of the twentieth century. Then, we clarify the various problems met within classic and contemporary studies of this subject and we show the necessity of a quantitative approach. After that, we present the various steps and methods needed to build a database to present a general picture of the context of history and philosophy of sciences between 1870 and 1930.Finally we present an analysis of some epistemological and editorial practices of the “Scientifiques-Philosophes” in philosophical journals. We show how these practices participated in the institutionalization of the philosophy of sciences in the turn of the twentieth century.
|
43 |
Molecular modeling of aerosols / Modélisation moléculaire de l'aérosolLovrić, Josip 16 June 2017 (has links)
Cette thèse est une étude, au niveau moléculaire, par des méthodes de simulation numérique, des propriétés des aérosols organiques, notamment des aérosols marins, et de leur interaction avec des espèces présentes dans l’atmosphère. L’organisation de la matière organique au sein de ces aérosols joue un rôle fondamental pour leurs propriétés optiques, chimiques et leur rôle comme noyau de condensation pour les nuages.Dans une première partie, on présente contexte atmosphérique et les méthodes de dynamique moléculaire classique et les méthodes mixtes quantique/classique utilisées pour simuler ces aérosols. Ensuite, on décrit l’application de ces méthodes à trois cas.Tout d’abord, on a étudié, par dynamique moléculaire classique (logiciel Gromacs), l’organisation, notamment l’orientation, de molécules d’acide palmitique absorbées sur une surface de sel (NaCl) en fonction du taux de couverture en acide gras et de la température. On présente aussi une étude détaillée de l’influence de l’humidité sur l’organisation de ce film organique à la surface du sel, mettant en évidence l’existence d’îlots d’acide gras monocouches structurés. Dans une seconde étude, la réactivité de NO2 avec cet aérosol marin est traitée par une approche mixte quantique/classique (logiciel CP2K), avec prise en compte de l’impact de l’humidité sur cette réactivité.Enfin, la dernière étude concerne une étude par dynamique moléculaire de phases condensées organiques (n-butanol) et de leur interaction avec des molécules d’eau. Cette étude théorique, complémentaire d’expériences de jets moléculaires, a pour but de mieux comprendre le rôle fondamental que jouent ces interactions pour les propriétés des aérosols et des nuages. / In this thesis numerical methods are used to study the properties, described at the molecular level, of organic aerosols, especially marine aerosols, and their interaction with species in the atmosphere. The organisation of the organic matter in these aerosols plays a key role for their optical, chemical properties, and their ability to act as a cloud condensation nuclei.The first part reviews atmospheric context and the methods (classical molecular dynamics and hybrid quantum/classical approaches) used in this thesis. Then applications to three cases are detailed.Firstly, the organization, more particularly the orientation, of palmitic acid molecules adsorbed on a salt (NaCl) surface as a function of the fatty acid coverage and temperature has been studied using classical molecular dynamics (Gromacs package). The impact of the humidity on the structuration of this organic coating has been described in details, showing the existence of structured fatty acid island-like monolayers on NaCl surface.In a second study, the reactivity of NO2 with these heterogeneous marine aerosols has been investigated by a hybrid quantum/classical method (CP2K package), with taking into account the effect of the humidity.The last study is a classical molecular dynamics of n-butanol crystal, water accommodation at these surfaces and simulation of water jet collision with n-butanol surface. These simulations, complementary to experiments, were performed to better understand the fundamental role of the water-organic matter interaction on the properties of the aerosols and clouds.
|
44 |
Study of Triple-GEM detector for the upgrade of the CMS muon spectrometer at LHCMaerschalk, Thierry 12 July 2016 (has links)
This doctoral thesis is part of the upgrade of the CMS experiment at the Large HadronCollider of CERN, the LHC. CMS, together with the ATLAS experiment, led to thediscovery of the Brout-Englert-Higgs boson in 2012. But the LHC research program isnot over yet. Indeed, the LHC is intended to operate even at least 20 more years. Duringthis period, the luminosity will grow gradually up to five times its nominal value of 10 34cm −2 s −1 initially foreseen. This increase in luminosity requires the LHC experiments,like CMS, to upgrade their detectors as well as their data acquisition system. One of thenext major CMS upgrade is the addition of a new detector layer in the forward muonspectrometer of CMS. The technology that has been chosen by the CMS collaborationfor this upgrade is the Triple Gas Electron Multiplier (Triple-GEM) technology. Thisupgrade aims to maintain the trigger performance despite the increasing rate of particles(> 1 kHz/cm 2 ) and will also improve the reconstruction of muons tracks, thanks to aexcellent spatial resolution (∼ 250 μm). It is the study and characterization of thistechnology that is the subject of this thesis.This characterization of the Triple-GEM detectors starts with a detailed study of thetime resolution. This study has been performed using different Monte Carlo simulationslike GARFIELD, and has demonstrated that the Triple-GEM detectors equipped withthe new VFAT3 electronics (developed for this upgrade) fulfill the requirements for theCMS upgrade.Then we have studied different detector prototypes. First, we have built two small 10×10cm 2 prototypes and developed a test bench at the ULB laboratory. This test bench hasallowed us to study another important parameter of the Triple-GEM detectors: the gain.Later, we also had the opportunity to take part in the data taking and analysis of a testbeam campaign at CERN. The analysis of the data of this test beam is also presentedin detail.The last part of this work concerns the study of the spatial resolution. We have estimatedthe spatial resolution of the Triple-GEM detector equipped with a binary electronics byMonte Carlo simulations as well as analytically. This study has been extended to otherdetector technologies like the Micromegas and the silicon sensors. / Cette th`ese de doctorat s’inscrit dans le cadre de la mise `a niveau de l’exp ́erience CMSaupr`es du grand collisionneur de protons du CERN, le LHC. CMS, avec l’exp ́erienceATLAS, a permis la d ́ecouverte du boson de Brout-Englert-Higgs en 2012. Mais leprogramme de recherche du LHC n’est pas pour autant termin ́e. En effet, le LHC estdestin ́e `a fonctionner encore au moins 20 ans. Pendant cette p ́eriode, la luminosit ́e vacroˆıtre progressivement jusqu’`a atteindre environ cinq fois la valeur nominale de 10 34cm −2 s −1 initialement pr ́evue et ce d’ici 2025. Cette augmentation de luminosit ́e pousseles exp ́eriences du LHC, comme CMS, `a mettre `a jour les d ́etecteurs ainsi que leurssyst`emes d’acquisition de donn ́ees. Une des prochaines mises `a niveau majeures deCMS est l’addition d’une nouvelle couche de d ́etection dans le spectrom`etre `a muonvers l’avant. La technologie de d ́etection qui a ́et ́e choisie par la collaboration CMS estla technologie des Triple Gas Electron Multiplier (Triple-GEM). Cette mise `a niveaua pour but de maintenir les performances du syst`eme de d ́eclenchement et ce malgr ́el’augmentation de taux de particules (> 1 kHz/cm 2 ) et de permettre ́egalement, grˆacea la tr`es bonne r ́esolution spatiale des Triple-GEM (∼ 250 μm), l’am ́elioration de la re-construction des traces de muons. C’est l’ ́etude des caract ́eristiques de cette technologiequi est le sujet de cette th`ese.Cette caract ́erisation des d ́etecteurs Triple-GEM commence par une ́etude d ́etaill ́ee de lar ́esolution temporelle. Cette ́etude a ́et ́e r ́ealis ́ee `a l’aide de diff ́erentes simulations MonteCarlo telles que GARFIELD et a permis de montrer que les Triple-GEMs ́equip ́es de lanouvelle ́electronique VFAT3 (sp ́ecifiquement d ́evelop ́ee pour les Triple-GEMs) remplis-sent les conditions pour la mise `a niveau de CMS.Nous avons ensuite ́etudi ́e diff ́erents prototypes. Tout d’abord nous avons construit deuxpetits (10 × 10 cm 2 ) prototypes de Triple-GEM et d ́evelop ́e un banc de test au sein dulaboratoire de l’ULB. Ce banc de test nous a permis d’ ́etudier un autre param`etre impor-tant des d ́etecteurs Triple-GEM: le gain. Au cours de cette th`ese nous avons ́egalementparticip ́e `a la prise de donn ́ees et `a l’installation de diff ́erents tests en faisceau au CERN.L’analyse des donn ́ees du test en faisceaux d’octobre 2014 est aussi pr ́esent ́ee en d ́etail.La derni`ere partie de ce travail concerne l’ ́etude de la r ́esolution spatiale. Nous avonsestim ́e la r ́esolution spatiale par simulation de Monte Carlo ainsi que de mani`ere an-alytique pour des d ́etecteurs GEM munis d’une ́electronique binaire. Cette ́etude a ́egalement ́et ́e g ́en ́eralis ́ee `a d’autres d ́etecteurs tels que les Micromegas ou encore lescapteurs au silicium. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
45 |
Gestion du temps par le raffinement / Refinement Patterns for Real-Time SystemsRehm, Joris 10 December 2009 (has links)
Dans les domaines critiques d'application de l'informatique, il peut être vital de disposer d'un génie logiciel qui soit capable de garantir le bon fonctionnement des systèmes produits. Dans ce contexte, la méthode B évènementielle promeut le développement de modèles abstraits du système à concevoir et l'utilisation de démonstrations formelles ainsi que de la relation de raffinement entre les modèles. Notre but est de pouvoir travailler sur des systèmes ayant des aspects temporels quantitatifs (propriétés et contraintes de temps) en restant au sein du cadre défini par la méthode B qui a déjà montré son efficacité par ailleurs, mais qui ne dispose pas de concepts spécifiques pour le temps. C'est ainsi que nous proposons l'introduction des contraintes de temps par le raffinement, ceci permet de respecter la philosophie de la méthode B et de systématiser cette approche par la formalisation de patrons de raffinement. Nos différentes modélisations du temps sont proposées sous la forme de patron à réappliquer sur le système à étudier. Nous pouvons donc étudier progressivement le système à partir d'une abstraction non-temporelle afin de le valider progressivement et de distribuer la difficulté de la preuve en plusieurs étapes. L'introduction des aspects temporels ne se fait que lorsque cela est nécessaire lors du processus de développement prouvé. Nous avons validé cette approche sur des études de cas réalistes en utilisant les outils logiciels de démonstration formelle de la méthode B. / Critical application domains of computer science require the use of software engineering methods that ensure that the resulting systems behave according to their intended functionality. In this context, the Event-B method uses an approach based on stepwise refinement, starting with abstract, high-level models of the system under development. The system models corresponding to different levels of abstraction are related by precise and formally proved refinement relations. Our goal is to extend this approach to systems whose requirements include quantitative real-time aspects (properties and temporal constraints). In this way, we benefit from the established qualities of the B method, while extending its scope to real-time aspects that it does not yet cover. More specifically, we propose to introduce time constraints by refinement, respecting the overall approach of the B method, and to systematize our approach by the use of refinement patterns. Different time models are represented by generic patterns that can be reused for the development of concrete systems. In this way we can gradually develop the system from a non-temporal abstraction and progressively validate its correctness, distributing the burden of proof is over several refinement steps. Temporal aspects are introduced step by step and only when necessary. We validated this approach using several real-world case studies, using the software tools for formal proof developed for the Event-B method.
|
46 |
Segmentation automatique d'images sur des critères géométriques, application à l'inspection visuelle de produits agroalimentaires / Automated segmentation of images using geometrical criteria, application on image processing for good inspectionDubosclard, Pierre 25 January 2016 (has links)
À l’échelle mondiale, la récolte de céréales atteint plusieurs milliards de tonnes chaque année. Les producteurs céréaliers échangent leurs récoltes selon un prix déterminé par la qualité de leur production. Cette évaluation, appelée agréage, est réalisée pour chaque lot sur un échantillon jugé représentatif. La difficulté au cours de cette évaluation est de parvenir à parfaitement caractériser l'échantillon. Il faut pour cela qualifier chacun de ses éléments, en d'autres termes, il est nécessaire d'évaluer chaque grain de céréale de manière individuelle. Cette opération est historiquement réalisée par un opérateur qui isole chaque grain manuellement pour l’inspecter et l'évaluer. Ce procédé est exposé à différents problèmes : d'une part les résultats obtenus par un opérateur ne sont pas parfaitement répétables : son état de fatigue visuelle peut influencer son appréciation ; d'autre part l'évaluation dépend de l'opérateur : elle n'est pas reproductible, les résultats peuvent varier d'un opérateur à l'autre. Cette thèse a donc pour but de mettre au point un système capable de réaliser cette inspection visuelle.Le système d’acquisition est présenté dans un premier temps. Cette enceinte contient les dispositifs d’éclairage et d’acquisition d’images. Différents outils ont été mis en œuvre pour s’assurer de la justesse et de la stabilité des acquisitions. Une méthode d’apprentissage de modèles de forme est ensuite présentée : elle a pour but de définir et de modéliser le type de forme des grains de l’application considérée (blé, riz, orge). Cette étape est réalisée sur une image d’objets isolés. Deux méthodes de détection sont ensuite présentées : une approche déterministe et une approche probabiliste. Ces deux méthodes, mises au point pour segmenter les objets d’une image, utilisent des outils communs bien qu’elles soient conçues différemment. Les résultats obtenus et présentés dans cette thèse démontrent la capacité du système automatique à se positionner comme une solution fiable à la problématique d’inspection visuelle de grains de céréales. / In agriculture, the global grain harvest reached several billion tons each year. Cereal producers exchange their crops at a price determined by the quality of their production. This assessment, called grading, is performed for each set on a representative sample. The difficulty of this assessment is to fully characterize the sample. To do so, it is necessary to qualify each of its elements. In other words, it is necessary to evaluate each individual cereal grain. Historically, this has been performed manually by an operator who isolates each evaluated grain. This method is exposed to various problems: firstly, results obtained by an operator are not perfectly repeatable. For example, eyestrain can influence the assessment. On the other hand the evaluation depends on the operator: it is not reproducible. The results can vary from one operator to another. The aim of this thesis is to develop a system that can handle this visual inspection. In a first time, the acquisition system is introduced. Image acquisition and lighting parts are placed in a cabin. Several methods have been introduced to manage accuracy and stability of the acquisitions. Then, a shape model learning is detailed: this step, based on an image with manually separated objects, defines and modelizes shape of the considered cereal grains (wheat, rice, barley). Two detection approaches are then introduced: a deterministic method and a probabilistic one. Both are based on the same tools to process the objects segmentation of an image, but they deal with the question in a different way. The results provided by the system and presented in this thesis emphasize the ability of this automatic system to process the visual inspection of food products.
|
47 |
Multi-criteria batch scheduling under time-of-use tariffs / Ordonnancement multicritère par lots avec tarifs d'électricité différenciésCheng, Junheng 07 December 2017 (has links)
L'industrie est le plus grand consommateur d'énergie dans le monde et la majeure partie de sa consommation est électrique. Pour moduler la consommation et équilibrer les périodes creuses et de pic, les producteurs d'électricité dans de nombreux pays pratiquent une tarification différenciée, en anglais "time-of-use (TOU) policy", afin d’encourager les industriels et les particuliers à adapter leur consommation. Cette stratégie incite les gros consommateurs industriels, en particulier le secteur semi-conducteur où la fabrication se fait souvent par lots, à réduire leurs factures d’électricité en adaptant leur production.Dans ce travail, nous étudions plusieurs problèmes d’ordonnancement de production par lots avec tarification différenciée d'électricité. Nous nous intéressons d’abord à l’ordonnancement d’une machine par lots pour minimiser le coût total d’électricité et le makespan. Le deuxième problème étudié généralise le premier en considérant le coût d’électricité pendant les périodes inactives de la machine telles que les périodes de réglage ou d'attente. Enfin, nous traitons l’ordonnancement sur machines parallèles par lots avec des pièces non identiques. Pour chacun de ces problèmes, nous construisons des modèles mathématiques appropriés, et évaluons sa complexité. Pour la résolution, nous proposons plusieurs méthodes de ɛ-contrainte dans lesquelles des sous-problèmes sont transformés en problèmes de sac-à-doc, de sacs-à-doc multiples et ou de bin packing. Nous développons aussi une méthode itérative à deux étapes. Les performances des méthodes développées sont évaluées à l'aide d'un grand nombre d'instances représentatives générées au hasard. Les résultats numériques montrent l'efficacité de ces méthodes par rapport au logiciel commercial CPLEX. / The industrial sector is the largest consumer of the world's total energy and most of its consumption form is electricity. To strengthen the grid's peak load regulation ability, time-of-use (TOU) electricity pricing policy has been implemented in many countries to encourage electricity users to shift their consumption from on-peak periods to off-peak periods. This strategy provides a good opportunity for manufacturers to reduce their energy bills, especially for energy-intensive ones, where batch scheduling is often involved. In this thesis, several bi-objective batch scheduling problems under TOU tariffs are studied. We first investigate a single machine batch scheduling problem under TOU tariffs with the objectives of minimizing total electricity cost and makespan. This primary work is extended by further considering machine on/off switching. Finally, a parallel batch machines scheduling problem under TOU tariffs with non-identical job sizes to minimize total electricity cost and number of enabled machines is studied. For each of the considered problems, appropriate mathematical models are established, their complexities are demonstrated. Different bi-objective resolution methods are developed, including knapsack problem heuristic based ɛ-constraint method, multiple knapsack problem heuristic based ɛ-constraint method, bin packing heuristic based ɛ-constraint method and two-stage heuristic based iterative search algorithm. The performance of the proposed methods is evaluated by randomly generated instances. Extensive numerical results show that the proposed algorithms are more efficient and/or effective for the studied problems than the commercial software CPLEX.
|
48 |
Formules de superposition pour les équations matricielles de Riccati psuedo-unitaires et pseudo-orthogonalesLafortune, Stéphane January 1996 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
49 |
Test de conformité du protocole de signalisation en mode Trames (Frame Relay)Ould Mohamed-Salem, Mohamed-Vall January 1996 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
50 |
Comparaison de la puissance de tests de déséquilibre de liaison dans les études génétiquesJomphe, Valérie 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / L'identification du gène responsable d'une maladie peut être facilitée par des méthodes statistiques telles que des études d'association basées sur le déséquilibre de liaison. Différentes stratégies d'analyse sont possibles pour ce type d'étude. Comme pour les tests d'association classiques, un devis d'échantillonnage de cas-témoins peut être utilisé. Un deuxième devis possible est l'échantillonnage de trios. On peut également choisir d'étudier l'association allélique ou haplotypique des marqueurs génétiques sélectionn és. La présente étude vise à comparer par voie de simulation la puissance de tests de déséquilibre de liaison selon la stratégie d'analyse choisie. Dans un premier temps, on s'est intéressé à la comparaison des devis d'échantillonnage cas-témoins et trios ; dans un deuxième temps, on a comparé les approches allélique et haplotypique.
|
Page generated in 0.0386 seconds