• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 27
  • 2
  • 1
  • Tagged with
  • 97
  • 35
  • 33
  • 33
  • 25
  • 25
  • 22
  • 21
  • 20
  • 17
  • 16
  • 16
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Utilisation des données satellitaires MODIS dans un contexte de prévision des crues printanières sur un bassin montagneux canadien

Marcil, Gino-Karl January 2016 (has links)
La prévision hydrologique nécessite une connaissance adéquate des quantités de neige présentes sur ses bassins versants, particulièrement pour des bassins versants montagneux. Pour beaucoup de bassins, la densité du réseau de stations nivométriques est faible ou parfois même inexistante. De leur côté, les données satellitaires MODIS permettent de suivre l’évolution du couvert de neige sur de grandes superficies de façon journalière et à une résolution spatiale de 500 m. Dans ce contexte, un projet de recherche a été proposé en partenariat entre Rio Tinto Alcan (RTA) et l’Université de Sherbrooke afin d’évaluer l’apport de la télédétection du couvert de neige (MODIS) pour améliorer la prévision hydrologique en période de crue. Le bassin versant à l’étude est celui de la rivière Nechako, situé en Colombie-Britannique (Canada) et caractérisé par sa topographie montagneuse et les grandes quantités de neige s’accumulant sur son territoire. D’abord, une analyse statistique a été réalisée permettant d’obtenir une relation empirique entre l’évolution du volume de crue et la variation de la superficie du couvert de neige (SCN) tirée des images MODIS. Ensuite, les SCN MODIS ont été utilisées pour le calage du modèle hydrologique SWAT selon 9 différentes techniques de calage. Finalement, avec l’aide d’un système de prévision, assimilant d’abord les SCN MODIS pour mettre à jour les conditions initiales, la performance de 5 des 9 calages effectués a été analysée en prévision hydrologique court terme (déterministe) et moyen terme (probabiliste). À partir des résultats, il a été possible d’observer que l’assimilation des SCN MODIS permet d’améliorer les prévisions à plus long terme, particulièrement des volumes de crue. À court terme, la qualité des prévisions d’apports est sensiblement identique avec ou sans assimilation MODIS bien qu’une meilleure simulation des conditions initiales de neige soit observée avec assimilation MODIS. Finalement, la comparaison des calages en prévision hydrologique démontre qu’une légère amélioration des prévisions d’apports moyen terme (3 à 5 mois) est possible lorsque les données MODIS sont utilisées dans la procédure de calage. Cependant, les résultats sont variables dépendamment de la technique de calage utilisée.
12

Performance du calorimètre à argon liquide et recherche du boson de Higgs dans son canal de désintégration H -->ZZ*->4l avec l'expérience ATLAS auprès du LHC / Performance of the liquid argon calorimeter, search and study of the Higgs boson in the channel H -> ZZ* -> 4 l with the ATLAS detector

Tiouchichine, Elodie 14 November 2014 (has links)
Les travaux de thèse effectués au sein de la collaboration ATLAS et présentés dans ce manuscrit se sont déroulés dans le contexte de la découverte d'une nouvelle particule dans la recherche du boson de Higgs du Modèle Standard au LHC. Après une introduction du cadre théorique, le LHC et le détecteur ATLAS sont présentés ainsi que leurs performances durant cette première phase de prise de données comprenant les données acquises en 2011 et 2012. Une attention particulière est portée aux calorimètres à argon liquide et au traitement de la qualité des données enregistrées par ce système. Des études de validation des données collectées durant des conditions non nominales de la haute tension des calorimètres à argon liquide ont abouti à la récupération de 2% des données collectées, les rendant ainsi disponibles pour l'analyse de physique. Ceci a un impact direct sur le canal H -> ZZ* -> 4 l où le nombre d'événements attendus est faible. Dans le but d'optimiser l'acceptance du canal de désintégration en quatre électrons, des nouveaux algorithmes de reconstruction des électrons ont été introduits en 2012, et la mesure de son efficacité est présentée. Le gain d'efficacité allant jusqu'à 7% pour les électrons de basse énergie transverse (15<E_T<20 GeV) constitue une des améliorations de l'analyse dans le canal H -> ZZ* -> 4 l qui est présentée pour les données 2012. Les méthodes d'estimation du bruit de fond réductible des canaux contenant des électrons dans l'état final ont été au centre de l'attention durant la période qui a suivi la découverte et sont particulièrement décrites. Les mesures de propriétés du boson découvert, basées sur les données de 2011 et 2012 sont présentées. / The work presented in this thesis within the ATLAS collaboration was performed in the context of the discovery of a new particle at the LHC in the search for the Standard Model Higgs boson. My contribution to the Higgs boson search is focused in the H -> ZZ* -> 4 l channel at different level, from the data taking to the physics analysis. After a theoretical introduction, the LHC and the ATLAS detector are presented as well as their performance during the 2011 and 2012 runs. A particular consideration is given to the liquid argon calorimeters and to the data quality assesment of this system. The validation of the data recorded during non-nominal high voltage conditions is presented. This study allowed to recover 2% of the data collected available for physics analyses. This has a direct impact on the H -> ZZ* -> 4 l channel were the number of signal events expected is very low. In order to optimize the acceptance of the four electrons decay channel, novel electron reconstruction algorithms were introducted in 2012. The measurement of their efficiency is presented. The efficiency gain reaching 7% for low transverse energy electrons (15<E_T<20 GeV) is one of the main improvements in the H -> ZZ* -> 4 l analysis presented using the data recorded in 2012. The reducible background estimation methods in the channels containing electrons in the final state that were of primary importance after the discovery are detailed. Finally, the measurement of the new boson properties are presented based on the 2011 and the 2012 recorded data.
13

De la conception d'un système d'observation à large échelle au déploiement et à l'exploitation de son système d'information : application à l'observation des habitats coralligènes et à la colonisation de récifs artificiels (ARMS) / From designing a large-scale observation system to deploying and operating its information system : application to the observation of coralligenous habitats and the colonization of artificial reefs (ARMS)

David, Romain 06 July 2018 (has links)
Dans le domaine marin, des protocoles d’observation développés dans de nombreux cadres produisent un grand volume de données hétérogènes, difficiles à agréger et à utiliser. Ce travail propose i) des méthodes, protocoles et recommandations pour construire et/ou soutenir la mise en place de réseaux de suivis multi-usagers,) des utilisations novatrices des données.Deux cas d’étude ont été choisis : les habitats coralligènes à l’échelle de la Méditerranée et la colonisation de récifs artificiels dans différentes mers régionales.L’expérimentation à large échelle se base sur des méthodes de mesures les plus simples possibles, décrites très explicitement dans des termes standardisés, sur des opérateurs intercalibrés et une méthode de traitement des données. Un mécanisme de couplage de données de différentes origines reposant sur la requalification des facteurs descriptifs hétérogènes et une méthode d’analyse et de fouille de données basé sur la théorie des graphes sont proposées. / In the marine domain, observation protocols developed in many settings produce a large volume of heterogeneous data that are difficult to aggregate and use. This work proposes to develop i) methods, protocols and recommendations to build and / or support the establishment of multi-user monitoring networks, ii) innovative uses of data.Two case studies were chosen: coralligenous habitats at the Mediterranean scale and the colonisation of artificial reefs in different regional seas.Large-scale experimentation is based on the simplest possible measurement methods, described very explicitly in standardised terms, on intercalibrated operators and a method of data processing. A mechanism for coupling data from different origins based on the requalification of heterogeneous descriptive factors and a method for analysis and data mining based on graph theory is also proposed.
14

Exploration des techniques de fouille de données pour un monitoring efficace des systèmes intégrés sur puce / Exploration of Data Mining techniques for an efficient Monitoring of Systems on Chip

Najem, Mohamad 08 December 2015 (has links)
La miniaturisation des technologies de semi-conducteurs a permis en quelques décennies de concevoir des systèmes toujours plus complexes, comprenant aujourd'hui plusieurs milliards de transistors sur un même substrat de silicium. Cette augmentation des densités d'intégration fait face à une contrainte physique représentée par la quantité de puissance consommée par unité de surface. À cela s'ajoutent également des problèmes de fiabilité, en raison notamment des hot-spots, qui peuvent accélérer la dégradation des transistors et réduire en conséquence la durée de vie du composant. L'efficacité énergétique des circuits devient un enjeu majeur, aussi bien dans le domaine de l'embarqué que pour des applications de calcul haute performance. La prise en compte de ces contraintes nécessite la mise en place de solutions nouvelles, s'appuyant notamment sur des techniques d'auto-adaptation. Celles-ci reposent généralement sur un processus bouclé en trois phases: (i) le monitoring qui consiste à observer l'état du système, (ii) le diagnostic qui analyse les informations relevées pour optimiser le fonctionnement du système, et (iii) l'action qui règle les paramètres en conséquence. L'efficacité d'une méthode d'adaptation dépend non seulement de l'algorithme d'optimisation mais aussi de la précision de l'information observée en ligne. Le monitoring est généralement effectué à l'aide d'un ensemble de capteurs intégrés (analogiques ou numériques). Les méthodes industrielles actuelles consistent à placer un nombre de capteurs par ressource (monitoring statique). Cependant, ces méthodes sont généralement très coûteuses et nécessitent l'insertion d'un grand nombre d'unités pour avoir une information précise sur le comportement du système à une résolution spatiale et temporelle fine. Cette thèse propose une approche innovante qui intervient en amont; un ensemble de techniques issues du domaine de la fouille de données est mis en œuvre pour l'analyse de données extraites des différents niveaux d'abstractions à partir du flot de conception, ce afin de définir une solution optimale en terme de coût et de précision. Notre méthode permet de dégager de manière systématique l'information pertinente requise pour la mise en œuvre d'un monitoring efficace et dans un contexte où la consommation et la fiabilité apparaissent comme de fortes contraintes, cette thèse s'intéresse plus particulièrement à celui de la puissance et de la température sur puce. / Over the last decades, the miniaturization of semiconductor technologies has allowed to design complex systems, including today's several billions of transistors on a single die. As a consequence, the integration density has increased and the power consumption has become significant. This is compounded by the reliability issues represented by the presence of thermal hotspots that can accelerate the degradation of the transistors, and consequently reduce the chip lifetime. In order to face these challenges, new solutions are required, based in particular on the self-adaptive systems. These systems are mainly composed of a control loop with three processes: (i) the monitoring which is responsible for observing the state of the system, (ii) the diagnosis, which analyzes the information collected and make decisions to optimize the behavior of the system, and (iii) the action that adjusts the system parameters accordingly. However, effective adaptations depend critically on the monitoring process that should provide an accurate estimation about the system state in a cost-effective way. The monitoring is typically done by using integrated sensors (analog or digital). The industrial methods consist of placing one sensor per resource (static monitoring). However, these methods are usually too expensive, and require a large number of units to produce a precise information at a fine-grained resolution. This thesis proposes an innovative and ‘upstream' approach; a set of data mining techniques is used to analyze data extracted from various levels of abstractions from the design flow, in order to define the optimum monitoring in terms of cost and accuracy. Our method systematically identifies relevant information required for the implementation of effective monitoring. This thesis mainly focuses on the monitoring of the power and the temperature of the chip.
15

Estimation de paramètres physiques à partir de leur description par une base de mesure de très grande dimension / Estimation of physical parameters through their representation by a high dimensional database

Watson, Victor 12 July 2018 (has links)
Cette thèse contribue au développement de diverses méthodes permettant la détermination des paramètres stellaires fondamentaux (température effective, gravité de surface et "métallicité" i.e., la composition chimique globale), ainsi que de la vitesse de rotation projetée (vsini), à partir de l'analyse de spectres à haute résolution. Plusieurs méthodes seront présentées, et leurs performances respectives en terme d'extraction des paramètres fondamentaux seront discutées. Nous mettrons en particulier l'accent sur une mise en œuvre originale de la méthode dite Sliced Inverse Regression (SIR, Watson et al. 2017). / This thesis contributes to the development of various methods for the determination of the stellar fundamental parameters (effective temperature, surface gravity and "metallicity" ie, the overall chemical composition), as well as the projected rotation speed (vsini), from the analysis of high resolution spectra. Several methods will be presented, and their respective performances in terms of extraction of the fundamental parameters will be discussed. In particular, we will focus on an original implementation of the Sliced Inverse Regression method (SIR, Watson et al., 2017).
16

Décompositions d'une relation

Boittiaux-Zidani, Jacqueline 02 June 1986 (has links) (PDF)
Etude de l'algèbre des relations en vue d'applications aux bases de données. Choix d'une formalisation générale; opérations de projection, recopie-projection, produit. Etude d'une décomposition simple et d'une décomposition généralisée
17

Progiciel INDA pour l'analyse des données : INtelligent Data Analysis

Belaid, Djamel 28 October 1985 (has links) (PDF)
On présente dans ce travail un logiciel interactif sur micro-ordinateur, des méthodes factorielles d'Analyse de Données. Ce logiciel est composé des modules: INDA-CM: module d'aide au choix à l'utilisateur d'une des méthodes proposées. INDA-AD: module d'acquisition des données nécessaires à l'exécution de la méthode choisie. INDA-EM: module d'exécution des méthodes proposées. INDA-GR: module de visualisation à l'écran graphique d'un nuage de points. INDA: programme de gestion des modules précités
18

Types abstraits et bases de données‎‎ : formalisation de la notion de partage et analyse statique des contraintes d'intégrité

Sales, Ana Maria 24 April 1984 (has links) (PDF)
Une base de données est au service de plusieurs catégories d'utilisateurs ayant chacune sa vision personnelle et évolutive des différentes sortes d'objets d'un univers. L'application systématique du concept d'abstraction a permis de dégager la notion d'objet pouvant être vu selon différentes facettes, appartenir à plusieurs ensembles et/ou relations, tout en demeurant unique. Ces objets sont spécifiés à l'aide de p-types, concept défini dans le cadre des types abstraits algébriques. La définition d'un p-type est modulaire et évolutive; une vue du p-type est caractérisée par des fonctions attributs et des contraintes d'intégrité. Les contraintes étudiées sont les dépendances entre valeurs d'attributs d'une occurrence d'un p-type (DIA) et les dépendances inter-objets (DIO). L'analyse statique de ces contraintes permet de garantir leur cohérence et de minimiser les vérifications dynamiques
19

Knowledge flows through patent citation data

Pillu, Hugo 18 December 2009 (has links) (PDF)
Dans cette thèse, nous analysons les différents aspects des externalités de connaissance et la façon dont les citations de brevet peuvent être utilisées comme un indicateur de ces flux. La première partie de cette thèse examine la littérature traditionnelle sur les externalités de connaissance, et cela d'un point de vue à la fois qualitatif et quantitatif (la forme quantitative est réalisée grâce à une méta-analyse). Nous insistons sur les conséquences résultant de l'utilisation de différents canaux de mesure de ces externalités, précisément nous nous attardons sur les hypothèses sous-jacentes et sur leurs implications en termes d'estimations empiriques. Ce point est important car ces canaux sont la principale source d'hétérogénéité des résultats empiriques. Dans la seconde partie, nous explorons des données de brevets et de citations de brevet encore peu étudiées (ces données sont extraites de la base de données Patstat pour les offices de brevets du G5, de l'OEB et de l'OMPI). Cette analyse est à nouveau réalisée à la fois en termes qualitatifs et quantitatifs. La troisième partie, dans un premier temps, examine de façon empirique les caractéristiques des flux de connaissance entre et au sein des inventeurs des pays du G5 et cela pour 13 secteurs industriels. Dans un deuxième temps, cette partie propose et valide la création d'un indicateur de stocks de connaissance qui prend en compte les externalités de connaissance internationales. Cet indicateur se révèle particulièrement utile puisque les indicateurs traditionnels ne sont pas toujours disponibles (comme les indicateurs basés sur les dépenses de R&D). Enfin, l'indicateur précédemment créé sera appliqué à une étude de cas consacrée à l'analyse des déterminants de l'innovation pour les technologies énergétiques efficientes.
20

Préparation non paramétrique des données pour la fouille de données multi-tables

Lahbib, Dhafer 06 December 2012 (has links) (PDF)
Dans la fouille de données multi-tables, les données sont représentées sous un format relationnel dans lequel les individus de la table cible sont potentiellement associés à plusieurs enregistrements dans des tables secondaires en relation un-à-plusieurs. Afin de prendre en compte les variables explicatives secondaires (appartenant aux tables secondaires), la plupart des approches existantes opèrent par mise à plat, obtenant ainsi une représentation attribut-valeur classique. Par conséquent, on perd la représentation initiale naturellement compacte mais également on risque d'introduire des biais statistiques. Dans cette thèse, nous nous intéressons à évaluer directement les variables secondaires vis-à-vis de la variable cible, dans un contexte de classification supervisée. Notre méthode consiste à proposer une famille de modèles non paramétriques pour l'estimation de la densité de probabilité conditionnelle des variables secondaires. Cette estimation permet de prendre en compte les variables secondaires dans un classifieur de type Bayésien Naïf. L'approche repose sur un prétraitement supervisé des variables secondaires, par discrétisation dans le cas numérique et par groupement de valeurs dans le cas catégoriel. Dans un premier temps, ce prétraitement est effectué de façon univariée, c'est-à-dire, en considérant une seule variable secondaire à la fois. Dans un second temps, nous proposons une approche de partitionnement multivarié basé sur des itemsets de variables secondaires, ce qui permet de prendre en compte les éventuelles corrélations qui peuvent exister entre variables secondaires. Des modèles en grilles de données sont utilisés pour obtenir des critères Bayésiens permettant d'évaluer les prétraitements considérés. Des algorithmes combinatoires sont proposés pour optimiser efficacement ces critères et obtenir les meilleurs modèles.Nous avons évalué notre approche sur des bases de données multi-tables synthétiques et réelles. Les résultats montrent que les critères d'évaluation ainsi que les algorithmes d'optimisation permettent de découvrir des variables secondaires pertinentes. De plus, le classifieur Bayésien Naïf exploitant les prétraitements effectués permet d'obtenir des taux de prédiction importants.

Page generated in 0.0244 seconds