• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 142
  • 131
  • 38
  • 16
  • 11
  • 10
  • 7
  • 4
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 443
  • 443
  • 91
  • 86
  • 81
  • 76
  • 72
  • 48
  • 44
  • 42
  • 41
  • 40
  • 35
  • 30
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Lightning induced voltages in cables of power production centers / Tensions Induites par une agression foudre dans les câbles de contrôle-mesure des centres de production d'énergie

Diaz Pulgar, Luis Gerardo 29 November 2016 (has links)
Lorsqu’un bâtiment d’un centre de production d’électricité est frappé par la foudre, il se produit une dangereuse circulation de courants dans tous les composants connectés au bâtiment: les murs, le réseau de terre, et les câbles sortant du bâtiment. L’intérêt du présent travail est d’étudier les tensions transitoires aux extrémités de ces câbles, en particulier des câbles contrôle mesure, dans la mesure où ces câbles sont connectés à des équipements électroniques susceptibles d’être endommagés par des perturbations électromagnétiques engendrées par la foudre. Une approche basée sur la résolution numérique des équations de Maxwell via une méthode FDTD est adoptée. Notamment le formalisme de Holland et Simpson est utilisé pour modéliser toutes les structures constituées d’un réseau de fils minces: l’armature métallique du bâtiment, la grille en cuivre du réseau de terre, la galerie de béton et le câble coaxial de contrôle mesure. Une validation des modèles électromagnétiques développés pour chaque composant du site industriel est présentée. Une analyse de sensibilité est conduite pour déterminer l’influence des paramètres du système. En outre, la technique des plans d’expérience est utilisée pour générer un méta-modèle qui prédit la tension maximale induite aux extrémités du câble en fonction des paramètres les plus influents. Cela représentent un outil de calcul précis et informatiquement efficace pour évaluer la performance foudre des câbles de contrôle et de mesure. / When lightning strikes a building in a Power Generation Center, dangerous currents propagates through all the components connected to the building structure: The walls, the grounding grid, and the cables leaving the building. It is the interest of this work to study the transient voltages at the terminations of these cables external to the building.Particularly, the Instrumentation and Measure (IM) cables, since they are connected to electronic equipment susceptible of damage or malfunctioning due to lightning ElectroMagnetic perturbations. A full wave approach based on the numerical solution of Maxwell’s equations through the FDTD algorithm is adopted. Notably, the formalism of Holland and Simpson is used to model all the structures composed of thin wires: the building steel structure, the grounding copper grid, the concrete cable ducts and the coaxial IM cables. A validation of the model developed for each component is presented. A sensitivity analysis is performed in order to the determine the main parameters that configure the problem. Also, the Design of Experiments (DoE) technique is used to generate a meta-model that predicts the peak induced voltages in the cable terminations, as a function of the main parameters that configure the industrial site. This represents an accurate, and computationally efficient tool to assess lightning performance of IM cables.
392

Cadres méthodologiques pour la conception innovante d'un Plan énergétique durable à l'échelle d'une organisation : application d'une planification énergétique pour une économie compétitive bas carbone au Sonnenhof / Methodological frameworks for the innovative design of a sustainable energy plan at a organization scale : energy planning for moving to a competitive low carbon economy in Sonnenhof

Bach, Sébastien 27 September 2017 (has links)
Les entreprises et plus généralement les organisations sont confrontées à des enjeux climatiques et économiques avec pour obligation de respecter un cadre légal et des orientations définis à des plus grandes échelles (régionale, nationale et internationale). Une organisation est souvent au fait du but ou de l’objectif à atteindre ; en revanche le moyen d’y parvenir peut nécessiter de l’apprentissage voire de la recherche. Le but de cette thèse est de fournir une méthodologie à l’usage des organisations pour réaliser le management stratégique des projets relatifs à leur transition énergétique. A partir de différents états de l’art sur la planification énergétique et la conception en particulier, nous avons pointé le déficit méthodologique auquel doit faire face une organisation : si les démarches et outils existent lorsqu’un problème est clairement identifié, comment justement identifier un ou des problèmes à partir uniquement d’une formulation de buts ou d’intentions ? La première partie propose une démarche de planification énergétique à l’échelle d’une organisation qui fait émerger, de manière structurée, les problèmes auxquels l’organisation sera potentiellement confrontée. Notre démarche repose sur l’utilisation des BEGES et des méthodes de management de l’énergie/GES d’une part, complétés par des démarches et outils de conception d’autre part. Ces derniers facilitent la consolidation des informations et des données nécessaires pour formuler et structurer les problèmes à résoudre. A l’issue de cette démarche certains problèmes sont formulés sous forme de contradictions et de conflits. La démarche développée est purement qualitative et adaptée au travail de groupe avec des experts. Cependant certaines données numériques traduisent des comportements de systèmes qui sont peu maitrisés par les parties prenantes du projet. La deuxième partie propose une méthode combinant la simulation et l’analyse de données pour identifier les contradictions d’objectifs et de cause qui peuvent ou semblent empêcher l’atteinte des objectifs. Ces contradictions sont formulées de sorte à pouvoir être traitées avec les méthodes de résolution de problèmes inventifs. Le principe d’identification des contradictions d’objectifs repose sur la transformation des réponses expérimentales ou de simulation des systèmes étudiés en données qualitatives binaires et sur l’identification des Paretos optimaux des données ainsi transformées. Les contradictions de causes concernent les facteurs ou paramètres de conception qui induisent les conflits d’objectifs. Nous proposons de les identifier à l’aide d’une méthode d’analyse discriminante binaire à base d’apprentissage supervisé associée à l’ANOVA. Nous montrons sur un cas d’étude, d’une part, comment intégrer cette approche dans la démarche présentée en partie 1 du mémoire, et d’autre part, comment l’utiliser pour obtenir des concepts de solutions dans un contexte multi-objectifs (diminution des consommations d’énergie, des émissions de GES, du coût etc.). / Companies and more generally organizations are confronted with climatic and economic issues, they have to respect a legal framework and orientations defined in larger scales (regional, national and international). An organization usually knows the goal or the objective to be achieved; however the way to do can require learning or even research. The goal of this thesis is to provide a methodology for the use of organizations to realize strategic management of their energy transition projects. From many different states of the art about energy planning and conception in particular, we show the methodological deficit which an organization has to face: if approaches and tools exist when a problem is clearly identified, how actually identify one or several problems from only a goal or intention formulation? The first part proposes an energy planning approach at an organizational scale to bring out in structured way problems which the organization may be confronted. Our approach is based on greenhouse gas emission assessments and energy/GHG management methods which are completed with conception approaches and some tools and methodologies. They facilitate the consolidation of required information and data to formulate and structure problems to solve. As a result of our approach some problems are formulated as contradictions and conflicts. The developed approach is purely qualitative and adapted to workgroup with experts. However some numerical data translate system behaviors which are sparsely mastered by project stakeholders. The second part proposes a combined method of simulation and data analysis to identify objective and cause contradictions which can or seem to prevent achieving the objectives. These contradictions are formulated in such a way to be handled with methods of resolution of inventive problems. The identification of objective contradictions is based on the transformation of experimental or simulation answers of the studied systems in binary qualitative data and on the identification of optimal Pareto of the transformed data. Cause contradictions concern conception factors or parameters which induce objective conflicts. We suggest identifying these contradictions with a binary discriminant analysis method based on supervised learning associated with ANOVA. On one hand, we show on a study case how integrate this initiative into the presented approaches in part 1 and on the other hand, how use it to obtain solution concepts in a multi-objective context (energy consumptions, GHG emissions or cost reduction etc.).
393

Methodology of surface defect detection using machine vision with magnetic particle inspection on tubular material / Méthodologie de détection des défauts de surface par vision artificielle avec magnetic particle inspection sur le matériel tubulaire

Mahendra, Adhiguna 08 November 2012 (has links)
[...]L’inspection des surfaces considérées est basée sur la technique d’Inspection par Particules Magnétiques (Magnetic Particle Inspection (MPI)) qui révèle les défauts de surfaces après les traitements suivants : la surface est enduite d’une solution contenant les particules, puis magnétisées et soumise à un éclairage Ultra-Violet. La technique de contrôle non destructif MPI est une méthode bien connue qui permet de révéler la présence de fissures en surface d’un matériau métallique. Cependant, une fois le défaut révélé par le procédé, ladétection automatique sans intervention de l’opérateur en toujours problématique et à ce jour l'inspection basée sur le procédé MPI des matériaux tubulaires sur les sites de production deVallourec est toujours effectuée sur le jugement d’un opérateur humain. Dans cette thèse, nous proposons une approche par vision artificielle pour détecter automatiquement les défauts à partir des images de la surface de tubes après traitement MPI. Nous avons développé étape par étape une méthodologie de vision artificielle de l'acquisition d'images à la classification.[...] La première étape est la mise au point d’un prototype d'acquisition d’images de la surface des tubes. Une série d’images a tout d’abord été stockée afin de produire une base de données. La version actuelle du logiciel permet soit d’enrichir la base de donnée soit d’effectuer le traitement direct d’une nouvelle image : segmentation et saisie de la géométrie (caractéristiques de courbure) des défauts. Mis à part les caractéristiques géométriques et d’intensité, une analyse multi résolution a été réalisée sur les images pour extraire des caractéristiques texturales. Enfin la classification est effectuée selon deux classes : défauts et de non-défauts. Celle ci est réalisée avec le classificateur des forêts aléatoires (Random Forest) dont les résultats sontcomparés avec les méthodes Support Vector Machine et les arbres de décision.La principale contribution de cette thèse est l'optimisation des paramètres utilisées dans les étapes de segmentations dont ceux des filtres de morphologie mathématique, du filtrage linéaire utilisé et de la classification avec la méthode robuste des plans d’expériences (Taguchi), très utilisée dans le secteur de la fabrication. Cette étape d’optimisation a été complétée par les algorithmes génétiques. Cette méthodologie d’optimisation des paramètres des algorithmes a permis un gain de temps et d’efficacité significatif. La seconde contribution concerne la méthode d’extraction et de sélection des caractéristiques des défauts. Au cours de cette thèse, nous avons travaillé sur deux bases de données d’images correspondant à deux types de tubes : « Tool Joints » et « Tubes Coupling ». Dans chaque cas un tiers des images est utilisé pour l’apprentissage. Nous concluons que le classifieur du type« Random Forest » combiné avec les caractéristiques géométriques et les caractéristiques detexture extraites à partir d’une décomposition en ondelettes donne le meilleur taux declassification pour les défauts sur des pièces de « Tool Joints »(95,5%) (Figure 1). Dans le cas des « coupling tubes », le meilleur taux de classification a été obtenu par les SVM avec l’analyse multirésolution (89.2%) (figure.2) mais l’approche Random Forest donne un bon compromis à 82.4%. En conclusion la principale contrainte industrielle d’obtenir un taux de détection de défaut de 100% est ici approchée mais avec un taux de l’ordre de 90%. Les taux de mauvaises détections (Faux positifs ou Faux Négatifs) peuvent être améliorés, leur origine étant dans l’aspect de l’usinage du tube dans certaines parties, « Hard Bending ».De plus, la méthodologie développée peut être appliquée à l’inspection, par MPI ou non, de différentes lignes de produits métalliques / Industrial surface inspection of tubular material based on Magnetic Particle Inspection (MPI) is a challenging task. Magnetic Particle Inspection is a well known method for Non Destructive Testing with the goal to detect the presence of crack in the tubular surface. Currently Magnetic Particle Inspection for tubular material in Vallourec production site is stillbased on the human inspector judgment. It is time consuming and tedious job. In addition, itis prone to error due to human eye fatigue. In this thesis we propose a machine vision approach in order to detect the defect in the tubular surface MPI images automatically without human supervision with the best detection rate. We focused on crack like defects since they represent the major ones. In order to fulfill the objective, a methodology of machine vision techniques is developed step by step from image acquisition to defect classification. The proposed framework was developed according to industrial constraint and standard hence accuracy, computational speed and simplicity were very important. Based on Magnetic Particle Inspection principles, an acquisition system is developed and optimized, in order to acquire tubular material images for storage or processing. The characteristics of the crack-like defects with respect to its geometric model and curvature characteristics are used as priory knowledge for mathematical morphology and linear filtering. After the segmentation and binarization of the image, vast amount of defect candidates exist. Aside from geometrical and intensity features, Multi resolution Analysis wasperformed on the images to extract textural features. Finally classification is performed with Random Forest classifier due to its robustness and speed and compared with other classifiers such as with Support Vector Machine Classifier. The parameters for mathematical morphology, linear filtering and classification are analyzed and optimized with Design Of Experiments based on Taguchi approach and Genetic Algorithm. The most significant parameters obtained may be analyzed and tuned further. Experiments are performed ontubular materials and evaluated by its accuracy and robustness by comparing ground truth and processed images. This methodology can be replicated for different surface inspection application especially related with surface crack detection
394

Mesure et modélisation des bilans d'énergie et de masse (eau) sur des plantes cultivées sous serre : impact d'une restriction hydrique / Measurement and modeling of energy and mass balances (water) on plants grown under greenhouse : impact of water restriction

Bouhoun Ali, Hacene 24 November 2016 (has links)
La réduction de la consommation de l’eau dans les serres agricoles représente un grand intérêt ne serait-ce que pour accroitre l’efficience d’utilisation de l’eau par les cultures et rendre les professionnelsdu secteur horticole plus compétitifs. La thèse vise à apporter des réponses concernant la gestion optimale de l’eau. Ceci passe par la mise en place d’un modèle capable de prédire les bilans demasse et d’énergie sur l’ensemble du continuum substrat-planteatmosphère en régimes de confort et de restriction hydrique. La plupart des modèles de transfert existants se focalisent soit surle système sol-plante, soit sur le système plante-atmosphère. Ils ont de plus été établis principalement pour les systèmes de grandes cultures, alors que les cultures en pot sous serre possèdent desspécifi cités liées au confi nement tant aérien que racinaire. L’enjeu est de bâtir une approche intégrée du continuum substrat-planteatmosphère pour modéliser le fonctionnement de plantes en pots sousserre. La thèse s’appuie sur une double approche expérimentale et numérique. Une campagne expérimentale a été lancée en 2014 puis en 2015 sous serre et une autre en chambre climatique en 2014,en utilisant l’Impatiens de Nouvelle Guinée comme plante modèle. Il s’agissait d’abord d’élaborer un modèle de la résistance stomatique, élément clef de la transpiration en s’appuyant sur le modèleméthode multiplicatif de Jarvis puis sur la méthode des plans d’expérience en confort et en restriction hydrique. Les données acquises ont permis de caler/valider ces modèles de résistance,qui ont pu êtr / In greenhouses, reducing water consumption is of high interest, not only to increase water effi ciency, but also to maintain competitiveness of the growers. The aim of this thesis is to provideanswers regarding the optimal water management. To reach this goal, predictive models water and energy transfers through the substrate-plant-atmosphere are implemented, considering wellwatered plants and plants under water restriction. Most existing models of water and energy transfers have benne established either on the soil-plants system, or on theplant-atmosphere system. Moreover, such models were mainly developed for open fi eld conditions, although plants grown in pots have specifi cities linked to the aerial and root confi nement.The challenge is therefore to develop an integrated soil-plantatmosphere model for greenhouse plants grown in pot. The thesis was based on a combined experimental and numerical approach.A field survey was conducted in 2014 and then in 2015 inside a greenhouse, and another one in a growth chamber in 2014. The New Guinea Impatiens was used as a plant model. The stomatal resistance was fi rst modeled, as a key factor impacting the transpiration, by using the multiplicative Jarvis model, andthen the design of experiments method for plants under wellwatered and water restriction conditions. The collected data was used to calibrate/validate the aforementioned stomatalresistance models; the obtained models could then be tested to evaluate transpiration with the Penman Monteith model and the direct method. Finally, these models were integrated in
395

Ein neues Verfahren zur modellbasierten Prozessoptimierung auf der Grundlage der statistischen Versuchsplanung am Beispiel eines Ottomotors mit elektromagnetischer Ventilsteuerung (EMVS)

Haase, Dirk 29 November 2004 (has links)
In recent years gasoline engines have become increasingly complex, for example through the introduction of electronic control and monitoring systems for ignition, fuel injection and exhaust aftertreatment. Parallel to this the requirements placed upon engines have also increased hence the need to develop new engine technologies. This demand for new technologies is, in part, due to the self obligation of the automobile industry to reduce the CO2 emissions about 25% by 2005, and also to the increasingly stringent future exhaust limits. Some promising solutions are currently in development, e.g. the direct injection gasoline engine and variable valve trains. All these new technologies are characterised by increasing complexity and significantly higher degrees of freedom. The associated application expenditure rises drastically with the number of free parameters and also with improved quality standards. Possible solutions to meet the future requirements of the development process are based on model-based parameter optimisation and the use of test methods, such as "Design of Experiments" (DoE). The idea behind this approach is to produce models to describe the dependence of the responses of interest (i.e. fuel consumption) on the adjusted engine parameters. With these models offline optimisation of the engine can be carry out, independently of testbench resources. The measured data for the models are produced with the help of statistically designed experiments. Thus, the testing and analysis processes are structured and the expenditure limited. In the following the DoE methodology will be employed of a gasoline engine with electromechanical valve train. / Der Ottomotor im Kraftfahrzeug hat in den letzten Jahren mit dem Einzug elektronischer Steuer- und Regelsysteme für Zündung, Einspritzung und Abgasnachbehandlung einen sehr hohen technischen Stand erreicht. Die wachsenden Ansprüche an die Motorenentwicklung im Hinblick auf Verbrauchsreduzierung bei gleichzeitiger Erfüllung der zukünftigen Abgasgrenzwerte, verschärfen den Druck zur Entwicklung weiterführender Technologien. Hierbei gibt es bereits einige vielversprechende Lösungsansätze, wie z.B. die Direkteinspritzung oder variable Ventilsteuerungen. All diese neuen Technologien zeichnen sich durch eine wachsende Komplexität durch die signifikant höhere Anzahl von Freiheitsgraden aus. Der damit verbundene Applikationsaufwand steigt drastisch durch die wachsende Anzahl freier Parameter, aber auch durch die steigenden Anforderungen an die Qualität der Applikationsergebnisse. Einen möglichen Lösungsansatz zur Realisierung der zukünftigen Anforderungen an den Entwicklungsprozess stellen die modellgestützte Parameteroptimierung sowie der Einsatz der "Statistischen Versuchsplanung" (SVP) - "Design of Experiments" (DoE) - dar. Der Grundgedanke basiert auf der Erstellung von Modellen zur Beschreibung der Abhängigkeiten variierter Verstellparameter. Mit diesen Modellen können Offline-Optimierungen unabhängig von Prüfstandsressourcen durchgeführt werden. Die für die Modellbildung benötigten Messdaten werden mit Hilfe der statistischen Versuchsplanung erzeugt. Dadurch wird der Prozess strukturiert und der Aufwand wird begrenzt. In der Arbeit wird der Einsatz der DoE-Methodik am Beispiel eines Ottomotors mit elektromechanischer Ventilsteuerung (EMVS) aufgezeigt.
396

Niche-Based Modeling of Japanese Stiltgrass (Microstegium vimineum) Using Presence-Only Information

Bush, Nathan 23 November 2015 (has links)
The Connecticut River watershed is experiencing a rapid invasion of aggressive non-native plant species, which threaten watershed function and structure. Volunteer-based monitoring programs such as the University of Massachusetts’ OutSmart Invasives Species Project, Early Detection Distribution Mapping System (EDDMapS) and the Invasive Plant Atlas of New England (IPANE) have gathered valuable invasive plant data. These programs provide a unique opportunity for researchers to model invasive plant species utilizing citizen-sourced data. This study took advantage of these large data sources to model invasive plant distribution and to determine environmental and biophysical predictors that are most influential in dispersion, and to identify a suitable presence-only model for use by conservation biologists and land managers at varying spatial scales. This research focused on the invasive plant species of high interest - Japanese stiltgrass (Mircostegium vimineum). This was identified as a threat by U.S. Fish and Wildlife Service refuge biologists and refuge managers, but for which no mutli-scale practical and systematic approach for detection, has yet been developed. Environmental and biophysical variables include factors directly affecting species physiology and locality such as annual temperatures, growing degree days, soil pH, available water supply, elevation, closeness to hydrology and roads, and NDVI. Spatial scales selected for this study include New England (regional), the Connecticut River watershed (watershed), and the U.S. Fish and Wildlife, Silvio O. Conte National Fish and Wildlife Refuge, Salmon River Division (local). At each spatial scale, three software programs were implemented: maximum entropy habitat model by means of the MaxEnt software, ecological niche factor analysis (ENFA) using Openmodeller software, and a generalized linear model (GLM) employed in the statistical software R. Results suggest that each modeling algorithm performance varies among spatial scales. The best fit modeling software designated for each scale will be useful for refuge biologists and managers in determining where to allocate resources and what areas are prone to invasion. Utilizing the regional scale results, managers will understand what areas on a broad-scale are at risk of M. vimineum invasion under current climatic variables. The watershed-scale results will be practical for protecting areas designated as most critical for ensuring the persistence of rare and endangered species and their habitats. Furthermore, the local-scale, or fine-scale, analysis will be directly useful for on-the-ground conservation efforts. Managers and biologists can use results to direct resources to areas where M. vimineum is most likely to occur to effectively improve early detection rapid response (EDRR).
397

Vliv smáčecích charakteristik na spolehlivost pájeného spoje / Solder Joint Reliability and Wetting Characteristics Influence

Labaj, Radek January 2010 (has links)
This thesis deals with the methodology of testing the wetting characteristics for different material and process effects in the double-plated base material. Testing is performed by wetting balance method. There is designed procedure to calculate the angles on each side of the non-homogeneous material. The Design of Experiments method is used to interpret the results, by using this method are also interpreted electrical and mechanical properties of solder joints. The correlation with wetting characteristics is discussed.
398

Optimalizace procesu tlakového lití VN přístrojových transformátorů / Optimalization of the die cast process of high-voltage transformers.

Borunský, Tomáš January 2009 (has links)
This thesis deals with choises of using mathematical statistics when optimising the compression casting process of high-voltage device transformer. There is a theoretical consideration to be found in the introduction which concerns the compression casting itself and all necessary information connected with it. Then there is a key numerical analysis part following. In the first instance there are variability problems of individual casting device discussed and then a regression analysis made to demonstrate and prove a link between the partial discharge and the key parameters of casting process. Finally an “optimal” casting sequence is suggested and alternative attitude problems with the assistance of Design of Experiments (DOE) are discussed.
399

Statistical Designs for Network A/B Testing

Pokhilko, Victoria V 01 January 2019 (has links)
A/B testing refers to the statistical procedure of experimental design and analysis to compare two treatments, A and B, applied to different testing subjects. It is widely used by technology companies such as Facebook, LinkedIn, and Netflix, to compare different algorithms, web-designs, and other online products and services. The subjects participating in these online A/B testing experiments are users who are connected in different scales of social networks. Two connected subjects are similar in terms of their social behaviors, education and financial background, and other demographic aspects. Hence, it is only natural to assume that their reactions to online products and services are related to their network adjacency. In this research, we propose to use the conditional autoregressive model (CAR) to present the network structure and include the network effects in the estimation and inference of the treatment effect. The following statistical designs are presented: D-optimal design for network A/B testing, a re-randomization experimental design approach for network A/B testing and covariate-assisted Bayesian sequential design for network A/B testing. The effectiveness of the proposed methods are shown through numerical results with synthetic networks and real social networks.
400

Conception d’environnement instrumenté pour la veille à la personne / Design of instrumented environment for human monitoring

Massein, Aurélien 22 November 2018 (has links)
L'instrumentation permet à notre environnement, maison ou bâtiment, de devenir intelligent en s'adaptant à nos modes de vie et en nous assistant au quotidien. Un environnement intelligent est sensible et réactif à nos activités, afin d'améliorer notre qualité de vie. La fiabilité d'identification des activités est ainsi essentielle pour cette intelligence ambiante : elle est directement dépendante du positionnement des capteurs au sein de l'environnement. Cette question essentielle du placement des capteurs est très peu considérée par les systèmes ambiants commercialisés ou même dans la littérature. Pourtant, elle est la source principale de leurs dysfonctionnements où une mauvaise reconnaissance des activités entraîne une mauvaise assistance fournie. Le placement de capteurs consiste à choisir et à positionner des capteurs pertinents pour une identification fiable des activités. Dans cette thèse, nous développons et détaillons une méthodologie de placement de capteurs axée sur l'identifiabilité des activités d'intérêt. Nous la qualifions en nous intéressant à deux évaluations différentes : la couverture des intérêts et l'incertitude de mesures. Dans un premier temps, nous proposons un modèle de l'activité où nous décomposons l'activité en actions caractérisées afin d'être indépendant de toute technologie ambiante (axée connaissances ou données). Nous représentons actions et capteurs par un modèle ensembliste unifiant, permettant de fusionner des informations homogènes de capteurs hétérogènes. Nous en évaluons l'identifiabilité des actions d'intérêt au regard des capteurs placés, par des notions de précision (performance d'identification) et de sensibilité (couverture des actions). Notre algorithme de placement des capteurs utilise la Pareto-optimalité pour proposer une large palette de placements-solutions pertinents et variés, pour ces multiples identifiabilités à maximiser. Nous illustrons notre méthodologie et notre évaluation en utilisant des capteurs de présence, et en choisissant optimalement la caractéristique à couvrir pour chaque action. Dans un deuxième temps, nous nous intéressons à la planification optimale des expériences où l'analyse de la matrice d'information permet de quantifier l'influence des sources d'incertitudes sur l'identification d'une caractéristique d'action. Nous représentons les capteurs continus et l'action caractérisée par un modèle analytique, et montrons que certaines incertitudes doivent être prises en compte et intégrées dans une nouvelle matrice d'information. Nous y appliquons les indices d'observabilité directement pour évaluer l'identifiabilité d'une action caractérisée (incertitude d'identification). Nous illustrons cette évaluation alternative en utilisant des capteurs d'angle, et nous la comparons à la matrice d'information classique. Nous discutons des deux évaluations abordées et de leur complémentarité pour la conception d’environnement instrumenté pour la veille à la personne. / Instrumentation enables our environment, house or building, to get smart through self-adjustment to our lifestyles and through assistance of our daily-life. A smart environment is sensitive and responsive to our activities, in order to improve our quality of life. Reliability of activities' identification is absolutely necessary to such ambient intelligence: it depends directly on sensors' positioning within the environment. This fundamental issue of sensor placement is hardly considered by marketed ambient systems or even into the literature. Yet, it is the main source of ambient systems' malfunctions and failures, because a bad activity recognition leads to a bad delivered assistance. Sensor placement is about choosing and positioning relevant sensors for a reliable identification of activities. In this thesis, we develop and detail a sensor placement methodology driven by identifiability of activities of interest. We quantify it by looking at two different evaluations: coverage of interests and uncertainty of measures. First, we present an activity model that decomposes each activity into characterised actions to be technology-free (either knowledge or data driven one). We depict actions and sensors by a set theoretic model, enabling to fuse homogeneous informations of heterogeneous sensors. We then evaluate each action of interest's identifiability regarding placed sensors, through notions of precision (identification's performance) and sensitivity (action's coverage). Our sensor placement algorithm use Pareto-optimality to offer a wide range of relevant solution-placements, for these multiple identifiabilities to maximise. We showcase our methodology and our evaluation through solving a problem featuring motion and binary sensors, by optimally choosing for each action the characteristic to cover. Finally, we look into optimal design of experiments by analysing the information matrix to quantify how sources of uncertainties influence the identification of an action's characteristic. We depict continuous sensors and the characterised action by an analytical model, and we show that some uncertainties should be considered and included in a new information matrix. We then apply directly observability indexes to evaluate identifiability of a characterised action (uncertainty of identification), and compare our new information matrix to the classical one. We showcase our alternate evaluation through solving a sensor placement problem featuring angular sensors. We discuss both covered evaluations and their complementarity towards the design of instrumented environment for human monitoring.

Page generated in 0.1007 seconds