• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 20
  • 9
  • 3
  • 2
  • Tagged with
  • 83
  • 83
  • 47
  • 25
  • 18
  • 15
  • 15
  • 14
  • 12
  • 12
  • 12
  • 12
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modeling and Diagnosis of Excimer Laser Ablation

Setia, Ronald 23 November 2005 (has links)
Recent advances in the miniaturization, functionality, and integration of integrated circuits and packages, such as the system-on-package (SOP) methodology, require increasing use of microvias that generates vertical signal paths in a high-density multilayer substrate. A scanning projection excimer laser system has been utilized to fabricate the microvias. In this thesis, a novel technique implementing statistical experimental design and neural networks (NNs) is used to characterize and model the excimer laser ablation process for microvia formation. Vias with diameters from 10 50 micrometer have been ablated in DuPont Kapton(r) E polyimide using an Anvik HexScan(tm) 2150 SXE pulsed excimer laser operating at 308 nm. Accurate NN models, developed from experimental data, are obtained for microvia responses, including ablated thickness, via diameter, wall angle, and resistance. Subsequent to modeling, NNs and genetic algorithms (GAs) are utilized to generate optimal process recipes for the laser tool. Such recipes can be used to produce desired microvia responses, including open vias, specific diameter, steep wall angle, and low resistance. With continuing advancement in the use of excimer laser systems in microsystems packaging has come an increasing need to offset capital equipment investment and lower equipment downtime. In this thesis, an automated in-line failure diagnosis system using NNs and Dempster-Shafer (D-S) theory is implemented. For the sake of comparison, an adaptive neuro-fuzzy approach is applied to achieve the same objective. Both the D-S theory and neuro-fuzzy logic are used to develop an automated inference system to specifically identify failures. Successful results in failure detection and diagnosis are obtained from the two approaches. The result of this investigation will benefit both engineering and management. Engineers will benefit from high yield, reliable production, and low equipment down-time. Business people, on the other hand, will benefit from cost-savings resulting from more production-worthy (i.e., lower maintenance) laser ablation equipment.
72

Framework for ambient assistive living : handling dynamism and uncertainty in real time semantic services provisioning

Aloulou, Hamdi 25 June 2014 (has links) (PDF)
The heterogeneity of the environments as well as the diversity of patients' needs and profiles are major constraints that challenge the spread of ambient assistive living (AAL) systems. AAL environments are usually evolving by the introduction or the disappearance of sensors, devices and assistive services to respond to the evolution of patients' conditions and human needs. Therefore, a generic framework that is able to adapt to such dynamic environments and to integrate new sensors, devices and assistive services at runtime is required. Implementing such a dynamic aspect may produce an uncertainty derived from technical problems related to sensors reliability or network problems. Therefore, a notion of uncertain should be introduced in context representation and decision making in order to deal with this problem. During this thesis, I have developed a dynamic and extendible framework able to adapt to different environments and patients' needs. This was achieved based on my proposed approach of semantic Plug&Play mechanism. In order to handle the problem of uncertain information related to technical problems, I have proposed an approach for uncertainty measurement based on intrinsic characteristics of the sensors and their functional behaviors, then I have provided a model of semantic representation and reasoning under uncertainty coupled with the Dempster-Shafer Theory of evidence (DST) for decision making
73

Task-Driven Integrity Assessment and Control for Vehicular Hybrid Localization Systems

Drawil, Nabil 17 January 2013 (has links)
Throughout the last decade, vehicle localization has been attracting significant attention in a wide range of applications, including Navigation Systems, Road Tolling, Smart Parking, and Collision Avoidance. To deliver on their requirements, these applications need specific localization accuracy. However, current localization techniques lack the required accuracy, especially for mission critical applications. Although various approaches for improving localization accuracy have been reported in the literature, there is still a need for more efficient and more effective measures that can ascribe some level of accuracy to the localization process. These measures will enable localization systems to manage the localization process and resources so as to achieve the highest accuracy possible, and to mitigate the impact of inadequate accuracy on the target application. In this thesis, a framework for fusing different localization techniques is introduced in order to estimate the location of a vehicle along with location integrity assessment that captures the impact of the measurement conditions on the localization quality. Knowledge about estimate integrity allows the system to plan the use of its localization resources so as to match the target accuracy of the application. The framework introduced provides the tools that would allow for modeling the impact of the operation conditions on estimate accuracy and integrity, as such it enables more robust system performance in three steps. First, localization system parameters are utilized to contrive a feature space that constitutes probable accuracy classes. Due to the strong overlap among accuracy classes in the feature space, a hierarchical classification strategy is developed to address the class ambiguity problem via the class unfolding approach (HCCU). HCCU strategy is proven to be superior with respect to other hierarchical configuration. Furthermore, a Context Based Accuracy Classification (CBAC) algorithm is introduced to enhance the performance of the classification process. In this algorithm, knowledge about the surrounding environment is utilized to optimize classification performance as a function of the observation conditions. Second, a task-driven integrity (TDI) model is developed to enable the applications modules to be aware of the trust level of the localization output. Typically, this trust level functions in the measurement conditions; therefore, the TDI model monitors specific parameter(s) in the localization technique and, accordingly, infers the impact of the change in the environmental conditions on the quality of the localization process. A generalized TDI solution is also introduced to handle the cases where sufficient information about the sensing parameters is unavailable. Finally, the produce of the employed localization techniques (i.e., location estimates, accuracy, and integrity level assessment) needs to be fused. Nevertheless, these techniques are hybrid and their pieces of information are conflicting in many situations. Therefore, a novel evidence structure model called Spatial Evidence Structure Model (SESM) is developed and used in constructing a frame of discernment comprising discretized spatial data. SESM-based fusion paradigms are capable of performing a fusion process using the information provided by the techniques employed. Both the location estimate accuracy and aggregated integrity resultant from the fusion process demonstrate superiority over the employing localization techniques. Furthermore, a context aware task-driven resource allocation mechanism is developed to manage the fusion process. The main objective of this mechanism is to optimize the usage of system resources and achieve a task-driven performance. Extensive experimental work is conducted on real-life and simulated data to validate models developed in this thesis. It is evident from the experimental results that task-driven integrity assessment and control is applicable and effective on hybrid localization systems.
74

Uncertainty management in parameter identification / Gestion des incertitudes pour l'identification des paramètres matériau

Sui, Liqi 23 January 2017 (has links)
Afin d'obtenir des simulations plus prédictives et plus précises du comportement mécanique des structures, des modèles matériau de plus en plus complexes ont été développés. Aujourd'hui, la caractérisation des propriétés des matériaux est donc un objectif prioritaire. Elle exige des méthodes et des tests d'identification dédiés dans des conditions les plus proches possible des cas de service. Cette thèse vise à développer une méthodologie d'identification efficace pour trouver les paramètres des propriétés matériau, en tenant compte de toutes les informations disponibles. L'information utilisée pour l'identification est à la fois théorique, expérimentale et empirique : l'information théorique est liée aux modèles mécaniques dont l'incertitude est épistémique; l'information expérimentale provient ici de la mesure de champs cinématiques obtenues pendant l'essai ct dont l'incertitude est aléatoire; l'information empirique est liée à l'information à priori associée à une incertitude épistémique ainsi. La difficulté principale est que l'information disponible n'est pas toujours fiable et que les incertitudes correspondantes sont hétérogènes. Cette difficulté est surmontée par l'utilisation de la théorie des fonctions de croyance. En offrant un cadre général pour représenter et quantifier les incertitudes hétérogènes, la performance de l'identification est améliorée. Une stratégie basée sur la théorie des fonctions de croyance est proposée pour identifier les propriétés élastiques macro et micro des matériaux multi-structures. Dans cette stratégie, les incertitudes liées aux modèles et aux mesures sont analysées et quantifiées. Cette stratégie est ensuite étendue pour prendre en compte l'information à priori et quantifier l'incertitude associée. / In order to obtain more predictive and accurate simulations of mechanical behaviour in the practical environment, more and more complex material models have been developed. Nowadays, the characterization of material properties remains a top-priority objective. It requires dedicated identification methods and tests in conditions as close as possible to the real ones. This thesis aims at developing an effective identification methodology to find the material property parameters, taking advantages of all available information. The information used for the identification is theoretical, experimental, and empirical: the theoretical information is linked to the mechanical models whose uncertainty is epistemic; the experimental information consists in the full-field measurement whose uncertainty is aleatory; the empirical information is related to the prior information with epistemic uncertainty as well. The main difficulty is that the available information is not always reliable and its corresponding uncertainty is heterogeneous. This difficulty is overcome by the introduction of the theory of belief functions. By offering a general framework to represent and quantify the heterogeneous uncertainties, the performance of the identification is improved. The strategy based on the belief function is proposed to identify macro and micro elastic properties of multi-structure materials. In this strategy, model and measurement uncertainties arc analysed and quantified. This strategy is subsequently developed to take prior information into consideration and quantify its corresponding uncertainty.
75

Development of Adaptive Computational Algorithms for Manned and Unmanned Flight Safety

Elkin, Colin P. January 2018 (has links)
No description available.
76

Spatial characterization of Western Interior Seaway paleoceanography using foraminifera, fuzzy sets and Dempster-Shafer theory

Lockshin, Sam 15 July 2016 (has links)
No description available.
77

Étude des algorithmes d'approximation de fonctions de croyance généralisées

Djiknavorian, Pascal 20 April 2018 (has links)
La recherche présentée ici consiste à résoudre le problème de difficulté calculatoire de la fusion d’informations dans le cadre de la théorie de l’évidence de Dempster-Shafer, ainsi que celui de la théorie de Dezert-Smarandache. On présente des études sur l’utilisation d’une variété d’algorithmes d’approximation connus ainsi que sur un nouvel algorithme d’approximation. On présente aussi une étude sur les métriques connues de distance entre corps d’évidence ainsi que deux nouvelles métriques. Enfin, on montre une étude de la possibilité d’employer une méthode d’optimisation afin de sélectionner automatiquement les paramètres d’approximation à l’aide de critères de performance. Mots-clés : Dezert, Smarandache, Dempster, Shafer, Fusion, Fonctions de croyance. / This research is about the solving of the computational difficulty of data fusion in the evidence theory of Dempster-Shafer theory and Dezert-Smarandache theory. We study the use of a variety of known approximation algorithms as well as a new approximation algorithm that we propose. We also study known metrics between bodies of evidence as well as two new metrics that we develop. Finally, we study the possibility of using an optimization method to automatically select the parameters of approximation with performance criteria. Keywords: Dezert, Smarandache, Dempster, Shafer, Fusion, Belief functions.
78

Erfassung, Analyse und Modellierung des Wurzelwachstums von Weizen (Triticum aestivum L.) unter Berücksichtigung der räumlichen Heterogenität der Pedosphäre

Schulte-Eickholt, Anna 02 August 2010 (has links)
Das Wurzelwachstum von Winterweizen wurde erfasst und modelliert, um teilflächenspezifisches Boden- und Düngemanagement zu verbessern. Die Variation von Wurzellängendichten im Feld wurde über zwei Vegetationsperioden hinweg an zwei unterschiedlichen Standorten in Ostdeutschland untersucht. Zur Auswertungserleichterung der hohen Anzahl an Wurzelproben, wurde eine halbautomatische Methode zur Bildanalyse von Wurzeln entwickelt. Der Einfluss von Änderungen bezüglich Bodenwasserstatus und Bodendichte bzw. Durchdringungswiderstand auf das Wurzelwachstum wurde untersucht. Die erhobenen Felddaten dienten gleichzeitig dazu, die Bodenwasser- und Wurzelwachstumsberechnung des Modells CERES-Wheat zu validieren. Das Modell simulierte die unterschiedlichen Bodeneigenschaften sowie die Wurzellängendichten und Bodenwassergehalte nur unzureichend. Der Effekt von Änderungen der Niederschlagsmengen auf die Simulationen von Wurzellängendichten und Bodenwassergehalten wurde anhand einer Unsicherheitsanalyse getestet und war extrem gering. Des Weiteren wurde eine Methode für praktische Zwecke entwickelt, mit der die Generierung von räumlich hoch aufgelösten Bodeninformationen unter Verwendung limitierter Eingangsdaten möglich ist. Die Modellkalkulationen basieren auf der Dempster-Shafer-Theorie. Anhand von multitemporal und multimodal erfassten Bodenleitfähigkeitsdaten, die Eingangsdaten für den Modellansatz sind, wurden Bodentypen und Texturklassen bestimmt. Das Modell generiert eine digitale Bodenkarte, die flächenhafte Informationen über Bodentypen und Bodeneigenschaften enthält. Die Validation der Bodenkarte mit zusätzlich erhobenen Bodeninformationen ergab gute bis sehr gute Ergebnisse. / Winter wheat root growth was measured and modelled to improve site-specific soil and fertilizer management in commercial wheat fields. Field variations in root length densities were analysed at two contrasting sites in East-Germany during two vegetation seasons. A semi-automated root analysing method was developed to facilitate analyses of large numbers of samples. Influences of variations in soil water states, bulk densities and penetration resistances on spatial distributions of roots were quantified. Differences in soil characteristics were large between the two sites and affected root growth considerably. The same field data was used for validating the soil moisture and root growth calculations of the widely applied growth model CERES-Wheat. Simulations of root length densities, soil physical properties and soil water contents were inadequate. The effects of changes of rainfall variabilities on simulated root length densities and soil water contents were tested by uncertainty analysis but were negligible low. A methodology for generating soil information for practical management purposes at a high degree of spatial resolution using limited input information was developed. The corresponding model calculations were carried out based on the Dempster and Shafer theorem. Soil types and texture classes were determined with multimodally and multitemporally captured data of soil electrical conductivities which are required input data of the new model approach. The model generates a digital map with extensive information of spatial variations in soil properties. The validation of the generated soil map with soil data from independent measurements yielded close correlation between measured and calculated values.
79

Fonctions de croyance : décompositions canoniques et règles de combinaison.

Pichon, Frédéric 24 March 2009 (has links) (PDF)
Comparé à la théorie des possibilités, le Modèle des Croyances Transférables (MCT) - une interprétation non probabiliste de la théorie de Dempster-Shafer - dispose d'assez peu de choix en terme d'opérateurs d'agrégation pour la fusion d'informations. Dans cette thèse, ce problème de manque de flexibilité pour la combinaison des fonctions de croyance - l'outil mathématique permettant la représentation de l'information dans le MCT - est abordé. Notre première contribution est la mise à jour de familles infinies de règles de combinaison conjonctives et disjonctives, rejoignant ainsi la situation en théorie des possibilités en ce qui concerne les opérateurs de fusion conjonctive et disjonctive. Notre deuxième contribution est un ensemble de résultats rendant intéressante, d'un point de vue applicatif, une famille infinie de règles de combinaison, appelée les alpha-jonctions et introduite initialement de manière purement formelle. Tout d'abord, nous montrons que ces règles correspondent à une connaissance particulière quant à la véracité des sources d'information. Ensuite, nous donnons plusieurs nouveaux moyens simples de calculer la combinaison par une alpha-jonction.
80

Prise en compte de l'incertitude dans l'expertise des risques naturels en montagne par analyse multicritères et fusion d'information

Tacnet, Jean-Marc 26 November 2009 (has links) (PDF)
Les phénomènes naturels gravitaires rapides tels que les avalanches ou les crues torrentielles menacent les biens et les personnes en montagne mais restent mal connus. Dans un contexte de connaissance partielle des phénomènes, l'expertise contribue, par des approches pluridisciplinaires à la fois qualitatives et quantitatives, à identifier les phénomènes, analyser les risques et proposer des mesures structurelles et/ou non-structurelles pour la réduction des risques. Les jugements d'experts dépendent de la qualité des informations disponibles. En fin de compte, les scénarios de phénomènes et les décisions peuvent ainsi reposer sur des informations incertaines et contradictoires sans pouvoir vraiment identifier la part du vrai, de l'imprécis, du contradictoire ou simplement de l'inconnu dans les hypothèses ayant conduit au résultat. Ce travail analyse les relations entre l'information, ses imperfections et la décision. Il vise d'une part l'amélioration de la traçabilité, de l'explicitation et de la qualité des composants du processus d'expertise et, d'autre part, la fourniture et l'analyse des outils d'aide multicritères à la décision capables de considérer l'information imparfaite (incertaine, imprécise) provenant de sources de fiabilité variable et potentiellement conflictuelles. Dans un premier temps, l'analyse porte sur des méthodes empiriques d'aide multicritères à la décision d'évaluation des composantes du risque. Une méthodologie est proposée pour traduire des modèles existants sous forme hiérarchique puis transformer des modèles hiérarchiques quelconques dans d'autres modèles du même type tout en conservant les mêmes résultats globaux. Cette reconfiguration exhibe des vues différentes des préférences entre critères liées par exemple à l'importance et au rˆole de scénarios basés sur une aggravation de critères dans la décision. Dans un second temps, la méthodologie ER-MCDA associe la fusion d'information et l'aide multicritères à la décision. L'aide multicritères hiérarchique à la décision (AHP) permet de formuler conceptuellement le problème de décision et d'expliciter les préférences entre les critères. Les théories des ensembles flous et des possibilités sont utilisées pour transformer des critères quantitatifs et qualitatifs dans un cadre de discernement commun de décision associé à la théorie des fonctions de croyance via d'une part, la théorie de Dempster-Shafer (DST) et, d'autre part, la théorie de Dezert-Smarandache (DSmT). Finalement, l'aide multicritères à la décision peut être vue comme une alternative pour l'évaluation des composantes du risque. Elle permet non seulement d'améliorer la qualité globale de l'expertise et du processus de décision mais aussi de créer un nouvel espace d'interaction entre l'expertise et les décideurs publics. Au-delà d'un strict intérêt technique, ces méthodes sont des soutiens aussi inattendus que pertinents dans le cadre d'approches intégrées de la gestion du risque.

Page generated in 0.0377 seconds