• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Processor design-space exploration through fast simulation / Exploration de l'espace de conception de processeurs via simulation accélérée

Khan, Taj Muhammad 12 May 2011 (has links)
Nous nous focalisons sur l'échantillonnage comme une technique de simulation pour réduire le temps de simulation. L'échantillonnage est basé sur le fait que l'exécution d'un programme est composée des parties du code qui se répètent, les phases. D'où vient l'observation que l'on peut éviter la simulation entière d'un programme et simuler chaque phase juste une fois et à partir de leurs performances calculer la performance du programme entier. Deux questions importantes se lèvent: quelles parties du programme doit-on simuler? Et comment restaurer l'état du système avant chaque simulation? Pour répondre à la première question, il existe deux solutions: une qui analyse l'exécution du programme en termes de phases et choisit de simuler chaque phase une fois, l'échantillonnage représentatif, et une deuxième qui prône de choisir les échantillons aléatoirement, l'échantillonnage statistique. Pour répondre à la deuxième question de la restauration de l'état du système, des techniques ont été développées récemment qui restaurent l'état (chauffent) du système en fonction des besoins du bout du code simulé (adaptativement). Les techniques des choix des échantillons ignorent complètement les mécanismes de chauffage du système ou proposent des alternatives qui demandent beaucoup de modification du simulateur et les techniques adaptatives du chauffage ne sont pas compatibles avec la plupart des techniques d'échantillonnage. Au sein de cette thèse nous nous focalisons sur le fait de réconcilier les techniques d'échantillonnage avec celles du chauffage adaptatif pour développer un mécanisme qui soit à la fois facile à utiliser, précis dans ses résultats, et soit transparent à l'utilisateur. Nous avons prit l'échantillonnage représentatif et statistique et modifié les techniques adaptatives du chauffage pour les rendre compatibles avec ces premiers dans un seul mécanisme. Nous avons pu montrer que les techniques adaptatives du chauffage peuvent être employées dans l'échantillonnage. Nos résultats sont comparables avec l'état de l'art en terme de précision mais en débarrassant l'utilisateur des problèmes du chauffage et en lui cachant les détails de la simulation, nous rendons le processus plus facile. On a aussi constaté que l'échantillonnage statistique donne des résultats meilleurs que l'échantillonnage représentatif / Simulation is a vital tool used by architects to develop new architectures. However, because of the complexity of modern architectures and the length of recent benchmarks, detailed simulation of programs can take extremely long times. This impedes the exploration of processor design space which the architects need to do to find the optimal configuration of processor parameters. Sampling is one technique which reduces the simulation time without adversely affecting the accuracy of the results. Yet, most sampling techniques either ignore the warm-up issue or require significant development effort on the part of the user.In this thesis we tackle the problem of reconciling state-of-the-art warm-up techniques and the latest sampling mechanisms with the triple objective of keeping the user effort minimum, achieving good accuracy and being agnostic to software and hardware changes. We show that both the representative and statistical sampling techniques can be adapted to use warm-up mechanisms which can accommodate the underlying architecture's warm-up requirements on-the-fly. We present the experimental results which show an accuracy and speed comparable to latest research. Also, we leverage statistical calculations to provide an estimate of the robustness of the final results.
2

Aide à l'optimisation de maintenance à partir de réseaux bayésiens et fiabilité dans un contexte doublement censuré

Corset, Franck 22 January 2003 (has links) (PDF)
La première partie traite de l'application des réseaux bayésiens en maintenance et propose une méthodologie de construction à partir d'avis d'experts. Pour évaluer les probabilités, le réseau est décrit par un modèle log-linéaire saturé. Des indices permettant l'analyse du réseau et l'identification des variables critiques sont donnés. Les actions de maintenance sont intégrées comme nouveaux noeuds du graphe. Une intégration du retour d'expérience est proposée par une inférence bayésienne, en quantifiant la confiance attribuée aux avis d'experts. La deuxième partie traite de la fiabilité dans un contexte doublement censuré. Nous étudions les propriétés asymptotiques des estimateurs du maximum de vraisemblance pour la loi de Weibull. Une inférence bayésienne est proposée avec des lois a priori informatives et non informatives. De plus, nous modélisons par des variables cachées un facteur humain, représentant des manques d'information lors d'opérations de maintenance et résolvons ce problème par maximum de vraisemblance et par une inférence bayésienne.
3

Traffic data sampling for air pollution estimation at different urban scales / Échantillonnage des données de trafic pour l’estimation de la pollution atmosphérique aux différentes échelles urbaines

Schiper, Nicole 09 October 2017 (has links)
La circulation routière est une source majeure de pollution atmosphérique dans les zones urbaines. Les décideurs insistent pour qu’on leur propose de nouvelles solutions, y compris de nouvelles stratégies de management qui pourraient directement faire baisser les émissions de polluants. Pour évaluer les performances de ces stratégies, le calcul des émissions de pollution devrait tenir compte de la dynamique spatiale et temporelle du trafic. L’utilisation de capteurs traditionnels sur route (par exemple, capteurs inductifs ou boucles de comptage) pour collecter des données en temps réel est nécessaire mais pas suffisante en raison de leur coût de mise en oeuvre très élevé. Le fait que de telles technologies, pour des raisons pratiques, ne fournissent que des informations locales est un inconvénient. Certaines méthodes devraient ensuite être appliquées pour étendre cette information locale à une grande échelle. Ces méthodes souffrent actuellement des limites suivantes : (i) la relation entre les données manquantes et la précision de l’estimation ne peut être facilement déterminée et (ii) les calculs à grande échelle sont énormément coûteux, principalement lorsque les phénomènes de congestion sont considérés. Compte tenu d’une simulation microscopique du trafic couplée à un modèle d’émission, une approche innovante de ce problème est mise en oeuvre. Elle consiste à appliquer des techniques de sélection statistique qui permettent d’identifier les emplacements les plus pertinents pour estimer les émissions des véhicules du réseau à différentes échelles spatiales et temporelles. Ce travail explore l’utilisation de méthodes statistiques intelligentes et naïves, comme outil pour sélectionner l’information la plus pertinente sur le trafic et les émissions sur un réseau afin de déterminer les valeurs totales à plusieurs échelles. Ce travail met également en évidence quelques précautions à prendre en compte quand on calcul les émissions à large échelle à partir des données trafic et d’un modèle d’émission. L’utilisation des facteurs d’émission COPERT IV à différentes échelles spatio-temporelles induit un biais en fonction des conditions de circulation par rapport à l’échelle d’origine (cycles de conduite). Ce biais observé sur nos simulations a été quantifié en fonction des indicateurs de trafic (vitesse moyenne). Il a également été démontré qu’il avait une double origine : la convexité des fonctions d’émission et la covariance des variables de trafic. / Road traffic is a major source of air pollution in urban areas. Policy makers are pushing for different solutions including new traffic management strategies that can directly lower pollutants emissions. To assess the performances of such strategies, the calculation of pollution emission should consider spatial and temporal dynamic of the traffic. The use of traditional on-road sensors (e.g. inductive sensors) for collecting real-time data is necessary but not sufficient because of their expensive cost of implementation. It is also a disadvantage that such technologies, for practical reasons, only provide local information. Some methods should then be applied to expand this local information to large spatial extent. These methods currently suffer from the following limitations: (i) the relationship between missing data and the estimation accuracy, both cannot be easily determined and (ii) the calculations on large area is computationally expensive in particular when time evolution is considered. Given a dynamic traffic simulation coupled with an emission model, a novel approach to this problem is taken by applying selection techniques that can identify the most relevant locations to estimate the network vehicle emissions in various spatial and temporal scales. This work explores the use of different statistical methods both naïve and smart, as tools for selecting the most relevant traffic and emission information on a network to determine the total values at any scale. This work also highlights some cautions when such traffic-emission coupled method is used to quantify emissions due the traffic. Using the COPERT IV emission functions at various spatial-temporal scales induces a bias depending on traffic conditions, in comparison to the original scale (driving cycles). This bias observed in our simulations, has been quantified in function of traffic indicators (mean speed). It also has been demonstrated to have a double origin: the emission functions’ convexity and the traffic variables covariance.
4

Modèle espace-état : estimation bayésienne du NAIRU américain

Djolaud, Guy Arnold 08 1900 (has links)
No description available.
5

SMART SAMPLING FOR RISK REDUCTION IN SEMICONDUCTOR MANUFACTURING / ÉCHANTILLONNAGE DYNAMIQUE DE LOTS POUR LA RÉDUCTION DES RISQUES EN FABRICATION DE SEMI-CONDUCTEURS

Rodriguez Verjan, Gloria Luz 11 July 2014 (has links)
Dans les processus de fabrication de semi-conducteurs, différents types des contrôles existent pour maîtriser les procédés et garantir la qualité du produit final. Ces travaux de thèse s’intéressent aux contrôles de défectivité qui visent à maîtriser le risque sur les équipements de production. L'indicateur utilisé est le nombre de produits traités par un équipement depuis la date du dernier produit contrôlé. On s’intéresse à la maîtrise et la réduction du risque sur les équipements de production. Pour cela, différentes stratégies de sélection des lots existent et peuvent être classifiées selon leur capacité à intégrer la dynamique d'une unité de fabrication. Dans les stratégies de sélection dynamique, les lots sont contrôlés en temps réel et en optimisant un critère. Ces stratégies sont récentes et sont beaucoup plus efficaces que les stratégies précédentes, mais aussi plus complexe à mettre en œuvre. Dans ce cadre, nous avons proposé et validé industriellement différents algorithmes pour identifier les lots à relâcher (à ne pas contrôler) dans les files d'attente des lots en défectivité. Nous avons aussi développé et implémenté un modèle d'optimisation de la capacité pour l’atelier de défectivité, qui permet d’évaluer l’impact de paramètres critiques (e.g. plan de production, positions des opérations de contrôles dans la gamme de fabrication, valeurs des limites de risques) dans la gestion du risque global de l'unité de fabrication. / In semiconductor manufacturing, several types of controls are required to ensure the quality of final products. In this thesis, we focus on defectivity inspections, which aim at monitoring the process for defect reduction and yield improvement. We are interested in managing and reducing the risk on process tools (i.e. number of wafers at risk) during fabrication. To reduce this risk, inspection operations are performed on products. However, because inspection operations directly impact the cycle times of products, sampling strategies are used to reduce the number of inspected lots while satisfying quality objectives. Several sampling techniques exist and can be classified according to their capability to deal with factory dynamics. Dynamic sampling strategies have recently been proposed, in which lots to inspect are selected in real time while considering the current production risk. These strategies are much more efficient than previous strategies but more complex to design and implement. In this thesis, a novel approach to select the lots to inspect is proposed. Multiple algorithms have been proposed and validated to efficiently manage the defect inspection queues by skipping (i.e. releasing) lots that do no longer bring enough information. In order to support strategic and tactical decisions, an optimization model for defect inspection capacity planning is also proposed. This model calculates the required defect inspection capacity to ensure the risk limits on process tools when the production conditions change. Industrial results show significant improvements in terms of risk reduction without increasing defect inspection capacity.
6

Contribution of random sampling in the context of rotating machinery diagnostic / Apport de l'échantillonnage aléatoire dans le cadre de diagnostic de machines tournantes

Hajar, Mayssaa 26 January 2018 (has links)
Récemment, le diagnostic des machines tournantes devient un des sujets de recherche les plus importants. Plusieurs axes sont développés dans ce domaine : traitement de signal, reconnaissance des formes et autres. En plus, les systèmes industriels peuvent être surveillés à distance en temps réel grâce à la disponibilité de l’internet. Cette surveillance se trouve exigeante au niveau de l’acquisition et le stockage des données. En 2004, le Compressive Sensing est introduit dans le but d’acquérir les données a une basse fréquence afin d’économiser l’énergie dans les réseaux de capteurs sans fils. Des résultats similaires peuvent être achevés par l’Echantillonnage Aléatoire qui procure une acquisition à basse fréquence grâce à sa propriété d’anti-repliement. Comme cette technique d’échantillonnage est jusqu’à l’instant de la rédaction de cette thèse n’est pas encore disponible au marché, le travail sur ce sujet se trouve promettant afin de présenter une implémentation pratique validée. D’où, la contribution de cette thèse est de présenter les différentes propriétés de l’échantillonnage aléatoire à travers une étude théorique détaillée dans le domaine temporel et fréquentiel suivie d’une simulation et d’une application pratique sur des signaux synthétisés simples puis sur des signaux de vibration extraits des principaux composants des machines : roulements et engrenages. Les résultats obtenus au niveau de la simulation et la pratique sont satisfaisants grâce à la diminution de la fréquence d’échantillonnage et la quantité de données à sauvegarder ce qui peut être considéré comme une résolution de la problématique de la surveillance à temps réel / Nowadays, machine monitoring and supervision became one of the most important domains of research. Many axes of exploration are involved in this domain: signal processing, machine learning and several others. Besides, industrial systems can now be remotely monitored because of the internet availability. In fact, as many other systems, machines can now be connected to any network by a specified address due to the Internet of Things (IOT) concept. However, this combination is challenging in data acquisition and storage. In 2004, the compressive sensing was introduced to provide data with low rate in order to save energy consumption within wireless sensor networks. This aspect can also be achieved using random sampling (RS). This approach is found to be advantageous in acquiring data randomly with low frequency (much lower than Nyquist rate) while guaranteeing an aliasing-free spectrum. However, this method of sampling is still not available by hardware means in markets. Thus, a comprehensive review on its concept, its impact on sampled signal and its implementation in hardware is conducted. In this thesis, a study of RS and its different modes is presented with their conditions and limitations in time domain. A detailed examination of the RS’s spectral analysis is then explained. From there, the RS features are concluded. Also, recommendations regarding the choice of the adequate mode with the convenient parameters are proposed. In addition, some spectral analysis techniques are proposed for RS signals in order to provide an enhanced spectral representation. In order to validate the properties of such sampling, simulations and practical studies are shown. The research is then concluded with an application on vibration signals acquired from bearing and gear. The obtained results are satisfying, which proves that RS is quite promising and can be taken as a solution for reducing sampling frequencies and decreasing the amount of stored data. As a conclusion, the RS is an advantageous sampling process due to its anti-aliasing property. Further studies can be done in the scope of reducing its added noise that was proven to be cyclostationary of order 1 or 2 according to the chosen parameters

Page generated in 0.0632 seconds