• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 339
  • 197
  • 43
  • 1
  • Tagged with
  • 568
  • 308
  • 119
  • 70
  • 63
  • 62
  • 58
  • 57
  • 56
  • 54
  • 50
  • 48
  • 45
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Classification de données massives de télédétection / Machine learning for classification of big remote sensing data

Audebert, Nicolas 17 October 2018 (has links)
La multiplication des sources de données et la mise à disposition de systèmes d'imagerie à haute résolution a fait rentrer l'observation de la Terre dans le monde du big data. Cela a permis l'émergence de nouvelles applications (étude de la répartition des sols par data mining, etc.) et a rendu possible l'application d'outils statistiques venant des domaines de l'apprentissage automatique et de la vision par ordinateur. Cette thèse cherche à concevoir et implémenter un modèle de classification bénéficiant de l'existence de grande bases de données haute résolution (si possible, annotées) et capable de générer des cartes sémantiques selon diverses thématiques. Les applications visés incluent la cartographie de zones urbaines ainsi que l'étude de la géologie et de la végétation à des fins industrielles.L'objectif de la thèse est de développer de nouveaux outils statistiques pour la classification d'images aériennes et satellitaires. Des approches d'apprentissage supervisé telles que les réseaux de neurones profonds, surpassant l'état-de-l'art en combinant des caractéristiques locales des images et bénéficiant d'une grande quantité de données annotées, seront particulièrement étudiées. Les principales problématiques sont les suivantes : (a) la prédiction structurée (comment introduire la structure spatial et spectral dans l'apprentissage ?), (b) la fusion de données hétérogènes (comment fusionner des données SAR, hyperspectrales et Lidar ?), (c) la cohérence physique du modèle (comment inclure des connaissances physiques a priori dans le modèle ?) et (d) le passage à l'échelle (comment rendre les solutions proposées capables de traiter une quantité massive de données ?). / Thanks to high resolution imaging systems and multiplication of data sources, earth observation(EO) with satellite or aerial images has entered the age of big data. This allows the development of new applications (EO data mining, large-scale land-use classification, etc.) and the use of tools from information retrieval, statistical learning and computer vision that were not possible before due to the lack of data. This project is about designing an efficient classification scheme that can benefit from very high resolution and large datasets (if possible labelled) for creating thematic maps. Targeted applications include urban land use, geology and vegetation for industrial purposes.The PhD thesis objective will be to develop new statistical tools for classification of aerial andsatellite image. Beyond state-of-art approaches that combine a local spatial characterization of the image content and supervised learning, machine learning approaches which take benefit from large labeled datasets for training classifiers such that Deep Neural Networks will be particularly investigated. The main issues are (a) structured prediction (how to incorporate knowledge about the underlying spatial and contextual structure), (b) data fusion from various sensors (how to merge heterogeneous data such as SAR, hyperspectral and Lidar into the learning process ?), (c) physical plausibility of the analysis (how to include prior physical knowledge in the classifier ?) and (d) scalability (how to make the proposed solutions tractable in presence of Big RemoteSensing Data ?)
142

Pronostic après un infarctus cérébral : rôle de la localisation de la lésion / Outcome prediction after a cerebral infarct : role of stroke location

Munsch, Fanny 14 December 2015 (has links)
Dans ce travail de thèse, nous avons montré l'importance de l'imagerie, en sus de la clinique, et plus particulièrement de la localisation de la lésion ischémique, pour la prédiction de l'évolution d'un patient après un infarctus cérébral. Pour cela, nous avons utilisé une cohorte de 428 patients victimes d'un infarctus cérébral sus-tentoriel datant de 24 à 72 heures. Ces patients ont eu une évaluation clinique et un examen en imagerie par résonance magnétique à l'inclusion et ont été suivis à trois mois et à un an après l'ictus. À partir de cette cohorte, nous avons montré que la localisation précise de l'infarctus cérébral, définie à l'échelle du voxel avec la méthode Voxel-Based Lesion-Symptom Mapping, améliorait significativement le pronostic cognitif global évalué à trois mois après l'infarctus cérébral, et ce indépendamment des variables consensuelles comme la sévérité initiale, l'âge et le volume de la lésion. Par ailleurs, l'analyse de l'intégrité du faisceau cortico-spinal (CST) en tenseur de diffusion à la phase aigüe de l'infarctus cérébral a permis d'identifier un marqueur précoce de la dégénérescence wallérienne : le ratio du nombre de fibres initial (iFNR), défini comme le nombre de fibres du CST du côté ipsilatéral à l'infarctus cérébral normalisé par le nombre de fibres du CST du côté controlatéral. L'iFNR améliorait significativement la prédiction de la récupération motrice chez les patients ayant un déficit moteur initial sévère, alors que le score clinique initial seul ne le permettait pas. / In this thesis works, we address the question of early outcome prediction after a cerebral infarct. In addition to clinical assessment, early MR Imaging of stroke location in eloquent regions and neuron fibers quantification improved the outcome prediction of cognitive functions and motor functions respectively. In that purpose, we used a large population of 428 patients with a supratentorial ischemic stroke between 24 and 72 hours after stroke onset. These patients were assessed with a magnetic resonance imaging and a clinical evaluation at baseline and were followed at three months and one year post-stroke. Using this stroke population, we demonstrated that an accurate stroke location, defined on a voxel basis with the Voxel-Based Lesion-Symptom Mapping method, significantly improved the prediction of global cognitive outcome assessed at three months post-stroke and was independent from classic predictors such as initial stroke severity, age and stroke volume. Furthermore, the analysis of corticospinal tract (CST) integrity using diffusion tensor imaging at the acute phase allowed to identify an early surrogate marker of wallerian degeneration : the initial fiber number ratio (iFNR) defined as the number of CST fibers from the ipsilateral side of stroke normalized by the number of CST fibers from the contralateral side. The iFNR significantly improved the prediction of motor recovery in stroke patients with an initial severe motor impairment, whereas initial clinical score alone could not.
143

Une méthode fondée sur les modèles pour gérer les propriétés temporelles des systèmes à composants logiciels / Design and implementation of a model driven design methodology for trusted realtime component

Nguyen, Viet Hoa 15 October 2013 (has links)
Cette thèse propose une approche pour intégrer l'utilisation des propriétés temporisées stochastiques dans un processus continu de design fondé sur des modèles à l'exécution. La spécification temporelle de services est un aspect important des architectures à base de composants, par exemple dans des réseaux distribués volatiles de nœuds informatiques. L'approche models@runtime facilite la gestion de ces architectures en maintenant des modèles abstraits des architectures synchronisés avec la structure physique de la plate-forme d'exécution distribuée. Pour les systèmes auto-adaptatifs, la prédiction de délais et de débit d'un assemblage de composants est primordial pour prendre la décision d'adaptation et accepter les évolutions qui sont conformes aux spécifications temporelles. Dans ce but, nous définissons une extension du métamodèle fondée sur les réseaux de Petri stochastiques comme un modèle temporisé interne pour la prédiction. Nous concevons une bibliothèque de patrons pour faciliter la spécification et la prédiction des propriétés temporisées classiques de modèles à l'exécution et rendre la synchronisation des comportements et des changements structurels plus facile. D'autre part, nous appliquons l'approche de la modélisation par aspects pour tisser les modèles temporisés internes dans les modèles temporisés de comportement du composant et du système. Notre moteur de prédiction est suffisamment rapide pour effectuer la prédiction à l'exécution dans un cadre réaliste et valider des modèles à l'exécution. / This thesis proposes an approach to integrate the use of time-related stochastic properties in a continuous design process based on models at runtime. Time-related specification of services are an important aspect of component-based architectures, for instance in distributed, volatile networks of computer nodes. The models at runtime approach eases the management of such architectures by maintaining abstract models of architectures synchronized with the physical, distributed execution platform. For self-adapting systems, prediction of delays and throughput of a component assembly is of utmost importance to take adaptation decision and accept evolutions that conform to the specifications. To this aim we define a metamodel extension based on stochastic Petri nets as an internal time model for prediction. We design a library of patterns to ease the specification and prediction of common time properties of models at runtime and make the synchronization of behaviors and structural changes easier. Furthermore, we apply the approach of Aspect-Oriented Modeling to weave the internal time models into timed behavior models of the component and the system. Our prediction engine is fast enough to perform prediction at runtime in a realistic setting and validate models at runtime.
144

Classification, feature extraction and prediction of side effects in prostate cancer radiotherapy / Classification, extraction de données et prédiction de la toxicité rectale en radiothérapie du cancer de la prostate

Fargeas, Aureline 29 June 2016 (has links)
Le cancer de la prostate est l'un des cancers les plus fréquents chez l'homme. L'un des traitements standard est la radiothérapie externe, qui consiste à délivrer un rayonnement d'ionisation à une cible clinique, en l'occurrence la prostate et les vésicules séminales. Les objectifs de la radiothérapie externe sont la délivrance d'une dose d'irradiation maximale à la tumeur tout en épargnant les organes voisins (principalement le rectum et la vessie) pour éviter des complications suite au traitement. Comprendre les relations dose/toxicité est une question centrale pour améliorer la fiabilité du traitement à l'étape de planification inverse. Des modèles prédictifs de toxicité pour le calcul des probabilités de complications des tissus sains (normal tissue complication probability, NTCP) ont été développés afin de prédire les événements de toxicité en utilisant des données dosimétriques. Les principales informations considérées sont les histogrammes dose-volume (HDV), qui fournissent une représentation globale de la distribution de dose en fonction de la dose délivrée par rapport au pourcentage du volume d'organe. Cependant, les modèles actuels présentent certaines limitations car ils ne sont pas totalement optimisés; la plupart d'entre eux ne prennent pas en compte les informations non-dosimétrique (les caractéristiques spécifiques aux patients, à la tumeur et au traitement). De plus, ils ne fournissent aucune compréhension des relations locales entre la dose et l'effet (dose-espace/effet relations) car ils n'exploitent pas l'information riche des distributions de planification de dose 3D. Dans un contexte de prédiction de l'apparition de saignement rectaux suite au traitement du cancer de la prostate par radiothérapie externe, les objectifs de cette thèse sont : i) d'extraire des informations pertinentes à partir de l'HDV et des variables non-dosimétriques, afin d'améliorer les modèles NTCP existants et ii) d'analyser les corrélations spatiales entre la dose locale et les effets secondaires permettant une caractérisation de la distribution de dose 3D à l'échelle de l'organe. Ainsi, les stratégies visant à exploiter les informations provenant de la planification (distributions de dose 3D et HDV) ont été proposées. Tout d'abord, en utilisant l'analyse en composantes indépendantes, un nouveau modèle prédictif de l'apparition de saignements rectaux, combinant d'une manière originale l'information dosimétrique et non-dosimétrique, a été proposé. Deuxièmement, nous avons mis au point de nouvelles approches visant à prendre conjointement profit des distributions de dose de planification 3D permettant de déceler la corrélation subtile entre la dose locale et les effets secondaires pour classer et/ou prédire les patients à risque de souffrir d'un saignement rectal, et d'identifier les régions qui peuvent être à l'origine de cet événement indésirable. Plus précisément, nous avons proposé trois méthodes stochastiques basées sur analyse en composantes principales, l'analyse en composantes indépendantes et la factorisation discriminante en matrices non-négatives, et une méthode déterministe basée sur la décomposition polyadique canonique de tableaux d'ordre 4 contenant la dose planifiée. Les résultats obtenus montrent que nos nouvelles approches présentent de meilleures performances générales que les méthodes prédictives de la littérature. / Prostate cancer is among the most common types of cancer worldwide. One of the standard treatments is external radiotherapy, which involves delivering ionizing radiation to a clinical target, in this instance the prostate and seminal vesicles. The goal of radiotherapy is to achieve a maximal local control while sparing neighboring organs (mainly the rectum and the bladder) to avoid normal tissue complications. Understanding the dose/toxicity relationships is a central question for improving treatment reliability at the inverse planning step. Normal tissue complication probability (NTCP) toxicity prediction models have been developed in order to predict toxicity events using dosimetric data. The main considered information are dose-volume histograms (DVH), which provide an overall representation of dose distribution based on the dose delivered per percentage of organ volume. Nevertheless, current dose-based models display limitations as they are not fully optimized; most of them do not include additional non-dosimetric information (patient, tumor and treatment characteristics). Furthermore, they do not provide any understanding of local relationships between dose and effect (dose-space/effect relationship) as they do not exploit the rich information from the 3D planning dose distributions. In the context of rectal bleeding prediction after prostate cancer external beam radiotherapy, the objectives of this thesis are: i) to extract relevant information from DVH and non-dosimetric variables, in order to improve existing NTCP models and ii) to analyze the spatial correlations between local dose and side effects allowing a characterization of 3D dose distribution at a sub-organ level. Thus, strategies aimed at exploiting the information from the radiotherapy planning (DVH and 3D planned dose distributions) were proposed. Firstly, based on independent component analysis, a new model for rectal bleeding prediction by combining dosimetric and non-dosimetric information in an original manner was proposed. Secondly, we have developed new approaches aimed at jointly taking advantage of the 3D planning dose distributions that may unravel the subtle correlation between local dose and side effects to classify and/or predict patients at risk of suffering from rectal bleeding, and identify regions which may be at the origin of this adverse event. More precisely, we proposed three stochastic methods based on principal component analysis, independent component analysis and discriminant nonnegative matrix factorization, and one deterministic method based on canonical polyadic decomposition of fourth order array containing planned dose. The obtained results show that our new approaches exhibit in general better performances than state-of-the-art predictive methods.
145

Origine et prédiction de la variabilité de la durabilité naturelle chez Dicorynia guianensis Amsh / Origin and prediction of the variability of Dicorynia guianensis Amsh.natural durability

Flora, Claudiane 15 June 2018 (has links)
L'Angélique (Dicorynia guianensis Amsh.) est une espèce forestière de Guyane très exploitée pour son bois mais ce dernier est connu pour présenter une durabilité naturelle variable, dont les conséquences peuvent être très lourdes pour l'utilisateur. Dans le cadre de cette thèse nous avons souhaité comprendre l'origine de la durabilité naturelle du duramen se l'Angélique afin d'appréhender sa variabilité pour mieux la prédire. Dans un premier temps, nous avons mis en oeuvre une stratégie d'échantillonnage basée sur l'étude architecturale de l'arbre pour appréhender la variabilité de la durabilité naturelle, ce qui a été confirmé par les essais biologiques réalisés. Nous avons par la suite évalué l'influence de potentiels facteurs mesurés dans le bois sur la durabilité naturelle. A ce titre, le rôle des extractibles a été évalué par des approches métaboliques ciblées et non ciblées, couplées à une stratégie de déréplication. La lignine et l'infradensité ont également été retenues comme facteurs de durabilité naturelle de l'Angélique. Enfin, ses caractéristiques propres à l'ontogénie se l'arbre ont été pris en compte et les résultats mettent en lumière l'importance du stade de développement de l'arbre ainsi que son environnement. Enfin, nous avons proposé ses outils spectroscopiques (moyen et proche infrarouge) simples, rapides et fiables pour prédire la durabilité naturelle. Ces résultats sont encourageants et suggèrent leur utilisation potentielle pour la filière bois pour prédire la durabilité naturelle du bois de l'Angélique. / Angélique (Dicorynia guianensis Amsh.) is a tree species in French Guiana that is heavily exploited for its wood, but it is known to have variable natural durability, which can be of severe consequences for the user. In this thesis we wanted to understand the origin of the natural durability of Angelique heartwood in order to understand its variability, to beter predict it. This multidisciplinary work combines wood sciences, natural products chemistry and microbiology. First, we implemented a sampling strategy based on the architectural profile of tree individuals to understand the variability of natural durabilityn which was confirmed by biological assays. We then assessed the influence of potential natural durability factors that we measured in the wood samples. As such, the role of metabolies was investigated using targeted and untargeted metabolomics, coupled with a dereplication strategy. Lignin and infradensity have also been tested as factors of durability for Angelique heartwood. Finally, factors that are related to tree ontogeny have been taken into account and the results highlight the importance of the stage development and the environment of tree individuals. Lastly, we have proposez esasy, fast and reliable spectroscopie tools (medium and near infrared) to predict the nartural durability. These results are encouraging and suggest their potential use by the timber industry to predict durability of Angélique heartwood.
146

Scénarisation d'environnements virtuels : vers un équilibre entre contrôle, cohérence et adaptabilité / Orchestration of virtual environments : balancing control, coherence and adaptability

Barot, Camille 24 February 2014 (has links)
Ces travaux traitent de la scénarisation d’environnements virtuels, définie comme la spécification des déroulements possibles ou souhaitables d’une simulation, et la mise en place de mécanismes permettant de contrôler son déroulement effectif de manière dynamique. Nous visons pour cette scénarisation un ensemble d’objectifs, souvent considérés comme contradictoires : la liberté et la capacité d’action de l’utilisateur, l’ampleur, le caractère dynamique et l’efficacité du contrôle exercé sur le scénario, la cohérence des comportements présentés et l’adaptabilité du système, nécessaire pour la variabilité des scénarios. Nous proposons SELDON, un modèle basé sur le contrôle centralisé et indirect d’une simulation émergente à partir de modèles du contenu scénaristique. L’environnement est peuplé de personnages virtuels autonomes et l’utilisateur y est libre de ses actions. La scénarisation est réalisée en deux étapes : des objectifs dynamiques sont déterminés à partir de l’activité de l’utilisateur, puis est généré en fonction de ces objectifs et exécuté au travers d’ajustements sur la simulation.Le moteur DIRECTOR permet de générer et de réaliser ce scénario. DIRECTOR utilise les modèles qui sous-tendent la simulation pour prédire son évolution, et guide cette évolution au travers d’un ensemble d’ajustements indirects, qui influencent les réactions des systèmes techniques et les décision des personnages. Il utilise un moteur de planification pour générer des scénarios composés d’étapes de prédiction, dont il suit la réalisation dans la simulation, et d’ajustements, qu’il déclenche.Les objectifs scénaristiques pris en compte sont à la fois dynamiques, au travers de situations prescrites et proscrites et de contraintes sur les propriétés globales du scénario, et statiques, sous la forme d’espaces de scénario. Le contenu scénaristique et les objectifs scénaristiques statiques sont représentés à l’aide de l’ensemble de langages que nous avons proposé : DOMAIN-DL, ACTIVITY-DL et CAUSALITY-DL. Ces contributions permettent d’allier la réactivité et la variabilité permises par des simulations émergentes et la pertinence des scénarios offerte par les systèmes basés sur de la planification. / This work addresses the orchestration of virtual environments, defined as the specification ofpossible or wanted unfoldings of events in a simulation and the implementation of control mechanisms over the actual unfolding. We aim at a set of objectives often considered contradictory : user freedom/agency, range, dynamicity and efficiency of control over the scenario, behavioural coherence, and system adaptability, which is essential for scenario variability. We propose SELDON, a model based on centralised and indirect control of an emergent simulation. Scenario content is represented by domain and activity models in the DOMAIN-DL and ACTIVITY-DL lanquages. The virtual environement is populated by autonomous characters, and the user’s choices of actions are unconstrained. Orchestration is carried out in two steps: first, a set of dynamic objectives is determined from the user’s profile and activity, then a scenario is generated from these objectives and executed through adjustements on the simulation. The DIRECTOR engine performs scenario generation and execution. DIRECTOR uses the simulation’s models to predict its evolution and guide it through a set of indirect adjustements that influence technical systems’ reactions and characters’ decisions. It uses planning to generate scenarios made up of prediction steps that DIRECTOR monitors in the simulation and adjustements that it triggers in the virtual environment. Scenario objectives can be defined dynamically through prescribed/proscribed situations and constraints on global scenario properties or statically as a space of scenarios of interest represented in the CAUSALITY-DL language.
147

L'anticipation dans la pratique des enseignants de technologie / Anticipation in practice of technology teachers

Tabbakh, Rafik 20 January 2018 (has links)
Cette recherche étudie l’activité des enseignants de technologie. Par activité, nous entendons la prédiction de la difficulté des exercices de dessin industriel, avant la séance, et l’anticipation des difficultés que peuvent rencontrer les élèves pour résoudre ces tâches au cours de la séance. L’analyse porte sur la détermination des éléments explicatifs du processus de prédiction et d’anticipation, et les raisons des choix explicités par les enseignants en matière de difficulté.Tout d’abord, nous déterminons les caractéristiques propres des exercices de dessin industriel sur lesquelles s’appuient les enseignants pour prédire le niveau de difficulté, à partir des résultats issus d’un questionnaire soumis à une centaine d’enseignants. Ensuite, nous explicitons les facteurs propres à la situation d’interaction qui permettent aux enseignants d’anticiper les difficultés d’apprentissage des élèves à partir d’une analyse vidéographique de trois séances d’enseignement, suivi par des entretiens. Enfin, la méthodologie mixte nous permet d’analyser l’articulation des résultats obtenus lors du processus de prédiction et d’anticipation.Les résultats obtenus mettent en évidence le concept d’anticipation et de prédiction lors du processus d’enseignement-apprentissage.L’identification du processus de prédiction et d’anticipation contribue à dégager des pistes pour la réalisation future d’un dispositif de formation pour les enseignants novices.Mots clés : Enseignant / This research studies the activity of technology teachers. By activity, we mean the prediction of the level of difficulty of the industrial drawing exercises, before the session, and the anticipation of the difficulties that the pupils may meet to solve their tasks during the session. The analysis will concern the clarity and certainty of the explanatory elements of the process of prediction and anticipation, and the reasons for the choices made by teachers in terms of difficulty.First, we determine the specific characteristics of the industrial drawing exercises on which teachers rely to predict the level of difficulty, based on the results of a questionnaire submitted to about hundred teachers. Next, we explain factors specific to the interaction situation that allow teachers to anticipate learning difficulties for students from a video analysis of three teaching sessions, followed by interviews. Finally, a mixed methodology will enable us to analyze the articulation of the results obtained during the process of prediction and anticipation.The obtained results highlight the concept of anticipation during the process of teaching and learning:The identification of the prediction and anticipation process helps to identify contrivances for the future realization of a training plan for novice teachers
148

Contexte augmenté basé sur les prédictions pour une réutilisation efficace des connaissances métier en conception : application à la conception proactive pour l'assemblage / Augmented context based on prediction for efficient knowledge reuse of business knowledge in design

Marconnet, Bertrand 24 November 2017 (has links)
Les travaux sur le contexte augmenté en conception produit, permet de sensibiliser les concepteurs sur leur choix en conception pour l'assemblage. L'approche présentée conclura sur la méthode pour développer un démonstrateur informatique, basé sur des cas d’études de conception mécanique. L’objectif de celui-ci est de capturer l’intention de conception, afin de proposer une aide utile aux acteurs métier, comme un support de conception, dans la prise de décisions, la vérification/validation, et la structuration de données. / Works on the design context augmentation in product design, makes it possible to make awareness designers on their choice in the design for assembly. The presented approach will conclude on the method to develop a informatic system, based on case studies of mechanical design. The purpose of the project is to capture the design intent, in order to provide useful assistance to stakeholders, such as design support, decision making, verification/validation, and data structuring.
149

Simulation aveugle large bande du mouvement sismique

Causse, Mathieu 30 January 2009 (has links) (PDF)
Prédire les mouvements du sol "en aveugle", c'est-à-dire générés par un séisme futur, est essentiel pour anticiper les dommages causés aux bâtiments. Cette thèse propose deux nouvelles approches, fondées sur la technique des fonctions de Green empiriques (FGE), pour calculer le mouvement sismique dans un milieu complexe, sur une large gamme de fréquences, et à partir d'un processus de rupture sur la faille réaliste. La première méthode utilise une représentation simple de la source (modèle de "crack"). Dans la seconde, la rupture est décrite par un modèle cinématique complexe en "k-2". De plus, afin de calculer le mouvement sismique basse fréquence, les FGE bruitées en dessous de 1 Hz sont remplacées par des simulations numériques par éléments spectraux 3D.<br />La difficulté principale pour simuler "en aveugle" est le choix des paramètres de la source (chute de contrainte, point de nucléation,...), mal contraints, et qu'il faudra pourtant estimer a priori. Ce choix contrôle le niveau médian et la variabilité du mouvement sismique. La première solution testée consiste à déterminer directement les lois de distribution de ces paramètres à partir des résultats issus de l'inversion cinématique. Afin de garantir que les niveaux simulés sont réalistes, nous proposons dans un second temps de calibrer les simulations par FGE en un site de référence au rocher en utilisant un modèle de prédiction empirique.<br />Les différentes méthodes sont appliquées pour simuler dans le bassin grenoblois un séisme de magnitude 5.5 à 15 km. La comparaison aux normes EC8 montre que les spectres réglementaires sont dépassés en certains points du bassin sédimentaire, à 0.3 Hz et autour de 0.2 Hz.
150

Contribution au pronostic de défaillances par réseau neuro-flou : maîtrise de l'erreur de prédiction.

Vasile - Dragomir, Otilia Elena 24 October 2008 (has links) (PDF)
L'activité de "pronostic de défaillances" est aujourd'hui considérée comme un processus clef dans les stratégies de maintenance industrielle. Cependant, dans la pratique, les outils de pronostic sont encore rares. Les approches aujourd'hui stabilisées reposent sur un historique des incidents assez conséquent pour être représentatif des événements potentiellement prévisibles. L'objet de cette thèse est de proposer un "outil" permettant de prédire la dégradation d'un équipement sans connaissance a priori sur son comportement, et de générer les indicateurs de pronostic permettant d'optimiser les stratégies de maintenance. Dans cet objectif, notre contribution se décline en trois aspects complémentaires.<br>- Un premier volet de travail traite de la formalisation du processus de pronostic. Le concept de pronostic est défini et positionné par rapport aux stratégies de maintenance. Différents mesures typées pronostic sont proposées et les outils utilisables dans ce contexte sont étudiés (nature, applicabilité, guide de choix).<br>- Le coeur du travail porte ensuite sur la spécification d'un système neuro-flou permettant de reproduire l'évolution des propriétés d'un équipement, et de prédire un état de dégradation au cours du temps. Plus précisément les développements visent la proposition d'une architecture neuro-floue permettant de satisfaire un objectif de contrôle de l'erreur de prédiction, quel que soit l'horizon de prédiction.<br>- Nous développons finalement une approche floue/possibiliste d'adaptation des processus classiques d'évaluation prévisionnelle des grandeurs de sûreté de fonctionnement au cas prédictif (fiabilité, MTTF). Ces indicateurs doivent permettre in fine d'optimiser les stratégies de maintenance en tenant compte de l'incertitude inhérente à l'étape de prédiction des dégradations.

Page generated in 0.0918 seconds