• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Détection de ruptures multiples dans des séries temporelles multivariées : application à l'inférence de réseaux de dépendance / Multiple change-point detection in multivariate time series : application to the inference of dependency networks

Harlé, Flore 21 June 2016 (has links)
Cette thèse présente une méthode pour la détection hors-ligne de multiples ruptures dans des séries temporelles multivariées, et propose d'en exploiter les résultats pour estimer les relations de dépendance entre les variables du système. L'originalité du modèle, dit du Bernoulli Detector, réside dans la combinaison de statistiques locales issues d'un test robuste, comparant les rangs des observations, avec une approche bayésienne. Ce modèle non paramétrique ne requiert pas d'hypothèse forte sur les distributions des données. Il est applicable sans ajustement à la loi gaussienne comme sur des données corrompues par des valeurs aberrantes. Le contrôle de la détection d'une rupture est prouvé y compris pour de petits échantillons. Pour traiter des séries temporelles multivariées, un terme est introduit afin de modéliser les dépendances entre les ruptures, en supposant que si deux entités du système étudié sont connectées, les événements affectant l'une s'observent instantanément sur l'autre avec une forte probabilité. Ainsi, le modèle s'adapte aux données et la segmentation tient compte des événements communs à plusieurs signaux comme des événements isolés. La méthode est comparée avec d'autres solutions de l'état de l'art, notamment sur des données réelles de consommation électrique et génomiques. Ces expériences mettent en valeur l'intérêt du modèle pour la détection de ruptures entre des signaux indépendants, conditionnellement indépendants ou complètement connectés. Enfin, l'idée d'exploiter les synchronisations entre les ruptures pour l'estimation des relations régissant les entités du système est développée, grâce au formalisme des réseaux bayésiens. En adaptant la fonction de score d'une méthode d'apprentissage de la structure, il est vérifié que le modèle d'indépendance du système peut être en partie retrouvé grâce à l'information apportée par les ruptures, estimées par le modèle du Bernoulli Detector. / This thesis presents a method for the multiple change-points detection in multivariate time series, and exploits the results to estimate the relationships between the components of the system. The originality of the model, called the Bernoulli Detector, relies on the combination of a local statistics from a robust test, based on the computation of ranks, with a global Bayesian framework. This non parametric model does not require strong hypothesis on the distribution of the observations. It is applicable without modification on gaussian data as well as data corrupted by outliers. The detection of a single change-point is controlled even for small samples. In a multivariate context, a term is introduced to model the dependencies between the changes, assuming that if two components are connected, the events occurring in the first one tend to affect the second one instantaneously. Thanks to this flexible model, the segmentation is sensitive to common changes shared by several signals but also to isolated changes occurring in a single signal. The method is compared with other solutions of the literature, especially on real datasets of electrical household consumption and genomic measurements. These experiments enhance the interest of the model for the detection of change-points in independent, conditionally independent or fully connected signals. The synchronization of the change-points within the time series is finally exploited in order to estimate the relationships between the variables, with the Bayesian network formalism. By adapting the score function of a structure learning method, it is checked that the independency model that describes the system can be partly retrieved through the information given by the change-points, estimated by the Bernoulli Detector.
272

Estimation de distribution de tailles de particules par techniques d'inférence bayésienne / Particle size distribution esimation using Bayesian inference techniques

Boualem, Abdelbassit 06 December 2016 (has links)
Ce travail de recherche traite le problème inverse d’estimation de la distribution de tailles de particules (DTP) à partir des données de la diffusion dynamique de lumière (DLS). Les méthodes actuelles d’estimation souffrent de la mauvaise répétabilité des résultats d’estimation et de la faible capacité à séparer les composantes d’un échantillon multimodal de particules. L’objectif de cette thèse est de développer de nouvelles méthodes plus performantes basées sur les techniques d’inférence bayésienne et cela en exploitant la diversité angulaire des données de la DLS. Nous avons proposé tout d’abord une méthode non paramétrique utilisant un modèle « free-form » mais qui nécessite une connaissance a priori du support de la DTP. Pour éviter ce problème, nous avons ensuite proposé une méthode paramétrique fondée sur la modélisation de la DTP en utilisant un modèle de mélange de distributions gaussiennes. Les deux méthodes bayésiennes proposées utilisent des algorithmes de simulation de Monte-Carlo par chaînes de Markov. Les résultats d’analyse de données simulées et réelles montrent la capacité des méthodes proposées à estimer des DTPs multimodales avec une haute résolution et une très bonne répétabilité. Nous avons aussi calculé les bornes de Cramér-Rao du modèle de mélange de distributions gaussiennes. Les résultats montrent qu’il existe des valeurs d’angles privilégiées garantissant des erreurs minimales sur l’estimation de la DTP. / This research work treats the inverse problem of particle size distribution (PSD) estimation from dynamic light scattering (DLS) data. The current DLS data analysis methods have bad estimation results repeatability and poor ability to separate the components (resolution) of a multimodal sample of particles. This thesis aims to develop new and more efficient estimation methods based on Bayesian inference techniques by taking advantage of the angular diversity of the DLS data. First, we proposed a non-parametric method based on a free-form model with the disadvantage of requiring a priori knowledge of the PSD support. To avoid this problem, we then proposed a parametric method based on modelling the PSD using a Gaussian mixture model. The two proposed Bayesian methods use Markov chain Monte Carlo simulation algorithms. The obtained results, on simulated and real DLS data, show the capability of the proposed methods to estimate multimodal PSDs with high resolution and better repeatability. We also computed the Cramér-Rao bounds of the Gaussian mixture model. The results show that there are preferred angle values ensuring minimum error on the PSD estimation.
273

Méthodes probabilistes pour l'évaluation de risques en production industrielle / Probabilistic methodes for risks evaluation in industrial production

Oger, Julie 16 April 2014 (has links)
Dans un contexte industriel compétitif, une prévision fiable du rendement est une information primordiale pour déterminer avec précision les coûts de production et donc assurer la rentabilité d'un projet. La quantification des risques en amont du démarrage d'un processus de fabrication permet des prises de décision efficaces. Durant la phase de conception d'un produit, les efforts de développement peuvent être alors identifiés et ordonnés par priorité. Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances d'un produit donné, la construction de la probabilité du risque défaillance est développée dans cette thèse. La relation complexe entre le processus de fabrication et le produit conçu (non linéaire, caractéristiques multi-modales...) est assurée par une méthode de régression bayésienne. Un champ aléatoire représente ainsi, pour chaque configuration du produit, l'information disponible concernant la probabilité de défaillance. Après une présentation du modèle gaussien, nous décrivons un raisonnement bayésien évitant le choix a priori des paramètres de position et d'échelle. Dans notre modèle, le mélange gaussien a priori, conditionné par des données mesurées (ou calculées), conduit à un posterior caractérisé par une distribution de Student multivariée. La nature probabiliste du modèle est alors exploitée pour construire une probabilité de risque de défaillance, définie comme une variable aléatoire. Pour ce faire, notre approche consiste à considérer comme aléatoire toutes les données inconnues, inaccessibles ou fluctuantes. Afin de propager les incertitudes, une approche basée sur les ensembles flous fournit un cadre approprié pour la mise en œuvre d'un modèle bayésien imitant le raisonnement d'expert. L'idée sous-jacente est d'ajouter un minimum d'information a priori dans le modèle du risque de défaillance. Notre méthodologie a été mise en œuvre dans un logiciel nommé GoNoGo. La pertinence de cette approche est illustrée par des exemples théoriques ainsi que sur un exemple réel provenant de la société STMicroelectronics. / In competitive industries, a reliable yield forecasting is a prime factor to accurately determine the production costs and therefore ensure profitability. Indeed, quantifying the risks long before the effective manufacturing process enables fact-based decision-making. From the development stage, improvement efforts can be early identified and prioritized. In order to measure the impact of industrial process fluctuations on the product performances, the construction of a failure risk probability estimator is developed in this thesis. The complex relationship between the process technology and the product design (non linearities, multi-modal features...) is handled via random process regression. A random field encodes, for each product configuration, the available information regarding the risk of non-compliance. After a presentation of the Gaussian model approach, we describe a Bayesian reasoning avoiding a priori choices of location and scale parameters. The Gaussian mixture prior, conditioned by measured (or calculated) data, yields a posterior characterized by a multivariate Student distribution. The probabilistic nature of the model is then operated to derive a failure risk probability, defined as a random variable. To do this, our approach is to consider as random all unknown, inaccessible or fluctuating data. In order to propagate uncertainties, a fuzzy set approach provides an appropriate framework for the implementation of a Bayesian model mimicking expert elicitation. The underlying leitmotiv is to insert minimal a priori information in the failure risk model. Our reasoning has been implemented in a software called GoNoGo. The relevancy of this concept is illustrated with theoretical examples and on real-data example coming from the company STMicroelectronics.
274

Bayesian codon models for detecting convergent molecular adaptation

Parto, Sahar 11 1900 (has links)
No description available.
275

Efficient multi-class objet detection with a hierarchy of classes / Détection efficace des objets multi-classes avec une hiérarchie des classes

Odabai Fard, Seyed Hamidreza 20 November 2015 (has links)
Dans cet article, nous présentons une nouvelle approche de détection multi-classes basée sur un parcours hiérarchique de classifieurs appris simultanément. Pour plus de robustesse et de rapidité, nous proposons d’utiliser un arbre de classes d’objets. Notre modèle de détection est appris en combinant les contraintes de tri et de classification dans un seul problème d’optimisation. Notre formulation convexe permet d’utiliser un algorithme de recherche pour accélérer le temps d’exécution. Nous avons mené des évaluations de notre algorithme sur les benchmarks PASCAL VOC (2007 et 2010). Comparé à l’approche un-contre-tous, notre méthode améliore les performances pour 20 classes et gagne 10x en vitesse. / Recent years have witnessed a competition in autonomous navigation for vehicles boosted by the advances in computer vision. The on-board cameras are capable of understanding the semantic content of the environment. A core component of this system is to localize and classify objects in urban scenes. There is a need to have multi-class object detection systems. Designing such an efficient system is a challenging and active research area. The algorithms can be found for applications in autonomous driving, object searches in images or video surveillance. The scale of object classes varies depending on the tasks. The datasets for object detection started with containing one class only e.g. the popular INRIA Person dataset. Nowadays, we witness an expansion of the datasets consisting of more training data or number of object classes. This thesis proposes a solution to efficiently learn a multi-class object detector. The task of such a system is to localize all instances of target object classes in an input image. We distinguish between three major efficiency criteria. First, the detection performance measures the accuracy of detection. Second, we strive low execution times during run-time. Third, we address the scalability of our novel detection framework. The two previous criteria should scale suitably with the number of input classes and the training algorithm has to take a reasonable amount of time when learning with these larger datasets. Although single-class object detection has seen a considerable improvement over the years, it still remains a challenge to create algorithms that work well with any number of classes. Most works on this subject extent these single-class detectors to work accordingly with multiple classes but remain hardly flexible to new object descriptors. Moreover, they do not consider all these three criteria at the same time. Others use a more traditional approach by iteratively executing a single-class detector for each target class which scales linearly in training time and run-time. To tackle the challenges, we present a novel framework where for an input patch during detection the closest class is ranked highest. Background labels are rejected as negative samples. The detection goal is to find the highest scoring class. To this end, we derive a convex problem formulation that combines ranking and classification constraints. The accuracy of the system is improved by hierarchically arranging the classes into a tree of classifiers. The leaf nodes represent the individual classes and the intermediate nodes called super-classes group recursively these classes together. The super-classes benefit from the shared knowledge of their descending classes. All these classifiers are learned in a joint optimization problem along with the previouslymentioned constraints. The increased number of classifiers are prohibitive to rapid execution times. The formulation of the detection goal naturally allows to use an adapted tree traversal algorithm to progressively search for the best class but reject early in the detection process the background samples and consequently reduce the system’s run-time. Our system balances between detection performance and speed-up. We further experimented with feature reduction to decrease the overhead of applying the high-level classifiers in the tree. The framework is transparent to the used object descriptor where we implemented the histogram of orientated gradients and deformable part model both introduced in [Felzenszwalb et al., 2010a]. The capabilities of our system are demonstrated on two challenging datasets containing different object categories not necessarily semantically related. We evaluate both the detection performance with different number of classes and the scalability with respect to run-time. Our experiments show that this framework fulfills the requirements of a multi-class object detector and highlights the advantages of structuring class-level knowledge.
276

Utilisation des antifongiques chez le patient non neutropénique en réanimation / Antifungal use on non neutropenic patients in Intensive Care Unit

Bailly, Sébastien 15 October 2015 (has links)
Les levures du genre Candida figurent parmi les pathogènes majeurs isolés chez les patients en soins intensifs et sont responsables d'infections systémiques : les candidoses invasives. Le retard et le manque de fiabilité du diagnostic sont susceptibles d'aggraver l'état du patient et d'augmenter le risque de décès à court terme. Pour respecter les objectifs de traitement, les experts recommandent de traiter le plus précocement possible les patients à haut risque de candidose invasive. Cette attitude permet de proposer un traitement précoce aux malades atteints, mais peut entraîner un traitement inutile et coûteux et favoriser l'émergence de souches de moindre sensibilité aux antifongiques utilisés.Ce travail applique des méthodes statistiques modernes à des données observationnelles longitudinales. Il étudie l'impact des traitements antifongiques systémiques sur la répartition des quatre principales espèces de Candida dans les différents prélèvements de patients en réanimation médicale, sur leur sensibilité à ces antifongiques, sur le diagnostic des candidémies ainsi que sur le pronostic des patients. Les analyses de séries de données temporelles à l'aide de modèles ARIMA (moyenne mobile autorégressive intégrée) ont confirmé l'impact négatif de l'utilisation des antifongiques sur la sensibilité des principales espèces de Candida ainsi que la modification de leur répartition sur une période de dix ans. L'utilisation de modèles hiérarchiques sur données répétées a montré que le traitement influence négativement la détection des levures et augmente le délai de positivité des hémocultures dans le diagnostic des candidémies. Enfin, l'utilisation des méthodes d'inférence causale a montré qu'un traitement antifongique préventif n'a pas d'impact sur le pronostic des patients non neutropéniques, non transplantés et qu'il est possible de commencer une désescalade précoce du traitement antifongique entre le premier et le cinquième jour après son initiation sans aggraver le pronostic. / Candida species are among the main pathogens isolated from patients in intensive care units (ICUs) and are responsible for a serious systemic infection: invasive candidiasis. A late and unreliable diagnosis of invasive candidiasis aggravates the patient's status and increases the risk of short-term death. The current guidelines recommend an early treatment of patients with high risks of invasive candidiasis, even in absence of documented fungal infection. However, increased antifungal drug consumption is correlated with increased costs and the emergence of drug resistance whereas there is yet no consensus about the benefits of the probabilistic antifungal treatment.The present work used modern statistical methods on longitudinal observational data. It investigated the impact of systemic antifungal treatment (SAT) on the distribution of the four Candida species most frequently isolated from ICU patients', their susceptibilities to SATs, the diagnosis of candidemia, and the prognosis of ICU patients. The use of autoregressive integrated moving average (ARIMA) models for time series confirmed the negative impact of SAT use on the susceptibilities of the four Candida species and on their relative distribution over a ten-year period. Hierarchical models for repeated measures showed that SAT has a negative impact on the diagnosis of candidemia: it decreases the rate of positive blood cultures and increases the time to positivity of these cultures. Finally, the use of causal inference models showed that early SAT has no impact on non-neutropenic, non-transplanted patient prognosis and that SAT de-escalation within 5 days after its initiation in critically ill patients is safe and does not influence the prognosis.
277

Analyse multi échelle et multi observation pour l'imagerie multi modale en oncologie / A multi resolution and multi observation framework for multi modal medical images processing and analysis in oncology

Hanzouli, Houda 15 December 2016 (has links)
Ce travail s’inscrit dans le cadre du développement d’une médecine davantage personnalisée et préventive, pour laquelle la fusion d’informations multi modale et de différentes représentations d'une même modalité sont nécessaires afin d'aboutir à une quantification fiable des images médicales en oncologie. Dans cette étude nous présentons deux applications de traitement et d'analyse des images médicales: le débruitage des images TEP et la détermination des volumes anatomo-fonctionnels des tumeurs en imagerie multi modale TEP/TDM. Pour le débruitage des images TEP, nous avons mis en place une approche intitulée "WCD" permettant de bénéficier des caractéristiques complémentaires de la transformée en ondelettes et la transformée en Curvelets afin de mieux représenter les structures isotropiques et anisotropiques dans ces images, ce qui permet de réduire le bruit tout en minimisant les pertes d'informations utiles dans les images TEP. En ce qui concerne la deuxième application, nous avons proposé une méthode de segmentationTEP/TDM intitulée "WCHMT" permettant d'exploiter la spécificité des arbres de Markov caché de prendre en compte les dépendances statistiques entre l’ensemble des données. Ce modèle permet de gérer simultanément les propriétés complémentaires de l’imagerie fonctionnelle et l’imagerie morphologique dans un cadre unifié où les données sont représentées dans le domaine des Contourlets. Le débruitage en TEP a abouti à une hausse significative du rapport signal sur-bruit (SNR) en garantissant la moindre variation de l'intensité et du contraste local. Quant à la segmentation multimodale TEP/TDM, elle a démontré une bonne précision lors de la détermination du volume tumoral en terme du coefficient de Dice (DSC) avec le meilleur compromis entre la sensibilité (SE) et la valeur prédictive positive (PPV) par rapport à la vérité terrain. / This thesis is a part of the development of more personalized and preventive medicine, for which a fusion of multi modal information and diverse representations of the same modality is needed in order to get accurate and reliable quantification of medical images in oncology. In this study we present two applications for image processing analysis: PET denoising and multimodal PET/CT tumor segmentation. The PET filtering approach called "WCD" take benefit from the complementary features of the wavelet and Curvelets transforms in order to better represent isotropic and anisotropic structures in PET images. This algorithm allows the reduction of the noise while minimizing the loss of useful information in PET images. The PET/CT tumor segmentation application is performed through a Markov model as a probabilistic quadtree graph namely a Hidden Markov Tree (HMT).Our motivation for using such a model is to provide fast computation, improved robustness and an effective interpretational framework for image analysis on oncology. Thanks to two efficient aspects (multi observation and multi resolution), when dealing with Hidden Markov Tree (HMT), we exploit joint statistical dependencies between hidden states to handle the whole data stack. This model called "WCHMT" take advantage of the high resolution of the anatomic imaging (CT) and the high contrast of the functional imaging (PET). The denoising approach led to the best trade-off between denoising quality and structure preservation with the least quantitative bias in absolute intensity recovery. PET/CT segmentation's results performed with WCHMT method has proven a reliable segmentation when providing high Dice Similarity Coeffcient (DSC) with the best trade-off between sensitivity (SE) and positive predictive value (PPV).
278

Applications de l'intelligence artificielle à la détection et l'isolation de pannes multiples dans un réseau de télécommunications / Application of artificial intelligence to the detection and isolation of multiple faults in a telecommunications network

Tembo Mouafo, Serge Romaric 23 January 2017 (has links)
Les réseaux de télécommunication doivent être fiables et robustes pour garantir la haute disponibilité des services. Les opérateurs cherchent actuellement à automatiser autant que possible les opérations complexes de gestion des réseaux, telles que le diagnostic de pannes.Dans cette thèse nous nous sommes intéressés au diagnostic automatique de pannes dans les réseaux d'accès optiques de l'opérateur Orange. L'outil de diagnostic utilisé jusqu'à présent, nommé DELC, est un système expert à base de règles de décision. Ce système est performant mais difficile à maintenir en raison, en particulier, du très grand volume d'informations à analyser. Il est également impossible de disposer d'une règle pour chaque configuration possible de panne, de sorte que certaines pannes ne sont actuellement pas diagnostiquées.Dans cette thèse nous avons proposé une nouvelle approche. Dans notre approche, le diagnostic des causes racines des anomalies et alarmes observées s'appuie sur une modélisation probabiliste, de type réseau bayésien, des relations de dépendance entre les différentes alarmes, compteurs, pannes intermédiaires et causes racines au niveau des différents équipements de réseau. Ce modèle probabiliste a été conçu de manière modulaire, de façon à pouvoir évoluer en cas de modification de l'architecture physique du réseau.Le diagnostic des causes racines des anomalies est effectué par inférence, dans le réseau bayésien, de l'état des noeuds non observés au vu des observations (compteurs, alarmes intermédiaires, etc...) récoltées sur le réseau de l'opérateur. La structure du réseau bayésien, ainsi que l'ordre de grandeur des paramètres probabilistes de ce modèle, ont été déterminés en intégrant dans le modèle les connaissances des experts spécialistes du diagnostic sur ce segment de réseau. L'analyse de milliers de cas de diagnostic de pannes a ensuite permis de calibrer finement les paramètres probabilistes du modèle grâce à un algorithme EM (Expectation Maximization).Les performances de l'outil développé, nommé PANDA, ont été évaluées sur deux mois de diagnostic de panne dans le réseau GPON-FTTH d'Orange en juillet-août 2015. Dans la plupart des cas, le nouveau système, PANDA, et le système en production, DELC, font un diagnostic identique. Cependant un certain nombre de cas sont non diagnostiqués par DELC mais ils sont correctement diagnostiqués par PANDA. Les cas pour lesquels les deux systèmes émettent des diagnostics différents ont été évalués manuellement, ce qui a permis de démontrer dans chacun de ces cas la pertinence des décisions prises par PANDA. / Telecommunication networks must be reliable and robust to ensure high availability of services. Operators are currently searching to automate as much as possible, complex network management operations such as fault diagnosis.In this thesis we are focused on self-diagnosis of failures in the optical access networks of the operator Orange. The diagnostic tool used up to now, called DELC, is an expert system based on decision rules. This system is efficient but difficult to maintain due in particular to the very large volume of information to analyze. It is also impossible to have a rule for each possible fault configuration, so that some faults are currently not diagnosed.We proposed in this thesis a new approach. In our approach, the diagnosis of the root causes of malfunctions and alarms is based on a Bayesian network probabilistic model of dependency relationships between the different alarms, counters, intermediate faults and root causes at the level of the various network component. This probabilistic model has been designed in a modular way, so as to be able to evolve in case of modification of the physical architecture of the network. Self-diagnosis of the root causes of malfunctions and alarms is made by inference in the Bayesian network model of the state of the nodes not observed in view of observations (counters, alarms, etc.) collected on the operator's network. The structure of the Bayesian network, as well as the order of magnitude of the probabilistic parameters of this model, were determined by integrating in the model the expert knowledge of the diagnostic experts on this segment of the network. The analysis of thousands of cases of fault diagnosis allowed to fine-tune the probabilistic parameters of the model thanks to an Expectation Maximization algorithm. The performance of the developed probabilistic tool, named PANDA, was evaluated over two months of fault diagnosis in Orange's GPON-FTTH network in July-August 2015. In most cases, the new system, PANDA, and the system in production, DELC, make an identical diagnosis. However, a number of cases are not diagnosed by DELC but are correctly diagnosed by PANDA. The cases for which self-diagnosis results of the two systems are different were evaluated manually, which made it possible to demonstrate in each of these cases the relevance of the decisions taken by PANDA.
279

Estimation Bayésienne non Paramétrique de Systèmes Dynamiques en Présence de Bruits Alpha-Stables / Nonparametric Bayesian Estimition of Dynamical Systems in the Presence of Alpha-Stable Noise

Jaoua, Nouha 06 June 2013 (has links)
Dans un nombre croissant d'applications, les perturbations rencontrées s'éloignent fortement des modèles classiques qui les modélisent par une gaussienne ou un mélange de gaussiennes. C'est en particulier le cas des bruits impulsifs que nous rencontrons dans plusieurs domaines, notamment celui des télécommunications. Dans ce cas, une modélisation mieux adaptée peut reposer sur les distributions alpha-stables. C'est dans ce cadre que s'inscrit le travail de cette thèse dont l'objectif est de concevoir de nouvelles méthodes robustes pour l'estimation conjointe état-bruit dans des environnements impulsifs. L'inférence est réalisée dans un cadre bayésien en utilisant les méthodes de Monte Carlo séquentielles. Dans un premier temps, cette problématique a été abordée dans le contexte des systèmes de transmission OFDM en supposant que les distorsions du canal sont modélisées par des distributions alpha-stables symétriques. Un algorithme de Monte Carlo séquentiel a été proposé pour l'estimation conjointe des symboles OFDM émis et des paramètres du bruit $\alpha$-stable. Ensuite, cette problématique a été abordée dans un cadre applicatif plus large, celui des systèmes non linéaires. Une approche bayésienne non paramétrique fondée sur la modélisation du bruit alpha-stable par des mélanges de processus de Dirichlet a été proposée. Des filtres particulaires basés sur des densités d'importance efficaces sont développés pour l'estimation conjointe du signal et des densités de probabilité des bruits / In signal processing literature, noise's sources are often assumed to be Gaussian. However, in many fields the conventional Gaussian noise assumption is inadequate and can lead to the loss of resolution and/or accuracy. This is particularly the case of noise that exhibits impulsive nature. The latter is found in several areas, especially telecommunications. $\alpha$-stable distributions are suitable for modeling this type of noise. In this context, the main focus of this thesis is to propose novel methods for the joint estimation of the state and the noise in impulsive environments. Inference is performed within a Bayesian framework using sequential Monte Carlo methods. First, this issue has been addressed within an OFDM transmission link assuming a symmetric alpha-stable model for channel distortions. For this purpose, a particle filter is proposed to include the joint estimation of the transmitted OFDM symbols and the noise parameters. Then, this problem has been tackled in the more general context of nonlinear dynamic systems. A flexible Bayesian nonparametric model based on Dirichlet Process Mixtures is introduced to model the alpha-stable noise. Moreover, sequential Monte Carlo filters based on efficient importance densities are implemented to perform the joint estimation of the state and the unknown measurement noise density
280

(Meta)Knowledge modeling for inventive design / Modélisation des (méta)connaissances pour la conception inventive

Yan, Wei 07 February 2014 (has links)
Un nombre croissant d’industries ressentent le besoin de formaliser leurs processus d’innovation. Dans ce contexte, les outils du domaine de la qualité et les approches d’aide à la créativité provenant du "brain storming" ont déjà montré leurs limites. Afin de répondre à ces besoins, la TRIZ (Acronyme russe pour Théorie de Résolution des Problèmes Inventifs), développée par l’ingénieur russe G. S. Altshuller au milieu du 20ème siècle, propose une méthode systématique de résolution de problèmes inventifs multidomaines. Selon TRIZ, la résolution de problèmes inventifs consiste en la construction du modèle et l’utilisation des sources de connaissance de la TRIZ. Plusieurs modèles et sources de connaissances permettent la résolution de problèmes inventifs de types différents, comme les quarante Principes Inventifs pour l’élimination des contradictions techniques. Toutes ces sources se situent à des niveaux d’abstractions relativement élevés et sont, donc, indépendantes d’un domaine particulier, qui nécessitent des connaissances approfondies des domaines d’ingénierie différents. Afin de faciliter le processus de résolution de problèmes inventifs, un "Système Intelligent de Gestion de Connaissances" est développé dans cette thèse. D’une part, en intégrant les ontologies des bases de connaissance de la TRIZ, le gestionnaire propose aux utilisateurs de sources de connaissance pertinentes pour le modèle qu’ils construisent, et d’autre part, le gestionnaire a la capacité de remplir "automatiquement" les modèles associés aux autres bases de connaissance. Ces travaux de recherche visent à faciliter et automatiser le processus de résolution de problèmes inventifs. Ils sont basés sur le calcul de similarité sémantique et font usage de différentes technologies provenantes de domaine de l’Ingénierie de Connaissances (modélisation et raisonnement basés sur les ontologies, notamment). Tout d’abord, des méthodes de calcul de similarité sémantique sont proposées pour rechercher et définir les liens manquants entre les bases de connaissance de la TRIZ. Ensuite, les sources de connaissance de la TRIZ sont formalisées comme des ontologies afin de pouvoir utiliser des mécanismes d’inférence heuristique pour la recherche de solutions spécifiques. Pour résoudre des problèmes inventifs, les utilisateurs de la TRIZ choisissent dans un premier temps une base de connaissance et obtiennent une solution abstraite. Ensuite, les éléments des autres bases de connaissance similaires aux éléments sélectionnés dans la première base sont proposés sur la base de la similarité sémantique préalablement calculée. A l’aide de ces éléments et des effets physiques heuristiques, d’autres solutions conceptuelles sont obtenues par inférence sur les ontologies. Enfin, un prototype logiciel est développé. Il est basé sur cette similarité sémantique et les ontologies interviennent en support du processus de génération automatique de solutions conceptuelles. / An increasing number of industries feel the need to formalize their innovation processes. In this context, quality domain tools show their limits as well as the creativity assistance approaches derived from brainstorming. TRIZ (Theory of Inventive Problem Solving) appears to be a pertinent answer to these needs. Developed in the middle of the 20th century by G. S. Althshuller, this methodology's goal was initially to improve and facilitate the resolution of technological problems. According to TRIZ, the resolution of inventive problems consists of the construction of models and the use of the corresponding knowledge sources. Different models and knowledge sources were established in order to solve different types of inventive problems, such as the forty inventive principles for eliminating the technical contradictions. These knowledge sources with different levels of abstraction are all built independent of the specific application field, and require extensive knowledge about different engineering domains. In order to facilitate the inventive problem solving process, the development of an "intelligent knowledge manager" is explored in this thesis. On the one hand, according to the TRIZ knowledge sources ontologies, the manager offers to the users the relevant knowledge sources associated to the model they are building. On the other hand, the manager has the ability to fill "automatically" the models of the other knowledge sources. These research works aim at facilitating and automating the process of solving inventive problems based on semantic similarity and ontology techniques. At first, the TRIZ knowledge sources are formalized based on ontologies, such that heuristic inference can be executed to search for specific solutions. Then, methods for calculating semantic similarity are explored to search and define the missing links among the TRIZ knowledge sources. In order to solve inventive problems, the TRIZ user firstly chooses a TRIZ knowledge source to work for an abstract solution. Then, the items of other knowledge sources, which are similar with the selected items of the first knowledge source, are obtained based on semantic similarity calculated in advance. With the help of these similar items and the heuristic physical effects, other specific solutions are returned through ontology inference. Finally, a software prototype is developed based on semantic similarity and ontology inference to support this automatic process of solving inventive problems.

Page generated in 0.0714 seconds