• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 43
  • 15
  • 1
  • 1
  • Tagged with
  • 220
  • 152
  • 73
  • 67
  • 60
  • 50
  • 35
  • 34
  • 33
  • 29
  • 27
  • 26
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

CONTROLE DE TENSION AUTO ADAPTATIF POUR DES PRODUCTIONS DECENTRALISEES D'ENERGIES<br />CONNECTEES AU RESEAU ELECTRIQUE DE DISTRIBUTION

Rami, Guillaume 09 November 2006 (has links) (PDF)
Une des problématiques amenées par l'utilisation de productions décentralisées d'énergie<br />(PDE) est la difficulté de réglage des niveaux de tension. En effet, l'injection de puissance de ces<br />génératrices induit un changement du plan de tension et du transit de puissance sur le réseau<br />pouvant provoquer des surtensions critiques. Les installations « petite puissance » de PDE sont<br />en règle générale non observables, de plus, l'utilisation de télémesures ou de communications<br />entre ces GED et un organe de contrôle de type OPF est difficilement envisageable en vue des<br />quantités d'informations et des coûts engendrés par ceux-ci.<br />Ainsi, Notre étude porte sur le développement d'un contrôle de tension autonome et<br />intelligent pour ces PDE, utilisant uniquement des informations mesurées localement. Le but est<br />de réaliser un contrôle global de la tension sur un réseau électrique de distribution, sans utiliser de<br />coordination à l'aide de communication. Ce régulateur est capable d'adapter son contrôle et ses<br />objectifs de manière optimale pour conserver la tension dans les limites admissibles sur le réseau<br />considéré.<br />Suite au développement de ce régulateur, des tests logiciels et pratiques ont été faits pour<br />d'une part valider le fonctionnement d'un tel contrôle sur différentes configurations de réseau, ou<br />sur des productions classiques ou intermittentes (éolienne) et d'autre part pour prouver la<br />faisabilité d'un tel système. Ce travail c'est terminé par la comparaison de cette approche locale<br />avec un contrôle coordonné de tension grâce à de la production décentralisée.
72

Attelage virtuel pour véhicules automatisés

Toulotte, Pierre-Frédéric 29 September 2006 (has links) (PDF)
Ce mémoire est consacré à la réalisation d'un attelage virtuel entre deux véhicules dans des conditions « normales » de conduite et de route (pas de situation d'urgence, route sèche, etc.). Après une présentation de l'historique et de l'état de l'art de la conduite assistée ou automatisée, un modèle de la dynamique longitudinale et/ou latérale du véhicule est détaillé. C'est un modèle de type « bicyclette » avec une description du contact du pneumatique avec la route dans des conditions de faibles glissements.<br />Parmi les techniques de commande non linéaire envisageables, celles basées sur les modèles flous de type Takagi-Sugeno (TS) ont été retenues. Ils sont composés de modèles linéaires interconnectés par des fonctions scalaires non linéaires ayant la propriété de somme convexe.<br />L'étude de la stabilité et de la stabilisation de tels modèles se fait à l'aide de la seconde méthode de Lyapunov. Dans le souci d'adjoindre des notions de robustesses et/ou de performances, plusieurs solutions sont envisageables. Celle retenue dans ce mémoire fait appel à des modèles incertains et à un placement des pôles des modèles linéaires dans des régions convexes pré-spécifiées du plan complexe. Des conditions suffisantes sous forme d'inégalités matricielles linéaires qui permettent de garantir ces propriétés dans le cas général des modèles TS sont proposées. Elles sont ensuite aussi bien utilisées dans le cas d'une régulation d'inter-distance seule que pour l'attelage virtuel complet. Les résultats obtenus sont proposés en simulation et en temps réel sur un véhicule prototype spécialement instrumenté.
73

Segmentation de formes guidée par des modèles en neuro-imagerie intégration de la commande floue dans une méthode de segmentation par ensembles de niveau /

Ciofolo, Cybèle Barillot, Christian January 2005 (has links) (PDF)
Thèse doctorat : Informatique : Rennes 1 : 2005. / Bibliogr. p. 185-198.
74

Commande et entrainement des machines-outils à dynamique élevée formalismes et applications /

Barre, Pierre-Jean. Hautier, Jean-Paul. January 2007 (has links)
Reproduction de : Habilitation à diriger des recherches : Automatique : Lille 1 : 2004. / N° d'ordre (Lille 1) : 441. Résumé en français. Curriculum vitae. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 126-127. Liste des publications et communications.
75

Gestion optimisée de l'énergie électrique d'un groupe électrogène hybride à pile à combustible

Hankache, Walid Fadel, Maurice Hissel, Daniel. January 2009 (has links)
Reproduction de : Thèse de doctorat : Systèmes automatiques : Toulouse, INPT : 2008. / Titre provenant de l'écran-titre. Bibliogr. 107 réf.
76

Méthodes probabilistes, floues et quantiques pour l'extraction de l'information biologique

Sierocinski, Thomas 02 October 2008 (has links) (PDF)
Les progrès des technologies de mesure et le séquençage des génomes, ont permis l'émergence, dans les années 1990, de techniques de mesure globale de l'expression génique, les puces à ADN. Ce type d'expérience, dit à " haut débit ", en raison du volume de données qu'elles génèrent nécessitent un traitement automatique pour l'interprétation des résultats. Dans ce but, de nombreuses approches ont été développées, essentiellement réparties en deux familles : les méthodes de classification supervisées et non supervisées. Nous présentons ici la distillation sémantique, une approche de classification non supervisée originale fondée sur un formalisme inspiré de la mesure physique en mécanique quantique permettant l'analyse des résultats d'analyse de puces à ADN. Cette méthode fournit à l'utilisateur une liste de gènes ordonnée par spécificité pour chaque échantillon biologique de l'expérience, décrivant ainsi chaque contexte cellulaire ainsi que l'influence de chaque gène dans ces contextes. Celleci a été mise à l'épreuve sur deux jeux de données : un jeu " tissus-spécifique " pour lequel notre méthode a correctement caractérisé les gènes spécifiques de chaque tissu, et un jeu de données cliniques de patients atteints de fibroses hépatiques à divers stades pour lequel la distillation sémantique a permis de trouver des signatures dans les voies métaboliques et les processus biologiques associés aux gènes spécifiques de chaque stade de la maladie.
77

Application des réseaux neuronaux flous à l'identification et la protection d'un transformateur triphasé /

Varkiani, Shahriar, January 1998 (has links)
Mémoire (M.Eng.)--Université du Québec à Chicoutimi, 1998. / Document électronique également accessible en format PDF. CaQCU
78

Contributions à la segmentation des structures cérébrales en IRM foetale / Contributions to cerebral structures segmentation in fetal MRI

Caldairou, Benoît 22 June 2012 (has links)
L'étude de la maturation cérébrale a pour objectif une meilleure compréhension du développement du cerveau durant la grossesse et la mise en évidence des liens entre la modification des structures cérébrales et le développement cognitif. Cette étude est rendue particulièrement difficile par l'évolution constante que connaissent ces structures au cours de cette période, évolution due notamment à la croissance et à l'organisation des tissus cérébraux. La technique de visualisation privilégiée pour observer le cerveau est l'imagerie par résonance magnétique (IRM), méthode non invasive permettant l'acquisition d'images des structures cérébrales in vivo et en trois dimensions à une résolution relativement élevée. Cependant, les différences anatomiques et l'évolution rapide des structures cérébrales chez le fœtus nécessitent une nouvelle modélisation du cerveau. Le travail de cette thèse est composé de deux parties. Tout d'abord, nous avons modifié l'algorithme FCM (Fuzzy C-Means) de manière à permettre une meilleure prise en compte du bruit et du biais de l'image grâce à la méthode des moyennes non-locales issue du débruitage d'image. Ces travaux ont fait l'objet d'une validation à partir de bases d'images synthétiques et réelles. Enfin, nous nous sommes penchés sur la problématique de la segmentation des tissus cérébraux en IRM fœtale, et nous avons introduit un modèle comportant des contraintes topologiques de manière à permettre une segmentation séquentielle des tissus, en se fondant sur la position relative des différentes structures. Ces travaux ont fait l'objet d'une validation à partir de cas réels. / The study of cerebral maturation aims at a better understanding of the brain's development during the pregnancy and the high lightment of the links between the change in cerebral structures and the cognitive development. This study is particularly difficult because of the constant evolution of these structures during the pregnancy. This evolution is due to the growing and the organisation of the different cerebral tissues. The preferred visualisation technique used to observe the brain is the magnetic resonance imaging (MRI), which is a non invasive acquisition technique of in vivo 3D cerebral images with a relative high resolution. Nevertheless, significant anatomical differences and the fast evolution of the fetal cerebral structures require a new modelisation of the brain. This thesis is divided in two parts. First, we modified the Fuzzy C-Means (FCM) algorithm in order to allow a better consideration of images noise and intensity bias thanks to the non-local means method, originaly elaborated for denoising purposes. These work were validated with databases of simulated and real images. Finally, we focused on the segmentation of cerebral tissues in fetal MRI by introducing topological constraints in order to obtain a sequential segmentation, based on relative positions of the tissus. These work were validated with real cases.
79

Développement d'une approche floue multicritères pour une planification intégrée couplant la gestion de la performance et du risque

Khemiri, Rihab 27 November 2017 (has links) (PDF)
Le présent travail s’intéresse à la prise en compte de l’incertitude et du risque pour l’optimisation de la planification de production au niveau tactique d’une entreprise multi-sites d’une chaîne logistique. La méthode proposée permet d’assurer une planification des opérations de production et d’approvisionnement tout en intégrant au sein de son processus décisionnel un mécanisme de gestion de risque, en présence de diverses sources d’incertitude et d’ambigüité. Pour cela, une «bibliothèque» de critères structurés en deux classes indépendantes : critères de performance et critères de risque a été proposée, dans laquelle le décideur peut sélectionner ceux qui sont en cohérence avec ses préférences et sa stratégie de planification. La méthode doit chercher le bon compromis entre les performances et les risques prédéfinis par le décideur. Pour cela, nous nous somme dirigés dans un premier temps sur le développement d’une approche d’aide à la décision multicritères floue couplant un modèle analytique et la méthode TOPSIS floue. Cette approche consiste à générer un éventail de plans réalisables, caractérisés par leur performance et leur résistance aux risques. Le décideur peut alors choisir le plan qui reflète le compromis le plus adapté à sa stratégie de décision. Une deuxième approche d’optimisation multi-objectifs floue a été proposée dans un deuxième temps pour faire face à des problèmes de planification de grande taille au sein des chaînes logistiques opérant dans un environnement dynamique et incertain. Cette approche combine la méthode TOPSIS Floue, la programmation multi-objectifs possibiliste et la méthode du Goal Programming. L’objectif est de déterminer un plan jugé de bon compromis vis-à- vis des préférences du décideur par rapport aux objectifs de performance et de résistance aux risques. L’instanciation des deux approches proposées sur un exemple numérique a montré leur applicabilité et leur efficacité pour faire face à des problèmes de planification des chaînes logistiques utilisant des données incertaines et des préférences subjectives. Les expérimentations des deux approches permettant de tirer un ensemble d’enseignements utiles.
80

Une approche de détection d'outliers en présence de l'incertitude / An outlier detection approach in the presence of uncertainty

Hacini, Akram 06 December 2018 (has links)
Un des aspects de complexité des nouvelles données, issues des différents systèmes de traitement,sont l’imprécision, l’incertitude, et l’incomplétude. Ces aspects ont aggravés la multiplicité etdissémination des sources productrices de données, qu’on observe facilement dans les systèmesde contrôle et de monitoring. Si les outils de la fouille de données sont devenus assez performants avec des données dont on dispose de connaissances a priori fiables, ils ne peuvent pas êtreappliqués aux données où les connaissances elles mêmes peuvent être entachées d’incertitude etd’imprécision. De ce fait, de nouvelles approches qui prennent en compte cet aspect vont certainement améliorer les performances des systèmes de fouille de données, dont la détection desoutliers, objet de notre recherche dans le cadre de cette thèse. Cette thèse s’inscrit dans cette optique, à savoir la proposition d’une nouvelle méthode pourla détection d’outliers dans les données incertaines et/ou imprécises. En effet, l’imprécision etl’incertitude des expertises relatives aux données d’apprentissage, est un aspect de complexitédes données. Pour pallier à ce problème particulier d’imprécision et d’incertitude des donnéesexpertisées, nous avons combinés des techniques issues de l’apprentissage automatique, et plusparticulièrement le clustering, et des techniques issues de la logique floue, en particulier les ensembles flous, et ce, pour pouvoir projeter de nouvelles observations, sur les clusters des donnéesd’apprentissage, et après seuillage, pouvoir définir les observations à considérer comme aberrantes(outliers) dans le jeu de données considéré.Concrètement, en utilisant les tables de décision ambigües (TDA), nous sommes partis des indices d’ambigüité des données d’apprentissage pour calculer les indices d’ambigüités des nouvellesobservations (données de test), et ce en faisant recours à l’inférence floue. Après un clustering del’ensemble des indices d’ambigüité, une opération α-coupe, nous a permis de définir une frontièrede décision au sein des clusters, et qui a été utilisée à son tour pour catégoriser les observations,en normales (inliers) ou aberrantes (outliers). La force de la méthode proposée réside dans sonpouvoir à traiter avec des données d’apprentissage imprécises et/ou incertaines en utilisant uniquement les indices d’ambigüité, palliant ainsi aux différents problèmes d’incomplétude des jeuxde données. Les métriques de faux positifs et de rappel, nous ont permis d’une part d’évaluer lesperformances de notre méthode, et aussi de la paramétrer selon les choix de l’utilisateur. / One of the complexity aspects of the new data produced by the different processing systems is the inaccuracy, the uncertainty, and the incompleteness. These aspects are aggravated by the multiplicity and the dissemination of data-generating sources, that can be easily observed within various control and monitoring systems. While the tools of data mining have become fairly efficient with data that have reliable prior knowledge, they cannot be applied to data where the knowledge itself may be tainted with uncertainty and inaccuracy. As a result, new approaches that take into account this aspect will certainly improve the performance of data mining systems, including the detection of outliers,which is the subject of our research in this thesis.This thesis deals therefore with a particular aspect of uncertainty and accuracy, namely the proposal of a new method to detect outliers in uncertain and / or inaccurate data. Indeed, the inaccuracy of the expertise related to the learning data, is an aspect of complexity. To overcome this particular problem of inaccuracy and uncertainty of the expertise data, we have combined techniques resulting from machine learning, especially clustering, and techniques derived from fuzzy logic, especially fuzzy sets. So we will be able to project the new observations, on the clusters of the learning data, and after thresholding, defining the observations to consider as aberrant (outliers) in the considered dataset.Specifically, using ambiguous decision tables (ADTs), we proceeded from the ambiguity indices of the learning data to compute the ambiguity indices of the new observations (test data), using the Fuzzy Inference. After clustering, the set of ambiguity indices, an α-cut operation allowed us to define a decision boundary within the clusters, which was used in turn to categorize the observations as normal (inliers ) or aberrant (outliers). The strength of the proposed method lies in its ability to deal with inaccurate and / or uncertain learning data using only the indices of ambiguity, thus overcoming the various problems of incompleteness of the datasets. The metrics of false positives and recall, allowed us on one hand to evaluate the performances of our method, and also to parameterize it according to the choices of the user.

Page generated in 0.0483 seconds