Spelling suggestions: "subject:"flour"" "subject:"float""
41 |
Intégration de techniques floues pour la modélisation, l'identification et la commande de systèmes non linéairesRamos Fernandez, Julio Cesar 22 February 2008 (has links) (PDF)
La modélisation et l'identification floues de systèmes avec de multiples entrées et une seule sortie (MISO), non linéaires, non stationnâmes et avec perturbations sont présentés. A cet effet, des techniques d'apprentissage floues sont utilisées. C'est ainsi qu'un modèle est mis en place à partir des mesures d'un système bio-climatique, qui concerne l'étude d'une serre expérimentale de l'Université du Sud Toulon Var (USTV) en France. L'analyse multi-modèles est utilisée, avec la structure de règles floues proposée par Takagi-Sugeno-Kang (TS), où les prémisses des règles sont identifiées au moyen de l'algorithme flou de C-Means. La démarche d'apprentissage local et global est introduite pour identifier les paramètres linéaires des conséquences des règles floues. Ainsi, des modèles flous TS sont obtenus avec une démarche pluri-objectif. Dans le cadre de la technique de la modélisation et de F identification floues TS, le développement d'un algorithme est détaillé, pour modéliser des systèmes SISO, pour lesquels l'algorithme flou de Gustafson-Kessel (G-K) sera mis en oeuvre afin d'identifier les prémisses des règles floues. L'innovation réside dans le fait que les conséquences des règles floues sont des polynômes d'ordre cubique. Enfin, avec la technique LMI et avec un modèle développé pour un système bio-climatique, la synthèse d'un contrôleur stable avec l'approche de Lyapunov qui régule le chauffage de la serre, est réalisée pour maintenir le paramètre VPD dans un domaine fiable pour la plantation.
|
42 |
MÉLIDIS : Reconnaissance de formes par modélisation mixte intrinsèque/discriminante à base de systèmes d'inférence floue hiérarchisésRagot, Nicolas 28 October 2003 (has links) (PDF)
La problématique de la reconnaissance de formes manuscrites est particulièrement riche et complexe. Il existe en effet un grand nombre de problèmes différents à traiter dans lesquels les formes à reconnaître sont nombreuses, soumises à une variabilité importante et donc sources de confusions. De plus, les contraintes applicatives, et notamment celles résultant de la volonté de diffusion des moyens informatiques au travers de l'informatique nomade (PDA, smart phone...), font que la conception et l'adaptation de systèmes de reconnaissance à des contextes précis d'utilisation sont particulièrement délicats.<br /><br />Pour faciliter cette mise au point nous proposons une méthodologie de classification visant à réunir un ensemble de propriétés rarement satisfaites dans une même approche : performances, généricité, fiabilité, robustesse, compacité et interprétabilité. Ce dernier point est particulièrement important puisqu'il permet au concepteur d'adapter, de maintenir et d'optimiser le système plus facilement. L'approche proposée, centrée sur la notion de connaissances dans un classifieur, est entièrement guidée par les données. L'originalité réside notamment dans l'exploitation conjointe de connaissances intrinsèques et discriminantes extraites automatiquement et organisées sur deux niveaux pour bénéficier au mieux de leur complémentarité. Le premier niveaux modélise les classes de façon explicite par des prototypes flous. Ceux-ci sont notamment utilisés pour décomposer le problème initial en sous-problèmes dans lesquels les formes possèdant des propriétés intrinsèques similaires sont regroupées. Le second niveau effectue ensuite une discrimination ciblée sur ces sous-problèmes par des arbres de décision flous. L'ensemble est formalisé de façon homogène par des systèmes d'inférence floue qui sont combinés pour la classification.<br /><br />Cette approche a conduit à la réalisation du système Mélidis qui a été validé sur plusieurs benchmarks dont des problèmes de reconnaissance de caractères manuscrits en ligne.
|
43 |
Paramétrage Dynamique et Optimisation Automatique des Réseaux Mobiles 3G et 3G+Nasri, Ridha 23 January 2009 (has links) (PDF)
La télécommunication radio mobile connait actuellement une évolution importante en termes de diversité de technologies et de services fournis à l'utilisateur final. Il apparait que cette diversité complexifie les réseaux cellulaires et les opérations d'optimisation manuelle du paramétrage deviennent de plus en plus compliquées et couteuses. Par conséquent, les couts d'exploitation du réseau augmentent corrélativement pour les operateurs. Il est donc essentiel de simplifier et d'automatiser ces taches, ce qui permettra de réduire les moyens consacrés à l'optimisation manuelle des réseaux. De plus, en optimisant ainsi de manière automatique les réseaux mobiles déployés, il sera possible de retarder les opérations de densification du réseau et l'acquisition de nouveaux sites. Le paramétrage automatique et optimal permettra donc aussi d'étaler voire même de réduire les investissements et les couts de maintenance du réseau. Cette thèse introduit de nouvelles méthodes de paramétrage automatique (auto-tuning) des algorithmes RRM (Radio Resource Management) dans les réseaux mobiles 3G et au delà du 3G. L'auto-tuning est un processus utilisant des outils de contrôle comme les contrôleurs de logique floue et d'apprentissage par renforcement. Il ajuste les paramètres des algorithmes RRM afin d'adapter le réseau aux fluctuations du trafic. Le fonctionnement de l'auto-tuning est basé sur une boucle de régulation optimale pilotée par un contrôleur qui est alimenté par les indicateurs de qualité du réseau. Afin de trouver le paramétrage optimal du réseau, le contrôleur maximise une fonction d'utilité, appelée aussi fonction de renforcement. Quatre cas d'études sont décrits dans cette thèse. Dans un premier temps, l'auto-tuning de l'algorithme d'allocation des ressources radio est présenté. Afin de privilégier les utilisateurs du service temps réel (voix), une bande de garde est réservée pour eux. Cependant dans le cas ou le trafic temps réel est faible, il est important d'exploiter cette ressource pour d'autres services. L'auto-tuning permet donc de faire un compromis optimal de la qualité perçue dans chaque service en adaptant les ressources réservées en fonction du trafic de chaque classe du service. Le second cas est l'optimisation automatique et dynamique des paramètres de l'algorithme du soft handover en UMTS. Pour l'auto-tuning du soft handover, un contrôleur est implémenté logiquement au niveau du RNC et règle automatiquement les seuils de handover en fonction de la charge radio de chaque cellule ainsi que de ses voisines. Cette approche permet d'équilibrer la charge radio entre les cellules et ainsi augmenter implicitement la capacité du réseau. Les simulations montrent que l'adaptation des seuils du soft handover en UMTS augmente la capacité de 30% par rapport au paramétrage fixe. L'approche de l'auto-tuning de la mobilité en UMTS est étendue pour les systèmes LTE (3GPP Long Term Evolution) mais dans ce cas l'auto-tuning est fondé sur une fonction d'auto-tuning préconstruite. L'adaptation des marges de handover en LTE permet de lisser les interférences intercellulaires et ainsi augmenter le débit perçu pour chaque utilisateur du réseau. Finalement, un algorithme de mobilité adaptative entre les deux technologies UMTS et WLAN est proposé. L'algorithme est orchestré par deux seuils, le premier est responsable du handover de l'UMTS vers le WLAN et l'autre du handover dans le sens inverse. L'adaptation de ces deux seuils permet une exploitation optimale et conjointe des ressources disponibles dans les deux technologies. Les résultats de simulation d'un réseau multi-systèmes exposent également un gain important en capacité.
|
44 |
Génération de symptômes flous par FFT et SWT : applications à la détection de vibrationsTaleb, Samir 14 February 2007 (has links) (PDF)
L'objectif de ce travail est la détection des défauts à travers la détection des changements ou des anomalies dans les signaux mesurés. Notre travail présente une méthode permettant de construire, à partir d'historique de données (signaux de référence), un modèle comportemental du procédé, puis de détecter des situations anormales issues des dysfonctionnements. Cette méthode consiste à générer des symptômes flous en ligne permettant de suivre l'évolution temporelle du fonctionnement du système à surveiller. Ces symptômes prennent en considération les incertitudes sur la décision en fusionnant le résultat du test de détection avec celui de sa validité. Par leurs propriétés de localisation fréquentielle et temps-fréquence, la transformée de Fourier à court terme et la transformée en ondelettes stationnaires sont deux méthodes adaptables au diagnostic. Les choix de la longueur et du type de la fenêtre de pondération pour la STFT, de l'ondelette mère et du nombre de niveaux de décomposition pour la SWT sont les degrés de liberté qui leur permettent d'extraire des informations pertinentes des signaux analysés. Un symptôme graduel est obtenu en fonction du type et de l'ampleur du défaut. La méthode de détection conçue a été testée sur des signaux contenant des défauts simulés, puis a été ensuite validée sur des données industrielles pour la détection des vibrations torsionnelles dans un laminoir réversible (laminage à chaud). Les degrés de liberté de la méthode proposée confèrent aux méthodes développées la flexibilité par rapport à différentes applications.
|
45 |
Commande floue monovariable et multivariable selon l'expertise et par modélisation floue. (Méthodologie et application aux systèmes automobiles)Raymond, Christophe 22 September 1995 (has links) (PDF)
La commande floue est une alternative aux approches proposées par l'automatique classique pour le contrôle des systèmes complexes. Les objectifs de performance du système bouclé et les actions correspondantes sont synthétisés sous la forme de règles d'expertise, qui sont énoncées dans un langage simple. Cette technique permet donc de s'affranchir de l'utilisation de modèles mathématiques parfois difficiles à obtenir. Cette thèse s'inscrit dans la mouvance des travaux actuels avec pour résultats la synthèse de stratégies multivariables et l'application de la commande floue à des systèmes automobiles. Dans une première partie, les principes de la logique floue et de la commande floue sont rappelés. Les origines des non-linéarités de la commande sont explicitées, et l'auteur propose deux simplifications du mécanisme de traitement des règles permettant de réduire les temps de calcul. Dans une deuxième partie, la conception des lois de commande déduites de l'expertise est illustrée sur des exemples. L'acquisition de la connaissance, l'écriture des règles de commande et le réglage du contrôleur sont détaillés. Cette démarche est ensuite mise en œuvre sur deux problèmes de contrôle d'un moteur à injection directe. Les solutions proposées contribuent à l'amélioration du rendement tout en diminuant la pollution et la consommation. Enfin, cette méthode experte est employée pour résoudre un problème multivariable. Les limitations de l'approche précédente conduisent l'auteur, dans une dernière phase, à proposer une nouvelle méthode de conception des contrôleurs flous. Un modèle flou du système est identifié à partir d'un ensemble de mesures. Puis, les règles de commande sont déduites des règles du modèle par une pseudo-inversion. Pour favoriser les échanges d'information entre les experts du domaine et les automaticiens, les règles restent simples et explicites. Cette méthode est ensuite évaluée sur des systèmes monovariables et multivariables.
|
46 |
Vers une sémantique floue : application à la géolocalisationAbchir, M.-A. 25 November 2013 (has links) (PDF)
Dans le domaine du "calcul à l'aide de mots" (CW : Computing with words), les approches linguistiques floues ont démontré leur pertinence dans de nombreux problèmes de prise de décision. En effet, elles permettent de modéliser le raisonnement humain en remplaçant les mots, les évaluations, les préférences, les choix, les souhaits, etc. par des variables ad hoc, telles que les sous-ensembles flous ou des variables plus complexes. Dans cette thèse, nous partons d'un problème concret en géolocalisation : la configuration des boîtiers permettant le suivi des mobiles à surveiller et la mise en place des alertes liées au suivi. Il s'agit de mettre en place un système offrant la possibilité de passer des objectifs métiers de l'utilisateur final exprimés sous la forme de paramètres linguistiques (grâce à un dialogue en langage naturel) à une combinaison appropriée des paramètres techniques de l'application. La recherche a visé à montrer comment on peut améliorer une interface utilisateur existante pour passer d'un traitement quantitatif à un traitement qualitatif des occurrences d'événements et des contraintes de géolocalisation. Nous avons ainsi défini les extensions théoriques qui semblaient nécessaires dans le CW : un modèle, fondé sur les 2-tuples sémantiques que nous introduisons, permet de représenter, avec une grande précision et une grande justesse, des ensembles de termes linguistiques même lorsque ces derniers sont positionnés de façon fortement déséquilibrée sur leur axe. Ces 2-tuples sémantiques ont été mis en oeuvre pour interpréter sémantiquement les termes linguistiques issus du dialogue, en leur rattachant une sémantique floue contextuelle.
|
47 |
Modélisation et commande floues de type Takagi-Sugeno appliquées à un bioprocédé de traitement des eaux uséesGrisales Palacio, Victor Hugo 22 February 2007 (has links) (PDF)
Ce travail de thèse s'inscrit au carrefour de l'Automatique, de l'Intelligence Artificielle et des Biotechnologies. Il cherche à développer une méthodologie de modélisation et de commande qui repose sur une approche par logique floue. La première partie du travail présente une introduction aux principes et techniques mises en Suvre dans les stations d'épuration actuelles, et met en évidence la difficulté de modélisation des différents phénomènes mis en jeu. A partir de ce constat, dans une deuxième partie, focalisée sur la modélisation et la commande floues, nous développons d'abord l'identification de modèles flous affines de type Takagi-Sugeno (TS) à partir de données entrées-sorties. Nous considérons différentes méthodes de coalescence floue et une méthode d'agglomération compétitive, robuste en présence de bruit. Ce type d'approche " boîte grise " permet une représentation à base de règles qui approxime la dynamique non linéaire comme une concaténation de sous-modèles localement linéaires sous la forme d'auto-régression non-linéaire (NARX). De plus, nous avons développé une version graphique de la boîte à outils pour la modélisation floue des systèmes (FMIDg). Ensuite, nous proposons une commande floue TS sous-optimale linéaire quadratique adaptée à la structure du modèle flou identifié, en utilisant la philosophie de commande du type compensation parallèle distribuée (PDC). La méthodologie globale est finalement testée et validée en simulation sur un bioprocédé aérobie de dépollution des eaux usées.
|
48 |
Système d'alignement d'une partition de musique basé sur la déformation dynamique étendue du tempsGagnon, Bruno January 2009 (has links)
Ce mémoire propose un système permettant de suivre, à l'aide d'un ordinateur domestique et d'un microphone, une partition de musique jouée par un musicien. Le système utilise en entrée une partition de musique et le signal audio numérique monophonique de la partition de musique jouée par le musicien. Contrairement aux systèmes habituels, le système proposé donne la liberté au musicien de jouer différents segments de la partition de musique dans l'ordre qu'il le désire, et ce, sans préalablement informer le système de ses intentions. Pour ce faire, le système propose une variante de l'algorithme de la déformation dynamique du temps ( Dynamic Time Warping ) utilisant des notions musicales pour effectuer le suivi. Il est à noter que la complexité du système est suffisamment faible pour qu'un ordinateur domestique récent puisse suivre le musicien pendant que celui-ci joue la partition de musique, et ce, avec un délai constant de quelques notes de musique.
|
49 |
Caractérisation de lésions tumorales par imagerie spectrale infrarouge associée à la biométrie floueSebiskveradze, David 29 June 2011 (has links)
En oncologie, l’anatomopathologie est le « gold standard » pour le diagnostic et l’évaluationpronostique de lésions tumorales à l’échelle tissulaire. Depuis peu, les spectroscopiesvibrationnelles, notamment IR, représentent des axes de développement prometteurs pour cettespécialité en ouvrant la voie à l’histologie spectrale. Bien que « la preuve de concept » de cettedémarche soit maintenant réalisée, il reste encore de nombreux points à traiter avant un transfertvers la clinique. Dans ce travail, nous nous sommes intéressés à deux d’entre eux, impliqués dans lavitesse d’obtention, la qualité et le contenu informatif des images spectrales ; à savoir ledéparaffinage numérique des coupes tissulaires et la construction automatique et non supervisée deces images par biométrie floue. Afin de s’affranchir du déparaffinage chimique, nous avons montréque comparativement à l’ICA-NCLS, la méthode de prétraitement des spectres IR par EMSCs’avère la plus adaptée à l’élimination de la signature spectrale de la paraffine. Cette étape permetdonc l’utilisation directe de coupes tissulaires conventionnelles en histologie spectrale et rendpossible des études rétrospectives. La construction d’images spectrales capables de révéler les zonestumorales et les différentes structures tissulaires nécessite des méthodes performantes declassification des données IR. Basé sur la classification floue (FCM, Fuzzy C-Means), nous avonsmis au point un algorithme permettant d’optimiser le nombre de classes K et le paramètre de flou mde façon automatique et simultanée. L’algorithme a été testé au niveau de différents types decancers cutanés comme des carcinomes basocellulaires (BCC), spinocellulaires (SCC), maladies deBowen et mélanomes et comparé aux classifications « dures », comme le K-means (KM) etl’analyse par classification hiérarchique (ACH). Les images FCM révèlent une forte hétérogénéitéintra-tumorale pour les BCC, SCC et mélanomes et permettent de mieux caractériserl’interconnectivité entre les structures tissulaires saines et tumorales. De plus, pour certainestumeurs infiltrantes comme les SCC, un front d’invasion tumoral est mis en évidence ainsi que sesconnexions avec le tissu environnant. En conclusion, l’ensemble de ces résultats souligne le fortpotentiel de l’association microspectroscopie IR/biométrie floue pour la caractérisation de lésionstumorales / In oncology, anatomical pathology is the "gold standard" for diagnosis and prognostic evaluation of tumor lesions on a tissue scale. Since recently, vibrational spectroscopies, especially IR spectroscopy, represent promising guidelines of development for this specialty paving the way for spectral histology. Although "proof of concept" of this approach is now done, there are still many issues before its transfer into the clinic. In this study we focused on two important issues, namely digital dewaxing of the paraffin-embedded tissue sections, and automatic and unsupervised construction of spectral images by fuzzy biometric methods, which are rapid and provide high quality content spectral information.In order to overcome the chemical dewaxing, we have shown that compared to the ICA-NCLS, the IR spectra preprocessing method by EMSC is better for the elimination of paraffin spectral signature. This step thus allows the direct use of conventional tissue sections in spectral histology and enables retrospective studies. The construction of spectral images which reveal tumor areas and the different tissue structures requires efficient methods of IR data clustering. Based on the fuzzy clustering (FCM, Fuzzy C-Means), we developed an algorithm permitting to automatically and simultaneously optimize the number of clusters K and the fuzzy parameter m. This algorithm was applied to different types of skin cancers such as basal cell carcinomas (BCC), squamous cell carcinomas (SCC), Bowen's diseases and melanomas and compared with the "hard" clustering methods as K-means (KM) and Analysis by Hierarchical Clustering (AHC). The FCM images reveal strong intratumoral heterogeneity for BCC, SCC and melanomas and allow better characterization of the interconnectivity between the tumor and healthy tissue structures. In addition, for some invasive tumors such as SCC, a tumor invasive front is highlighted as well as its connections with the surrounding tissue. In conclusion, all these results highlight the potential of the IR microspectroscopy/fuzzy biometric methods association for characterization of tumor lesions.
|
50 |
Fuzzy Gradual Pattern Mining Based on Multi-Core Architectures / Fouille de motifs graduels flous basée sur architectures multi-coeurQuintero Flores, Perfecto Malaquias 19 March 2013 (has links)
Les motifs graduels visent à décrire des co-variations au sein des données et sont de la forme plus l'âge est important, plus le salaire est élevé. Ces motifs ont fait l'objet de nombreux travaux en fouille de données ces dernières années, du point de vue des définitions que peuvent avoir de tels motifs et d'un point de vue algorithmique pour les extraire efficacement. Ces définitions et algorithmes considèrent qu'il est possible d'ordonner de manière stricte les valeurs (par exemple l'âge, le salaire). Or, dans de nombreux champs applicatifs, il est difficile voire impossible d'ordonner de cette manière. Par exemple, quand l'on considère l'expression de gènes, dire que l'expression d'un gène est plus importante que l'expression d'un autre gène quand leurs expressions ne diffèrent qu'à la dixième décimale n'a pas de sens d'un point de vue biologique. Ainsi, nous proposons dans cette thèse une approche fondée sur les ordres flous. Les algorithmes étant très consommateurs tant en mémoire qu'en temps de calcul, nous proposons des optimisations d'une part du stockage des degrés flous et d'autre part de calcul parallélisé. Les expérimentations que nous avons menées sur des bases de données synthétiques et réelles montrent l'intérêt de notre approche. / Gradual patterns aim at describing co-variations of data such as the older, the higher the salary. They have been more and more studied from the data mining point of view in recent years, leading to several ways of defining their meaning and and several algorithms to automatically extract them.They consider that data can be ordered regarding the values taken on the attributes (e.g. the age and the salary).However, in many application domains, it is hardly possible to consider that data values are crisply ordered. For instance, when considering gene expression, it is not true, from the biological point of view, to say that Gene 1 is more expressed than Gene 2 if the levels of expression only differ from the tenth decimal. This thesis thus considers fuzzy orderings and propose both formal definitions and algorithms to extract gradual patterns considering fuzzy orderings. As these algorithms are both time and memory consuming, we propose some optimizations based on an efficient storage of the fuzzy ordering informationcoupled with parallel algorithms. Experimental results run on synthetic and real database show the interest or our proposal.
|
Page generated in 0.0405 seconds