• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2767
  • 905
  • 386
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4117
  • 1297
  • 978
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 575
  • 502
  • 393
  • 384
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
591

Evaluation à moyen et long terme du traitement endovasculaire des anévrismes intracrâniens par l'optimisation des séquences d'Angiographie par Résonance Magnétique : à propos d'une cohorte de patients, avec 1036 anévrismes cérébraux suivis depuis 1998

Gallas, Sophie 16 December 2009 (has links)
Depuis 1991, et l’apparition de matériels d’embolisation à détachement contrôlé, le traitement endovasculaire a remplacé progressivement la prise en charge chirurgicale des anévrismes intra cérébraux. Ce traitement endovasculaire des anévrismes est associé à un faible taux de morbidité et de mortalité. Différentes études ont montré sa fiabilité mais pour l instant toujours à court ou moyen terme. Il est par contre impératif de suivre les patients ayant été embolisés. L’artériographie cérébrale reste l’examen de référence même si l’IRM avec l’apparition de nouvelles séquences commence à être validée pour suivre ces patients. En 1998, nous avons rédigé un protocole de surveillance, des patients traités par voie endovasculaire en y incluant l’IRM. Depuis nous avons progressé sur la détection des reliquats et des patients à risque de nouveau saignement, en validant les premières séquences d’angioMR, puis en incluant des séquences de diffusion, des séquences avec injection de contraste à la recherche d’un rehaussement intra anévrismal, et maintenant des séquences de flux intra anévrismal. Toutes ces informations ont été comparées à l’examen de référence, l’artériographie cérébrale. Les contrôles IRM ont été réalisés sur des imageurs 1.5 Tesla et aussi sur l’imageur 3 Tesla pendant la période de mobilité au CHU de Reims. [...] / Since 1991 and the introduction of detachable intracranial coils, the endovasculary treatment of cerebral aneurysms has become an established treatment technique and has supplied surgical approach of these aneurysms. The rate of morbidity and mortality of this new technique is now well known and law. Initial Angiographic and clinical results were yet published with good outcome. Concern exists about long term reopening and the inherent risk of recurrent hemorrhage and long-term imaging follow-up is advocated. Digital Substract Hemorrhage was the gold standard for detection and follow-up of patients, but this diagnostic procedure is invasive and exposes the patient to a small risk of serious complication. MR angiography has been used as an alternative noninvasive imaging technique to assess the occlusion of coiled intracranial aneurysms with promising results. Since 1998, we have collected all patients with subarachnoid hemorrhage, and patients with cerebral aneurysms treated by endovascular approach. We have proposed different MRI sequences to valid this technique and improve this techniqueWe have compared 3D TOF to digital angiography, with sequences with injection of gadolinium. [...]
592

Evaluation des innovations endovasculaires pour le traitement des dissections aortiques de type B / Assessment of endovascular innovations for the treatment of type B aortic dissections.

Faure, Elsa 22 November 2018 (has links)
Le traitement endovasculaire est devenu en deux décennies le traitement de première intention pour les DAB aiguës compliquées. Cependant, le traitement endovasculaire des DAB aiguës n’est pas optimal et comporte des limitations, tant au niveau proximal que distal, sources de complications précoces et tardives.Notre travail proposait d’évaluer des techniques endovasculaires novatrices permettant d’optimiser le traitement au niveau de la crosse et en distalité au niveau de l’aorte thoraco-abdominale.Nous avons créé un modèle de dissection de type B sur aorte humaine cadavérique extensif et reproductible, se rapprochant au plus près des conditions cliniques et permettant l’évaluation in vitro des dispositifs prothétiques conçus pour aorte humaine.Nous avons évalué sur ce modèle in vitro de DAB aiguë le stenting nu extensif de l’aorte disséquée qui permettait de réaccoler le flap intimal de dissection de manière expérimentale mais entrainait une sténose dans 54% des cas sur les artères viscérales naissant de l’aorte lorsque celles-ci naissaient du faux chenal. Ces artères pouvaient être cathétérisées à travers les mailles du stent.Nous avons ensuite évalué les résultats cliniques de cette technique, associé à un ballonnement du stent, dans le traitement des DAB aiguës compliquées avec un remodelage complet immédiat de l’aorte thoraco-abdominale stentée, persistant à moyen terme et permettant de limiter l’évolution anévrysmale à moyen terme.Enfin nous avons montré sur modèle in vitro la faisabilité et la précision au largage d’une endoprothèse avec échancrure proximale créée par le chirurgien pour avancer la zone d’ancrage dans la crosse, permettant un traitement endovasculaire exclusif en urgence des DAB aiguë compliquée avec un collet court ou une atteinte de la crosse aortique.Ces résultats offrent des perspectives d’évolutions du traitement des dissections aortique de type B au stade aigu, mais aussi plus largement des perspectives d’évolution pour le traitement des dissections de type A, des dissections chroniques, et plus généralement des pathologies de la crosse. / Thoracic endovascular aortic repair (TEVAR) is considered as the first line therapy for complicated acute type B aortic dissection (cABAD). However, current endovascular treatment has limitation regarding the proximal anchoring when aortic arch is involved and regarding the dissected aorta distally to the stent graft leading to early and late complication.The aim of this work was to assess new endovascular techniques to optimise endovascular treatment of ABAD in the aortic arch and in the thoraco-abdominal aorta.We reported the first model of ABAD in human cadaveric aorta, which was reproducible, extended to the infra-renal aorta and close to clinical pattern, allowing for human aortic devices assessment.We assess on this model extensive bare metal stenting of the dissected aorta, which was effective in true lumen reexpansion but induced a drop in pressure in the visceral arteries in 54% when they were supplied by the false lumen.Then, we assessed the results of this technique, associated with balloon inflation of the bare stent in clinical practice, which allowed an immediate and mid-term persisting complete remodelling of the stented thoraco-abdominal aorta, with a low dissecting aneurysmal evolution at one year of follow-up.Finally we reported a model of physician modified scalloped stent graft on currently available thoracic aortic device to extend the proximal landing zone in the arch while preserving the supra aortic trunks.These finding allow for potential improvement of endovascular treatment of ABAD but also of acute type A dissection, chronic dissection and some other acute aortic arch diseases.
593

Reconstruction du signal ou de l'état basé sur un espace de mesure de dimension réduite / Signal state Reconstruction from Lower-dimensional Measurements

Yu, Lei 20 November 2011 (has links)
Le 21_eme siècle est le siècle de l'explosion informatique, des milliards de Données sont produites, collectées et stockées dans notre vie quotidienne. Les façons de collecter les ensembles de données sont multiples mais toujours en essayant d'optimiser le critère qui consiste _a avoir le maximum d'information dans le minimum de données numérique. Il est préférable de collecter directement l'information, car les informations étant contraintes sont dans un espace plus faible que celui où évolues les données (signaux ou états). Cette méthode est donc appelée \la collecte de l'information", et conceptuellement peut ^être résumée dans les trois étapes suivantes : (1) la modélisation, ceci consiste _a condenser l'information pertinente pour les signaux _a un sous-espace plus petit; (2) l'acquisition, ceci consiste _a collecter et préserver l'information dans un espace inferieur _a la dimension des données et (3) la restauration, ceci consiste _a reconstituer l'information dans son espace d'origine. En suivant cette pensée, les principales contributions de cette thèse, concernant les observateurs et le \Compressive Sensing" (CS) basé sur des modèles bay_esiens peuvent ^être unies dans le cadre de la collecte de l'information : les principaux problèmes concernés par ces deux applications peuvent ^être de façon analogue, scindés en les trois étapes sus- mentionnées. Dans la première partie de la th_ese, le problème réside dans le domaine des systèmes dynamiques où l'objectif est de retrouver l'état du système _a partir de la mesure de la sortie. Il nous faut donc déterminer si les états du système sont récupérables _a partir des mesures de la sortie et de la connaissance partielle ou totale du modèle dynamique, c'est le problème de l'observabilité. Ensuite de transposer notre problème dans une représentation plus appropriée, c'est l'écriture sous forme normale et en récupérer l'information, c'est la phase de synthèse d'observateur. Plus précisément dans cette partie, nous avons considéré une classe de systèmes à commutation haute fréquence allant jusqu'au phénomène de Zénon. Pour ces deux types de commutation les transitions de l'état discret sont considérées trop élevées pour ^être mesurées. Toutefois, la valeur moyenne obtenue par filtrage des transitions peut ^être acquise ce qui donne une connaissance partielle des états discrets. Ici, avec ces seuls informations partielles, nous avons discuté de l'observabilité et ceci par les approches géométrie différentielle et algébrique. Aussi, des observateurs ont été proposes par la suite. Dans la deuxième partie de cette thèse, nous avons abordé de la même manière le thème du CS qui est une alternative efficace à l'acquisition abondante de données faiblement informatives pour ensuite les compresser. Le CS se propose de collecter l'information directement de façon compressée, ici les points clés sont la modélisation du signal en fonction des connaissances a priori dont on dispose, ainsi que la construction d'une matrice de mesure satisfaisant la \restricted isometry property" et finalement la restauration des signaux originaux clairsemés en utilisant des algorithmes d'éparpillement régularisé et d'inversion linéaire. Plus précisément, dans cette seconde partie, en considérant les propriétés du CS liées _a la modélisation, la capture et la restauration, il est proposé : (1) d'exploiter les séquences chaotiques pour construire la matrice de mesure qui est appelée la matrice chaotique de mesure, (2) considérer des types de modèle de signal clairsemé et reconstruire le modèle du signal à partir de ces structures sous-jacentes des modèles clairsemés, et (3) proposer trois algorithmes non paramétriques pour la méthode bayesienne hiérarchique. Dans cette dernière partie, des résultats expérimentaux prouvent d'une part que la matrice chaotique de mesure a des propriétés semblables aux matrices aléatoires sous-gaussienne et d'autre part que des informations supplémentaires sur les structures sous-jacentes clairsemés améliorent grandement les performances de reconstruction du signal et sa robustesse vis-a-vis du bruit. / This is the era of information-explosion, billions of data are produced, collected and then stored in our daily life. The manners of collecting the data sets are various but always following the criteria { the less data while the more information. Thus the most favorite way is to directly measure the information, which, commonly, resides in a lower dimensional space than its carrier, namely, the data (signals or states). This method is thus called information measuring, and conceptually can be concluded in a framework with the following three steps: (1) modeling, to condense the information relevant to signals to a small subspace; (2) measuring, to preserve the information in lower dimensional measurement space; and (3) restoring, to reconstruct signals from the lower dimensional measurements. From this vein, the main contributions of this thesis, saying observer and model based Bayesian compressive sensing can be well uni_ed in the framework of information measuring: the main concerned problems of both applications can be decomposed into the above three aspects. In the _rst part, the problem is resided in the domain of control systems where the objective of observer design is located in the observability to determine whether the system states are recoverable and observation of the system states from the lower dimensional measurements (commonly but not restrictively). Speci_cally, we considered a class of switched systems with high switching frequency, or even with Zeno phenomenon, where the transitions of the discrete state are too high to be captured. However, the averaged value obtained through filtering the transitions can be easily sensed as the partial knowledge. Consequently, only with this partial knowledge, we discussed the observability respectively from differential geometric approach and algebraic approach and the corresponding observers are designed as well. At the second part, we switched to the topic of compressive sensing which is objected to sampling the sparse signals directly in a compressed manner, where the central fundamentals are resided in signal modeling according to available priors, constructing sensing matrix satisfying the so-called restricted isometry property and restoring the original sparse signals using sparse regularized linear inversion algorithms. Respectively, considering the properties of CS related to modeling, measuring and restoring, we propose to (1) exploit the chaotic sequences to construct the sensing matrix (or measuring operator) which is called chaotic sensing matrix, (2) further consider the sparsity model and then rebuild the signal model to consider structures underlying the sparsity patterns, and (3) propose three non-parametric algorithms through the hierarchical Bayesian method. And the experimental results prove that the chaotic sensing matrix is with the similar property to sub-Gaussian random matrix and the additional consideration on structures underlying sparsity patterns largely improves the performances of reconstruction and robustness.
594

Traitement de l'information en mode comptage appliqué aux détecteurs spectrométriques / Count-mode information processing applied to spectrometric detectors

Perenon, Rémi 08 October 2013 (has links)
La miniaturisation des composants électroniques conduit aujourd’hui au développement de capteurs ultra-sensibles. En particulier, les capteurs NEMS (systèmes électromécaniques nanométriques) ont maintenant une sensibilité suffisante pour détecter des molécules uniques. Ceci permet d’intégrer ces capteurs dans des dispositifs de spectrométrie de masse dont la particularité sera d’opérer en mode comptage de molécules uniques. Notre travail consiste à reconstruire le spectre de masse de la solution analysée à partir des signaux fréquentiels délivrés par les NEMS. Nous nous plaçons dans le cadre des approches problèmes inverses et des méthodes d’inférence bayésienne. Nous modélisons le système de mesure qui lie les inconnues aux signaux observés par un modèle graphique hiérarchique et nous introduisons un modèle de signal de type processus ponctuel marqué. Nous le comparons à un modèle de type processus à temps discret. Nous mettons en place un algorithme de déconvolution impulsionnelle intégrant une exploration de modèles qui réalise la détection des molécules analysées, l’estimation de leur masse et le comptage, afin de reconstruire le spectre de masse de la solution analysée. Nous présentons des résultats sur données simulées et sur des données expérimentales acquises au CEA/INAC sur des agrégats de Tantale en utilisant des capteurs NEMS développés au CEA-Leti/DCOS. Relativement aux méthodes de l’état de l’art, la méthode que nous proposons améliore le taux de comptage tout en gardant un taux de fausses détections suffisamment bas. Notre méthode délivre également les incertitudes sur les paramètres reconstruits. Enfin, nous développons le cas particulier de la reconstruction de spectres de masse discrets. / The miniaturization of electronic components drives the development of very sensitive sensors. In particular, NEMS (Nano ElectroMechanical Systems) are now sensitive enough to detect single molecules. This enables to use these sensors in order to design mass spectrometry devices, in an individual molecules counting mode. Our objective is to reconstruct the mass spectrum of the analyzed solution, based on the NEMS output signals. We use inverse problems approach and Bayesian framework. We model the acquisition system linking the unknown parameters to the observable signals with a hierarchical graphical model. We propose a marked-point process model of signal that we compare with discrete-time process one. We develop an impulse deconvolution algorithm which relies on a model exploration scheme. This enables us to detect the molecules, to quantify their mass and to count them in order to estimate the mass spectrum of the analyzed solution. We show results on simulated data and on experimental ones acquired in CEA/INAC using Tantalum nano-aggregates and devices developed in CEA-Leti/DCOS. Compared to state-of-the-art, our method offers high counting rate and keeps a low false detection rate. It also permits the computation of uncertainties on estimated values. Finally, we propose a derivation of the method to deal with the reconstruction of discrete mass spectra.
595

Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique / Analysis of water flows videos for surface velocityestimation

Khalid, Musaab 05 June 2018 (has links)
Dans cette thèse, on s’intéresse à l’application du domaine de la vision par ordinateur à la vélocimétrie de surface des rivières. Les hydrauliciens utilisent déjà plusieurs routines de traitement d’images pour traiter des vidéos de rivières. Le but ultime est d’estimer la vitesse surfacique d’un cours d’eau par une méthode sans contact. Cela permet aux chercheurs d’éviter les risques liés au jaugeage intrusif des rivières, notamment en période de crue. Dans ce but, deux enjeux sont à prendre en compte. Tout d’abord, le mouvement apparent de la rivière dans l’espace image doit être estimé. Ensuite, ce mouvement, estimé en pixels par unité de temps, doit être transformé en une vitesse réelle exprimée en mètres par seconde par exemple. Jusqu’au présent, les méthodes de vélocimétrie par images imposent quelques contraintes sur les séquences pour qu’elles soient exploitables (notamment une caméra fixe et le besoin de la présence physique des équipes hydrauliques au site de jaugeage avant ou après l’événement). Dans cette thèse, on vise à élargir ce périmètre en incluant les vidéos prises par des amateurs (c’est à dire de paramètres inconnus, et avec un mouvement potentiel de la caméra) tout en présentant de meilleures solutions pour les enjeux précédemment mentionnés. / This thesis is an application of computer vision findings to river velocimetry research. Hydraulic research scientists already use various image processing techniques to process image sequences of rivers. The ultimate goal is to estimate free surface velocity of rivers remotely. As such, many risks related to intrusive river gauging techniques could be avoided. Towards this goal, there are two major issues need be addressed. Firstly, the motion of the river in image space need to be estimated. The second issue is related to how to transform this image velocity to real world velocity. Until recently, imagebased velocimetry methods impose many requirements on images and still need considerable amount of field work to be able to estimate rivers velocity with good accuracy. We extend the perimeter of this field by including amateur videos of rivers and we provide better solutions for the aforementioned issues. We propose a motion estimation model that is based on the so-called optical flow, which is a well developed method for rigid motion estimation in image sequences. Contrary to conventional techniques used before, optical flow formulation is flexible enough to incorporate physics equations that govern rivers motion. Our optical flow is based on the scalar transport equation and is augmented with a weighted diffusion term to compensate for small scale (non-captured) contributions. Additionally, since there is no ground truth data for such type of image sequences, we present a new evaluation method to assess the results. It is based on trajectory reconstruction of few Lagrangian particles of interest and a direct comparison against their manually-reconstructed trajectories. The new motion estimation technique outperformed traditional methods in image space. Finally, we propose a specialized geometric modeling of river sites that allows complete and accurate passage from 2D velocity to world velocity, under mild assumptions. This modeling considerably reduces the field work needed before to deploy Ground Reference Points (GRPs). We proceed to show the results of two case studies in which world velocity is estimated from raw videos.
596

Vers un procédé Fenton hétérogène pour le traitement en continu d’eau polluée par des polluants pharmaceutiques / To a heterogeneous Fenton process for continuous treatment of pharmaceutical wastewaters

Velichkova, Filipa Aleksandrova 20 January 2014 (has links)
Ce travail a pour objectif de développer un procédé couplant séparation membranaire et oxydation (photo-) Fenton hétérogène pour l’élimination du paracétamol dans l’eau. La réaction a d’abord été étudiée avec le fer en solution à pH acide (2,6) pour servir de référence aux études hétérogènes ultérieures. La méthodologie des plans d’expériences a permis de déterminer les paramètres influents (parmi température, concentrations d’oxydant et de catalyseur) et leurs interactions, et de modéliser les performances du procédé homogène. Des oxydes de fer sous la forme de particules nano- et micro-structurées (hématite, maghémite et magnétite) ou supportés sur zéolithes (type MFI ou BEA) ont ensuite été testés comme catalyseurs de l’oxydation Fenton. Pour chaque système étudié, on a évalué la conversion du polluant et du Carbone Organique Total (COT), mais aussi la stabilité du catalyseur : quantité de fer lixivié et activité du métal passé en solution (pour découpler la contribution du mécanisme homogène associé). L’effet des paramètres opératoires a ensuite été à nouveau évalué pour les catalyseurs sélectionnés (magnétite nanostructurée et Fe/MFI). Pour l’oxyde non supporté, l’étude met en évidence le rôle positif d’une augmentation de la température. A température et pH donnés, le rapport initial [oxyde de fer] / [H2O2] apparaît aussi comme le paramètre essentiel qui contrôle le taux de minéralisation, avec une inhibition de la réaction lorsque H2O2 est en trop large excès. Au contraire, pour le catalyseur Fe/MFI, une augmentation de la concentration d’oxydant se révèle bénéfique (sa consommation étant pratiquement totale dans tous les cas), et il y a peu d’effet de la température. Par ailleurs, la magnétite se révèle efficace à pH acide uniquement, tandis que le catalyseur supporté présente la même activité avec ou sans acidification préalable. L’irradiation UV améliore les performances de ces deux catalyseurs avec un abattement du COT en solution jusqu’à 70% en 5 heures, contre 98% pour le système homogène dans des conditions similaires. Les premiers tests en continu avec des particules de Fe/MFI retenues par une membrane d’ultrafiltration immergée sont prometteurs, puisque l’activité est restée stable pendant plus de 40 h. / This work aims to develop a process coupling membrane separation and heterogeneous (photo-) Fenton oxidation for the elimination of paracetamol in water. The reaction was first studied with dissolved iron in acidic solution (pH 2.6), as a reference for the subsequent heterogeneous studies. The methodology of experimental design was used to determine the significant parameters (including temperature, oxidant and catalyst concentrations) and their interactions, and to model the performance of the homogeneous process. Iron oxides as nano- and micro-structured particles (hematite, maghemite and magnetite) or supported on zeolites (MFI or BEA type) were then tested as catalysts for the Fenton oxidation. For each studied system the conversions of pollutant and Total Organic Carbon (TOC) were evaluated, as well as the catalyst stability: amount and activity of leached iron (in order to decouple the contribution of homogeneous mechanism). The effect of process parameters was then again evaluated for the selected catalysts (nanostructured magnetite and Fe/MFI). For magnetite, the study reveals a positive effect of temperature. At given temperature and pH, the initial ratio of [iron oxide] to [H2O2] also appears as a key parameter that controls the mineralization yield, with an inhibition of the reaction when H2O2 is in large excess. Conversely, for Fe/MFI catalyst, the increase in oxidant concentration is beneficial (oxidant being almost fully consumed in all cases), and temperature has a poor effect. Furthermore, magnetite is only effective at acidic pH, while supported catalyst exhibits same activity with or without prior acidification. UV irradiation improves the performance of these catalysts with a reduction of TOC in solution up to 70% within 5 hours, against 98% for the homogeneous system under similar conditions. The results of the first continuous test, performed with Fe/MFI particles retained by a submerged ultrafiltration membrane, are promising: a stable activity has been observed for over 40 h.
597

Fuzzy logic pattern in text and image data analysis / Motifs de la logique floue pour l'analyse des sentiments et en imagerie

Nderu, Lawrence 14 December 2015 (has links)
La logique floue est aujourd'hui universellement admise comme discipline ayant fait ses preuves à l'intersection des mathématiques, de l'informatique, des sciences cognitives et de l'Intelligence Artificielle. En termes formels, la logique floue est une extension de la logique classique ayant pour but de mesurer la flexibilité du raisonnement humain, et permettant la modélisation des imperfections des données, en particulier, les deux imperfections les plus fréquentes : l'imprécision et l'incertitude. En outre, la logique floue ignore le principe du tiers exclu et celui de non-contradiction.Nous n'allons pas, dans ce court résumé de la thèse, reprendre et définir tous les concepts de cet outil devenu désormais classique : fonction d'appartenance, degré d'appartenance, variable linguistique, opérateurs flous, fuzzyfication, défuzzication, raisonnement approximatif … L'un des concepts de base de cette logique est la notion de possibilité qui permet de modéliser la fonction d'appartenance d'un concept. La possibilité d'un événement diffère de sa probabilité dans la mesure où elle n'est pas intimement liée à celle de l'événement contraire. Ainsi, par exemple, si la probabilité qu'il pleuve demain est de 0,6, alors la probabilité qu'il ne pleuve pas doit être égale à 0,4 tandis que les possibilités qu'il pleuve demain ou non peuvent toutes les deux être égales à 1 (ou encore deux autres valeurs dont la somme peut dépasser 1).Dans le domaine de l'informatique, l'apprentissage non supervisé (ou « clustering ») est une méthode d'apprentissage automatique quasi-autonome. Il s'agit pour un algorithme de diviser un groupe de données, en sous-groupes de manière que les données considérées comme les plus similaires soient associées au sein d'un groupe homogène. Une fois que l'algorithme propose ces différents regroupements, le rôle de l'expert ou du groupe d'experts est alors de nommer chaque groupe, éventuellement diviser certains ou de regrouper certains, afin de créer des classes. Les classes deviennent réelles une fois que l'algorithme a fonctionné et que l'expert les a nommées.Encore une fois, notre travail, comme tous les travaux du domaine, vise à adapter les modèles traditionnelles d'apprentissage et/ou de raisonnement à l'imprécision du monde réel. L'analyse des sentiments à partir de ressources textuelles et les images dans le cadre de l'agriculture de précision nous ont permis d'illustrer nos hypothèses. L'introduction par le biais de notre travail du concept de motifs flous est sans aucun doute une contribution majeure.Ce travail a donné lieu à trois contributions majeures : / Standard (type-1) fuzzy sets were introduced to mimic human reasoning in its use of approximate information and uncertainty to generate decisions. Since knowledge can be expressed in a natural way by using fuzzy sets, many decision problems can be greatly simpli_ed. However, standard type-1 fuzzy sets have limitations when it comes to modelinghuman decision making.When Zadeh introduced the idea of higher types of fuzzy sets called type-n fuzzy sets andtype-2 fuzzy sets, the objective was to solve problems associated with modeling uncertainty using crisp membership functions of type-1 fuzzy sets. The extra dimension presented by type-2 fuzzy sets provides more design freedom and exibility than type-1 fuzzy sets. The ability of FLS to be hybridized with other methods extended the usage of Fuzzy LogicSystems (FLS) in many application domains. In architecture and software engineering the concept of patterns was introduced as a way of creating general repeatable solutions to commonly occurring problems in the respective_elds. In software engineering for example, the design pattern is not a _nished design that can be transformed directly into code. It is a description or template on how to solve a problem that can be used in many di_erent situations. This thesis introduces the novel concept of fuzzy patterns in T2 FLS. Micro-blogs and social media platforms are now considered among the most popular forms of online communication. Through a platform like TwitterTM much information reecting people's opinions and attitudes is published and shared among users on a daily basis. This has brought great opportunities to companies interested in tracking and monitoring the reputation of their brands and businesses, and to policy makers and politicians to support their assessment of public opinions about their policies or political issues. Thisresearch demonstrates the importance of the neutral category in sentiment polarity analysis, it then introduces the concept of fuzzy patterns in sentiment polarity analysis. The xvii Interval Type-2 Fuzzy Set (IT2 FS), were proposed by reference [Men07c] to model words. This is because it is characterized by its Footprint Of Uncertainty (FOU). The FOU providesa potential to capture word uncertainties. The use of IT2 FS in polarity sentiment classi_cation is demonstrated. The importance of the neutral category is demonstrated in both supervised and unsupervised learning methods. In the _nal section the concept of fuzzy patterns in contrast
598

Séparation aveugle des sources polarimétriques en télédétection RSO satellitaire à très haute résolution spatiale / Very high-resolution polarimetric SAR image characterization through blind sources separation techniques / Karakterizacija polarimetrijskih SAR slika velike rezolucije tehnikama slijepog razdvajanja izvora

Besic, Nikola 21 November 2014 (has links)
Cette thèse est composée de deux axes de recherche. Le premièr, plutôt méthodologique, consiste de nos efforts pour répondre à des questions ouvertes dans la communauté de RSO polarimétrique, tandis que le second est plutôt lié à l'application spécifique - le télédétection du manteau neigeux.Suite à la modélisation statistique alternative des images RSO multivariées et haute- ment texturées, par le modèle SIRV, nous proposons d'abord une évaluation appropriée des paramètres de circularité et sphéricité, autrement à priori présumés. La dernière est accouplée avec le test de symétrie sphérique, ce qui forme une méthode pour l'évaluation de pertinence de modèle statistique SIRV dans le contexte de données RSO polarimétriques. Compte tenu du taux de réjection, cela parait justifié de mettre en question les hypothèses de circularité et sphéricité, alors que la pertinence de modèle SIRV doit être soupçonnée dans les régions caractérisées par la diffusion déterministe forte. En suite, comme le point culminant de cette thèse, nous proposons une décomposition incohérente de cible polarimétrique, basée sur l'ACI et fondée sur l'hypothèse de non-Gaussianité du clutter RSO polarimétrique. En exploitant l'information contenue dans les ordres statistiques supérieurs, cette décomposition donne à la sortie un ensemble de vecteurs de cible, qui sont mutuellement indépendants (plutôt que seule- ment décorrélés) et non-orthogonaux. Contrairement à la première composant dominante, qui parait presque identique à l'une estimée par le homologue conventionnel, la deuxième com- posante dominante diffère significativement, ce qui représente un potentiel additionnel pour l'interprétation des données RSO polarimétriques.Dans le contexte appliqué, la première contribution présentée serait une approche stochas- tique pour la cartographie du manteau neigeux au moyen de données RSO multi-temporelles. Les apports les plus notables de la méthode présentée à l'ensemble de techniques de la détec- tion de changements dans la cartographie du manteau neigeux, sont l'hypothèse modifiée du ratio de rétrodiffusion entre la neige sèche et la neige humide, aussi que la corrélation spatiale entre les régions de la neige humide, introduite en impliquant la statistique locale de speckle dans le processus de décision. Finalement, nous présentons la méthode non-autonome pour l'estimation spatiale de l'équivalent en eau de la neige (EEN), basée sur des données optiques. En utilisant avec succès des données de télédétection dans la calibration du modèle EEN externe, on essaie de démontrer l'utilité et la nécessite du télédétection dans la surveillance du manteau neigeux. / This thesis comprises two research axes. The first, being rather methodological, consists of our efforts to answer some of the open questions in the POLSAR community, while the latter is sooner related to the specific application - the remote sensing of snow.Following the alternative statistical modelling of highly textured multivariate SAR datasets by means of SIRV model, we propose the appropriate assessment of, otherwise assumed, cir- cularity and sphericity parameters. The last is coupled with the spherical symmetry test, forming a method for the evaluation of SIRV statistical model suitability in the context of POLSAR data. Given the rejection rate, challenging circularity and sphericity appears to be justified, while SIRV model pertinence must be doubted in the regions characterized by strong deterministic scattering. Further on, as the highlight of this thesis, we propose a po- larimetric incoherent target decomposition, based on ICA and founded on the hypothesis of non-Gaussianity of POLSAR clutter. By exploiting the information contained in the higher statistical orders, this decomposition provides at the output a set of mutually independent (rather than only decorrelated), non-orthogonal target vectors. Unlike the first dominant com- ponent, which is nearly identical to the one estimated by the conventional ICTD counterpart, the second dominant component differs significantly, which, as we anticipate, represents an additional potential for the POLSAR datasets interpretation.In the applied context, the first presented contribution would be a stochastic approach in snow mapping by means of multitemporal SAR datasets. The most notable supplements of the presented method to the ensemble of change detection techniques in snow mapping are the plausibly modified assumption of the wet/dry snow backscattering ratio and implicitly introduced spatial correlation between wet snow areas, achieved by directly implicating local speckle statistics in the decision process. Finally, we present the non-autonomous method for SWE spatial estimation, based on optical datasets. By successfully involving the remote sensing datasets in the calibration of the external SWE model, we seek to demonstrate the utility and the necessity of the former in the snow pack monitoring. / Ova teza podrazumijeva dva pravca istraživanja. Prvi, metodološki, predstavlja naše naporeda odgovorimo na neka od otvorenih pitanja u POLSAR zajednici, dok je drugi vezan zaspecifičnu aplikaciju - teledetekciju sniježnog pokrivača.Uzevši u obzir alternativno statističko modelovanje multivarijantnih SAR slika visoke rezolucijekoristeći SIRV model, mi predlažemo odgovarajuću estimaciju, uostalom pretpostavljenihparametara cirkularnosti i sfernosti. Integrišući posljednju u test sferne simetrije, formiranje metod za evaluaciju prikladnosti statističkog modela SIRV u kontekstu POLSAR slikavisoke rezolucije. Posmatrajući stopu odbacivanja, sumnja u opravdanost pretpostavke cirkularnostii sfernosti se čini opravdanom, dok pogodnost SIRV modela mora biti preispitana uregionima koje karakteriše jako determinističko elektromagnetno rasijanje. U nastavku, kaoprimarni doprinos ove teze, predlažemo polarimetrijsku nekoherentnu dekompoziciju mete,koja je bazirana na ICA metodu i zasnovana na hipotezi o otklonu od Gausove prirode POLSARclutter -a. Eksploatišući informaciju sadržanu u višim statističkim redovima, predloženadekompozicija daje na izlazu set međusobno nezavisnih (prije nego samo nekorelisanih), neortogonalnihvektora mete. Za razliku od prve dominante komponente, koja je skoro identičnakomponenti estimiranoj koristeći konvencionalnu ICTD metodu, druga dominanta komponentase značajno razlikuje, što predstavlja dodatan potencijal u interpretaciji POLSAR slika.Prvi prezentovani doprinos u primijenjenom kontekstu bio bi stohastički metod za mapiranjesniježnog pokrivača baziran na multitemporalnom setu SAR slika. Najznačajniji priloziprezentovane metode grupi tehnika "detekcije promjene" u mapiranju sniježnog pokrivača suopravdano promijenjena pretpostavka o količniku povratnog rasijanja djelimično otopljenog isuvog snijega, kao i implicitno uvedeno prostorna korelacija između regiona djelimično otopljenogsnijega, postignuta direktnim uvođenjem lokalne statistike speckle šuma u proces odlučivanja.Konačno, predlažemo neautonomni metod za prostornu estimaciju SWE parametra,zasnovan na optičkim slikama. Uspješno inflitrirajući teledetekciju u kalibraciju eksternogSWE modela, imamo za cilj demonstrirati njenu korisnost i neophodnost u monitoringu sniježnogpokrivača.
599

Conception d'une unité mobile pour le post-traitement d'eau utilisée pendant des opérations d'extinction d'incendie / Design of a mobile post-treatment unit for the water used during fire extinguishment

Baudequin, Clément 28 October 2011 (has links)
L’extinction de feux de liquides inflammables sur des installations industrielles telles que les dépôts de carburant ou les raffineries entraîne l'utilisation de milliers de mètres cubes d'eau, composé majeur des mousses anti-incendie. Ces dernières contiennent généralement des tensioactifs hydrocarbonés ainsi que des tensioactifs fluorés qui se retrouvent dans les eaux d'extinction, ainsi que les suies et les restes de solvants. Les tensioactifs fluorés jouent un rôle clé dans l'efficacité des mousses anti-incendie en raison de leur nature chimique particulière. En raison de la présence des tensioactifs fluorés, le traitement actuel de l'eau d'extinction d'incendie est l'incinération dans des incinérateurs haute température et résistant aux halogènes. Les tensioactifs sont des composés amphiphiles qui ont comme propriétés d'abaisser la tension superficielle de l'eau et de former des agrégats en solution : les micelles. Les tensioactifs peuvent également s'adsorber aux interfaces ainsi qu'aux surfaces solides, et éventuellement y former des agrégats de surface, analogues aux micelles en solution. L’objectif industriel de la présente thèse est de proposer une unité mobile de traitement de ces eaux afin de concentrer les composés fluorés et limiter les volumes à incinérer. Les critères de sélection des procédés que nous avons retenus sont les suivants : compacité, peu ou pas de produits chimiques ou solides nécessaires. L’objectif scientifique de ce travail est de mieux comprendre le comportement de ces composés au cours des procédés d’électrocoagulation/filtration et d’osmose inverse. Des essais préliminaires ont été réalisés et ont permis de choisir les procédés suivant : l'électrocoagulation couplée à la filtration comme prétraitement pour séparer les particules en suspension et les traces d’émulsions éventuelles de la phase aqueuse et l'osmose inverse comme traitement pour concentrer les tensioactifs fluorés. A l'échelle du laboratoire, l'électrocoagulation, permettant le retrait de la matière en suspension, a été optimisée pour des eaux d'extinction d'incendie pilotes et un mécanisme a été proposé. L'efficacité de ce procédé a ensuite été vérifiée sur un pilote industriel. L'osmose inverse d'eaux d'extinction d'incendie pilotes pré-traitées par électrocoagulation/filtration a montré de forts taux de rétention du tensioactif fluoré. Une comparaison de différents matériaux membranaires a été réalisée sur un module d’osmose inverse plan avec des solutions modèles. Des essais de filtration de longue durée, à l’échelle pilote, ont permis de suivre l’évolution de la rétention des tensioactifs et du flux de perméat. Ces données ont été utilisées pour réaliser le dimensionnement d’une unité mobile de post traitement d’eau d’extinction d’incendie. Les perspectives de ce travail sont les suivantes : La prise en charge de la réalisation d’une unité mobile devrait être menée par un partenaire de DuPont de Nemours qu’il reste à identifier. L’étude sur la modification de l’état de surface des membranes est poursuivie dans le cadre d’une nouvelle thèse et permettra à terme de mieux choisir les conditions opératoires de filtration et de nettoyage au cours des procédés membranaires et ainsi d’améliorer les performances du procédé. / Extinguishment of large solvent fire leads to the production of fire fighting water, which are collected thanks to the design of industrial infrastructures. Depending on the nature of the firefighting foam used, the resulting water may require the removal of fluorinated surfactants potentially present. After decantation of the organic phase, fire fighting waters essentially contain surfactants. Surfactants are amphiphilic chemicals having the ability to lower both interfacial and surface tensions by adsorbing in an oriented fashion at interface. Surfactant can form micellar aggregates in solution and on interfaces under certain conditions, and have a pronounced influence on interfacial phenomena. Hence, before considering any water treatment process, interfacial science and surfactant were introduced. This work has a dual purpose. The industrial purpose is to provide an economically viable alternative to water incineration. The foreseen unit will have to be mobile and able to extract fluorinated surfactants from water at a rate of 1-4.5 m3h-1 (20,000 m3 in 4-6 months). The scientific purpose of this work is the study of the behavior of surfactants in the context of water treatment processes. The state of the art of relevant water treatment processes and an experimental screening with real firefighting water permitted to identify two steps as likely to fit the constraints of a mobile unit: electrocoagulationfiltration coupled with reverse osmosis. The electrocoagulation process followed by filtration was applied to pilot, model and industrial firefighting waters. This process was found to remove efficiently the unwanted turbidity from pilot firefighting waters. Current knowledge about the separation mechanisms of small organic molecules in reverse osmosis has been reviewed, and rejection as well as flux decline were related to membrane, solution, and solute properties. Polyamide and cellulose acetate membrane materials were screened in a flat sheet cell. The stabilities of rejection and flux decline were confirmed during longer tests (several days) on an industrial pilot with the most appropriate membrane. A final design study confirmed the possibility to combine electrocoagulation-filtration and reverse osmosis to treat firefighting waters.
600

Différents traitements de surface des fibres de carbone et leur influence sur les propriétés à l'interface dans les composites fibres de carbone/résine époxyde / Different surface treatments of carbon fibers and their influence on the interfacial properties of carbon fiber/epoxy composites

Zhang, Jing 27 September 2012 (has links)
Les matériaux composites à base de fibres de carbone (CF) sont actuellement très utilises dans le domaine de l’aérospatiale, de la construction et du sport grâce à leurs excellentes propriétés mécaniques, une faible densité et une haute stabilité thermique. Les propriétés des composites dépendent fortement de la nature et de la qualité de l’interface fibre/matrice. Une bonne adhérence interfaciale permet un meilleur transfert de charge entre la matrice et les fibres. Les CFs sans traitement sont chimiquement inertes et présentent donc une faible adhérence vis-à-vis de la résine époxyde. Par ailleurs, les faibles propriétés transversales et interlaminaires limitent sensiblement la performance et la durée de vie des composites. Par conséquent, un type de renfort à base de fibres traitées est fortement souhaité pour améliorer les propriétés globales des composites, en particulier l'adhésion interfaciale entre les fibres et la matrice. Dans cette thèse, trois types de traitement de surface, l’ensimage, le traitement thermique et la croissance de nanotubes (CNTs), ont été appliqués aux CFs. En particulier, les CFs greffées de CNTs, se combinant avec les deux autres traitements, montrent la meilleure adhérence interfaciale avec la matrice époxyde. L’ensimage proposé peut améliorer la performance du CNT-CF hybride et minimiser les dommages aux fibres lors de la manipulation ultérieure tels que le transport et la préparation de composites. Tout d’abord, l’ensimage a été réalisé sur la surface des fibres par dépôt de résine époxyde en solution. L’ensimage permet de protéger les filaments au cours de la mise en oeuvre et favorise également la liaison fibre/matrice. Différentes formulations d’ensimage selon les proportions époxy/durcisseur ont été utilisées. La quantité d'ensimage déposée sur les fibres de carbone a été contrôlée en faisant varier la concentration de la solution d’ensimage. Ensuite, un traitement thermique, effectué sous un mélange de gaz à 600-750 oC, a permis de modifier la surface des CFs. L'influence de la composition du gaz, du temps de traitement et de la température sur les propriétés interfaciales des composites CFs/époxy a été systématiquement quantifiée. Enfin, des CNTs ont été greffés sur les CFs par une méthode de dépôt chimique en phase vapeur en continu afin d’obtenir un nouveau type de renfort hybride multi-échelle. Les CNTs greffés permettent d’augmenter la surface de contact et d’améliorer l’accrochage mécanique de la fibre avec la résine. De plus, ils pourraient améliorer la résistance au délaminage, les propriétés électriques et thermiques des composites. Les CFs greffées de CNTs de différentes morphologies et densités ont été produites en faisant varier les conditions de croissance. Après le traitement de surface, les essais de fragmentation ont été menés afin d’évaluer la résistance au cisaillement interfacial (IFSS) des composites CFs/époxy. Par rapport aux fibres vierges, l’ensimage et le traitement thermique ont contribué à une augmentation de l'IFSS de 35% et de 75%, respectivement. L'adhésion interfaciale entre la matrice époxyde et les fibres greffées avec CNTs pourrait être adaptée en faisant varier la morphologie, la densité de nombre et la longueur de CNT. Les CFs greffées avec 2% en masse de CNTs (10nm de diamètre) ont entraîné une amélioration de l'IFSS de 60%. Un traitement thermique et un ensimage pourraient contribuer à une augmentation supplémentaire de 108%. Il convient de mentionner que la dégradation des fibres n’a pas été observée après les divers traitements précédemment évoqués. Les résultats de ces travaux pourraient mener au développement de ces techniques à plus grande échelle pour la conception de structures à base de composites CFs/époxy. / Carbon fiber (CF)-reinforced polymer composites are widely used in aerospace, construction and sporting goods due to their outstanding mechanical properties, light weight and high thermal stabilities. Their overall performance significantly depends on the quality of the fiber-matrix interface. A good interfacial adhesion provides efficient load transfer between matrix and fiber. Unfortunately, untreated CFs normally are extremely inert and have poor adhesion to resin matrices. Meanwhile, poor transverse and interlaminar properties greatly limit the composite performance and service life. Therefore, a new kind of fiber-based reinforcement is highly desired to improve the overall composite properties, especially the interfacial adhesion between fiber and matrix. In this thesis, three kinds of surface treatment, including sizing, heat treatment and carbon nanotube (CNT) growth, were applied to CFs. In particular, CFs grafted with CNTs, combining with the other two treatments demonstrate superior interfacial adhesion to the tested epoxy matrix. The proposed epoxy sizing can improve the CNT-CF hybrid performance and prevent fiber damage during the subsequent handling such as transport and composite preparation. Firstly, epoxy-based sizing was applied onto the CF surface by the deposition from polymer solutions. Sizing could not only protect the carbon fiber surface from damage during processing but also improve their wettability to polymer matrix. A detailed study was conducted on the influence of the ratio of epoxy and amine curing agent in the sizing formulation. The sizing level on the fiber surface was controlled by varying the concentration of polymer solutions. Secondly, heat treatment in a gas mixture at 600-750 oC was used to modify the carbon fiber surface. The effect of gas mixture composition, treatment time and temperature on the interface was evaluated systematically. Thirdly, CNTs were in-situ grafted on the carbon fiber surface by a continuous chemical vapour deposition (CVD) process to obtain hierarchical reinforcement structures. These hybrid structures have the potential to improve the interfacial strength of fiber/epoxy composites due to the increased lateral support of the load-bearing fibers. Meanwhile, the CNT reinforcement could improve the composite delamination resistance, electrical and thermal properties. The CF grown with CNTs of different morphologies and densities were produced by varying CVD conditions. After the surface treatment, single fiber fragmentation test was used to assess the interfacial shear strength (IFSS) of carbon fiber/epoxy composites. Compared with the as-received CFs, the epoxy sizing and the heat treatment contributed to an improvement in IFSS of up to 35% and 75%, respectively. The interfacial adhesion between epoxy matrix and CNT-grafted fibers could be tailored by varying the CNT morphology, number density and length. The CFs grafted with 2 wt% CNTs of 10 nm in diameter resulted in an improvement in IFSS of around 60%. A further heat treatment and epoxy sizing could contribute to an additional increase of 108%. It’s worth to mention that no significant strength degradation of the fibers was observed after the surface treatments. This work could support the development of large-scale approach to CF surface treatment, and throw light on the design of structurally efficient CF/epoxy composites.

Page generated in 0.0644 seconds