• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 59
  • 33
  • Tagged with
  • 240
  • 240
  • 127
  • 123
  • 50
  • 48
  • 32
  • 28
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Analyse des données et étude systématique de la réponse des détecteurs dans le cadre du projet PICASSO

Giroux, Guillaume January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
162

Nouvelles limites sur la détection directe de la matière sombre avec l’expérience PICASSO

Piro, Marie-Cécile 06 1900 (has links)
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses. / Astronomical and cosmological observations strongly suggest the presence of an exotic form of non-relativistic, non-baryonic matter that would represent 26% of the actual energy-matter content of the Universe. This so-called cold dark matter would be composed of Weakly Interactive Massive Particles (WIMP). PICASSO (Project In CAnada to Search for Supersymmetric Objects) aims to detect directly one of the dark matter candidates proposed in the framework of supersymmetric extensions of the standard model : the neutralino. The experiment is installed in the SNOLAB underground laboratory at Sudbury (Ontario) and uses superheated C4F10 droplets detectors, a variant of bubble chamber technique. Phase transitions in the superheated liquids are triggered by 19 F recoils caused by the elastic collision with neutralinos and create an acoustic signal which is recorded by piezoelectric sensors. This thesis presents recent progress in PICASSO leading to a substantially increased sensitivity in the search of neutralinos. New fabrication and purification procedures allowed a background reduction of about a factor 10 of the major detectors contamination caused by alpha emitters. Detailed studies allowed to localize these emitters in the detectors. In addition, data analysis efforts were able to improve substantially the discrimination between alpha particle induced events and those created by nuclear recoils. New analysis tools were also developed in order to discriminate between particle induced and non-particle induced events, such as electronic backgrounds and acoustic noise signals. An important new background suppression mechanism at higher temperatures led to the present improved sensitivity of PICASSO at low WIMP masses.
163

Méthodes socio-statistiques pour l’aide à la décision en milieu industriel : Application à la gestion des capacités d’un système d’information en industrie micro-électronique / Industrial decision-aid socio-statistical methods : Applied to the capacity management of an IS in the microelectronics industry

Lutz, Michel 14 May 2013 (has links)
Les données industrielles offrent un matériau pour la prise de décision. Les travaux présentés concernent la transformation de données brutes en connaissances, pour contribuer au système de connaissances d’une organisation et améliorer son système décisionnel. Un processus d’aide à la décision est proposé. Il implique les acteurs de l’organisation et l’emploi de méthodes formelles. D’abord, il analyse et formalise les problématiques décisionnelles. Ensuite, il construit une aide la décision quantitative. Cette méthodologie est appliquée à un problème particulier : la gestion des capacités des TI d’une usine de STMicroelectronics. En effet, les managers doivent assurer un équilibre entre le coût de l’infrastructure TI et le niveau de service offert. Notre processus offre une aide pertinente. Il permet de surmonter deux enjeux, fréquents lors de la gestion des capacités : la complexité des systèmes IT et la prise en compte de l’activité métier. Situant ces travaux dans le cadre du référentiel ITIL, l’application du processus permet de constituer des modèles prédictifs, mettant en relation l’activité des serveurs informatiques et l’activité industrielle. Cette application permet aussi de contrôler dynamiquement la validité des modèles, ainsi que l’activité quotidienne du SI. Nos travaux formalisent quantitativement des connaissances, en favorisent l’utilisation dans les processus décisionnels, et en assurent l’évolution dans le temps. Nos recherches posent des fondations pour un plus large recours plus à l’exploitation des données issues des systèmes de production, dans le cadre du développement de systèmes de support à la décision et de perspectives Big Data. / A proper analysis of industrial data can provide material for decision making. The research work presented deals with the question: how can one convert raw data into useable information, to contribute to the knowledge management of an organization and improve its dynamic decision making? A decision-aid process is proposed. It implies actors of the organization and use of formal methods. Firstly, it analyses and formalizes decisional problems. Then, it develops an appropriate decision-aid on the basis of statistics. Our methodology is applied to a specific issue: capacity management of IT of a STMicroelectronics plant. This application raises a decision issue: managers have to ensure the right balance between infrastructure cost and service level offered. We demonstrate that the process may provide relevant support. This negates two managerial dilemmas, usually encountered when managing capacity: complexity of IT systems and incorporation of the business activity. Our application has been developed in the scope of the ITIL framework. It will be shown how the process builds predictive models, which link the activity of hardware servers to the industrial activity. Methods are also proposed, to monitor daily the quality of these models, as well as the overall activity of the IS. This work helps at formalizing quantitatively organizational knowledge, facilitating its use in decisional processes, but also ensuring its positive change over time. We hope this research is laying some foundations for a broader exploitation of the data stored in modern manufacturing systems, through future development of decision-support systems and Big Data initiatives.
164

Gestion du risque climatique par l'utilisation des produits dérivés d'assurance / Weather risk management using insurance derivatives

Mraoua, Mohammed 25 June 2013 (has links)
Cette thèse s’intéresse à la gestion du risque climatique par l’utilisation des produits dérivés climatiques. Les travaux réalisés dans le cadre de cette thèse sont une contribution aux aspects statistiques, économétriques et financiers de la modélisation et de l'évaluation des produits dérivés climatiques. Un intérêt particulier a été accordé au contexte marocain aussi bien au niveau du volet qualitatif que quantitatif. En plus des développements théoriques que nous avons apportés (tests statistiques pour vérifier l’impact du climat sur l’économie, amélioration d’un modèle de prévision de la température moyenne quotidienne, confirmation du choix de la température moyenne, au lieu des températures extrêmes, comme sous-jacent pour les contrats basés sur la température, etc.), nous avons proposé des cas de gestion entre opérateurs économiques marocains exerçant des activités sensibles à l’aléa climatique avec des profils de risque différents en leur apportant des solutions de couverture basées sur l’utilisation de produits dérivés climatiques. / This thesis focuses on the weather risk management by using weather derivatives. The work done in this thesis is a contribution to statistics, econometric and financial aspects of the modeling and the evaluation of weather derivatives. Particular attention was paid to the Moroccan context both in a qualitative point of view. In additionto theoretical developments that we have made (statistical tests to verify the impact of weather conditions on the economy, improvement of a model to forecast daily average temperatures, confirming the choice of the average temperature instead of extreme temperatures as the preferred under lying for contracts based on temperature, etc.), we also proposed case studies with Moroccan economic actors carrying out their weather sensitive activities and having different risk profiles and we provide them hedging solutions based on the use of weather derivatives.
165

Analyse des comportements et expérience utilisateurs d'une plateforme de visioconférence pour l'enseignement des langues : Le cas de la phase 1.0 de VISU / User behaviour analysis and user experience in a videoconferencing platform : VISU, phase 1.0

Codreanu, Tatiana 30 June 2014 (has links)
Cette recherche a pour objet l’étude des comportements des utilisateurs d’une plateforme de visioconférence poste à poste. Les utilisateurs de la plateforme sont deux groupes de tuteurs et leurs étudiantes ; le groupe de tuteurs est constitué de tuteurs en formation (de futurs enseignants en formation universitaire professionnalisante) et d’enseignants de FLE utilisant les outils du web 2.0. Cette recherche a pour cadre l’enseignement du FLE à destination d’un groupe d'étudiantes américaines de l’université de Californie Berkeley donné de janvier à mars 2010 sur une plateforme d’apprentissage vidéographique synchrone. La plateforme VISU, a été développé suivant une démarche originale, la conception d’une plateforme destinée a l’enseignement/apprentissage des langues. La particularité de ce projet réside dans le fait qu’un équipe de chercheurs et de développeurs ont accompagné les tuteurs et les étudiantes lors de cette expérimentation afin d’améliorer l’utilisabilté de VISU d’une séance sur l’autre. À travers une analyse de deux tâches dans les configurations qui placent un tuteur devant deux étudiantes, deux tuteurs devant deux étudiantes et un tuteur devant une étudiante, et d’une micro-analyse portant sur la transmission des consignes, nous tentons d’observer le discours et la mimo-gestualité témoignant de leur expérience utilisateur au contact de la technologie utilisée. Nous étudions également l’utilisation qu’ils font des différents outils textuels de communication, des ressources présentes sur la plateforme, ainsi que celle de la caméra. Nous discutons les résultats qualitatifs en vue de mettre au jour leurs comportements d’utilisateurs d’une plateforme en cours de construction. La méthode s’appuie sur la triangulation des données. Aux échanges en ligne du corpus multimodal est appliquée une analyse de la mimo-gestualité, ainsi qu’analyse de discours et des interactions. Des entretiens, des questionnaires et les perceptions des étudiantes et des tuteurs viennent éclairer l’analyse de leur vécu et de leur ressenti. Ce travail de recherche tente donc à travers la description de la communication pédagogique synchrone de mieux comprendre les différentes pratiques, principalement discursives et mimo-gestuelles, des tuteurs et des étudiantes engagés dans une formation en ligne. / This research studies the behavior of users of a desktop videoconferencing platform VISU (designed to deliver online courses), through the multimodal pedagogical communication of two groups of teachers: trainee tutors and experienced teachers based in different locations who taught French as a Foreign Language to a group of students from UC Berkeley in 2010. A team of researchers and developers worked together with the tutors in this experiment to improve the usability of the platform, which was under construction during the course of the study. In understanding the experience of users while using the tool, due to the performance limitations of the tool under construction, a new method of analysing data was devised in which user behavior was studied through discourse analysis, mimogestuality and the usage of tools including chat and webcam. Specifically, we analysed the usage of different tools (text based tools) as well as the webcam’s effects on user behavior. Then, through a micro analysis of the pedagogical instruction, we identified the role of these different communication tools used by the tutors in conveying the meaning of the task to be carried out. Interviews, questionnaires and perceptions of students and tutors were gathered to inform the analysis of their experiences and their feelings. This research therefore attempts, through the description of the synchronous teaching communication, to better understand the different practices, mainly discursive and mimo-gestural, of tutors and students engaged in the multimodal learning. In addition, a key significance of this study is that it demonstrates the value of considering user experience (UX) in studies involving language learning through technology. At the same time, it also indicates the value of including discourse analysis and mimogestuality in user experience research involving interactive pedagogical tools.
166

Prise en compte des connaissances du domaine dans l'analyse transcriptomique : Similarité sémantique, classification fonctionnelle et profils flous : application au cancer colorectal / Using domain knowledge in the Transcriptomic analysis : Semantic similarity, functional classification and fuzzy profiles. Application to colorectal cancer

Benabderrahmane, Sidahmed 15 December 2011 (has links)
L'analyse bioinformatique des données de transcriptomique a pour but d'identifier les gènes qui présentent des variations d'expression entre différentes situations, par exemple entre des échantillons de tissu sain et de tissu malade et de caractériser ces gènes à partir de leurs annotations fonctionnelles. Dans ce travail de thèse, je propose quatre contributions pour la prise en compte des connaissances du domaine dans ces méthodes. Tout d'abord je définis une nouvelle mesure de similarité sémantique et fonctionnelle (IntelliGO) entre les gènes, qui exploite au mieux les annotations fonctionnelles issues de l'ontologie GO ('Gene Ontology'). Je montre ensuite, grâce à une méthodologie d'évaluation rigoureuse, que la mesure IntelliGO est performante pour la classification fonctionnelle des gènes. En troisième contribution je propose une approche différentielle avec affectation floue pour la construction de profils d'expression différentielle (PED). Je définis alors un algorithme d'analyse de recouvrement entre classes fonctionnelles et ensemble des références, ici les PEDs, pour mettre en évidence des gènes ayant à la fois les mêmes variations d'expression et des annotations fonctionnelles similaires. Cette méthode est appliquée à des données expérimentales produites à partir d'échantillons de tissus sains, de tumeur colo-rectale et de lignée cellulaire cancéreuse. Finalement, la mesure de similarité IntelliGO est généralisée à d'autres vocabulaires structurés en graphe acyclique dirigé et enraciné (rDAG) comme l'est l'ontologie GO, avec un exemple d'application concernant la réduction sémantique d'attributs avant la fouille. / Bioinformatic analyses of transcriptomic data aims to identify genes with variations in their expression level in different tissue samples, for example tissues from healthy versus seek patients, and to characterize these genes on the basis of their functional annotation. In this thesis, I present four contributions for taking into account domain knowledge in these methods. Firstly, I define a new semantic and functional similarity measure which optimally exploits functional annotations from Gene Ontology (GO). Then, I show, thanks to a rigorous evaluation method, that this measure is efficient for the functional classification of genes. In the third contribution, I propose a differential approach with fuzzy assignment for building differential expression profiles (DEPs). I define an algorithm for analyzing overlaps between functional clusters and reference sets such as DEPs here, in order to point out genes that have both similar functional annotation and similar variations in expression. This method is applied to experimental data produced from samples of healthy tissue, colorectal tumor and cancerous cultured cell line. Finally the similarity measure IntelliGO is generalized to another structured vocabulary organized as GO as a rooted directed acyclic graph, with an application concerning the semantic reduction of attributes before mining.
167

Modeling and Recognizing Network Scanning Activities with Finite Mixture Models and Hidden Markov Models / Modélisation et reconnaissance des activités de balayage du réseau à l'aide de modèles à mélange fini et de modèles de Markov cachés

De Santis, Giulia 20 December 2018 (has links)
Le travail accompli dans cette thèse a consisté à construire des modèles stochastiques de deux scanners de l'Internet qui sont ZMap et Shodan. Les paquets provenant de chacun des deux scanners ont été collectés par le Laboratoire de Haute Sécurité (LHS) hébergé à Inria Nancy Grand Est, et ont été utilisés pour construire par apprentissage des chaînes de Markov cachées (HMMs). La première partie du travail consistait à modéliser l'intensité des deux scanners considérés. Nous avons cherché à savoir si l'intensité de ZMap varie en fonction du service ciblé et si les intensités des deux scanners sont comparables. Les résultats ont montré que la réponse à la première question est positive (c'est-à-dire que l'intensité de ZMap varie en fonction des ports ciblés), alors que la réponse à la deuxième question est négative. En d'autres termes, nous avons obtenu un modèle pour chaque ensemble de logs. La partie suivante du travail consistait à étudier deux autres caractéristiques des mêmes scanners : leurs mouvements spatiotemporels. Nous avons créé des ensembles d'échantillons de logs avec chacune d'elle contient une seule exécution de ZMap et Shodan. Ensuite, nous avons calculé les différences d'adresses IP ciblées consécutivement par le même scanner (c.-à-d. dans chaque échantillon), et les timestamps correspondants. Les premiers ont été utilisés pour modéliser les mouvements spatiaux, tandis que les seconds pour les mouvements temporels. Une fois que les modèles de chaînes de Markov cachées sont construites, ils ont été appliqués pour identifier les scanners d'autres ensembles de logs. Dans les deux cas, nos modèles ne sont pas capables de détecter le service ciblé, mais ils détectent correctement le scanner qui génère de nouveaux logs, avec une précision de 95% en utilisant les mouvements spatiaux et de 98% pour les mouvements temporels / The work accomplished in this PhD consisted in building stochastic models of ZMap and Shodan, respectively, two Internet-wide scanners. More in detail, packets originated by each of the two considered scanners have been collected by the High Security Lab hosted in Inria, and have been used to learn Hidden Markov Models (HMMs). The rst part of the work consisted in modeling intensity of the two considered scanners. We investigated if the intensity of ZMap varies with respect to the targeted service, and if the intensities of the two scanners are comparable. Results showed that the answer to the first question is positive (i.e., intensity of ZMap varied with respect to the targeted ports), whereas the answer to the second question is negative. In other words, we obtained a model for each set of logs. The following part of the work consisted in investigating other two features of the same scanners: their spatial and temporal movements, respectively. More in detail, we created datasets containing logs of one single execution of ZMap and Shodan, respectively. Then, we computed di erences of IP addresses consecutively targeted by the same scanner (i.e., in each sample), and of the corresponding timestamps. The former have been used to model spatial movements, whereas the latter temporal ones. Once the Hidden Markov Models are available, they have been applied to detect scanners from other sets of logs. In both cases, our models are not able to detect the targeted service, but they correctly detect the scanner that originates new logs, with an accuracy of 95% when exploiting spatial movements, and of 98% when using temporal movements
168

Modélisation flexible du risque d’événements iatrogènes radio-induits / Flexible modeling of radiation-induced adverse events risk

Benadjaoud, Mohamed Amine 27 March 2015 (has links)
La radiothérapie occupe une place majeure dans l’arsenal thérapeutique des cancers.Malgré des progrès technologiques importants depuis près de vingt ans, des tissus sains au voisinage ou à distance de la tumeur cible continuent à être inévitablement irradiés à des niveaux de doses très différents. Ces doses sont à l’origine d’effets secondaires précoces (Œdème, radionécrose, Dysphagie, Cystite) ou tardifs (rectorragies, télangiectasie, effets carcinogènes, les pathologie cérébrovasculaires).Il est donc primordial de quantifier et de prévenir ces effets secondaires afin d'améliorer la qualité de vie des patients pendant et après leur traitement.La modélisation du risque d'événements iatrogènes radio-induits repose sur la connaissance précise de la distribution de doses au tissu sain d'intérêt ainsi que sur un modèle de risque capable d'intégrer un maximum d'informations sur le profil d'irradiation et des autres facteurs de risques non dosimétriques. L'objectif de ce travail de thèse a été de développer des méthodes de modélisation capables de répondre à des questions spécifiques aux deux aspects, dosimétriques et statistiques, intervenant dans la modélisation du risque de survenue d'événements iatrogènes radio-induits.Nous nous sommes intéressé dans un premier temps au développement d'un modèle de calcul permettant de déterminer avec précision la dose à distance due au rayonnements de diffusion et de fuite lors d'un traitement par radiothérapie externe et ce, pour différentes tailles des champs et à différentes distances de l'axe du faisceau. Ensuite, nous avons utilisé des méthodes d'analyse de données fonctionnelles pour développer un modèle de risque de toxicité rectales après irradiation de la loge prostatique. Le modèle proposé a montré des performances supérieures aux modèles de risque existants particulièrement pour décrire le risque de toxicités rectales de grade 3. Dans le contexte d'une régression de Cox flexible sur données réelles, nous avons proposé une application originale des méthodes de statistique fonctionnelle permettant d'améliorer les performances d'une modélisation via fonctions B-splines de la relation dose-effet entre la dose de radiation à la thyroïde.Nous avons également proposé dans le domaine de la radiobiologie une méthodes basée sur l’analyse en composantes principales multiniveau pour quantifier la part de la variabilité expérimentale dans la variabilité des courbes de fluorescence mesurées. / Radiotherapy plays a major role in the therapeutic arsenal against cancer. Despite significant advances in technology for nearly twenty years, healthy tissues near or away from the target tumor remain inevitably irradiated at very different levels of doses. These doses are at the origin of early side effects (edema, radiation necrosis, dysphagia, cystitis) or late (rectal bleeding, telangiectasia, carcinogenic, cerebrovascular diseases). It is therefore essential to quantify and prevent these side effects to improve the patient quality of life after their cancer treatment.The objective of this thesis was to propose modelling methods able to answer specific questions asked in both aspects, dosimetry and statistics, involved in the modeling risk of developing radiation-induced iatrogenic pathologies.Our purpose was firstly to assess the out-of-field dose component related to head scatter radiation in high-energy photon therapy beams and then derive a multisource model for this dose component. For measured doses under out-of-field conditions, the average local difference between the calculated and measured photon dose is 10%, including doses as low as 0.01% of the maximum dose on the beam axis. We secondly described a novel method to explore radiation dose-volume effects. Functional data analysis is used to investigate the information contained in differential dose-volume histograms. The method is applied to the normal tissue complication probability modeling of rectal bleeding for In the flexible Cox model context, we proposed a new dimension reduction technique based on a functional principal component analysis to estimate a dose-response relationship. A two-stage knots selection scheme was performed: a potential set of knots is chosen based on information from the rotated functional principal components and the final knots selection is then based on statistical model selection. Finally, a multilevel functional principal component analysis was applied to radiobiological data in order to quantify the experimental Variability for replicate measurements of fluorescence signals of telomere length.
169

Conception et développement d'un système multicapteurs en gaz et en liquide pour la sécurité alimentaire / Design and development of a gas and liquid multisensors system for food safety

Haddi, Zouhair 16 December 2013 (has links)
Les systèmes de nez et de langues électroniques à base de capteurs chimiques et électrochimiques constituent une solution avantageuse pour la caractérisation des odeurs et des saveurs émanant des produits agroalimentaires. La sélectivité croisée de la matrice des capteurs couplée aux méthodes de reconnaissance de formes est l'élément clé dans la conception et le développement de ces systèmes. Dans cette optique, nous avons démontré la capacité d'un dispositif expérimental de nez électronique à discriminer entre les différents types de drogues, à analyser la fraîcheur des fromages, à identifier entre les fromages adultérés et à différentier entre les eaux potables et usées. Nous avons également réussi à classifier correctement les eaux potables (minérales, de source, gazeuse et de robinet) et usées par utilisation d'une langue électronique potentiométrique. Cette étude a été validée par la Chromatographie en Phase Gazeuse couplée à la Spectrométrie de Masse (CPG-MS). En outre, nous avons développé une langue électronique voltammétrique à base d'une électrode de Diamant Dopé au Bore pour différencier les phases de traitement des eaux usées domestiques et hospitaliers et pour identifier les différents métaux lourds (Pb, Hg, Cu, Cd, Ni et le Zn) contenus dans l'eau du fleuve Rhône. La Voltammétrie à Redissolution Anodique à Impulsion Différentielle (DPASV) a été utilisée comme une méthode électrochimique pour caractériser les eaux étudiées. Enfin, les systèmes multicapteurs hybrides se sont avérés un bon outil analytique pour caractériser les produits de l'industrie agroalimentaire tels que les jus tunisiens et les huiles d'olives marocaines / Electronic noses and tongues systems based on chemical and electrochemical sensors are an advantageous solution for the characterisation of odours and tastes that are emanating from food products. The cross-selectivity of the sensor array coupled with patter recognition methods is the key element in the design and development of these systems. In this context, we have demonstrated the ability of an electronic nose device to discriminate between different types of drugs, to analyse cheeses freshness, to identify adulterated cheeses and to differentiate between potable and wastewaters. We have also succeeded to correctly classify drinking waters (mineral, natural, sparkling and tap) and wastewaters by using a potentiometric electronic tongue. This study was validated by Gas Chromatography coupled with Mass Spectrometry (GC-MS). Furthermore, we have developed a voltammetric electronic tongue based on a Diamond Doped Boron electrode to differentiate treatment stages of domestic and hospital wastewaters and to identify different heavy metals (Pb, Hg, Cu, Cd, Ni and Zn) contained in Rhône river. The Differential Pulse Anodic Stripping Voltammetry (DPASV) was used as an electrochemical method to characterise the studied waters. Finally, the hybrid multisensor systems have proven to be good analytical tools to characterise the products of food industry such as Tunisian juices and Moroccan olive oils
170

L'approche Support Vector Machines (SVM) pour le traitement des données fonctionnelles / Support Vector Machines (SVM) for Fonctional Data Analysis

Henchiri, Yousri 16 October 2013 (has links)
L'Analyse des Données Fonctionnelles est un domaine important et dynamique en statistique. Elle offre des outils efficaces et propose de nouveaux développements méthodologiques et théoriques en présence de données de type fonctionnel (fonctions, courbes, surfaces, ...). Le travail exposé dans cette thèse apporte une nouvelle contribution aux thèmes de l'apprentissage statistique et des quantiles conditionnels lorsque les données sont assimilables à des fonctions. Une attention particulière a été réservée à l'utilisation de la technique Support Vector Machines (SVM). Cette technique fait intervenir la notion d'Espace de Hilbert à Noyau Reproduisant. Dans ce cadre, l'objectif principal est d'étendre cette technique non-paramétrique d'estimation aux modèles conditionnels où les données sont fonctionnelles. Nous avons étudié les aspects théoriques et le comportement pratique de la technique présentée et adaptée sur les modèles de régression suivants. Le premier modèle est le modèle fonctionnel de quantiles de régression quand la variable réponse est réelle, les variables explicatives sont à valeurs dans un espace fonctionnel de dimension infinie et les observations sont i.i.d.. Le deuxième modèle est le modèle additif fonctionnel de quantiles de régression où la variable d'intérêt réelle dépend d'un vecteur de variables explicatives fonctionnelles. Le dernier modèle est le modèle fonctionnel de quantiles de régression quand les observations sont dépendantes. Nous avons obtenu des résultats sur la consistance et les vitesses de convergence des estimateurs dans ces modèles. Des simulations ont été effectuées afin d'évaluer la performance des procédures d'inférence. Des applications sur des jeux de données réelles ont été considérées. Le bon comportement de l'estimateur SVM est ainsi mis en évidence. / Functional Data Analysis is an important and dynamic area of statistics. It offers effective new tools and proposes new methodological and theoretical developments in the presence of functional type data (functions, curves, surfaces, ...). The work outlined in this dissertation provides a new contribution to the themes of statistical learning and quantile regression when data can be considered as functions. Special attention is devoted to use the Support Vector Machines (SVM) technique, which involves the notion of a Reproducing Kernel Hilbert Space. In this context, the main goal is to extend this nonparametric estimation technique to conditional models that take into account functional data. We investigated the theoretical aspects and practical attitude of the proposed and adapted technique to the following regression models.The first model is the conditional quantile functional model when the covariate takes its values in a bounded subspace of the functional space of infinite dimension, the response variable takes its values in a compact of the real line, and the observations are i.i.d.. The second model is the functional additive quantile regression model where the response variable depends on a vector of functional covariates. The last model is the conditional quantile functional model in the dependent functional data case. We obtained the weak consistency and a convergence rate of these estimators. Simulation studies are performed to evaluate the performance of the inference procedures. Applications to chemometrics, environmental and climatic data analysis are considered. The good behavior of the SVM estimator is thus highlighted.

Page generated in 0.0772 seconds