• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 35
  • 1
  • Tagged with
  • 517
  • 265
  • 108
  • 94
  • 92
  • 84
  • 80
  • 79
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Modèles d'impact statistiques en agriculture : de la prévision saisonnière à la prévision à long terme, en passant par les estimations annuelles / Impact models in agriculture : from seasonal forecast to long-term estimations, including annual estimates

Mathieu, Jordane 29 March 2018 (has links)
En agriculture, la météo est le principal facteur de variabilité d’une année sur l’autre. Cette thèse vise à construire des modèles statistiques à grande échelle qui estiment l’impact des conditions météorologiques sur les rendements agricoles. Le peu de données agricoles disponibles impose de construire des modèles simples avec peu de prédicteurs, et d’adapter les méthodes de sélection de modèles pour éviter le sur-apprentissage. Une grande attention a été portée sur la validation des modèles statistiques. Des réseaux de neurones et modèles à effets mixtes (montrant l’importance des spécificités locales) ont été comparés. Les estimations du rendement de maïs aux États-Unis en fin d’année ont montré que les informations de températures et de précipitations expliquent en moyenne 28% de la variabilité du rendement. Dans plusieurs états davantage météo-sensibles, ce score passe à près de 70%. Ces résultats sont cohérents avec de récentes études sur le sujet. Les prévisions du rendement au milieu de la saison de croissance du maïs sont possibles à partir de juillet : dès juillet, les informations météorologiques utilisées expliquent en moyenne 25% de la variabilité du rendement final aux États-Unis et près de 60% dans les états plus météo-sensibles comme la Virginie. Les régions du nord et du sud-est des États-Unis sont les moins bien prédites. Le rendements extrêmement faibles ont nécessité une méthode particulière de classification : avec seulement 4 prédicteurs météorologiques, 71% des rendements très faibles sont bien détectés en moyenne. L’impact du changement climatique sur les rendements jusqu’en 2060 a aussi été étudié : le modèle construit nous informe sur la rapidité d’évolution des rendements dans les différents cantons des États-Unis et localisent ceux qui seront le plus impactés. Pour les états les plus touchés (au sud et sur la côte Est), et à pratique agricole constante, le modèle prévoit des rendements près de deux fois plus faibles que ceux habituels, en 2060 sous le scénario RCP 4.5 du GIEC. Les états du nord seraient peu touchés. Les modèles statistiques construits peuvent aider à la gestion sur le cours terme (prévisions saisonnières) ou servent à quantifier la qualité des récoltes avant que ne soient faits les sondages post-récolte comme une aide à la surveillance (estimation en fin d’année). Les estimations pour les 50 prochaines années participent à anticiper les conséquences du changement climatique sur les rendements agricoles, pour définir des stratégies d’adaptation ou d’atténuation. La méthodologie utilisée dans cette thèse se généralise aisément à d’autres cultures et à d’autres régions du monde. / In agriculture, weather is the main factor of variability between two consecutive years. This thesis aims to build large-scale statistical models that estimate the impact of weather conditions on agricultural yields. The scarcity of available agricultural data makes it necessary to construct simple models with few predictors, and to adapt model selection methods to avoid overfitting. Careful validation of statistical models is a major concern of this thesis. Neural networks and mixed effects models are compared, showing the importance of local specificities. Estimates of US corn yield at the end of the year show that temperature and precipitation information account for an average of 28% of yield variability. In several more weather-sensitive states, this score increases to nearly 70%. These results are consistent with recent studies on the subject. Mid-season maize crop yield forecasts are possible from July: as of July, the meteorological information available accounts for an average of 25% of the variability in final yield in the United States and close to 60% in more weather-sensitive states like Virginia. The northern and southeastern regions of the United States are the least well predicted. Predicting years for which extremely low yields are encountered is an important task. We use a specific method of classification, and show that with only 4 weather predictors, 71% of the very low yields are well detected on average. The impact of climate change on yields up to 2060 is also studied: the model we build provides information on the speed of evolution of yields in different counties of the United States. This highlights areas that will be most affected. For the most affected states (south and east coast), and with constant agricultural practice, the model predicts yields nearly divided by two in 2060, under the IPCC RCP 4.5 scenario. The northern states would be less affected. The statistical models we build can help for management on the short-term (seasonal forecasts) or to quantify the quality of the harvests before post-harvest surveys, as an aid to the monitoring (estimate at the end of the year). Estimations for the next 50 years help to anticipate the consequences of climate change on agricultural yields, and to define adaptation or mitigation strategies. The methodology used in this thesis is easily generalized to other cultures and other regions of the world.
402

Forêts uniformément aléatoires et détection des irrégularités aux cotisations sociales / Detection of irregularities in social contributions using random uniform forests

Ciss, Saïp 20 June 2014 (has links)
Nous présentons dans cette thèse une application de l'apprentissage statistique à la détection des irrégularités aux cotisations sociales. L'apprentissage statistique a pour but de modéliser des problèmes dans lesquels il existe une relation, généralement non déterministe, entre des variables et le phénomène que l'on cherche à évaluer. Un aspect essentiel de cette modélisation est la prédiction des occurrences inconnues du phénomène, à partir des données déjà observées. Dans le cas des cotisations sociales, la représentation du problème s'exprime par le postulat de l'existence d'une relation entre les déclarations de cotisation des entreprises et les contrôles effectués par les organismes de recouvrement. Les inspecteurs du contrôle certifient le caractère exact ou inexact d'un certain nombre de déclarations et notifient, le cas échéant, un redressement aux entreprises concernées. L'algorithme d'apprentissage "apprend", grâce à un modèle, la relation entre les déclarations et les résultats des contrôles, puis produit une évaluation de l'ensemble des déclarations non encore contrôlées. La première partie de l'évaluation attribue un caractère régulier ou irrégulier à chaque déclaration, avec une certaine probabilité. La seconde estime les montants de redressement espérés pour chaque déclaration. Au sein de l'URSSAF (Union de Recouvrement des cotisations de Sécurité sociale et d'Allocations Familiales) d'Île-de-France, et dans le cadre d'un contrat CIFRE (Conventions Industrielles de Formation par la Recherche), nous avons développé un modèle de détection des irrégularités aux cotisations sociales que nous présentons et détaillons tout au long de la thèse. L'algorithme fonctionne sous le logiciel libre R. Il est entièrement opérationnel et a été expérimenté en situation réelle durant l'année 2012. Pour garantir ses propriétés et résultats, des outils probabilistes et statistiques sont nécessaires et nous discutons des aspects théoriques ayant accompagné sa conception. Dans la première partie de la thèse, nous effectuons une présentation générale du problème de la détection des irrégularités aux cotisations sociales. Dans la seconde, nous abordons la détection spécifiquement, à travers les données utilisées pour définir et évaluer les irrégularités. En particulier, les seules données disponibles suffisent à modéliser la détection. Nous y présentons également un nouvel algorithme de forêts aléatoires, nommé "forêt uniformément aléatoire", qui constitue le moteur de détection. Dans la troisième partie, nous détaillons les propriétés théoriques des forêts uniformément aléatoires. Dans la quatrième, nous présentons un point de vue économique, lorsque les irrégularités aux cotisations sociales ont un caractère volontaire, cela dans le cadre de la lutte contre le travail dissimulé. En particulier, nous nous intéressons au lien entre la situation financière des entreprises et la fraude aux cotisations sociales. La dernière partie est consacrée aux résultats expérimentaux et réels du modèle, dont nous discutons.Chacun des chapitres de la thèse peut être lu indépendamment des autres et quelques notions sont redondantes afin de faciliter l'exploration du contenu. / We present in this thesis an application of machine learning to irregularities in the case of social contributions. These are, in France, all contributions due by employees and companies to the "Sécurité sociale", the french system of social welfare (alternative incomes in case of unemployement, Medicare, pensions, ...). Social contributions are paid by companies to the URSSAF network which in charge to recover them. Our main goal was to build a model that would be able to detect irregularities with a little false positive rate. We, first, begin the thesis by presenting the URSSAF and how irregularities can appear, how can we handle them and what are the data we can use. Then, we talk about a new machine learning algorithm we have developped for, "random uniform forests" (and its R package "randomUniformForest") which are a variant of Breiman "random Forests" (tm), since they share the same principles but in in a different way. We present theorical background of the model and provide several examples. Then, we use it to show, when irregularities are fraud, how financial situation of firms can affect their propensity for fraud. In the last chapter, we provide a full evaluation for declarations of social contributions of all firms in Ile-de-France for year 2013, by using the model to predict if declarations present irregularities or not.
403

On the use of statistical analysis for tribological evaluation of a solid lubricant / A propos de l'utilisation de méthodes statistiques pour l'évaluation tribologique d'un lubrifiant solide

Yang, Jiao 09 October 2013 (has links)
La dégradation des contacts tribologiques sous une sollicitation de fretting est un phénomène complexe lié à l’interaction entre deux corps sous une faible amplitude de débattement, ce qui limite la durée de vie des pièces de manière significative. La lubrification solide est de plus en plus utilisée dans les applications tribologiques pour réduire les frottements et protéger la surface du substrat contre l'usure par fretting. La performance du revêtement dépend de nombreux facteurs tels que les conditions de sollicitation, les propriétés du substrat, du contre-corps et du revêtement et l'adhérence entre le revêtement et le substrat. Les objectifs de cette thèse sont de discuter le frottement et le comportement en usure du revêtement sous différentes conditions et d'analyser l'effet des paramètres d’essai sur le coefficient de frottement et la durée de vie du revêtement, ce qui peut être effectivement utile pour l'évaluation de la qualité des revêtements. Les tests de fretting sont menés pour comprendre les relations entre le comportement tribologique d'un vernis à base de MoS2 et les conditions d’essai. Le revêtement est étudié pour différentes valeurs de force de contact, amplitude de déplacement, configuration de contact, position du revêtement, nature du substrat et épaisseur. L'effet de chaque facteur est évalué par l'analyse de variance. L'analyse de régression est utilisée pour prévoir la performance du revêtement. L'observation de l'évolution de la trace d’usure est réalisée pour expliquer l’importance des facteurs et les coefficients dans les équations de prédiction. En outre, l'analyse de fiabilité est utilisée pour décrire et prévoir le taux de survie du revêtement sous certaines conditions d’essai. Enfin, un modèle linéaire de durée de vie est évalué afin de prendre en compte l'amplitude de déplacement variable. / Fretting wear is considered as a complex wear phenomenon related to interaction between two sliding bodies under very low displacement amplitude, which limits the lifetime of elements significantly. Solid lubricant is more and more applied in tribological applications to reduce friction and protect the substrate surface from fretting wear. The performance of coating depends on many factors such as running conditions, properties of substrate, counterbody and coating, and adhesion between coating and substrate. The objectives of this thesis are to discuss the friction and wear behavior of the coating under different running conditions, and to analyze the effect of test parameters on the friction coefficient and lifetime of the coating, which can be effectively helpful for the evaluation of quality of the coating. Fretting experiments are carried out to understand the relationships between the tribological behavior of a MoS2 based varnish coating and running conditions. The coating is investigated under different contact forces, different displacement amplitudes, different contact configurations, different coating positions, different substrates and different thicknesses. The rank of effect of factors is evaluated by the analysis of variance. Regression analysis is used to predict the performance of coatings under certain running conditions. The observation of evolution of wear scar is applied to explain the rank of factor and coefficients in the prediction equations. Furthermore, the reliability analysis is used to describe and predict the survival rate of coatings under certain running conditions. Finally, a linear model for lifetime is assessed in order to take into account variable displacement amplitude.
404

Quelques Problèmes de Statistique autour des processus de Poisson / Some Statistical Problems Around Poisson Processes

Massiot, Gaspar 07 July 2017 (has links)
L’objectif principal de cette thèse est de développer des méthodologies statistiques adaptées au traitement de données issues de processus stochastiques et plus précisément de processus de Cox.Les problématiques étudiées dans cette thèse sont issues des trois domaines statistiques suivants : les tests non paramétriques, l’estimation non paramétrique à noyaux et l’estimation minimax.Dans un premier temps, nous proposons, dans un cadre fonctionnel, des statistiques de test pour détecter la nature Poissonienne d’un processus de Cox.Nous étudions ensuite le problème de l’estimation minimax de la régression sur un processus de Poisson ponctuel. En se basant sur la décomposition en chaos d’Itô, nous obtenons des vitesses comparables à celles atteintes pour le cas de la régression Lipschitz en dimension finie.Enfin, dans le dernier chapitre de cette thèse, nous présentons un estimateur non-paramétrique de l’intensité d’un processus de Cox lorsque celle-ci est une fonction déterministe d’un co-processus. / The main purpose of this thesis is to develop statistical methodologies for stochastic processes data and more precisely Cox process data.The problems considered arise from three different contexts: nonparametric tests, nonparametric kernel estimation and minimax estimation.We first study the statistical test problem of detecting wether a Cox process is Poisson or not.Then, we introduce a semiparametric estimate of the regression over a Poisson point process. Using Itô’s famous chaos expansion for Poisson functionals, we derive asymptotic minimax properties of our estimator.Finally, we introduce a nonparametric estimate of the intensity of a Cox process whenever it is a deterministic function of a known coprocess.
405

Le processus de transformation intérieure inscrit dans les grandes mythologies : illustration par la psychothérapie du jeu de sable / Process of inner transformation in the context of the great myth : illustration by sandplay therapy

Ladyguina, Anna 10 September 2012 (has links)
But : comparer le processus de transformation intérieure au cours de la psychothérapie par le Jeu de Sable avec la transformation du néophyte au cours des rites d’initiation chez les Chamans, dans l’Alchimie et dans les cultes à mystères en Egypte et en Grèce. Méthodologie : Analyse de 856 photos des jeux de sable construits par 28 enfants de 4 à 12 ans. Conclusion : Il existe une similitude entre le processus de transformation vécu en psychothérapie et la première des trois étapes de l'initiation vécue par le néophyte. On retrouve dans les jeux de sable des scénarios archétypiques qui peuvent être classés dans des catégories spécifiques associées aux différentes étapes de la transformation intérieure décrites dans les mythes initiatiques. / Aim : comparison between the stages of inner transformation in Sandplay therapy with children and the stages of initiation in the Mystery cults of the ancient Egyptians and Greeks, in Alchemy and in Shamanism. Sample : 28 children from 4 to 12 years old. Instrument of analysis : 856 photos made during the therapy. Results : We report on a similarity between the process of transformation in Sandplay therapy and the first stage of initiation in the different cultures. We found out that in Sandplay therapy the archetypes appeared according to the own internal logic of the transformation process described in the great myths. The archetypes can be classified in categories, which are specific to different stages of the inner transformation.
406

Modèles de substitution spatio-temporels et multifidélité : Application à l'ingénierie thermique / Spatio-temporal and multifidelity surrogate models : Application in thermal engineering

De lozzo, Matthias 03 December 2013 (has links)
Cette thèse porte sur la construction de modèles de substitution en régimes transitoire et permanent pour la simulation thermique, en présence de peu d'observations et de plusieurs sorties.Nous proposons dans un premier temps une construction robuste de perceptron multicouche bouclé afin d'approcher une dynamique spatio-temporelle. Ce modèle de substitution s'obtient par une moyennisation de réseaux de neurones issus d'une procédure de validation croisée, dont le partitionnement des observations associé permet d'ajuster les paramètres de chacun de ces modèles sur une base de test sans perte d'information. De plus, la construction d'un tel perceptron bouclé peut être distribuée selon ses sorties. Cette construction est appliquée à la modélisation de l'évolution temporelle de la température en différents points d'une armoire aéronautique.Nous proposons dans un deuxième temps une agrégation de modèles par processus gaussien dans un cadre multifidélité où nous disposons d'un modèle d'observation haute-fidélité complété par plusieurs modèles d'observation de fidélités moindres et non comparables. Une attention particulière est portée sur la spécification des tendances et coefficients d'ajustement présents dans ces modèles. Les différents krigeages et co-krigeages sont assemblés selon une partition ou un mélange pondéré en se basant sur une mesure de robustesse aux points du plan d'expériences les plus fiables. Cette approche est employée pour modéliser la température en différents points de l'armoire en régime permanent.Nous proposons dans un dernier temps un critère pénalisé pour le problème de la régression hétéroscédastique. Cet outil est développé dans le cadre des estimateurs par projection et appliqué au cas particulier des ondelettes de Haar. Nous accompagnons ces résultats théoriques de résultats numériques pour un problème tenant compte de différentes spécifications du bruit et de possibles dépendances dans les observations. / This PhD thesis deals with the construction of surrogate models in transient and steady states in the context of thermal simulation, with a few observations and many outputs.First, we design a robust construction of recurrent multilayer perceptron so as to approach a spatio-temporal dynamic. We use an average of neural networks resulting from a cross-validation procedure, whose associated data splitting allows to adjust the parameters of these models thanks to a test set without any information loss. Moreover, the construction of this perceptron can be distributed according to its outputs. This construction is applied to the modelling of the temporal evolution of the temperature at different points of an aeronautical equipment.Then, we proposed a mixture of Gaussian process models in a multifidelity framework where we have a high-fidelity observation model completed by many observation models with lower and no comparable fidelities. A particular attention is paid to the specifications of trends and adjustement coefficients present in these models. Different kriging and co-krigings models are put together according to a partition or a weighted aggregation based on a robustness measure associated to the most reliable design points. This approach is used in order to model the temperature at different points of the equipment in steady state.Finally, we propose a penalized criterion for the problem of heteroscedastic regression. This tool is build in the case of projection estimators and applied with the Haar wavelet. We also give some numerical results for different noise specifications and possible dependencies in the observations.
407

Estimation non-paramétrique du quantile conditionnel et apprentissage semi-paramétrique : applications en assurance et actuariat / Nonparametric estimation of conditional quantile and semi-parametric learning : applications on insurance and actuarial data

Knefati, Muhammad Anas 19 November 2015 (has links)
La thèse se compose de deux parties : une partie consacrée à l'estimation des quantiles conditionnels et une autre à l'apprentissage supervisé. La partie "Estimation des quantiles conditionnels" est organisée en 3 chapitres : Le chapitre 1 est consacré à une introduction sur la régression linéaire locale, présentant les méthodes les plus utilisées, pour estimer le paramètre de lissage. Le chapitre 2 traite des méthodes existantes d’estimation nonparamétriques du quantile conditionnel ; Ces méthodes sont comparées, au moyen d’expériences numériques sur des données simulées et des données réelles. Le chapitre 3 est consacré à un nouvel estimateur du quantile conditionnel et que nous proposons ; Cet estimateur repose sur l'utilisation d'un noyau asymétrique en x. Sous certaines hypothèses, notre estimateur s'avère plus performant que les estimateurs usuels.<br> La partie "Apprentissage supervisé" est, elle aussi, composée de 3 chapitres : Le chapitre 4 est une introduction à l’apprentissage statistique et les notions de base utilisées, dans cette partie. Le chapitre 5 est une revue des méthodes conventionnelles de classification supervisée. Le chapitre 6 est consacré au transfert d'un modèle d'apprentissage semi-paramétrique. La performance de cette méthode est montrée par des expériences numériques sur des données morphométriques et des données de credit-scoring. / The thesis consists of two parts: One part is about the estimation of conditional quantiles and the other is about supervised learning. The "conditional quantile estimate" part is organized into 3 chapters. Chapter 1 is devoted to an introduction to the local linear regression and then goes on to present the methods, the most used in the literature to estimate the smoothing parameter. Chapter 2 addresses the nonparametric estimation methods of conditional quantile and then gives numerical experiments on simulated data and real data. Chapter 3 is devoted to a new conditional quantile estimator, we propose. This estimator is based on the use of asymmetrical kernels w.r.t. x. We show, under some hypothesis, that this new estimator is more efficient than the other estimators already used.<br> The "supervised learning" part is, too, with 3 chapters: Chapter 4 provides an introduction to statistical learning, remembering the basic concepts used in this part. Chapter 5 discusses the conventional methods of supervised classification. Chapter 6 is devoted to propose a method of transferring a semiparametric model. The performance of this method is shown by numerical experiments on morphometric data and credit-scoring data.
408

Extending standard outdoor noise propagation models to complex geometries / Extension des modèles standards de propagation du bruit extérieur pour des géométries complexes

Kamrath, Matthew 28 September 2017 (has links)
Les méthodes d'ingénierie acoustique (e.g. ISO 9613-2 ou CNOSSOS-EU) approchent efficacement les niveaux de bruit générés par les routes, les voies ferrées et les sources industrielles en milieu urbain. Cependant, ces approches d'ingénierie sont limitées à des géométries de forme simple, le plus souvent de section rectangulaire. Ce mémoire développe donc, et valide, une approche hybride permettant l'extension des méthodes d'ingénierie à des formes plus complexes, en introduisant un terme d’atténuation supplémentaire qui représente l'effet d'un objet réel comparé à un objet simple.Le calcul de cette atténuation supplémentaire nécessite des calculs de référence, permettant de quantifier la différence entre objets simple et complexe. Dans la mesure où il est trop onéreux, numériquement, '’effectuer ce calcul pour tous les chemins de propagation, l'atténuation supplémentaire est obtenue par interpolation de données stockées dans un tableau et évaluées pour un large jeu de positions de sources, de récepteurs et de fréquences. Dans notre approche, le calcul de référence utilise la méthode BEM en 2.5D, et permet ainsi de produire les niveaux de référence pour les géométries simple et complexe, tout en tabulant leur écart. Sur le principe, d'autres approches de référence pourraient être utilisées.Ce travail valide cette approche hybride pour un écran en forme de T avec un sol rigide, un sol absorbant et un cas avec bâtiments. Ces trois cas démontrent que l'approche hybride est plus précise que l'approche d’ingénierie standard dans des cas complexes. / Noise engineering methods (e.g. ISO 9613-2 or CNOSSOS-EU) efficiently approximate sound levels from roads, railways, and industrial sources in cities. However, engineering methods are limited to only simple box-shaped geometries. This dissertation develops and validates a hybrid method to extend the engineering methods to more complicated geometries by introducing an extra attenuation term that represents the influence of a real object compared to a simplified object.Calculating the extra attenuation term requires reference calculations to quantify the difference between the complex and simplified objects. Since performing a reference computation for each path is too computationally expensive, the extra attenuation term is linearly interpolated from a data table containing the corrections for many source and receiver positions and frequencies. The 2.5D boundary element method produces the levels for the real complex geometry and a simplified geometry, and subtracting these levels yields the corrections in the table.This dissertation validates this hybrid method for a T-barrier with hard ground, soft ground, and buildings. All three cases demonstrate that the hybrid method is more accurate than standard engineering methods for complex cases.
409

A tensor perspective on weighted automata, low-rank regression and algebraic mixtures

Rabusseau, Guillaume 20 October 2016 (has links)
Ce manuscrit regroupe différents travaux explorant les interactions entre les tenseurs et l'apprentissage automatique. Le premier chapitre est consacré à l'extension des modèles de séries reconnaissables de chaînes et d'arbres aux graphes. Nous y montrons que les modèles d'automates pondérés de chaînes et d'arbres peuvent être interprétés d'une manière simple et unifiée à l'aide de réseaux de tenseurs, et que cette interprétation s'étend naturellement aux graphes ; nous étudions certaines propriétés de ce modèle et présentons des résultats préliminaires sur leur apprentissage. Le second chapitre porte sur la minimisation approximée d'automates pondérés d'arbres et propose une approche théoriquement fondée à la problématique suivante : étant donné un automate pondéré d'arbres à n états, comment trouver un automate à m<n états calculant une fonction proche de l'originale. Le troisième chapitre traite de la régression de faible rang pour sorties à structure tensorielle. Nous y proposons un algorithme d'apprentissage rapide et efficace pour traiter un problème de régression dans lequel les sorties des tenseurs. Nous montrons que l'algorithme proposé est un algorithme d'approximation pour ce problème NP-difficile et nous donnons une analyse théorique de ses propriétés statistiques et de généralisation. Enfin, le quatrième chapitre introduit le modèle de mélanges algébriques de distributions. Ce modèle considère des combinaisons affines de distributions (où les coefficients somment à un mais ne sont pas nécessairement positifs). Nous proposons une approche pour l'apprentissage de mélanges algébriques qui étend la méthode tensorielle des moments introduite récemment. . / This thesis tackles several problems exploring connections between tensors and machine learning. In the first chapter, we propose an extension of the classical notion of recognizable function on strings and trees to graphs. We first show that the computations of weighted automata on strings and trees can be interpreted in a natural and unifying way using tensor networks, which naturally leads us to define a computational model on graphs: graph weighted models; we then study fundamental properties of this model and present preliminary learning results. The second chapter tackles a model reduction problem for weighted tree automata. We propose a principled approach to the following problem: given a weighted tree automaton with n states, how can we find an automaton with m<n states that is a good approximation of the original one? In the third chapter, we consider a problem of low rank regression for tensor structured outputs. We design a fast and efficient algorithm to address a regression task where the outputs are tensors. We show that this algorithm generalizes the reduced rank regression method and that it offers good approximation, statistical and generalization guarantees. Lastly in the fourth chapter, we introduce the algebraic mixture model. This model considers affine combinations of probability distributions (where the weights sum to one but may be negative). We extend the recently proposed tensor method of moments to algebraic mixtures, which allows us in particular to design a learning algorithm for algebraic mixtures of spherical Gaussian distributions.
410

Gestion du Handover dans les réseaux hétérogènes mobiles et sans fil / Handover management in heterogenous mobile and wireless networks

Rahil, Ahmad 12 March 2015 (has links)
Depuis les années 90, la technologie réseau et radio mobile a fait l'objet de progrès phénoménaux. Cette avancée technologique s'est faite en parallèle du côté réseau, du côté application et du coté besoin de l’utilisateur. L’évolution rapide de la technologie a eu pour conséquence l’existence d’un environnement hétérogène où la couverture est assurée par la coexistence de plusieurs types de réseaux. Le défi soulevé par cette architecture est de pouvoir naviguer entre plusieurs réseaux d’une façon transparente. La navigation entre réseaux de types différents est connue sous le nom du Handover vertical. Le standard IEEE 802.21 offre une composante appelée Media Independent Handover (MIH) qui contient une fonction capable de transmettre l’état des liens du nœud mobile depuis les couches inférieures vers les couches supérieures. MIH s’intercale entre le niveau 2 et le niveau 3 dans la pile protocolaire. Le rôle principal de MIH est d’aider le nœud mobile à faire un transfert sans coupure entre des réseaux de types différents, mais la logique de sélection est laissée sans implémentation.Dans ce contexte nous avons travaillé sur l’amélioration de la gestion du Handover en proposant une nouvelle architecture appelée VHMC et basée sur MIH offrant des nouvelles méthodes de sélection du réseau destination. La première proposition est un nouvel algorithme nommé Multiple Criteria Selection Algorithm (MCSA) basé sur plusieurs paramètres de qualité du service. Nous avons utilisé le simulateur Network Simulator (NS2) pour évaluer nos propositions en étudiant le nombre de paquets perdus et le temps de latence du Handover durant la période du transfert. La deuxième contribution est un nouveau modèle de sélection du réseau destination basé sur la technique de la logique floue. La base d’inférence, qui est l’élément central de la décision de ce modèle, est déduit grâce à une étude basée sur un nombre élevé de cas de Handover réels collectés des serveurs de la compagnie de télécommunication libanaise "Alfa". Une troisième solution est proposée à travers un nouveau modèle de sélection du réseau destination basé sur la théorie de la régression linéaire multiple. / Since 1990, networking and mobile technologies have made a phenomenal unprecedented progress. This progress has been experienced on multiple fronts in parallel; especially on the application level and the user's needs one. This rapid evolution of the technology imposed a need for the existence of heterogeneous environments where the coverage is ensured throughout the different available networks. The challenge with such architecture would be to provide the user with the ability to navigate through the different available networks in a transparent and seamless fashion. However, the navigation among different types of networks is commonly referred to as vertical Handover. The IEEE 802.21 standard offers a component that is called Media Independent Handover (MIH) which has a function that provides the capability of transmitting the state of the connection of the mobile nodes from the lower to upper layers. This layer would exist between layer 2 and layer 3 within the protocol architecture. The main role of MIH is to help the mobile node transfer without interrupt among different types of networks, but the logic of selection is left without implementation. In this context, we worked on the improvement of the Handover management by proposing a new architecture, called VHMC and based on MIH by offering new methods for selecting the destination network. The first solution is a new algorithm called Multiple Criteria Selection Algorithm (MCSA) based on multiple parameters of the quality of service. We used Network Simulator (NS2) for testing our approach and study the number of lost packets and lost time during Handover. The second solution is a new model for selecting the destination network based on fuzzy logic techniques. The distinctive characteristic of this model lies in the study of genuine Handover records taken from a Lebanese mobile operator called "Alfa". A third proposed solution for network selection is based on multiple linear regression theory.

Page generated in 0.0824 seconds