• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 13
  • 4
  • Tagged with
  • 54
  • 26
  • 14
  • 9
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Moyenne conditionnelle tronquée pour un portefeuille de risques corrélés

Ermilov, Andrey January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Influence des facteurs non syntaxiques sur l'accord en nombre : approche développementale / Influence of non syntactic factors in number agreement : developmental approach

Lusson, Charlotte 14 October 2013 (has links)
Cette thèse examine l'influence qu'exercent certaines caractéristiques de l'élément à accorder sur les performances de rédacteurs francophones, novices et experts, dans différentes tâches de traitement de l'accord en nombre. Une première série d'expériences teste l'impact de la présence d'informations morpho-phonologiques et conceptuelles portées par le verbe. Les résultats montrent qu'à partir du CM2, une terminaison verbale phonologiquement distincte entre le singulier et le pluriel améliore le traitement de l'accord La présence d'une information conceptuelle au niveau du verbe conduit en revanche les participants, dès le CMl, à commettre davantage d'erreurs d'accord. Le traitement d'un verbe dont l'action est nécessairement accomplie par plusieurs agents semble engendrer des perturbations au moment de l'accord. Les informations morpho-phonologiques et conceptuelles influencent également les durées de la production de phrases dictées et le nombre d'erreurs d'accord correctement détectées dans une tâche de révision. Une seconde série d'expériences analyse I'impact du coût attentionnel engendré par la complexité de la gestion de l'orthographe lexicale sur le traitement de l'accord, en manipulant la fréquence lexicale et la consistance orthographique. L'effet de ces variables sur les eneurs commises par les enfants suggère que la probabilité d'accorder en nombre varie en fonction de la fréquence (facteur lexical) et de la consistance (facteur ous-lexical) des mots et ce, du CEI au CM2. Dans l'ensemble, les résultats de cette thèse suggèrent que I'accord n'est pas traité indépendamment de certaines caractéristiques propres à l'élément à accorder. / This thesis examines the influence of some characteristics of the agreement target on the performances of novice and expert writers in number agreement via different tasks. A first series of experiments studies the impact of the presence of morpho-phonological and conceptual information carried by the verb. Results show that from the 5th grade, aphonologically distinct verbal ending between singular and plural improves agreement processing. The presence of a conceptual information on the verb leads however participants from the 4th grade to commit more agreement errors. The processing of a verb whose action is necessarily accomplished by several agents seems to create disturbances during theagreement. Morpho- phonological and conceptual information also influence the duration of production of dictated sentences and the number of agreement errors correctly detected in revision tasks. A second series of experiments analyzes the impact of cognitive cost incurred by the complexity of the management of lexical spelling on the treatment of agreement, by manipulating lexical frequency and orthographic consistency. The effect of these variables on the errors committed by children suggests that the probability of agreement in number varies with frequency (lexical factor) and consistency (sub- lexical factor) and this, from 2nd to 5th grade. Overall, the results of this thesis suggest that agreement is not processed independently from some specific characteristics of the agreement's target
3

Localisation et cartographie simultanées de l'environnement à bord de véhicules autonomes : analyse de solutions fondées sur le filtrage de Kalman

Chanier, François 12 March 2010 (has links) (PDF)
Pour être autonome, un robot mobile doit être capable de décrire l'environnement dans lequel il évolue. Pour ce faire, le robot doit pouvoir se localiser et construire une carte de l'environnement si celle-ci n'existe pas. Grâce à ces informations, il pourra par exemple éviter les obstacles et donc naviguer en toute sécurité. Cette capacité correspond à une étape obligatoire sur la route de son autonomie totale. Le sujet traité dans ce manuscrit répond à cette problématique. Il concerne la localisation d'un véhicule et la cartographie d'un environnement en simultané, SLAM pour simultaneous localization and mapping. Après un etat de l'art des approches proposées durant la dernière décennie, deux points importants ont été constatés lors de l'emploi d'un filtre EKF-SLAM : les estimations obtenues avec ce filtre ne sont pas consistantes et cette approche, telle qu'elle a été introduite, ne répond pas aux critères d'observabilité d'un système. Pour chacun de ces problèmes, une solution est proposée et critiquée à l'aide de résultats de simulation et d'expérimentation
4

Rhéologie des boues résiduaires : rôle de la thixotropie et de la composition sur les propriétés liquides et solides / Rheology of sewage sludge : Role of thixotropy and composition on liquid and solid properties

Thiene, Oumar 30 November 2018 (has links)
Alors que la quantité de boues résiduaires produites à l’échelle mondiale ne cesse d’augmenter, la gestion de ces boues est désormais devenue un enjeu sociétal majeur. Dans le cadre d’une politique de développement durable, son efficacité passe nécessairement par la réduction des volumes produits (via l’optimisation des procédés de traitement) et par une meilleure valorisation. Pour cela, les procédés ainsi que les outils mis en oeuvre pour traiter puis valoriser le matériau doivent être de plus en plus performants. Les traitements étant essentiellement basés sur des écoulements, cette performance accrue nécessite la mesure et la maîtrise des caractéristiques des boues résiduaires telles que la consistance et les propriétés d’écoulement. Cependant le matériau est complexe et ses propriétés rhéologiques varient selon sa composition. Ainsi, le principal critère utilisé pour déterminer sa consistance, la teneur en matière solide, s’avère limité puisque la boue la plus consistante n’est pas nécessairement celle qui contient le plus de matière solide. Un état de l’art sur le comportement rhéologique des matériaux non-Newtoniens en général et des boues résiduaires en particulier a montré l’intérêt de s’intéresser au rôle de la matière organique et de la thixotropie dans la variabilité des propriétés rhéologiques du matériau. Dans cet objectif, une méthodologie expérimentale a d’abord été développée pour s’assurer de l’obtention de résultats fiables. Cela a permis de montrer l’influence des procédures expérimentales sur les mesures rhéologiques et de définir une procédure expérimentale robuste garantissant la répétabilité et la reproductibilité des résultats obtenus. Puis, à partir de cette procédure expérimentale, il a été montré que les effets de la thixotropie n’affectent que les propriétés solides des boues, les propriétés liquides en étant indépendantes. De plus, cette approche a permis de mettre en évidence que le comportement thixotrope est intrinsèquement lié à la matière organique contenue dans les boues : plus la matière organique est élevée, plus les boues sont thixotropes. Ensuite, à partir de la matière solide et de la proportion de matière organique contenue dans le solide, un critère plus pertinent que la teneur en matière solide a été établi pour comparer les propriétés rhéologiques entre boues d’origines différentes. Ce critère, appelé consistance équivalente, s’avère suffisant pour tenir compte de l’influence de la composition sur les propriétés rhéologiques des boues. Enfin, selon la valeur de la consistance équivalente, il a été montré que le comportement rhéologique des boues résiduaires peut être considéré comme Newtonien, non-Newtonien simple (effets thixotropes négligeables) ou non-Newtonien avec des effets thixotropes. / Sludge management is a major issue as the production is increasing year after year while the solutions to reuse it are limited. In the context of sustainable management and circular economy, treatment processes need to be well controlled to pilot operating systems. Since treatment processes are essentially based on flowing properties, improving the efficiency requires the measurement and control of sludge rheology, among which viscous properties. However, sludge is complex material and its rheological properties highly dependent of its composition. The solid content, the most usual parameter considered to evaluate rheological properties, is quite limited as sludge consistency is not directly connected to the solid content. An in-depth state of the art review on non-Newtonian materials rheology with a focus on sewage sludge has underlined the role of organic matter and thixotropy in complex fluid rheological properties. In that purpose, an experimental methodology was defined to ensure reliable results. This allowed to highlight the impact of experimental setups on rheological measurements and to define a robust experimental methodology that ensures the repeatability and the reproducibility of the measurements. Then, thanks to this experimental methodology, it has been shown that thixotropy is a solid-like characteristic, viscous properties being independent of material history. In addition, this approach has made it possible to demonstrate that the thixotropic behavior is intrinsically connected to the organic matter content: the higher the organic matter, the more thixotropic the sludge. Moreover, from the solid matter and the ratio of organic matter in the solid, a criterion (more relevant than the solid content) has been established to compare the rheological properties between sludge of different origins. This criterion, called equivalent consistency, appears to be sufficient to take into account the impact of the composition on sludge rheological properties. Finally, it has been shown that the rheological behavior of sewage sludge can be considered as Newtonian, simple non-Newtonian (with negligible thixotropic effects) or non-Newtonian with thixotropic effects depending the value of the equivalent consistency.
5

Application du codage réseau aux plate-formes des jeux en ligne / Network coding application for online games platformes

Dammak, Marwa 20 November 2018 (has links)
L’application de jeu en ligne massivement multijoueurs fournit une grandepartie du trafic Internet global. Le trafic est généralement composé d’unepetite partie de données utiles encapsulé dans des segments TCP, entrainantun volume élevé d’entêtes transmis via le réseau. Cela implique: 1) la tailledes paquets est trop petite pour un routage efficace et; 2) la bande passanterequise par le serveur augmente. Par conséquent, il est nécessaire de trouverdes techniques de transmission et de routage plus efficaces afin de réduire levolume de trafic et augmenter l’efficacité du réseau permettant de prendre encharge le nombre croissant des joueurs. D’autre part, la qualité d’expérience(QoE) dans le contexte des jeux en ligne est fortement liée à la consistance.Cette consistance est influencée par la qualité de service (QoS) offerte parle réseau, principalement en termes de délai, de gigue et d’ordre de paquets.Par conséquent, une solution qui améliore ces paramètres aidera à satisfairedavantage de joueurs et à améliorer la qualité de service.L’objectif de cette thèse est de proposer des solutions pour améliorerla qualité d’expérience des jeux en ligne en augmentant la consistance devue, en réduisant les délais et en augmentant l’efficacité du réseau. Pour leproblème de consistance, nous proposons une topologie de réseau cyclique.Cette topologie ordonnée facilite la mise en place des procédures de gestionet de contrôle de la transmission pour imposer un ordre causal entre tousles joueurs. Concernant le délai et l’efficacité du réseau, certains ont proposé l’application de la technique du tunnel, compression et multiplexage(TCM). Cependant, les paquets transmis avec TCM sont plus grands queceux d’origine, ce qui nécessite plus de temps pour les transmettre et augmente le risque de saturation au niveau des fils d’attente. Nous proposonsl’utilisation de la technique de codage réseau (NC) qui permet d’augmenterle débit dans certaines conditions de topologies et de routage. Cette technique permet aux nœuds intermédiaires d’encoder les paquets qu’ils reçoivent plutôt que d’effectuer une simple fonction de stockage et de transfert. Celapeut réduire la charge de trafic, réduire les délais et augmenter l’efficacité duréseau.Dans cette thèse, nous proposons des modifications pour améliorer latechnique TCM et nous évaluons ses performances. De plus, nous proposonsd’ajouter le concept de partition des joueurs et de changer la topologie d’unarbre à une forêt. Nous étudions ensuite la topologie cyclique. Nous concevons un protocole de routage optimisé sur une topologie en cycle baséesur la technique de codage réseau. Puis, nous évaluons ses performances entermes de délai, de charge et d’ordre. Les résultats montrent que l’utilisationdu codage NC permet de réduire la charge et le nombre de paquets transmis, garantir un ordre de paquet par période et de réduire le délai. Eneffet, on peut gagner jusqu’à 14% de latence avec notre protocole par rapport à un protocole de routage optimisé sans codage réseau. Par la suite,nous proposons un scénario de mise en pratique de cette solution sur une infrastructure Device-to-Device. Nous validons les limites théoriques du délaien utilisant des simulations réseau et nous discutons ensuite des contraintespratiques qui s’imposent lors de l’implémentation dans un réseau réel. Finalement, nous proposons des solutions pour ces contraintes. / The application of massively multiplayer online games provides a large partof the global internet traffic. The traffic is typically encapsulated in TCPsegments of small size information (the so called payload) resulting in a highvolume of headers transmitted through the network. This implies the following: 1) the packets’ size is too small for efficient routing and; 2) thebandwidth required by the server seems to be increasing. Therefore, it isnecessary to find more efficient transmission and routing techniques to reduce the traffic’s volume and to increase the network’s efficiency in orderto support the growing number of players. On the other hand, Quality ofExperience (QoE) in the context of online games is strongly influenced byconsistency. This consistency is influenced by the quality of service (QoS) offered by the network, mainly in terms of delay, jitter and order of the packets.As a result, a solution that enhances these parameters will help in satisfyingmore players and subsequently improving QoE.The goal of this thesis is to propose solutions to enhance the QoE of onlinegames by increasing the consistency of view, reducing the delay and increasing the efficiency of the network. For consistency, we propose a cyclic networktopology. This ordered topology facilitates the implementation of transmission management and control procedures to impose a causal order betweenall players. As for the delay and the efficiency problem, some have proposed the application of Tunneling, Compression and Multiplexing (TCM)technique. However, the transmitted packets with TCM are larger than theoriginal ones, which requires more delay to transmit them and increases therisk of congestion. We propose the use of the Network Coding technique(NC) which makes it possible to increase the bit rate of the network undercertain topological and routing conditions. This technique allows intermediate nodes to encode the data they receive rather than perform a simple”store and forward” function. It can reduce the traffic load, reduce the delay and increase the network’s efficiency.In this thesis, we propose some modifications to enhance the TCM technique and evaluate its performance. Besides, we propose to add the playerspartition approach and change the topology from a tree to a forest. Afterwards, we investigate the cyclic topology. We design an optimized routingprotocol over a cycle topology based on the network coding technique andevaluate its performance in terms of delay and order. The results show thatby using NC coding, one can gain up to 14% of latency over an optimizedrouting protocol for the cycle topology without the use of network coding.Afterwards, we propose a practical implementation scenario of this solutionover a device-to-device (D2D) infrastructure. We finally validate the theoretical limits of delay using network simulations and discuss a number ofpractical constraints.
6

Estimation semi-paramétrique et application à l’évaluation de la biomasse d'anchois / Semiparametric estimation and application to evaluate anchovy biomass

Le, Thi Xuan Mai 16 March 2010 (has links)
Notre étude est motivée par un problème d'évaluation de la biomasse, c'est à dire de la densité des œufs d'anchois à l'instant de ponte dans le golfe de Biscay-Gascogne. Les données sont les densités, c'est à dire les poids d' œufs d'anchois par unité de surface dans le golfe, collectées lors de la campagne d'échantillonnage de 1994. Le problème consiste à estimer la densité des œufs d'anchois au moment de leur ponte et le taux de mortalité. Jusqu'à présent, ce problème a été résolu en ajustant les données précédentes à un modèle classique de mortalité exponentielle. Notre analyse montre que ce modèle n'est pas adapté aux données à cause de la grande variation spatial de la densité d'œufs au moment de ponte. Or pour les données considérées, les densités A(tj,kj) des œufs au moment de ponte diffèrent de façon aléatoire selon les zones géographiques de kj ponte. Nous proposons de modéliser les A(tj,kj) comme un échantillon issu d'une variable aléatoire d'espérance a0 et ayant une densité de probabilité fA, ce qui conduit au modèle de mortalité étendue (EEM) suivant : Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) Le problème que nous avons à étudier alors est d'estimer les paramètres du modèle et la densité fA. Nous résolvons ce problème en deux étapes; nous commençons par estimer les paramètres par des techniques de régression, puis nous estimons la densité fA en combinant l'estimation non-paramétrique de densité, avec l'estimation du paramètre z0 et avec éventuellement une déconvolution de densités. Les résultats des études en simulations que nous réalisons corroborent les résultats théorique de la consistance / The motivation of this study is to evaluate the anchovy biomass, that is estimate the egg densities at the spawning time and the mortality rate. The data are the anchovy egg densities that are the egg weights by area unit, collected in the Gascogne bay. The problem we are faced is to estimate from these data the egg densities at the spawning time. Until now, this is done by using the classical exponential mortality model. However, such model is inadequate for the data under consideration because of the great spatial variability of the egg densities at the spawning time. They are samples of generated by a r.v whose mathematical expectation is a0 and the probability density function is fA. Therefore, we propose an extended exponential mortality model Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) where A(tj,kj) and e(tj,kj) are i.i.d, with the random variables A and e being assumed to be independent. Then the problem consists in estimating the mortality rate and the probability density of the random variable . We solve this semiparametric estimation problem in two steps. First, we estimate the mortality rate by fitting an exponential mortality model to averaged data. Second, we estimate the density fA by combining nonparametric estimation method with deconvolution technique and estimate the parameter z0. Theoretical results of consistence of these estimates are corroborated by simulation studies
7

Une nouvelle classe de modèles auto-régressifs à valeurs entières

Kachour, Maher 09 December 2009 (has links) (PDF)
Dans certaines situations il devient nécessaire de traiter les séries chronologiques à valeurs entières. Au premier regard, l'analyse de telle série peut présenter quelques difficultés, notamment si l'analyse est basée sur quelques modèles stochastiques. Ces modèles doivent refléter la particularité entière de la série observée. De nombreuses tentatives ont été faites pour définir des modèles qui peuvent être utilisés pour décrire les séries chronologiques à valeurs entières. La plupart des modèles proposés sont basés sur l'opérateur d'amincissement et possèdent les mêmes propriétés que les modèles à valeurs réelles bien-connus dans la littérature. L'objectif de cette thèse est d'étudier les modèles auto-régressifs à valeurs entières. Nous introduisons une nouvelle classe de modèles basés sur l'opérateur d'arrondi. Par rapport aux modèles existants, la nouvelle classe a plusieurs avantages: structure d'innovation simple, coefficients de régression avec des signes arbitraires, valeurs négatives possibles pour la série chronologiques et pour la fonction d'auto-corrélation. Nous étudions la stationnarité des modèles et la consistance forte de l'estimateur des moindres carrés proposé pour estimer les paramètres. Nous analysons quelques séries chronologiques à valeurs entières bien-connues avec les modèles introduits.
8

La notion d'indéfini en lambda calcul

Bertini, Yves 01 July 2005 (has links) (PDF)
La facilité compte parmi les notions les plus fines de l'indéfini en lambda-calcul. Un terme est dit facile s'il peut être identifié à tout autre terme clos arbitraire sans soulever de contradiction. Introduite en 1975 par Jacopini, elle fait depuis l'objet de recherches qui visent à caractériser la forme des termes faciles. Aujourd'hui, de tous les travaux entrepris il se dégage qu'un tel terme doit posséder une périodicité. Être périodique, c'est être équivalent à un sous-terme propre de l'un de ses réduits. Ici, la périodicité apparaîtra sous les traits de l'auto-similarité. Sont auto-similaires les termes dont l'arbre de Berarducci réapparaît comme sous-arbre propre à lui-même. La facilité de tels termes demeure un mystère. À ce jour, nous n'en connaissons que peu d'exemples. Le terme "Y omega_3" constitue un exemple typique dont la question de la facilité reste ouverte. Dans cette thèse, nous étendrons la connaissance de l'ensemble des termes m identiables à Y Omega_3. Nous montrerons que dans un cas critique où lambda-beta +{Y Omega_3 = m} implique m = delta_3, sous certaines hypothèses, m est lui-même auto-similaire. Ils s'en suit une description possible de toutes les équations dérivées de {Y Omega_3= m} sous la forme de classes confinantes.
9

La notion d'indéfini en lambda-calcul

Bertini, Yves 01 July 2005 (has links) (PDF)
La facilité compte parmi les notions les plus fines de l'indéfini en λ-calcul. Un terme est dit facile s'il peut être identifié à tout autre terme clos arbitraire sans soulever de contradiction. Introduite en 1975 par Jacopini, elle fait depuis l'objet de recherches qui visent à caractériser la forme des termes faciles. Aujourd'hui, de tous les travaux entrepris il se dégage qu'un tel terme doit posséder une périodicité i.e être β-équivalent à un sous-terme propre de l'un de ses réduits. Ici, la périodicité apparaîtra sous les traits de l'auto-similarité. Sont auto-similaires les termes dont l'arbre de Berarducci réapparaît comme sous-arbre propre à lui-même. La facilité de tels termes demeure un mystère et à ce jour, nous n'en connaissons que peu d'exemples. Le terme Yt Ω3 constitue un exemple typique dont la question de la facilité reste ouverte. Dans cette thèse, nous élargirons la connaissance de l'ensemble des termes m identifiables à Yt Ω3. Nous montrerons que dans un cas critique où λβ +{Yt Ω3 = m} |- m = δ3, sous certaines hypothèses, m est lui-même auto-similaire. Ils s'en suit une description possible de toutes les équations dérivées de {Yt Ω3 = m} sous la forme de classes confinantes.
10

Analyse de durées de vie : analyse séquentielle du modèle des risques proportionnels et tests d'homogénéité

Breuils, Christelle 15 December 2003 (has links) (PDF)
La première partie concerne l'estimation séquentielle du paramètre de régression pour le modèle de Cox pour des données censurées à droite. Il est ainsi possible de définir des règles d'arrêt garantissant une bonne estimation. Celles-ci conduisent alors à des estimateurs dépendant de tailles d'échantillons aléatoires pour lesquels le comportement asymptotique est le même que celui des estimateurs non séquentiels. Les propriétés démontrées sont étendues au cadre multidimensionnel et illustrées par des simulations. Cette première partie s'achève par l'étude théorique du comportement de la variable d'arrêt dans le cadre d'intervalles de confiance séquentiels. La règle d'arrêt normalisée est alors asymptotiquement normale. La seconde partie porte sur la construction de tests d'homogénéité dans le cadre d'un modèle de durées de vie non paramétrique incluant des covariables ainsi que la censure à droite. Une statistique de test est proposée et son comportement asymptotique est établi.

Page generated in 0.0927 seconds