• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2002
  • 592
  • 221
  • 54
  • 8
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2890
  • 947
  • 506
  • 485
  • 300
  • 266
  • 262
  • 255
  • 230
  • 227
  • 218
  • 205
  • 205
  • 185
  • 181
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Systemes de particules multicolores

Lanchier, Nicolas 22 September 2005 (has links) (PDF)
La plupart des modèles mathématiques introduits dans la littérature biologique décrivant des phénomènes spatiaux de populations en interaction consistent en des systèmes d'équations différentielles ordinaires obtenues sous des hypothèses de dispersion globale, excluant par conséquent toute structure spatiale. Les systèmes de particules, au contraire, sont des processus de Markov d'espace d'états $F^S$ où $F$ est un ensemble fini de couleurs et $S$ est une structure spatiale, typiquement $\Z^d$. Ils sont en ce sens parfaitement adaptés à l'étude des conséquences de l'inclusion d'une structure spatiale sous forme d'interactions locales. Nous étudions les propriétés mathématiques (mesures stationnaires, géométrie des configurations, transitions de phases) de différents systèmes de particules multicolores définis sur $\Z^d$. Chacun de ces systèmes est déstiné à modéliser les interactions locales au sein d'une communauté de populations structurée spatialement. Plus précisément, les processus biologiques étudiés sont la succession écologique, l'allélopathie ou compétition entre une espèce inhibitrice et une espèce sensible, les interactions multispécifiques hôtes-symbiontes, et les migrations continues de gènes des cultures transgéniques par pollinisation en milieu hétérogène. Les techniques mathématiques sont purement probabilistes, incluant le couplage, la dualité, les arguments multi-échelle, la percolation orientée, les propriétés asymptôtiques des marches aléatoires, ou encore les estimations de grandes déviations.
412

Analyse et Estimations Spectrales des Processus alpha-Stables non-Stationnaires

Azzaoui, Nourddine 11 December 2006 (has links) (PDF)
Dans cette thèse une nouvelle représentation spectrale des processus symétriques alpha-stables est introduite. Elle est basée sur une propriété de pseudo-additivité de la covariation et l'intégrale au sens de Morse-Transue par rapport à une bimesure que nous construisons en utilisant la pseudo-additivité. L'intérêt de cette représentation est qu'elle est semblable à celle de la covariance des processus du second ordre; elle généralise celle établie pour les intégrales stochastiques par rapport à un processus symétrique alpha-stable à accroissements indépendants. Une classification des processus harmonisables non stationnaires a été étudiée selon la structure de la bimesure qui les caractérise et les processus périodiquement covariés ont été définis. Pour pouvoir simuler cette inhabituelle classe de processus, une nouvelle décomposition en séries de type Lepage a été apportée. Finalement des techniques non paramétriques d'estimation spectrale sont discutées. En particulier un estimateur presque sûrement convergeant sous une condition de mélange fort, a été introduit pour les processus périodiquement covariés.
413

Bandes de confiance par vraisemblance empirique : δ-méthode fonctionnelle et applications aux processus des événements récurrents

Flesch, Alexis 12 July 2012 (has links) (PDF)
Disposant d'un jeu de données sur des infections nosocomiales, nous utilisons des techniques de vraisemblance empirique pour construire des bandes de confiance pour certaines quantité d'intérêt. Cette étude nous amène à renforcer les outils déjà existants afin qu'ils s'adaptent à notre cadre. Nous présentons dans une première partie les outils mathématiques issus de la littérature que nous utilisons dans ce travail de thèse. Nous les appliquons ensuite à diverses situations et donnons de nouvelles démonstrations lorsque cela est nécessaire. Nous conduisons aussi des simulations et obtenons des résultats concrets concernant notre jeu de données. Enfin, nous détaillons les algorithmes utilisés.
414

Régularité fine de processus stochastiques et analyse 2-microlocale

Balança, Paul 06 February 2014 (has links) (PDF)
Les travaux présentés dans cette thèse s'intéressent à la géométrie fractale de processus stochastiques à travers le prisme d'un outil appelé l'analyse 2-microlocale. Ce dernier est issu d'une autre branche des mathématiques, l'analyse fonctionnelle et l'étude des équations aux dérivées partielles, et s'est avéré être pertinent pour décrire la géométrie fine de fonctions déterministes ou de processus aléatoires, généralisant notamment les exposants de Hölder classiques. Nous envisageons ainsi dans ce manuscrit différentes classes de processus, traitant en premier lieu le cas des martingales continues et de l'intégrale stochastique d'Ito. La régularité 2-microlocale de ces derniers fait notamment apparaître un autre concept, la pseudo frontière 2-microlocale, étroitement lié à son aîné. Nous appliquons également ce formalisme d'étude à une classe de processus gaussiens : le mouvement brownien multifractionnaire. Nous caractérisons ainsi sa régularité 2-microlocale et hölderienne, et déterminons dans un deuxième temps la forme générale de la dimension fractale de ses trajectoires. Dans notre étude portant sur les processus de Lévy, nous combinons le formalisme 2-microlocale à l'analyse multifractale, permettant alors de mettre en évidence des comportements géométriques n'étant pas captés par les outils usuels. Nous obtenons également en corollaire le spectre multifractal des processus fractionnaires de Lévy. Enfin, dans une dernière partie, nous nous intéressons à la définition et aux propriétés de certains processus de Markov multiparamètres, pouvant être plus généralement indicés par des ensembles.
415

L’impact de l’utilisation du traitement de texte sur la qualité de l’écriture d’élèves québécois du secondaire

Grégoire, Pascal 03 1900 (has links)
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif. / The supposed decline of writing skills in Quebecois students’ during the last decades has raised vigorous debates. Admittedly, their competencies show deficiencies. Indeed, reports by the Ministry of Education (Jalbert, 2006; Ouellet, 1984) and research, both scientific and governmental (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984), reveal their incapacity to appropriate the writing process. ICT might well be part of the solution : it is a well-known fact that they encourage scholastic achievement in certain contexts (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, et al., 2003). However, do they modify the writing process so as to facilitate its learning? This question is at the heart of the current research project. Writing process models, such as those of Hayes and Flower (1981; 1995; 1980), remind us that ICT are a part of the Context component; as such, they influence the quality of the texts as much as cognitive processes and motivation. They unburden the cognitive process by taking on certain functions such as calligraphy (Daiute, 1983). Consequently, the writer may concentrate on more complex tasks. Meta-analyses (Bangert-Drowns, 1993; Goldberg, et al., 2003) show that the use of word processors has a small yet statistically significant effect on the quality of writing. That being said, they are mainly linked to surface changes (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Research projects that explore the impact of word processors on the writing process and its various dimensions simultaneously are rare, even more so since the last twenty years. To satisfy this research gap, the present thesis aims at 1) measuring ICT effect upon the quality of writing; 2) describe ICT impact on the cognitive processes of translating and reviewing; 3) measure ICT impact on motivation to write. To this objective, we utilize a mixed methodology. On one hand, a quasi-experimental design allows for a comparison of technological writers to traditional writers; on the other, a qualitative approach provides access to the thoughts and perceptions of computer users. The three articles that constitute the heart of this thesis relate the results pertaining to the stated research objectives. In the first text, we measured the effects of word processing on the quality of writing. The statistical analysis of the dataset allowed us to observe an improvement in spelling, but not grammatical spelling. In comparison, students of the control group showed improvements in their texts’ logical coherence and grammatical orthography. The second article intends to shed light on these results. The impact of ICT on the cognitive processes of translating and reviewing is studied to that effect. This aspect, which is based on a qualitative approach, is largely based on video observation. First, are highlighted the many errors committed when word processing is used. Then, is underlined the poor use of spell checking tools, that oftentimes provide inappropriate diagnostics or that are simply ignored by users. However, group interviews have shown positive perceptions vis-à-vis ICT, despite their poor use. Indeed, they are considered motivating and their benefits, although recognized, do not seem to have an impact. The motivating factor is at the heart of the last article, which measures the impact of writing methods on the motivation to write. A quantitative analysis is used to that effect. The participants’ motivation was measured using a motivational scale. The statistical analysis of the dataset demonstrates that technological students are intrinsically motivated by ICT, whereas their peers of the control group are amotivated. In the concluding chapter, we put theses results in relation with one another so as to explain the impact of ICT on the writing process as a whole. Lastly, we hope to provide possible recommendations to practitioners and decision makers within the educational system.
416

Estimation de paramètres pour des processus autorégressifs à bifurcation

Blandin, Vassili 26 June 2013 (has links) (PDF)
Les processus autorégressifs à bifurcation (BAR) ont été au centre de nombreux travaux de recherche ces dernières années. Ces processus, qui sont l'adaptation à un arbre binaire des processus autorégressifs, sont en effet d'intérêt en biologie puisque la structure de l'arbre binaire permet une analogie aisée avec la division cellulaire. L'objectif de cette thèse est l'estimation les paramètres de variantes de ces processus autorégressifs à bifurcation, à savoir les processus BAR à valeurs entières et les processus BAR à coefficients aléatoires. Dans un premier temps, nous nous intéressons aux processus BAR à valeurs entières. Nous établissons, via une approche martingale, la convergence presque sûre des estimateurs des moindres carrés pondérés considérés, ainsi qu'une vitesse de convergence de ces estimateurs, une loi forte quadratique et leur comportement asymptotiquement normal. Dans un second temps, on étudie les processus BAR à coefficients aléatoires. Cette étude permet d'étendre le concept de processus autorégressifs à bifurcation en généralisant le côté aléatoire de l'évolution. Nous établissons les mêmes résultats asymptotiques que pour la première étude. Enfin, nous concluons cette thèse par une autre approche des processus BAR à coefficients aléatoires où l'on ne pondère plus nos estimateurs des moindres carrés en tirant parti du théorème de Rademacher-Menchov.
417

Modélisation probabiliste et éco-évolution d'une population diploïde

Coron, Camille 06 December 2013 (has links) (PDF)
0n s'intéresse à la modélisation probabiliste pour l'évolution génétique de populations diploïdes, dans un contexte d'éco-évolution. La population considérée est modélisée par un processus de naissance et mort multi-types, avec interaction, et dont les taux de naissance modélisent la reproduction mendélienne. En particulier, la taille de la population considérée n'est pas constante et peut être petite. Une première partie du travail est consacrée à l'étude probabiliste du vortex d'extinction démo-génétique, un phénomène au cours duquel la taille d'une petite population décroît de plus en plus rapidement suite à des fixations de plus en plus fréquentes de mutations délétères. Nous donnons notamment une formule pour la probabilité de fixation d'un allèle légèrement délétère en fonction de la composition génétique de la population et nous prouvons l'existence d'un vortex d'extinction sous une hypothèse de mutations rares. Nous donnons par ailleurs des résultats numériques et une analyse biologique détaillée des comportements obtenus. Nous étudions en particulier l'impact du vortex sur la dynamique de la taille moyenne de population, et nous quantifions ce phénomène en fonction des paramètres écologiques. Dans une deuxième partie, sous une asymptotique de grande taille de population et événements de naissance et mort fréquents, nous étudions d'abord la convergence vers une dynamique lente-rapide et le comportement quasi-stationnaire d'une population diploïde caractérisée par sa composition génétique à un locus bi-allélique. Nous étudions en particulier la possibilité de coexistence en temps long de deux allèles dans la population conditionnée à ne pas être éteinte. Ensuite nous généralisons cette dynamique lente-rapide à une population présentant un nombre fini quelconque d'allèles. La population est alors modélisée par un processus à valeurs mesures dont nous prouvons la convergence lorsque le nombre d'allèles tend vers l'infini vers un superprocessus de Fleming-Viot généralisé, avec une taille de population variable et une sélection diploïde additive.
418

Processus auto-interagissants et grandes déviations

Dumaz, Laure 07 December 2012 (has links) (PDF)
Cette thèse porte sur divers aspects de lois et de processus non-gaussiens qui partagent des propriétés de changement d'échelle où intervient l'exposant 2/3. Les deux principaux objets probabilistes que nous allons présenter sont : 1) La loi de Tracy-Widom : C'est la loi limite de la plus grande valeur propre de matrices aléatoires appartenant aux beta-ensembles lorsque leur dimension tend vers l'infini. Dans un travail en commun avec Balint Virag, nous avons établi le comportement asymptotique de la queue droite de cette loi pour tout beta strictement positif, en utilisant des outils d'analyse de diffusions du type Girsanov. 2) Le ''vrai'' processus auto-répulsif (''true self repelling motion'') TSRM : C'est un processus auto-interagissant qui a été introduit par Balint Toth et Wendelin Werner. Nous nous sommes intéressés à des propriétés de cet objet liées à ses trajectoires (grandes déviations, lois du logarithme itéré) et à des calculs explicites de lois marginales (travail en collaboration avec Balint Toth). Cette étude nous a aussi amenés à aborder des questions liées à la théorie des jeux.
419

Méta-modélisation du Comportement d'un Modèle de Processus : Une Démarche de Construction d'un Moteur d'Exécution

Mallouli, Sana 25 July 2014 (has links) (PDF)
De nos jours, le nombre de langages de modélisation ne cesse d'augmenter en raison de différentes exigences et contextes (par exemple les langages spécifiques au domaine). Pour être utilisés, ces langages ont besoin d'outils pour réaliser différentes fonctionnalités comme l'édition, la transformation, la validation et l'exécution de modèles conformes à ces langages. La construction de ces outils est un enjeu et un objectif important aussi bien dans la communauté du génie logiciel que celle des Systèmes d'Information. C'est une tâche non-triviale qui fait appel à des approches différentes parmi lesquelles l'utilisation des environnements méta-CASE et des langages de méta-programmation. Par rapport à une approche ad-hoc, les méta-CASE définissent un support outillé et une démarche basée sur la méta-modélisation. Ils apportent des améliorations significatives à la problématique de construction d'outils. Néanmoins, des limitations majeures persistent, notamment pour les langages de modélisation des processus, à cause de la complexité de l'expression de la sémantique opérationnelle d'un modèle de processus et la capture de la logique d'exécution de celui-ci. La construction de ces outils selon une approche ad-hoc engendre un coût élevé, des risques d'erreurs et des problèmes de maintenabilité et de portabilité. En outre, un outil d'exécution de modèle doit satisfaire un critère d'interactivité avec son environnement d'exécution. Cet aspect n'est pas suffisamment pris en compte dans les travaux de recherche actuels sur la spécification des langages de modélisation. Pour répondre à cette problématique, nous proposons dans cette thèse une démarche dirigée par les modèles qui permet de dériver l'architecture d'un moteur d'exécution à partir de la spécification conceptuelle d'un langage de modélisation de processus. Cette spécification repose sur une méta-modélisation élargie qui intègre l'expression de la sémantique d'exécution d'un méta-modèle de processus. Elle est composée, d'une part, d'une structure à deux niveaux d'abstraction qui permet de représenter de manière générique les modèles à exécuter et les instances générées lors de leur exécution. D'autre part, cette spécification est complétée par une représentation déclarative et graphique du comportement du méta-modèle de processus. Pour cette représentation, nous avons choisi un formalisme orienté événement qui reflète la vision systémique et les différentes interactions du modèle de processus avec son environnement. Finalement, afin d'exploiter la sémantique d'exécution, nous proposons des règles de transformation permettant de dériver l'architecture technique d'un outil d'exécution sous une forme standard pour pouvoir l'implémenter dans un environnement de génération de code existant, le code généré correspondra à l'outil d'exécution souhaité. La démarche proposée a été appliquée dans le cas d'un modèle de processus intentionnel appelé Map. Cette application a permis d'explorer la faisabilité de la proposition et d'évaluer la qualité de la spécification de l'outil d'exécution obtenue par rapport aux exigences fixées. La pertinence de notre proposition est qu'elle permet de guider l'ingénieur dans le processus de spécification et de construction d'un outil d'exécution tout en minimisant l'effort de programmation. De plus, en appliquant les étapes de la démarche proposée, nous sommes en mesure de fournir un outil d'exécution d'une certaine qualité ; à savoir un outil interagissant avec son environnement, facilement maintenable et à moindre coût.
420

Analyse et optimisation de la fiabilité d'un équipement opto-électrique équipé de HUMS

Baysse, Camille 07 November 2013 (has links) (PDF)
Dans le cadre de l'optimisation de la fiabilité, Thales Optronique intègre désormais dans ses équipements, des systèmes d'observation de leur état de fonctionnement. Cette fonction est réalisée par des HUMS (Health & Usage Monitoring System). L'objectif de cette thèse est de mettre en place dans le HUMS, un programme capable d'évaluer l'état du système, de détecter les dérives de fonctionnement, d'optimiser les opérations de maintenance et d'évaluer les risques d'échec d'une mission, en combinant les procédés de traitement des données opérationnelles (collectées sur chaque appareil grâce au HUMS) et prévisionnelles (issues des analyses de fiabilité et des coûts de maintenance, de réparation et d'immobilisation). Trois algorithmes ont été développés. Le premier, basé sur un modèle de chaînes de Markov cachées, permet à partir de données opérationnelles, d'estimer à chaque instant l'état du système, et ainsi, de détecter un mode de fonctionnement dégradé de l'équipement (diagnostic). Le deuxième algorithme permet de proposer une stratégie de maintenance optimale et dynamique. Il consiste à rechercher le meilleur instant pour réaliser une maintenance, en fonction de l'état estimé de l'équipement. Cet algorithme s'appuie sur une modélisation du système, par un processus Markovien déterministe par morceaux (noté PDMP) et sur l'utilisation du principe d'arrêt optimal. La date de maintenance est déterminée à partir des données opérationnelles, prévisionnelles et de l'état estimé du système (pronostic). Quant au troisième algorithme, il consiste à déterminer un risque d'échec de mission et permet de comparer les risques encourus suivant la politique de maintenance choisie.Ce travail de recherche, développé à partir d'outils sophistiqués de probabilités théoriques et numériques, a permis de définir un protocole de maintenance conditionnelle à l'état estimé du système, afin d'améliorer la stratégie de maintenance, la disponibilité des équipements au meilleur coût, la satisfaction des clients et de réduire les coûts d'exploitation.

Page generated in 0.3193 seconds