• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 4
  • Tagged with
  • 12
  • 8
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Moyennage bayésien de modèles de régression linéaire simple

Dragomir, Elena Alice January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Méthodes d'analyse et de de bruitage multicanaux a partir d'ondelettes pour améliorer la détection de potentiels évoqués sans moyennage: application aux interfaces cerveau-ordinateur

Saavedra, Carolina 14 November 2013 (has links) (PDF)
Une interface cerveau-ordinateur permet d'interagir avec un système, comme un système d'écriture, uniquement par l'activité cérébrale. Un des phénomènes neurophysiologiques permettant cette interaction est le potentiel évoqué cognitif P300, lequel correspond à une modification du signal 300 ms après la présentation d'une information attendue. cette petite réaction cérébrale est difficile à observer par électroencéphalographie car le signal est bruité. Dans cette thèse, de nouvelles techniques basées sur la théorie des ondelettes sont développées pour améliorer la détection des P300 en utilisant des mesures de similarité entre les canaux électroencéphalographiques. Une technique présentée dans cette thèse débruite les signaux en considérant simultanément la phase des signaux. Nous avons également étendu cette approche pour étudier la localisation du P300 dans le but de sélectionner automatiquement la fenêtre temporelle à étudier et faciliter la détection.
3

Allocation de bande passante dans les grands réseaux stochastiques

Feuillet, Mathieu 12 July 2012 (has links) (PDF)
L'objectif de cette thèse est de traiter trois problèmes relatifs aux réseaux de grande taille. Les outils utilisés à cette fin sont issus des probabilités et plus spécifiquement de la théorie des files d'attente. En plus d'améliorer la compréhension des systèmes étudiés, les travaux réalisés dans cette thèse ont permis de prouver des résultats théoriques nouveaux ainsi que d'illustrer certains phénomènes probabilistes. Dans le Chapitre II, un modèle de réseau à partage de bande passante est étudié. Contrairement à ce qui avait été étudié dans la littérature, les utilisateurs n'utilisent pas de contrôle de congestion. On suppose qu'ils envoient des données avec un débit maximum et protègent leur transmission à l'aide d'un mécanisme basé sur des codes correcteurs d'erreur. Le modèle obtenu est analysé pour deux topologies de réseaux spécifiques : les réseaux linéaires et les arbres montants. A l'aide de limites fluides, les conditions de stabilité de ces réseaux sont établies. Ces limites fluides donnent lieu à un phénomène intéressant de moyennage stochastique. Ensuite, une autre méthode de renormalisation est utilisée pour prouver que la région de stabilité de ces processus converge vers la région optimale lorsque que les débits maximaux des utilisateurs deviennent infiniment petits par rapport à la taille des liens du réseau. Dans le Chapitre III, on se propose d'étudier CSMA/CA, un algorithme d'accès implémenté dans certains standards de réseaux sans fil. Chaque lien est constitué d'un émetteur et d'un récepteur et un graphe d'interférence modélise les collisions potentielles entre les liens. Les arrivées et les départs de ces derniers sont prises en compte. Une approximation est faite en supposant que la dynamique d'accès au canal est infiniment plus rapide que la dynamique des arrivées et départs de liens. Il est alors établi que le CSMA permet une utilisation optimale des ressources radio dans le cadre des réseaux ad-hoc. Cependant, il est également prouvé que ce même algorithme n'est pas efficace pour les réseaux avec une station de base ; dans ce cas, un biais en faveur des transmissions vers la station de base est observé. A la fin du chapitre, l'hypothèse simplificatrice est discutée. Les deux derniers chapitres de la thèse sont consacrés à l'étude d'un grand système distribué de stockage de données avec pertes. L'objectif est d'estimer la vitesse de perte des fichiers ou la durée de vie d'un fichier donné. Dans le Chapitre IV, c'est le premier point de vue qui est adopté. Le système est considéré de manière globale. Le système est constitué d'un grand nombre de fichiers qui peuvent avoir chacun deux copies au maximum. Chaque copie disparaît au bout d'un temps aléatoire. Un mécanisme centralisé de sauvegarde permet alors de restaurer les copies perdues. Un fichier dont les deux copies ont été détruites est définitivement perdu. Le système est étudié dans le cas limite où le nombre de fichiers tend vers l'infini. Afin de décrire correctement le système, trois échelles de temps différentes sont étudiées. Ralentir le temps permet de comprendre le mécanisme de sauvegarde ; laisser le temps inchangé permet de définir la capacité du système ; accélérer le temps permet d'évaluer la vitesse de perte des fichiers. Le principe de moyennage stochastique est également observé à l'échelle de temps la plus rapide. Dans le chapitre V, le point de vue d'un fichier donné est adopté. Des liens sont établis avec les modèles classiques d'Ehrenfest, issu de la physique statistique, et d'Erlang, issu des télécommunications. Des méthodes basées sur les martingales sont utilisées pour calculer la transformée de Laplace des temps d'atteinte de ces deux processus. Ces transformées permettent alors d'estimer le comportement asymptotique de ces temps d'atteinte et notamment le temps de disparition d'un fichier.
4

Validation des modèles statistiques tenant compte des variables dépendantes du temps en prévention primaire des maladies cérébrovasculaires

Kis, Loredana 07 1900 (has links)
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition / The main interest of this research is the validation of a statistical method in pharmacoepidemiology. Specifically, we will compare the results of a previous study performed with a nested case-control which took into account the average exposure to treatment to : – results obtained in a cohort study, using the time-dependent exposure, with no adjustment for time since exposure ; – results obtained using the cumulative exposure weighted by the recent past ; – results obtained using the Bayesian model averaging. Covariates are estimated by the classical approach and by using a nonparametric Bayesian approach. In the later, the Bayesian model averaging will be used to model the uncertainty in the choice of models. To model the cumulative effect of exposure which varies over time, in the classical approach the function assigning weights according to recency will be estimated using regression splines. In order to compare the results with previous studies, a cohort of people diagnosed with hypertension will be constructed using the databases of the RAMQ and Med-Echo. The Cox model including two variables which vary in time will be used. The time-dependent variables considered in this paper are the dependent variable (first stroke event) and one of the independent variables, namely the exposure.
5

Méthodes d'analyse et de débruitage multicanaux à partir d'ondelettes pour améliorer la détection de potentiels évoqués sans moyennage : application aux interfaces cerveau-ordinateur / Wavelet-based semblance methods to enhance single-trial ERP detection

Saavedra Ruiz, Carolina Verónica 14 November 2013 (has links)
Une interface cerveau-ordinateur permet d'interagir avec un système, comme un système d'écriture, uniquement par l'activité cérébrale. Un des phénomènes neurophysiologiques permettant cette interaction est le potentiel évoqué cognitif P300, lequel correspond à une modification du signal 300 ms après la présentation d'une information attendue. Cette petite réaction cérébrale est difficile à observer par électroencéphalographie car le signal est bruité. Dans cette thèse, de nouvelles techniques basées sur la théorie des ondelettes sont développées pour améliorer la détection des P300 en utilisant des mesures de similarité entre les canaux électroencéphalographiques. Une technique présentée dans cette thèse débruite les signaux en considérant simultanément la phase des signaux. Nous avons également étendu cette approche pour étudier la localisation du P300 dans le but de sélectionner automatiquement la fenêtre temporelle à étudier et faciliter la détection / Brain-Computer Interfaces (BCI) are control and communication systems which were initially developed for people with disabilities. The idea behind BCI is to translate the brain activity into commands for a computer application or other devices, such as a spelling system. The most popular technique to record brain signals is the electroencephalography (EEG), from which Event-Related Potentials (ERPs) can be detected and used in BCI systems. Despite the BCI popularity, it is generally difficult to work with brain signals, because the recordings contains also noise and artifacts, and because the brain components amplitudes are very small compared to the whole ongoing EEG activity. This thesis presents new techniques based on wavelet theory to improve BCI systems using signals' similarity. The first one denoises the signals in the wavelet domain simultaneously. The second one combines the information provided by the signals to localize the ERP in time by removing useless information
6

Validation des modèles statistiques tenant compte des variables dépendantes du temps en prévention primaire des maladies cérébrovasculaires

Kis, Loredana 07 1900 (has links)
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition / The main interest of this research is the validation of a statistical method in pharmacoepidemiology. Specifically, we will compare the results of a previous study performed with a nested case-control which took into account the average exposure to treatment to : – results obtained in a cohort study, using the time-dependent exposure, with no adjustment for time since exposure ; – results obtained using the cumulative exposure weighted by the recent past ; – results obtained using the Bayesian model averaging. Covariates are estimated by the classical approach and by using a nonparametric Bayesian approach. In the later, the Bayesian model averaging will be used to model the uncertainty in the choice of models. To model the cumulative effect of exposure which varies over time, in the classical approach the function assigning weights according to recency will be estimated using regression splines. In order to compare the results with previous studies, a cohort of people diagnosed with hypertension will be constructed using the databases of the RAMQ and Med-Echo. The Cox model including two variables which vary in time will be used. The time-dependent variables considered in this paper are the dependent variable (first stroke event) and one of the independent variables, namely the exposure.
7

Modélisation de séries temporelles multidimensionnelles. Application à l'évaluation générique et automatique du geste sportif / Multidimensional time-series averaging. Application to automatic and generic evaluation of sport gestures

Morel, Marion 07 November 2017 (has links)
Qu'il tente de prévenir la chute d'une personne âgée, de traduire la langue des signes ou de contrôler un humain virtuel, l'analyse de gestes est un vaste domaine de recherche qui s'attelle à reconnaître, classifier, segmenter, indexer ou encore évaluer différents types de mouvements. Cependant, peu de travaux se concentrent sur cette dernière approche d'évaluation. Ce travail de thèse propose de mettre en place un outil d’évaluation automatique et générique d’un geste sportif, reposant sur l’utilisation d’une base de données de gestes experts acquis via un système de capture de mouvements. Afin d’extraire un mouvement de référence, l’algorithme de déformation temporelle dynamique (DTW) est considéré pour aligner puis moyenner les gestes. Les méthodes d’alignements et de moyennage de séries temporelles se confrontant aux conséquences néfastes de chemins de déformation du DTW pathologiques, des contraintes locales sont ajoutées et donnent lieu à un nouvel algorithme appelé CDBA. La qualité d’un geste est estimée spatialement et temporellement à chaque instant et pour chaque membre par comparaison avec le geste de référence et pondérée par la dispersion des données expertes autour de ce geste moyen. Le processus ainsi mis en place est validé à partir de gestes de karaté et de tennis annotés par des entraîneurs. Un premier prototype d’outil d’entraînement en ligne est finalement proposé et laisse entrevoir les potentialités d’usage qui pourraient être menées à la suite de ce travail. / Either to reduce falling risks in elderly people, to translate the sign language or to control a virtual human being, gesture analysis is thriving research field that aims at recognizing, classifying, segmenting, indexing and evaluating different types of motions. As few studies tackle the evaluation process, this PhD focuses on the design of an autonomous system for the generic evaluation of sport-related gestures. The tool is trained on the basis of experts’ motions recorded with a motion capture system. Dynamic Time Warping (DTW) is deployed to obtain a reference gesture thanks to data alignment and averaging. Nevertheless, this standard method suffers from pathological paths issues that reduce its effectiveness. For this reason, local constraints are added to the new DTW-based algorithm, called CDBA (Constrained DTW Barycenter Averaging). At each time step and for each limb, the quality of a gesture is spatially and temporally assessed. Each new motion is compared to the reference gesture and weighted in terms of data dispersion around the reference.The process is validated on annotated karate and tennis databases. A first online training prototype is given in order to prompt further research on this subject.
8

Systèmes désordonnés et frustrés: modèles champ moyen et problèmes d'optimisation combinatoire

Schreiber, Georg R. 13 November 1997 (has links) (PDF)
Dans la présente thèse de doctorat je présente des résultats concernant des modèles désordonnés et frustrés venant de la physique statistique et de l'optimisation combinatoire. Comme application de la théorie des verres de spins, j'étudie le modèle de Blume, Emery et Griffiths désordonné et frustré. Ce modèle est traité dans l'approximation de champ moyen dans le cadre de la méthode des répliques A l'aide de l'Ansatz symétrique dans les répliques je présente une solution numérique complète puis je discute des effets de brisure de cette symétrie La stabilité de la solution symétrique a été Rudik et les régions instables identifiées Le diagramme de phase exhibe des transitions de premier et de second ordre. Le point tricritique persiste dans le modèle frustré, Ce qui est en accord avec des travaux antérieurs une version du modèle BEG avec un potentiel chimique désordonné a également été étudiée. les calculs confirment que le point tricritique apparaît à plus basse température quand il y a du désordre. Ensuite je considère le problème de la bipartition d'un graphe. Ce problème correspond du point de vue de la physique statistique h un verre de spins soumis h une contrainte d'aimantation totale nulle. je considère les propriétés statistiques des solutions de faible énergie engendrées par des algorithmes heuristiques. de tels algorithme sont en général conçus pour résoudre des problèmes d'optimisation combinatoire qui sont NP- difficiles. Plusieurs heuristiques ont 60 implémentées pour le problème de la bipartition de graphe. des lois d'échelle ont été obtenues : en particulier la moyenne et la variance du coût obéissent A une loi linéaire en N. Par conséquent le coût obtenu par des heuristiques est une quantité auto-moyennante. je suggère que cette propriété est générale valable aussi pour les solutions aléatoires pour les solutions quasi-optimales et pour les solutions optimales. En outre je propose une procédure pour comparer des algorithmes heuristiques. Cette procédure tient compte de la qualité de la solution aussi bien que du temps de calcul utilisé. Dans la troisième partie de ma thèse j'ai étudié en détail les propriétés h température nulle des verres de spins sur des graphes aléatoires lacunaires avec une coordination fixe. les verres de spins sur de tels graphes peuvent être considérés comme une approximation aux vrais verres de spins qui est plus réaliste que le modèle de Sherrington et Kirkpatrick. J'ai conçu un nouvel algorithme pour trouver les états fondamentaux. Aussi je teste numériquement une conjecture de Banavar, Sherrington et Sourlas qui donne la densité d'énergie du fondamental dans la limite de grande taille en fonction de la coordination. La distribution du paramètre d'ordre se révèle être non triviale et les données présentent une forte indication de la présence d'ultramétricité pour toutes les valeur de la coordination. Ces résultats confirment que les propriétés particulières des verres de spin, déduites an niveau de l'approximation de champ moyen dans le cadre du modèle de Sherrington et Kirkpatrick, sont aussi présentes pour des modèles plus réalistes comme les verres de spins sur des graphes aléatoires lacunaires avec une coordination fixe.
9

Consensus ou fusion de segmentation pour quelques applications de détection ou de classification en imagerie

Khlif, Aymen 05 1900 (has links)
No description available.
10

The influence of low-level visuomotor factors versus high-level cognitive factors on object viewing / .

Van der Linden, Lotje 20 February 2018 (has links)
La fovéa est la seule zone de la rétine où l’acuité visuelle est maximale. Les mécanismes qui visent à déterminer à quels endroits vont avoir lieu les prochaines fixations restent débattus. Certains auteurs suggèrent que les yeux sont principalement attirés par les zones les plus saillantes de la scène. D’autres suggèrent qu’ils sont orientés vers les objets. Les propriétés du système oculomoteur contraignent également les mouvements oculaires. L’objectif de cette thèse était de départager ces différents points de vue en examinant la contribution respective et le décours temporel des facteurs visuo-moteurs de bas niveau et des facteurs cognitifs de plus haut niveau dans la détermination des mouvements oculaires. Nous nous sommes focalisés sur trois phénomènes comportementaux clés : la tendance à bouger les yeux à proximité du centre des objets (Prefered-Viewing Location), les répercussions qu’ont ces positions d’atterrissage sur les durées initiales des fixations (Inverted Optimal-Viewing-Position) et les probabilités de refixation (Optimal-Viewing-Position). Nous avons observé que ces trois effets émergeaient, et ce, quel que soit le type de stimulus testé: des objets, des mots ou des objets sans signification. Cela suggère que ces effets reflètent les propriétés de bas niveau des systèmes visuel et oculomoteur. Par ailleurs, nous avons observé que l’endroit où les yeux atterrissaient au sein de l’objet était également influencé au fil du temps par les traitements de plus haut-niveau des propriétés du stimulus. Les saccades initiées plus tardivement atterrissaient plus proches de la zone la plus informative de l’objet. / High-quality vision is restricted to the fovea - a small region at the center of gaze. The mechanisms that determine which locations in a scene are selected for fixation remain debated. Some suggest that eye movements are mainly driven by the salient features in a scene. Others suggest that eye guidance is object based. The properties of the oculomotor system also strongly constrain eye behavior, but these have been neglected in most existing models. The purpose of this thesis was to disentangle between these different views, by investigating how low-level visuomotor factors versus higher-level cognitive factors contribute to eye movements towards and within isolated objects, and with which time course. We focused on three viewing-position effects: the tendency to move the eyes near the centers of objects (the PVL effect), and the repercussions these initial landing positions have on initial fixation durations (the I-OVP effect) and refixation probabilities (the OVP effect). We found that these three viewing-position effects emerged, and were comparable, in all stimulus types that we tested in this thesis: objects, words and even meaningless non-objects. This suggests that the effects reflect low-level properties of the visual and oculomotor systems. Furthermore, we found that where the eye moved within objects became influenced by ongoing processing of higher-level stimulus properties (e.g., object affordances) over time. Later- compared to early-triggered initial saccades, and even more so within-object refixations, were biased towards the most informative part of the objects, and away from their center of gravity.

Page generated in 0.4104 seconds