• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 9
  • 3
  • Tagged with
  • 47
  • 47
  • 27
  • 26
  • 17
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Trends in uxoricide, filicide and parricide : a time series analysis

Tzoumakis, Stacy January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

De la nature de quelques types de chroniques environnementales. Conséquences pour leur traitement statistique.

Manté, Claude 06 June 2008 (has links) (PDF)
Ce mémoire se compose d'un document de synthèse et de 4 articles publiés dans des revues internationales ; il comporte 5 chapitres dont 4 fondamentaux.<br />Le chapitre 1, intitulé « Aspects géométriques de l'Analyse en Composantes Principales », est essentiellement consacré aux techniques actuellement populaires d'analyse des données fonctionnelles. <br />La première section est consacrée à l'analyse dans l'espace des fréquences d'un signal multidimensionnel, re-codé par sa transformée de Fourier discrète, puis soumis à une Analyse en composantes principale (ACP). On montre l'intérêt de cette méthode pour filtrer des signaux non-stationnaires, dans les domaines de l'acoustique sous-marine et de l'analyse d'images.<br />Dans la deuxième section, on introduit un point de vue géométrique, au sens où « les propriétés géométriques sont caractérisées par leur invariance par rapport à un groupe de transformations » (K. Klein). Cela nous permet d'introduire l'ACP invariante sous l'action d'un groupe d'isométries (translations, p.ex.), qui montre son efficacité pour le traitement de données acoustiques.<br />Le chapitre 2, intitulé « Une petite théorie statistique de la rareté » est directement associé aux préoccupations des écologues. Il est motivé par les difficultés rencontrées lors de l'utilisation de méthodes factorielles dans le contexte d'études de longues séries d'observations d'espèces benthiques. C'est autour d'un l'article joint, intitulé : Methods for selecting dominant species in ecological series. Application to marine macrobenthic communities from the english channel que s'articule le discours. Il est bien connu que les méthodes classiques d'Analyse en Composantes Principales et des Correspondances portant sur des tableaux d'effectifs sont très sensibles à la faible importance de nombreux effectifs observés. L'auteur consacre une partie de ce chapitre à des définitions précises de la rareté, afin de pouvoir séparer ce qui est rare de ce qui est commun ou dominant. Cela permet de simplifier l'interprétation de l'ACP de longues séries d'observations, en supprimant les espèces rares. On propose une méthode automatique de sélection des espèces pour l'ACP, mais aussi des test portant sur la rareté globale (c'est-à-dire dans tous les relevés) des espèces recensées.<br /> <br />Le chapitre 3 est intitulé « Analyse en composantes principales de mesures absolument continues: applications en sédimentologie et en écologie ». On y présente des résultats statistiques théoriques obtenus dans deux articles (joints) publiés récemment, et illustrés par des applications à l'écologie et la sédimentologie. <br /> Il s'agit d'abord, dans un premier article intitulé The use of regularization methods in computing Radon-Nikodym derivatives. Application to grain-size distributions, de résoudre un problème d'approximation de densités pour résoudre un problème de sédimentologie. Dans le second article, intitulé Principal components analysis of measures, with special emphasis on grain-size curves, on propose une méthodologie originale pour réaliser des ACP de granulométries, utilisant le cadre fonctionnel mis en place dans l'article précédent. Ce travail est illustré par l'élaboration de plusieurs cartographies sédimentaires de l'étang de Berre, en fonction de la mesure de référence choisie.<br /> <br />Comme l'indique son titre : « La turbulence et le plancton », le chapitre 4 met en relation l'Ecologie et l'Océanographie Physique. Au cœur de ce chapitre se trouve le « paradoxe du plancton » : pourquoi y a-t-il une telle biodiversité dans les océans, alors qu'il s'y trouve si peu de ressources ' Pour certains chercheurs, l'explication de ce paradoxe réside dans la turbulence, qui favoriserait l'apport de nutriments aux cellules phytoplanctoniques. Afin de valider numériquement un modèle de croissance du phytoplancton basé sur cette hypothèse et incorporant la turbulence, il est nécessaire de simuler celle-ci. Nous proposons de la modéliser par une puissance d'un processus stochastique à longue portée. Afin d'estimer le principal paramètre de ce processus (son exposant de Hurst) à partir de données disponibles, nous avons proposé des améliorations méthodologiques, qui on fait l'objet d'un article joint: Application of resampling and linear spline methods to spectral and dispersional analyses of long-memory processes. Les améliorations attendues sont testées sur des données simulées et sur les données classiques de l'historique du niveau d'eau du Nil, ainsi que sur la chronique de l'Oscillation Nord-Atlantique (NAO).
3

Effets préventifs, effets dissuasifs : analyse quasi-expérimentale d'une opération policière de prévention des cambriolages résidentiels

Charest, Mathieu January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Caractérisation de l'auto-organisation et de la complexité des écosystèmes

Meloche, Francis January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
5

Une nouvelle classe de modèles auto-régressifs à valeurs entières

Kachour, Maher 09 December 2009 (has links) (PDF)
Dans certaines situations il devient nécessaire de traiter les séries chronologiques à valeurs entières. Au premier regard, l'analyse de telle série peut présenter quelques difficultés, notamment si l'analyse est basée sur quelques modèles stochastiques. Ces modèles doivent refléter la particularité entière de la série observée. De nombreuses tentatives ont été faites pour définir des modèles qui peuvent être utilisés pour décrire les séries chronologiques à valeurs entières. La plupart des modèles proposés sont basés sur l'opérateur d'amincissement et possèdent les mêmes propriétés que les modèles à valeurs réelles bien-connus dans la littérature. L'objectif de cette thèse est d'étudier les modèles auto-régressifs à valeurs entières. Nous introduisons une nouvelle classe de modèles basés sur l'opérateur d'arrondi. Par rapport aux modèles existants, la nouvelle classe a plusieurs avantages: structure d'innovation simple, coefficients de régression avec des signes arbitraires, valeurs négatives possibles pour la série chronologiques et pour la fonction d'auto-corrélation. Nous étudions la stationnarité des modèles et la consistance forte de l'estimateur des moindres carrés proposé pour estimer les paramètres. Nous analysons quelques séries chronologiques à valeurs entières bien-connues avec les modèles introduits.
6

Modèles de séries chronologiques Bilinéaires : Estimations, Algorithmes et Applications

Bouzaâchane, Khadija 16 December 2006 (has links) (PDF)
Plusieurs travaux sur l'estimation des paramètres de certains modèles bilinéaires ont été réalisé avec quelques applications et simulations.<br />Notre objectif dans cette thèse était alors, d'édifier un nouvel algorithme d'estimation des paramètres de ces modèles, et leur utilisation dans la modélisation des données issues de phénomènes réels.<br />Notre avons développé notre nouvelle technique d'estimation en se basant sur la méthode du maximum de vraisemblance et l'algorithme du filtre de Kalman, ce dernier requiert une représentation en espace d'état de ces modèles. nous avons pour cela utilisé la représentation affine en état polynomiale en entrée introduite par Guégan et la représentation de Hamilton.<br />Pour exhiber la bonne performance de notre approche nous avons généré plusieurs simulations.<br />Notre algorithme d'estimation a été implémenté dans un outil logiciel, que nous avons conçu au profit de certains modèles bilinéaires particuliers.
7

Inférence statistique pour l'optimisation stochastique : applications en finance et en gestion de production

Guigues, Vincent 30 June 2005 (has links) (PDF)
L'objet de cette thèse est de modéliser et analyser des problèmes d'optimisation stochastique et de proposer des méthodes de résolution pour ces problèmes.<br />Dans une première partie, on considère des problèmes d'allocation d'actifs se formulant comme des problèmes d'optimisation convexes. La fonction coût et les contraintes dépendent d'un paramètre multidimensionnel inconnu. On montre, sous l'hypothèse d'homogénéité temporelle locale pour le processus des rendements, que l'on peut construire des approximations du problème original se servant d'une estimation adaptative du paramètre inconnu. La précision du problème approché est fournie. Cette méthode a été appliquée sur les problèmes VaR et de Markowitz et l'on présente les résultats de simulations numériques sur des données réelles et simulées. On propose ensuite une analyse de sensibilité pour une classe de problèmes quadratiques dont on déduit une analyse de sensibilité du problème de Markowitz. Pour ce problème, on propose alors une calibration stable de la matrice de covariance et des contreparties robustes. <br />La deuxième partie porte sur l'analyse de problèmes de gestion de production et en particulier le problème de gestion de production électrique. Nous proposons de nouvelles modélisations pour ce problème et des moyens pour les mettre en oeuvre. L'un des modèles conduit à une résolution par décomposition par les prix. Dans ce cas, on montre comment calculer la fonction duale par programmation dynamique. On explique enfin comment dans chaque cas, une stratégie de gestion est mise en place. Les différentes méthodes de gestion sont comparées sur des données réelles et simulées.
8

Comparaison des documents audiovisuels<br />par Matrice de Similarité

Haidar, Siba 20 September 2005 (has links) (PDF)
Les travaux de cette thèse concernent la comparaison des documents vidéo. Dans le domaine en pleine expansion de la vidéo numérique, les documents disponibles sont maintenant présents en quantité importante même dans les foyers. Opération de base de tout type d'analyse de contenus, en complément de la classification, de l'extraction et de la structuration, la comparaison dans le domaine de l'audiovisuel est d'une utilité qui n'est pas à démontrer.<br />Des approches classiques de comparaison se basent essentiellement sur l'ensemble des caractéristiques<br />bas niveaux des documents à comparer, en les considérant comme des vecteurs multidimensionnels. D'autres approches se basent sur la similarité des images composant la vidéo sans tenir compte de la composition temporelle du document ni de la bande<br />son. Le défaut que l'on peut reprocher à ces méthodes est qu'elles restreignent la comparaison à un simple opérateur binaire robuste au bruit. De tels opérateurs sont généralement utilisés afin d'identifier les différents exemplaires d'un même document. L'originalité de notre démarche réside dans le fait que nous introduisons la notion de la similarité de style<br />en s'inspirant des critères humains dans la comparaison des documents vidéo. Ces critères<br />sont plus souples, et n'imposent pas une similarité stricte de toutes les caractéristiques étudiées<br />à la fois.<br />En nous inspirant de la programmation dynamique et de la comparaison des séries chronologiques, nous définissons un algorithme d'extraction des similarités entre les séries de valeurs produites par l'analyse de caractéristiques audiovisuelles de bas-niveau. Ensuite, un second traitement générique approxime le résultat de l'algorithme de la longueur de la Plus<br />Longue Sous-Séquence Commune (PLSC) plus rapidement que ce dernier. Nous proposons une représentation des données issues de ces traitements sous la forme d'un schéma matriciel propre à la comparaison visuelle et immédiate de deux contenus. Cette matrice peut être également utilisée pour définir une mesure de similarité générique, applicable à des documents de même genre ou de genres hétérogènes.<br />Plusieurs applications ont été mises en place pour démontrer le comportement de la méthode de comparaison et de la mesure de similarité, ainsi que leur pertinence. Les expérimentations concernent essentiellement : - l'identification d'une structure organisationnelle en collection / sous-collection d'une base de documents, - la mise en évidence d'éléments<br />stylistiques dans un film de cinéma, - la mise en évidence de la grille de programmes d'un<br />flux de télévision.
9

Utilisation des notions de dépendance faible en statistique

Wintenberger, Olivier 11 June 2007 (has links) (PDF)
La dépendance faible est un outil très performant pour obtenir des résultats asymptotiques en statistique des séries chronologiques. Son atout majeur est de résumer les propriétés de dépendance de très nombreux modèles via le comportement d'une suite de coefficients. Dans un problème où le modèle n'est pas clairement identifiable, des hypothèses sur les coefficients de dépendance faible sont parfois moins contraignantes que le choix d'un modèle. De plus, pour certains modèles causaux, la dépendance faible permet d'étudier les propriétés de dépendance là où toutes les autres notions (de mélange par exemple) échouent. Les coefficients permettent d'élargir aux séries chronomogiques des résultats asymptotiques classiques du cas de référence, celui d'observations indépendantes.
10

La télésurveillance policière dans les lieux publics : une évaluation du projet Robocam

D'Elia, Maurizio January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0983 seconds