Spelling suggestions: "subject:"chronologiques"" "subject:"echronologiques""
51 |
Exploring multivariate adaptations of the Lag-Llama univariate time series forecasting approachKhorasani, Arian 09 1900 (has links)
The focus of this study explores the adaptations of the Lag-Llama univariate time series forecasting approach [8] to handle multivariate time series, named LSTM2Lag-Llama. This extension is motivated by the increasing necessity to deal with datasets containing many variables of interest, particularly in the healthcare sector. A novel approach is introduced that harnesses the capabilities of the Long Short-Term Memory (LSTM) model. The baseline LSTM model takes multivariate input data and has been used widely to capture long-range dependencies within time series data. These features make it an ideal candidate for our task of expanding the Lag-Llama model to handle multivariate time series. The research process involves a detailed and systematic LSTM2Lag-Llama model to accommodate multiple input and output variables. This adaptation process is not a straightforward task. It requires careful consideration of the model architecture, loss function, and training methodologies. The performance of the LSTM2Lag-Llama model is then evaluated using a real-world dataset on early sepsis predictions. This dataset presents a challenging yet practical scenario for time series forecasting, making it an ideal testbed for our LSTM2Lag-Llama model. The results of this research demonstrate the feasibility and effectiveness of the proposed approach, representing a significant step towards exploring multivariate adaptations of the Lag-Llama model. The LSTM2Lag-Llama model not only handles multivariate data but also leverages the LSTM model’s ability to capture multivariate relationships in its hidden states. While the study does not directly implement the model in a practical healthcare setting, it underscores the potential of such advancements in time series forecasting techniques. This research represents a significant contribution to the field of time series forecasting in healthcare. It opens up new avenues for future research and has the potential to significantly impact the way healthcare professionals use time series data for prediction and decision-making. / L'objectif de cette étude est d'explorer les adaptations de l'approche de prévision univariée des séries temporelles Lag-Llama [8] pour traiter les séries temporelles multivariées, nommée LSTM2Lag-Llama. Cette extension est motivée par la nécessité croissante de traiter des ensembles de données contenant de nombreuses variables d'intérêt, notamment dans le secteur de la santé. Une nouvelle approche est introduite qui exploite les capacités du modèle Long Short-Term Memory (LSTM). Le modèle LSTM de base prend des données d'entrée multivariées et a été largement utilisé pour capturer les dépendances à long terme dans les données de séries temporelles. Ces caractéristiques en font un candidat idéal pour notre tâche d'extension du modèle Lag-Llama pour gérer les séries temporelles multivariées. Le processus de recherche implique un modèle LSTM2Lag-Llama détaillé et systématique pour accueillir plusieurs variables d'entrée et de sortie. Ce processus d'adaptation n'est pas une tâche simple. Il nécessite une considération minutieuse de l'architecture du modèle, de la fonction de perte et des méthodologies d'apprentissage. Les performances du modèle LSTM2Lag-Llama sont ensuite évaluées à l'aide d'un ensemble de données du monde réel sur les prédictions précoces de septicémie. Cet ensemble de données présente un scénario difficile mais pratique pour la prévision de séries temporelles, ce qui en fait un banc d'essai idéal pour notre modèle LSTM2Lag-Llama. Les résultats de cette recherche démontrent la faisabilité et l'efficacité de l'approche proposée, ce qui représente une étape importante vers l'exploration des adaptations multivariées du modèle Lag-Llama. Le modèle LSTM2Lag-Llama gère non seulement les données multivariées, mais tire également parti de la capacité du modèle LSTM à capturer les relations multivariées dans ses états cachés. Bien que l'étude n'implémente pas directement le modèle dans un contexte pratique de soins de santé, elle souligne le potentiel de telles avancées dans les techniques de prévision des séries temporelles. Cette recherche représente une contribution significative au domaine de la prévision des séries temporelles dans le domaine de la santé. Elle ouvre de nouvelles voies pour la recherche future et a le potentiel d'impact significatif sur la manière dont les professionnels de la santé utilisent les données de séries temporelles pour la prédiction et la prise de décision.
|
52 |
Analyse des bornes extrêmes et le contrôle des armes à feu : l’effet de la Loi C-68 sur les homicides au QuébecLinteau, Isabelle 12 1900 (has links)
Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides. / Context and objectives. Laws with extensive background checks and making mandatory the registration of all guns have been adopted by some governments to prevent firearms-related homicides. On the other hand, methodological flaws found in previous evaluations question the potential of such laws to prevent gun homicides. By taking into account previous limitations, the main objective of this study is to estimate the effect of Bill C-68 on homicides committed in the Province of Quebec, Canada, between 1974 and 2006. Methodology. Using extreme bounds analysis, we assess the effect of Bill C-68 on homicides. Estimates of the immediate and gradual effects of the law are based on a total of 372 equations. More precisely, interrupted time series analyses were conducted, using all possible variable combinations, in order to overcome biases related to model specification. Results. We found that Bill C-68 is associated with a significant and gradual decline in homicides committed with a long gun (either a riffle or a shotgun). The substitution effects are not robust with respect to different model specifications. Patterns observed in homicides involving restricted or prohibited firearms suggest that they are influenced by different factors, not considered in our analyses. Conclusion. Results suggest that enhanced firearm control laws are an effective tool to prevent homicides. The lack of tactical displacement supports the concept of firearm as a crime facilitator and suggests that all homicides are not carefully planned. Other studies are however needed to pinpoint law provisions accountable for the decrease in homicides.
|
53 |
Prévention, contre-prévention et analyse d’impact : le cas du clonage de carte de débitWolfshagen, Paul-Alexandre 04 1900 (has links)
Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des
coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un
crime économique en expansion contre lequel plusieurs organisations ont entrepris des
actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des
mesures de prévention situationnelle appliquées dans les succursales d’un commerce de
détail et leur impact sur le processus décisionnel des délinquants impliquées dans le
clonage de cartes de débit.
Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide
d’analyses de séries chronologiques interrompues. En complément des analyses
statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues
sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de
détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des
fraudes par carte de débit.
Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il
fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis.
Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans
le choix de la cible, un déplacement dans le type de crime commis et, finalement, un
déplacement tactique.
Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont
empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la
présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés
aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et
les déplacements générés, d’autres études s’avèrent nécessaires. / Context and objectives. Each year, economic crimes generate important economic and
social losses. Many enterprises, including private enterprises, collaborated and
introduced initiatives in order to combat this criminality. Fraud using automated
payment cards is a crime in full expansion against which many organizations have taken
actions. The objective of this dissertation is, on one hand, to improve the knowledge on
the impact of preventive measures implemented in the branches of a retailer and, on the
other hand, to estimate their impact on the criminal decision-making process.
Methodology. The effect of preventive measures is assessed through interrupted time
series analysis. In addition, members the retailer security staff were interviewed and a
review of event reports associated with debit card fraud was performed.
Results. The preventive measures were associated to various results. Depending on the
preventive measure, one can observe either an increase or a decrease in the number of
crimes performed. It is also observed that some measures have resulted in tactical and
spatial displacements. Some offenders have also started to commit other types of crimes.
Conclusion. The results suggest that the preventive measures implemented had a
significant preventive effect on debit card crimes. However, the presence of many types
of displacement shows that the offenders have adjusted to those preventive measures. In
order to properly document this type of crime and associated displacements, additional
studies are necessary.
|
54 |
Sur les tests lisses d'ajustement dans le context des series chronologiquesTagne Tatsinkou, Joseph Francois 12 1900 (has links)
La plupart des modèles en statistique classique repose sur une hypothèse sur
la distribution des données ou sur une distribution sous-jacente aux données. La
validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles
de confiance ou encore de tester la fiabilité du modèle. La problématique
des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de
l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons
des tests d’ajustement à la loi normale dans le cadre des séries chronologiques
univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques
linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA
ou VARMA dans le cas vectoriel).
Dans un premier temps, au cas univarié, nous proposons une généralisation du
travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est
inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement
utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous
avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis
(1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du
paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de
la matrice des variances et des covariances de la statistique de test à partir de
certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la
moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode
de sélection de la dimension de la famille d’alternatives de type AIC, et nous
étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est
basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes
de Legendre.
Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement
pour les modèles autorégressifs à moyenne mobile avec une paramétrisation
structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes
particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le
test que nous proposons s’applique à une famille quelconque de fonctions orthogonales.
Nous illustrons cela dans le cas particulier des polynômes de Legendre
et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons
que le test obtenu est invariant aux transformations affines et qu’il est en fait
une généralisation de nombreux tests existants dans la littérature. Ce projet peut
être vu comme une généralisation du premier dans trois directions, notamment le
passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions
orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes
dans la formulation VARMA.
Nous avons procédé dans chacun des projets à une étude de simulation afin
d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer
aux tests existants. De plus des applications aux données réelles sont fournies.
Nous avons appliqué les tests à la prévision de la température moyenne annuelle
du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail
canadien (bivarié).
Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne,
Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un
article basé sur le premier projet est également soumis dans une revue avec comité
de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)). / Several phenomena from natural and social sciences rely on distribution’s assumption
among which the normal distribution is the most popular. The validity
of that assumption is useful to setting up forecast intervals or for checking model
adequacy of the underlying model. The goodness-of-fit procedures are tools to
assess the adequacy of the data’s underlying assumptions. Autoregressive and moving
average time series models are often used to find the mathematical behavior
of these phenomena from natural and social sciences, and especially in the finance
area. These models are based on some assumptions including normality distribution
for the innovations. Normality assumption may be helpful for some testing
procedures. Furthermore, stronger conclusions can be drawn from the adjusted
model if the white noise can be assumed Gaussian. In this work, goodness-of-fit
tests for checking normality for the innovations from autoregressive moving average
time series models are proposed for both univariate and multivariate cases
(ARMA and VARMA models).
In our first project, a smooth test of normality for ARMA time series models
with unknown mean based on a least square type estimator is proposed.
We derive the asymptotic null distribution of the test statistic. The result here
is an extension of the paper of Ducharme et Lafaye de Micheaux (2004), where
they supposed the mean known and equal to zero. We use the least square type
estimator proposed by Brockwell et Davis (1991, section 10.8) and we provide a
rigorous proof that it is almost surely convergent. We show that the covariance
matrix of the test is nonsingular regardless if the mean is known. We have also
studied a data driven approach for the choice of the dimension of the family and
we gave a finite sample approximation of the null distribution. Finally, the finite
and asymptotic sample properties of the proposed test statistic are studied via a
small simulation study.
In the second project, goodness-of-fit tests for checking multivariate normality
for the innovations from vector autoregressive moving average time series
models are proposed. Since these time series models may rely on a large number
of parameters, structured parameterization of the functional form is allowed. The
methodology also relies on the smooth test paradigm and on families of orthonormal
functions with respect to the multivariate normal density. It is shown that
the smooth tests converge to convenient chi-square distributions asymptotically.
An important special case makes use of Hermite polynomials, and in that situation
we demonstrate that the tests are invariant under linear transformations.
We observed that the test is not invariant under linear transformations with Legendre
polynomials. A consistent data driven method is discussed to choose the
family order from the data. In a simulation study, exact levels are studied and
the empirical powers of the smooth tests are compared to those of other methods.
Finally, an application to real data is provided, specifically on Canadian labour
market data and annual global temperature.
These works were exposed at several meeting (see for example Tagne, Duchesne
and Lafaye de Micheaux (2013a, 2013b, 2014) for more details). A paper
based on the first project is submitted in a refereed journal (see Duchesne, Lafaye
de Micheaux et Tagne (2016)).
|
55 |
Effet de l’assouplissement du contrôle des armes à feu sur les homicides au Canada entre 1974 et 2016Viau-Deschênes, Catherine 08 1900 (has links)
No description available.
|
56 |
La réaction sociale sur Twitter après un attentat terroriste : une analyse de l’attaque de BerlinCaron, Marie-Jacques 08 1900 (has links)
No description available.
|
57 |
Self-organizing map quantization error approach for detecting temporal variations in image sets / Détection automatisée de variations critiques dans des séries temporelles d'images par algorithmes non-supervisées de KohonenWandeto, John Mwangi 14 September 2018 (has links)
Une nouvelle approche du traitement de l'image, appelée SOM-QE, qui exploite quantization error (QE) des self-organizing maps (SOM) est proposée dans cette thèse. Les SOM produisent des représentations discrètes de faible dimension des données d'entrée de haute dimension. QE est déterminée à partir des résultats du processus d'apprentissage non supervisé du SOM et des données d'entrée. SOM-QE d'une série chronologique d'images peut être utilisé comme indicateur de changements dans la série chronologique. Pour configurer SOM, on détermine la taille de la carte, la distance du voisinage, le rythme d'apprentissage et le nombre d'itérations dans le processus d'apprentissage. La combinaison de ces paramètres, qui donne la valeur la plus faible de QE, est considérée comme le jeu de paramètres optimal et est utilisée pour transformer l'ensemble de données. C'est l'utilisation de l'assouplissement quantitatif. La nouveauté de la technique SOM-QE est quadruple : d'abord dans l'usage. SOM-QE utilise un SOM pour déterminer la QE de différentes images - typiquement, dans un ensemble de données de séries temporelles - contrairement à l'utilisation traditionnelle où différents SOMs sont appliqués sur un ensemble de données. Deuxièmement, la valeur SOM-QE est introduite pour mesurer l'uniformité de l'image. Troisièmement, la valeur SOM-QE devient une étiquette spéciale et unique pour l'image dans l'ensemble de données et quatrièmement, cette étiquette est utilisée pour suivre les changements qui se produisent dans les images suivantes de la même scène. Ainsi, SOM-QE fournit une mesure des variations à l'intérieur de l'image à une instance dans le temps, et lorsqu'il est comparé aux valeurs des images subséquentes de la même scène, il révèle une visualisation transitoire des changements dans la scène à l'étude. Dans cette recherche, l'approche a été appliquée à l'imagerie artificielle, médicale et géographique pour démontrer sa performance. Les scientifiques et les ingénieurs s'intéressent aux changements qui se produisent dans les scènes géographiques d'intérêt, comme la construction de nouveaux bâtiments dans une ville ou le recul des lésions dans les images médicales. La technique SOM-QE offre un nouveau moyen de détection automatique de la croissance dans les espaces urbains ou de la progression des maladies, fournissant des informations opportunes pour une planification ou un traitement approprié. Dans ce travail, il est démontré que SOM-QE peut capturer de très petits changements dans les images. Les résultats confirment également qu'il est rapide et moins coûteux de faire la distinction entre le contenu modifié et le contenu inchangé dans les grands ensembles de données d'images. La corrélation de Pearson a confirmé qu'il y avait des corrélations statistiquement significatives entre les valeurs SOM-QE et les données réelles de vérité de terrain. Sur le plan de l'évaluation, cette technique a donné de meilleurs résultats que les autres approches existantes. Ce travail est important car il introduit une nouvelle façon d'envisager la détection rapide et automatique des changements, même lorsqu'il s'agit de petits changements locaux dans les images. Il introduit également une nouvelle méthode de détermination de QE, et les données qu'il génère peuvent être utilisées pour prédire les changements dans un ensemble de données de séries chronologiques. / A new approach for image processing, dubbed SOM-QE, that exploits the quantization error (QE) from self-organizing maps (SOM) is proposed in this thesis. SOM produce low-dimensional discrete representations of high-dimensional input data. QE is determined from the results of the unsupervised learning process of SOM and the input data. SOM-QE from a time-series of images can be used as an indicator of changes in the time series. To set-up SOM, a map size, the neighbourhood distance, the learning rate and the number of iterations in the learning process are determined. The combination of these parameters that gives the lowest value of QE, is taken to be the optimal parameter set and it is used to transform the dataset. This has been the use of QE. The novelty in SOM-QE technique is fourfold: first, in the usage. SOM-QE employs a SOM to determine QE for different images - typically, in a time series dataset - unlike the traditional usage where different SOMs are applied on one dataset. Secondly, the SOM-QE value is introduced as a measure of uniformity within the image. Thirdly, the SOM-QE value becomes a special, unique label for the image within the dataset and fourthly, this label is used to track changes that occur in subsequent images of the same scene. Thus, SOM-QE provides a measure of variations within the image at an instance in time, and when compared with the values from subsequent images of the same scene, it reveals a transient visualization of changes in the scene of study. In this research the approach was applied to artificial, medical and geographic imagery to demonstrate its performance. Changes that occur in geographic scenes of interest, such as new buildings being put up in a city or lesions receding in medical images are of interest to scientists and engineers. The SOM-QE technique provides a new way for automatic detection of growth in urban spaces or the progressions of diseases, giving timely information for appropriate planning or treatment. In this work, it is demonstrated that SOM-QE can capture very small changes in images. Results also confirm it to be fast and less computationally expensive in discriminating between changed and unchanged contents in large image datasets. Pearson's correlation confirmed that there was statistically significant correlations between SOM-QE values and the actual ground truth data. On evaluation, this technique performed better compared to other existing approaches. This work is important as it introduces a new way of looking at fast, automatic change detection even when dealing with small local changes within images. It also introduces a new method of determining QE, and the data it generates can be used to predict changes in a time series dataset.
|
58 |
Contributions à la statistique des processus et à l'estimation fonctionnelleRachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.
|
59 |
Comparaison qualitative et quantitative de modèles proie-prédateur à des données chronologiques en écologieJost, Christian 11 December 1998 (has links) (PDF)
La présente thèse compare deux modèles proie-prédateur avec les dynamiques temporelles de<br />systèmes observés en laboratoire ou sur le terrain. Le premier modèle suppose que la réponse<br />fonctionnelle dépend uniquement de la densité des proies, et présente donc les caractéristiques<br />des modèles où les abondances sont contrôlées "de haut en bas". Au contraire, le second<br />modèle considère que la réponse fonctionnelle dépend du ratio entre densité de proies et densité de prédateurs, et inclut donc une régulation des abondances "de bas en haut".L'analyse<br />mathématique de ce modèle ratio-dépendant fait apparaître des dynamiques de bord riches avec<br />de multiples attracteurs, dont l'un est l'origine (extinction des deux populations). La différence<br />majeure entre les deux modèles réside dans leurs prédictions sur la réponse d'un système à<br />l'enrichissement: déstabilisation, et augmentation de l'abondance à l'équilibre du prédateur<br />uniquement dans le modèle proie-dépendant, stabilité inchangée et augmentation de l'abondance<br />à l'équilibre des proies et des prédateurs dans le modèle ratio-dépendant. La comparaison de ces<br />deux modèles avec le modèle verbal PEG (décrivant la dynamique planctonique dans les lacs)<br />montre que tous deux peuvent rendre compte de cette dynamique si des changements saisonniers<br />sont introduits dans les valeurs d'un ou plusieurs paramètres. Nous comparons quantitativement<br />les deux modèles avec différents types de séries temporelles de systèmes proie-prédateur<br />par la méthode du maximum de vraisemblance. Les données concernant des protozoaires ou<br />des arthropodes (en laboratoire) sont en général mieux décrites par le modèle proie-dépendant.<br />Pour l'interaction phytoplancton-zooplancton, les deux modèles conviennent aussi bien l'un que<br />l'autre. Le fait d'utiliser les deux modèles peut alors permettre de détecter parmi les prédictions<br />celles qui sont sensibles à la prédateur-dépendance et, éventuellement, d'orienter des recherches<br />supplémentaires.
|
60 |
Analyse des bornes extrêmes et le contrôle des armes à feu : l’effet de la Loi C-68 sur les homicides au QuébecLinteau, Isabelle 12 1900 (has links)
Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides. / Context and objectives. Laws with extensive background checks and making mandatory the registration of all guns have been adopted by some governments to prevent firearms-related homicides. On the other hand, methodological flaws found in previous evaluations question the potential of such laws to prevent gun homicides. By taking into account previous limitations, the main objective of this study is to estimate the effect of Bill C-68 on homicides committed in the Province of Quebec, Canada, between 1974 and 2006. Methodology. Using extreme bounds analysis, we assess the effect of Bill C-68 on homicides. Estimates of the immediate and gradual effects of the law are based on a total of 372 equations. More precisely, interrupted time series analyses were conducted, using all possible variable combinations, in order to overcome biases related to model specification. Results. We found that Bill C-68 is associated with a significant and gradual decline in homicides committed with a long gun (either a riffle or a shotgun). The substitution effects are not robust with respect to different model specifications. Patterns observed in homicides involving restricted or prohibited firearms suggest that they are influenced by different factors, not considered in our analyses. Conclusion. Results suggest that enhanced firearm control laws are an effective tool to prevent homicides. The lack of tactical displacement supports the concept of firearm as a crime facilitator and suggests that all homicides are not carefully planned. Other studies are however needed to pinpoint law provisions accountable for the decrease in homicides.
|
Page generated in 0.055 seconds