• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 16
  • 4
  • Tagged with
  • 69
  • 24
  • 23
  • 14
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Programmes d'aide à l'emploi et solidarité sociale : analyse causale des effets de la participation par l'approche des forêts aléatoires

Rancourt, Marie-Pierre 27 January 2024 (has links)
Dans ce mémoire, nous évaluons l’effet des programmes d’aide à l’emploi sur le nombre de sorties de l’aide sociale et la durée cumulative passée en dehors de celle-ci chez les prestataires vivant avec des contraintes sévères à l’emploi. Il est évident que tous les prestataires ne tireront pas les mêmes bénéfices de la participation à un programme et pour cette raison il est utile d’évaluer des effets de traitement conditionnellement aux caractéristiques de chaque individu. Pour bien répondre à la question de recherche, nous avons besoin d’une méthode flexible nous permettant d’estimer des effets de traitement hétérogènes. Pour ce faire, nous utilisons une technique d’apprentissage automatique nommée generalized random forests (grf ) nous permettant d’évaluer des effets de traitement hétérogènes en conditionnant sur les caractéristiques des individus. Nous avons utilisé une base de données fournie par le Ministère du Travail, de l’Emploi et de la Solidarité sociale (MTESS) contenant les observations mensuelles de tous les prestataires d’aide et de solidarité sociale entre 1999 et 2018 au Québec. Grâce à la méthode grf et à la base de données du MTESS, nous avons trouvé que les prestataires présentant les plus longues durées cumulatives à l’aide sociale ont des effets de traitement moins élevés que ceux présentant des durées plus courtes. Nous avons également observé que les prestataires les plus jeunes et les plus scolarisés bénéficient davantage de la participation aux programmes que les autres. C’est également le cas des individus qui ont un diagnostic auditif et de ceux qui n’ont pas un diagnostic organique. / In this thesis, we assess the effect of employment assistance programs on the number of exits from social assistance and the cumulative duration spent outside of it among beneficiaries living with severe constraints. It is obvious that not all beneficiaries will derive the same benefits from participating in a program and for this reason it is useful to assess treatment effects conditional on the characteristics of each individual. To answer the research question, we need a flexible method that allows us to estimate differentiated treatment effects based on individual characteristics. To do this, we use a machine learning technique called generalized random forests (grf ) allowing us to evaluate heterogeneous treatment effects by conditioning on the characteristics of individuals. We used a database provided by the Ministère du Travail, de l’Emploi et de la Solidarité sociale (MTESS) containing monthly observations of all recipients of social assistance between 1999 and 2018 in Quebec. Using the grf method and the MTESS database, we found that beneficiaries with the longest cumulative durations on social assistance had lower treatment effects than those with shorter durations. We also observed that the younger and more educated beneficiaries benefited more from program participation than the others. This is also the case for individuals who have an auditory diagnosis and those who do not have an organic diagnosis.
32

Applications de méthodes de classification non supervisées à la détection d'anomalies

Jabiri, Fouad 27 January 2024 (has links)
Dans ce présent mémoire, nous présenterons dans un premier temps l’algorithme d’arbres binaires de partitionnement et la forêt d’isolation. Les arbres binaires sont des classificateurs très populaires dans le domaine de l’apprentissage automatique supervisé. La forêt d’isolation appartient à la famille des méthodes non supervisées. Il s’agit d’un ensemble d’arbres binaires employés en commun pour isoler les instances qui semblent aberrantes ou anormales. Par la suite, nous présenterons l’approche que nous avons nommée "Exponential smoothig" (ou "pooling"). Cette technique consiste à encoder des séquences de variables de longueurs différentes en un seul vecteur de taille fixe. En effet, l’objectif de ce mémoire est d’appliquer l’algorithme des forêts d’isolation pour identifier les anomalies dans les réclamations et les formulaires d’assurances disponibles dans la base de données d’une grande compagnie d’assurances canadienne. Cependant, un formulaire est une séquence de réclamations. Chaque réclamation est caractérisée par un ensemble de variables. Ainsi, il serait impossible d’appliquer l’algorithme des forêts d’isolation directement sur ce genre de données. Pour cette raison, nous allons appliquer le pooling. Notre application parvient effectivement à isoler des réclamations et des formulaires anormaux. Nous constatons que ces derniers ont plus tendances à être audités parla compagnie que les formulaires normaux. / In this thesis, we will first present the binary tree partitioning algorithm and isolation forests. Binary trees are very popular classifiers in supervised machine learning. The isolation forest belongs to the family of unsupervised methods. It is an ensemble of binary trees used in common to isolate outlying instances. Subsequently, we will present the approach that we have named "Exponential smoothig" (or "pooling"). This technique consists in encoding sequences of variables of different lengths into a single vector of fixed size. Indeed, the objective of this thesis is to apply the algorithm of isolation forests to identify anomalies in insurance claim forms available in the database of a large Canadian insurance company in order to detect cases of fraud. However, a form is a sequence of claims. Each claim is characterized by a set of variables and thus it will be impossible to apply the isolation forest algorithm directly to this kind of data. It is for this reason that we are going to apply Exponential smoothing. Our application effectively isolates claims and abnormal forms, and we find that the latter tend to be audited by the company more often than regular forms.
33

Prédire le renoncement à la libération conditionnelle : une approche par apprentissage automatique

Lokossou, Fiacre 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 12 octobre 2023) / Dans ce mémoire, nous identifions les facteurs les plus susceptibles d'expliquer la renonciation à la libération conditionnelle au Québec. Deux approches ont été utilisées pour analyser les renonciations : une approche économétrique avec l'emploi de modèles de régression logistiques logit et lasso puis une approche d'apprentissage automatique basée sur un arbre de décision et une forêt aléatoire. Les variables utilisées dans ce mémoire tiennent compte des caractéristiques sociodémographiques des détenus, des facteurs liés à l'infraction, des facteurs liés à l'évaluation LS/CMI ainsi que les informations sur la santé mentale du détenu. L'analyse est fondée sur une base de données du Ministère de la Sécurité publique. Nous trouvons que les détenus ayant des comportements antisociaux très élevés, des problèmes d'alcool et de drogues très élevés et ceux ayant commis des viols ou agressions sexuelles sont plus sujets à renoncer. Par ailleurs, les femmes ont plus tendance à renoncer que les hommes, tandis que les personnes autochtones avaient 53 % moins de risque de renoncer à une audience que les personnes non autochtones. En outre, les problèmes de fréquentation, la nature du crime, l'âge, le comportement antisocial, les antécédents criminels et l'ethnicité sont les variables les plus importantes pour prédire la renonciation au Québec. / We identify the factors most likely to explain the renunciation of parole in Quebec. Two approaches were used to analyze the waivers : an econometric approach with the use of logit and lasso logistic regression models and then a machine learning approach based on a decision tree and a random forest. The variables used in this thesis take into account the socio-demographic characteristics of the inmates, factors related to the offence, factors related to the LS/CMI evaluation as well as information on the mental health of the inmate. The analysis is based on a database from the Ministry of Public Security. We find that inmates with very high antisocial behavior, very high alcohol and drug problems, and those who have committed rape or sexual assault are more likely to give up. Furthermore, women are more likely to opt out than men, while Indigenous people were 53 % less likely to opt out of a hearing than non-Indigenous people. In addition, relationship problems, nature of the crime, age, antisocial behavior, criminal history, and ethnicity are the most important variables in predicting quitting in Quebec.
34

Modèles prédictifs pour la réduction des coûts associés aux non-conformités lors de la teinte des tissus

Bourdeau-Laferrière, Catherine 27 January 2024 (has links)
L'industrie manufacturière produit de plus en plus de produits différents avec un plus faible volume, ce qui fait considérablement augmenter la variabilité du procédé. Cette variabilité rend le maintien de la qualité des produits plus ardu qu'auparavant. L'industrie du textile ne fait pas exception à la règle. Par exemple, dans ce mémoire, le partenaire industriel, Duvaltex a tenté de contrôler leur non-conformité en ce qui concerne la couleur des pièces de tissu teint en mettant en place une règle d'affaire. En utilisant des données historiques fournies par l'entreprise, des modèles prédictifs ont été développés afin de pouvoir aiguiller la stratégie de test. La performance de ces modèles a été comparée à celle de leur règle d'affaires. Le modèle des forêts aléatoires améliore de 12% (taux de faux négatifs) la performance de leur règle qui était en place. Également, les modèles proposés permettent à Duvaltex de choisir le nombre de tests qu'ils souhaitent effectuer en fonction de leur budget ainsi que du nombre de pièces non conformes qu'ils sont prêts à tolérer.
35

Détermination de la pollution atmosphérique métallique : étude critique de l'utilisation des écorces d'arbres

Catinon, Mickaël 22 January 2010 (has links) (PDF)
L'atmosphère terrestre est le siège d'un transport de matière, en particulier d'éléments d'origines diverses, dont une proportion importante résulte des activités humaines. Ce phénomène induit des conséquences parfois graves, pour la santé humaine et pour la fonctionnalité des écosystèmes. Les éléments ainsi transférés sont redéposés, de manière complexe, à la surface de la terre, avec une cartographie de distribution très inégale, des possibilités d'accumulation, ou au contraire de dilution, variables, conduisant à des altérations diversifiées de la composition des eaux et des sols et de la fonctionnalité des êtres vivants. La redéposition atmosphérique est étudiée depuis une cinquantaine d'année sur les troncs des arbres, qui constituent une matrice verticale commune, très enrichie par l'apport atmosphérique, et pouvant mener soit à une analyse de composition, soit à des études de bioindication. Il en a découlé des tests de routine largement utilisés. Cependant, pour définir avec précision les apports d'origine anthropique et mieux maîtriser, en vue de les réduire, les apports anormaux ou dangereux, une étude en profondeur de cette déposition corticale devait être entreprise. C'est l'objet de ce mémoire. Au regard de la complexité du problème abordé, nous nous sommes essentiellement limité à l'étude d'une seule espèce d'arbre : Fraxinus excelsior L., très commun dans notre zone d'étude et couvrant une vaste échelle d'altitude. Notre démarche analytique a consisté à combiner une analyse élémentaire très complète et sensible, l'ICP-MS avec une observation en microscopie à balayage couplée à la détermination de l'émission de rayons X spécifique des éléments présents. Cet ensemble de deux méthodes a permis de combiner identification - dosage précis - localisation - distinction entre états particulaire et dispersé. La déposition atmosphérique a été considérée sur une échelle de temps allant de 3 mois à 40 ans, en séparant les pousses successives des arbres. Nous avons séparé le dépôt superficiel sur les surfaces végétales d'une fraction solidement intégrée dans les tissus des tiges, spécialement le suber. Ces deux entités ne correspondent pas à la même chronologie. Nous avons montré que le dépôt de surface était, de fait, un écosystème construit sur un biotope alimenté conjointement par l'atmosphère et par l'arbre lui-même et qu'il comportait une phase vivante reviviscente et pour partie photosynthétique. Ce dépôt superficiel est déplacé en grande partie par la pluie. Le suber, couche apoplastique imperméable, a une bonne capacité de rétention des éléments à long terme et constitue, comparativement aux autres tissus des tiges, une matrice très intéressante pour percevoir l'apport atmosphérique sur plusieurs décennies. Pour déterminer valablement les apports atmosphériques d'origine anthropique qui s'accumulaient dans ces deux types de matrices, nous avons conçu un système de calcul (AAEF) permettant de les séparer des apports géogéniques et biologiques. Par ailleurs, constatant que l'apport atmosphérique comportait deux types de constituants, soit dispersés, soit particulaires, nous avons conçu et mis en oeuvre un protocole de fractionnement basé 1) sur l'incinération, 2) sur les traitements successifs à l'eau et à l'acide nitrique concentré (2N) qui nous a permis d'étudier isolément une phase particulaire dans laquelle la masse des matériaux géogéniques se trouve rassemblée avec l'essentiel du plomb et du manganèse, la phase HNO3 concentrant les éléments comme le cuivre et le zinc et une phase H2O contenant l'essentiel du potassium. Les profils de distribution entre les différentes fractions semblent constituer une information intéressante sur la spéciation de plusieurs types d'éléments. L'ensemble du corpus méthodologique ainsi édifié permet d'accéder à des études assez réalistes d'historique et de distribution géographique des polluants élémentaires à des échelles de distances variées.
36

Principe de réflexion MRP, propriétés d'arbres et grands cardinaux

Strullu, Rémi 21 September 2012 (has links) (PDF)
Dans cette thèse, nous présentons les relations entre le principe de réflexion MRP introduit par Moore, les propriétés d'arbres généralisées ITP et ISP introduites par Weiß, ainsi que les propriétés square introduites par Jensen et développées par Schimmerling. Le résultat principal de cette thèse est que MRP+MA entraine ITP(λ, ω2) pour tout cardinal λ ≥ ω2. Ce résultat implique par conséquent que les méthodes actuelles pour prouver la consistance de MRP+MA nécessitent au moins l'existence d'un cardinal supercompact. Il s'avère que MRP seul ne suffit pas à démontrer ce résultat, et nous donnons la démonstration que MRP n'entraine pas la propriété d'arbre plus faible, à savoir TP(ω2, ω2). De plus MRP+MA n'entraine pas le principe d'arbre plus fort ISP(ω2, ω2). Enfin nous étudions les relations entre MRP et des versions faibles de square. Nous montrons que MRP implique la négation de square(λ, ω) et MRP+MA implique la négation de square(λ, ω1) pour tout λ ≥ ω2.
37

Révision automatique des connaissances guidant l'exploration informée d'arbres d'états : application au contexte de la généralisation de données géographiques

Taillandier, Patrick 02 December 2008 (has links) (PDF)
Cette thèse traite de la révision automatique des connaissances contenues dans les systèmes fonctionnant par exploration informée d'arbres d'états. Ces systèmes, de par leur performance, sont employés dans de nombreux domaines applicatifs. En particulier, des travaux ont proposés d'utiliser cette approche dans le cadre de l'automatisation de la généralisation de données géographiques. La généralisation de données géographique s'intéresse à la dérivation, à partir de données géographiques détaillées, de données moins détaillées adaptées à un besoin particulier (e.g. changement d'échelle). Son automatisation, enjeu majeur pour les agences cartographiques telles que l'Institut Géographique National (IGN), est particulièrement complexe. Les performances des systèmes basés sur l'exploration informée d'arbres d'états sont directement dépendantes de la qualité de leurs connaissances (heuristiques). Or, la définition et la mise à jour de ces dernières s'avèrent généralement fastidieuses. Dans le cadre de cette thèse, nous proposons une approche de révision hors ligne des connaissances basée sur le traçage du système et sur l'analyse de ces traces. Ces traces sont ainsi utilisées par un module de révision qui est chargé d'explorer l'espace des connaissances possibles et d'en modifier en conséquence les connaissances du système. Des outils de diagnostic en ligne de la qualité des connaissances permettent de déterminer quand déclencher le processus de révision hors ligne des connaissances. Pour chaque méthode et approche que nous présentons, une mise en oeuvre est détaillée et expérimentée dans le cadre de l'automatisation de la généralisation de données géographiques
38

Extensions des automates d'arbres pour la vérification de systèmes à états infinis / Tree automata extensions for verification of infinite states systems

Murat, Valérie 26 June 2014 (has links)
Les systèmes informatiques jouent un rôle essentiel dans la vie actuelle, et leurs erreurs peuvent avoir des conséquences dramatiques. Il existe des méthodes formelles permettant d'assurer qu'un système informatique est fiable. La méthode formelle utilisée dans cette thèse est appelée complétion d'automates d'arbres et permet d'analyser les systèmes à nombre d'états infini. Dans cette représentation, les états du système sont représentés par des termes et les ensembles d'états par des automates d'arbres. L'ensemble des comportements possibles d'un système est calculé grâce à l'application successive d'un système de réécriture modélisant le comportement du système vérifié. On garantit la fiabilité d'un système en vérifiant qu'un comportement interdit n'est pas présent dans l'ensemble des états accessibles. Mais cet ensemble n'est pas toujours calculable, et nous devons alors calculer une sur-approximation calculable de cet ensemble. Mais cette approximation peut s'avérer trop grossière et reconnaître de faux contre-exemples. La première contribution de cette thèse consiste alors à caractériser, par des formules logiques et de manière automatique, ce qu'est une "bonne" sur-approximation : une approximation représentant un sur-ensemble des configurations accessibles, et qui soit suffisamment précise pour ne pas reconnaître de faux contre-exemples. Résoudre ces formules conduit alors automatiquement à une sur-approximation concluante si elle existe, sans avoir recours à aucun paramétrage manuel. Le second problème de la complétion d'automates d'arbres est le passage à l'échelle, autrement dit le temps de calcul parfois élevé du calcul de complétion quand on s'attaque à des problèmes de la vie courante. Dans la vérification de programmes Java utilisant la complétion d'automates d'arbres, cette explosion peut être due à l'utilisation d'entiers de Peano. L'idée de notre seconde contribution est alors d'évaluer directement le résultat d'une opération arithmétique. D'une façon plus générale, il s'agit d'intégrer les éléments d'un domaine infini dans un automate d'arbres. En s'inspirant de méthodes issues de l'interprétation abstraite, cette thèse intègre des treillis abstraits dans les automates d'arbres, constituant alors un nouveau type d'automates. Les opérations sur le domaine infini représenté sont calculées en une seule étape d'évaluation plutôt que d'appliquer de nombreuses règles de réécriture. Nous avons alors adapté la complétion d'automates d'arbres à ce nouveau type d'automate, et la généricité du nouvel algorithme permet de brancher de nombreux treillis abstraits. Cette technique a été implémentée dans un outil appelé TimbukLTA, et cette implémentation permet de démontrer l'efficacité de cette technique. / Computer systems are more and more important in everyday life, and errors into those systems can make dramatic damages. There are formal methods which can assure reliability of a system. The formal method used in this thesis is called tree automata completion and allows to analyze infinite state systems. In this representation, states of a system are represented by a term and sets of states by tree automata. The set of all reachable behaviors (or states) of the system is computed thanks to successive applications of a term rewriting system which represents the behavior of the system. The reliability of the system is assured by checking that no forbidden state is reachable by the system. But the set of reachable states is not always computable and we need to compute an over-approximation of it. This over-approximation is not always fine enough and can recognize counter examples. The first contribution of this thesis consist in characterizing by logical formulae, in an automatic way, what is a good approximation: an over-approximation which does not contain any counter example. Solving these formulae leads automatically to a good over-approximation if such an approximation exists, without any manual setting. An other problem of tree automata completion is the scaling when dealing with real life problems. In verification of Java programs using tree automata completion, this explosion may be due to the use of Peano numbers. The idea of the second contribution of this thesis is to evaluate directly the result of an arithmetic operation. Generally speaking, we integrate elements of an infinite domain in a tree automaton. Based on abstract interpretation, this thesis allows to integrate abstract lattice in tree automata. Operations on infinite domain are computed in one step of evaluation instead of probably many application of rewrite rules. Thus we adapted tree automata completion to this new type of tree automata with lattice, and genericity of the new algorithm allows to integrate many types of lattices. This technique has been implemented in a tool named TimbukLTA, and this implementation shows the efficiency of the technique.
39

Une méthode de sélection de tests à partir de spécifications algébriques.

Boin, Clément 09 July 2007 (has links) (PDF)
Les travaux de cette thèse s'inscrivent dans le cadre de la vérification des logiciels et plus particulièrement du test à partir de spécifications algébriques. La soumission d'un jeu de tests exhaustif pour trouver toutes les erreurs d'un programme est généralement impossible. Il faut donc sélectionner un jeu de tests le plus judicieusement possible. Nous avons donc donné une méthode de sélection de tests par dépliage des axiomes de spécifications conditionnelles positives (clauses de Horn pour la logique équationnelle). Celle-ci permet de partitionner le jeu exhaustif des tests. Nous utilisons pour cela un critère de sélection qui utilise les axiomes de la spécification et qui peut être appliqué plusieurs fois de suite. Pour garantir de bonnes propriétés sur ce critère de sélection, nous avons également donné un cadre général pour la normalisation d'arbre de preuve. Il fonctionne pour n'importe quel système formel, et permet d'unifier un grand nombre de résultats en logique.
40

Contribution a l'analyse du langage oral spontané

Kurdi, Mohamed-Zakaria 18 April 2003 (has links) (PDF)
Cette thèse porte sur le traitement du langage oral spontané dans le contexte du dialogue homme-machine. En partant du constat que l'usage de la langue orale s'écarte d'une "bonne" syntaxe de l'écrit, des méthodes de traitement particulières sont alors développées pour adresser des phénomènes grammaticaux et extragrammaricaux comme les répétitions, hésitations, auto-corrections, faux-départs, etc. Une approche de traitement des extragrammaticalitks basée sur l'analyse d'un corpus ainsi qu'un formalisme grammatical pour l'oral (Sm-TAG) sont proposés et implémentés dans trois outils : Corrector, Oasis et Navigator. Les résultats d'évaluations quantitatives et qualitatives de ces outils sont donnés et commentés.

Page generated in 0.0931 seconds