• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 679
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1051
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 143
  • 116
  • 100
  • 90
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Étude pharmacogénomique sur l’utilisation de la warfarine en pratique clinique réelle

Marin-Leblanc, Mélina 12 1900 (has links)
Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine. / Background: Although numerous genotype-based warfarin dosing algorithms have been published, there is little data comparing the predictive ability of these algorithms in real clinical practice. Objectives: Our goal was to evaluate the performance of pharmacogenetic algorithms in an unselected patient population initiating warfarin treatment for atrial fibrillation or valve disease in a real-world clinical setting. The principal objective of the analysis was to determine if Gage’s, Michaud’s, and IWPC algorithms could predict the dose achieving the therapeutic International normalized ratio (INR). Methods: Data from a retrospective cohort study of 605 patients initiating warfarin therapy at the Montreal Heart Institute was used. We compared the dose predicted by the algorithms to the dose achieving the therapeutic INR. Pearson’s correlation coefficient and mean absolute error (MAE) were used to evaluate the predictive accuracy of the algorithms. Clinical accuracy of the predictions was assessed by computing the proportion of patients in which the predicted dose was under-estimated, ideally estimated, or overestimated. Finally, we used multiple linear regression analysis to evaluate the accuracy of a predictive model obtained by adding additional covariables in predicting therapeutic warfarin doses. Results: The proportion of variation explained (adjusted R2) was the highest for Gage’s algorithm (R2 = 44 %) and the mean absolute error was the smallest for the predictions made by Gage’s algorithm (MAE = 1.41 ± 0.06). Moreover, when we compared the proportion of patients whose predicted doses are within ± 20 % of the observed stable dose, Gage’s algorithm also performed the best overall. Conclusion: The algorithm published by Gage et al. in 2008 is the most accurate pharmacogenetically based equation in predicting therapeutic warfarin dose in our study population.
352

Dérivation numérique : synthèse, application et intégration

Dridi, Mehdi 13 December 2010 (has links) (PDF)
Les algorithmes de dérivation sont des méthodes numériques permettant d'estimer la dérivée d'un signal à partir d'une mesure de celui-ci. Dans la discipline de l'automatique, et comme il a été repris dans une large part des travaux de la communauté automaticienne, ces méthodes fournissent une aide précieuse dans les problèmes de commande non linéaire dans la mesure où celles-ci permettent de fournir, par dérivation de signaux mesurables, une estimation design aux intervenant dans le calcul de la commande. Les approches les plus connues au problème, sont basées sur les observateurs. Dans celles-ci, le signal à dériver est modélisé comme la sortie d'un système dynamique donné dont l'entrée est un signal canonique connu. Les dérivées du signal sont alors obtenues par observation de l'état de son modèle. La plupart de ces techniques prennent en compte, implicitement ou explicitement, des hypothèses, stochastiques ou déterministes, propres sur le signal à dériver et/ou sur la perturbation l'affectant. Dans ce travail, on s'intéresse à l'étude et l'application des différentes approches linéaires et non linéaires d'observation dans la synthèse d'algorithmes de dérivation. Dans un cadre linéaire, différentes approches de filtrage et d'observation (grand gain,Kalman, H2) sont alors introduites et appliquées pour l'estimation de la dérivée d'un signal mesuré. Une proposition d'approche alternative d'observation linéaire a été introduite et appliquée à la dérivation. Dans celle-ci, un observateur est mis en œuvre par optimisation d'une norme H∞.Le problème de synthèse d'observateurs est alors formulé comme un problème d'optimisation sous contraintes LMI. Cette approche présente l'intérêt de la possibilité de considérer une norme H∞ pondérée dans la synthèse de l'observateur. Dans ce cas, il est possible d'imposer un gabarit particulier sur la Densité Spectrale de Puissance du signal d'erreur. Une investigation supplémentaire est également apportée quant à la possibilité de considérer des structures d'observateurs alternatives à la structure Luenberger classique afin de s'affranchir de cette contrainte structurelle. Dans un cadre non linéaire, les observateurs par modes glissants fournissent une alternative aux observateurs linéaires dans l'application à la dérivation. Ces méthodes présentent l'intérêt de leur robustesse avérée et de pouvoir apporter une amélioration potentielle de la précision des algorithmes. De plus, celles-ci permettent l'introduction d'une notion de convergence inconnue dans un cadre linéaire : la convergence en temps fini. Du fait de leur non linéarité, la procédure de réglage de algorithmes qui en découlent est assez délicate et dépend, surtout, de la nature du signal à dériver et du niveau de bruit sur celui-ci. Ainsi, un réglage reste optimal pour un signal donné mais ne garantit pas le même niveau de performances pour un autre. Dans ce cas, des approches d'adaptation en temps réel des gains de réglage des algorithmes ont été introduites afin de s'affranchir de cette difficulté de réglage ou, du moins, la rendre moins complexe. Une version adaptative d'un algorithme de dérivation par modes glissants classique a été alors proposée. Cependant, notre approche dans l'étude du problème ne s'est pas réservée uniquement aux fondements théoriques des méthodes de dérivation. Ainsi, suite au travail théorique décrit précédemment, un travail de nature pratique et expérimental a été effectué. L'objectif étant de mettre en place un " capteur logiciel " embarqué sur cible numérique à faible coût permettant l'estimation des variables d'état d'un système mécatronique, par dérivation de signaux mesurés, en vue de sa commande. [...]
353

Algorithmes génériques en temps constant pour la résolution de problèmes combinatoires dans la classe des rotagraphes et fasciagraphes. Application aux codes identifiants, dominants-localisateurs et dominants-total-localisateurs

Bouznif, Marwane 04 July 2012 (has links) (PDF)
Un fasciagraphe de taille n et de fibre F est constitué de n copies consécutives du graphe F, chaque copie étant reliée à la suivante selon le même schéma. Les rotagraphes sont définis similairement, mais selon une structure circulaire. Dans cette thèse nous caractérisons un ensemble de problèmes combinatoires qui peuvent être résolus de façon efficace dans la classe des fasciagraphes et rotagraphes. Dans ce contexte, nous définissons les (d,q,w)-propriétés closes et stables, et présentons pour de telles propriétés un algorithme pour calculer une solution optimale en temps constant pour l'ensemble des fasciagraphes ou rotagraphes de fibre fixée. Nous montrons que plusieurs problèmes communément étudiés dans la théorie des graphes et NP-complets dans le cas général sont caractérisés par des (d,q,w)-propriétés closes ou stables. Dans une seconde partie de la thèse, nous adaptons cet algorithme générique à trois problèmes spécifiques caractérisés par des (d,q,w)-propriétés stables : le problème du code identifiant minimum, et deux problèmes proches, celui de dominant-localisateur minimum et celui du dominant-total-localisateur minimum. Nous présentons alors une implémentation de l'algorithme qui nous a permis de répondre à des questions ouvertes dans certains rotagraphes particuliers : les bandes circulaires de hauteur bornée. Nous en déduisons d'autres résultats sur les bandes infinies de hauteur bornée. Enfin, nous explorons le problème du code identifiant dans une autre classe de graphes à structure répétitive : les graphes fractals de cycle.
354

Aspects algorithmiques de la décomposition modulaire

Paul, Christophe 03 July 2006 (has links) (PDF)
La décomposition modulaire apparait naturellement dans différents domaines de la combinatoire (et en particulier les graphes). Cette décomposition se révèle être un puissant outil de description d'objets discrets. Elle est aussi utilisée comme étape préliminaire à nombreux d'algorithmes.<br /><br />Dans ce mémoire, nous nous intéressons au calcul de la décomposition modulaire. Malgré la publication d'algorithmes linéaires au milieu des années 90, la recherche sur ce problème n'a pas cessée. Nous faisons le point sur les différentes avancées et techniques utilisées.
355

Coping with the Computational and Statistical Bipolar Nature of Machine Learning

Machart, Pierre 21 December 2012 (has links) (PDF)
L'Apprentissage Automatique tire ses racines d'un large champ disciplinaire qui inclut l'Intelligence Artificielle, la Reconnaissance de Formes, les Statistiques ou l'Optimisation. Dès les origines de l'Apprentissage, les questions computationelles et les propriétés en généralisation ont toutes deux été identifiées comme centrales pour la discipline. Tandis que les premières concernent les questions de calculabilité ou de complexité (sur un plan fondamental) ou d'efficacité computationelle (d'un point de vue plus pratique) des systèmes d'apprentissage, les secondes visent a comprendre et caractériser comment les solutions qu'elles fournissent vont se comporter sur de nouvelles données non encore vues. Ces dernières années, l'émergence de jeux de données à grande échelle en Apprentissage Automatique a profondément remanié les principes de la Théorie de l'Apprentissage. En prenant en compte de potentielles contraintes sur le temps d'entraînement, il faut faire face à un compromis plus complexe que ceux qui sont classiquement traités par les Statistiques. Une conséquence directe tient en ce que la mise en place d'algorithmes efficaces (autant en théorie qu'en pratique) capables de tourner sur des jeux de données a grande échelle doivent impérativement prendre en compte les aspects statistiques et computationels de l'Apprentissage de façon conjointe. Cette thèse a pour but de mettre à jour, analyser et exploiter certaines des connections qui existent naturellement entre les aspects statistiques et computationels de l'Apprentissage. Plus précisément, dans une première partie, nous étendons l'analyse en stabilité, qui relie certaines propriétés algorithmiques aux capacités de généralisation des algorithmes d'apprentissage, la matrice de confusion, que nous suggérons comme nouvelle mesure de performance (fine). Dans une seconde partie, nous présentons un nouvelle approche pour apprendre une fonction de régression basée sur les noyaux, où le noyau appris sert directement la tâche de régression, et qui exploite la structure du problème pour offrir une procédure d'optimisation peu coûteuse. Finalement, nous étudions le compromis entre vitesse de convergence et coût computationel lorsque l'on minimise une fonction composite avec des méthodes par gradient-proximal inexact. Dans ce contexte, nous identifions des stratégies d'optimisation qui sont computationellement optimales.
356

Modélisation différentielle du texte, de la linguistique aux algorithmes

Lucas, Nadine 23 June 2009 (has links) (PDF)
Le mémoire " Modélisation différentielle du texte, de la linguistique aux algorithmes " porte sur mon positionnement épistémologique et spécialement sur l'interface entre modélisation en linguistique théorique et modélisation en informatique. Dès le départ j'ai pris l'étude des corpus et le multilinguisme comme base de travail. Les méthodes utilisées se placent dans la filiation de l'école de Prague (Jakobson, mais aussi les informaticiens) et elles ont une parenté avec d'autres recherches au Japon et dans les pays nordiques. Alors que la plupart des travaux du TAL concernent la syntaxe ou le lexique, j'ai pris le point de vue de l'analyse du discours écrit dans son intégralité et d'un point de vue relationnel, endogène, pour trouver les moyens de traiter automatiquement des textes entiers et des corpus de textes. La première dimension originale est le multilinguisme conçu comme hypothèse normale de travail, et non comme nécessité de cumul de pratiques monolingues. La seconde dimension est l'angle de vision multi échelle, qui permet d'analyser les collections et les documents avec leur mise en forme matérielle, en repérant les marques qui structurent les textes indépendamment de la langue, en posant des observations sur les grains d'analyse pertinents. Le mémoire contient de nombreux exemples d'applications, décrits en profondeur, avec les enjeux, les techniques utilisées et des illustrations des résultats obtenus.
357

On building and comparing trees <br />Application to supertrees in phylogenetics

Berry, Vincent 08 December 2008 (has links) (PDF)
The research work presented in this manuscript is of algorithmic kind: it is mainly composed of polynomial, fixed parameter and approximation algorithms, while hardness results are also mentioned.<br /> <br />This work is about building and comparing labelled trees. These objects find application in different areas, but notoriously in phylogenetics, where they represent evolutionary relationships of organisms or sequences.<br /><br />Most of this work can be considered as investigating solutions to so-called \emph{supertree} problems. Supertrees are large trees built by a dynamic programming approach from smaller trees. For instance, the latter are gene trees from which a comprehensive tree on many living species is to be built, such as the \emph{Tree of Life}. <br /><br />First definitions are introduced, then a part of the manuscript is dedicated to quartet tree building methods. The next part details tree comparison methods, mainly variants of the maximum agreement subtree method. Next follows a part on supertree problems in all generality. <br />The manuscript ends with a report of the research plan for the next few years. <br /><br />Several journal papers illustrating the material described in this manuscript are adjoined in appendix.
358

Algorithmes adaptatifs pour la simulation moléculaire

Artemova, Svetlana 30 May 2012 (has links) (PDF)
Les simulations moléculaires sont devenues un outil essentiel en biologie, chimie et physique. Malheureusement, elles restent très coûteuses. Dans cette thèse, nous proposons des algorithmes qui accélèrent les simulations moléculaires en regroupant des particules en plusieurs objets rigides. Nous étudions d'abord plusieurs algorithmes de recherche de voisins dans le cas des grands objets rigides, et démontrons que les algorithmes hiérarchiques permettent d'obtenir des accélérations importantes. En conséquence, nous proposons une technique pour construire une représentation hiérarchique d'un graphe moléculaire arbitraire. Nous démontrons l'usage de cette technique pour la mécanique adaptative en angles de torsion, une méthode de simulation qui décrit les molécules comme des objets rigides articulés. Enfin, nous introduisons ARPS - Adaptively Restrained Particle Simulations ("Simulations de particules restreintes de façon adaptative") - une méthode mathématiquement fondée capable d'activer et de désactiver les degrés de liberté en position. Nous proposons deux stratégies d'adaptation, et illustrons les avantages de ARPS sur plusieurs exemples. En particulier, nous démontrons comment ARPS permet de choisir finement le compromis entre précision et vitesse, ainsi que de calculer rapidement des proprietésstatiques d'équilibre sur les systèmes moléculaires.
359

Techniques d'optimisation déterministe et stochastique pour la résolution de problèmes difficiles en cryptologie

Bouallagui, Sarra 05 July 2010 (has links) (PDF)
Cette thèse s'articule autour des fonctions booléennes liées à la cryptographie et la cryptanalyse de certains schémas d'identification. Les fonctions booléennes possèdent des propriétés algébriques fréquemment utilisées en cryptographie pour constituer des S-Boxes (tables de substitution).Nous nous intéressons, en particulier, à la construction de deux types de fonctions : les fonctions courbes et les fonctions équilibrées de haut degré de non-linéarité.Concernant la cryptanalyse, nous nous focalisons sur les techniques d'identification basées sur les problèmes de perceptron et de perceptron permuté. Nous réalisons une nouvelle attaque sur le schéma afin de décider de sa faisabilité.Nous développons ici des nouvelles méthodes combinant l'approche déterministe DCA (Difference of Convex functions Algorithm) et heuristique (recuit simulé, entropie croisée, algorithmes génétiques...). Cette approche hybride, utilisée dans toute cette thèse, est motivée par les résultats intéressants de la programmation DC.
360

Parallélisation d'un algorithme d'optimisation par colonies de fourmis pour la résolution d'un problème d'ordonnancement industriel /

Delisle, Pierre, January 2002 (has links)
Mémoire (M.Inf.)-- Université du Québec à Chicoutimi, 2002. / Document électronique également accessible en format PDF. CaQCU

Page generated in 0.0832 seconds