• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 585
  • 200
  • 63
  • 57
  • 14
  • 6
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 925
  • 312
  • 280
  • 155
  • 143
  • 125
  • 116
  • 105
  • 74
  • 64
  • 62
  • 60
  • 55
  • 54
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Statistical methods for analysis and correction of high-throughput screening data

Dragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
192

Über die Wirkung und das Wesen der Schwefelgerbung von Hautkollagen

Togmid, Turmunkh 03 October 2005 (has links) (PDF)
Die vorliegende Arbeit befasst sich mit der Schwefelgerbung. Warum aber mit der Schwefelgerbung? Die Ergebnisse der Literaturauswertung und beider Experimentalteile wurden zum gegenwärtigen Wissenstand über die Schwefelgerbung zusammengefasst und die sich daraus ergebenden wissenschaftlichen und praktischen Schlussfolgerungen gezogen. Die Arbeit soll unter einem betont praktischen Aspekt einen Beitrag zur Theorie der Schwefelgerbung liefern und zugleich eine Entscheidung darüber ermöglichen, ob die "alte" Schwefelgerbung in Kombination mit modernen Gerbverfahren erneutes Interesse für die Lederherstellung verdient oder nicht.
193

Estimation du risque de rupture fragile de soudures de pipelines en aciers à haut grade : caractérisation et modélisation

Bilat, Anne-Sophie 01 June 2007 (has links) (PDF)
Dans le but de réduire les coûts de transport du gaz, il est prévu d'augmenter les pressions de service des pipelines. Pour ce faire, des aciers à haute limite d'élasticité ferrito-bainitiques, type X100 (limite d'élasticité supérieure à 100 ksi, soit 690 MPa), ont été développé. Les propriétés à froid des soudures de raboutage réalisées par un procédé MAG automatique sont vérifiées par des essais mécaniques. Des essais Charpy ont montré que lorsque l'entaille est centrée en ligne de fusion, l'énergie de rupture à -20 °C est inférieure à 40 Joules. La zone fragile se situe dans la zone affectée thermiquement à gros grains. Les deux ZAT, trop petites pour être testées individuellement, sont reproduites à l'aide d'une machine Gleeble. Une procédure spécifique pour l'identification des lois de comportement mécanique est mise en place pour les éprouvettes de ZAT simulée, afin de tenir compte des hétérogénéités métallurgiques de ces éprouvettes. Des essais de traction sur éprouvettes lisses et entaillées, des essais de flexion en quasistatique et des essais Charpy sont réalisés entre -196 et 20 °C. Cette base expérimentale est utilisée pour caler les équations constitutives du modèle du matériau qui sont utilisées dans un code par éléments finis pour prédire la rupture de la soudure. Les résultats obtenus par l'approche locale sont comparés à ceux obtenus par les règles de dimensionnement usuellement utilisées par les exploitants (Failure Assessment Diagrams).
194

Synthèse de haut niveau pour la testabilité en-ligne

Naal, M.A. 24 September 2002 (has links) (PDF)
Le besoin de solutions de test en-ligne intégré est de plus en plus important. Malgré la complexité croissante de systèmes numériques, ces solutions doivent garantir un surcoût raisonnable en temps de conception, en ressources impliquées et en performance. Cela nécessite le développement de nouvelles méthodes de synthèse de haut niveau qui doivent garantir deux contraintes. La première est la possibilité de traiter des systèmes complexes à un coût raisonnable. La deuxième est la prise en compte des contraintes de test en-ligne dans les premières tâches du flot de la synthèse de haut niveau. Pour s'accommoder à ce besoin, la présente étude propose deux axes de travail. Le premier axe consiste à proposer deux méthodes de test en-ligne, non-concurrent et semi-concurrent, présentées comme solutions intégrées (BIST). Le deuxième axe consiste à proposer une nouvelle méthode de synthèse de haut niveau (HLS) qui tient compte de la testabilité en-ligne. La prise en compte des contraintes de test en-ligne est effectuée au niveau de la compilation de la description comportementale en graphe de flot de données (DFG). Selon les contraintes imposées au système, une des méthodes de test en-ligne développées dans le premier axe est intégrée au système au niveau ordonnancement. Un système numérique donné par sa description comportementale forme l'entrée de la méthode. Dans un premier temps, une optimisation orientée testabilité adresse les équations arithmétiques dans la description comportementale du système. Outre l'amélioration de la testabilité, cette optimisation peut permettre d'améliorer les performances du design final. La description optimisée est compilée en graphe de flot de données ordonnancé. La tâche de la compilation et de l'ordonnancement est résolue par une exploration de l'espace de solutions. Dans cette exploration nous introduisons le développement d'un algorithme génétique (AG) adapté à ce type de problèmes. Les contraintes de test en-ligne, de surface et de délai sont considérées à cette étape pour produire une solution satisfaisante. Une fois que le graphe de flot de données ordonnancé est obtenu, la méthode qui répond le mieux aux contraintes de test en-ligne est insérée dans l'ordonnancement nominal du système. L'allocation de ressource et l'assignation permettent la génération d'une architecture testable en-ligne au niveau RTL. Mots clés : synthèse de haut niveau, compilation, ordonnancement, testabilité en-ligne, DFG, BIST, AG.
195

Débogage symbolique multi-langages pour les plates-formes d'exécution généralistes

Ciabrini, Damien 03 October 2006 (has links) (PDF)
Cette thèse est consacrée à l'amélioration des débogueurs symboliques pour tenir compte des spécificités des langages de haut niveau, notamment leur compilation délicate vers des plates-formes d'exécution généralistes. Ces travaux ont conduit à la réalisation de Bugloo, un débogueur multi-langages pour la machine virtuelle Java. <br /><br />Deux nouveaux mécanismes de représentations virtuelles sont proposés pour éliminer les perturbations de débogage dues à la présence sur la pile de fonctions intermédiaires produites par la compilation des langages de haut niveau. Le premier utilise des règles fournies par les implanteurs de langage pour maintenir une correspondance entre le code source d'un programme et le code produit par sa compilation. Cela permet au débogueur de reconstruire une vue logique dans laquelle les détails de compilation ont été expurgés. Le second mécanisme sert à contrôler l'exécution pas-à-pas, afin de ne jamais s'arrêter dans les fonctions intermédiaires engendrées par le compilateur. Ces deux mécanismes ont été adaptés pour réaliser un profileur d'allocation mémoire produisant des statistiques dans lesquelles les fonctions intermédiaires sont masquées. <br /><br />Durant ces travaux, un support de débogage complet a été développé pour le langage Bigloo, un dialecte du langage fonctionnel Scheme. Des expérimentations similaires ont étés menées sur les langages ECMAScript et Python. Les résultats obtenus montrent que les techniques de représentations virtuelles développées s'appliquent efficacement quel que soit le schéma de compilation adopté, y compris lorsque les programmes sont composés de plusieurs langages de haut niveau.
196

Vom Sangspruch zum Meisterlied : Untersuchungen zu einem literarischen Traditionszusammenhang auf der Grundlage der Kolmarer Liederhandschrift /

Baldzuhn, Michael. January 2002 (has links)
Texte remanié de: Dissertation--Philosophische Fakultät--Münster--Westfälische Wilhelms-Universität, 1996. / Bibliogr. p. 505-529. Index.
197

Utilisation du modèle polyédrique pour la synthèse d'architectures pipelinées

Morvan, Antoine 28 June 2013 (has links) (PDF)
Grâce aux progrès réalisés dans le domaine des semi-conducteurs, les plateformes matérielles embarquées sont capables de satisfaire les contraintes de performances d'applications de plus en plus complexes. Cette augmentation conduit à une explosion des coûts de conception, ce qui pousse les concepteurs de ces plateformes à utiliser des outils travaillant à des niveaux d'abstraction plus élevés. Aujourd'hui, les outils de synthèse de haut niveau opèrent sur des descriptions C/C++ pour en générer des accélérateurs matériels spécialisés. Ces outils offrent des gains en productivité significatifs par rapport à la génération précédente, qui opérait sur des descriptions structurelles de l'architecture en VHDL ou Verilog. Ces descriptions algorithmiques doivent être retravaillées pour que les outils puissent générer des circuits performants. Pour faciliter cette tâche, une solution consiste à mettre en œuvre une boite à outils pour des transformations source-à-source orientées synthèse de haut niveau. En particulier, cette thèse s'intéresse aux transformations de boucles, avec pour objectif d'améliorer les performances en exposant des boucles parallèles et en améliorant la localité des accès mémoire. En nous appuyant sur une représentation des boucles dans le modèle polyédrique, nous proposons une approche qui améliore l'applicabilité du pipeline de nids de boucles en vérifiant sa légalité de manière plus précise que les approches existantes. De plus, lorsque la vérification échoue, nous proposons une technique de correction qui insère statiquement des états d'attente pour assurer la légalité du pipeline. Enfin, ce pipeline est mis en œuvre en utilisant une technique de génération de code qui met les nids de boucles à plat. Ces contributions ont été implémentées dans l'infrastructure de compilation source-à-source Gecos, avant d'être appliquées à un ensemble de benchmarks représentatifs des noyaux de calculs cibles de la synthèse de haut niveau. Les résultats montrent un gain en performances significatif, avec un surcoût en surface modéré.
198

Évaluation du profil de personnalité des cyclistes sur route élite québécois

Cardinal, Catherine 03 1900 (has links) (PDF)
La recherche qui suit porte sur l'évaluation du profil de personnalité des cyclistes sur route élites québécois. Elle vise à mieux connaître ces athlètes qui se sacrifient sur le terrain pour voir si ceux-ci ont des comportements adaptés malgré la « pression de performance » qui leur incombe. Les cyclistes vivent beaucoup de stress physique et psychologique. L'entraînement intensif, les compétitions, les échecs sportifs, la retraite précoce, l'appui conditionnel des commanditaires, etc. sont autant de facteurs susceptibles d'engendrer des vulnérabilités comportementales. Notre recherche vise donc à évaluer la personnalité des cyclistes professionnels québécois pour être en mesure de leur offrir un encadrement physique et psychologique conséquent et adéquat, à la hauteur de leur investissement sportif. 20 cyclistes sur route élites canadiens ont été évalués via le TCI (Temparement and Character Inventory) qui permet de définir le caractère des individus selon 3 dimensions (détermination, coopération et transcendance) et le tempérament des individus selon 4 dimensions (recherche de nouveautés, évitement du danger, dépendance à la récompense et persistance). Tous les cyclistes participants étaient de niveau élite, âgés de 19 à 35 ans et de sexe masculin. Ils ont eu à remplir un questionnaire auto-administré de 226 questions (Vrai ou Faux). Un groupe témoin de 20 sujets a également rempli le TCI. Les résultats montrent en somme qu'il existe peu de différences entre le groupe de cyclistes et le groupe témoin. Les premiers obtiennent des scores plus élevés pour la dimension de « persistance ». C'est dire que les sportifs participants accusent d'une plus grande détermination que le groupe témoin. Les athlètes obtiennent par ailleurs des résultats plus faibles pour la dimension « dépendance à la récompense » laissant présumer qu'ils sont plus pragmatiques et plus rationnels que le groupe témoins. Ces résultats sont encourageants puisqu'ils laissent croire que les cyclistes élites canadiens ont des comportements adaptés à leur pratique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : cyclistes, profil de personnalités, pression de performance, Temparement and Character Inventory, comportement, athlètes
199

Détection, annotation fonctionnelle et régulation des isoformes de l'épissage alternatif associées au cancer de l'ovaire / Detection, functional annotation and regulation of splicing isoforms in ovarian cancer

Brosseau, Jean-Philippe January 2012 (has links)
Résumé: L’expression des gènes modifiés contribue à l’initiation et la progression du cancer. Malheureusement, les recherches actuelles s’attardent essentiellement à l’expression globale des gènes sans tenir compte des différentes isoformes des ARNm résultant de l’épissage alternatif, codant potentiellement pour des protéines de fonctions différentes. En effet, la haute similitude et la complexité des isoformes ARNm rendent la discrimination des isoformes laborieuse, raisons pour lesquelles l’épissage alternatif est historiquement étudié gène par gène. C’est la raison pour laquelle nous avons développé une méthodologie à haut débit pour la quantification des isoformes d’ARNm. Basé sur cette technique, cette Thèse présente une série d’évidences qui appuie l’hypoThèse selon laquelle certaines isoformes d’ARNm sont nécessaires à la tumorigénèse. Précédemment, des études bioinformatiques à grande échelle ainsi que des validations expérimentales à petite échelle ont révélé la présence d’isoformes spécifiques à certains types de cancers. Toutefois, ces conclusions ont été tirées à partir de tumeurs dont le contenu cellulaire est hétérogène. Or, il est bien connu que les niveaux des isoformes d’ARNm diffèrent largement en fonction du type cellulaire et il est possible que les différences observées dans des tumeurs entières soient des artéfacts résultant de la complexité cellulaire des tissus comparés. En nous basant sur le cancer de l’ovaire comme modèle, nos préparations homogènes de différents types cellulaires nous ont permis de révéler la présence d’isoformes associées au cancer indépendamment de l’hétérogénéité des tumeurs. Étonnamment, les changements les plus intéressants ne se retrouvent pas dans les cellules cancéreuses à proprement dites, mais dans les cellules "normales" en bordure de la tumeur. Notre analyse des facteurs de régulation de ces isoformes nous a permis d’affirmer que ces changements ne sont pas dûs à un dérèglement anarchique des cellules cancéreuses, mais découlent plutôt d’un programme destiné à avantager les cellules cancéreuses. Pour évaluer la fonction des isoformes d’ARNm, nous avons généralisé des outils moléculaires permettant de reprogrammer spécifiquement l’expression d’isoformes de gènes cible dans des lignées cellulaires cancéreuses. Ainsi, le criblage systématique d'isoformes d’ARNm de gènes cibles associés au cancer a permis de révéler leur caractère pro-cancer dans des essais in vitro. L'ensemble de ces travaux démontrent la contribution des isoformes d’épissage dans le développement des tumeurs solides. // Abstract: Cancer cells modify their gene expression pattern to promote tumor growth. Unfortunately, current research focuses almost exclusively on global gene expression changes, without taking into account the fact that the majority of genes produce multiple alternative splicing variants, which potentially code for proteins of different functions In fact, the main reason splicing isoforms are still studied on a gene by gene basis is because the high sequence similarity and complexity of mRNA isoforms make it very difficult to detect and quantify them. To overcome this difficulty, we developed a high-throughput methodology to accurately quantify splicing isoforms. This methodology has been applied in this thesis to generate evidence supporting a causal role for splicing isoforrns in the tumorigenesis of solid tumors. A few years ago, genome-wide bioinformatics predictions, and some experimental validations in human tissues, suggested the existence of cancer-specific splicing isoforms. However, these conclusions may be simply explained by the cellular heterogeneity of tumor. In fact, it is well established that alternative splicing is a cell type-specific process. To address this, we microdissected cancer tissues and demonstrated that some splicing isoforms are truly cancer-associated and independent of tumor cell type content. Surprisingly, the most interesting changes were found in the "normal" stromal cells surrounding the tumor and not within the cancer cells. Our analysis of splicing-factor expression changes using the same tissue set allowed us to confirm that these splicing shifts were not a random process, but rather part of a defined splicing program promoting tumor development. To evaluate the functional contribution of splicing isoforms, we developed molecular tools that modulate splicing of endogenous targets in cancer cell lines. We used these tools to decipher the pro-cancer properties of cancer-associated splicing isoforms using in vitro assays. Overall, this work demonstrated the contribution of splicing isoforms in solid tumor development.
200

Génération rapide d'accélérateurs matériels par synthèse d'architecture sous contraintes de ressources

Prost-Boucle, A. 08 January 2014 (has links) (PDF)
Bien que les FPGA soient très attrayants pour leur performance et leur faible consommation, leur emploi en tant qu'accélérateurs matériels reste marginal. Les logiciels de développement existants ne sont en effet accessibles qu'à un public expert en conception de circuits. Afin de repousser leurs limites, une nouvelle méthodologie de génération basée sur la synthèse d'architecture est proposée. En appliquant des transformations successives à une solution initiale, le processus converge rapidement et permet de respecter strictement des contraintes matérielles, notamment en ressources. Un logiciel démonstrateur, AUGH, a été construit, et des expérimentations ont été menées sur plusieurs applications reconnues. La méthodologie proposée est très proche du processus de compilation pour les microprocesseurs, ce qui permet son utilisation même par des utilisateurs non spécialistes de la conception de circuits numériques.

Page generated in 0.0405 seconds