• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 524
  • 233
  • 59
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 814
  • 345
  • 343
  • 190
  • 151
  • 103
  • 95
  • 85
  • 84
  • 83
  • 70
  • 65
  • 59
  • 58
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

La prédiction de la récidive chez les délinquants sexuels

Bigras, Jacques January 2007 (has links)
Au cours des trente dernières années, la prédiction de la récidive criminelle a constitué un domaine d'intérêt à la fois, populaire et controversé, au sein de la littérature scientifique. Les délinquants sexuels présentent quant à eux, une criminalité diversifiée et constituent un problème d'envergure sur le plan social. Les efforts de certains chercheurs ont permis d'identifier des facteurs de risque associés à la délinquance sexuelle. Les échelles actuarielles RRASOR, Statique-99 et Statique 2002 furent créées afin de mieux prédire la récidive chez ce type de délinquant. Dans le but de clarifier les spécificités de la récidive, nous avons créé six catégories de délinquants sexuels. Malgré un taux de base relativement faible, la présente étude confirme la validité prédictive de ces outils en ce qui a trait à la récidive générale, violente et sexuelle chez ce type de délinquants. Certains items tels que l'âge du délinquant, les antécédents criminels et les manquements aux conditions de libération sont apparus comme des facteurs discriminants significatifs pour prédire la récidive chez certaines catégories de délinquants sexuels. L'échelle Statique-2002 s'est avérée un outil de prédiction intéressant en ce qui a trait à la récidive générale.
22

Modélisation multi-échelle des structures composites, comportement en compression et lien avec les procédés

Drapier, Sylvain 17 October 2002 (has links) (PDF)
Couplages entre comportement en compression et instabilités multi-échelle; modélisation des procédés de mise en oeuvre des composites
23

L'édition de poésie pour la jeunesse au Québec (1993-2007) : le cas de la collection "Poésie" de La courte échelle

Bossiroy, Marie-Maude January 2011 (has links)
Au Québec, l'intérêt des chercheurs pour la scène éditoriale de la littérature pour la jeunesse grandit constamment. Nous avons cependant constaté l'absence de travaux sur un phénomène permettant d'accroître la diversité de cette littérature : l'édition de poésie. Bien que marginale et méconnue, cette production participe à la légitimation de la littérature pour la jeunesse en y introduisant un genre littéraire consacré. En matière de littérature pour la jeunesse, et particulièrement lorsqu'il s'agit de poésie, la médiation effectuée par le milieu scolaire représente un enjeu incontournable. Le premier chapitre dresse le portrait historique des liens établis entre le milieu scolaire et celui de la littérature pour la jeunesse depuis le XlXe siècle au Québec. La réflexion porte ensuite sur les programmes scolaires adoptés avec la réforme de l'éducation des années 2000, qui proposent de donner à l'enseignement un ancrage culturel. Dès lors, l'initiation des élèves à une littérature soutenue, issue d'une «culture seconde», devient un apprentissage essentiel. L'intérêt porté à une littérature pour la jeunesse plus exigeante crée un contexte favorable à l'édition de poésie pour la jeunesse. Le deuxième chapitre, qui porte sur la période 1993-2007, met en lumière le phénomène éditorial qui prend de l'ampleur, surtout après 2000. Outre l'analyse de ce corpus, il s'agit de retracer l'histoire de cette production laissée dans l'ombre jusqu'à ce jour. L'arrivée de la collection «Poésie» de La courte échelle en 2002 marque un moment charnière de l'édition de poésie pour la jeunesse. Le troisième chapitre du mémoire présente les stratégies éditoriales que cette collection a suscitées. Ainsi, La courte échelle a fait appel à des poètes reconnus et à des artistes visuels légitimés. La collection «Poésie» utilise des stratégies propres à la littérature pour la jeunesse, comme la conception de fiches pédagogiques visant le marché scolaire, mais ne se restreint pas à ce public. Le paratexte épuré, tout comme les titres des recueils qui évoquent des thématiques universelles, signalent que l'éditeur tente également de rejoindre un lectorat adulte.
24

Modélisation et score de complexes protéine-ARN / Modelling and scoring of protein-RNA complexes

Guilhot-Gaudeffroy, Adrien 29 September 2014 (has links)
Cette thèse présente des résultats dans le domaine de la prédiction d’interactions protéine-ARN. C’est un domaine de recherche très actif, pour lequel la communauté internationale organise régulièrement des compétitions pour évaluer différentes techniques de prédictions in silico d’interactions protéine-protéine et protéine-ARN sur des données benchmarks (CAPRI, Critical Assessment of PRedictedInteractions), par prédiction en aveugle et en temps limité. Dans ce cadre, de nombreuses approches reposant sur des techniques d’apprentissage supervisé ont récemment obtenus de très bons résultats.Nos travaux s’inscrivent dans cette démarche.Nous avons travaillé sur des jeux de données de 120 complexes protéine-ARN extraits de la PRIDB non redondante (Protein-RNA Interface DataBase, banque de données de référence pour les interactions protéine-ARN). La méthodologie de prédiction d'interactions protéine-ARN a aussi été testée sur 40 complexes issus de benchmarks de l'état de l'art et indépendants des complexes de la PRIDB non redondante. Le faible nombre de structures natives et la difficulté de générer in silico des structures identiques à la solution in vivo nous a conduit à mettre en place une stratégie de génération de candidats par perturbation de l’ARN partenaire d’un complexe protéine-ARN natif. Les candidats ainsi obtenus sont considérés comme des conformations presque-natives si elles sont suffisamment proches du natif. Les autres candidats sont des leurres. L’objectif est de pouvoir identifier les presque natifs parmi l’ensemble des candidats potentiels, par apprentissage supervisé d'une fonction de score.Nous avons conçu pour l'évaluation des fonctions de score une méthodologie de validation croisée originale appelée le leave-"one-pdb"-out, où il existe autant de strates que de complexes protéine-ARN et où chaque strate est constituée des candidats générés à partir d'un complexe. L’une des approches présentant les meilleures performances à CAPRI est l’approche RosettaDock, optimisée pour la prédiction d’interactions protéine-protéine. Nous avons étendu la fonction de score native de RosettaDock pour résoudre la problématique protéine-ARN. Pour l'apprentissage de cette fonction de score, nous avons adapté l'algorithme évolutionnaire ROGER (ROC-based Genetic LearnER) à l'apprentissage d'une fonction logistique. Le gain obtenu par rapport à la fonction native est significatif.Nous avons aussi mis au point d'autres modèles basés sur des approches de classifieurs et de métaclassifieurs, qui montrent que des améliorations sont encore possibles.Dans un second temps, nous avons introduit et mis en oeuvre une nouvelle stratégie pour l’évaluation des candidats qui repose sur la notion de prédiction multi-échelle. Un candidat est représenté à la fois au niveau atomique, c'est-à-dire le niveau de représentation le plus détaillé, et au niveau dit “gros-grain”où nous utilisons une représentation géométrique basée sur des diagrammes de Voronoï pour regrouper ensemble plusieurs composants de la protéine ou de l’ARN. L'état de l'art montre que les diagrammes de Voronoï ont déjà permis d'obtenir de bons résultats pour la prédiction d'interactions protéine-protéine. Nous en évaluons donc les performances après avoir adapté le modèle à la prédiction d'interactions protéine-ARN. L’objectif est de pouvoir rapidement identifier la zone d’interaction (épitope) entre la protéine et l’ARN avant d’utiliser l’approche atomique, plus précise,mais plus coûteuse en temps de calcul. L’une des difficultés est alors de pouvoir générer des candidats suffisamment diversifiés. Les résultats obtenus sont prometteurs et ouvrent desperspectives intéressantes. Une réduction du nombre de paramètres impliqués de même qu'une adaptation du modèle de solvant explicite pourraient en améliorer les résultats. / My thesis shows results for the prediction of protein-RNA interactions with machine learning. An international community named CAPRI (Critical Assessment of PRedicted Interactions) regularly assesses in silico methods for the prediction of the interactions between macromolecules. Using blindpredictions within time constraints, protein-protein interactions and more recently protein-RNA interaction prediction techniques are assessed.In a first stage, we worked on curated protein-RNA benchmarks, including 120 3D structures extracted from the non redundant PRIDB (Protein-RNA Interface DataBase). We also tested the protein-RNA prediction method we designed using 40 protein-RNA complexes that were extracted from state-ofthe-art benchmarks and independent from the non redundant PRIDB complexes. Generating candidates identical to the in vivo solution with only a few 3D structures is an issue we tackled by modelling a candidate generation strategy using RNA structure perturbation in the protein-RNAcomplex. Such candidates are either near-native candidates – if they are close enough to the solution– or decoys – if they are too far away. We want to discriminate the near-native candidates from thedecoys. For the evaluation, we performed an original cross-validation process we called leave-”onepdb”-out, where there is one fold per protein-RNA complex and each fold contains the candidates generated using one complex. One of the gold standard approaches participating in the CAPRI experiment as to date is RosettaDock. RosettaDock is originally optimized for protein-proteincomplexes. For the learning step of our scoring function, we adapted and used an evolutionary algorithm called ROGER (ROC-based Genetic LearnER) to learn a logistic function. The results show that our scoring function performs much better than the original RosettaDock scoring function. Thus,we extend RosettaDock to the prediction of protein-RNA interactions. We also evaluated classifier based and metaclassifier-based approaches, which can lead to new improvements with further investigation.In a second stage, we introduced a new way to evaluate candidates using a multi-scale protocol. A candidate is geometrically represented on an atomic level – the most detailed scale – as well as on a coarse-grained level. The coarse-grained level is based on the construction of a Voronoi diagram over the coarse-grained atoms of the 3D structure. Voronoi diagrams already successfully modelled coarsegrained interactions for protein-protein complexes in the past. The idea behind the multi-scale protocolis to first find the interaction patch (epitope) between the protein and the RNA before using the time consuming and yet more precise atomic level. We modelled new scoring terms, as well as new scoring functions to evaluate generated candidates. Results are promising. Reducing the number of parameters involved and optimizing the explicit solvent model may improve the coarse-grained level predictions.
25

Direct and expressive interaction on the desktop : increasing granularity, extent, and dimensionality / Interaction directe et expressive sur le bureau : améliorer la granularité, l'étendue et la dimensionnalité des actions de l'utilisateur

Aceituno, Jonathan 15 October 2015 (has links)
L’ordinateur personnel, de bureau ou portable, permet le travail intellectuel et les activités créatives à travers une interaction directe et expressive. Mais l’impression de “directitude” disparaît quand les actions deviennent complexes, et l’expressivité est souvent favorisée au détriment d’une séparation spatiotemporelle, d’une charge cognitive, ou de suites complexes d’opérations. Cette thèse propose de mieux exploiter les périphériques d’entrée standard de façon à augmenter de façon directe la granularité, l’étendue, et la dimensionnalité des actions utilisateur. Nous montrons d’abord que la granularité des mouvements du pointeur peut être augmentée sans déranger son fonctionnement habituel si la fonction de transfert du pointage prend en compte les périphériques, les capacités de l’utilisateur, et le modèle de données manipulé. Une limite de l’interaction subpixel ainsi permise est la résolution utile (le plus petit déplacement pouvant être produit avec un périphérique), pour laquelle nous proposons un protocole expérimental.Nous étudions ensuite l’edge-scrolling, une technique qui étend le déplacement d’objets et la sélection au-delà des limites d’une vue en la faisant défiler. Nous montrons plusieurs problèmes d’utilisabilité par l’examen de 33 implémentations, un sondage et des expériences contrôlées. Nous évitons ces problèmes en proposant push-edge et slide-edge, qui montrent des performances similaires aux techniques existantes. Enfin, nous décrivons trois utilisations réussies de l’ordinateur portable comme instrument de musique permettant le contrôle simultané temps-réel de plusieurs paramètres sonores, en détaillant quelques problèmes de conception. / Desktop and laptop personal computers enable knowledge work and creative activities by supporting direct and expressive interaction. But the feeling of directness often disappears when users perform complex actions: expressiveness is ensured at the cost of spatiotemporal separation, cognitive load, or complex operation sequences. This thesis proposes to solve this problem by harnessing the unexploited capabilities of standard input devices and familiar actions performed on them. We investigate how this enables direct increases of the granularity, extent, and dimensionality of user actions. First, we show that the granularity of pointer movements can be increased a hundredfold without impeding normal behavior if pointing transfer functions include device characteristics, user capabilities, and the manipulated data model, thus allowing subpixel interaction. This is limited by the useful resolution, the smallest displacement a user can produce using a pointing device, for which we propose an experimental protocol.Second, we study the design space of a widely used technique, edge-scrolling, that extends dragging actions past a viewport edge by scrolling. We reverse engineer 33 existing implementations, and highlight usability problems through a survey and experiments. We also propose push-edge and slide-edge scrolling, two position control techniques that provide performance comparable to rate control without the shortcomings. Third, we describe three ways of using a standard laptop as a musical instrument, allowing simultaneous multiparametric control of sound synthesis in real time, together with design considerations and examples of successful uses.
26

Efficient sequential learning in structured and constrained environments / Apprentissage séquentiel efficace dans des environnements structurés avec contraintes

Calandriello, Daniele 18 December 2017 (has links)
L'avantage principal des méthodes d'apprentissage non-paramétriques réside dans le fait que la nombre de degrés de libertés du modèle appris s'adapte automatiquement au nombre d'échantillons. Ces méthodes sont cependant limitées par le "fléau de la kernelisation": apprendre le modèle requière dans un premier temps de construire une matrice de similitude entre tous les échantillons. La complexité est alors quadratique en temps et espace, ce qui s'avère rapidement trop coûteux pour les jeux de données de grande dimension. Cependant, la dimension "effective" d'un jeu de donnée est bien souvent beaucoup plus petite que le nombre d'échantillons lui-même. Il est alors possible de substituer le jeu de donnée réel par un jeu de données de taille réduite (appelé "dictionnaire") composé exclusivement d'échantillons informatifs. Malheureusement, les méthodes avec garanties théoriques utilisant des dictionnaires comme "Ridge Leverage Score" (RLS) ont aussi une complexité quadratique. Dans cette thèse nous présentons une nouvelle méthode d'échantillonage RLS qui met à jour le dictionnaire séquentiellement en ne comparant chaque nouvel échantillon qu'avec le dictionnaire actuel, et non avec l'ensemble des échantillons passés. Nous montrons que la taille de tous les dictionnaires ainsi construits est de l'ordre de la dimension effective du jeu de données final, garantissant ainsi une complexité en temps et espace à chaque étape indépendante du nombre total d'échantillons. Cette méthode présente l’avantage de pouvoir être parallélisée. Enfin, nous montrons que de nombreux problèmes d'apprentissage non-paramétriques peuvent être résolus de manière approchée grâce à notre méthode. / The main advantage of non-parametric models is that the accuracy of the model (degrees of freedom) adapts to the number of samples. The main drawback is the so-called "curse of kernelization": to learn the model we must first compute a similarity matrix among all samples, which requires quadratic space and time and is unfeasible for large datasets. Nonetheless the underlying effective dimension (effective d.o.f.) of the dataset is often much smaller than its size, and we can replace the dataset with a subset (dictionary) of highly informative samples. Unfortunately, fast data-oblivious selection methods (e.g., uniform sampling) almost always discard useful information, while data-adaptive methods that provably construct an accurate dictionary, such as ridge leverage score (RLS) sampling, have a quadratic time/space cost. In this thesis we introduce a new single-pass streaming RLS sampling approach that sequentially construct the dictionary, where each step compares a new sample only with the current intermediate dictionary and not all past samples. We prove that the size of all intermediate dictionaries scales only with the effective dimension of the dataset, and therefore guarantee a per-step time and space complexity independent from the number of samples. This reduces the overall time required to construct provably accurate dictionaries from quadratic to near-linear, or even logarithmic when parallelized. Finally, for many non-parametric learning problems (e.g., K-PCA, graph SSL, online kernel learning) we we show that we can can use the generated dictionaries to compute approximate solutions in near-linear that are both provably accurate and empirically competitive.
27

Synthèse d'agglomérats multi-échelles de sulfure de zinc par precipitation homogène

Mekki Berrada, Mohamed Kamal 20 July 2007 (has links) (PDF)
Le sulfure de zinc obtenu par précipitation homogène présente une grande importance dans l'industrie des matériaux à propriétés optiques et électroniques, laquelle souhaiterait maîtriser son procédé de fabrication. Le sulfure de zinc correspondant, qui est sous forme agglomérée, a été choisi pour sa morphologie structurée : chaque agglomérat présente quatre échelles quant à la taille des particules le constituant. Il est préparé via la décomposition thermique de la thioacétamide dans une solution acide contenant le sulfate de zinc.<br />La précipitation est effectuée dans un réacteur fermé et parfaitement agité. Le but de cette étude est de présenter une méthodologie originale pour suivre en continu les concentrations en ions et les caractéristiques du solide formé : la production et la disparition des ions sulfure libérés par la thioacétamide, la consommation des ions zinc, l'évolution de la sursaturation relative au produit précipité ZnS. et les caractéristiques morphologiques des particules de ZnS. Les capteurs utilisés sont des électrodes spécifiques, des cellules conductimétriques et une sonde turbidimétrique. D'autres méthodes d'analyses, telles que la microscopie électronique, la granulométrie et la diffraction des RX, complètent cette étude expérimentale.<br />La morphologie des grains de sulfure de zinc dépend des conditions opératoires : vitesse d'agitation, concentrations initiales en réactifs, pH et température. Le pH est le paramètre qui conduit à la plus grande variabilité morphologique. Nous présentons donc les résultats expérimentaux et l'interprétation correspondante issus de la précipitation de ZnS réalisée à différents pH.
28

Analyse de l’apprentissage de formateurs et d’entraîneurs participant au Programme national de certification des entraîneurs

Leduc, Mélissa 01 February 2012 (has links)
Le but de cette thèse fut de comprendre l’apprentissage de formateurs d’entraîneurs et d’entraîneurs dans le Programme national de certification des entraîneurs. Deux études furent réalisées. La première porte sur l’apprentissage de cinq formateurs au moment d’être formé et en présentant des ateliers à des entraîneurs. La deuxième examine l’apprentissage de onze entraîneurs dans des ateliers. Les données furent collectées à partir de séances d’observation non participante et d’entretiens semi-structurés multiples. Elles furent analysées à partir de la théorie de l’apprentissage humain (Jarvis, 2006, 2007, 2008, 2009) et la théorie de Moon (2001) sur l’apprentissage dans les ateliers de courte durée. Les résultats révélèrent qu’apprendre peut être un processus cognitif, émotif et/ou pratique. Les formateurs apprirent autant en présentant les ateliers à des entraîneurs qu’au moment d’être formé. Les entraîneurs validèrent leur pratique, la modifièrent ou éprouvèrent de l’inconfort à la modifier. Des suggestions furent proposées aux responsables du programme.
29

Analyse de l’apprentissage de formateurs et d’entraîneurs participant au Programme national de certification des entraîneurs

Leduc, Mélissa 01 February 2012 (has links)
Le but de cette thèse fut de comprendre l’apprentissage de formateurs d’entraîneurs et d’entraîneurs dans le Programme national de certification des entraîneurs. Deux études furent réalisées. La première porte sur l’apprentissage de cinq formateurs au moment d’être formé et en présentant des ateliers à des entraîneurs. La deuxième examine l’apprentissage de onze entraîneurs dans des ateliers. Les données furent collectées à partir de séances d’observation non participante et d’entretiens semi-structurés multiples. Elles furent analysées à partir de la théorie de l’apprentissage humain (Jarvis, 2006, 2007, 2008, 2009) et la théorie de Moon (2001) sur l’apprentissage dans les ateliers de courte durée. Les résultats révélèrent qu’apprendre peut être un processus cognitif, émotif et/ou pratique. Les formateurs apprirent autant en présentant les ateliers à des entraîneurs qu’au moment d’être formé. Les entraîneurs validèrent leur pratique, la modifièrent ou éprouvèrent de l’inconfort à la modifier. Des suggestions furent proposées aux responsables du programme.
30

KiwiSpec: The Design and Performance of a High Resolution Echelle Spectrograph for Astronomy

Gibson, Steven Ross January 2013 (has links)
This document describes the design, analysis, construction and testing of KiwiSpec, a fibre-fed, high resolution astronomical spectrograph of an asymmetric white pupil design. The instrument employs an R4, 31.6 groove mm⁻¹ échelle grating for primary dispersion and a 725 lines mm⁻¹ volume phase holographic (VPH) based grism for cross-dispersion. Two versions of the prototype were designed and constructed: an 'in-air' prototype, and a prototype featuring a vacuum chamber (to increase the stability of the instrument). The KiwiSpec optical design is introduced, as well as a description of the theory behind a cross-dispersed échelle spectrograph. The results of tolerancing the optical design are reported for alignment, optical fabrication, and optical surface quality groups of parameters. The optical windows of an iodine cell are also toleranced. The opto-mechanical mounts of both prototypes are described in detail, as is the design of the vacuum chamber system. Given the goal of 1 m/s radial velocity stability, analyses were undertaken to determine the allowable amount of movement of the vacuum windows, and to determine the allowable changes in temperature and pressure within and outside of the vacuum chamber. The spectral efficiency of the instrument was estimated through a predictive model; this was calculated for the as-built instrument and also for an instrument with ideal, high-efficiency coatings. Measurements of the spectral efficiency of various components of the instrument are reported, as well as a description of the measurement system developed to test the efficiency of VPH gratings. On-sky efficiency measurements from use of KiwiSpec on the 1-m McLellan telescope at Mt John University Observatory are reported. Two possible exposure meter locations are explored via an efficiency model, and also through the measurement of the zero-order reflectivity of the échelle grating. Various stability aspects of the design are investigated. These include the stability of the optical mounts with temperature changes, and also the effect of the expansion and contraction of the supporting optical tables. As well, the stability of the in-air prototype was determined through measurement of the movement of thorium-argon emission lines within spectra as the temperature, atmospheric pressure and relative humidity (naturally) varied. Current and planned testing for determining the stability of the vacuum chamber prototype is discussed.

Page generated in 0.1688 seconds