• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

TAARAC : test d'anglais adaptatif par raisonnement à base de cas

Lakhlili, Zakia January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
482

The determinants of education-job match among canadian university graduates

Chernoff, Victor January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
483

Estimation de probabilités d'évènements rares et de quantiles extrêmes. Applications dans le domaine aérospatial

Pastel, Rudy 14 February 2012 (has links) (PDF)
Les techniques dédiées aux évènements rares sont d'un grand intérêt pour l'industrie aérospatiale en raison des larges sommes qui peuvent être perdues à cause des risques associés à des probabilités infimes. Cette thèse se concentre la recherche d'outils probabilistes capables d'estimer les probabilités d'évènements rares et les quantiles extrêmes associés à un système boîte noire dont les entrées sont des variables aléatoires. Cette étude est faite au travers de deux cas issus de l'industrie. Le premier est l'estimation de la probabilité de collision entre les satellites Iridium et Cosmos. La Cross-Entropy (CE), le Non-parametric Adaptive Importance Sampling (NAIS) et une technique de type Adaptive Splitting (AST) sont comparés. Au cours de la comparaison, une version améliorée de NAIS est conçue. Au contraire du NAIS qui doit être initialisé avec une variable aléatoire qui génère d'emblée des événements rares, le NAIS adaptatif (ANAIS) peut être initialisé avec la variable aléatoire d'origine du système et n'exige donc pas de connaissance a priori. Le second cas d'étude est l'estimation de la zone de sécurité vis-à-vis de la chute d'un booster de fusée. Bien que les quantiles extrêmes puissent être estimés par le bais de ANAIS ou AST, ils apparaissent comme inadaptés à une distribution spatiale. A cette fin, le Minimum Volume Set (MVS) est choisi dans la littérature. L'estimateur Monte Carlo (MC) de MVS n'étant pas adapté à l'estimation d'un MVS de niveau extrême, des estimateurs dédiés sont conçus à partir d'ANAIS et d'AST. Ces deux derniers surpassent l'estimateur de type MC.
484

Adaptations neuromusculaires des muscles extenseurs du genou : contractions fatigantes uni- vs bi-latérales

Matkowski, Boris 17 December 2010 (has links) (PDF)
L'objectif de ce travail était de déterminer i) l'influence du niveau de force absolue sur la durée du temps de maintien, et les altérations neuromusculaires subséquentes chez un même individu à l'issue d'un exercice réalisé à la même intensité relative, avec un ou deux membres ; ii) l'influence de la commande nerveuse sur la capacité de production de force de chacun des muscles extenseurs du genou lors de contractions unilatérales (UL) vs. bilatérales (BL); iii) l'évolution des mécanismes d'activation pendant une série de contractions sous-maximales évoquées par électromyostimulation (EMS).Les résultats de la première étude confirment que le temps limite est dépendant du niveau de force absolu pour un même individu, la durée de la contraction en UL étant 20% plus longue qu'en BL. De plus, une corrélation a été trouvée entre la force lors d'une contraction maximale volontaire (CMV) et le temps limite en UL et BL. Toutefois, d'autres mécanismes semblent être également mis en jeu, car dans un cas les mécanismes sont d'origine nerveux et musculaire (UL), alors que dans l'autre cas les mécanismes sont seulement nerveux (BL). Les résultats de la deuxième étude montrent que la force maximale développée lors d'une contraction BL est inférieure à la somme des forces des contractions UL (i.e. présence d'un déficit bilatéral). Les temps d'apparition des pics de force lors des CMV de chacune des jambes ne sont pas différents de celui de la CMV BL, mais la force développée au cours de celle-ci est inférieure à la somme des CMV de chacune des jambes durant la CMV BL, c'est-à-dire à la force maximale produite par chacune des jambes lors de la CMV BL. Néanmoins, aucune différence d'activité EMG, d'amplitude d'onde M, de doublet et de niveau d'activation n'a été observée entre les conditions UL et BL. Les résultats de la troisième étude montrent que l'estimation de la commande descendante, par la technique de la secousse surimposée, lors d'un effort sous-maximal fatigant présente des biais méthodologiques. Toutefois, l'estimation des mécanismes nerveux par les deux méthodes classiques (niveau d'activation volontaire (NAV) et ratio d'activation centrale (CAR)) reste néanmoins pertinente pendant des contractions maximales volontaires. L'ensemble de nos travaux met en évidence l'intervention de mécanismes d'origine nerveux différents entre les contractions UL et BL
485

Intégration d'une couche spatiale dans l'architecture du Web sémantique : une proposition via la plateforme ArchaeoKM

Karmacharya, Ashish 30 June 2011 (has links) (PDF)
L'analyse spatiale de données géographies connaît un regain d'intérêt dans la communauté des bases de données relationnelles. Plus spécifiquement, les opérations et les fonctions spatiales utilisées comme base de l'analyse spatiale sont implémentées par les grands noms des systèmes de gestion de bases de données relationnelles limitant ainsi l'hétérogénéité structurelle des systèmes. En outre, la littérature est abondante en publications dans le domaine des ontologies spatiales afin de limiter l'hétérogénéité sémantique des sources de données tout en améliorant l'interopérabilité de ces données. Bien que l'interopérabilité des données soit l'un des objectifs du Web Sémantique, tout le potentiel de ces outils et de ces techniques basés sur la connaissance n'a pas été révélé. Avec l'influence sans cesse croissante du Web Sémantique à travers ces outils et applications en gestion de la connaissance et système intelligent, les applications utilisant des données géospatiales suivent ce phénomène en bénéficiant de son influence. Cette thèse se focalise sur l'utilisation de la connaissance métier afin de gérer des données spatiales à l'aide des technologies du Web sémantique. L'activité de recherche menée dans le cadre de cette thèse est réalisée sur des données provenant du domaine de l'archéologie industrielle. Cet environnement se caractérise par son hétérogénéité et sa grande quantité de données offrant ainsi un cadre idéal pour la réalisation d'un outil de gestion de connaissance. Cet outil basé sur les technologies du Web Sémantique a été prototypé sous le nom d'ArchaeoKM suivant le principe des 4 K, Knowledge Acquisition, Knowledge Management, Knowledge Visualization and Knowledge Analysis. Ce même principe est mis en œuvre pour les données spatiales. Une ontologie de haut niveau a été développée pour servir de cadre applicatif à la gestion des données spatiales permettant d'ajuster une ontologie de domaines sans composante spatiale. Le processus de gestion de la connaissance commence avec l'acquisition de la signature spatiale des objets identifiés. Cette signature est stockée dans un système de gestion de bases de données spatiales et est référencée par l'objet correspondant dans la base de connaissance. La connaissance spatiale de ces objets est générée à l'aide des fonctions et des opérations spatiales au niveau de la base de données spatiale et l'enrichissement de la base de connaissance est réalisé avec le résultat de ces opérations et fonctions. L'inférence de nouvelle connaissance sur la base des données existante est réalisée à l'aide de SWRL (Semantic Web Rule Language). De plus, ce langage a été étendu à l'aide de nouveaux built-ins spatiaux afin de prendre en sidération la dimension spatiale des données. De même, cette dimension spatiale a été apportée au langage SPARQL afin de réaliser des requêtes spatiales sur la base de connaissances.En effet, l'objectif principal de cette thèse est d'initier le premier pas vers l'intégration des composantes spatiales avec les technologies du Web Sémantique. Le processus d'intégration est premier plan pour les deux technologies. D'un point de vue Web Sémantique, l'intégration de données non communes dans ce cadre applicatif ouvre la porte à l'intégration de données beaucoup plus large. D'un point de vue des systèmes d'information géographique, l'inclusion de la connaissance permet une gestion métier des données rendant l'analyse plus proche de l'interprétation humaine.
486

De la diversité des évènements El Niño Oscillation Australe dans l'océan Pacifique tropical et des tendances climatiques associées au cours des 50 dernières années

Singh, Awnesh 25 October 2012 (has links) (PDF)
Comprendre les mécanismes moteurs et pouvoir anticiper l'impact environnemental du phénomène El Niño Oscillation Australe (ENOA) constituent des enjeux scientifiques et sociétaux de première importance, notamment pour les Pays Emergents. Dans cette thèse, nous avons documenté et contrasté la signature de différents types d'ENOA - dits canoniques et Modoki - pour plusieurs variables climatiques essentielles (température et salinité de surface, niveau de la mer, courant de surface, précipitation, vent de surface, ...), analysé la pertinence de la théorie dite de recharge / décharge, une des quatre théories majeures d'ENOA, à rendre compte ou non de la nature quasi oscillatoire de ces différents types et quantifié l'impact potentiel des modifications des caractéristiques majeures d'ENOA sur notre interprétation des tendances climatiques à 'long' terme pour ces variables climatiques essentielles.
487

Staffing Optimization with Chance Constraints in Call Centers

Ta, Thuy Anh 12 1900 (has links)
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation. / Call centers are key components of almost any large organization. The problem of labor management has received a great deal of attention in the literature. A typical formulation of the staffing problem is in terms of infinite-horizon performance measures. The method of combining simulation and optimization is used to solve this staffing problem. In this thesis, we consider a problem of staffing call centers with respect to chance constraints. We introduce chance-constrained formulations of the scheduling problem which requires that the quality of service (QoS) constraints are met with high probability. We define a sample average approximation of this problem in a multiskill setting. We prove the convergence of the optimal solution of the sample-average problem to that of the original problem when the sample size increases. For the special case where we consider the staffing problem and all agents have all skills (a single group of agents), we design three simulation-based optimization methods for the sample problem. Given a starting solution, we increase the staffings in periods where the constraints are violated, and decrease the number of agents in several periods where decrease is acceptable, as much as possible, provided that the constraints are still satisfied. For the call center models in our numerical experiment, these algorithms give good solutions, i.e., most constraints are satisfied, and we cannot decrease any agent in any period to obtain better results. One advantage of these algorithms, compared with other methods, that they are very easy to implement.
488

Modélisation, exploration et estimation de la consommation pour les architectures hétérogènes reconfigurables dynamiquement

Bonamy, Robin 12 July 2013 (has links) (PDF)
L'utilisation des accélérateurs reconfigurables, pour la conception de system-on-chip hétérogènes, offre des possibilités intéressantes d'augmentation des performances et de réduction de la consommation d'énergie. En effet, ces accélérateurs sont couramment utilisés en complément d'un (ou de plusieurs) processeur(s) pour permettre de décharger celui-ci (ceux-ci) des calculs intensifs et des traitements de flots de données. Le concept de reconfiguration dynamique, supporté par certains constructeurs de FPGA, permet d'envisager des systèmes beaucoup plus flexibles en offrant notamment la possibilité de séquencer temporellement l'exécution de blocs de calcul sur la même surface de silicium, réduisant alors les besoins en ressources d'exécution. Cependant, la reconfiguration dynamique n'est pas sans impact sur les performances globales du système et il est difficile d'estimer la répercussion des décisions de configuration sur la consommation d'énergie. L'objectif principal de cette thèse consiste à proposer une méthodologie d'exploration permettant d'évaluer l'impact des choix d'implémentation des différentes tâches d'une application sur un system-on-chip contenant une ressource reconfigurable dynamiquement, en vue d'optimiser la consommation d'énergie ou le temps d'exécution. Pour cela, nous avons établi des modèles de consommation des composants reconfigurables, en particulier les FPGAs, qui permettent d'aider le concepteur dans son design. À l'aide d'une méthodologie de mesure sur Virtex-5, nous montrons dans un premier temps qu'il est possible de générer des accélérateurs matériels de tailles variées ayant des performances temporelles et énergétiques diverses. Puis, afin de quantifier les coûts d'implémentation de ces accélérateurs, nous construisons trois modèles de consommation de la reconfiguration dynamique partielle. Finalement, à partir des modèles définis et des accélérateurs produits, nous développons un algorithme d'exploration des solutions d'implémentation pour un système complet. En s'appuyant sur une plate-forme de modélisation à haut niveau, celui-ci analyse les coûts d'implémentation des tâches et leur exécution sur les différentes ressources disponibles (processeur ou région configurable). Les solutions offrant les meilleures performances en fonction des contraintes de conception sont retenues pour être exploitées.
489

Détection et localisation tridimensionnelle par stéréovision d’objets en mouvement dans des environnements complexes : application aux passages à niveau / Detection and 3D localization of moving and stationary obstacles by stereo vision in complex environments : application at level crossings

Fakhfakh, Nizar 14 June 2011 (has links)
La sécurité des personnes et des équipements est un élément capital dans le domaine des transports routiers et ferroviaires. Depuis quelques années, les Passages à Niveau (PN) ont fait l’objet de davantage d'attention afin d'accroître la sécurité des usagers sur cette portion route/rail considérée comme dangereuse. Nous proposons dans cette thèse un système de vision stéréoscopique pour la détection automatique des situations dangereuses. Un tel système permet la détection et la localisation d'obstacles sur ou autour du PN. Le système de vision proposé est composé de deux caméras supervisant la zone de croisement. Nous avons développé des algorithmes permettant à la fois la détection d'objets, tels que des piétons ou des véhicules, et la localisation 3D de ces derniers. L'algorithme de détection d'obstacles se base sur l'Analyse en Composantes Indépendantes et la propagation de croyance spatio-temporelle. L'algorithme de localisation tridimensionnelle exploite les avantages des méthodes locales et globales, et est composé de trois étapes : la première consiste à estimer une carte de disparité à partir d'une fonction de vraisemblance basée sur les méthodes locales. La deuxième étape permet d'identifier les pixels bien mis en correspondance ayant des mesures de confiances élevées. Ce sous-ensemble de pixels est le point de départ de la troisième étape qui consiste à ré-estimer les disparités du reste des pixels par propagation de croyance sélective. Le mouvement est introduit comme une contrainte dans l'algorithme de localisation 3D permettant l'amélioration de la précision de localisation et l'accélération du temps de traitement. / Within the past years, railways undertakings became interested in the assessment of Level Crossings (LC) safety. We propose in this thesis an Automatic Video-Surveillance system (AVS) at LC for an automatic detection of specific events. The system allows automatically detecting and 3D localizing the presence of one or more obstacles which are motionless at the level crossing. Our research aims at developing an AVS using the passive stereo vision principles. The proposed imaging system uses two cameras to detect and localize any kind of object lying on a railway level crossing. The cameras are placed so that the dangerous zones are well (fully) monitored. The system supervises and estimates automatically the critical situations by detecting objects in the hazardous zone defined as the crossing zone of a railway line by a road or path. The AVS system is used to monitor dynamic scenes where interactions take place among objects of interest (people or vehicles). After a classical image grabbing and digitizing step, the processing is composed of the two following modules: moving and stationary objects detection and 3-D localization. The developed stereo matching algorithm stems from an inference principle based on belief propagation and energy minimization. It takes into account the advantages of local methods for reducing the complexity of the inference step achieved by the belief propagation technique which leads to an improvement in the quality of results. The motion detection module is considered as a constraint which allows improving and speeding up the 3D localization algorithm.
490

Modeling non-stationary resting-state dynamics in large-scale brain models

Hansen, Enrique carlos 27 February 2015 (has links)
La complexité de la connaissance humaine est révèlée dans l'organisation spatiale et temporelle de la dynamique du cerveau. Nous pouvons connaître cette organisation grâce à l'analyse des signaux dépendant du niveau d'oxygène sanguin (BOLD), lesquels sont obtenus par l'imagerie par résonance magnétique fonctionnelle (IRMf). Nous observons des dépendances statistiques entre les régions du cerveau dans les données BOLD. Ce phénomène s' appelle connectivité fonctionnelle (CF). Des modèles computationnels sont développés pour reproduire la connectivité fonctionnelle (CF). Comme les études expérimentales précédantes, ces modèles assument que la CF est stationnaire, c'est-à-dire la moyenne et la covariance des séries temporelles BOLD utilisées par la CF sont constantes au fil du temps. Cependant, des nouvelles études expérimentales concernées par la dynamique de la CF à différentes échelles montrent que la CF change dans le temps. Cette caractéristique n'a pas été reproduite dans ces modèles computationnels précédants. Ici on a augmenté la non-linéarité de la dynamique locale dans un modèle computationnel à grande échelle. Ce modèle peut reproduire la grande variabilité de la CF observée dans les études expérimentales. / The complexity of human cognition is revealed in the spatio-temporal organization of brain dynamics. We can gain insight into this organization through the analysis of blood oxygenation-level dependent (BOLD) signals, which are obtained from functional magnetic resonance imaging (fMRI). In BOLD data we can observe statistical dependencies between brain regions. This phenomenon is known as functional connectivity (FC). Computational models are being developed to reproduce the FC of the brain. As in previous empirical studies, these models assume that FC is stationary, i.e. the mean and the covariance of the BOLD time series used for the FC are constant over time. Nevertheless, recent empirical studies focusing on the dynamics of FC at different time scales show that FC is variable in time. This feature is not reproduced in the simulated data generated by some previous computational models. Here we have enhanced the non-linearity of local dynamics in a large-scale computational model. By enhancing this non-linearity, our model is able to reproduce the variability of the FC found in empirical data.

Page generated in 0.0454 seconds