• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 88
  • 16
  • 2
  • Tagged with
  • 240
  • 91
  • 56
  • 53
  • 41
  • 38
  • 32
  • 31
  • 29
  • 25
  • 24
  • 24
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Essais en microéconomie théorique et appliquée

Bahel, Éric January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
222

Analyse exploratoire de flots de liens pour la détection d'événements

Heymann, Sébastien 03 December 2013 (has links) (PDF)
Un flot de liens représente une trace de l'activité d'un système complexe au cours du temps, où un lien apparaît lorsque deux entités du système entrent en interaction ; l'ensemble des entités et des liens forme un graphe. Ces traces constituent depuis quelques années des jeux de données stratégiques dans l'analyse de l'activité de systèmes complexes à grande échelle, impliquant des millions d'entités : réseaux de téléphone mobiles, réseaux sociaux, ou encore Internet. Cette thèse porte sur l'analyse exploratoire des flots de liens, en particulier sur la caractérisation de leur dynamique et l'identification d'anomalies au cours du temps (événements). Nous proposons un cadre exploratoire sans hypothèse sur les données, faisant appel à l'analyse statistique et à la visualisation. Les événements détectés sont statistiquement significatifs et nous proposons une méthode pour valider leur pertinence. Nous illustrons enfin notre méthodologie sur l'évolution du réseau social en ligne Github, où des centaines de milliers de développeurs collaborent sur des projets de logiciel.
223

Approche parallèle pour l'estimation du flot optique par méthode variationnelle

Fezzani, Riadh 10 June 2011 (has links) (PDF)
Cette thèse s'inscrit dans le sillage des nombreuses recherches menées autour du problème d'estimation du flot optique. Elle se distingue par le fait d'avoir été menée dans un cadre pluridisciplinaire. Elle traite en effet d'un problème fondamental en traitement d'images (flot optique) auquel ont été appliqué des techniques de calcul scientifique (parallélisation) en visant une application expérimentale de la mécanique des fluides (vélocimétrie par images de particules). Le flot optique désigne le champ de vitesses apparent observé entre deux images successives d'une même scène. Son estimation est un intermédiaire essentiel dans de très nombreuses applications et nous proposons d'appliquer des techniques venant de la communauté de la vision par ordinateur à la vélocimétrie par images de particules (PIV). À la suite d'une évaluation préliminaire des approches classiques d'estimation du flot optique employant une régularisation soit locale soit globale du champ de vecteurs, nous décidons de considérer l'approche CLG de Bruhn et al. [2005b] qui propose de combiner les régularisations locale et globale. Nous étudions dans un premier temps la mise en œuvre du "warping" dans CLG puis nous le justifions dans notre approche baptisée "modified CLG" (MCLG). Nous décrivons ensuite deux méthodes de résolution. La première repose sur une approche par calcul variationnel et permet le développement d'un solveur de type Picard-SOR par bloc employant uniquement des linéarisations locales. Ce solveur est parallélisé par une technique de "color labelling". La deuxième méthode est une approche par "variable splitting" qui repose sur le fait d'introduire une seconde variable dans le modèle ce qui permet de le séparer en sous problèmes plus faciles à résoudre. Les solveurs intermédiaires employés dans cette techniques se composent d'opérations décorrélées, se qui facilite leur parallélisation. Une évaluation complète des différentes méthodes mises en œuvre au cours de ces travaux est présentée. On s'intéresse particulièrement au parallélisme des algorithmes développés, et cela sur différentes architectures (CPU multi-cœurs et GPU). On mesure également leur précison à l'aide de séquences classiques de traitement d'images mais aussi à l'aide d'images de PIV. On montre ainsi l'efficacité de la parallélisation de ces algorithmes (aussi bien sur CPU que sur GPU) et on prouve également l'interrés de considérer une approche CLG en PIV.
224

Codage multi-vues multi-profondeur pour de nouveaux services multimédia

Mora, Elie Gabriel 04 February 2014 (has links) (PDF)
Les travaux effectués durant cette thèse de doctorat ont pour but d'augmenter l'efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L'héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d'encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l'estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d'une vue de base reconstruite, puis l'extrapole au niveau d'une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d'une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées. Les deux méthodes apportent des gains de codage significatifs, qui confirment le potentiel de ces solutions innovantes.
225

Modélisation à haut niveau de systèmes hétérogènes, interfaçage analogique /numérique

Cenni, Fabio 06 April 2012 (has links) (PDF)
L'objet de la thèse est la modélisation de systèmes hétérogènes intégrant différents domaines de la physique et à signaux mixtes, numériques et analogiques (AMS). Une étude approfondie de différentes techniques d'extraction et de calibration de modèles comportementaux de composants analogiques à différents niveaux d'abstraction et de précision est présentée. Cette étude a mis en lumière trois approches principales qui ont été validées par la modélisation de plusieurs applications issues de divers domaines: un amplificateur faible bruit (LNA), un capteur chimique basé sur des ondes acoustiques de surface (SAW), le développement à plusieurs niveaux d'abstraction d'un capteur CMOS vidéo, et son intégration dans une plateforme industrielle. Les outils développés sont basés sur les extensions AMS du standard IEEE 1666 SystemC mais les techniques proposées sont facilement transposables à d'autres langages tels que VHDL-AMS ou Verilog-AMS utilisés en conception de dispositifs mixtes.
226

Approche basée sur les modèles pour la conception des systèmes dynamiquement reconfigurables : de MARTE vers RecoMARTE

Cherif, Sana 19 December 2013 (has links) (PDF)
Dans cette thèse, nous proposons une méthodologie de co-conception des systèmes dynamiquement reconfigurables basés sur FPGA. Notre méthodologie s'appuie sur l'Ingénierie Dirigée par les Modèles (IDM) pour la mise en oeuvre de notre flot de conception, dont la spécification des modèles est décrite avec le profil standard UML MARTE (Modeling and Analysis of Real-Time and Embedded Systems). Les travaux présentés dans ce manuscrit visent à garantir la flexibilité, la réutilisabilité et l'automatisation afin de faciliter le travail du concepteur et d'améliorer sa productivité. La première contribution de cette thèse réside dans la modélisation à haut-niveau d'abstraction permettant de cacher un grand nombre de détails d'implémentation. Nous avons donc défini un flot de conception pour la modélisation des FPGAs dynamiquement reconfigurables, basé sur l'IDM afin d'assurer l'automatisation de la génération de code. Suivant ce flot, plusieurs modèles sont créés moyennant principalement les concepts du profil MARTE. Cependant, la modélisation de certains concepts de la reconfiguration dynamique des FPGAs a nécessité des extensions dans MARTE que nous avons identifiées et intégrées dans un nouveau profil qui étend MARTE baptisé RECOMARTE (Reconfigurable MARTE). La seconde contribution est l'automatisation de la chaîne de transformations et la validation expérimentale. Afin d'assurer l'automatisation de notre flot de conception vers la génération du code, une chaîne de transformations a été utilisée. Le modèle final en MARTE résultant du flot de conception est donné comme entrée à cette chaîne. Nous passons ainsi d'un modèle MARTE/RecoMARTE vers une description intermédiaire selon le standard IP-XACT afin de générer finalement des fichiers décrivant le système complet dans l'environnement XPS de Xilinx. Cette automatisation permet d'accélérer la phase de conception et éviter les erreurs dues à la manipulation directe des détails. Enfin, un exemple d'application de traitement d'image a été élaboré afin de démontrer et valider notre méthodologie. Ceci a fait apparaître les avantages de nos contributions en termes de réutilisabilité de la conception et l'automatisation
227

Optimisation de l'architecture des réseaux de distribution d'énergie électrique / Optimization of architecture of power distribution networks

Gladkikh, Egor 08 June 2015 (has links)
Pour faire face aux mutations du paysage énergétique, les réseaux de distribution d'électricité sont soumis à des exigences de fonctionnement avec des indices de fiabilité à garantir. Dans les années à venir, de grands investissements sont prévus pour la construction des réseaux électriques flexibles, cohérents et efficaces, basés sur de nouvelles architectures et des solutions techniques innovantes, adaptatifs à l'essor des énergies renouvelables. En prenant en compte ces besoins industriels sur le développement des réseaux de distribution du futur, nous proposons, dans cette thèse, une approche reposant sur la théorie des graphes et l'optimisation combinatoire pour la conception de nouvelles architectures pour les réseaux de distribution. Notre démarche consiste à étudier le problème général de recherche d'une architecture optimale qui respecte l'ensemble de contraintes topologiques (redondance) et électrotechniques (courant maximal, plan de tension) selon des critères d'optimisation bien précis : minimisation du coût d'exploitation (OPEX) et minimisation de l'investissement (CAPEX). Ainsi donc, les deux familles des problèmes combinatoires (et leurs relaxations) ont été explorées pour proposer des résolutions efficaces (exactes ou approchées) du problème de planification des réseaux de distribution en utilisant une formulation adaptée. Nous nous sommes intéressés particulièrement aux graphes 2-connexes et au problème de flot arborescent avec pertes quadratiques minimales. Les résultats comparatifs de tests sur les instances de réseaux (fictifs et réels) pour les méthodes proposées ont été présentés. / To cope with the changes in the energy landscape, electrical distribution networks are submitted to operational requirements in order to guarantee reliability indices. In the coming years, big investments are planned for the construction of flexible, consistent and effective electrical networks, based on the new architectures, innovative technical solutions and in response to the development of renewable energy. Taking into account the industrial needs of the development of future distribution networks, we propose in this thesis an approach based on the graph theory and combinatorial optimization for the design of new architectures for distribution networks. Our approach is to study the general problem of finding an optimal architecture which respects a set of topological (redundancy) and electrical (maximum current, voltage plan) constraints according to precise optimization criteria: minimization of operating cost (OPEX) and minimization of investment (CAPEX). Thus, the two families of combinatorial problems (and their relaxations) were explored to propose effective resolutions (exact or approximate) of the distribution network planning problem using an adapted formulation. We are particularly interested in 2-connected graphs and the arborescent flow problem with minimum quadratic losses. The comparative results of tests on the network instances (fictional and real) for the proposed methods were presented.
228

Study of heavy flavours from muons measured with the ALICE detector in proton-proton and heavy-ion collisions at the CERN-LHC / Etude des arômes lourds de muons mesurés avec le détecteur ALICE dans les collisions proton-proton et ions lourds au CERN-LHC

Zhang, Xiaoming 23 May 2012 (has links)
Les collisions d'ions lourds ultra-relativistes ont pour objectif principal l'étude des propriétés de la matière nucléaire soumise à des conditions extrêmes et de température de densité d'énergie. Les calculs de la ChromoDynamique Quantique (QCD) prédisent dans ces conditions une nouvelle phase de la matière dans laquelle on assisterait au déconfinement des constituants des hadrons en un plasma de quarks et gluons (QGP). Les saveurs lourdes (charme et beauté) sont produites lors de processus durs aux premieres instants de la collision puis traversent le milieu produit durant la collision. Par conséquent, la mesure des quarkonia et des saveurs lourdes ouvertes devrait être particulièrement intéressante pour l'étude des propriétés du système créé aux premiers instants de la collision. On s'attend à ce que les saveurs lourdes ouvertes présentent des sensibilités à la densité d'énergie via les mécanismes de perte d'énergie des quarks lourds dans le milieu et que les quarkonia soient sensibles à la température initiale du système via leur dissociation par écrantage de couleur. La mesure du flot des saveurs lourdes devrait apporter des informations concernant le degré de thermalisation des quarks lourds dans le milieu nucléaire. De plus, l'observable viscosité/entropie pourrait être obtenue en combinant les mesures du facteur de modification nucléaire et de flot. En conséquence, l'étude de la production des quqrkonia et saveurs lourdes ouvertes est un domaine de recherche intensément étudié au niveau experimental et théorique. Les mesures effectuées au SPS et RHIC ont permis de mettre en évidence plusieurs caractéristiques du milieu produit mais ont aussi laissé plusieurs questions sans réponse. Avec une énergie par paire de nucléon de 15 fois supérieure à celle du RHIC, le LHC entré en fonctionnement fin 2009, a ouvert une nouvelle ère pour l'étude des propriétés du QGP. Un des plus importants aspects de ce domaine en énergie est l'abondante production de quarks lourds utilisés pour la première fois comme sonde de haute statistique du milieu. Le LHC délivra les premières collisions pp à √s = 0.9 TeV en octobre 2009 et a atteint l'énergie de √s = 7 TeV en mars 2010. Un run pp à √s = 2.76 TeV a eu lieu en mars 2011 pendant une durée limitée. Les runs Pb-Pb à √sNN = 2.76 TeV ont eu lieu fin 2010 et 2011. ALICE (A Large Ion Collider Experiment) est l'expérience dédiée à l'étude des collisions d'ions lourds au LHC. ALICE enregiste aussi des collisions pp afin de tester les calculs perturbatifs de QCD dans la région des faibles valeurs de x-Bjorken et de fournir la référence indispensable pour l'étude des collisions noyau-noyau et p-noyau. ALICE enregistrera aussi, début 2013, des collisions p-Pb/Pb-p afin d'étudier les effets nucléaires froids. Les quarkonia et saveurs lourdes ouvertes sont mesurés dans ALICE suivant leur mode de désintégration (di)-muonique, (di)-electronique et hadronique. Cette thèse concerne l'étude des saveurs lourdes ouvertes dans les collisions pp et Pb-Pb avec les muons simples mesurés aux rapidités avant avec le spectromètre à muons d'ALICE. Le document est structuré comme suit. Le premier chapitre est une introduction à la physique des collisions d'ions lourds et du diagramme de phase de la matière nucléaire. Le deuxième chapitre présente les objectifs de l'étude des saveurs lourdes ouvertes dans les collisions proton-proton, proton-noyau et noyau-noyau. Un intérêt particulier est porté au domaine en énergie du LHC. Le troisième chapitre est une description du détecteur ALICE et du spectromètre à muons. Le quatrième chapitre présente les systèmes "online" et "offline". Le cinquième chapitre est un résumé des performances du spectromètre à muons pour la mesure des saveurs lourdes ouvertes dans les collisions pp au moyen des muons simples et dimuons. Les chapitres 6 à 9 concernent l'analyse de données. (...) / Résumé indisponible
229

Etude de l'immunité des circuits intégrés face aux agressions électromagnétiques : proposition d'une méthode de prédiction des couplages des perturbations en mode conduit / Study of integrated circuits immunity against electromagnetic disturbances : proposal of a methodology which aims at predicting coupling of conducted disturbances

Deobarro, Mikaël 21 April 2011 (has links)
Avec les progrès technologiques réalisés au cours de ces dernières décennies, la complexité et les vitesses de fonctionnement des circuits intégrés ont beaucoup été augmentées. Bien que ces évolutions aient permis de diminuer les dimensions et les tensions d’alimentations des circuits, la compatibilité électromagnétique (CEM) des composants a fortement été dégradée. Identifiée comme étant un verrou technologique, la CEM est aujourd’hui l’une des principales causes de « re-design » des circuits car les problématiques liées aux mécanismes de génération et de couplage du bruit ne sont pas suffisamment étudiées lors de leur conception.Ce manuscrit présente donc une méthodologie visant à étudier la propagation du bruit à travers les circuits intégrés par mesures et par simulations. Afin d’améliorer nos connaissances sur la propagation d’interférences électromagnétiques (IEM) et les mécanismes de couplage à travers les circuits, nous avons conçu un véhicule de test développé dans la technologie SMOS8MV® 0,25 µm de Freescale Semiconductor. Dans ce circuit, plusieurs fonctions élémentaires telles qu’un bus d’E/S et des blocs numériques ont été implémentées. Des capteurs de tensions asynchrones ont également été intégrés sur différentes alimentations de la puce pour analyser la propagation des perturbations injectées sur les broches du composant (injection DPI) et sur les conducteurs permettant d’alimenter ce dernier (injection BCI). En outre, nous proposons différents outils pour faciliter la modélisation et les simulations d’immunité des circuits intégrés (extraction des modèles de PCB, approches de modélisation des systèmes d’injection, méthode innovante permettant de prédire et de corréler les niveaux de tension/ de puissance injectés lors de mesures d’immunité conduite, flot de modélisation). Chaque outil et méthode de modélisation proposés sont évalués sur différents cas test. Enfin, pour évaluer notre démarche de modélisation, nous l’appliquons sur un bloc numérique de notre véhicule de test et comparons les résultats de simulations aux différentes mesures internes et externes réalisées sur le circuit / With technological advances in recent decades, the complexity and operating speeds of integrated circuits have greatly increased. While these developments have reduced dimensions and supply voltages of circuits, electromagnetic compatibility (EMC) of components has been highly degraded. Identified as a technological lock, EMC is now one of the main causes of circuits re-designs because issues related to generating and coupling noise mechanisms are not sufficiently studied during their design. This manuscript introduces a methodology to study propagation of electromagnetic disturbances through integrated circuits by measurements and simulations. To improve our knowledge about propagation of electromagnetic interferences (EMI) and coupling mechanisms through integrated circuits, we designed a test vehicle developed in the SMOS8MV® 0.25µm technology from Freescale Semiconductor. In this circuit, several basic functions such as I/O bus and digital blocks have been implemented. Asynchronous on-chip voltage sensors have also been integrated on different supplies of the chip to analyze propagation of disturbances injected on supply pins and wires of the component (DPI and BCI injection). In addition, we propose various tools to facilitate modeling and simulations of Integrated Circuit’s immunity (PCB model extraction, injection systems modeling approaches, innovative method to predict and correlate levels of voltage / power injected during conducted immunity measurements, modeling flow). Each tool and modeling method proposed is evaluated on different test cases. To assess our modeling approach, we finally apply it on a digital block of our test vehicle and compare simulation results to various internal and external measurements performed on the circuit
230

Dysfonctions cérébrales et changements neuroanatomiques dans l’apnée obstructive du sommeil chez les personnes âgées

Baril, Andrée-Ann 04 1900 (has links)
No description available.

Page generated in 0.0509 seconds