• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Structure et propriétés électroniques de nanotubes de carbone en solution polyélectrolyte

Dragin, Fabienne Christelle January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
332

Faciliter le développement des applications de robotique

Kchir, Selma 26 June 2014 (has links) (PDF)
L'un des challenges des roboticiens consiste à gérer un grand nombre de variabilités. Ces dernières concernent les concepts liés au matériel et aux logiciels du domaine de la robotique. Par conséquent, le développement des applications de robotique est une tâche complexe. Non seulement, elle requiert la maîtrise des détails de bas niveau du matériel et du logiciel mais aussi le changement du matériel utilisé dans une application entraînerait la réécriture du code de celle-ci. L'utilisation de l'ingénierie dirigée par les modèles dans ce contexte est une voie prometteuse pour (1) gérer les problèmes de dépendance de bas niveau des applications des détails de bas niveau à travers des modèles stables et (2) faciliter le développement des applications à travers une génération automatique de code vers des plateformes cibles. Les langages de modélisation spécifiques aux domaines mettent en oeuvre les techniques de l'ingénierie dirigée par les modèles afin de représenter les concepts du domaine et permettre aux experts de celui-ci de manipuler des concepts qu'ils ont l'habitude d'utiliser. Cependant, ces concepts ne sont pas suffisants pour représenter tous les aspects d'une application car ils très généraux. Il faudrait alors s'appuyer sur une démarche pour extraire des abstractions à partir de cas d'utilisations concrets et ainsi définir des abstractions ayant une sémantique opérationnelle. Le travail de cette thèse s'articule autour de deux axes principaux. Le premier axe concerne la contribution à la conception d'un langage de modélisation spécifique au domaine de la robotique mobile (RobotML). Nous extrayons à partir d'une ontologie du domaine les concepts que les roboticiens ont l'habitude d'utiliser pour la définition de leurs applications. Ces concepts sont ensuite représentés à travers une interface graphique permettant la représentation de modèles afin d'assurer une facilité d'utilisation pour les utilisateurs de RobotML. On offre ainsi la possibilité aux roboticiens de représenter leurs scénarios dans des modèles stables et indépendants des plateformes cibles à travers des concepts qu'ils ont l'habitude de manipuler. Une génération de code automatique à partir de ces modèles est ensuite possible vers une ou plusieurs plateformes cibles. Cette contribution est validée par la mise en oeuvre d'un scénario aérien dans un environnement inconnu proposé par l'ONERA. Le deuxième axe de cette thèse tente de définir une approche pour rendre les algorithmes résistants aux changements des détails de ba niveau. Notre approche prend en entrée la description d'une tâche de robotique et qui produit : un ensemble d'abstractions non algorithmiques représentant des requêtes sur l'environnment y compris le robot ou des actions de haut niveau , un ensemble d'abstractions algorithmiques encapsulant un ensemble d'instructions permettant de réaliser une sous-tâche de la tâche étudiée , algorithme générique configurable défini en fonction de ces abstractions. Ainsi, l'impact du changement du matériel et des stratégies définies dans les sous-tâches n'est pas très important. Il suffit d'adapter l'implantation de ces abstractions sans avoir à modifier l'algorithme générique. Cette approche est validée sur six variantes d'une famille d'algorithmes de navigation appelée Bug.
333

Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances

Beaucaire, Paul 29 November 2012 (has links) (PDF)
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d'une valeur nominale et d'un intervalle de tolérance, à des dimensions de pièces. En particulier, l'analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l'inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d'estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d'exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s'agit de la probabilité que l'exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s'appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L'objectif de cette thèse est d'explorer le domaine de l'analyse et de la synthèse des tolérances afin d'identifier et d'exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l'analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l'approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l'évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L'analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l'utilisation d'une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d'aider à identifier les cotes ayant le plus d'influence sur le TNC d'un mécanisme. Enfin, l'optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d'Essuyages, concepteurs et fabricants de produits pour l'automobile et l'aéronautique, ont proposé des cas d'études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l'ingénierie des incertitudes, développe et commercialise un outil informatique professionnel.
334

Approche dirigée par les contrats de niveaux de service pour la gestion de l'élasticité du "nuage"

Kouki, Yousri 09 December 2013 (has links) (PDF)
L'informatique en nuage révolutionne complètement la façon de gérer les ressources. Grâce à l'élasticité, les ressources peuvent être provisionnées en quelques minutes pour satisfaire un niveau de qualité de service (QdS) formalisé par un accord de niveau de service (SLA) entre les différents acteurs du nuage. Le principal défi des fournisseurs de services est de maintenir la satisfaction de leurs consommateurs tout en minimisant le coût de ces services. Du point de vue SaaS, ce défi peut être résolu d'une manière ad-hoc par l'allocation/-libération des ressources selon un ensemble de règles prédéfinies avec Amazon Auto Scaling par exemple. Cependant, implémenter finement ces règles d'élasticité n'est pas une tâche triviale. D'une part, la difficulté de profiler la performance d'un service compromet la précision de la planification des ressources. D'autre part, plusieurs paramètres doivent être pris en compte, tels que la multiplication des types de ressources, le temps non-négligeable d'initialisation de ressource et le modèle de facturation IaaS. Cette thèse propose une solution complète pour la gestion des contrats de service du nuage. Nous introduisons CSLA (Cloud ServiceLevel Agreement), un langage dédié à la définition de contrat de service en nuage. Il adresse finement les violations SLA via la dégradation fonctionnelle/QdS et des modèles de pénalité avancés. Nous proposons, ensuite, HybridScale un framework de dimensionnement automatique dirigé par les SLA. Il implémente l'élasticité de façon hybride : gestion réactive-proactive, dimensionnement vertical horizontalet multi-couches (application-infrastructure). Notre solution est validée expérimentalement sur Amazon EC2.
335

Combinaison de la microscopie de fluorescence X et de l'imagerie X par contraste de phase pour l'imagerie clinique sub-cellulaire

Kosior, Ewelina 19 February 2013 (has links) (PDF)
Ce travail de thèse présente une combinaison unique d'imagerie X par contraste de phase avec la fluorescence X pour des échantillons biologiques étudiés par nanosonde par fluorescence X excitée par le rayonnement synchrotron. Les récents développements dans ce domaine ouvrent la possibilité d'une imagerie chimique quantitative à l'échelle sub-cellulaire. Ceci a été rendu possible par l'utilisation d'un outil unique qui est la station de nanoimagerie X ID22NI de l'ESRF qui permet de délivrer un faisceau sub-100 nm avec un très haut flux à haute énergie entrainant une sensibilité très haute, de l'ordre de quelques centaines d'atomes pour différents éléments (Fe, Cu, Zn...). Le couplage des informations issues de l'imagerie X par contraste de phase (masse surfacique de la cellule) et de la fluorescence X (masse surfacique des éléments chimiques) a pu être obtenu pour la première fois donnant accès à une cartographie des éléments chimiques constituant les cellules et de leurs fractions massiques absolues associées. Dans l'immédiat, il n'a été possible d'étudier des cellules qui ont été congelées rapidement puis lyophilisées, cependant, une nouvelle ligne de nanoimagerie, NINA, en construction à l'ESRF, fonctionnera comme un cryomicroscope et permettra l'analyse 2D/3D d'échantillons biologiques ou non congelés hydratés. L'extension de l'imagerie chimique 2D présentée dans ce travail à une imagerie 3D représente une importante avancée pour bon nombre de problématiques scientifiques en biologie. Une des limitations de ce type d'analyse est celle des dommages radio-induits à la suite de l'irradiation de l'échantillon par un haut flux de particules ionisantes. Il existe que peu ou pas d'étude sur les effets de la nanoanalyse par fluorescence X sur les cellules lyophilisées. Nous avons combiné l'imagerie de phase à l'imagerie par fluorescence X ce qui nous permis de conclure à une rétractation des structures cellulaires accompagnée d'une volatilisation des éléments du fait de l'irradiation lors de l'analyse par fluorescence X. Ces aspects ont été confortés par des analyses utilisant une technique complémentaire non-synchrotron de microscopie ionique en transmission et à balayage (STIM). Plus important encore, nous apportons ainsi un outil rapide et non-destructif pour la cellule (imagerie X de phase) qui permet de corriger la perte de masse due à la volatilisation d'éléments légers (C, H, O, N) de la matrice cellulaire. Cette démarche permet de fiabiliser l'analyse quantitative de la composition chimique cellulaire. Cette approche sera précieuse pour corriger ces effets de perte de masse lors de futures analyses tomographiques de cellules entières congelées hydratées. Nous avons également contribué à l'étude de distribution intracellulaire de nouvelles nanoparticules d'or ou de platine fonctionnalisées. Nous avons pu exploiter les données issues de la fluorescence X pour estimer le nombre de nanoparticules et la taille des clusters internalisés au sein des cellules. Toutefois, des expériences dédiées pour des analyses sur un plus grand nombre de cellules auxquelles l'imagerie X par contraste de phase serait menée en parallèle permettraient surement de préciser plus finement ces aspects quantitatifs sur le nombre de nanoparticules intracellulaires. Dans l'ensemble ce travail ouvre la possibilité d'une imagerie chimique quantitative absolue sub-cellulaire en 2D ou 3D avec la perspective d'imagerie corrélative avec de nombreuses techniques complémentaires notamment la microscopie électronique à transmission pour l'ultrastructure, la microscopie de fluorescence pour la localisation de proteines d'intérêts et d'autres techniques d'analyses chimiques telles le NanoSIMS ou le nano-PIXE.
336

De l'impossibilité de tout dire : étude des rapports entre représentations sociales et formes d'implication : le cas de la remise à niveau à l'Ecole Régionale de la Deuxième Chance Midi-Pyrénées

Cazeneuve, Anne 30 November 2012 (has links) (PDF)
Dans la société cognitive, la connaissance devient un levier économique, où l'apprenant guide son projet d'apprentissage tout au long de sa vie. Apprendre à apprendre est une compétence centrale pour l'accès à une insertion socioprofessionnelle pérenne. Mais 140 000 jeunes français quittent chaque année le système scolaire sans diplôme, sans qualification. L'École Régionale de la Deuxième Chance propose une formation en alternance où la remise à niveau soutient l'insertion. Cette recherche (CIFRE) interroge l'activité de remise à niveau. L'étude longitudinale s'appuie sur 50 parcours d'apprenants, hier en difficulté scolaire, aujourd'hui stagiaires de la formation professionnelle. Nous analysons le lien entre représentations sociales de la remise à niveau et implications et interrogeons la dichotomie réalisée entre implication active ou passive. Les prises de position recueillies sont hétérogènes et révèlent les éléments représentationnels générateurs de formes spécifiques d'implication (d'être et d'agir à l'École). L'étude découvre l'autocensure que s'imposent les élèves. Ils s'enferment dans des rôles institutionnels, inspirés par leur passé scolaire : difficile passage de l'apprenant dépendant du professeur à l'apprenant co-construisant ses apprentissages. Ces non-dits interrogent aussi les conditions d'expression de l'implication. Les " réfractaires " à la remise à niveau disent deux choses : leur implication passive affichée dans un projet d'apprentissage subi, et leur implication active cachée dans ce que pourrait être ce projet. Ces différentes explicitations d'implication, chez un même individu, révèlent qu'il n'est pas pertinent de qualifier de passifs ces apprenants.
337

Etude et modélisation compacte du transistor FinFET ultime

Chevillon, Nicolas 13 July 2012 (has links) (PDF)
Une des principales solutions technologiques liées à la réduction d'échelle de la technologie CMOS est aujourd'hui clairement orientée vers les transistors MOSFET faiblement dopés à multiples grilles. Ceux-ci proposent une meilleure immunité contre les effets canaux courts comparés aux transistors MOSFET bulk planaires (cf. ITRS 2011). Parmi les MOSFETs à multiples grilles, le transistor FinFET SOI est un candidat intéressant de par la similarité de son processus de fabrication avec la technologie des transistors planaires. En parallèle, il existe une réelle attente de la part des concepteurs et des fonderies à disposer de modèles compacts efficaces numériquement, précis et proches de la physique, insérés dans les " design tools " permettant alors d'étudier et d'élaborer des circuits ambitieux en technologie FinFET. Cette thèse porte sur l'élaboration d'un modèle compact orienté conception du transistor FinFET valide aux dimensions nanométriques. Ce modèle prend en compte les effets canaux courts, la modulation de longueur de canal, la dégradation de la mobilité, leseffets de mécanique quantique et les transcapacités. Une validation de ce modèle est réalisée par des comparaisons avec des simulations TCAD 3D. Le modèle compact est implémenté en langage Verilog-A afin de simuler des circuits innovants à base de transistors FinFET. Une modélisation niveau-porte est développée pour la simulation de circuits numériques complexes. Cette thèse présente également un modèle compact générique de transistors MOSFET SOI canaux long faiblement dopés à multiple grilles. La dépendance à la température est prise en compte. Selon un concept de transformation géométrique, notre modèle compact du transistor MOSFET double grille planaire est étendu pour s'appliquer à tout autre type de transistor MOSFET à multiple grille (MuGFET). Une validation expérimentale du modèle MuGFET sur un transistor triple grille est proposée. Cette thèse apporte enfin des solutions pour la modélisation des transistors MOSFET double grille sans jonction.
338

Evaluation de la performance des Systèmes Instrumentés de Sécurité à paramètres imprécis

Mechri, Walid 11 April 2011 (has links) (PDF)
Dans ce travail, le problème d'imprécision dans l'évaluation de la performance des systèmes instrumentés de sécurité est traité. Deux méthodes d'évaluation sont appliquées à un SIS. La première méthode d'évaluation utilise les arbres de défaillances, la seconde se base sur les chaînes de Markov. L'imperfection des données concerne les paramètres caractéristiques des SIS, tels que le taux de défaillance et le facteur de défaillance de cause commune. Les probabilités élémentaires sont remplacées par des modèles mathématiques permettant aux experts fiabilistes d'exprimer leur incertitude dans l'énoncé des valeurs de probabilités de défaillances et d'autres paramètres des systèmes. Nous montrons comment l'imprécision sur la valeur de taux de défaillance induit des variations particulièrement significatives sur la qualification du niveau d'intégrité de sécurité du système. Ce travail peut avoir beaucoup d'intérêt pour le décideur de connaître l'imprécision sur les paramètres de performance des systèmes.
339

Gestion autonome des services dirigée par des accords au niveau des services

Lage Freitas, André 29 March 2012 (has links) (PDF)
Les services numériques sont utilisés pour concevoir des applications reparties en abstrayant des logiciels et ressources virtuelles. La relation entre les services est définie par des accords au niveau de service (SLA) qui décrivent la qualité de service (QoS). Dans ce contexte, le défi est de gérer l'exécution des services en respectant la QoS. En premier lieu, ces services s'exécutent sur des environnements dynamiques et distribués. Ensuite, des buts de haut-niveau tels que la QoS et le prix de service doivent être traduits afin de configurer le système. Cette thèse propose une solution autonome pour gérer l'exécution des services sur des infrastructures distribuées. Plus précisément, l'exécution des services vise à garantir la QoS ainsi que l'augmentation du gain du fournisseur. Cette thèse décrit la conception et la mise en oeuvre du canevas Qu4DS qui supporte le cycle de vie des SLA. De plus, Qu4DS offre un support de haut-niveau pour des développeurs de services. Les résultats expérimentaux sur la grille Grid'5000 valident la contribution de cette thèse.
340

Identification d'opérateurs spécifiques pour la synthèse de haut niveau

Xiao, Chenglong 08 November 2012 (has links) (PDF)
Il est de plus en plus fréquent de faire appel à des opérateurs spécifiques en conception de circuits. Les opérateurs spécifiques peuvent être mis en oeuvre par des unités matérielles dédiées, en vue de réduire la taille du code, d'améliorer les performances et de réduire la surface du circuit. Dans cette thèse, nous proposons un flot de conception basé sur l'identification d'opérateurs spécifiques pour la synthèse de haut niveau. Les points clés de ce flot de conception sont l'énumération automatique et la sélection des opérateurs spécifiques à partir d'un code de l'application de haut niveau et la re-génération du code source intégrant les opérateurs spécifiques sélectionnés. Contrairement aux approches proposées précédemment, notre flot de conception est adaptable et est indépendant des outils de synthèse de haut niveau (il ne nécessite pas d'intervenir sur les algorithmes d'ordonnancement et de projection des outils de synthèse de haut niveau). Les résultats expérimentaux montrent que notre approche permet de réduire la surface du circuit de 19% en moyenne, et jusqu'à 37% dans certains cas, par rapport à une synthèse de haut niveau traditionnelle. La latence du circuit est réduite en moyenne de 22%, et atteint jusqu'à 59%. De plus, la taille du code est réduite de 74% en moyenne.

Page generated in 0.0454 seconds