• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1259
  • 232
  • 137
  • 6
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1670
  • 820
  • 411
  • 211
  • 205
  • 182
  • 178
  • 134
  • 132
  • 130
  • 126
  • 120
  • 113
  • 101
  • 99
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

Évaluation d'implantation d'un programme d'éducation au travail à l'école secondaire Ibn Hani au Maroc

Rasmy, Aziz January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
542

Optimisation des plans d'essais accélérés Application à la tenue en fatigue de pièces métalliques de liaison au sol

Beaumont, Pauline 01 July 2013 (has links) (PDF)
Dans l'industrie, et en particulier dans le domaine automobile, il est crucial de valider la fiabilité des systèmes de manière efficace, rapide et à moindre coût. Les pièces de Liaison Au Sol chez PSA sont soumises au phénomène de fatigue et leur conception est validée à partir de calculs mais aussi et principalement d'essais physiques. Les méthodologies globales de qualification en fatigue sont basées sur un protocole d'essai spécifique et une méthode d'estimation associée. Les travaux présentés ici présentent tout d'abord un état de l'art de méthodologies globales de qualification en fatigue, issues de la littérature et des applications PSA. Ces différents axes d'étude sont comparés par simulation numérique afin d'en définir la robustesse, l'efficacité et le coût. A l'issu de cette étude, une méthodologie globale efficace a été développée, et en partie mise en place. L'ensemble des travaux permet tout d'abord d'avoir un point de vue critique sur les méthodologies d'estimation de la fiabilité par les essais. Ils ont mené à la mise en place d'une amélioration des stratégies actuelles et ouvre la voie à des changements d'envergure chez PSA.
543

Contrôle frontière des équations de Navier-Stokes

Ngom, Evrad Marie Diokel 04 July 2014 (has links) (PDF)
Cette thèse est consacrée à l'étude de problèmes de stabilisation exponentielle par retour d'état ou "feedback" des équations de Navier-Stokes dans un domaine borné Ω ⊂ Rd, d = 2 ou 3. Le cas d'un contrôle localisé sur la frontière du domaine est considéré. Le contrôle s'exprime en fonction du champ de vitesse à l'aide d'une loi de feedback non-linéaire. Celle-ci est fournie grâce aux techniques d'estimation a priori via la procédure de Faedo-Galerkin laquelle consiste à construire une suite de solutions approchées en utilisant une base de Galerkin adéquate. Cette loi de feedback assure la décroissance exponentielle de l'énergie du problème discret correspondant et grâce au résultat de compacité, nous passons à la limite dans le système satisfait par les solutions approchées. Le chapitre 1 étudie le problème de stabilisation des équations de Navier- Stokes autour d'un état stationnaire donné, tandis que le chapitre 2 examine le problème de stabilisation autour d'un état non-stationnaire prescrit. Le chapitre 3 est consacré à l'étude de la stabilisation du problème de Navier-Stokes avec des conditions aux bords mixtes (Dirichlet- Neumann) autour d'un état d'équilibre donné. Enfin, nous présentons dans le chapitre 4, des résultats numériques dans le cas d'un écoulement autour d'un obstacle circulaire
544

Analyse macroscopique des grands systèmes : émergence épistémique et agrégation spatio-temporelle

Lamarche-Perrin, Robin 14 October 2013 (has links) (PDF)
L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.
545

Consolidation de relevés laser d'intérieurs construits : pour une approche probabiliste initialisée par géolocalisation

Hullo, Jean-Francois 10 January 2013 (has links) (PDF)
La préparation d'interventions de maintenance dans les installations industrielles a dorénavant recours à des outils d'étude, de modélisation et de simulation basés sur l'exploitation de modèles virtuels 3D des installations. L'acquisition de ces modèles tridimensionnels s'effectue à partir de nuages de points mesurés, depuis plusieurs points de vue, par balayage angulaire horizontal et vertical d'un faisceau laser par scanner laser terrestre. L'expression dans un repère commun de l'ensemble des données acquises est appelée consolidation, au cours de laquelle les paramètres de changement de repères entre les stations sont calculés. L'objectif de cette thèse est d'améliorer la méthode d'acquisition de données laser en environnements industriels. Celle-ci doit, au final, garantir la précision et l'exactitude nécessaires des données tout en optimisant le temps et les protocoles d'acquisition sur site, en libérant l'opérateur d'un certain nombre de contraintes inhérentes au relevé topographique classique. Nous examinons, dans un premier temps, l'état de l'art des moyens et méthodes mis en œuvre lors de l'acquisition de nuages de points denses de scènes d'intérieurs complexes (Partie I). Dans un deuxième temps, nous étudions et évaluons les données utilisables pour la consolidation: données laser terrestres, algorithmes de reconstruction de primitives et systèmes de géolocalisation d'intérieur (Partie II). Dans une troisième partie, nous formalisons et expérimentons ensuite un algorithme de recalage basé sur l'utilisation de primitives appariées, reconstruites dans les nuages de points (Partie~III). Nous proposons finalement une approche probabiliste de l'appariement de primitives permettant l'intégration des informations et incertitudes a priori dans le système de contraintes utilisé pour le calcul des poses (Partie IV).
546

Iesa : une méthode ludique et participative pour la représentation et l'amélioration des processus métiers

Santorum gaibor, Marco oswaldo 30 November 2011 (has links) (PDF)
Toute organisation doit aujourd'hui être capable de s'adapter de plus en plus vite aux évolutions stratégiques, organisationnelles et techniques. Pour cela, elle doit pouvoir identifier, modéliser, simuler, exécuter, optimiser et faire évoluer ses processus métier en fonction de ces changements. L'approche BPM (Business Process Management) propose des langages, des méthodes et des outils pour la modélisation, l'exécution et l'optimisation des processus. Mais l'étape de modélisation reste lourde à mettre en œuvre, couteuse, souvent effectuée par un expert analyste métier et donc peu consensuelle. Par opposition, la méthode ISEA est une approche participative dans laquelle les différents acteurs fonctionnels d'un processus métier conçoivent ensemble, de façon simple, ludique et rapide, une représentation des processus consensuelle et évolutive. Cette méthode est basée sur le cycle de vie traditionnel de gestion des processus métier, mais introduit 4 phases originales : l'identification, la simulation, l'évaluation et l'amélioration. Ces phases sont basées sur des outils de gestion de la qualité et utilisent un jeu de rôles (serious game) pour rendre la modélisation de processus plus attractive et collaborative. Le résultat est un modèle de processus simple et organisationnellement optimisé que nous transformons ensuite dans un modèle BPMN par une approche de type IDM.
547

Les paysages dans leur complexité : une ressource pour le développement territorial du piémont et des contreforts viticoles du Larzac (Languedoc-Roussillon)

Quiumento Velloso, Carolina 17 December 2013 (has links) (PDF)
Avant de devenir objet de préoccupations politiques et d'aménagement de l'espace, le paysage a été sujet dans les plus différents et divers courants de la pensée scientifique. Aujourd'hui, le paysage occupe une place importante et croissante dans les politiques et les actions publiques, notamment dans le cadre des problématiques de développement durable àl'échelle des territoires. Il sort ainsi de la " connaissance scientifique " vers " l'agir dans le monde ". Cette thèse se propose d'étudier dans quelles mesures les paysages du piémont et des contreforts du Larzac - marqués par la vitiviniculture - peuvent être un élément moteur dans les processus de développement territorial durable. Avec l'appui de la théorie des ressources territoriales, cette thèse propose dans un premier temps d'éclairer comment le paysage devientressource. La conception et les dynamiques du paysage sont complexes et souvent difficilement saisissables par les acteurs du territoire, ce qui complique les processus de valorisation et d'activation de la ressource. Avec l'appui de la pensée systémique, ce travail de recherche propose donc une " nouvelle forme " de représenter les paysages dans leur complexité- le dessin riche. Ceci est un outil efficace pour les acteurs locaux dans les processus d'autoréflexion et d'autoapprentissage, qui permettent la définition de stratégies et d'actions qui activent la ressource pour promouvoir un développement territorial durable et le maintien des paysages non simplement " beaux ", mais aussi " vivants ", avec la participation et selon les regards des acteurs.
548

Ligne de produits dynamique pour les applications à services

Yu, Jianqi 16 June 2010 (has links) (PDF)
Le développement d'applications par composition de services dynamiques et hétérogènes, c'est-à-dire implantés suivant des technologies différentes, est le sujet principal de cette thèse. Nous pensons, en effet, que l'approche orientée service apporte des changements considérables dans le domaine du logiciel et peut amener des gains significatifs en termes de réduction des coûts, d'amélioration de la qualité et de compression des temps de mise sur le marché. Les technologies à services ont dors et déjà pénétré de nombreux secteurs d'activité et répondent à certaines des attentes qu'ils suscitaient. Le développement d'applications par composition de services hétérogènes demeure néanmoins très complexe pour plusieurs raisons. Tout d'abord, les diverses technologies existantes utilisent des mécanismes de déclaration, de recherche et de liaison très différents. Les services, eux-mêmes, sont décrits suivant des structures souvent éloignées. Des développements et des connaissances techniques très pointus sont ainsi nécessaires pour correctement associer des services utilisant des bases technologiques différentes. D'autre part, la gestion du dynamisme est complexe. Le principe de l'approche à service est de permettre la liaison retardée de service et, dans certains cas, le changement des liaisons en fonction de l'évolution du contexte. Cela demande des algorithmes de synchronisation très précis, difficiles à mettre au point et à tester. Nous nous sommes ainsi rendu compte que, dans de nombreux cas, les bénéfices de l'approche à service ne sont pas complètement obtenus, faute d'une gestion appropriée du dynamisme. Enfin, les services sont essentiellement décrits suivant une logique syntaxique. On ne peut donc pas garantir, dans un cas général, la compatibilité de plusieurs services ou, plus simplement, la correction de leur comportement global. Cela est d'autant plus difficile lorsque des services ont des interactions complexes, non limitées à un unique appel pour obtenir une information. Nous apportons, dans cette thèse, une dimension " domaine " à la composition de service. La définition d'un domaine permet de restreindre les compositions possibles, aussi bien au niveau technologique qu'au niveau sémantique. C'est ainsi que nous avons trouvé une grande complémentarité entre les approches à service et les approches à base de lignes de produits. Les technologies à service apportent de façon naturelle le dynamisme, c'est-à-dire la capacité à créer des liaisons entre services de façon retardée à l'exécution. Les lignes de produits, quant à elles, définissent un cadre de réutilisation anticipée et planifiée. De façon plus précise, cette thèse défend une démarche outillée de composition de services structurée en trois phases, à savoir : la définition d'un domaine sous forme de services et d'architectures de référence à services, la définition d'applications sous forme d'architectures à service, et l'exécution autonomique des applications en fonction de l'architecture applicative du contexte. Cette thèse est validée au sein d'un projet collaboratif dans le domaine de la santé dans l'habitat.
549

Modélisation des propriétés statistiques de la luminance infrarouge du fond de ciel observée au limbe depuis la stratosphère

Quang, Carine 10 September 2009 (has links) (PDF)
Les performances des systèmes de veille IR aéroportés pour la detection de missiles balistiques sont limitées par les fluctuations spatiales de la luminance du fond de ciel. Cette thèse propose un nouveau code, FACLUM-2D, capable de calculer la fonction d'autocorrélation (FAC) 2D des fluctuations de la luminance atmosphérique, observées en visée quasi-horizontale depuis la stratosphere et spécifique à l'IR thermique. Les fluctuations du fond atmosphérique sont, dans ce cas, essentiellement dues aux fluctuations spatiales de la température et de la fraction massique de la vapeur d'eau. La prise en compte de ces dernières dans FACLUM-2D constitue la contribution majeure de ce travail de thèse. De plus, la détermination de la FAC de la luminance requiert la connaissance du coefficient d'absorption et de sa dérivée par rapport à la température et de la fraction massique de la vapeur d'eau. Pour cela, j'ai développé un code raie par raie pour l'IR thermique (RPR-IRT), permettant de tabuler la dérivée du coefficient d'absorption par rapport à la température et par rapport à la fraction massique de la vapeur d'eau avec une résolution spectrale de 10-4 cm-1. Faute de mesures expérimentales, le code FACLUM-2D a été validé avec des solutions analytiques pour un milieu homogène gris et comparé, dans la mesure du possible, à des codes de transfert radiatif standards. Les premiers résultats montrent, pour la première fois, l'impact significatif des fluctuations de la fraction massique de vapeur d'eau sur les fluctuations de la luminance. Une des perspectives majeures est d'étendre FACLUM-2D à une bande spectrale plus large, afin de couvrir tout l'IR.
550

Interaction multimodale en entrée : Conception et Prototypage

Serrano, Marcos 30 June 2010 (has links) (PDF)
Les interfaces multimodales se caractérisent par la multiplicité des modalités d'interaction et leurs combinaisons. Ces modalités d'interaction atomiques ou combinées sont offertes à l'utilisateur pour interagir avec un système (modalités en entrée) ou exploités par le système pour fournir des informations (modalités en sortie). L'interaction multimodale en entrée ne se limite plus aujourd'hui à la combinaison de la parole et du geste : de nombreuses modalités d'interaction, comme les interactions multi-doigts et bi-manuelles, le suivi du regard ou les interfaces tangibles, ouvrent un vaste espace de possibilités pour la multimodalité. Face à ce constat, il est donc important de pouvoir explorer efficacement l'espace de possibilités lors de la conception d'interfaces multimodales : nos travaux visent à définir des solutions conceptuelles et logicielles pour l'exploration des possibilités en termes d'interactions multimodales en entrée. Nous présentons ainsi une approche à composants pour la conception et le prototypage fonctionnel et/ou non fonctionnel d'interfaces multimodales en entrée. Nous adoptons une approche par flots de données, reposant sur un assemblage de composants qui décrit l'interaction multimodale en entrée pour une tâche utilisateur donnée. Nos contributions sont conceptuelles et logicielles. Notre contribution conceptuelle consiste en un espace de caractérisation de composants logiciels pour la multimodalité en entrée. Cet espace permet de caractériser les composants logiciels au sein de l'assemblage de composants qui décrit une interaction multimodale. Il offre au concepteur un cadre conceptuel afin de lui permettre de décrire précisément des alternatives de conception. Notre contribution logicielle consiste en un outil de prototypage basé sur un modèle à composants qui implémente notre espace de caractérisation (notre contribution conceptuelle). L'outil permet au concepteur de créer et d'exécuter un assemblage de composants définissant une interaction multimodale. Nous avons développé de nombreux prototypes multimodaux sur PC et sur téléphones mobiles à l'aide de cet outil, qu'ils soient fonctionnels ou en partie simulés par un compère humain selon une approche Magicien d'Oz. Ces prototypes mettent en oeuvre une grande variété de modalités d'interaction comme des gestes 2D et 3D, le pointage 3D, la voix, les mouvements de la tête, les mouvements du corps, la géolocalisation ou encore des interactions tangibles.

Page generated in 0.032 seconds