• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

Conception d'un environnement de simulation intelligent. Application à la thermique du bâtiment

El Hassar, Sidi Mohamed Karim 15 December 1992 (has links) (PDF)
Ce travail de thèse s'insère dans le cadre plus général du développement par le Centre Scientifique et Technique du Bâtiment d'un Environnement de Simulation Intelligent destiné à faciliter l'accès aux logiciels de calculs scientifiques dans le secteur Bâtiment. Il s'agit d'un programme pluriannuel de recherches dont les objectifs sont de mettre à la disposition des professionnels de nouveaux outils d'aide à la conception et d'aide à l'analyse des systèmes "Bâtiments", basés sur la simulation numérique suivant divers points de vue (thermique, acoustique, structure, etc.). Le présent travail de recherche s'articule donc avec d'autres travaux menés en parallèle sur le même thème. Dans ce contexte, les objectifs fixés sont de trois ordres : - contribuer à la définition des spécifications de l'environnement de simulation générique notamment en analysant le processus de modélisation/simulation et en proposant des solutions pour la réalisation du dialogue Homme/machine ; - réaliser une application concrète que l'on peut considérer comme une phase expérimentale de mise en oeuvre des concepts développés ; cette application est réalisée autour du logiciel de calculs thermiques TRNSYS ; - définir, pour de tels environnements, les possibilités d'utilisation des systèmes à bases de connaissances (buts et moyens, évaluation de la pertinence des solutions). Après une première partie consacrée aux réflexions conceptuelles générales menées sur la base d'une analyse bibliographique et aux analyses nécessaires à la réalisation de l'application, la seconde partie du travail est consacrée à l'application proprement dite ; un environnement dénommé IISIBât (Interface Intelligente pour la Simulation dans le Bâtiment) est développé suivant les concepts précédemment définis ; dans une première phase, la stratégie de développement d'une telle interface est précisée ; le processus de conception est fondé sur la mise en oeuvre séquentielle de quatre modèles : les modèles cognitif, conceptuel, structurel et perceptif. Le modèle cognitif met en évidence les tâches que l'utilisateur est amené à réaliser dans le cadre d'un outil de simulation ; le processus de modélisation/simulation est décortiqué en ses diverses étapes ; ce travail permet de définir une interface homme/machine possible (et en particulier les outils nécessaires) spécialisée pour ce type de process. Le modèle conceptuel identifie les objets génériques sur lesquels se fonde l'interface, les fonctions rattachées à ces objets, et la représentation graphique de ces objets. Le modèle structurel s'intéresse à l'implémentation proprement dite. Le modèle perceptif représente la façon dont l'utilisateur perçoit le système final ; ce modèle conduit à une analyse critique des choix effectués et à la proposition d'améliorations. Au final, l'application réalisée (IISIBât- TRNSYS) permet de juger de la pertinence des concepts développés tant du point de vue du fond que des méthodes utilisées ; ainsi, l'intérêt de l'application développée pour des utilisateurs "développeurs de modèles" ou "créateurs de projets" a pu être démontré ; par ailleurs, il s'est avéré que cette application ne possédait pas toutes les fonctionnalités nécessaires à une utilisation efficace par des utilisateurs terminaux (analystes de systèmes) ; pour combler ces manques, il faut rajouter à l'interface des mécanismes de raisonnement. La dernière partie de ce travail s'intéresse à l'introduction au sein de l'application interactive de mécanismes de raisonnement faisant appel à des bases de connaissances.
472

Contribution à la programmation générative. Application dans le générateur SmartTools : technologies XML, programmation par aspects et composants

Courbis, Carine 10 December 2002 (has links) (PDF)
Avec l'émergence d'Internet et la prolifération de nouvelles technologies, la conception et le développement d'applications complexes doivent impérativement prendre en compte les standards et les aspects de répartition, déploiement et réutilisation de code. C'est la source d'une nouvelle problématique liée à la programmation. Un changement radical des méthodologies est nécessaire pour aisément prendre en compte ces différentes facettes. Cette thèse jette les bases d'une nouvelle manière de programmer où ces facettes ou intentions sont automatiquement intégrées aux spécifications ou modèles abstraits de l'application lors de phases de génération de code source. Cette nouvelle programmation est dit générative. Cette idée a été appliquée, à différents niveaux, lors de la réalisation d'une application, aussi bien pour la représentation de données ou d'environnements interactifs que pour les traitements sémantiques ou l'architecture. Ainsi le code final obtenu après génération s'appuie sur les technologies XML pour la représentation des données, les technologies objets et beans pour les vues et l'interface utilisateur, la programmation par aspect et le patron de conception visiteur pour les traitements sémantiques et la programmation par composants pour une architecture ouverte et une application répartie et déployable. Les principaux gains d'une telle programmation sont une meilleure qualité du logiciel due à la séparation de la logique métier et des spécificités technologiques, une simplification du code métier à écrire, l'ajout rapide de nouvelles facettes et un portage vers d'autres plates-formes ou technologies facilité.
473

Scorpio : une Approche d'Adaptation Structurelle de Composants Logiciels - Application aux Environnements Ubiquitaires

Bastide, Gautier 12 December 2007 (has links) (PDF)
La réutilisation à grande échelle de composants logiciels se révèle être un challenge pour la conception de nouvelles applications. Dans la grande majorité des cas, pour être intégrés à une application, les composants disponibles ont besoin d'être adaptés afin de faire face à la multiplicité des environnements de déploiement dotés de caractéristiques variables. Ainsi, pour éviter le redéveloppement de nouveaux composants et favoriser la réutilisation, de nombreuses approches ont proposé des techniques permettant d'adapter le comportement de composants existants. Cependant, adapter le comportement de composants n'est pas suffisant pour permettre leur réutilisation : il faut également adapter leur structure. Or, aucune approche existante ne permet de répondre pleinement à ces besoins en adaptation structurelle. Ainsi, notre objectif est de proposer une approche, appelée Scorpio, permettant d'adapter la structure de composants. Nous nous focalisons plus particulièrement sur des composants existants. Dans un premier temps, nous nous sommes intéressés à l'adaptation structurelle de composants existants en proposant un processus permettant leur ré-ingénierie vers de nouvelles structures. Puis, pour répondre aux besoins liés à une adaptation sans interruption de l'exécution, nous avons proposé des mécanismes permettant de prendre en charge l'adaptation dynamique de ces composants. Partant du constat qu'un certain nombre d'environnements, tels que les environnements ubiquitaires, nécessite une automatisation du processus d'adaptation, nous avons proposé alors de prendre en charge ces besoins à travers une approche permettant l'auto-adaptation structurelle de composants logiciels. Enfin, nos propositions ont été mises en œuvre d'une part par la réalisation du prototype Scorpio-Tool implémenté en Fractal et d'autre part, par la définition et le développement d'un scénario ubiquitaire permettant l'expérimentation de ces propositions.
474

Contributions à l'Amélioration du Débogage des Services Noyau dans un Système d'Exploitation Monolithique

Bissyandé, Tegawendé F. 12 March 2013 (has links) (PDF)
Alors que la recherche sur la qualité du code des systèmes a connu un formidable engouement, les systèmes d'exploitation sont encore aux prises avec des problèmes de fiabilité notamment dûs aux bogues de programmation au niveau des services noyaux tels que les pilotes de périphériques et l'implémentation des systèmes de fichiers. Des études ont en effet montré que que chaque version du noyau Linux contient entre 600 et 700 fautes, et que la propension des pilotes de périphériques à contenir des erreurs est jusqu'à sept fois plus élevée que toute autre partie du noyau. Ces chiffres suggèrent que le code des services noyau n'est pas suffisamment testé et que de nombreux défauts passent inaperçus ou sont difficiles à réparer par des programmeurs non-experts, ces derniers formant pourtant la majorité des développeurs de services. Cette thèse propose une nouvelle approche pour le débogage et le test des services noyau. Notre approche est focalisée sur l'interaction entre les services noyau et le noyau central en abordant la question des "trous de sûreté" dans le code de définition des fonctions de l'API du noyau. Dans le contexte du noyau Linux, nous avons mis en place une approche automatique, dénommée Diagnosys, qui repose sur l'analyse statique du code du noyau afin d'identifier, classer et exposer les différents trous de sûreté de l'API qui pourraient donner lieu à des fautes d'exécution lorsque les fonctions sont utilisées dans du code de service écrit par des développeurs ayant une connaissance limitée des subtilités du noyau. Pour illustrer notre approche, nous avons implémenté Diagnosys pour la version 2.6.32 du noyau Linux. Nous avons montré ses avantages à soutenir les développeurs dans leurs activités de tests et de débogage.
475

Introduction de processus de conception pour la modélisation interactive de modèles physiques particulaires 3D complexes dans l'environnement MIMESIS

Allaoui, Ali 21 October 2010 (has links) (PDF)
Le modèle physique masses-interactions pour la synthèse du mouvement visuel ou la modélisation de scènes virtuelles animées interactives, et en particulier le formalisme CORDIS-ANIMA généralisant son principe grâce à son haut degré de modularité, est aujourd'hui apprécié pour la qualité et la très grande variété de phénomènes qu'il permet d'obtenir. Cependant, cette richesse ne peut être utilisée dans toute sa complexité sans un outil de conception de modèles qui le met au centre du processus de création, et qui ouvre au maximum les possibilités tout en respectant ses principes. Pour cela, l'environnement de modélisation - constitué de tous les moyens donnés à l'utilisateur pour construire, paramétrer, habiller et simuler un réseau CORDIS-ANIMA - est déterminant dans les possibilités créatrices de l'utilisateur. Partant des outils précédents de modélisation, notre travail consiste à les étendre par des fonctionnalités évoluées permettant de franchir un saut qualitatif vers la création de modèles complexes. Pour ce faire, nous nous sommes appuyés sur l'organisation du processus de modélisation physique modulaire en 5 phases: préstructuration qualitative, préstructuration quantitative, conditions initiales, habillage pour le rendu visuel, et simulation. Pour chacune des quatre premières phases, nous avons été amenés à examiner trois types de fonctionnalités critiques dans la modélisation physique : 1. Proposer deux styles de représentations complémentaires pour la conception et la manipulation de modèles - la représentation langagière et la représentation graphique - de manière à tirer parti des avantages de chacune, ainsi que de leur combinaison. Ce point est essentiel dans la manipulation de réseaux CORDIS-ANIMA très complexes. 2. Proposer des fonctionnalités permettant de franchir un pas dans la spécification des conditions initiales, phase critique dans la modélisation physique. Nous proposons en particulier des fonctionnalités pour la transformation au sein du système masses-interactions de propriétés spatiales en provenance de modeleurs orientés géométrie. Ce point pose la question plus générale de la compatibilité entre modélisation de propriétés géométriques et de propriétés physiques. 3. Etendre les possibilités de modélisation en permettant l'intégration de la modification paramétrique en ligne, autre point critique pour la modélisation physique, puisqu'il permet d'introduire des modifications non linéaires en ligne. Ces nouvelles fonctionnalités sont à la base du nouvel outil MIMESIS V, et tracent une voie vers un outil interactif complet pour la modélisation physique particulaire masses-interactions.
476

PRISE EN COMPTE DE L'AGREGATION DES CULTURES DANS LA SIMULATION DU TRANSFERT RADIATIF : IMPORTANCE POUR L'ESTIMATION DE L'INDICE FOLIAIRE (LAI), DE LA PARCELLE AU PAYSAGE

Duthoit, Sylvie 07 July 2006 (has links) (PDF)
L'indice foliaire (LAI) est une variable clé pour l'étude du fonctionnement des surfaces végétales car elle conditionne les échanges de carbone et d'eau avec l'atmosphère. Les méthodes de mesures indirectes fournissent des estimations de LAI à partir de mesures de la fraction de trou in situ. Les méthodes d'estimation du LAI par inversion de modèle de réflectance à partir de données satellitaires utilisent généralement des modèles unidimensionnels car ils nécessitent peu de paramètres d'entrée. Dans les deux cas, les modèles reposent sur l'hypothèse que les éléments sont distribués de façon aléatoire au sein du couvert, ce qui est rarement le cas en réalité.<br />Dans ce contexte, le travail réalisé a pour objectif principal d'évaluer l'apport de l'utilisation d'un coefficient d'agrégation dans la simulation du transfert radiatif de couverts végétaux hétérogènes, en vue d'améliorer les estimations de LAI par inversion de modèles turbides.<br />Dans la première partie du travail, nous avons évalué les estimations de LAI fournies par le logiciel de traitement de photographies hémisphériques CAN_EYE, dont l'intérêt principal est d'estimer le LAI avec ou sans prise en compte de l'agrégation des feuilles. L'évaluation a été réalisée par comparaison avec des mesures destructives effectuées sur des cultures de blé, maïs et tournesol. Les résultats montrent que l'utilisation d'un coefficient d‘agrégation permet d'améliorer sensiblement les estimations de LAI. Toutefois, l'analyse suggère que le calcul du coefficient d'agrégation dans CAN_EYE avec la méthode de Lang et Xiang (1986) doit être amélioré.<br />Dans la deuxième partie du travail, nous avons analysé si l'introduction d'un coefficient d'agrégation dans un modèle de réflectance unidimensionnel permettait d'améliorer les simulations de la réflectance bidirectionnelle (FDRB), à l'échelle de la parcelle et du paysage. Pour cela, nous avons pris comme référence des simulations de FDRB issues d'un modèle 3D, le modèle DART (Gastellu et al., 1996). A l'échelle de la parcelle, nous avons montré l'intérêt du coefficient d'agrégation pour simuler la FDRB d'une parcelle de maïs dans la bande spectrale du rouge. Dans le PIR, l'utilisation d'un modèle unidimensionnel donne de meilleurs résultats. A l'échelle d'un paysage agricole, l'hétérogénéité sub-parcellaire semble être le facteur primordial et sa prise en compte avec un coefficient d'agrégation dans le rouge permet d'améliorer les simulations de la FDRB avec un modèle unidimensionnel. Une étude préliminaire a permis de mettre en évidence que les estimations de LAI par inversion pourraient être sensiblement améliorées si ce coefficient est introduit pour simuler la FDRB dans le visible.
477

Gestion Automatique du Dialogue Homme-Machine à partir de Spécifications Conceptuelles

Tarby, Jean-Claude 20 September 1993 (has links) (PDF)
Cette thèse s'inscrit dans le domaine des Interfaces Homme-Machine (IHM). Elle s'articule autour de deux thèmes principaux qui sont la Spécification et la Gestion Automatique du Dialogue Homme-Machine.<br /><br />Le travail présenté est basé sur la méthode Diane+ conçue initialement pour la spécification du dialogue homme-machine. Diane+ repose sur la planification hiérarchique et intègre le niveau de l'utilisateur. Elle est utilisée pour spécifier la répartition des tâches entre l'homme et la machine tout en laissant une latitude décisionnelle à l'utilisateur. Cette spécification utilise un formalisme simple et concis prenant en compte les répartitions les plus complexes. Ce formalisme permet, à partir des spécifications, de :<br />• générer l'interface homme-machine en intégrant des règles d'ergonomie générale,<br />• générer une partie du code des traitements,<br />• gérer automatiquement la dynamique de l'application (noyau fonctionnel et interface homme-machine),<br />• gérer automatiquement l'aide d'utilisation, l'aide fonctionnelle étant quant à elle implémentée par le concepteur.<br />De par les origines de Diane+ et les caractéristiques des IHM, ce travail utilise conjointement le modèle tâche et le modèle objet.
478

Synthèse de régulateurs numériques robustes multivariables par optimisation convexe

Prochazka, Hynek 23 January 2004 (has links) (PDF)
La thèse concerne essentiellement les méthodes de synthèse de régulateurs numériques robustes, monovariables ou multivariables, pour la commande des procédés temps-continu. Pour la synthèse, il est supposé que l'on dispose d'un modèle linéaire échantillonné (discrétisé) du procédé continue à commander. La robustesse de régulateur est traitée par l'analyse fréquentielle des sensibilités (fonctions/matrices de transfert de la boucle fermée). Comme dans le cas de la commande H∞, les valeurs singulières des réponses fréquentielles sont examinées pour ces analyses.<br /><br />Le mémoire est divisé en cinq parties. La première partie concerne les systèmes monovariables et le reste est concentré sur les problèmes de synthèse dans le domaine multivariable. Les cinq parties traitent les problématiques suivantes:<br /><br />• La première partie (Chapitre 2) touche la synthèse de régulateurs robustes monovariables par le placement de pôles, le calibrage de sensibilités et l'optimisation convexe [LK98, LL99]. Elle présente une nouvelle approche de la synthèse par placement de pôles en utilisant les filtres bande-étroite du 2$^e$ ordre et un logiciel associé développé dans le cadre de ce travail. Le logiciel reflète les améliorations apportées qui ont radicalement simplifiées la procédure de synthèse. La section qui concerne l'optimisation convexe rappelle les principes est introduit la notation utilisée ultérieurement pour la théorie multivariable.<br />• La deuxième partie (Chapitre 3 et 4) évoque la théorie fondamentale de la commande multivariable et développe l'idée de la synthèse de régulateurs robustes multivariables par placement de pôles et calibrage des sensibilités. Le régulateur a la forme d'observateur avec le retour des états estimés et il est utilisé dans la suite comme le régulateur central pour la synthèse de régulateurs par optimisation convexe.<br />• La troisième partie (Chapitre 5) est la partie essentielle et elle développe la méthode de synthèse de régulateurs robustes multivariables par calibrage de sensibilités et optimisation convexe. La méthode est basée sur la même principe que celui utilisé dans le domaine monovariable [Lan98, LL99] et elle est réalisé comme une boite à outils interactive pour Matlab. Le placement de pôles multivariable est aussi intégré dans cette application. Le logiciel développé fait partie de la thèse et il est brièvement décrit dans ce chapitre.<br />• La quatrième partie (Chapitre 6) traite la synthèse par optimisation convexe du pré-compensateur multivariable pour la poursuite. Le pré-com\-pen\-sa\-teur nous permet de séparer les spécifications sur la robustesse (rejet de perturbations et traitement des incertitudes) et les spécifications sur la poursuite (temps de montée, dépassement maximal).<br />• La cinquième partie (Chapitre 7) concerne la technique de réduction des régulateurs multivariables par identification en boucle fermée. La méthode développée fait suite à un approche similaire développé pour les régulateurs monovariables dans [LKC01].
479

Réalisation d'une plate-forme informatique dédiée au<br />métier du génie électrique autour des logiciels FLUX.<br />Application à la réalisation de logiciels métiers.

Souchard, Yves 18 November 2005 (has links) (PDF)
Les travaux présentés dans ce manuscrit ont pour objectif la conception d'une plate-forme de<br />conception de logiciels métiers dérivés des logiciels Flux. Ces recherches ont été menées en<br />partenariat avec la société Cedrat. Les logiciels de simulation sont de plus en plus complexes et donc<br />nécessitent une conception de plus en plus structurée. C'est pourquoi les développeurs s'appuient sur<br />de nouveaux concepts développés dans le domaine du génie logiciel. L'exploration de ces idées a<br />permis d'évaluer les avancées possibles tout en tenant compte de nos contraintes. Ainsi, ce manuscrit<br />présente les trois grandes phases de notre démarche de conception : La modélisation de nos<br />applications grâce à de nouveaux concepts de méta modélisation, la génération du code et l'exécution<br />de l'application grâce à l'interprétation des modèles créés. La présentation d'exemples validant notre<br />démarche fait l'objet de la dernière partie de ce manuscrit. La description dynamique de nos<br />applications via un modèle de données présente une solution en terme de temps de développement et<br />de modularité. Elle nous permet d'offrir rapidement, sur la base du logiciel généraliste Flux, un<br />ensemble de logiciels de simulation numérique spécialisés par métier plus facile d'accès et adapté aux utilisateurs
480

Réplications distribuées pour la définition des interactions de jeux massivement multi-joueurs

Bosser, Anne-Gwenn 18 November 2005 (has links) (PDF)
Les Jeux Massivement Multi-Joueurs sont des applications distribuées sur Internet dans lesquels on retrouve des problématiques de persistance, de sécurité, de temps-réel, de passage à l'échelle, et d'utilisation critique des ressources des machines et du réseau.<br />Nous proposons un cadre pour la réalisation de telles applications afin de favoriser la réalisation de game-play innovants en permettant une mise au point très fine des interactions.<br />Nous décrivons les techniques actuelles et démontrons comment chaque solution pour la réalisation d'une interaction donnée est fortement liée à la description fonctionnelle de cette interaction dans le cadre du game-play considéré.<br />Notre proposition consiste en un outil de prototypage basé sur un framework doté d'une sémantique simple pour faciliter le développement, mais permettant de gérer très finement les ressources bas-niveau afin de ne pas manquer de généricité. L'outil est destiné à être utilisé dans un cadre réaliste de méthodologie de développement basée sur le raffinement successif de prototypes permettant de valider au plus tôt les choix techniques.<br />Nous présentons le framework que nous avons développé, qui définit un modèle très fin de réplication des données représentant le monde virtuel le long de l'application distribuée. La sémantique utilisée repose sur un modèle d'exécution coopératif et reproductible, dont nous donnons la formalisation des principaux traits sous une forme opérationnelle. Nous décrivons l'organisation du code produit, ainsi que la manière dont le framework s'inscrit dans notre proposition finale et détaillons un exemple complet pour illustrer son utilisation.

Page generated in 0.039 seconds