• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 719
  • 349
  • 139
  • 1
  • 1
  • Tagged with
  • 1224
  • 835
  • 285
  • 230
  • 217
  • 211
  • 208
  • 203
  • 195
  • 175
  • 162
  • 145
  • 143
  • 137
  • 134
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Database Engineering Process Modelling/Modélisation des processus d'ingénierie des bases de données

Roland, Didier 15 May 2003 (has links)
One of the main current research activities in Software engineering is concerned about modelling the development process of huge softwares in order to bring some help to the engineer to design and maintain an application. In general, every design process is seen as rational application of transformation operators to one or more products (mainly specifications) in order to produce new products that satisfy to some given criteria. This modelling mainly allows a methodological guidance. Indeed, at each step of the process, the set of pertinent activities and types of products are proposed to the designer, without any other. This guidance may possibly be reinforced with some help. Furthermore, this modelling allows to document the process with its history, ie with a representation of performed actvities. This history is itself the basis of maintenance activities. Two examples : a Replay function that allows, during a modification, to do (automatically or assisted) the same activities as during the design, and Reverse Engineering that allows to recover not only some technical and functional documentation of an application, but also a plausible history of its design. The thesis aims at elaborating a general model of design processes, applying it to database engineering and implementing it in the DB-MAIN CASE tool. It will be done in four phases : 1. elaboration of a model, a method specification language and a history representation 2. evaluation of this model with the specification of classical methods and case studies 3. methodological recommandation proposals for the elaboration of design methods 4. development and integration of some methodological control functions in the DB-MAIN CASE tool; this includes an extension of the repository, the definition of the interface of the methodological functions, the development of the methodological engine and the development of an history processor (analysis, replay,...)./Un des principaux sujets de recherche actuels dans le monde de l'ingénierie logicielle concerne la modélisation des processus de développement de grosses applications afin d'apporter de l'aide aux ingénieurs pour concevoir et maintenir leurs applications. En général, un processus de conception est vu comme l'application rationnelle d'opérateurs de transformation à un ou plusieurs produits (généralement des spécifications) pour obtenir de nouveaux produits qui satisfont une série de critères donnés. Cette modélisation permet principalement une aide méthodologique: à chaque étape du processus, seul l'ensemble des outils pertinents est mis à disposition du concepteur. Ce guidage peut être renforcé par des messages d'aide. Cette aide s'étend l'enregistrement de l'historique du processus, c'est-à-dire d'une représentation des actions entreprises. Cet historique peut lui-même être à la base d'activités de maintenance. Deux exemples: une fonction qui permet de rejouer, lors d'une modification, de manière automatique ou assistée, les mêmes actions que pendant la conception, et la rétro-ingénierie qui permet de recouvrer non seulement la documentation technique et fonctionnelle d'une application, mais aussi un historique plausible de la conception originelle. La thèse s'attache à élaborer un modèle général de processus de conception, à l'appliquer au monde des bases de données et à l'implémenter dans l'AGL DB-MAIN. Cela, en 4 phases: 1. Élaboration d'un modèle, d'un langage de spécification (MDL) et d'une représentation des historiques 2. Évaluation de ce modèle avec des méthodes de spécification classiques et études de cas 3. Propositions de recommandations méthodologiques pour l'élaboration de méthodes d'ingénierie 4. Développement et intégration de fonctions de contrôle méthodologique dans l'atelier DB-MAIN; ceci inclut l'extension du référentiel, la définition de l'interface homme-machine des fonctions méthodologiques et le développement du moteur méthodologique.
212

Extraction de modèles pour la conception de systèmes sur puce

Le Tallec, Jean-François 25 January 2012 (has links) (PDF)
La conception des systèmes sur puce s'appuie souvent sur SystemC/C++ qui permet des descriptions architecturales et comportementales à différents niveaux d'abstraction. D'autres approches se tournent vers l'automatisation de l'assemblage de plates-formes dites virtuelles (format IP-Xact). L'utilisation des techniques de l'ingénierie des modèles est une voie plus récente avec des profils UML tels que MARTE. Dans cette thèse, nous étudions les possibilités de modélisation de ces différentes approches et les passerelles disponibles entre elles. Motivés par la disponibilité de modèles SystemC et opar les facilités offertes par MARTE, nous traitons de l'export des modèles SystemC. Au-delà de la simple conversion entre formats, nous décrivons la mise en œuvre d'une passerelle entre l'implémentation SystemC d'un design et sa version modèle dans le format IP-Xact. La représentation IP-Xact peut ensuite être de nouveau transformée en modèles MARTE par des outils déjà existants. Nous présentons les travaux connexes avant d'exposer notre vision et sa réalisation au travers de l'outil SCiPX (SystemC to IP-Xact). Dans un second temps, nous présentons plus en détail les possibilités permises par le profil UML-MARTE, son modèle de temps et le langage de spécifications de contraintes temporelles CCSL. Nous abordons les problèmes liés à la modélisation de protocoles à différents niveaux d'abstraction et plus spécialement ceux posés par le raffinement entre les niveaux TLM et RTL. Cette étude met en évidence des insuffisances de CCSL concernant la spécification des priorités. Nous proposons un enrichissement de CCSL pour lui permettre de manipuler ce concept de priorité.
213

Pour une approche artistique du cirque au collège : élaboration d'une ingénierie didactique collaborative en EPS en classe de 5ème

Coasne, Joelle 08 April 2013 (has links) (PDF)
Notre recherche est une ingénierie didactique de type coopératif (Sensevy & Mercier, 2007) qui s'attache à faire vivre à une classe de 5ème de collège, la complexité du cirque, oeuvre (Chevallard, 1995) au " risque de l'art " (Wallon, 2002), entre " jeux de l'Ilinx et jeux de Mimicry " (Caillois, 1958). Par l'analyse des interactions verbales et corporelles, nous analysons la portée des jeux d'apprentissage qui s'attachent à faire approcher la classe des jeux épistémiques circassiens. La Théorie Action Conjointe en Didactique (TACD) constitue les fondations théoriques de la construction de nos outils de recherche et de notre méthodologie qui traque la " circulation des savoirs entre professeur et élèves. " (Loquet, Roncin & Roesslé, 2007)
214

Développement de PVDF micro et nanostructures pour des études de culture cellulaire

Lhoste, Kévin 30 November 2012 (has links) (PDF)
L'ingénierie tissulaire vise à réparer les tissus endommagés et à récupérer les fonctions biologiques correspondantes. Afin de restaurer un tissu endommagé tel que le système nerveux, la conception et la fabrication de nouveaux types d'échafaudages tissulaires sont nécessaires. Dans ce travail, nous avons développé plusieurs techniques de microfabrication pour le polyfluorure de vinylidène (PVDF), un fluoropolymère thermoplastique, non réactif et piézoélectrique, qui peut être utilisé pour la culture cellulaire et l'ingénierie tissulaire. Nous avons tout d'abord étudié l'adhésion et la croissance cellulaire sur des substrats en PVDF avec des motifs micro et nanométriques en utilisant différentes techniques de fabrication telles que la micro-photolithographie, la lithographie douce, l'impression par microcontact, etc. L'influence de la micro-structuration sur les activités piézo-électriques du PVDF a été caractérisée par différentes méthodes d'analyses de surface (FTIR, XRD). Par la suite, nous avons effectué une étude systématique sur la fabrication de nanofibres de PVDF et leur compatibilité avec la culture cellulaire. Enfin, nous avons démontré la possibilité de doper ces nanofibres avec des nanoparticules magnétiques ce qui les rends excitables à distance par un champ magnétique.
215

Etude de la mise en oeuvre industrielle d'un nouveau procédé de mise en forme de produits composites

Mihaluta, Marius 11 October 2011 (has links) (PDF)
L'infusion de résine liquide est un procédé de mise en forme des produits composites dit à bas coût. Grâce aux avancées technologiques dans le domaine, l'industrie aéronautique commence à s'intéresser de plus en plus à ce type de procédé afin de s'affranchir des contraintes liées au procédé classique de moulage en autoclave, caractérisé par des coûts d'exploitation élevés. La littérature montre l'existence d'un nombre limité d'approches de représentation structurée des connaissances du domaine des composites. Notre méthodologie vise à identifier les paramètres pertinents du triptyque Produit-Processus-Ressource impactant sur l'industrialisation des produits. Une modélisation UML a été adoptée pour représenter les objets d'entreprise dans le cadre d'une collaboration industrielle. Une approche algorithmique a été employée pour générer les gammes de fabrication possibles par le traitement des connaissances capitalisées. Une approche multicritères a été utilisée pour évaluer les activités afin de qualifier les alternatives selon des indicateurs de performance de type : Qualité, Coût, Délai en vue d'aider la prise de décision lors de l'industrialisation des nouveaux produits. Une maquette informatique a été développée comme support de la méthodologie proposée.
216

Méthode d'évaluation de performance de système industriel basée sur l'indicateur valeur-risque

Shah, Liaqat-Ali 03 October 2012 (has links) (PDF)
La mesure et la gestion de la performance posent problème aux entreprises en termes d'atteinte des objectifs des multi parties prenantes. L'évaluation de ces objectifs et ainsi de la performance est essentielle pour plusieurs raisons : le contrôle et la surveillance, le diagnostic, l'amélioration, l'apprentissage et la prise de la décision de processus ou système d'entreprise. Les mesures de performance étant les descripteurs de la performance jouent un rôle important dans cette évaluation. Cependant, la multi-dimensionnalité de la mesure de performance, l'interdépendance entre elles et la recherche pour mesurer plusieurs dimensions de la performance compliquent le processus de mesure de performance. De plus, l'incertitude en ce qui concerne l'atteinte des objectifs atours du processus métiers ou système d'entreprise y ajoute encore de la complexité. Pour aborder cette situation, un système de mesure de performance basé sur l'indicateur du couple (valeur-risque) (appelé VR-PMS) orienté processus a été proposé. L'objectif est de transformer les atteintes et inquiétude des parties prenantes en un indicateur de la performance et un de risque respectivement pour prendre une décision en connaissance de cause. A cet effet, un modèle conceptuel de valeur/risque est proposé : il vise à intégrer les concepts associé aux objectifs, activités et risque dans un seul cadre et conceptualise l'idée de la gestion de performance basée sur la valeur et risque. En outre, un modèle méthodologique est élaboré et divise les processus de mesure de performance en trois étapes : la modélisation de performance, évaluation et prise de décision. Chaque phase du modèle est dotée d'outils et méthodes pour l'analyse quantitative. Le livrable de VR-PMS est un classement de solutions (c'est-à-dire alternatives de processus métier) évaluée vis-à-vis l'indicateur développé à partir de valeur et risque.
217

Une analyse de l'enseignement de la numération. Vers de nouvelles pistes.

Mounier, Eric 14 December 2010 (has links) (PDF)
De nombreuses recherches ont été entreprises en direction de l'apprentissage et de l'enseignement de la ‎numération écrite chiffrée de position. Des difficultés persistent chez les élèves. L'écriture chiffrée ne ‎constitue pas une simple transcription écrite du langage oral ; elle est vecteur de nouvelles ‎connaissances mathématiques à apprendre. En France, la classe de Cours Préparatoire, le CP, concerne ‎les enfants de 6-7 ans. Or, en arrivant au CP, les élèves ont une approche des nombres essentiellement ‎en lien avec leur désignation orale, associée le plus souvent à une activité de dénombrement un par un. ‎Par ailleurs, les situations de classe requièrent des médiations gérées par l'enseignant qui ne peuvent ‎faire abstraction des connaissances anciennes des élèves. Comme il semble impossible de faire une ‎séquence sur les nombres sans les nommer, se pose alors la question de la place des désignations orales ‎dans l'apprentissage de la numération décimale de position : comment en faire une aide et non un ‎obstacle ? La thèse revisite le contenu mathématique pour faire un nouvel inventaire des possibles. Elle ‎fait un bilan des travaux existants et des difficultés résistantes des élèves dans les débuts des ‎apprentissages. Elle rend compte des pratiques actuelles à travers l'analyse des manuels et des mises en ‎œuvre effectives en classe. ‎ Elle ouvre des perspectives de recherches à partir de nouvelles propositions pour l'enseignement à ce ‎niveau.‎
218

Recherche-action dans l'industrie de l'ingénierie : analyse des facteurs critiques à l'implantation d'un système de gestion des connaissances visant à renouveler et adapter un modèle théorique

Morin, Isabelle January 2009 (has links) (PDF)
Pour voir à l'adaptation aux contextes variables que nous connaissons, les gestionnaires doivent penser et adopter des pratiques de gestion qui permettent d'ajuster plus facilement l'organisation aux perpétuels changements, et ce, dans le but d'assurer la pérennité de l'entreprise et répondre aux nouvelles contraintes des marchés. Pour répondre à ceci, confronter plus habilement cette réalité et parvenir à une meilleure adéquation entre l'organisation et son environnement variable, voire incertain par moment, la gestion des connaissances s'avère une pratique qui a su faire ses preuves et intéressante à intégrer dans la planification stratégique d'entreprise. Dans le cadre de ce travail de recherche et par le biais d'une étude exploratoire réalisée de manière empirique dans l'industrie québécoise de l'ingénierie, nous proposons de faire l'analyse des facteurs critiques à l'implantation d'un système de gestion des connaissances, et ce, dans l'optique de renouveler et d'adapter un modèle théorique reconnu. La pertinence théorique et pratique de ce travail permet diverses possibilités. D'abord, sur le plan théorique, ce travail permet d'élargir le champ des travaux disponibles et de nuancer les textes conceptuels existants. Les grandes lignes théoriques tirées de ce travail permettent aussi d'ajuster un modèle à une industrie et à une entreprise spécifique. Ensuite, sur le plan pratique, les conclusions soulevées augmentent les probabilités de parvenir à implanter un système de gestion des connaissances répondant plus clairement aux besoins des acteurs. Si les personnes responsables de l'implantation d'un système de gestion des connaissances arrivent à l'ajuster à leur réalité, les chances de réussites sont augmentées. Par ricochet, c'est la pérennité de l'entreprise qui en sera favorisée. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Connaissances, Gestion des connaissances, Compétences, Apprentissages, Capacités organisationnelles.
219

Utilisation d'une ontologie et du réseau social Facebook pour la modélisation du contexte pour les applications mobiles dépendantes du contexte

Loubiri, Ahmed Said 11 1900 (has links) (PDF)
L'informatique dépendante du contexte est un paradigme de l'informatique qui tient en considération les éléments de l'environnement d'une entité (utilisateur, périphérique, etc.). Ce paradigme, qui prend une place de plus en plus importante grâce au développement rapide des technologies mobiles, a mené à la mise en place de différentes architectures et de divers modèles qui fournissent l'information sur le contexte. Au niveau des architectures plusieurs solutions ont été proposées mais présentent tout de même certaines limites notamment, au niveau de la modélisation du contexte. De nombreux modèles ont été proposés dépendamment des taches à réaliser, mais se concentrent sur les capteurs physiques comme source principales des données de contexte et ignorent les informations qu'on pourrait acquérir de la fouille des différents profils en ligne d'un utilisateur. Dans ce travail, nous proposons une architecture middleware pour le traitement et la gestion des informations du contexte pour un usager mobile en exploitant les données de Facebook comme source d'informations de contexte. Ainsi, nous analysons le réseau Facebook et le représentons sous forme de modèle ontologique. Nous fusionnons, ce modèle avec une ontologie du contexte relative à une simple application du domaine médical. Le modèle obtenu constitue notre solution proposée pour l'exploitation des données disponibles sur les réseaux en ligne dans la modélisation d'un contexte médical simplifié. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : informatique mobile, modélisation du contexte, application dépendantes du contexte, architecture middleware, réseaux sociaux, modélisation de l'ontologie, ontologie du contexte.
220

Contribution à la maintenance des ontologies à partir d'analyses textuelles : extraction de termes et de relations entre termes

Gargouri, Yassine January 2009 (has links) (PDF)
Les ontologies sont des nouvelles formes de contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue à un problème d'évolution. Étant donné la complexité des changements à apporter, un processus de maintenance, du moins semi-automatique, s'impose de plus en plus pour faciliter cette tâche et assurer sa fiabilité. L'approche proposée trouve son fondement dans un modèle cognitif décrivant un processus d'extraction de connaissances à partir de textes et de thésaurus. Nous mettons ainsi, les textes au centre du processus d'ingénierie des connaissances et présentons une approche se démarquant des techniques formelles classiques en représentation de connaissances par son indépendance de la langue. Les traitements textuels sont fondés principalement sur un processus de classification supporté par un réseau de neurones (ART 1) et sur l'Indexation Sémantique Latente appliquée sur des classes de termes. Partant de l'hypothèse que l'extraction -de connaissances à partir de textes ne peut se contenter d'un traitement statistique (ni même linguistique) de données textuelles pour accaparer toute leur richesse sémantique, un processus d'extraction de connaissances à partir d'un thésaurus a été conçu afin d'intégrer, le mieux possible, les connaissances du domaine au sein de l'ontologie. Ce processus est fondé principalement sur un calcul d'associations sémantiques entre des Vecteurs Conceptuels. Le modèle proposé représente une chaîne de traitement (ONTOLOGICO) au sein de la plateforme SATIM. Ce modèle vise à assister les experts de domaine dans leur tâche de conceptualisation et de maintenance des ontologies en se basant sur un processus itératif supporté par un ensemble de modules, en particulier, un extracteur de termes, un lemmatiseur, un segmenteur, un classifieur, un module de raffinement sémantique basé sur l'Indexation Sémantique Latente et un identificateur de termes reliés basé sur le calcul de similarité sémantique entre les couples de vecteurs conceptuels. La découverte de relations entre termes pour les besoins d'une conceptualisation de domaine s'avère être le résultat d'une complémentarité de traitements appliqués tant sur des textes de domaine que sur un thésaurus. D'une part, les analyses textuelles fondées principalement sur l'application de l'Indexation Sémantique Latente sur des classes de termes génèrent des relations sémantiques précises. D'autre part, l'extraction de relations sémantiques à partir d'un thésaurus, en se basant sur une représentation par des Vecteurs conceptuels, constitue un choix théorique judicieux et performant. Ce processus joue en effet, un rôle important dans la complétude des relations. Ce projet de recherche se place au coeur des échanges entre terminologie et acquisition de connaissances. Il amène une réflexion sur les divers paliers à envisager dans une telle démarche de modélisation de connaissances textuelles pour des objectifs de maintenance d'une ontologie de domaine. La méthodologie proposée constitue une aide précieuse dans le domaine de la maintenance des ontologies. Elle assiste les terminologues chargés de naviguer à travers de vastes données textuelles pour extraire et normaliser la terminologie et facilite la tâche des ingénieurs en connaissances, chargés de modéliser des domaines. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Maintenance d'ontologie, Traitement Automatique du Langage Naturel (TALN), Indexation Sémantique Latente, Vecteurs Conceptuels, Classification automatique, Réseaux de Neurones.

Page generated in 0.0603 seconds