• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
531

Modélisation statistique pour la prédiction du pronostic de patients atteints d’un Accident Vasculaire Cérébral / Statistical modeling for predicting the prognosis of stroke patients

Ozenne, Brice 23 October 2015 (has links)
L’Accident Vasculaire Cérébral (AVC) est une maladie grave pour laquelle des critères très stricts encadrent l’administration du traitement curatif en phase aigüe. Ces critères limitent drastiquement l’accès à ce traitement : on estime que seuls 10% des patients atteints d’un AVC en bénéficient. L’objectif de ce travail est de proposer un modèle prédictif de l’évolution de l’AVC qui permette d’identifier le volume de tissu à risque de chaque patient. Ce volume, qui correspond au bénéfice potentiel du traitement, permettra de mieux orienter le médecin dans sa décision de traiter. Pour répondre à cet objectif nous nous intéressons aux problématiques d’évaluation de modèles prédictifs dans un contexte de faible prévalence, de modélisation prédictive sur données spatiales, de prédiction volumique en fonction de l’option de traitement et de segmentation d’images en présence d’artefacts. Les outils développés ont été rassemblés au sein d’une librairie de fonctions du logiciel R nommée MRIaggr / Stroke is a serious disease that needs emergency health care. Due to potential side effects, the patients must fulfil very restrictive criteria for eligibility to the curative treatment. These criteria limit drastically the accessibility to treatment : currently, an estimated 10% of stroke patients are treated. The purpose of this work was to develop a statistical framework for stroke predictive models. We deal with assessing predictive models in a low-prevalence context, building predictive models for spatial data, making volumic predictions depending on the treatement option, and performing image segmentation in presence of image artefacts. Tools developed in this thesis have been collected in an R package named MRIaggr
532

L'estimation du mélange génétique dans les populations humaines / The estimation of admixture in human populations

Gourjon, Géraud 19 October 2010 (has links)
De nombreuses méthodes ont été développées dans le but d’estimer les apports génétiques (taux de mélange) de populations parentales au pool génétique d’une population mélangée. Certaines de ces méthodes ont été implémentées dans des logiciels, permettant une estimation plus ou moins rapide et précise des taux de mélange. Une comparaison complète des logiciels ADMIX (méthode des moindres carrés pondérés), ADMIX95 (méthode basée sur les identités géniques), Admix 2.0 (méthode basée sur la coalescence), Mistura (méthode de maximum de vraisemblance), LEA (méthode bayésienne de vraisemblance), et LEADMIX (méthode de maximum de vraisemblance basée sur la coalescence) a été menée. L’analyse a été faite à deux niveaux : intra-logiciel (test de chaque logiciel sous un jeu de paramètres définis), inter-logiciel (comparaison des logiciels entre eux). Les taux de mélange ont été estimés à partir de quatre types de marqueurs : autosomaux (groupes sanguins et gènes KIR), et uniparentaux (ADNmt et chromosome Y). Notre étude révèle que la précision et la fiabilité des estimations dépendent de l’adéquation du mélange étudié avec le modèle de la méthode employée, mais également d’un choix judicieux des loci et des populations parentales utilisés. La variabilité des estimations lors de modifications, même minimes, des paramètres de l’étude, nous amène à considérer que les contributions ne doivent pas être présentées sous forme de taux de mélange, mais d’« intervalles indicatifs de mélange » soulignant les tendances migratoires générales. / Different methods have been developed to estimate the genetic admixture contributions of parental populations to a hybrid one. Most of these methods are implemented in different software programs that provide estimates having variable accuracy. A full comparison between ADMIX (weighted least square), ADMIX95 (gene identity), Admix 2.0 (coalescent-based), Mistura (maximum-likelihood), LEA (likelihood-based) and LEADMIX (maximum-likelihood) software programs has been carried out, both at the “intra” (test of each software programs) and “inter” level (comparisons between them). We tested all of these programs on a real human population data set, using four kinds of markers, autosomal (Blood groups and KIR genes) and uniparental (mtDNA and Y-Chromosome). We demonstrated that the accuracy of the results depends not only on the method itself but also on the choice of loci and of parental populations. We consider that the results of admixture contribution rates obtained from human population data set should not be considered as an accurate value but rather as an indicative result and we suggest using an “Admixture Indicative Interval” as a measurement of admixture.
533

Modélisation du grenaillage ultrason pour des pièces à géométrie complexe / Modelling of ultrasonic shot peening for parts with complex geometry

Badreddine, Jawad 04 April 2014 (has links)
Le grenaillage ultrason est un procédé mécanique de traitement de surfaces. Il consiste à projeter des billes à la surface de pièces métalliques, à l’aide d’un système acoustique vibrant ultrasonore. Lors du traitement, les billes sont contenues dans une enceinte spécialement conçue pour la pièce à traiter, et adoptent un comportement similaire à celui d’un gaz granulaire vibré. Le grenaillage ultrason sert à introduire des contraintes résiduelles de compression dans le matériau traité. Ces contraintes de compression sont bénéfiques pour la tenue en fatigue de la pièce et sa résistance à la corrosion sous contraintes.L’objectif des présents travaux de thèse consiste à modéliser la dynamique des billes pendant le traitement, et pour des pièces et géométries complexes. En effet, depuis son industrialisation, la mise au point du procédé se fait de manière empirique qui, avec la complexification des pièces mécaniques traitées pousse cette approche à ses limites. La mise au point peut donc s’avérer coûteuse en temps et aboutir à une solution partiellement optimisée. Ainsi, le modèle développé donne accès à une compréhension détaillée du grenaillage ultrason dans des conditions de traitement industrielles. Il constitue pour la première fois un outil d’aide à la conception des enceintes de traitement, offrant la possibilité d’une meilleure maitrise et optimisation du traitement, tout en réduisant les coûts de mise au point. La seconde contribution est de fournir aux modèles de prédiction des contraintes des données fiables et réalistes / Ultrasonic shot peening is a mechanical surface treatment process. It consists on projecting spherical shot onto a metallic surface, using an ultrasonic accoustic system. During the treatement, the shot are contained in a chamber, specially designed for the peened part, and behave similarely to a vibrated granular gas. Ultrasonic shot peening is used to introduce compressive residual stresses in the peened material. These compressive stresses help increasing the fatigue life span of the part and its resistance to stress corrosion cracking.The objectif of the present work consists on modeling the shot dynamics of the shot during the traitement, and for complex parts and geometries. Since its industrialization, the choice of the process parameters is done experimentally with trial and error. And with the ever increasing complexity of the peened parts, this approach is reaching its limits; thus becoming sometimes time consuming and providing partially optimized solutions.Therfore, the developped model gives access to a detailed understanding of ultrasonic shot peening in industrial treatment conditions. It represents for the first time a support tool for the design of peening chambers. This offers the possibility of a better control and optimization of the process, while reducing development costs. The second contribution lies in the model capacity to provide reliable and realistic input data to residual stresses prediction models
534

Facilités de typage pour l'ingénierie des langages / Typing facilities for language engineering

Guy, Clément 10 December 2013 (has links)
Le nombre et la complexité toujours croissants des préoccupations prises en compte dans les systèmes logiciels complexes (e.g., sécurité, IHM, scalabilité, préoccupations du domaine d'application) poussent les concepteurs de tels systèmes à séparer ces préoccupations afin de les traiter de manière indépendante. L'ingénierie dirigée par les modèles (IDM) prône la séparation des préoccupations au sein de langages de modélisation dédiés. Les langages de modélisation dédiés permettent de capitaliser le savoir et le savoir-faire associés à une préoccupation au travers des constructions du langage et des outils associés. Cependant la définition et l'outillage d'un langage dédié demande un effort de développement important pour un public par définition réduit. Nous proposons dans cette thèse une relation liant les modèles et une interface de modèle permettant de faciliter la mise en place de facilités de typage pour la définition et l'outillage d'un langage dédié. Cette interface expose les éléments de modèle et les transformations de modèles associés à un langage de modélisation dédié. Nous représentons une telle interface par un type de modèles supportant des relations de sous-typage et d'héritage. Dans ce but nous définissons : une relation de typage entre les modèles et les langages de modélisation dédiés permettant de considérer les modèles comme des entités de première classe ; des relations de sous-typage entre langages de modélisation dédiés permettant la réutilisation de la syntaxe abstraite et des transformations de modèles. / The ever growing number and complexity of concerns in software intensive systems (e.g., safety, HMI, scalability, business domain concerns, etc.) leads designers of such systems to separate these concerns to deal with them independently. Model-Driven Engineering (MDE) advocates the separation of concerns in Domain-Specific Modeling Languages (DSMLs). DSMLs are used to capitalize the knowledge and know-how associated with a concern through the language constructs and its associated tools. However, both definition and tooling of a DSML require a significant development effort for a limited audience. In this thesis, we propose a relationship between models and model interfaces in order to ease the design of typing facilities for the definition and tooling of a DSML. This interface exposes the model elements and model transformations associated with a DSML. We represent such an interface by a model type supporting subtyping and inheritance relationships. For this purpose we define : a typing relationship between models and DSMLs allowing to consider models as first-class entities; subtyping relationships between DSMLs enabling the reuse of abstract syntax and model transformations.
535

Sentiment d’auto-efficacité perçu d’étudiants et étudiantes en sciences infirmières de leur performance clinique lors de la documentation électronique de la démarche de soins infirmiers / Nursing student's self-efficacy of clinical performance when using electronic documentation to describe nursing process

Pavel, Roxana January 2016 (has links)
Problématique : L’avènement de la documentation infirmière des soins dans les dossiers cliniques informatisés (DCI) engendre des changements dans la pratique infirmière actuelle. Le personnel infirmier devra acquérir les habiletés et savoirs nécessaires pour documenter électroniquement la démarche de soins infirmiers. À cet effet, des chercheurs de l’Université de Sherbrooke, en collaboration avec une compagnie informatique, ont développé un logiciel de simulation nommé Environnement Virtuel d’Apprentissage (EVA). Ce dernier vise à permettre aux personnes étudiantes infirmières, au moyen d’un simulateur sur écran, de pratiquer, à partir d’histoires de cas, l’évaluation clinique, l’examen physique, de même que la documentation électronique de la démarche de soins infirmiers, tout en se familiarisant avec une terminologie infirmière standardisée. But : Cette étude visait à évaluer l’impact du système EVA sur le sentiment d’auto-efficacité d'étudiants et étudiantes en sciences infirmières concernant leur performance clinique associée à la documentation électronique de la démarche de soins infirmiers. Méthodologie : Un devis quasi-expérimental avant-après a permis de décrire le sentiment d’auto-efficacité du groupe témoin et expérimental. Une appréciation concernant les fonctionnalités d’EVA a aussi été documentée par le groupe expérimental. Analyses et résultats : L’échantillon était composé majoritairement de femmes entre 21 et 30 ans ayant moins d’un an d’expérience en soins infirmiers. Un total de 63 personnes étudiantes ont rempli le questionnaire d’enquête au pré-test. Les résultats sur le sentiment d’auto-efficacité initial étaient similaires chez les groupes témoin et expérimental. En raison d’une importante perte de sujets, les calculs en post-test et pour la comparaison des groupes dans le temps ne sont pas significatifs. Une présentation graphique et une comparaison descriptive des données de quatre sujets ont été possibles pour décrire l’évolution du sentiment d’auto-efficacité dans le temps. Conclusion : Malgré quelques embûches concernant la participation du groupe expérimental, nous avons décrit le sentiment d’auto-efficacité avant et après l’utilisation du logiciel, effectué des comparaisons inter et intra groupe et fourni une rétroaction au développeur du logiciel. / Abstract : Issue: The advent of nursing care documentation in computerized clinical records generates changes in the current nursing practice. Nurses will need to acquire the skills and knowledge required to electronically document the nursing process. To this end, researchers at the University of Sherbrooke, in collaboration with an IT company, have developed a simulation software called Environnement Virtuel d’Apprentissage (EVA). The purpose of this program is to enable nursing students, using a simulation software, to practice, from case histories, clinical assessment, physical examination, as well as electronic documentation of the nursing process while becoming familiar with the nursing terminology. Purpose: This study aimed to assess the impact of the software EVA on the self-efficacy of nursing students about their clinical performance associated with electronic documentation of the nursing process. Methods: A quasi-experimental design before and after allowed to describe the feeling of self- efficacy in the control and experimental sample. An appreciation regarding EVA’s features was described by the experimental sample. Findings: The sample was predominantly composed of females between 21 and 30 years of age with less than one year of experience in nursing. A total of 63 students completed the survey questionnaire in the pretest. The results for the initial self-efficacy measure were similar in for the control and experimental group. Due to a significant loss of participants, our calculations regarding the post-test and comparison of groups over time were not significant. A graphic presentation and a descriptive comparison of four subjects was possible to describe the evolution of self- efficacy over time. Conclusion: Despite some difficulties concerning the participation of the experimental sample, we described the feeling of self-efficacy before and after using the software, made inter and intra-group comparisons and provided feedback to the software developer.
536

Etudes sur le diagnostic des systèmes par thermographie infrarouge / Research concerning the systems analyze by infrared thermography

Dragan, Razvan Gabriel 05 December 2014 (has links)
La thèse intitulée Études sur le diagnostic des systèmes par thermographie infrarouge propose des recherche théoriques et expérimentales dans un domaine complexe - le domaine des méthodes d’analyse non-destructive, spécialement la thermographie infrarouge utilisant des diverses sources d’excitation thermique: laser à CO2, lampes photographiques à halogène, sources électriques, micro-ondes et induction électromagnétique. L’analyse par thermographie infrarouge a été appliquée sur des divers systèmes soit du génie civil, soit de l’ingénierie médicale, dans le but de détecter des défauts internes et de surface, micro-fissures, des métaux inglobés, et, en même temps, l’analyse de leur influences dans le processus de transfert thermique. La thèse est structurée en six chapitres dont trois s’occupent de l’introduction, les objectifs de la recherche, les conclusions, les contributions originales et la valorisation des résultats (publies et contrats de recherches), ainsi que le développement futur du sujet de la thèse. Les trois chapitre suivants développent le sujet de la thèse en commençant avec une analyse rigoureuse de la littérature suivie par des études théoriques et expérimentaux sur l’analyse des systèmes par thermographie infrarouge : Le travail contient 181 figures et 12 tableaux à travers lesquels sont mis en évidence les résultats et des informations de haut niveau scientifique. Pendant le stage doctoral ont été réalisées et publies 10 articles dans les volumes des conférences internationales dont pour six le docteur est premier auteur. / The thesis “Research concerning the systems analyze by infrared thermography” proposestheoretical and experimental researches în the very complex domain of non destructiveinspection methods, especially the infrared thermography – CO2 laser excitation, halogen lamps,electric heat sources, microwaves and electromagnetic induction. The thermographic analyzewas applied on materials used în constructions and biomedical engineering, the goal being theinternal and external defect detection, micro cracks, the detection of the embed metallic materialsand also the analysis of their thermal influence in the heat transfer process. The thesis isstructured in six chapters and, among them: three are concerned on introduction, thesisobjectives, conclusions, original contribution and thesis valorization (published papers andresearch grants)/future research directions. The next three develop, consistently, the thesissubject, beginning with critical analyze of the specialized literature that is followed bytheoretical study, and the experimental study of systems by infrared thermography. The PhDthesis contains 181 figures and 12 tables în which are illustrated and highlighted results andinformation with a high scientific degree. During the research program, the author elaborated andpublished 10 papers in the proceedings of different scientific events in Romania and abroad, insix of them being the first author.
537

Interaction Humain - Ordinateur en contexte de comprovisation multimédia

Hoff, Jullian 08 1900 (has links)
Une mise en contexte présente l’évolution de la prise de décision du créateur dans des environnements où la technologie est sans cesse plus impliquée et autonome. Un survol des techniques génératives, de ses origines en musique jusqu’aux arts numériques, est présenté. Trois œuvres réalisées dans le cadre de ce projet de recherche-création sont ensuite analysées. Les outils et les techniques utilisés pour la réalisation de ces projets à dominante générative sont expliqués et commentés. Verklärter Rohr fait l’objet d’une analyse plus poussée sur l’aspect comprovisationnel de mon travail. Le développement de mon langage audiovisuel tel qu’il se rapporte au concept de synchrèse sera aussi examiné. L’analyse de Machine In The Shell, sert de terrain d’investigation pour expliciter des stratégies de spatialisation et de techniques d’écriture. L’analyse de Gu(I)t(A)rs développe sur l’utilisation de diverses technologies dont le Leap Motion, la synthèse par modélisation physique et l’intelligence artificielle. / Questions related to the evolution of creative decision-making are discussed, in relation to technology that is becoming more and more involved. An overview of generative techniques, from its origins in music to contemporary digital arts, is then presented. Then, three works produced as part of this research-creation project are analyzed. The different tools and techniques I used in making these works are explained and commented. Verklärter Rohr is the subject of a more in-depth analysis. The comprovisational angle of my work, as well as the development of my audiovisual language as it relates to the concept of synchresis will be discussed. An analysis of Machine In The Shell explain the strategies of spatialization and writing techniques I used. The analysis of Gu(I)t(A)rs expands on the use of various technologies including Leap Motion, physical modeling synthesis and artificial intelligence.
538

Organisational awareness : mapping human capital for enhancing collaboration in organisations / La sensibilisation organisationnelle : la cartographie du capital humain pour le renforcement de la collaboration dans les organisations

Garbash, Dor Avraham 13 October 2016 (has links)
Comment peut-on devenir plus conscients des sources de connaissance au sein des organisations des humains? Les changements économiques et technologiques rapides forcent les organisations à devenir plus souples, agiles et interdisciplinaires. Pour cela, les organisations cherchent des alternatives pour les structures de communication hiérarchiques traditionnelles qui entravent les pratiques de collaboration ascendantes. Pour que les méthodes ascendantes soient efficaces, il est nécessaire d'offrir aux membres l'accès à l'information et à l'expertise dont ils ont besoin pour prendre des décisions qualifiées. Ceci est un défi complexe qui implique la culture organisationnelle, l'informatique et les pratiques de travail. Un défaut au niveau de l'application de ce système peut aborder des points critiques qui peuvent ralentir les processus de travail, d'entraver l'innovation et qui conduisent souvent au travail suboptimal et redondant. Par exemple, une enquête 2014 de 152 dirigeants de Campus IT aux Etats-Unis, estime que 19% des systèmes informatiques du campus sont redondants, ce qui coûte les universités des Etats-Unis 3.8B$ par an. Dans l'ensemble, les travailleurs intellectuels trouvent l'information dont ils ont besoin seulement 56% du temps. Avec un quart du temps total des travailleurs intellectuels consacré à la recherche et l'analyse des informations. Ce gaspillage de temps coûte 7K$ pour chaque employé par an. Un autre exemple du gaspillage est celui des nouveaux arrivants et des employés promus qui peuvent prendre jusqu'à 2 ans pour s'intégrer pleinement au sein de leur département. En outre et selon des enquêtes étendues, seulement 28% des apprenants estiment que leurs organisations actuelles «utilisent pleinement» les compétences qu'ils ont actuellement capable d'offrir et 66% prévoient quitter leur organisation en 2020. Réussir la résolution de ce défi est capable de motiver les membres de l'organisation, ainsi que d'y améliorer l'innovation et l'apprentissage. L'objectif de cette thèse est de mieux comprendre ce problème en explorant les défis rencontrés par le service d'informatique dans une université et un centre de recherche interdisciplinaire. Deuxièmement, co-développer et mettre en œuvre une solution avec ces institutions, je décris leur utilisation des logiciels que nous avons développés, les résultats et la valeur obtenus avec ces pilotes. Troisièmement, tester l'efficacité de la solution, et explorer de nouvelles applications et le potentiel d'un tel système similaire pour être utilisé dans une plus grande échelle. Pour mieux comprendre le problème je me suis engagé dans une discussion avec les membres et les dirigeants des deux organisations. Une conclusion importante des discussions est que les membres de ces organisations souffrent souvent d'un manque de sensibilisation à propos de leurs connaissances-compétences au niveau d'organisation du capital, et la connaissance des processus et des relations sociales avec leurs collègues dans l'organisation. Grâce à cette exposition, les idées novatrices, les opportunités et les intérêts communs des pairs sont sévèrement limités. Cela provoque des retards inutiles dans les projets inter-équipes, des goulots d'étranglement, et un manque de sensibilisation sur les possibilités de stages. Aussi, j'ai craqué le problème et je l’avais défini comme l'une des informations de fragmentation: Différentes informations sont stockées dans des bases de données disparates ou dans la tête des gens, exigeant un effort et de savoir-faire pour l'obtenir. (...) / How can we become more aware of the sources of insight within human organisations? Rapid economical and technological changes force organisations to become more adaptive, agile and interdisciplinary. In light of this, organisations are seeking alternatives for traditional hierarchical communication structures that hinder bottom-up collaboration practices. Effective bottom-up methods require empowering members with access to the information and expertise they need to take qualified decisions. This is a complex challenge that involves organisational culture, IT and work practices. Failing to address it creates bottlenecks that can slow down business processes, hinder innovation and often lead to suboptimal and redundant work. For example, a 2014 survey of 152 Campus IT leaders in the US, estimated that 19% of the campus IT systems are redundant, costing US universities 3.8B$ per year. In aggregate, knowledge workers find the information they need only 56% of the time. With a quarter of knowledge workers total work time spent in finding and analyzing information. This time waste alone costs 7K$ per employee annually. Another example of the waste created is that newcomers and remote employees may take up to 2 years to fully integrate within their department. Furthermore according to extended surveys, only 28% of millennials feel that their current organizations are making ‘full use’ of the skills they currently have to offer and 66% expect to leave their organisation by 2020. Successfully resolving this challenge holds the potential to motivate organisation members, as well as enhance innovation and learning within it. The focus of this thesis is to better understand this problem by exploring the challenges faced by a university IT department and an interdisciplinary research center. Second, co-develop and implement a solution with these institutions, I describe their usage of the software tool we developed, outcomes and value obtained in these pilots. Third, test the effectiveness of the solution, and explore further applications and potential for a similar system to be used in a wider scale. To better understand the problem I engaged in discussion with members and leaders of both organisations. An important conclusion from the discussions is that members of these organizations often suffer from lack of awareness about their organisation’s knowledge capital—the competencies, knowledge of processes and social connections of their colleagues. Due to this exposure to innovative ideas, opportunities and common interests of peers is severely limited. This causes unnecessary delays in inter-team projects, bottlenecks, and lack of awareness about internship opportunities. I further broke down the problem, and defined it as one of information fragmentation: Different information is stored in disparate databases or inside people’s heads, requiring effort and know-how in order to obtain it. Following the conclusions of this analysis and state-of-the-art review, we have set together the goal to create a collaborative visual database to map the people, projects, skills and institutions for the IT department of Descartes University, and in addition, people, interests and internship opportunities within the CRI, an interdisciplinary research and education center. We have also conducted interviews, surveys and quizzes that ascertain that people had difficulties identifying experts outside their core teams. During the course of this thesis, I progressively addressed this challenge by developing two collaborative web applications called Rhizi and Knownodes. Knownodes is a collaborative knowledge graph which utilized information-rich edges to describe relationships between resources. Rhizi is a real-time and collaborative knowledge capital mapping interface. A prominent unique feature of Rhizi is that it provides a UI that turns text-based assertions made by users into a visual knowledge graph. (...)
539

TactoColor : conception et évaluation d’une interface d’exploration spatiale du web pour malvoyants

Jonquet, Aurélie 08 1900 (has links)
No description available.
540

OntoApp : une approche déclarative pour la simulation du fonctionnement d’un logiciel dès une étape précoce du cycle de vie de développement / OntoApp : a declarative approach for software reuse and simulation in early stage of software development life cycle

Pham, Tuan Anh 22 September 2017 (has links)
Dans cette thèse, nous étudions plusieurs modèles de collaboration entre l’ingénierie logiciel et le web sémantique. À partir de l’état de l’art, nous proposons une approche d’utilisation de l’ontologie dans la couche de métier d’une application. L’objectif principal de notre travail est de fournir au développeur des outils pour concevoir la matière déclarative une couche de métier "exécutable" d’une application afin de simuler son fonctionnement et de montrer ainsi la conformité de l’application par rapport aux exigences du client au début du cycle de vie du logiciel. Un autre avantage de cette approche est de permettre au développeur de partager et de réutiliser la description de la couche de métier d’une application dans un domaine en utilisant l’ontologie. Celle-ci est appelée "patron d’application". La réutilisation de la description de la couche de métier d’une application est un aspect intéressant à l'ingénier logiciel. C’est le point-clé que nous voulons considérer dans cette thèse. Dans la première partie de notre travail, nous traitons la modélisation de la couche de métier. Nous présentons d’abord une approche fondée sur l’ontologie pour représenter les processus de métiers et les règles de métiers et nous montrons comment vérifier la cohérence du processus et de l’ensemble des règles de métier. Puis, nous présentons le mécanisme de vérification automatique de la conformité d’un processus de métier avec un ensemble de règles de métier. La deuxième partie de cette thèse est consacrée à définir une méthodologie, dite de personnalisation, de création une application à partir d'un "patron d’application". Cette méthode permettra à l'utilisateur d'utiliser un patron d'application pour créer sa propre application en évitant les erreurs de structures et les erreurs sémantiques. Nous introduisons à la fin de cette partie, la description d’une plateforme expérimentale permettant d’illustrer la faisabilité des mécanismes proposés dans cette thèse. Cette plateforme est réalisée sur un SGBD relationnel. / In this thesis, we study several models of collaboration between Software Engineering and Semantic Web. From the state of the art, we propose an approach to the use of ontology in the business application layer. The main objective of our work is to provide the developer with the tools to design, in the declarative manner, a business "executable" layer of an application in order to simulate its operation and thus show the compliance of the application with the customer requirements defined at the beginning of the software life cycle. On the other hand, another advantage of this approach is to allow the developer to share and reuse the business layer description of a typical application in a domain using ontology. This typical application description is called "Application Template". The reuse of the business layer description of an application is an interesting aspect of software engineering. That is the key point we want to consider in this thesis. In the first part of this thesis, we deal with the modeling of the business layer. We first present an ontology-based approach to represent business process and the business rules and show how to verify the consistency of business process and the set of business rules. Then, we present an automatic check mechanism of compliance of business process with a set of business rules. The second part of this thesis is devoted to define a methodology, called personalization, of creating of an application from an "Application Template". This methodology will allow the user to use an Application Template to create his own application by avoiding deadlock and semantic errors. We introduce at the end of this part the description of an experimental platform to illustrate the feasibility of the mechanisms proposed in the thesis. This platform s carried out on a relational DBMS.Finally, we present, in a final chapter, the conclusion, the perspective and other annexed works developed during this thesis.

Page generated in 0.0365 seconds