41 |
De l’importance de la durée de vie pour l’écoconception des textiles : contribution méthodologique / The importance of lifespan for the ecodesign of textiles : a methodology proposalBenkirane, Romain 15 November 2019 (has links)
Afin de répondre aux enjeux environnementaux actuels, l’économie circulaire ambitionne de découpler la croissance économique de la consommation de ressources. Pour y arriver, elle se base sur la volonté d’accroitre l’efficience de ces ressources en s’appuyant, entre autre, sur l’allongement de la durée de vie des produits. Seule réserve, la notion de durée de vie est à la fois liée au produit et au consommateur et pour cette raison, elle est particulièrement complexe à appréhender, à définir et à évaluer.Par ces travaux nous souhaitons donc contribuer aux réflexions qui portent sur la durée de vie et en particulier sur celle des produits textiles. Pour cela, nous avons construit des indicateurs comme aide à la décision, ils permettent de répondre aux problématiques suivantes : l’estimation de la durée de vie, l’identification des paramètres d’écoconception et l’évaluation du bénéfice de l’allongement de la durée de vie.Le modèle d’estimation de la durée de vie proposé, dénommé « Qualité Orientée Consommateur » (QOC), s’inspire de la définition de durée normative proposée par l’ADEME. Il s’appuie en effet sur des données objectives et retranscrit la capacité des produits à résister au vieillissement. Aussi, afin de faire concorder ce score avec la durée de vie, nous avons pris le consommateur en compte en s’intéressant notamment à sa perception vis-à-vis de l’usure.S’intégrant dans la démarche d’écoconception et d’économie circulaire, nous souhaitions nous servir de la connaissance du consommateur pour adapter la fabrication des produits. Nous avons donc associé le score QOC aux caractéristiques des produits dans une analyse de données afin d’identifier les paramètres influents, ainsi connus nous pouvons dégager des recommandations de fabrication.Enfin, nous avons mis ce modèle en œuvre au cas des T-shirts et avons vérifié l’adéquation du score QOC par rapport à une durée de vie « réelle », durée que nous avons intégrée dans des scénarios d’analyse du cycle de vie (ACV) afin de quantifier l’intérêt des produits de plus longues durées de vie. L’ACV offrant un angle statique, nous avons proposé de nouveaux points de vue plus dynamiques : en observant l’évolution des impacts dans le temps, nous sommes effectivement en mesure de quantifier l’influence de la durée de vie d’une part et d’évaluer la cohérence d’une chaine de fabrication par rapport à la qualité produite d’autre part. / To meet current environmental challenges, the circular economy aims to separate economic growth from resource consumption. To do so, it relies on levers to increase resources efficiency, such as lifespan extension. However, since lifespan is related to both the product and the consumer, it is highly complex to define and evaluate.Through this thesis, we wish to contribute to the reflections on lifespan and on that of textile products in particular. We thus provided indicators such as a multi-criteria decision-making model that helps to address the following issues: to better estimate lifespan, to identify eco-design parameters and to evaluate the lifespan extension benefits.The proposed lifespan estimation model, called “Consumer-Oriented Quality” (COQ), is inspired by the definition of normative duration given by the French environmental agency ADEME and primarly relies on objective data which reflects the ability of products to resist ageing. But to obtain a more precise model of lifespan, we have also taken the consumer into account, focusing on their wear and tear perception.As part of the eco-design and circular economy approach, we wanted to benefit from our knowledge of the consumer to adjust product manufacturing. We therefore combined the COQ score with the product characteristics in a data analysis and identified the relevant parameters, so we could draw up manufacturing recommendations.Finally, we implemented our model for T-shirts to check its consistency with respect to a “real” lifespan. This lifespan was integrated into life cycle assessment (LCA) to quantify the benefits of having products with longer lifespans. Since LCA provides a static angle, we have proposed new and more dynamic points of view by observing the impacts’ evolution over time. This enable us to quantify the influence of lifespan and to evaluate the consistency of a production line with the quality produced.
|
42 |
Une architecture de contrôle de systèmes complexes basée sur la simulation multi-agent / A control architecture for complex systems based on multi-agent simulationNavarrete Gutiérrez, Tomás 24 October 2012 (has links)
Les systèmes complexes sont présents partout dans notre environnement : internet, réseaux de distribution d'électricité, réseaux de transport. Ces systèmes ont pour caractéristiques d'avoir un grand nombre d'entités autonomes, des structures dynamiques, des échelles de temps et d'espace différentes, ainsi que l'émergence de phénomènes. Ce travail de thèse se focalise sur la problématique du contrôle de tels systèmes. Il s'agit de déterminer, à partir d'une perception partielle de l'état du système, quelle(s) actions(s) effectuer pour éviter ou au contraire favoriser certains états globaux du système. Cette problématique pose plusieurs questions difficiles : pouvoir évaluer l'impact au niveau collectif d'actions appliqués au niveau individuel, modéliser la dynamique d'un système hétérogène (plusieurs comportements différents en interaction), évaluer la qualité des estimations issues de la modélisation de la dynamique du système. Nous proposons une architecture de contrôle selon une approche " equation-free ". Nous utilisons un modèle multi-agents pour évaluer l'impact global d'actions de contrôle locales avant d'appliquer la plus pertinente. Associée à cette architecture, une plateforme a été développée pour confronter ces idées à l'expérimentation dans le cadre d'un phénomène simulé de " free-riding " dans les réseaux d'échanges de fichiers pair à pair. Nous avons montré que cette approche permettait d'amener le système dans un état où une majorité de pairs partagent alors que les conditions initiales (sans intervention) feraient évoluer le système vers un état où aucun pair ne partage. Nous avons également expérimenté avec différentes configurations de l'architecture pour identifier les différents moyens d'améliorer ses performances / Complex systems are present everywhere in our environment: internet, electricity distribution networks, transport networks. This systems have as characteristics: a large number of autonomous entities, dynamic structures, different time and space scales and emergent phenomena. This thesis work is centered on the problem of control of such systems. The problem is defined as the need to determine, based on a partial perception of the system state, which actions to execute in order to avoid or favor certain global states of the system. This problem comprises several difficult questions: how to evaluate the impact at the global level of actions applied at a global level, how to model the dynamics of an heterogeneous system (different behaviors issue of different levels of interactions), how to evaluate the quality of the estimations issue of the modeling of the system dynamics. We propose a control architecture based on an ``equation-free'' approach. We use a multi-agent model to evaluate the global impact of local control actions before applying the most pertinent set of actions. Associated to our architecture, an experimental platform has been developed to confront the basic ideas or the architecture within the context of simulated ``free-riding'' phenomenon in peer to peer file exchange networks. We have demonstrated that our approach allows to drive the system to a state where most peers share files, despite given initial conditions that are supposed to drive the system to a state where no peer shares. We have also executed experiments with different configurations of the architecture to identify the different means to improve the performance of the architecture
|
43 |
Gérer et exploiter des connaissances produites par une communauté en ligne : application au raisonnement à partir de cas / Managing and exploiting knowledge produced by an e-community : application to case-based reasoningGaillard, Emmanuelle 22 June 2016 (has links)
Cette thèse propose deux approches pour améliorer la qualité des réponses d'un système de raisonnement à partir de cas (RàPC) utilisant des connaissances produites par une communauté en ligne. La première approche concerne la mise en œuvre d'un modèle permettant de gérer la fiabilité des connaissances produites par la communauté sous la forme d'un score. Ce score de fiabilité est utilisé d'une part pour filtrer les connaissances non fiables afin qu'elles ne soient pas utilisées par le système de RàPC et d'autre part pour classer les réponses retournées par le système. La deuxième approche concerne la représentation de la typicalité entre sous-classes et classes dans une organisation hiérarchique. La typicalité est alors utilisée pour réorganiser les connaissances hiérarchiques utilisées par le système de RàPC. L'apport de ces deux approches a été évalué dans le cadre de eTaaable, un système de RàPC qui adapte des recettes de cuisine en utilisant des connaissances produites par une communauté en ligne. L'évaluation montre que la gestion de la fiabilité des connaissances produites par la communauté améliore la qualité des réponses retournées par eTaaable. De même, l'évaluation montre que l'utilisation par eTaaable des hiérarchies des connaissances réorganisées en exploitant la typicalité améliore également la qualité des réponses / This research work presents two approaches to improve the quality of the results returned by a case-based reasoning system (CBR) exploiting knowledge produced by an e-community. The first approach relies on a new model to manage the trustworthiness of the knowledge produced by the e community. In this model, the trustworthiness is represented through a score which is used to filter untrustworthy knowledge so that the CBR system will not use it anymore. Moreover, the trustworthiness score is also used to rank the CBR results. The second approach addresses the issue of representing the typicality between subclasses and classes in a hierarchy. The typicality is used to change the hierarchical organization used by the CBR system. Both approaches have been evaluated in the framework of eTaaable, a CBR system which adapts cooking recipes using knowledge coming from an e-community. The evaluations show that managing the trustworthiness of the knowledge produced by an e-community improves the quality of the results returned by eTaaable. The evaluations also shows that eTaaable returns also better results when using knowledge reorganized according to typicality.
|
44 |
Évaluation de la confiance dans la collaboration à large échelle / Trust assessment in large-scale collaborative systemsDang, Quang Vinh 22 January 2018 (has links)
Les systèmes collaboratifs à large échelle, où un grand nombre d’utilisateurs collaborent pour réaliser une tâche partagée, attirent beaucoup l’attention des milieux industriels et académiques. Bien que la confiance soit un facteur primordial pour le succès d’une telle collaboration, il est difficile pour les utilisateurs finaux d’évaluer manuellement le niveau de confiance envers chaque partenaire. Dans cette thèse, nous étudions le problème de l’évaluation de la confiance et cherchons à concevoir un modèle de confiance informatique dédiés aux systèmes collaboratifs. Nos travaux s’organisent autour des trois questions de recherche suivantes. 1. Quel est l’effet du déploiement d’un modèle de confiance et de la représentation aux utilisateurs des scores obtenus pour chaque partenaire ? Nous avons conçu et organisé une expérience utilisateur basée sur le jeu de confiance qui est un protocole d’échange d’argent en environnement contrôlé dans lequel nous avons introduit des notes de confiance pour les utilisateurs. L’analyse détaillée du comportement des utilisateurs montre que: (i) la présentation d’un score de confiance aux utilisateurs encourage la collaboration entre eux de manière significative, et ce, à un niveau similaire à celui de l’affichage du surnom des participants, et (ii) les utilisateurs se conforment au score de confiance dans leur prise de décision concernant l’échange monétaire. Les résultats suggèrent donc qu’un modèle de confiance peut être déployé dans les systèmes collaboratifs afin d’assister les utilisateurs. 2. Comment calculer le score de confiance entre des utilisateurs qui ont déjà collaboré ? Nous avons conçu un modèle de confiance pour les jeux de confiance répétés qui calcule les scores de confiance des utilisateurs en fonction de leur comportement passé. Nous avons validé notre modèle de confiance en relativement à: (i) des données simulées, (ii) de l’opinion humaine et (iii) des données expérimentales réelles. Nous avons appliqué notre modèle de confiance à Wikipédia en utilisant la qualité des articles de Wikipédia comme mesure de contribution. Nous avons proposé trois algorithmes d’apprentissage automatique pour évaluer la qualité des articles de Wikipédia: l’un est basé sur une forêt d’arbres décisionnels tandis que les deux autres sont basés sur des méthodes d’apprentissage profond. 3. Comment prédire la relation de confiance entre des utilisateurs qui n’ont pas encore interagi ? Etant donné un réseau dans lequel les liens représentent les relations de confiance/défiance entre utilisateurs, nous cherchons à prévoir les relations futures. Nous avons proposé un algorithme qui prend en compte les informations temporelles relatives à l’établissement des liens dans le réseau pour prédire la relation future de confiance/défiance des utilisateurs. L’algorithme proposé surpasse les approches de la littérature pour des jeux de données réels provenant de réseaux sociaux dirigés et signés / Large-scale collaborative systems wherein a large number of users collaborate to perform a shared task attract a lot of attention from both academic and industry. Trust is an important factor for the success of a large-scale collaboration. It is difficult for end-users to manually assess the trust level of each partner in this collaboration. We study the trust assessment problem and aim to design a computational trust model for collaborative systems. We focused on three research questions. 1. What is the effect of deploying a trust model and showing trust scores of partners to users? We designed and organized a user-experiment based on trust game, a well-known money-exchange lab-control protocol, wherein we introduced user trust scores. Our comprehensive analysis on user behavior proved that: (i) showing trust score to users encourages collaboration between them significantly at a similar level with showing nick- name, and (ii) users follow the trust score in decision-making. The results suggest that a trust model can be deployed in collaborative systems to assist users. 2. How to calculate trust score between users that experienced a collaboration? We designed a trust model for repeated trust game that computes user trust scores based on their past behavior. We validated our trust model against: (i) simulated data, (ii) human opinion, and (iii) real-world experimental data. We extended our trust model to Wikipedia based on user contributions to the quality of the edited Wikipedia articles. We proposed three machine learning approaches to assess the quality of Wikipedia articles: the first one based on random forest with manually-designed features while the other two ones based on deep learning methods. 3. How to predict trust relation between users that did not interact in the past? Given a network in which the links represent the trust/distrust relations between users, we aim to predict future relations. We proposed an algorithm that takes into account the established time information of the links in the network to predict future user trust/distrust relationships. Our algorithm outperforms state-of-the-art approaches on real-world signed directed social network datasets
|
45 |
Σχεδιασμός και ανάπτυξη συστήματος εμπειρογνώμονος (expert system) για τη διάγνωση των παθήσεων του μυοσκελετικού συστήματος με μεθόδους της πυρηνικής ιατρικήςΓκορίλας, Θωμάς 14 September 2009 (has links)
- / -
|
46 |
Ευφυές σύστημα αναζήτησης δανείου / Intelligent system loan searchingΓεωργίου, Ειρήνη 17 May 2007 (has links)
Στα πλαίσια αυτής της διπλωματικής εργασίας, δημιουργήθηκε ένα τραπεζικό έμπειρο σύστημα (ΤΕΣ) για την αξιολόγηση πελατών και εύρεση κατάλληλου δανείου, ανάλογα με τις απαιτήσεις του πελάτη. Τα δάνεια που διαπραγματεύεται το ΤΕΣ δεν αφορούν μόνο μία, αλλά περισσότερες τράπεζες, ώστε το σύστημα να μπορεί να χαρακτηριστεί διατραπεζικό. Για την επίλυση του προβλήματος και την υλοποίηση του (ΤΕΣ), χρησιμοποιήθηκαν 2 τρόποι. Κατ’ αρχήν υλοποιήθηκε στο Fuzzy Clip, ένα εργαλείο ανάπτυξης ευφυών συστημάτων, που χρησιμοποιεί ασαφής κανόνες για την αναπαράσταση γνώσης. Ηχρήση ασάφειας ήταν ταιριαστή , καθώς αρκετές απο τι παραμέτρους μπορούσαν να θεωρηθούν ώς τετοιες. Στο δεύτερο τρόπο χρησιμοποιήθηκαν εμπειρικά δεδομένα, δηλ. συγκεκριμένες περιπτώσεις δανειοληπτών, για την δημιουργία του ΤΕΣ. Για το σκοπό αυτό χρησιμοποιήθηκε το εργαλείο HYMES (Hybrid Modular Expert System), ένα εργαλείο που χρησιμοποιεί υβριδικούς κανόνες για αναπαράσταση γνώσης, των νευροκανόνων. Οι νευροκανόνες συνδυάζουν νευρωνικά δίκτυα και συμβολικούς κανόνες και παράγονται από εμπειρικά δεδομένα. Τέλος έγινε συγκριση των δυο συστημάτων με βάση τρεις μετρικές που χρησημοποιούνται σ’ αυτές τις περιπτώσεις. / In the framework of this senior project, a banking intelligent system (BIS)has been developed which is suitable for the customers evaluation and the finding of the appropriate loan according to the customer’s demands. The loans that the (BIS) has been developed which is suitable for the customers evaluation and the finding of the appropriate loan according to the customer’s demands. The loans that the BIS treats, concern more than one bank so that for the system to be characterized as a multi- banking system. For the solution of the problem and the implementation of the BIS, two methods have been used. Firstly, the Fuzzy Clips was developed, which is a tool that is used to form intelligent systems and used fuzzy rules to represent knowledge. The usage of the indefiniteness was done successfully since many of the parameters used could be considered as fuzzy. In the second method, experiential data have been used in order to create the BIS. This means that data have been used in order to create the BIS. This means that specific real cases of loan receiving were taken in mind. For this purpose, the HYMES (Hybrid Modular Expert System) was used which is a tool that used Hubrid rules to represent knowledge. These rules are known as neurotic rules, they combine neuronal net and symbolic rules and they are derived from experiential data. Finally, a comparison of the above two systems was made based on three metrics that are used in those occasions.
|
47 |
Ανάπτυξη έμπειρου συστήματος λήψης αποφάσεων ναυτιλιακής επιχειρηματικότηταςΧαντζάρα, Αικατερίνη 03 March 2008 (has links)
Η Τεχνολογία της Γνώσης, και πιο συγκεκριμένα τα Έμπειρα Συστήματα (expert systems) ή αλλιώς Συστήματα Γνώσης (knowledge based systems) αποτελούν τους κλάδους της Τεχνητής Νοημοσύνης που αποδεδειγμένα έχουν προσφέρει τα πιο αξιοσημείωτα αποτελέσματα στην πρακτική τους εφαρμογή.
Ως έμπειρα συστήματα θεωρούνται προγράμματα τα οποία επιδεικνύουν νοήµονα συµπεριφορά σε συγκεκριµένους τοµείς και διαδικασίες, ανάλογη με εκείνη ενός ανθρώπου εµπειρογνώµονα µε ειδικότητα στον ίδιο τοµέα. Η λειτουργία των έμπειρων συστημάτων βασίζεται τόσο στην κωδικοποίηση της γνώσης και της συλλογιστικής του ανθρώπου-ειδικού σε έναν εξειδικευμένο τομέα όσο και στο χειρισμό αυτής της γνώσης, με κυριότερους στόχους τη διόρθωση βλαβών, την πρόβλεψη, παρακολούθηση και ερμηνεία καταστάσεων, τη διαμόρφωση και τον έλεγχο συστημάτων.
Κατά τις τελευταίες δεκαετίες, η σημαντική πρακτική επιτυχία της εφαρμογής έμπειρων συστημάτων σε εξειδικευμένους τομείς όπως η φαρμακευτική διάγνωση (MYCIN), η ανάλυση γεωλογικών δεδομένων για εντοπισμό πετρελαίου (DIPMETER) και μετάλλων (PROSPECTOR), και η διαμόρφωση υπολογιστικών συστημάτων (XCON), έχουν οδηγήσει σε μία έκρηξη ενδιαφέροντος ως προς τη χρήση έμπειρων συστημάτων σε πολύ ευρύτερο φάσμα εφαρμογών.
Το αντικείμενο της παρούσας διπλωματικής εργασίας είναι η ανάπτυξη ενός έμπειρου συστήματος που θα συνάγει στον έλεγχο της κατάστασης λειτουργίας της κύριας μηχανής φορτηγών πλοίων τύπου container, με στόχο την πρόληψη ή έγκαιρη διόρθωση βλαβών και εν τέλει την επίτευξη αποδοτικότερης και ασφαλέστερης λειτουργίας της μηχανής, λιγότερων φθορών και μεγαλύτερου χρόνου ζωής. Η ανάγκη εφαρμογής ενός τέτοιου συστήματος, που θα παρέχει αντικειμενικά και συνεπή συμπεράσματα, από τις εταιρείες διαχείρισης των πλοίων γίνεται όλο και μεγαλύτερη. Όχι μόνο γιατί αποτελεί βασικό μέρος του συστήματος διαχείρισης της ποιότητας (quality management system) των παρεχόμενων υπηρεσιών της εταιρείας προς τους πελάτες – ναυλωτές των πλοίων τύπου container, αλλά κυρίως γιατί μπορεί να αποτελέσει βασικό αρωγό στην προσπάθεια της εταιρείας για συμμόρφωση με διεθνή πρότυπα και κανονισμούς περιβαλλοντικής διαχείρισης (environmental management) για την προστασία εκείνων του στοιχείων του περιβάλλοντος στα οποία έχει επιπτώσεις η δραστηριότητα της εταιρείας.
Για τη διαδικασία απόκτησης της γνώσης που θα αποτελέσει την εμπειρογνωμοσύνη του συστήματος ή αλλιώς τη βάση γνώσης του συστήματος (knowledge base) θα χρησιμοποιηθεί η μέθοδος των μη-δομημένων και ημιδομημένων συνεντεύξεων με μηχανολόγους μηχανικούς, εξειδικευμένους σε θέματα μηχανών του συγκεκριμένου τύπου. Τα δεδομένα πάνω στα οποία θα εφαρμοστεί η βάση γνώσης του συστήματος (working memory), ώστε να εξαχθούν τα συμπεράσματα για τη λειτουργία της μηχανής προέρχονται από μετρήσεις πάνω στα όργανα της μηχανής ανά τακτά χρονικά διαστήματα καθώς και δεδομένα-αναφοράς που αντιπροσωπεύουν την ιδανική κατάσταση λειτουργίας της μηχανής. Το κέλυφος του συστήματος (expert system shell) θα αποτελέσει η μηχανή JBoss Rules, η οποία στο επίπεδο του μηχανισμού εξαγωγής συμπερασμάτων (inference engine) υλοποιεί μία αντικειμενοστραφή παραλλαγή του αλγορίθμου Rete, ενώ επιπλέον παρέχει σύστημα διαχείρισης της βάσης γνώσης που καθιστά την ανάπτυξη, τροποποίηση και τον έλεγχό της δυνατό ακόμα και από τους ίδιους τους εμπειρογνώμονες. / Knowledge Technology, and more concretely Expert Systems or Knowledge Based Systems, constitute the sectors of Artificial Intelligence that are proved to have succeeded the most remarkable results in their practical application.
Expert Systems are considered to be the programs that demonstrate intelligent behaviour in specific areas and processes, proportional to that of a human expert with speciality in same area. The operation of Expert Systems is based so much on the coding of knowledge and reasoning of a human expert specialized in the specific area, as in the handling of this knowledge, with main objectives the correction of damage, the provision, monitor and interpretation of conditions, the configuration and the inspection of systems.
At the last decades, the important practical success of application of Expert Systems in specialised areas such as pharmaceutical diagnosis (MYCIN), the analysis of geological data on location of oil (DIPMETER) and metals (PROSPECTOR), and the configuration of computer systems (XCON), have led to an explosion of interest as for the use of Expert Systems to much wider spectrum of applications.
The object of the present thesis is the implementation of an Expert System that will assist in the inspection of the condition of operation of Container Ships Main Engines, aiming at the prevention or on time correction of damage, and finally at achieving more efficient and secure operation of the main engine, less deteriorations and effectively greater life span. The need of such a system, which will provide objective and reliable conclusions, being applied by the shipping management companies becomes even greater. Not only because it constitutes basic part of the quality management system of the provided by the company services to the customers - freighters of the container ships, but mainly because it can constitute basic helper in the company effort to conform with international models and regulations of environmental management on the protection of those aspects of the environment that are affected by the company’s activity.
For the process of acquiring the knowledge that will constitute the expertise of the system or differently the knowledge base of the system we will use the method of non-structured and semi-structured interviews with mechanical engineers, specialised on issues regarding the specific engines. The data, on which the working memory of the system will be applied, so that the conclusions on the function of the engine will be exported, emanate from measurements on the different parts of the engine per regular time intervals as well as benchmark data that represent the ideal condition of the engine. The expert system shell will be constituted by the JBoss Rules Engine, which in the level of the inference engine implements an object-oriented variant of the Rete algorithm, while moreover it provides an administration system for the knowledge base that makes its evolution, modification and inspection possible even for the experts themselves.
|
48 |
Σχεδιασμός και ανάπτυξη οντολογιών για περιβάλλοντα περιρρέουσας νοημοσύνης / Design and development of ontologies in ubiquitous computing environmentsΣτεφανόπουλος, Γεώργιος 01 November 2010 (has links)
Τα τελευταία χρόνια, με την ανάπτυξη της Πληροφορικής Τεχνολογίας, οι Οντολογίες βρίσκονται στο επίκεντρο των ενδιαφερόντων επιστημόνων και ερευνητικών ομάδων σε όλο τον κόσμο. Η έρευνα κατευθύνεται σε μια σειρά από διαφορετικά επιστημονικά πεδία όπως της τεχνητής νοημοσύνης, της διαχείρισης γνώσης, καθώς και των τεχνολογιών του παγκόσμιου και ιδιαίτερα του σημασιολογικού ιστού.
Το σύνολο των διεργασιών οι οποίες αφορούν στην διαδικασία ανάπτυξης οντολογιών, στον κύκλο ζωής τους, καθώς και στις μεθοδολογίες, στα εργαλεία και στις γλώσσες προγραμματισμού που απαιτούνται για την δημιουργία τους αναφέρεται ως Μηχανική των Οντολογιών.
Η κατασκευή οντολογιών είναι μια διεργασία η οποία επηρεάζεται από αντικειμενικούς αλλά και υποκειμενικούς παράγοντες. Στους αντικειμενικούς παράγοντες περιλαμβάνονται τα εργαλεία με τα οποία θα κατασκευαστεί και θα επεξεργαστεί η οντολογία, η γλώσσα στην οποία θα αναπτυχθεί, η μεθοδολογία στην οποία θα βασιστεί, οι εφαρμογές στις οποίες θα χρησιμοποιηθεί, το είδος της οντολογίας και τις διαθέσιμες πηγές γνώσης (τυπικές ή μη), όπως λεξικά ή υπάρχουσες οντολογίες. Στους υποκειμενικούς παράγοντες περιλαμβάνονται οι ειδικές δεξιότητες ανάλυσης γνώσης και η εμπλοκή ατόμων που το καθένα έχει την δική του άποψη σχετικά με το πεδίο ενδιαφέροντος. Συνεπώς, η ανάπτυξη μιας οντολογίας είναι επιρρεπής στα λάθη, αφού μπορεί να υπάρξουν διάφορες ερμηνείες για το ίδιο πεδίο και τα αποτελέσματα είναι συχνά υποκειμενικά, διότι κάθε σχεδιαστής οντολογιών έχει διαφορετικούς στόχους, μπορεί να αναλύει το πεδίο ενδιαφέροντος σε διαφορετικό επίπεδο και αποσκοπεί σε διαφορετικό τρόπο χρήσης της οντολογίας.
Για να ξεπεραστεί το πρόβλημα της δημιουργίας υποκειμενικών οντολογιών, οι ερευνητές ανέπτυξαν συνεργατικές μεθοδολογίες ανάπτυξης. Στις μεθοδολογίες αυτές πολλές υποκειμενικές και ίσως αντιφατικές έννοιες πρέπει να συνενωθούν έτσι ώστε να οδηγήσουν σε ένα διαμοιραζόμενο εννοιολογικό μοντέλο. Η μετάβαση όμως από την ατομική αντίληψη στο επίπεδο της κοινότητας, που θεωρείται δεδομένη σε μια συνεργατική προσέγγιση, απαιτεί ικανότητες και γνώσεις τις οποίες κάποιος αρχάριος δεν διαθέτει. Με βάση τον παραπάνω προβληματισμό, στόχος της παρούσας διπλωματικής εργασίας είναι η αξιοποίηση της μεθοδολογίας κατασκευής οντολογιών που προτείνεται στην εργασία [L. Seremeti and A. Kameas. “A task-based ontology engineering approach for novice ontology developers”. 4th Balkan Conference in Informatics, Thessaloniki, Greece, 2009]. Στο πλαίσιο αξιοποίησής της, κατασκευάζονται οντολογίες οι οποίες θα χρησιμοποιηθούν σε εφαρμογές περιρρέουσας νοημοσύνης.
Ειδικότερα, παρατίθενται αναλυτικά οι μεθοδολογίες ανάπτυξης οντολογιών και κατηγοριοποιούνται. Αναλύονται στην συνέχεια, οι ιδιαιτερότητες των οντολογιών σε Περιβάλλοντα Περιρρέουσας νοημοσύνης και τελικά ακολουθώντας, τα στάδια ανάπτυξης οντολογιών της προαναφερθείσας μεθοδολογίας, κατασκευάζονται οντολογίες πεδίου ενδιαφέροντος οι οποίες θα χρησιμοποιηθούν σε εφαρμογές περιρρέουσας νοημοσύνης. / The last years, with the development of Computer scientist Technology, the Ontologies are found in the centre of interesting scientists and inquiring teams in all the world. The research is directed in a line by different scientific fields as the artificial intelligence, the management of knowledge, as well as technologies of the world wide web and particularly the semantic web.
The total of activities what concern in the process of development of ontologies, in their circle of life, as well as in the methodologies, in the tools and in the computing languages that are required for the creation to them are reported as Mechanics of Ontologies.
The manufacture of ontologies is an activity which is influenced by objective but also subjective factors. In the objective factors are included the tools with which will be manufactured and will process the ontology, the language in which will be developed, the methodology on which it will be based, the applications in which it will be used, the type of ontology and the available sources of knowledge (formal or not), as dictionaries or existing ontologies. In the subjective factors are included the special dexterities of analysis of knowledge and the entanglement of individuals that each one has his own opinion with regard to the field of interest. Consequently, the development of ontology is prone in the errors, after it can exist various interpretations for the same field and the results are frequent subjective, because each designer of ontologies aims at different, can analyze the field of interest in different level and aims in different way of use of ontology.
In order to exceeded the problem of creation of subjective ontologies, the researchers developed cooperative methodologies of development. In these methodologies many subjective and perhaps contradictory significances should join themselves so as to lead to a distribute conceptual model. The passage however from the individual perception in the level of community, that is considered given in a cooperative approach, requires faculties and knowledge which someone novice does not have. Based in the last examination, objective of present diplomatic work is the exploitation of methodology of manufacture of ontologies that is proposed in the work [L. Seremeti and A. Kameas. “A task-based ontology engineering approach for novice ontology developers”. 4th Balkan Conference in Informatics, Thessaloniki, Greece, 2009]. In the frame of exploitation of the methontology , are manufactured ontologies that will be used in applications of ubiquitous intelligence.
More specifically, are mentioned analytically the methodologies of development ontologies and are categorized. Are then analyzed, the particularities of ontologies in Ubiquitous Computing Environments and finally following, the stages of development ontologies of mentioned before methodology, are manufactured ontologies of field of interest what will be used in applications of Ubiquitous Computing intelligence.
|
49 |
Modeling the lean organization as a complex system / Modélisation de l’organisation lean en tant que système complexeMasai, Pierre 29 September 2017 (has links)
Dans cette thèse, après avoir expliqué l'historique et les concepts principaux de l’organisation lean dans différents contextes, le monde des systèmes complexes est exploré, puis il est montré pourquoi le lean est lui-même un système complexe. Un modèle novateur du lean est proposé sous forme d'ontologie, le Lean Organization Framework (LOF), qui peut être appliqué à toutes les formes d’organisations. Le LOF est testé avec celles qui ont déjà été explorées, proposant ainsi des pistes d’amélioration (lean pour la fabrication, pour l’IT, pour les soins de santé, pour la fonction publique, pour les organisations non gouvernementales, pour les start-ups et pour l’éducation). Il peut également être appliqué à de nouveaux domaines d’activités avec l’aide d’experts dans ces domaines, une approche montrée avec les exemples nouveaux d’une fondation lean et de l’architecture d’entreprise lean (Lean EA) mais aussi en comparant l’organisation lean au système immunitaire, un exemple bien connu de système complexe. Ensuite, un modèle de processus lean est proposé, présentant les propriétés émergentes d’un système complexe, le hoshin kanri (gestion des objectifs de l’organisation), y compris dans sa dimension culturelle. Les résultats de son expérimentation pratique avec l’application eHoshin sont discutés et un premier prototype en open source est présenté, déjà utilisé à ce jour par une centaine d’organisations dans le monde. Une seconde expérimentation plus robuste dans l’industrie (Toyota, dans plusieurs fonctions et entités juridiques) est exposée. Le modèle théorique est enfin amélioré sur base des résultats obtenus. En annexe, les concepts du lean sont expliqués avec leur application à six domaines de connaissance différents et les programmes de simulations sont listés. / In this thesis, after explaining the history and main concepts of the lean organization in various contexts, the world of complex systems is explored, then it is shown why the lean organization is itself a Complex System. A novel model of lean is proposed as an ontology, the Lean Organization Framework (LOF), which can be applied to all forms of organizations. The LOF is tested with those already explored (Lean Manufacturing, Lean IT, Lean Healthcare, Lean Government, Lean NGO, Lean Start-Up, Lean Education) and proposes ways to enhance them. It can also be applied to new domains with the help of subject matter experts, an approach that is checked with the novel cases of a Lean Foundation and Lean Enterprise Architecture (Lean EA), but also with the comparison of the lean organization with the immune system, a well-known Complex System example. Then, a model of lean process presenting the emergent properties of a Complex System is proposed: the hoshin kanri, or management of the organization objectives, including in its cultural dimension. The results of its practical implementation with the eHoshin application are discussed and a first open source prototype already used by around one hundred organizations in the world is explained. A second, more robust implementation in the industry is presented (at Toyota, extended to several departments and legal entities). Finally, the theoretical model is improved based on the experimentation results. In the appendices, the lean concepts are explained together with their application to six domains of knowledge and the simulation programs are listed.
|
50 |
Modélisation stochastique pour le raisonnement médical et ses applications à la télémédecine / Stochastic models for medical reasonning and their application to telemedicineRose, Cédric 27 May 2011 (has links)
La télémédecine est une approche nouvelle de la pratique médicale qui est particulièrement porteuse d'espoir face à l'enjeu sociétal posé par l'incidence croissante des maladies chroniques. Le développement de la télésurveillance médicale réalisée grâce au recueil de données physiologiques ou biologiques au domicile du patient implique de développer nos capacités à analyser un volume important de données. Le problème auquel s'intéresse cette thèse est d'établir ou d'apprendre automatiquement la fonction qui lie les données fournies par les capteurs à l'état de santé du patient. La difficulté principale tient à ce qu'il est difficile d'établir de manière sûre l'état de santé d'un patient, la seule référence disponible étant alors celle que peut donner le médecin traitant. Nous montrons dans cette thèse que la modélisation stochastique et plus particulièrement le formalisme graphique bayésien permet d'aborder cette question sous trois angles complémentaires. Le premier est celui de la représentation explicite de l'expertise médicale. Cette approche est adaptée aux situations dans lesquelles les données ne sont pas accessibles et où il est donc nécessaire de modéliser directement la démarche du médecin. La seconde approche envisagée est celle de l'apprentissage automatique des paramètres du modèles lorsque suffisamment de données sur les sorties attendues sont disponibles. Nous nous intéressons enfin à la possibilité d'apprendre les actions pertinentes par renforcement sous les contraintes de la problématique médicale à savoir d'après l'observation de l'expert dans sa pratique normale / Telemedicine is a new approach of medical practice that is expected to be one of the answers for facing the challenge of chronic diseases management. Development of remote medical surveillance at home relies on our capacity to interpret a growing amount of collected data. In this thesis, we are interested in defining the function that connects the state of the patient to the data given by the different sensors. The main difficulty comes from the uncertainty when assessing the state of the patient. The only reference available is the one that can be given by the medical doctor. We show in this thesis that stochastic modelling and more specifically graphical bayesian formalism allows to treat this question in three ways. The first one consists in representing explicitly the medical expertise. This approach is adapted to the cases in which data is not accessible, and as a consequence, where it is necessary to model directly the diagnosis rules. The second approach that we study is the automatic learning of model parameters that can be performed when enough information is available concerning the expected outputs of the system. Finally, we propose the use of reinforcement for learning medical actions from the observation of the human expert in its everyday practice. Considering the specificity of the medical domain, we study the likelihood criterion for learning an efficient representation of the state space
|
Page generated in 0.02 seconds