• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

perte de compétitivité et stratégies des acteurs : application a la filière fruits et légumes burkinabé sur le marché international / Competitiveness loss and actors strategy : application to burkinabé fruits and vegetables field in the international market

Kaboré, Sandaogo Honoré 14 May 2008 (has links)
L’internationalisation des entreprises est un phénomène irréversible et la globalisation économique n’est qu’une des facettes d’un phénomène de mondialisation qui touche désormais l’ensemble des activités humaines. Cette globalisation de l’économie offre aux entreprises des opportunités d’implantation et d’acquisition de parts de marchés étrangers mais semble poser des défis importants à relever à toute entreprise désireuse de s’internationaliser. En effet, l’observation des performances des entreprises exportatrices de la filière fruits et légumes d’un pays comme le Burkina Faso montre une baisse continue de la compétitivité sur le marché international depuis plusieurs années. Face à ce constat, nous nous interrogeons sur les raisons profondes de cette situation : la perte de compétitivité peut-elle s’expliquer par l’organisation et le mode de fonctionnement de la filière face aux conditions actuelles d’accès au marché ? Pour répondre à cette question, notre démarche a consisté à mobiliser la théorie de l’économie industrielle et la théorie du marketing relationnel qui ont permis de formuler 12 propositions de recherche. Ces propositions ont été soumises à l’épreuve des faits sur la base des résultats des traitements et de l’analyse des données collectées auprès d’un échantillon de 23 acteurs. Deux méthodes d’analyse ont été mobilisées pour le traitement et l’analyse des données : l’analyse thématique et l’analyse automatique de contenu à l’aide du logiciel ALCESTE. Les résultats convergents de ces deux méthodes d’analyse ont permis de conclure que la perte de compétitivité s’explique d’une part l’organisation et le mode de fonctionnement de la filière face aux conditions actuelles d’accès au marché mais surtout de facteurs liés à son environnement externe, notamment les conditions de base du pays d’origine, d’autre part. La thèse formule des recommandations d’ordre managériales et ouvre des perspectives pour des recherches futures. / Firm’s internationalisation is an irreversible phenomena and the economic globalisation is a figure of world phenomena of all human activities concern. This globalisation gives an opportunity to firms which desire to acquire a market part in foreign markets. But this situation is also an important challenge for those firms which want to get a part in the international market. Indeed, we noticed that export firms of Burkina fruits and vegetables field had a bad performance since several years. Then, we need to understand the main raisons of this situation. So our question is: doses competitiveness loss can be explained by the field organisation and working according to the market conditions access? To answer to this question, industrial and relational marketing theories are mobilized. With these theories 12 research propositions are formulated and tested. A primary data are collected with a sample of 23 actors. These data was submitted to two different data analysis methodology: the thematic analysis and ALCESTE analysis. The convergent results of these two analysis methodology premised us to conclude that the field competitiveness loss is partly due to field organisation and working and to a large extent of the basic conditions of origin country. In conclusion we propose recommendations for firm’s competitive improvement and some directions for further research.
572

La spécificité des contrats liés aux technologies issues du numérique. Quelles singularités ces contrats présentent-ils, comparés à ceux du monde analogique ? / The specificity of agreements linked to digital technologies. What are their singularities, compared with the agreements of the analogical world?

Cohen, Véronique-Déborah 16 December 2011 (has links)
Les technologies issues du numérique ont donné naissance à des contrats qui nécessitent une approche particulière et qui posent parfois des difficultés de mise en oeuvre, d’application, d’interprétation, et même de qualification, tant leur existence ne peut désormais plus être ignorée dans le paysage juridique. A cela, s’ajoute le fait qu’ils répondent à un réel besoin, à la fois de la part des praticiens du droit et des acteurs de ces contrats. C’est sans compter qu’ils se démarquent des conventions issues du monde analogique en de nombreux points, sachant que néanmoins, ils s’inscrivent dans le cadre d’une évolution logique et naturelle du droit. C’est ainsi que depuis quelques années, le droit voit se profiler des contrats imposant au législateur d’élaborer de nouveaux textes, en raison des lacunes juridiques encore grandes en la matière. La question qui se pose d’emblée est alors de savoir quelle est leur place dans la vie juridique, et surtout, comment ils sont perçus et analysés par rapport à ceux plus « classiques » issus du monde analogique. Dès lors, d’autres interrogations s’enchaînent : dans quel type d’environnement évoluent-ils ? Quels sont les critères qui caractérisent le mieux les contrats liés aux technologies issues du numérique ? Et surtout, qu’est-ce qui les rend si spécifiques et si inédits par rapport aux autres contrats, et qu’est-ce qui fait leur essence même ? On en vient alors à se demander si la dématérialisation de leur objet et leur orientation tournée vers les technologies influencent leur mode de formation et leur exécution. Autrement dit, quel est leur impact sur l’équilibre contractuel et quelles sont leurs implications juridiques concrètes ? Une chose est sûre : si ces contrats font appel à un vocabulaire technique propre au monde numérique et que leur objet peut sembler de prime abord inédit et complexe, en réalité, il en est autrement, les prestations auxquelles ils renvoient étant au final, très proches de celles qui nous entourent depuis toujours. / Over the last decades, the fast-evolving technologies and the information and communication technologies (I.C.T) have been widespread in the current analogical world. They are engendered agreements which need a particular approach and which can’t be ignored today, because of their difficulties of application, interpretation, and even of qualification. The analogical world failed to offer a legal framework to that innovative and dynamic digital world creating tremendous legal uncertainty. Consequently, the emerging lack of appropriate agreements forced policymakers, regulators and legislators to elaborate new governance, new regulation and new acts to respond to those needs and expectations issued of the Information Society. The purpose is also to answer to the real needs of the lawyers and the professors of Law. These agreements are very different of the agreements of the analogical world in numerous points, but are inscribed in a logical and natural evolution of the Right of contracts. That’s why, it’s necessary to know what is their place in the legal life, and above all, how they are perceived and analyzed regarding the more "classical" contracts of the analogical world. Furthermore, other questions may be asked : in which kind of environment they evolve? What is characterizing the contracts linked to the information and communication technologies? What makes them so specific and so particular compared with the other agreements? The dematerialization of technology centered object can influence their way of formation, their execution and the balance of the agreements? What are their legal implications? If these agreements make reference to an specific and technical terminology of I.C.T., to the digital world, and if their object may be complex, in reality, the services generated by the Information Society are surrounding us in our daily life and are not different of the services we know since ever.
573

Controlled language for Thai software requirements specification / Langue contrôlée pour la spécification des besoins du logiciel en thaï

Thongglin, Kanjana 07 June 2014 (has links)
Cette thèse porte sur l’utilisation d’une langue contrôlée pour les spécifications des besoins du logiciel en thaï. L’étudedécrit les ambiguïtés syntaxiques et sémantiques ainsi que les problèmes rencontrés dans les spécifications des besoins dulogiciel en thaï. Ce travail explique également la nature de la langue thaïe. Le modèle de la langue contrôlée pour lesspécifications des besoins du logiciel en thaï, proposé dans cette étude, comprend trois composantes: l’analyse lexicale,l’analyse syntaxique et l’analyse sémantique. Pour l’analyse syntaxique, une syntaxe contrôlée est conçue en utilisant laforme du Backus-Naur (BNF). Quant à l’analyse lexicale, nous créons une ressource lexicale sous forme de langage XMLpour stocker tous les mots classés selon leur domaine. Les mots reçus de la ressource XML sont corrects d’un point de vueconceptuel mais ne sont pas pertinents d’un point de vue sémantique. Pour résoudre ce problème, nous faisons alors usage dematrices booléennes pour aligner les phrases sémantiquement. Ainsi les phrases produites par le modèle serontsyntaxiquement et sémantiquement correctes.Après avoir créé le modèle, nous avons construit un logiciel pour tester son efficacité. Il est ainsi évalué par quatreméthodes d’évaluation : 1. le test de fonctionnement syntaxique pour vérifier la syntaxe de la phrase; 2. le test defonctionnement sémantique pour tester la sémantique de la phrase; 3. le test d’acceptation en terme de satisfaction desutilisateurs avec le logiciel; et 4. le test d’acceptation en terme d’acception des données de sortie.Des résultats positifs montrent que : 1. les phrases produites par le modèle proposé sont syntaxiquement correctes; 2. lesphrases produites par le modèle proposé sont sémantiquement correctes; 3. les utilisateurs sont satisfaits et acceptent lelogiciel; et 4. les utilisateurs acceptent et comprennent les phrases produites par ce modèle. / This thesis focuses on using controlled language for Thai software requirements specifications. The studydescribes the ambiguities and problems encountered in Thai software requirements specifications; both syntacticambiguity and semantic ambiguity. The study also describes the nature of the Thai language. The model of controlledlanguage for Thai software requirements specifications is composed of three main components: lexical analysis,syntactic analysis, and semantic analysis. For syntactic analysis, a controlled syntax is created using Backus-NaurForm (BNF). In the lexical analysis stage, an XML format lexical resource is built to store words according to theirdomain. The words received from the XML resource are conceptually correct but may be semantically irrelevant. Tosolve this issue, the model applies Boolean Matrices to align sentences semantically. As a result, the sentencesproduced from the model are guaranteed to be syntactically and semantically correct.After having created this model, a program for testing the efficiency of the model is developed. The model isevaluated using four testing methods as follows: 1. functional testing for the correctness of the sentence’s syntax, 2.functional testing for the semantic correctness of the sentences produced by the model, 3. acceptance testing in termsof user satisfaction with the program, and 4. acceptance testing in terms of the validity of the outputs.The positive results signify that: 1. the sentences produced by the proposed model are syntactically correct, 2. thesentences produced by the proposed model are semantically correct, 3. the users are satisfied and accept the softwarecreated, and 4. the users approve and understand the sentences produced from this model.
574

Prédisposition au changement et innovation dans les services de logiciels au Brésil / Predisposição à Mudança e Inovação em Serviços de Software no Brasil

Figueiredo Moreira, Marina 26 July 2013 (has links)
Cette recherche analyse le rapport existant entre la prédisposition au changement dans les services et les résultats concernant la mise en œuvre d'innovations dans des entreprises de développement de logiciels au Brésil. L'objectif principal consiste à expliquer la relation entre la prédisposition au changement dans les services et le développement des innovations dans le cadre des services de logiciels au Brésil. Pour atteindre son but, cette recherche a été développée en trois étapes, la première ayant consisté à relever les dimensions explicatives de la prédisposition au changement dans les services, ce qui a permis de cartographier sept dimensions explicatives à partir desquelles, lors de la deuxième étape de la recherche, une échelle de mesure a été proposée, appliquée et validée. Cette seconde phase, a également permis l'application d'une échelle de mesure de l'innovation dans les services à partir d'une sous sélection de points de la PINTEC 2008 (IBGE, 2010). Lors de la troisième étape de cette étude, le modèle d'analyse proposé a été testé à partir des données collectées lors de la réalisation de régressions linéaires. L'hypothèse de recherche considérait que la prédisposition au changement dans les services exerçait une prédiction linéaire sur l'innovation dans les services de logiciels au Brésil, ce qui la confirmait en tant qu'inputs d'innovation dans les services. / This study investigated the acceptance of changes in the characteristics of a service by the provider, and its effects on the generation of innovations in software services. This problem was operationalized in the form of the construct Willingness to Change in Services - WCS, for which it was developed an enquiry of its explanatory dimensions, with the completion of semi-structured interviews with experts in software services in ten brazilian cities. Seven dimensions were associated to the construct and gave rise to a measurement scale for WCS, which was submitted along with a scale to measure innovation in services in 351 Brazilian companies that develop software services. The scale of WCS underwent semantic validation by experts and factorial, latter performed with the application of an Analysis of Exploratory Structural Equations Modeling of the data obtained with the application of the scales in the sample companies. A Linear Regression test was performed in order to explore the relation between WCS and SI. The results show no significant relation within the Linear Regression tests performed between the constructs. It was understood that the analysis examined the linear relation between the constructs, which was not confirmed, but it did not test the existence of nonlinear or indirect relations. Therefore, it is understood that there might be intermediate phenomena or processes between change and innovation in services yet to be mapped.
575

A Framework for Autonomous Generation of Strategies in Satisfiability Modulo Theories / Un cadre pour la génération autonome de stratégies dans la satisfiabilité modulo des théories

Galvez Ramirez, Nicolas 19 December 2018 (has links)
La génération de stratégies pour les solveurs en Satisfiabilité Modulo des Théories (SMT) nécessite des outils théoriques et pratiques qui permettent aux utilisateurs d’exercer un contrôle stratégique sur les aspects heuristiques fondamentaux des solveurs de SMT, tout en garantissant leur performance. Nous nous intéressons dans cette thèse au solveur Z3 , l’un des plus efficaces lors des compétitions SMT (SMT-COMP). Dans les solveurs SMT, la définition d’une stratégie repose sur un ensemble de composants et paramètres pouvant être agencés et configurés afin de guider la recherche d’une preuve de (in)satisfiabilité d’une instance donnée. Dans cette thèse, nous abordons ce défi en définissant un cadre pour la génération autonome de stratégies pour Z3, c’est-à-dire un algorithme qui permet de construire automatiquement des stratégies sans faire appel à des connaissances d’expertes. Ce cadre général utilise une approche évolutionnaire (programmation génétique), incluant un système à base de règles. Ces règles formalisent la modification de stratégies par des principes de réécriture, les algorithmes évolutionnaires servant de moteur pour les appliquer. Cette couche intermédiaire permettra d’appliquer n’importe quel algorithme ou opérateur sans qu’il soit nécessaire de modifier sa structure, afin d’introduire de nouvelles informations sur les stratégies. Des expérimentations sont menées sur les jeux classiques de la compétition SMT-COMP. / The Strategy Challenge in Satisfiability Modulo Theories (SMT) claims to build theoretical and practical tools allowing users to exert strategic control over core heuristic aspects of high-performance SMT solvers. In this work, we focus in Z3 Theorem Prover: one of the most efficient SMT solver according to the SMT Competition, SMT-COMP. In SMT solvers, the definition of a strategy relies on a set of tools that can be scheduled and configured in order to guide the search for a (un)satisfiability proof of a given instance. In this thesis, we address the Strategy Challenge in SMT defining a framework for the autonomous generation of strategies in Z3, i.e. a practical system to automatically generate SMT strategies without the use of expert knowledge. This framework is applied through an incremental evolutionary approach starting from basic algorithms to more complex genetic constructions. This framework formalise strategies modification as rewriting rules, where algorithms acts as enginess to apply them. This intermediate layer, will allow apply any algorithm or operator with no need to being structurally modified, in order to introduce new information in strategies. Validation is done through experiments on classic benchmarks of the SMT-COMP.
576

Concevoir des services collaboratifs adaptés à des pratiques métier : une méthode centrée usages : application au domaine de la construction / Designing collaborative services adapted to business practices : a usage-centered method : Application to the construction sector

Zignale, Daniel 17 July 2013 (has links)
Dans le domaine du projet de conception-construction architecturale, la gestion de la collaboration entre les différents acteurs d'un projet est un enjeu important. D'un projet à un autre, en fonction du projet, mais aussi des acteurs qui y interviennent, les pratiques de travail varient. Parallèlement, de nombreux services sont proposés et utilisés pour assister la collaboration, certains sur un modèle « grand public » et d'autres plus orientés vers un usage professionnel. L'expérience CRTI-weB est un projet de développement d'un collecticiel mené avec et pour les professionnels du secteur au Luxembourg. Malgré l'étude des besoins métiers menée en amont du développement, l'outil présente cependant des manques d'adaptation. Ce constat d'inadaptation n'est pas un cas isolé, il reflète une lacune générale de ce genre d'outils à satisfaire pleinement les attentes des professionnels. C'est pourquoi ce travail doctoral propose un cadre d'analyse supporté par la modélisation des comportements des utilisateurs. Nous adoptons alors plusieurs points de vue relatifs à différents champs de recherches : le génie logiciel, la conception d'interfaces homme-machine, l'entreprise orientée services et la conception de système d'information, et enfin le travail collaboratif assisté par ordinateur (TCAO). Nous proposons la méthode PUSH (Practices and Usages based Services enHancement) qui orchestre ces différents points de vue et permet de générer un ensemble d'exigences pour le développement de services dits « adaptés ». Communication et traçabilité sont les maitres mots de cette méthode de conception. Le contexte d'étude à la fois orienté recherche et développement nous a permis d'évaluer et d'améliorer la définition des concepts mis en avant ainsi que la mise en place de la méthode PUSH à travers trois expérimentations / In the sector of the architectural design-construction project, the management of the collaboration between the different actors of a project is an important issue. From a project to another, considering the project type and also the actors involved, business practices vary. In parallel, many services are proposed and used to assist the collaboration, some of them being generic and others more specific to professional usage. The CRTI-weB experience is a groupware development project lead with and for professionals of the Luxembourgish sector. Despite the analysis of business needs lead before development, the tool has some lacks of adaptation. This statement isn't isolated; in general, this type of tools doesn't fully satisfy professionals' expectations. This doctoral work proposes an analysis framework supported by users' behaviors modeling. We adopt several viewpoints related to several research fields: software engineering, human-computer interactions design, service-oriented enterprise and information system design, and finally computer-supported collaborative work (CSCW We propose the PUSH method (Practice and Usages based Service enhancement) that orchestrates the different viewpoints to generate an amount of requirements for the development of adapted services. The communication and the traceability are supported by this design method. The context of study, both research and development-oriented (through the collaboration of the MAP-CRAI laboratory in Nancy and the CRP Henri Tudor in Luxembourg) allows us evaluating and enhancing the definition of our concepts and the applicability of the PUSH method through three experimentations
577

Protocole de routage pour l’architecture NDN / Routing protocol for NDN architecture

Aubry, Elian 19 December 2017 (has links)
Parmi les architectures orientées contenu, l'architecture NDN (Named-Data Networking) a su agréger la plus importante communauté de chercheurs et est la plus aboutie pour un Internet du futur. Dans le cadre de l'architecture NDN, au cours de ce doctorat, nous nous sommes concentrés sur les mécanismes de routage adaptés à cette nouvelle vision du réseau. En effet, la capacité à acheminer une requête vers la destination est fondamentale pour qu'une architecture réseau soit fonctionnelle et cette problématique avait été très peu étudiée jusqu'alors. Ainsi, dans ce manuscrit, nous proposons le protocole de routage SRSC (SDN-based Routing Scheme for CCN/NDN), qui repose sur l'utilisation du paradigme des réseaux logiciels (Software-Defined Networks\\, SDN). SRSC utilise un contrôleur capable de gérer le plan de contrôle du réseau NDN. En centralisant l'ensemble des informations telles que la topologie du réseau, la localisation des différents contenus et le contenu des mémoires cache des nœuds du réseau, le contrôleur va pouvoir établir la meilleure route pour acheminer les requêtes vers le contenu. SRSC permet également un routage de type anycast, c'est à dire qu'il permet d'acheminer les requêtes vers le nœud le plus proche qui dispose des données, permettant d'optimiser la distribution des requêtes dans le réseau et de répartir la charge parmi tous les nœuds. De plus, SRSC utilise uniquement les messages Interest et Data de l'architecture NDN et tient son originalité du fait qu'il s'affranchit complètement de l'infrastructure TCP/IP existante. Dans un premier temps, SRSC a été évalué via simulation avec le logiciel NS-3 où nous l'avons comparé à la méthode d'inondation des requêtes, appelée flooding, initialement proposée par NDN. SRSC a ensuite été implanté dans NDNx, l'implantation open source de l'architecture NDN, puis déployé sur notre testbed utilisant la technologie Docker. Ce testbed permet de virtualiser des nœuds NDN et d'observer un réel déploiement de cette architecture réseau à large échelle. Nous avons ainsi évalué les performances de notre protocole SRSC sur notre testbed virtualisé et nous l'avons comparé au protocole NLSR, (Named-Data Link State Routing Protocol), le protocole de routage du projet NDN / Internet is a mondial content network and its use grows since several years. Content delivery such as P2P or video streaming generates the main part of the Internet traffic and Named Data Networks (NDN) appear as an appropriate architecture to satisfy the user needs. Named-Data Networking is a novel clean-slate architecture for Future Internet. It has been designed to deliver content at large scale and integrates several features such as in-network caching, security, multi-path. However, the lack of scalable routing scheme is one of the main obstacles that slow down a large deployment of NDN at an Internet-scale. As it relies on content names instead of host address, it cannot reuse the traditional routing scheme on the Internet. In this thesis, we propose to use the Software-Defined Networking (SDN) paradigm to decouple data plane and control plane and present SRSC, a new routing scheme for NDN based on SDN paradigm. Our solution is a clean-slate approach, using only NDN messages and the SDN paradigm. We implemented our solution into the NS-3 simulator and perform extensive simulations of our proposal. SRSC show better performances than the flooding scheme used by default in NDN. We also present a new NDN testbed and the implementation of our protocol SRSC, a Controlled-based Routing Scheme for NDN. We implemented SRSC into NDNx, the NDN implementation, and deployed it into a virtual environment through Docker. Our experiments demonstrate the ability of our proposal to forward Interest, while keeping a low computation time for the Controller and low delay to access Content. Moreover, we propose a solution to easily deploy and evaluate NDN network, and we compare SRSC with NLSR, the current routing protocol used in NDNx
578

Étude de paramétrisation de l’écoulement dans des composants de circuit de transmission de puissance pneumatique / Study of the flow parameterization in the components of pneumatic power transmission circuit

Ali, Azdasher 04 September 2012 (has links)
Le prototypage virtuel des circuits pneumatiques de puissance, par exemple les circuits de freinage des véhicules industriels, constitue un enjeu important en raison de la complexité des écoulements en régime transsonique et des couplages entre les échelles locales et macroscopiques. Ces problèmes sont rencontrés lors de la conception, de la synthèse des commandes et de l'analyse des performances statiques et dynamiques de ces circuits et l'analyse. La mise au point des modèles numériques de ces systèmes induit des coûts et des temps importants par rapport à d'autres systèmes. La démarche proposée dans cette thèse repose sur la construction numérique de bases de données permettant de caractériser le comportement local et macroscopique d'un composant de circuit en fonction de la variation de certains paramètres physiques ou géométriques par rapport à un point de fonctionnement de référence. Les bases de données résultent de l'extrapolation de la solution des équations de Navier Stokes moyennées (RANS) pour le point de référence considéré obtenu à l'aide d’un logiciel de paramétrisation en mécanique des fluides (Turb’Opty). La contribution de cette thèse repose pour l'essentiel dans un travail d'analyse des solutions issues de la paramétrisation dans deux contextes différents: la tuyère De Laval et un élément "coude", des composants élémentaires de circuit. Nous avons montré que ces exemples "simples" conduisent déjà à des difficultés importantes en termes de paramétrisation du problème et du calcul des dérivées des champs aérodynamiques en raison de la taille du problème. Pour pallier cette difficulté, nous avons proposé de déraffiner le maillage et nous avons alors montré que cette démarche conduit parfois à déplacer ou à atténuer certains phénomènes (chocs). La deuxième contribution de ce travail repose sur l'évaluation de la qualité des solutions extrapolées, de leur domaine de validité et la construction des liens entre grandeurs locales et macroscopiques. Nous avons enfin proposé une démarche permettant de reconstruire la caractéristique en débit d'un composant à partir de la détermination de la solution extrapolée pour un nombre limité de points de référence. / Virtual prototyping pneumatic circuits for power transmission, for example braking circuits of trucks, is still a difficulty because of the complexity of the flow behavior in transonic conditions and of the coupling between local and macroscopic scales. These problems are met during system design, control synthesis and for static and dynamic performance analysis. Tuning accurate numerical models requires important costs and time when compared to other systems. The methodology proposed in this PhD thesis relies on numerically determining a data base that characterizes the local and macroscopic behavior of a circuit component according the variation from a reference point of some physical or geometrical parameters. The data bases are obtained from the extrapolation of the Mean Navier Stokes solution (RANS) for a given reference point with the help of a parametrization software dedicated to fluid mechanics (Turb'Flow). The main contribution of this thesis relies io the analysis of the solution obtained from the parametrization in two different cases: the De Laval nozzle and un "elbow" connecting element, which are elementary component in a circuit. We have shown that these two "simple" cases lead already to important difficulties in term of problem parametrization and calculation of the derivatives of the aerodynamic fields because of the problem dimension. In order to tackle this, we proposed to reduce the spatial discretization (mesh derefining) and we showed that this approach could sometimes lead to damp or move some phenomena (shocks). The second contribution of this work relies on evaluating the quality of the extrapolated solution and their validity domain, and on building links between local and macroscopic behavior. Finally, we proposed a method that allows the mass flow rate characteristic of a component to be determined from the calculation of the extrapolated solution issued from a limited number of reference points.
579

Une approche logicielle du traitement de la dyslexie : étude de modèles et applications / A software approach for treating dyslexia : model study and applications

Garcia, Geoffrey 07 December 2015 (has links)
Les troubles neuropsychologiques sont très répandus et posent de réels problèmes de santé publique. En particulier, dans notre société moderne où la communication écrite est omniprésente, la dyslexie peut s’avérer excessivement handicapante. On remarque néanmoins que le diagnostic et la remédiation de cette pathologie restent délicats et manquent d’uniformisation. Ceci semble malheureusement inhérent à la caractérisation clinique par exclusion de la dyslexie, à la multitude de praticiens différents impliqués dans une telle prise en charge ainsi qu’au manque d’objectivité de certaines méthodes existantes. A ce titre, nous avons décidé d’investiguer les possibilités offertes par l’informatique actuelle pour surmonter ces barrières. Effectivement, nous avons supposé que la démocratisation des systèmes informatiques et leur puissance de calcul pourraient en faire un outil de choix pour pallier les difficultés rencontrées lors de la prise en charge de la dyslexie. Cette recherche nous a ainsi mené à étudier les techniques, aussi bien logicielles que matérielles, pouvant conduire au développement d’un système bon marché et évolutif qui serait capable d’assister un changement bénéfique et progressif des pratiques qui entourent cette pathologie. Avec ce projet, nous nous plaçons définitivement dans un courant innovant au service de la qualité des soins et des aides apportées aux personnes souffrant d’un handicap. Notre travail a ainsi consisté à identifier différents axes d’amélioration que l’utilisation de l’outil informatique rend possible. Chacun de ces axes a alors pu faire l’objet de recherches exhaustives, de modélisations et de développements de prototypes. Nous avons également réfléchi à la méthodologie à mettre en œuvre pour concevoir un tel système dans sa globalité. En particulier, nos réflexions et ces différents accomplissements nous ont permis de définir un framework logiciel propice à l’implémentation d’une plate-forme logicielle que nous avons appelée la PAMMA. Cette plate-forme devrait théoriquement pouvoir disposer de tous les outils permettant le développement souple et efficace d’applications médicales intégrant des processus métiers. Il est ainsi attendu de ce système qu’il permette le développement d’applications, pour la prise en charges des patients dyslexiques, conduisant à un diagnostic plus rapide et plus précis ainsi qu’à une remédiation plus adaptée et plus efficace. De notre effort d’innovation ressortent des perspectives encourageantes. Cependant, ce type d’initiative ne peut se concrétiser qu’autour de collaborations pluridisciplinaires disposant de nombreux moyens fonctionnels, techniques et financiers. La constitution d’un tel consortium semble donc être la prochaine étape nécessaire à l’obtention des financements pour réaliser un premier prototype fonctionnel de la PAMMA, ainsi que de premières applications. Des études cliniques pourront être alors menées pour prouver indubitablement l’efficacité d’une telle approche dans le cadre de la prise en charge de la dyslexie, ainsi qu’éventuellement d’autres troubles neuropsychologiques. / Neuropsychological disorders are widespread and generate real public health problems. In particular in our modern society, where written communication is ubiquitous, dyslexia can be extremely disabling. Nevertheless we can note that the diagnosis and remediation of this pathology are fastidious and lack of standardization. Unfortunately it seems inherent to the clinical characterization of dyslexia by exclusion, to the multitude of different practitioners involved in such treatment and to the lack of objectivity of some existing methods. In this respect, we decided to investigate the possibilities offered by modern computing to overcome these barriers. Indeed we have assumed that the democratization of computer systems and their computing power could make of them a perfect tool to alleviate the difficulties encountered in the treatment of dyslexia. This research has led us to study the techniques software as well as hardware, which can conduct to the development of an inexpensive and scalable system able to attend a beneficial and progressive changing of practices in this pathology field. With this project we put ourselves definitely in an innovative stream serving quality of care and aid provided to people with disabilities. Our work has been identifying different improvement areas that the use of computers enables. Then each of these areas could then be the subject of extensive research, modeling and prototype developments. We also considered the methodology for designing this kind of system as a whole. In particular our thoughts and these accomplishments have allowed us to define a software framework suitable for implementing a software platform that we called the PAMMA. This platform should theoretically have access to all the tools required for the flexible and efficient development of medical applications integrating business processes. In this way it is expected that this system allows the development of applications for caring dyslexic patients thus leading to a faster and more accurate diagnosis and a more appropriate and effective remediation. Of our innovation efforts emerge encouraging perspectives. However such initiatives can only be achieved within multidisciplinary collaborations with many functional, technical and financial means. Creating such a consortium seems to be the next required step to get a funding necessary for realizing a first functional prototype of the PAMMA, as well as its first applications. Some clinical studies may be conducted to prove undoubtedly the effectiveness of such an approach for treating dyslexia and eventually other neuropsychological disorders.
580

Meta-analysis applied to Multi-agent Software Engineering / Méta-analyse pour le génie logiciel des systèmes multi-agents

Razo Ruvalcaba, Luis Alfonso 23 July 2012 (has links)
Considérant un point de vue général de cette thèse aborde le problème de trouver, à partir d'un ensemble de blocs de construction, un sous-ensemble qui procure une solution à un problème donné. Ceci est fait en tenant compte de la compatibilité de chacun des blocs de construction par rapport au problème et l'aptitude d'interaction entre ces parties pour former ensemble une solution. Dans la perspective notamment de la thèse sont les blocs de construction de méta-modèles et le problème donné est une description d'un problème peut être résolu en utilisant un logiciel et d'être résolu en utilisant un système multi-agents. Le noyau de la proposition de thèse est un processus qui analyse un problème donné et puis il proposé une solution possible basée sur système multi-agents pour ce problème. Il peut également indiquer que le problème ne peut être résolu par ce paradigme. Le processus adressée par la thèse consiste en les étapes principales suivantes: (1) A travers un processus de caractérisation on analyse la description du problème pour localiser le domaine de solutions, puis choisissez une liste de candidats des méta-modèles. (2) Les caractérisations de méta-modèles candidats sont prises, ils sont définis dans plusieurs domaines de la solution. On fait la chois parmi le domaine trouvé dans la étape précédant. (3) On crée un système multi-agents où chaque agent représente un candidat méta-modèle. Dans cette société les agents interagissent les uns avec les autres pour trouver un groupe de méta-modèles qui est adapté pour représenter une solution donnée. Les agents utilisent des critères appropriés pour chaque méta-modèle à représenter. Il évalue également la compatibilité des groupes créés pour résoudre le problème de décider le groupe final qui est la meilleure solution. Cette thèse se concentre sur la fourniture d'un processus et un outil prototype pour résoudre plutôt la dernière étape de la liste. Par conséquent, le chemin proposé a été créé à l'aide de plusieurs concepts de la méta-analyse, l'intelligence artificielle de coopération, de la cognition bayésienne, incertitude, la probabilité et statistique. / From a general point of view this thesis addresses an automatic path to build a solution choosing a compatible set of building blocks to provide such a solution to solve a given problem. To create the solution it is considered the compatibility of each available building block with the problem and also the compatibility between each building block to be employed within a solution all together. In the particular perspective of this thesis the building blocks are meta-models and the given problem is a description of a problem that can be solved using software using a multi-agent system paradigm. The core of the thesis proposal is the creation of a process based on a multi-agent system itself. Such a process analyzes the given problem and the available meta-models then it matches both and thus it suggests one possible solution (based on meta-models) for the problem. Nevertheless if no solution is found it also indicates that the problem can not be solved through this paradigm using the available meta-models. The process addressed by the thesis consists of the following main steps: (1) Through a process of characterization the problem description is analyzed in order to locate the solution domain and therefore employ it to choose a list of most domain compatible meta-models as candidates. (2) There are required also meta-model characterization that evaluate each meta-model performance within each considered domain of solution. (3) The matching step is built over a multi-agent system where each agent represents a candidate meta-model. Within this multi-agent system each agent interact with each other in order to find a group of suitable meta-models to represent a solution. Each agent use as criteria the compatibility between their represented candidate meta-model with the other represented meta-models. When a group is found the overall compatibility with the given problem is evaluated. Finally each agent has a solution group. Then these groups are compared between them in order to find the most suitable to solve the problem and then to decide the final group. This thesis focuses on providing a process and a prototype tool to solve the last step. Therefore the proposed path has been created using several concepts from meta-analysis, cooperative artificial intelligence, Bayesian cognition, uncertainty, probability and statistics.

Page generated in 0.0847 seconds