• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Compilation d'architectures à flot de données à partir de programmes fonctionnels

Saint-Mleux, Xavier January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
312

Les logiciels de visualisation moléculaire dans l’enseignement des sciences de la vie : conceptions et usages / Molecular visualization software in the teaching of "sciences de la vie et de la Terre" (SVT) in France : use and conceptions

Dorey, Stanislas 26 October 2012 (has links)
Le questionnement initial de ce mémoire s’intéresse, du point de vue du questionnement curriculaire, à l’usage des logiciels de visualisation moléculaire (VM) dans l’enseignement des sciences de la vie et de la Terre (SVT) en France. La réalisation d’une revue de littérature sur l’enseignement à l’aide de la VM a fait émerger que les logiciels de VM peuvent aider à cet enseignement. Cependant, nous n’avons pas trouvé d’étude qui s’intéresse aux usages des logiciels de VM dans l’enseignement. Le terme « usage » se réfère ici à une habitude contrairement au terme « utilisation » qui a une connotation ponctuelle. Ainsi, nous avons mis en place une méthodologie composite en nous appuyant sur les questions curriculaires (Martinand, 2000) afin de mieux connaître les usages des logiciels de VM. Nous avons appréhendé le curriculum prescrit à travers l’analyse des programmes officiels depuis le début des années 1990, l’analyse des sujets du baccalauréat et l’analyse des rapports de concours de recrutement des enseignants (agrégation et CAPES). Nous avons inféré le curriculum potentiel à travers l’étude de manuels scolaires, les formations académiques, les sites académiques, les « traces » trouvées sur le web et des entretiens avec des enseignants. Nous avons inféré le curriculum co-produit à travers des observations en classe et des entretiens avec des enseignants. Enfin, nous avons réalisé un entretien avec un acteur ayant joué un rôle majeur dans l’introduction de ces logiciels afin de mieux comprendre les processus à l’œuvre dans l’usage de ces logiciels. Nous sommes arrivés à la conclusion qu’il semble y avoir une « saturation » de l’usage de ces logiciels. Elle se traduit par un usage ayant peu varié ces dix dernières années qui consiste en un usage pour un ou deux TP par an pour chaque classe du lycée. Les activités qui utilisent ces logiciels semblent être très guidées (protocolaires) et apparaissent mettre très peu l’accent sur l’aspect modèle des représentations moléculaires, se contentant plutôt de donner à voir ces représentations. Alors qu’à l’origine, ces logiciels ont été introduits pour amener les pratiques scientifiques en classe, nous pouvons nous interroger sur cette saturation. Pour savoir si c’était le cas des autres logiciels en SVT, nous avons étudié leur usage en reprenant la méthodologie utilisée précédemment. Ainsi, il apparaît que l’usage de ces logiciels, comme ceux des logiciels de VM, semble réservé à une ou deux séances dans l’année au travers d’activités qui semblent assez protocolaires. Enfin, nous avons noté un contraste entre la volonté affichée d’incorporer les TIC dans l’éducation et un usage que nous avons inféré où cet usage semble en décalage avec les attentes du programme. Nous avons également envisagé la possibilité de penser de nouvelles activités grâce aux pratiques scientifiques de référence en lien avec la VM. Pour cela, nous avons analysé des articles scientifiques, réalisé des entretiens avec des chercheurs et effectué un stage de 3 semaines dans un laboratoire. Il apparaît qu’il semble préférable de se recentrer au lycée sur des activités visant à acquérir les fondamentaux concernant la VM et d’envisager plutôt des activités d’investigation pour le début du supérieur. / The initial question of this thesis focuses, from a curriculum questioning point of view, on the use of molecular visualization (MV) software in the teaching of “sciences de la vie et de la Terre” (SVT) in France which are the equivalent of biology and geology. The achievement of a literature review about teaching using the MV made it clear that MV software can help this teaching. However, we did not find any study focusing on the uses of MV software in education. We developed a composite methodology relying on curricular issues (Martinand, 2000) to get a better understanding of the uses of VM software. We apprehended the prescribed curriculum through the analysis of official programs since the early 1990s, the analysis of baccalaureate subjects and analysis of reports of competitives examinations to be a teacher (agrégation and CAPES). We inferred the potential curriculum through the study of textbooks, academic training, academic sites, the "traces" found on the web and interviews with teachers. We inferred the curriculum co-produced through classroom observations and interviews with teachers. Finally, we conducted an interview with an actor who played a major part in the introduction of these software to understand better the processes involved in the use of these software. We got to the conclusion that there seems to be a "saturation" of the use of these software. It results in a use with little change in the last ten years that consists of a use for one or two practical works per year for each class of the high school. Activities that use these software seem to be very guided (protocol) and appear to put very little emphasis on the molecular aspect of molecular representations, instead simply give to see these representations. While originally, these programs have been introduced to bring scientific practices in the classroom, we may question this saturation. To determine if this was the case with other software in biology, we studied their use in using the methodology previously used. Thus, it appears that the use of these software, such as MV software seems restricted to one or two sessions a year through activities that seem quite formal (very guided). Finally, we noted a contrast between the declared will to incorporate ICT in education and a use we inferred where this practice seems at odds with the expectations of the program. We also considered the possibility of thinking of new activities through scientific practices of reference in relation to the MV. In order to do this, we analyzed scientific articles, conducted interviews with researchers and completed an internship for 3 weeks in a laboratory. It appears that it would seem preferable to focus in high school on activities to acquire the fundamentals concerning the MV and rather consider investigative activities for the beginning of the university.
313

Langages dédiés au développement de services de communications / Domain-Speci?c Languages for Developing Communication Services

Palix, Nicolas 17 September 2008 (has links)
Les services de téléphonie IP automatisent le traitement des stimuli de communication en utilisant des ressources réseaux. Cependant, l'ajout de services rend vulnérable le système de téléphonie car certaines propriétés de fonctionnement des services déployés ne sont pas garanties. Aucune solution de développement de services ne permet de simultanément garantir des propriétés de fonctionnement et d'exploiter des ressources réseaux. Cette thèse propose une approche fondée sur le concept des langages dédiés pour développer des services de communications. Deux nouveaux langages dédiés au domaine des communications ont été développés : SPL et Pantaxou. Le premier sert à router des messages de signalisation tandis que le second, plus généraliste, permet la coordination d'entités communicantes. Dans cette thèse, nous démontrons, grâce à SPL et Pantaxou, que les services de communications peuvent être développés avec un langage de programmation expressif tout en préservant des propriétés critiques du domaine. / IP telephony services use network resources to automate communication stimuli processing. However, deploying services on a telephony system leads to safety issues and programmers need to ensure some safety properties on their services. Several approaches allowing service development have quickly emerged. However, none of them is both expressive and safe. This thesis proposes a new approach that relies on domain-specific languages (DSL) to develop communication services. Two new DSLs have been designed for communication services, namely SPL (Session Processing Language) and Pantaxou. The first one allows to route signaling messages while the second one, more generalist, enables to define coordination logics of communicating entities. In this thesis, we demonstrate thanks to SPL and Pantaxou that communication services could be developed with an expressive programming language that preserves some critical domain properties.
314

Décodage de codes polaires sur des architectures programmables / Polar decoding on programmable architectures.

Léonardon, Mathieu 13 December 2018 (has links)
Les codes polaires constituent une classe de codes correcteurs d’erreurs inventés récemment qui suscite l’intérêt des chercheurs et des industriels, comme en atteste leur sélection pour le codage des canaux de contrôle dans la prochaine génération de téléphonie mobile (5G). Un des enjeux des futurs réseaux mobiles est la virtualisation des traitements numériques du signal, et en particulier les algorithmes de codage et de décodage. Afin d’améliorer la flexibilité du réseau, ces algorithmes doivent être décrits de manière logicielle et être déployés sur des architectures programmables. Une telle infrastructure de réseau permet de mieux répartir l’effort de calcul sur l’ensemble des noeuds et d’améliorer la coopération entre cellules. Ces techniques ont pour but de réduire la consommation d’énergie, d’augmenter le débit et de diminuer la latence des communications. Les travaux présentés dans ce manuscrit portent sur l’implémentation logicielle des algorithmes de décodage de codes polaires et la conception d’architectures programmables spécialisées pour leur exécution.Une des caractéristiques principales d’une chaîne de communication mobile est l’instabilité du canal de communication. Afin de remédier à cette instabilité, des techniques de modulations et de codages adaptatifs sont utilisées dans les normes de communication.Ces techniques impliquent que les décodeurs supportent une vaste gamme de codes : ils doivent être génériques. La première contribution de ces travaux est l’implémentation logicielle de décodeurs génériques des algorithmes de décodage "à Liste" sur des processeurs à usage général. En plus d’être génériques, les décodeurs proposés sont également flexibles.Ils permettent en effet des compromis entre pouvoir de correction, débit et latence de décodage par la paramétrisation fine des algorithmes. En outre, les débits des décodeurs proposés atteignent les performances de l’état de l’art et, dans certains cas, les dépassent.La deuxième contribution de ces travaux est la proposition d’une nouvelle architecture programmable performante spécialisée dans le décodage de codes polaires. Elle fait partie de la famille des processeurs à jeu d’instructions dédiés à l’application. Un processeur de type RISC à faible consommation en constitue la base. Cette base est ensuite configurée,son jeu d’instructions est étendu et des unités matérielles dédiées lui sont ajoutées. Les simulations montrent que cette architecture atteint des débits et des latences proches des implémentations logicielles de l’état de l’art sur des processeurs à usage général. La consommation énergétique est réduite d’un ordre de grandeur. En effet, lorsque l’on considère le décodage par annulation successive d’un code polaire (1024,512), l’énergie nécessaire par bit décodé est de l’ordre de 10 nJ sur des processeurs à usage général contre 1 nJ sur les processeurs proposés.La troisième contribution de ces travaux est également une architecture de processeur à jeu d’instructions dédié à l’application. Elle se différencie de la précédente par l’utilisation d’une méthodologie de conception alternative. Au lieu d’être basée sur une architecture de type RISC, l’architecture du processeur proposé fait partie de la classe des architectures déclenchées par le transport. Elle est caractérisée par une plus grande modularité qui permet d’améliorer très significativement l’efficacité du processeur. Les débits mesurés sont alors supérieurs à ceux obtenus sur les processeurs à usage général. La consommation énergétique est réduite à environ 0.1 nJ par bit décodé pour un code polaire (1024,512) avec l’algorithme de décodage par annulation successive. Cela correspond à une réduction de deux ordres de grandeur en comparaison de la consommation mesurée sur des processeurs à usage général. / Polar codes are a recently invented class of error-correcting codes that are of interest to both researchers and industry, as evidenced by their selection for the coding of control channels in the next generation of cellular mobile communications (5G). One of the challenges of future mobile networks is the virtualization of digital signal processing, including channel encoding and decoding algorithms. In order to improve network flexibility, these algorithms must be written in software and deployed on programmable architectures.Such a network infrastructure allow dynamic balancing of the computational effort across the network, as well as inter-cell cooperation. These techniques are designed to reduce energy consumption, increase through put and reduce communication latency. The work presented in this manuscript focuses on the software implementation of polar codes decoding algorithms and the design of programmable architectures specialized in their execution.One of the main characteristics of a mobile communication chain is that the state of communication channel changes over time. In order to address issue, adaptive modulationand coding techniques are used in communication standards. These techniques require the decoders to support a wide range of codes : they must be generic. The first contribution of this work is the software implementation of generic decoders for "List" polar decoding algorithms on general purpose processors. In addition to their genericity, the proposed decoders are also flexible. Trade-offs between correction power, throughput and decodinglatency are enabled by fine-tuning the algorithms. In addition, the throughputs of the proposed decoders achieve state-of-the-art performance and, in some cases, exceed it.The second contribution of this work is the proposal of a new high-performance programmable architecture specialized in polar code decoding. It is part of the family of Application Specific Instruction-set Processors (ASIP). The base architecture is a RISC processor. This base architecture is then configured, its instruction set is extended and dedicated hardware units are added. Simulations show that this architecture achieves through puts and latencies close to state-of-the-art software implementations on generalpurpose processors. Energy consumption is reduced by an order of magnitude. The energy required per decoded bit is about 10 nJ on general purpose processors compared to 1nJ on proposed processors when considering the Successive Cancellation (SC) decoding algorithm of a polar code (1024,512).The third contribution of this work is also the design of an ASIP architecture. It differs from the previous one by the use of an alternative design methodology. Instead of being based on a RISC architecture, the proposed processor architecture is part of the classof Transport Triggered Architectures (TTA). It is characterized by a greater modularity that allows to significantly improve the efficiency of the processor. The measured flowrates are then higher than those obtained on general purpose processors. The energy consumption is reduced to about 0.1 nJ per decoded bit for a polar code (1024,512) with the SC decoding algorithm. This corresponds to a reduction of two orders of magnitude compared to the consumption measured on general purpose processors.
315

Gestion autonomique d'applications dynamiques sûres et résilientes / Autonomic Management of Reliable and Resilient Dynamic Applications

Calmant, Thomas 19 October 2015 (has links)
Les architectures orientées services (SOA) sont considérées comme le moyen le plus avancé pour réaliser et intégrer rapidement des applications modulaires et flexibles.Dans ce domaine, les plates-formes SOA à disposition des développeurs et des architectes de produits logiciels sont multiples; les deux plus évoluées d'entre elles étant SCA et OSGi.Une application s'appuyant sur l'une de ces plates-formes peut ainsi être assemblée avec le minimum de composants nécessaires à la réalisation de ses tâches, afin de réduire sa consommation de ressources et d'augmenter sa maintenabilité.De plus, ces plates-formes autorisent l'ajout de composants greffons qui n'étaient pas connus lors des phases initiales de la réalisation du produit.Elles permettent ainsi de mettre à jour, d'étendre et d'adapter continuellement les fonctionnalités du produit de base ou des services techniques nécessaires à sa mise en production, sans interruption de service.Ces capacités sont notamment utilisées dans le cadre du paradigme DevOps et, plus généralement, pour mettre en œuvre le déploiement continu d'artefacts.Cependant, l'extensibilité offerte par ces plates-formes peut diminuer la fiabilité globale du système: une tendance forte pour développer un produit est l'assemblage de composants provenant de tierces-parties. De tels composants peuvent être d'une qualité inconnue voire douteuse.En cas d'erreur, de détérioration des performances, etc., il est difficile de diagnostiquer les composants ou combinaisons de composants incriminés.Il devient indispensable pour le producteur d'un logiciel de déterminer la responsabilité des différents composants impliqués dans un dysfonctionnement.Cette thèse a pour objectif de fournir une plate-forme, Cohorte, permettant de concevoir et d'exécuter des produits logiciels extensibles et résilients aux dysfonctionnements d'extensions non qualifiées.Les composants de tels produits pourront être développés dans différents langages de programmation et être déployés (ajout, mise à jour et retrait) en continu et sans interruption de service.Notre proposition adopte pour principe d'isoler les composants considérés comme instables ou peu sûrs.Le choix des composants à isoler peut être décidé par l'équipe de développement et l'équipe opérationnelle, à partir de leur expertise, ou bien déterminé à partir d'une combinaison d'indicateurs.Ces derniers évoluent au cours du temps pour refléter la fiabilité des composants.Par exemple, des composants peuvent être considérés fiables après une période de quarantaine; une mise à jour peut entraîner la dégradation de leur stabilité, etc..Par conséquent, il est indispensable de remettre en cause les choix initiaux dans l'isolation des composants afin, dans le premier cas, de limiter le coup des communications entre composants et, dans le deuxième cas, de maintenir le niveau de fiabilité du noyau critique du produit. / Service-Oriented architectures (SOA) are considered the most advanced way to develop and integrate modular and flexible applications.There are many SOA platforms available for software developers and architects; the most evolved of them being SCA and OSGi.An application based on one of these platforms can be assembled with only the components required for the execution of its tasks, which helps decreasing its resource consumption and increasing its maintainability.Furthermore, those platforms allow adding plug-ins at runtime, even if they were not known during the early stages of the development of the application.Thus, they allow updating, extending and adapting the features of the base product or of the technical services required for its execution, continuously and without outage.Those capabilities are applied in the DevOps paradigm and, more generally, to implement the continuous deployment of artifacts.However, the extensibility provided by those platforms can decrease the overall reliability of the system: a strong tendency in software development is the assembly of third-parties components.Such components may be of unknown or even questionable quality.In case of error, deterioration of performance, ... it is difficult to identify the implicated components or combinations of components.It becomes essential for the software producer to determine the responsibility of the various components involved in a malfunction.This thesis aims to provide a platform, Cohorte, to design and implement scalable software products, resilient to malfunctions of unqualified extensions.The components of such products may be developed in various programming languages and be deployed continuously (adding, updating and withdrawal) and without interruption of service.Our proposal adopts the principle of isolating the components considered unstable or insecure.The choice of the components to be isolated may be decided by the development team and the operational team, from their expertise, or determined from a combination of indicators.The latters evolve over time to reflect the reliability of components.For example, components can be considered reliable after a quarantine period; an update may result in deterioration of stability, ...Therefore, it is essential to question the initial choices in isolating components to limit, in the first case, the scope of communications between components and, in the second case, to maintain the reliability of the critical core of the product.
316

Management of scenarized user-centric service compositions for collaborative pervasive environments / Mise en oeuvre de la composition de services scénarisée et centrée utilisateur pour les environnements pervasifs collaboratifs

Faure, Matthieu 07 December 2012 (has links)
L'informatique pervasive (ou ubiquitaire) est un support pour des environnements contenant denombreux objets (ou dispositifs) disséminés, équipés d'électronique et interconnectés. Ces dispositifsfournissent un accès distant à une multitude de fonctionnalités qui nous aident dans notre vie quotidienne.Les Architectures Orientées Services sont adaptées à la conception de logiciels pervasifs. En effet,chaque dispositif fournit son propre ensemble de fonctionnalités sous la forme de services. Ainsi, enl'absence de mécanisme complémentaire, les utilisateurs se trouvent limités à utiliser les servicesisolément alors que leurs besoins correspondent à des scénarios qui impliquent une composition demultiples services offerts par plusieurs appareils.Dans cette thèse, nous défendons qu'un système pervasif doit : d'une part, permettre aux utilisateursd'exprimer facilement leurs besoins en créant des scénarios et d'autre part, proposer à ses utilisateursune représentation et des moyens de gestion de leur contexte afin qu'ils puissent tirer le meilleur parti deleur environnement et de ses changements. De plus, la présence de plusieurs utilisateurs implique lanécessité de collaborer. Par ailleurs, l'exécution de scénarios doit être résiliente aux changementsenvironnementaux et aux actions des utilisateurs. Elle doit ainsi s'adapter dynamiquement et, si possible,tirer profit du contexte et des changements de l'environnement.Notre contribution, nommée SaS (Scenarios as Services), répond à ces objectifs. Elle propose uneapproche interopérable capable de s'adapter à l'environnement. Elle fournit une représentation persistanteet personnalisable du contexte et inclut un langage de description de scénarios destiné aux utilisateurs.Ces scénarios sont facilement contrôlables, personnalisables et réutilisables. Elle planifie l'exécution pasà pas des scénarios, afin de s'adapter aux changements de l'environnement et de bénéficier desavantages de la mobilité des utilisateurs (exécution d'un scénario, dans la durée, sur plusieurs lieux).Enfin, elle inclut le partage de scénarios qui permet aux utilisateurs de collaborer. Un prototype de SaS,basé sur des normes industrielles (telle qu'OSGi), prouve la faisabilité de notre contribution et nouspermet de l'évaluer sur un cas d'étude simple. / Pervasive (or ubiquitous) computing is a paradigm for environments containing distributedinterconnected devices that embed electronics. These devices provide a remote access to numerousfunctionalities that assist us in our daily life. Service-Oriented Architectures are suitable to design softwarefor pervasive environments. Indeed, each device provides its own set of functionalities as services.Without any extra mechanism, users can only use a single service at a time. Nevertheless, their needsusually correspond to scenarios which involve a composition of multiple services, provided by multipledevices.In this thesis, we advocate that a pervasive system must, on the one hand, enable users to easily expresstheir needs through scenario creation and, on the other hand, propose to users a representation of theircontext so that they can benefit from both their environment and its changes. In addition, the presence ofseveral users implies that users must be able to collaborate.Our contribution, named SaS (Scenarios as Services), fulfils these requirements. It proposes aninteroperable approach that adapts to its environment. It provides users with a customizable andpersistent representation of their context and includes a scenario description language targeted to users.Scenarios are easy to control, customize and reuse. SaS schedules the step-by-step execution ofscenarios to adapt to environmental changes and benefit from user mobility (scenario execution split over time on successive distinct sites). Finally, SaS includes scenario sharing mechanisms which are abasis for collaboration. A prototype of SaS, based on industrial standards (e.g., OSGi), proves thefeasibility of our contribution and serves for its evaluation on a simple use case.
317

Recalage flexible de modèles moléculaires dans les reconstructions 3D de microscopie électronique / Flexible fitting of molecular models into EM 3D reconstructions

Goret, Gael 26 September 2011 (has links)
Aujourd'hui, la cristallographie de macromolécules produit couramment des modèles moléculaires à résolution atomique. Cependant, cette technique est particulièrement difficile à mettre en œuvre, dans le cas de complexes de taille importante. La microscopie électronique permet, elle, de visualiser des particules de grande taille, dans des conditions proches de celles in vivo. Cependant, la résolution des reconstructions tridimensionnelles obtenues exclut, en général, leur interprétation directe en termes de structures moléculaires, étape nécessaire à la compréhension des problèmes biologiques. Il est donc naturel d'essayer de combiner les informations fournies par ces deux techniques pour caractériser la structure des assemblages macromoléculaires. L'idée est de positionner les modèles moléculaires déterminés par cristallographie à l'intérieur de reconstructions 3D issues de la microscopie électronique, et de comparer la densité électronique associée à la reconstruction 3D avec une densité électronique calculée à partir des modèles. Le problème numérique réside dans la détermination et l'optimisation des variables qui spécifient les positions des modèles, considérés comme des corps rigides, à l'intérieur de l'assemblage. Cette idée simple a donné lieu au développement d'une méthode appelée recalage. Ce travail de thèse a eu pour but de fournir aux biologistes un outil, basé sur la méthode du recalage, qui leurs permette de construire des modèles pseudo-moléculaires associés aux assemblages produits par microscopie électronique. Le logiciel issu de ce travail, nommé VEDA est un environnement graphique convivial, intégrant la possibilité de recalage flexible, et un moteur de calcul performant (calcul rapide, traitement de symétries complexes, utilisation de grands volumes, ...). Testé sur des dizaines de cas réels, VEDA est aujourd'hui pleinement fonctionnel et est utilisé par un nombre croissant de chercheurs, en France et à l'étranger qui lui reconnaissent tous facilité d'utilisation, stabilité, rapidité et qualité des résultats. / Today, macromolecular crystallography commonly produces molecular models at atomic resolution. However, this technique is particularly difficult to implement in the cases of large complexes. Electron microscopy allows for the visualization of large particles under conditions similar to those in vivo. However, the resolution of three-dimensional reconstructions obtained by electron microscopy does not allow, in general, the direct interpretation of molecular structures, a necessary step in understanding biological problems. Therefore, it is natural to try to combine information provided by these two techniques to characterize the structure of macromolecular assemblies. The idea is to place the molecular models determined by crystallography inside electron microscopy 3D reconstructions, and compare the electron density associated to the 3D reconstruction with an electron density calculated from the models. The numerical problem is the determination and the optimization of the variables that specify the positions of the models, considered as rigid body, inside the assembly. This simple idea has led to the development of a method called fitting. This thesis aims to provide biologists with a tool, based on the method of fitting, that allows them to build pseudo-molecular models associated to the assemblies produced by electron microscopy. The software resulting from this work, named VEDA, has a user-friendly graphical environment, includes the possibility of flexible fitting, and implements a powerful calculation core (fast computation, treatment of complex symmetry, use of large volumes, etc.). Tested on dozens of real cases with experimental data sets, VEDA is now fully functional and is used by a growing number of researchers in France and abroad. All of the users have recognized ease of use, stability, speed, and quality of results of VEDA. STAR
318

Vers une méthodologie de développement d'outils de réalité virtuelle pour faciliter la convergence métiers en conception de produits centrée sur l'homme / Towards a methodology for developing virtual reality tools to facilitate multidisciplinary convergence in human centered product design

Bennes, Lionel 27 November 2013 (has links)
La conception concourante de produits matériels centrée sur l’homme est basée sur une collaboration entre le concepteur mécanicien, l’ergonome et le designer industriel. Cette collaboration souvent difficile peut être facilitée par l’utilisation d’objets intermédiaires de conception, tels que la Réalité Virtuelle (RV). Néanmoins, bien que largement utilisée dans l’industrie, la RV souffre d’un déficit d’acceptation de la part des concepteurs de produits. Dans le cadre de ces travaux, nous proposons d’utiliser la RV sous la forme d’outils immersifs d’assistance à la convergence multidisciplinaire développés selon une démarche anthropocentrée en fonction des besoins spécifiques à chaque projet de conception de produits. Afin d’optimiser les délais de développement, nous proposons une méthodologie de conception d’applications immersive dédiée : la méthodologie ASAP(As Soon As Possible). Une première série expérimentale a été conduite dans le cadre de contrats industriels d’études et de recherche afin de valider la faisabilité de la méthodologie et l’efficacité des outils développés.Une deuxième série expérimentale a été effectuée sur plus de 50 sujets dans le cadre de projets, cette fois, pédagogiques qui ont nécessité le développement de 12 applications. Elle a permis de valider quantitativement l’influence des outils immersifs sur l’efficacité perçue des phases de convergence interdisciplinaires ainsi que l’influence de l’approche proposée sur l’acceptation de la RV par les concepteurs de produits. Ces travaux de thèse présentent une première approche qui, selon nous, permettra à terme, de faire évoluer l’usage de la RV vers une intégration plus forte au sein des processus de conception de produits avec, par exemple, une plus large utilisation des applications immersives de modélisation 3D, réelles sources d’innovation. / Human centered and concurring product design is based on the collaboration between mechanical engineers, human factor experts and industrial designers. This collaboration is often difficult and can be eased through the use of intermediary objects such as Virtual Reality (VR). Nevertheless, even though VR is widely used in the industry, it suffers from a lack of acceptance by product designers. In the context of this research work, we suggest to use VR in the form of immersive multidisciplinary convergence support tools. These tools are developed in accordance with an anthropocentered approach, as a function of each specific product design project’s needs. In order to optimize development times, we propose a dedicated immersive software design methodology : the ASAP methodology (As Soon As Possible). A first experiment, aiming to demonstrate the feasibility of the ASAP methodology and the effectiveness of the implemented immersive tools, has been conducted in the context of industrial product design projects. A second experiment, involving more than 50 participants, has been conducted in the context of educational product design projects and led to the development of 12 immersivetools. It demonstrated quantitatively the contribution of immersive tools to the perceived effectiveness of interdisciplinary convergence phases and the contribution of the ASAP methodology on the acceptation of VR by product designers. This research work describes a first approach that could, according to us, allow abetter integration of VR within product design processes.
319

Extraction d'une architecture logicielle à base de composants depuis un système orienté objet. Une aproche par exploration

Chardigny, Sylvain 23 October 2009 (has links) (PDF)
La modélisation et la représentation des architectures logicielles sont devenues une des phases principales du processus de développement des systèmes complexes. En effet, la représentation de l'architecture fournit de nombreux avantages pendant tout le cycle de vie du logiciel. Cependant, pour beaucoup de systèmes existants, aucune représentation fiable de leurs architectures n'est disponible. Afin de pallier cette absence, source de nombreuses difficultés principalement lors des phases de maintenance et d'évolution, nous proposons dans cette thèse une approche, appelée ROMANTIC, visant à extraire une architecture à base de composants à partir d'un système orienté objet existant. L'idée première de cette approche est de proposer un processus quasi-automatique d'identification d'architectures en formulant le problème comme un problème d'optimisation et en le résolvant au moyen de méta-heuristiques. Ces dernières explorent l'espace composé des architectures pouvant être abstraites du système en utilisant la sémantique et la qualité architecturale pour sélectionner les meilleures solutions. Le processus s'appuie également sur l'architecture intentionnelle du système, à travers l'utilisation de la documentation et des recommandations de l'architecte.
320

Contribution à la modélisation du comportement mécanique du verre : étude des relations entre densification et indentation

Gicquel, Solène 19 May 2009 (has links) (PDF)
Ce travail de thèse, articulé en deux parties, se base sur l'étude des déformations permanentes observées expérimentalement dans les verres soumis à de très hautes pressions. Ce phénomène est aussi appelé densification. Mon travail s'articule autour de la modélisation d'une indentation Vickers des verres d'oxydes. L'objectif est ainsi de comprendre et d'identifier les rôles propres de chacun des mécanismes supposés à l'origine de la densification : la déformation par cisaillement et la compression hydrostatique, ainsi que leurs interactions. Une première étude effectuée dans le cadre de l'élasticité linéaire a mis en évidence le besoin d'une modélisation plus à même de rendre compte des déformations observés. Une seconde étude a consisté à écrire différents modèles de comportement et à les implémenter dans un code de calcul par éléments finis (Cast3M). Les modèles ont été choisis afin d'autoriser une dissociation des rôles du cisaillement et de la pression hydrostatique, nécessaire à la mise en évidence de leur rôle commun dans le phénomène de densification. Par ailleurs, la mise en place d'un couplage entre les propriétés élastiques des matériaux et la pression, observées expérimentalement et ajoutés à nos modèles de comportement, nous permet une meilleure description de l'essai d'indentation.

Page generated in 0.0511 seconds