• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 10
  • 6
  • 4
  • 2
  • 1
  • Tagged with
  • 81
  • 30
  • 19
  • 19
  • 18
  • 16
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modélisation et optimisation de la consommation énergétique d'un système de communication Wi-Fi / Modeling and optimization of the energy consumption of a Wi-Fi communication system

Benali, Wissem 17 October 2017 (has links)
La forte augmentation du nombre de terminaux connectés ces dernières années et l'utilisation croissante des technologies de communication impacte de manière non négligeable la facture énergétique. Pour enrayer cette augmentation de la consommation énergétique, il devient primordial de pouvoir comparer en termes de consommation les algorithmes de communications numériques, afin de développer l'architecture de transmission la moins énergivore. Dans cette thèse, la couche physique des standards Wi-Fi IEEE 802.11ac est analysée sous un angle énergétique. La puissance dissipée dans les circuits pour faire fonctionner les algorithmes de traitement de signal est prise en compte en plus de la puissance d'émission d'antenne classique. La méthodologie mise en œuvre inclut à la fois des simulations et des développements sur plateforme matérielle (FPGA), permettant d'obtenir des évaluations de la consommation plus réalistes. Nous avons dans un premier temps analysé de façon isolée les éléments composant les chaines de communications numériques. Puis nous avons intégré les périodes d'activité et d'inactivité de chaque élément dans le calcul de la consommation énergétique globale des chaines. Nous proposons une méthode pratique et efficace d'estimation de la consommation, incluant une base de données issue de simulations, et une analyse théorique des taux d'activité de chaque élément de la chaine. Ces résultats permettent d'analyser la répartition de la consommation en puissance des éléments composant les émetteurs et les récepteurs, et de comparer diverses architectures et jeux de paramètres. En particulier, nous avons évalué l'impact de deux architectures de Transformées de Fourier Rapides sur la consommation globale du système. / The strong increase of the number of connected devices in recent years and the increasing use of communication technologies has a significant impact on the energy bill. To stop the increase in energy consumption, it is essential to be able to compare the digital communication algorithms in terms of consumption, in order to develop the most energy-efficient transmission architecture.In this thesis, the IEEE 802.11ac Wi-Fi standard of physical layer is analyzed at an energy point of view. The power dissipated in the circuits for operating the signal processing algorithms is taken into account in addition to the antenna transmission power. The implemented methodology includes both simulations and developments on a hardware platform (FPGAs), resulting in more realistic consumption assessments.First, we analyzed separately the components of the digital communications chains. Then we integrated the periods of activity and inactivity of each element in the calculation of the global energy consumption of the chains. We propose a practical and efficient method of estimating consumption, including a database derived from simulations, and a theoretical analysis of the activity rates of each element of the chain.These results make it possible to analyze the distribution of the power consumption of the elements composing transmitters and receivers, and to compare various architectures and sets of parameters. In particular, we evaluated the impact of two Fast Fourier Transform architectures on overall system consumption.
72

Les métamorphoses de la profession d'architecte en Bulgarie: réglementation, exercice et oroganisations professionnelles

Slavova, Petya January 2006 (has links)
Doctorat en Sciences politiques et sociales / info:eu-repo/semantics/nonPublished
73

Architecture logicielle et matérielle d'un système de détection des émotions utilisant les signaux physiologiques. Application à la mnémothérapie musicale / Hardware and software architecture of an emotions detection system using physiological signals. Application to the musical mnemotherapy

Koné, Chaka 01 June 2018 (has links)
Ce travail de thèse s’inscrit dans le domaine de l’informatique affective et plus précisément de l’intelligence artificielle et de l’exploration d’architecture. L’objectif de ce travail est de concevoir un système complet de détection des émotions en utilisant des signaux physiologiques. Ce travail se place donc à l’intersection de l’informatique pour la définition d’algorithme de détection des émotions et de l’électronique pour l’élaboration d’une méthodologie d’exploration d’architecture et pour la conception de nœuds de capteurs. Dans un premier temps, des algorithmes de détection multimodale et instantanée des émotions ont été définis. Deux algorithmes de classification KNN puis SVM, ont été implémentés et ont permis d’obtenir un taux de reconnaissance des émotions supérieurs à 80%. Afin de concevoir un tel système alimenté sur pile, un modèle analytique d’estimation de la consommation à haut niveau d’abstraction a été proposé et validé sur une plateforme réelle. Afin de tenir compte des contraintes utilisateurs, un outil de conception et de simulation d’architecture d’objets connectés pour la santé a été développé, permettant ainsi d’évaluer les performances des systèmes avant leur conception. Une architecture logicielle/matérielle pour la collecte et le traitement des données satisfaisant les contraintes applicatives et utilisateurs a ainsi été proposée. Doté de cette architecture, des expérimentations ont été menées pour la Mnémothérapie musicale. EMOTICA est un système complet de détection des émotions utilisant des signaux physiologiques satisfaisant les contraintes d’architecture, d’application et de l’utilisateur. / This thesis work is part of the field of affective computing and more specifically artificial intelligence and architectural exploration. The goal of this work is to design a complete system of emotions detection using physiological signals. This work is therefore situated at the intersection of computer science for the definition of algorithm of detection of emotions and electronics for the development of an architecture exploration methodology for the design of sensor nodes. At first, algorithms for multimodal and instantaneous detection of emotions were defined. Two algorithms of classification KNN then SVM, were implemented and made it possible to obtain a recognition rate of the emotions higher than 80%. To design such a battery-powered system, an analytical model for estimating the power consumption at high level of abstraction has been proposed and validated on a real platform. To consider user constraints, a connected object architecture design and simulation tool for health has been developed, allowing the performance of systems to be evaluated prior to their design. Then, we used this tool to propose a hardware/software architecture for the collection and the processing of the data satisfying the architectural and applicative constraints. With this architecture, experiments have been conducted for musical Mnemotherapy. EMOTICA is a complete system for emotions detection using physiological signals satisfying the constraints of architecture, application and user.
74

Indoor localization and mobility management in the emerging heterogeneous wireless networks / Localisation en intérieur et gestion de la mobilité dans les réseaux sans fils hétérogènes émergents

Papapostolou, Apostolia 31 January 2011 (has links)
Au cours des dernières décennies, nous avons été témoins d'une évolution considérable dans l'informatique mobile, réseau sans fil et des appareils portatifs. Dans les réseaux de communication à venir, les utilisateurs devraient être encore plus mobiles exigeant une connectivité omniprésente à différentes applications qui seront de préférence au courant de leur contexte. Certes, les informations de localisation dans le cadre de leur contexte est d'une importance primordiale à la fois la demande et les perspectives du réseau. Depuis l'application ou de point de vue utilisateur, la fourniture de services peut mettre à jour si l'adaptation au contexte de l'utilisateur est activée. Du point de vue du réseau, des fonctionnalités telles que le routage, la gestion de transfert, l'allocation des ressources et d'autres peuvent également bénéficier si l'emplacement de l'utilisateur peuvent être suivis ou même prédit. Dans ce contexte, nous nous concentrons notre attention sur la localisation à l'intérieur et de la prévision transfert qui sont des composants indispensables à la réussite ultime de l'ère de la communication omniprésente envisagé. Alors que les systèmes de positionnement en plein air ont déjà prouvé leur potentiel dans un large éventail d'applications commerciales, le chemin vers un système de localisation à l'intérieur de succès est reconnu pour être beaucoup plus difficile, principalement en raison des caractéristiques difficiles à l'intérieur et l'exigence d'une plus grande précision. De même, la gestion de transfert dans le futur des réseaux hétérogènes sans fil est beaucoup plus difficile que dans les réseaux traditionnels homogènes. Régimes de procédure de transfert doit être sans faille pour la réunion strictes de qualité de service (QoS) des applications futures et fonctionnel malgré la diversité des caractéristiques de fonctionnement des différentes technologies. En outre, les décisions transfert devraient être suffisamment souples pour tenir compte des préférences utilisateur d'un large éventail de critères proposés par toutes les technologies. L'objectif principal de cette thèse est de mettre au point précis, l'heure et l'emplacement de puissance et de systèmes efficaces de gestion de transfert afin de mieux satisfaire applications sensibles au contexte et mobiles. Pour obtenir une localisation à l'intérieur, le potentiel de réseau local sans fil (WLAN) et Radio Frequency Identification (RFID) que l'emplacement autonome technologies de détection sont d'abord étudiés par des essais plusieurs algorithmes et paramètres dans un banc d'essai expérimental réel ou par de nombreuses simulations, alors que leurs lacunes sont également été identifiés. Leur intégration dans une architecture commune est alors proposée afin de combiner leurs principaux avantages et surmonter leurs limitations. La supériorité des performances du système de synergie sur le stand alone homologues est validée par une analyse approfondie. En ce qui concerne la tâche de gestion transfert, nous repérer que la sensibilité au contexte peut aussi améliorer la fonctionnalité du réseau. En conséquence, deux de tels systèmes qui utilisent l'information obtenue à partir des systèmes de localisation sont proposées. Le premier schéma repose sur un déploiement tag RFID, comme notre architecture de positionnement RFID, et en suivant la scène WLAN analyse du concept de positionnement, prédit l'emplacement réseau de la prochaine couche, c'est à dire le prochain point de fixation sur le réseau. Le second régime repose sur une approche intégrée RFID et sans fil de capteur / actionneur Network (WSAN) de déploiement pour la localisation des utilisateurs physiques et par la suite pour prédire la prochaine leur point de transfert à deux couches de liaison et le réseau. Etre indépendant de la technologie d'accès sans fil principe sous-jacent, les deux régimes peuvent être facilement mises en œuvre dans des réseaux hétérogènes [...] / Over the last few decades, we have been witnessing a tremendous evolution in mobile computing, wireless networking and hand-held devices. In the future communication networks, users are anticipated to become even more mobile demanding for ubiquitous connectivity to different applications which will be preferably aware of their context. Admittedly, location information as part of their context is of paramount importance from both application and network perspectives. From application or user point of view, service provision can upgrade if adaptation to the user's context is enabled. From network point of view, functionalities such as routing, handoff management, resource allocation and others can also benefit if user's location can be tracked or even predicted. Within this context, we focus our attention on indoor localization and handoff prediction which are indispensable components towards the ultimate success of the envisioned pervasive communication era. While outdoor positioning systems have already proven their potential in a wide range of commercial applications, the path towards a successful indoor location system is recognized to be much more difficult, mainly due to the harsh indoor characteristics and requirement for higher accuracy. Similarly, handoff management in the future heterogeneous wireless networks is much more challenging than in traditional homogeneous networks. Handoff schemes must be seamless for meeting strict Quality of Service (QoS) requirements of the future applications and functional despite the diversity of operation features of the different technologies. In addition, handoff decisions should be flexible enough to accommodate user preferences from a wide range of criteria offered by all technologies. The main objective of this thesis is to devise accurate, time and power efficient location and handoff management systems in order to satisfy better context-aware and mobile applications. For indoor localization, the potential of Wireless Local Area Network (WLAN) and Radio Frequency Identification (RFID) technologies as standalone location sensing technologies are first studied by testing several algorithms and metrics in a real experimental testbed or by extensive simulations, while their shortcomings are also identified. Their integration in a common architecture is then proposed in order to combine their key benefits and overcome their limitations. The performance superiority of the synergetic system over the stand alone counterparts is validated via extensive analysis. Regarding the handoff management task, we pinpoint that context awareness can also enhance the network functionality. Consequently, two such schemes which utilize information obtained from localization systems are proposed. The first scheme relies on a RFID tag deployment, alike our RFID positioning architecture, and by following the WLAN scene analysis positioning concept, predicts the next network layer location, i.e. the next point of attachment to the network. The second scheme relies on an integrated RFID and Wireless Sensor/Actuator Network (WSAN) deployment for tracking the users' physical location and subsequently for predicting next their handoff point at both link and network layers. Being independent of the underlying principle wireless access technology, both schemes can be easily implemented in heterogeneous networks. Performance evaluation results demonstrate the advantages of the proposed schemes over the standard protocols regarding prediction accuracy, time latency and energy savings
75

Distributed cross-layer scalable multimedia services over next generation convergent networks : architectures and performances / Approche cross-layer pour services multimedia évolutifs distribués sur la prochaine génération de réseaux convergents : architectures et performances

Le, Tien Anh 15 June 2012 (has links)
Multi-parti de conférence multimédia est le type le plus compliqué de la communication mais aussi le service principalement utilisé sur Internet. Il est aussi la killer application sur les réseaux 4G. Dans cette recherche, nous nous concentrons sur trois parties principales du service de téléconférence: L'architecture de distribution de médias, le codage vidéo, ainsi que l'intégration du service dans les infrastructures sans fil 4G. Nous proposons un algorithme d'application nouvelle couche de multidiffusion utilisant une architecture de services distribués. L'algorithme proposé estime que les limites de la perception humaine, tout en participant à une conférence vidéo afin de minimiser le trafic qui n'est pas nécessaire pour la session de communication. Riche des modèles théoriques de la perception basée proposé architecture distribuée, l'architecture traditionnelle centralisée et basée sur la perception architecture centralisée ont été construits en utilisant la théorie d'attente afin de refléter le trafic généré, transmises et traitées à l'pairs distribués, les dirigeants et le serveur centralisé. La performance des architectures a été pris en compte dans les différents aspects de la durée totale d'attente, le retard de point à point et le taux de service requis pour le débit total. Ces résultats aident le lecteur à avoir une vue globale des performances de la proposition dans une comparaison équitable avec les méthodes conventionnelles. Pour construire l'arbre de distribution des médias pour l'architecture distribuée, une fonction de coût nouvelle application-aware multi-variable est proposée. Il tient compte des besoins variables des applications et des mises à jour dynamiquement les ressources disponibles nécessaires pour parvenir à un nœud particulier sur l'arbre de distribution de l'ALM. Codage vidéo scalable est utilisé comme le principal multi-couche codec à la conférence. Afin d'évaluer la performance de la fonction de coût multi-variable nouvellement proposées dans une application dynamique et avancé environnement réseau sans fil, codage vidéo scalable (SVC) des transmissions sur un réseau overlay ALM construite sur un réseau sous-4G/WiMAX réelles ont été utilisées. Nous avons développé EvalSVC et l'utiliser comme plate-forme principale pour évaluer la fonction de coût proposé. Comme un problème commun, l'architecture distribuée nécessite que les pairs contribuent une partie de leur bande passante et capacité de calcul afin de maintenir la superposition mutuelle inter-connexion. Cette exigence se développe en un grave problème pour les utilisateurs mobiles et l'infrastructure sans fil, comme la ressource radio de ce réseau est extrêmement coûteux, et est l'une des raisons pour lesquelles l'architecture distribuée n'a pas été largement appliquée dans la prochaine génération (4G) des réseaux. C'est aussi la raison principale pour laquelle les services multimédias tels que vidéo-conférence doivent s'appuyer sur une architecture centralisée coûteuse construite sur un des contrôleurs des médias coûteux fonction des ressources (CRFM), via l'IMS (IP Multimedia Subsystem). Ce travail de recherche propose une nouvelle architecture distribuée utilisant la capacité de renseignement et extra, actuellement disponibles sur le LTE et stations de base WiMAX de réduire le besoin des débits que chacun a à fournir par les pairs afin de maintenir le réseau overlay. Cette réduction permet d'économiser des ressources précieuses et de radio permet une architecture distribuée pour fournir des services de visioconférence sur les réseaux 4G, avec tous les avantages d'une architecture distribuée, comme la flexibilité, l'évolutivité, les petits retards et à moindre coût. De plus, cela peut être mis en œuvre avec une modification minimale de la plate-forme standardisée IMS et les infrastructures 4G, économisant ainsi les opérateurs et les fournisseurs de services d'investissements excessifs. [...] / Multimedia services are the killer applications on next generation convergent networks. Video contents are the most resource consuming part of a multimedia flux. Video transmission, video multicast and video conferencing services are the most popular types of video communication with increasing difficulty levels. Four main parts of the distributed cross-layer scalable multimedia services over next generation convergent networks are considered in this research work, both from the architecture and performance point of views. Firstly, we evaluate the performance of scalable multimedia transmissions over an overlay network. For that, we evaluate the performance of scalable video end-to-end transmissions over EvalSVC. It is capable of evaluating the end-to-end transmission of SVC bit-streams. The output results are both objective and subjective metrics of the video transmission. Through the interfaces with real networks and an overlay simulation platform, the transmission performance of different types of SVC scalability and AVC bit-streams on a bottle-neck and an overlay network will be evaluated. This evaluation is new because it is conducted on the end-to-end transmission of SVC contents and not on the coding performance. Next, we will study the multicast mechanism for multimedia content over an overlay network in the following part of this PhD thesis. Secondly, we tackle the problems of the distributed cross-layer scalable multimedia multicast over the next generation convergent networks. For that, we propose a new application-network cross layer multi-variable cost function for application layer multicast of multimedia delivery over convergent networks. It optimizes the variable requirements and available resources from both the application and the network layers. It can dynamically update the available resources required for reaching a particular node on the ALM's media distribution tree. Mathematical derivation and theoretical analysis have been provided for the newly proposed cost function so that it can be applied in more general cases of different contexts. An evaluation platform of an overlay network built over a convergent underlay network comprised of a simulated Internet topology and a real 4G mobile WiMAX IEEE802.16e wireless network is constructed. If multicast is the one-to-many mechanism to distribute the multimedia content, a deeper study on the many-to-many mechanism will be done in the next part of the thesis through a new architecture for video conferencing services. Thirdly, we study the distributed cross-layer scalable video conferencing services over the overlay network. For that, an enriched human perception-based distributed architecture for scalable video conferencing services is proposed with theoretical models and performance analysis. Rich theoretical models of the three different architectures: the proposed perception-based distributed architecture, the conventional centralized architecture and perception-based centralized architecture have been constructed by using queuing theory to reflect the traffic generated, transmitted and processed at the perception-based distributed leaders, the perception-based centralized top leader, and the centralized server. The performance of these three different architectures has been considered in 4 different aspects. While the distributed architecture is better than the centralized architecture for a scalable multimedia conferencing service, it brings many problems to users who are using a wireless network to participate into the conferencing service. A special solution should be found out for mobile users in the next part of the thesis. Lastly, the distributed cross-layer scalable video conferencing services over the next generation convergent network is enabled. For that, an IMS-based distributed multimedia conferencing services for Next Generation Convergent Networks is proposed. [...]
76

Interprétation interactive de documents structurés : application à la rétroconversion de plans d'architecture manuscrits

Ghorbel, Achraf 11 December 2012 (has links) (PDF)
Cette thèse entre dans le cadre de projet ANR-Mobisketch (http://mobisketch.irisa.fr/). Ce projet vise à élaborer une solution logicielle générique orientée stylo pour la réalisation de documents techniques : schémas, plans... L'objectif est d'aboutir à un continuum entre un document technique sous sa forme papier et ce même document sous sa forme numérique interprétée. Ce continuum nécessite deux analyseurs cohérents : un pour la phase de reconnaissance et un autre pour la composition/édition. Nous nous sommes intéressés dans cette thèse à l'analyseur pour la reconnaissance de documents. Le but de nos travaux était d'élaborer une approche interactive, générique et incrémentale. L'originalité de notre méthode de reconnaissance, nommée IMISketch, est la sollicitation de l'utilisateur durant la phase d'analyse. En effet, le processus d'analyse est capable de solliciter l'utilisateur s'il rencontre des cas d'ambigüités. Deux cas d'ambigüité peuvent se présenter : l'ambigüité structurelle et l'ambigüité de forme. L'ambigüité structurelle est levée par le système d'analyse quand il hésite entre deux segmentations différentes pour interpréter un symbole. Par exemple, dans un plan d'architecture, une ambigüité structurelle peut être levée pour trouver la bonne segmentation des primitives entre un mur et un ouvrant (porte, fenêtre, etc.). L'ambigüité de forme est levée s'il existe plusieurs hypothèses concurrentes pour étiqueter un symbole, par exemple une ambigüité entre une porte et une fenêtre. L'intégration de l'utilisateur dans la boucle de reconnaissance évite une correction a posteriori fastidieuse des erreurs de reconnaissance tout en permettant d'avoir un système auto-évolutif au fur et à mesure de l'analyse. Le processus de reconnaissance est basé sur une séparation de l'analyseur et des connaissances liées au type de document à reconnaître. Les connaissances structurelles a priori du document sont exprimées à travers un langage visuel grammatical basé sur l'écriture de règles de production. L'application de chaque règle est quantifiée par l'attribution d'un score à chaque hypothèse sous tendue par une branche de l'arbre d'analyse. La description grammaticale ainsi produite permet de piloter l'analyseur. Notre analyseur à base de règles est capable de mettre en concurrence des hypothèses possibles d'interprétation, afin de solliciter l'utilisateur lorsque c'est nécessaire. De plus, afin de limiter la combinatoire, l'analyseur se base sur un contexte local de recherche. Nous avons également mis en place un processus d'exploration hybride original, guidé par la description grammaticale, qui permet d'accélérer localement l'analyse tout en limitant le risque de réaliser une fausse interprétation. Notre méthode interactive a été validée sur les plans d'architecture dessinés à main levée. Ces plans sont composés de murs, de trois types d'ouvrants et d'une dizaine de classes de mobilier. Ces travaux montrent que la sollicitation de l'utilisateur permet d'améliorer la qualité de reconnaissance des documents.
77

Design thinking and the precautionary principle : development of a theoretical model complementing preventive judgment for design for sustainability enriched through a study of architectural competitions adopting LEED

Cucuzzella, Carmela 03 1900 (has links)
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales. / This thesis is a contribution to the general theory of design thinking. In the prevalent demand for a sustainable development, the main objective of this research is the construction of a theoretical model of design thinking that contextualizes standard sustainability evaluation tools. The basis of these normative tools is analyzed in four dimensions: ontological, methodological, epistemological and teleological. Indications of potential counter-productive effects of these norms for design thinking confirm the need for a theory of qualitative judgment. Our central hypothesis revolves around the benefits of the underlying conceptual framework of the ‘precautionary principle’ for design thinking, the first formulations of which goes back to the early seventies in Germany, and was in fact created as a way to address the failures of traditional scientific evaluation tools or methods. The thesis comprises five parts. Beginning with a historical perspective, a review of classical models of design thinking, specifically focuses on the evolving approaches for addressing sustainable development. Theories of “green design” coming from the early sixties, theories of ecological design of the seventies and eighties are finally converging on the developing theories of “sustainable design” formulated in the early nineties. The underlying theories of the precautionary principle are then reviewed and explored for the specific context of design within the perspective of sustainability. Current methods of standard risk assessment methods are compared to a precautionary approach, revealing their conceptual limits for design thinking. A preliminary theoretical model for design thinking is then constructed adopting the theories underlying the precautionary principle. This model represents a global vision for judging the design project in a context of sustainability, rather than on traditional approaches for risk assessment, which are purposive and instrumental. The precautionary principle is further explored for the specific context of architectural design. This exploration begins with a historical perspective of the classical notion of ‘prudence’ for guiding architectural judgment. In light of the contemporary issues related to sustainability, we then examine the challenges of judging architectural projects given the increasing international prominence of such standard evaluation methods (i.e. Leadership in Energy and Environmental Design, LEED). The thesis proposes a reinterpretation of design thinking as proposed by Donald A. Schön is introduced such that the use of tools, like LEED can be contextualized. This exercise reveals an epistemological barrier, which shall be taken into consideration when reformulating the theoretical model. In accordance with a constructivist epistemology, a new theoretical model is therefore confronted to the study and illustration of three contemporary Canadian architectural competitions adopting the standard evaluation method LEED. A preliminary set of ‘tensions’ identified in the judgment process and design thinking is further categorized into their conceptual counterparts. These are: (1) analogical/logical conceptualization; (2) epistemological/methodological uncertainty; (3) interpretive/analytic comparability; and (4) universal/contextual relevance of the proposal. These conceptual tensions are considered as vectors that come into correlation with the theoretical model, enriching it, yet without validating it, in the positivist sense of the word. These confrontations with the real, help better define the epistemological barrier identified above. This thesis therefore highlights the often underestimated impact of environmental standards on the judgment process and design thinking, with particular, albeit non restrictive, reference to contemporary Canadian architectural competitions for public buildings. It concludes by stressing the need for a new form of “reflective prudence” in design thinking along with a more critical use of current evaluation tools for sustainability founded on a global integration rather than on the opposition of environmental approaches.
78

Configuration et Reconfiguration des Systèmes Temps-Reél Répartis Embarqués Critiques et Adaptatifs

Borde, Etienne 01 December 2009 (has links) (PDF)
Aujourd'hui, de plus en plus de systèmes industriels s'appuient sur des applications logicielles temps-réel réparties embarquées (TR2E). La réalisation de ces applications demande de répondre à un ensemble important de contraintes très hétérogènes, voire contradictoires. Pour satisfaire ces contraintes, il est presque toujours nécessaire de fournir à ces systèmes des capacités d'adaptation. Par ailleurs, certaines de ces applications pilotent des systèmes dont la défection peut avoir des conséquences financières - voire humaines - dramatiques. Pour concevoir de telles applications, appelées applications critiques, il faut s'appuyer sur des processus de développpement rigoureux capables de repérer et d'éliminer les erreurs de conception potentielles. Malheureusement, il n'existe pas à notre connaissance de processus de développement capable de traiter ce problème dans le cas où l'adaptation du système à son environnement conduit à modifier sa configuration logicielle. Ce travail de thèse présente une nouvelle méthodologie qui répond à cette problématique en s'appuyant sur la notion de mode de fonctionnement : chacun des comportements possibles du système est représenté par le biais d'un mode de fonctionnement auquel est associé une configuration logicielle. La spécification des règles de transition entre ces modes de fonctionnement permet alors de générer l'implantation des mécanismes de changement de mode, ainsi que des reconfigurations logicielles associées. Le code ainsi produit respecte les contraintes de réalisation des systèmes critiques et implante des mécanismes de reconfiguration sûrs et analysables. Pour ce faire, nous avons défini un nouveau langage de description d'architecture (COAL : Component Oriented Architecture Language) qui permet de bénéficier à la fois des avantages du génie logiciel à base de composants (de type Lightweight CCM), et des techniques d'analyse, de déploiement et de configuration statique, qu'apporte l'utilisation des langages de description d'architecture (et en particulier AADL : Architecture Analysis and Description Language). Nous avons alors réalisé un nouveau framework à composant, MyCCM-HI (Make your Component Container Model - High Integrity), qui exploite les constructions de COAL pour (i) générer le modèle AADL permettant de réaliser le déploiement et la configuration statique de l'application TR2E, (ii) générer le code de déploiement et de configuration des composants logiciels de type Lightweight CCM, (iii) générer le code correspondant aux mécanismes d'adaptation du système, et (iv) analyser formellement le comportement du système, y compris en cours d'adaptation. Ce framework à composant est disponible au téléchargement à l'adresse http ://myccm-hi.sourceforge.net.
79

Design thinking and the precautionary principle : development of a theoretical model complementing preventive judgment for design for sustainability enriched through a study of architectural competitions adopting LEED

Cucuzzella, Carmela 03 1900 (has links)
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales. / This thesis is a contribution to the general theory of design thinking. In the prevalent demand for a sustainable development, the main objective of this research is the construction of a theoretical model of design thinking that contextualizes standard sustainability evaluation tools. The basis of these normative tools is analyzed in four dimensions: ontological, methodological, epistemological and teleological. Indications of potential counter-productive effects of these norms for design thinking confirm the need for a theory of qualitative judgment. Our central hypothesis revolves around the benefits of the underlying conceptual framework of the ‘precautionary principle’ for design thinking, the first formulations of which goes back to the early seventies in Germany, and was in fact created as a way to address the failures of traditional scientific evaluation tools or methods. The thesis comprises five parts. Beginning with a historical perspective, a review of classical models of design thinking, specifically focuses on the evolving approaches for addressing sustainable development. Theories of “green design” coming from the early sixties, theories of ecological design of the seventies and eighties are finally converging on the developing theories of “sustainable design” formulated in the early nineties. The underlying theories of the precautionary principle are then reviewed and explored for the specific context of design within the perspective of sustainability. Current methods of standard risk assessment methods are compared to a precautionary approach, revealing their conceptual limits for design thinking. A preliminary theoretical model for design thinking is then constructed adopting the theories underlying the precautionary principle. This model represents a global vision for judging the design project in a context of sustainability, rather than on traditional approaches for risk assessment, which are purposive and instrumental. The precautionary principle is further explored for the specific context of architectural design. This exploration begins with a historical perspective of the classical notion of ‘prudence’ for guiding architectural judgment. In light of the contemporary issues related to sustainability, we then examine the challenges of judging architectural projects given the increasing international prominence of such standard evaluation methods (i.e. Leadership in Energy and Environmental Design, LEED). The thesis proposes a reinterpretation of design thinking as proposed by Donald A. Schön is introduced such that the use of tools, like LEED can be contextualized. This exercise reveals an epistemological barrier, which shall be taken into consideration when reformulating the theoretical model. In accordance with a constructivist epistemology, a new theoretical model is therefore confronted to the study and illustration of three contemporary Canadian architectural competitions adopting the standard evaluation method LEED. A preliminary set of ‘tensions’ identified in the judgment process and design thinking is further categorized into their conceptual counterparts. These are: (1) analogical/logical conceptualization; (2) epistemological/methodological uncertainty; (3) interpretive/analytic comparability; and (4) universal/contextual relevance of the proposal. These conceptual tensions are considered as vectors that come into correlation with the theoretical model, enriching it, yet without validating it, in the positivist sense of the word. These confrontations with the real, help better define the epistemological barrier identified above. This thesis therefore highlights the often underestimated impact of environmental standards on the judgment process and design thinking, with particular, albeit non restrictive, reference to contemporary Canadian architectural competitions for public buildings. It concludes by stressing the need for a new form of “reflective prudence” in design thinking along with a more critical use of current evaluation tools for sustainability founded on a global integration rather than on the opposition of environmental approaches.
80

L'enseignement de l'architecture à l'École des beaux-arts de Québec : ses antécédents, son dévelppement et son apport à la profession

Légaré, Denyse 25 April 2018 (has links)
Fondée en 1922, l'École des beaux-arts est la première institution à offrir un enseignement spécialisé aux aspirants architectes à Québec. Mise sur pied par le gouvernement du Québec avec le concours d'artistes, d'architectes et d'enseignants français, la structure des écoles de Québec et de Montréal est calquée sur le modèle de l'École des beaux-arts de Paris. La prise à charge par l'État de l'enseignement de l'architecture bouleverse le réseau de l'enseignement technique et supérieur. Elle donne ses lettres de noblesse à l'enseignement artistique en le détachant des écoles de métiers. Elle écarte l'architecture du domaine des sciences pour l'intégrer aux arts, s'appropriant par la même occasion un domaine spécialisé de l'éducation, auparavant sous l'autorité du clergé. Les objectifs principaux de l'école sont de répandre la connaissance de l'art et de développer le goût du beau, tout en préparant des artisans, des hommes de profession et des artistes capables de participer au développement de la société industrialisée. Moins de dix ans après l'ouverture des écoles, les professeurs invités sont remplacés par des directeurs et professeurs formés dans la tradition des beaux-arts et jouissant d'une profonde connaissance du milieu québécois. La section d'architecture de Québec accueille des élèves jusqu'en 1937. Le cours a une durée moyenne de cinq à six ans. Le discours de l'École des beaux-arts est fondé sur la théorie de Julien Guadet, exposée dans un ouvrage qui s'est rapidement imposé à Paris et dans toutes les écoles régionales comme une source d'enseignement de grande valeur. Les élèves s'initient à la composition architecturale par des exercices et travaux d'ateliers, auxquels ils consacrent le plus clair de leur temps. En quinze ans, l'école de Québec aura octroyé trente-sept diplômes d'architecture. Une fois admis à la pratique, généralement un an après l'obtention de leur diplôme, les architectes exercent seuls ou en association. À Québec, la montée des architectes diplômés des beaux-arts est remarquable. Entre 1927 et 1950, vingt-sept d'entre eux réaliseront plus de six cents projets d'architecture publique, religieuse et privée. Leur œuvre témoigne de l'influence de leur formation académique à l'École des beaux-arts. / Québec Université Laval, Bibliothèque 2013

Page generated in 0.062 seconds