• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 213
  • 60
  • 16
  • 4
  • 1
  • 1
  • Tagged with
  • 300
  • 162
  • 57
  • 52
  • 46
  • 46
  • 44
  • 38
  • 38
  • 33
  • 32
  • 31
  • 31
  • 29
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Aux frontières du virtuel : depuis ma fenêtre / In the virtual borders : from my window

Park, Ja Yong 17 October 2015 (has links)
Nous nous situons toujours «aux frontières de» pour contempler : devant une porte, une fenêtre, un cadre, un espace ou un miroir. Ma réflexion commence à partir de ma fenêtre, mon espace intime. « Aux frontières du virtuel : depuis ma fenêtre » nous incite à tenter de découvrir où se cache la gravité des choses, où se situe l'essence même des choses où leur «existence pure», à travers la notion de virtuel si difficilement perceptible. Cette thèse s'articule en trois grandes parties : Virtualité espace interne et externe ; Virtualité : l'apparition par-delà : photographies et reflets dans l’art ; Virtualité : au-delà de la disparition. Dans la philosophie orientale (Taoïsme et Bouddhisme) et la philosophie occidentale, la notion de virtuel concerne tous les phénomènes universels qui nous entourent, y compris ce qui a trait à notre propre regard ou à notre esprit. Elle évoque quelques concepts contradictoires : «le visible et l’invisible», «la présence et l’absence», «l’apparition et la disparition», «l’émergence et l’évanescence», etc. Elles les lie l’un et l’autre comme les deux faces d’une même monnaie. En Orient, le virtuel peut se retrouver dans la notion de vide qui est intimement liée à celle d'existence, comme cette recherche qui concerne ce qui n’est pas toujours visible, peu souvent perceptible par un regard. Dans la peinture Shansuie, le vide peut signifier un nuage, le vent ou l’eau. Nous nous situons toujours dans une transition temporelle ou un passage physique où il est difficile de percevoir ce qui va apparaitre et ce qui est présent, face à nous. / We always situate "the borders" to contemplate: a front door, a window, a frame, a space or a mirror. My reflection starts from my window, my intimate space. "In the virtual borders: from my window'' drives us to try to find out where things gravity hiding or is the essence of things or their "pure existence" through the concept of virtual which is hardly noticeable. This thesis has three main parts: Virtuality: internal and external space; Virtuality: the appearance beyond: photographs and reflections in the art; virtuality beyond the disappearance. In Eastern philosophy (Buddhism and Taoism) and Western philosophy, the concept of virtual respect all universal phenomena around us, including respect to our own eyes or mind. It evokes some conflicting concepts: "the visible and the invisible", "the presence and absence", "The appearance and disappearance", "the emergence and evanescence" etc. It binds both of them as two sides of the same coin. In the Eastern countries, the virtual can be found in the vacuum concept which is intimately linked to that of existence, as this research regarding what is not always visible, rarely discernible by eye. In painting Shan shui, the vacuum may mean a cloud, wind or water. We always situate in a time of transition or a physical place where it is difficult to see what will appear and what is present, facing us.
142

Méthode d'évaluation des performances annuelles d'un régulateur prédictif de PAC géothermiques sur banc d'essai semi-virtuel / A method for estimating the annual performance of a predictive controller for ground source heat pumps on a semi-virtual test bench

Salque, Tristan 15 October 2013 (has links)
Avec le développement récent de régulateurs innovants pour le bâtiment, il devient nécessaire de mettre au point une méthode de test qui soit à la fois rapide, reproductible et réaliste. La méthode développée dans cette thèse permet d'obtenir des performances annuelles de régulateurs de pompes à chaleurs (PAC) géothermiques en seulement quelques jours de test. Basé sur une technique d'émulation déjà utilisée pour des tests de PAC géothermiques et de systèmes solaires combinés, le test permet d'incorporer le régulateur et la PAC réels dans un environnement de simulation calibré par des mesures in-situ. Chaque jour de test correspond à un jour type de chaque mois. Le développement de la méthode consiste à déterminer la séquence de jours types optimale permettant une bonne estimation des performances. La méthode est ensuite testée expérimentalement sur le banc semi-virtuel pour comparer un régulateur prédictif à un régulateur conventionnel sur une saison de chauffage. Pour les besoins de la méthode, un régulateur prédictif de PAC géothermiques est développé. Ce régulateur utilise des réseaux de neurones pour la prévision des données météo et de la température ambiante. Un nouveau module pour la prévision des températures dans le plancher chauffant et les sondes géothermiques est proposé. Le régulateur prédictif est testé par simulation sur une saison de chauffage pour différents climats et types de maisons individuelles. En fonction de la référence, les économies d'énergie réalisées varient entre 6% et 15%. / With the recent development of innovative controllers for the building, there is a need to develop a testing method that is fast, reproducible and realistic. The method developed in this study aims to estimate the annual performance of ground source heat pump (GSHP) controllers in only a few days of test. Based on emulation techniques already used for GSHP and solar combined systems, the test immerses the controller and a real GSHP in a simulated environement that is calibrated with in-situ data. Each day of test represents a typical day of the month. The development of the method consists in determining the optimal typical days that ensure an accurate estimation of annual performance. The method is then experimentally tested on the semi-virtual test bench for the comparison of a predictive controller and a conventionnal controller over an entire heating season.To develop the method, a predictive controller for GSHP is elaborated. The controller is based on artificial neural networks used for the prediction of weather data and indoor temperature. A new module for the prediction of floor heating and boreholes fluid temperatures is also proposed. The predictive controller is tested by simulation over a heating season for various climates and types of single family house. According to the reference case, the energy savings vary between 6% and 15%.
143

Conception d'une plate-forme de prototypage virtuel de réseaux d'interconnexion / Designing a virtual prototyping framework of interconnection networks

Nguyen, Tuan-Anh 17 December 2014 (has links)
Les systèmes HPC ("High-Performance Computing") sont des systèmes conçus avec des centaines de milliers de nœuds de calcul interconnectés entre eux par un réseau de communication de haute performance, lui-même assemblé suivant une variété de topologie par des nœuds de routage. La conception du réseau d'interconnexion d'un système HPC revêt une importance capitale dans la performance finale du système. La complexité de cette conception requiert la mise en œuvre d'un environnement de prototypage virtuel afin de pouvoir analyser et valider les hypothèses et options micro et macro-architecturales dès les premières étapes de la conception. Les travaux de cette thèse sont dédiés au développement d'une plate-forme de prototypage virtuel nommée CoSIN ("Composition and Simulation of Interconnected Network") pour assister les architectes de la société Bull S.A.S. dans leur conception des systèmes HPC. Ces travaux répondent au défi de modélisation et de simulation de réseaux de très grand taille (de 10^4 à 10^5 nœuds) et ce en des temps acceptables. Pour ce faire, l'environnement de programmation SystemC a été mis en parallèle afin de fournir une puissance de calcul et une capacité de mémoire distribuées. En plus de l'aspect conceptuel, a thèse se veut aussi pragmatique en produisant comme résultat, un outil déjà applicable à des projets de conception industriels / High-Performance Computing (HPC) systems are distributed systems made of hundreds of thousands of processing nodes communicating through large packet-switched interconnection networks with a variety of topologies. The design of those interconnection networks impacts the overall performance of the HPC systems. Due to increasing system complexity, virtual prototyping is becoming necessary at earlier stages of the design to assist in the analysis and validation of micro and macro-architectural hypotheses and options. This thesis is dedicated to the development of such a virtual prototyping framework named CoSIN ("Composition and Simulation of Interconnected Network") with the purpose of providing support to the architectural design of HPC systems at Bull S.A.S. Technical challenges of the work are in the modelling and simulation of large interconnection networks (from 10^4 to 10^5 nodes) within acceptable times. Distribution of SystemC has been necessary to support this objective. In addition to the conceptual aspect, the thesis is also pragmatic by producing as results, a tool already applicable to industrial design projects
144

Une évolution permanente : nouveaux essais artistiques et nouveaux médias - Études de Mons 2015 et du Festival d’Art Numérique de Taipei / A permanent evolution : new artistic trials and new media - Studies of Mons 2015 and Taipei Digital Art Festival

Chiu, Hsiao-Chen 21 October 2016 (has links)
Cette thèse est une méditation sur l’art numérique et la perception, qui espère offrir un regard approfondi sur ces sujets. L’évolution technologique, comme le feu de Prométhée, apporte la lumière, et change le mode de vie humain, mais aussi les critères de l’art, en plus de nous introduire dans un monde inimaginable d’hyper-sensations. Science et technologie se déploient dans tous les domaines de la vie, le développement de l’interaction homme-machine nous inonde de dispositifs numériques et multimédia au quotidien, et nous rend familiers des mondes virtuels. Cette recherche explore les interactions entre l’art numérique et ses environnements de création et d’exposition.Deux études de terrain sont ici mises en relation : Le Festival d’Art Numérique de Taipei et Mons 2015, et soulignent un rapport art-science-société comme problématique. D’un point de vue sociologique, l’art numérique représente un microcosme de la société virtuelle et un macrocosme du monde réel, par la création d’une communauté virtuelle invisible.La science technologique incarne l’esprit humain et l’espace-temps, car la relation entre l’homme et la technologie marque la société contemporaine, où le scientifique et l’artiste peuvent créer des mondes imaginaires tout en traversant les oppositions dichotomiques entre la réalité et la virtualité. Ce travail de thèse permet ainsi d’explorer des entrecroisement entre le spectateur et l’œuvre, entre les mondes intelligible et sensible, réel et virtuel, visible et invisible. / This research is a meditation between digital art and perception of real-life, which hopes to offer a comprehensive look on these issues. Technology developments, such as the fire of Prometheus, not only bring the lights and changes in nature’s way into our daily life, but also the Principles and criteria of art. In addition, the new media bring us into unimaginable and hyper-sensations world. Science and technology are deployed and infiltrated in all area, the development of man-machine interaction flooded with digital devices and media every day, and make us rely on virtual worlds unconsciously. This research explores the interactions between digital art, digital art creation and exhibition environments.Two case studies are made here is related to: The Taipei Digital Art Festival and Mons 2015, and highlight a report art-science-society as problematic definition. From sociological point of view, digital art represents a microcosm of the virtual society and a macrocosm of the real world, by creating an invisible virtual community.Technological science embodies the human spirit and the space-time, because the relationship between man and technology marks contemporary society, where the scientist and the artist can create imaginary worlds while crossing dichotomous oppositions between reality and virtuality. This work allows us to explore the intersection between the viewer and the work, between intelligible and sensible worlds, real and virtual, visible and invisible.
145

Synthèse acoustique d'un module de ventilation automobile / Acoustic synthesis of an automotive HVAC

Legros, Maxime 20 September 2016 (has links)
La problématique de la qualité sonore à l'intérieur de l'habitacle est importante dans le domaine de l'automobile, particulièrement dans le cas des véhicules haut de gamme. La réduction du bruit des motorisations thermiques et l'émergence de solutions hybrides ou électriques ont transformé la perception du bruit par l'utilisateur. La contribution acoustique des équipements tels que le module de ventilation est devenue prépondérante et doit donc être étudiée dès la phase de conception. Afin de traiter la problématique acoustique et de fournir un outil de prototypage virtuel, ce travail a été mené dans le cadre du projet Cevas (Conception d'Equipement de Ventilation à Air Silencieux). Une approche de synthèse acoustique permet d'identifier les composants responsables du bruit produit et transmis. Leurs caractéristiques actives, traduites par un terme de source, et passives, traduites par un terme de perte par transmission, sont étudiées et représentées par des spectres en bandes fines. Cette définition permet la synthèse sonore du bruit produit et l'étude de la qualité sonore à l'aide de lois d'acceptation. Le ventilateur est la source principale d'un module de ventilation. Son terme de source est prédit par une loi originale, basée sur des données expérimentales et inspirée de la loi ASHRAE. Le terme de source du volet est caractérisé à l'aide de la méthode empirique de Nelson et Morphey. Le terme de source de l'échangeur thermique est déterminé à partir de mesures. Les termes de perte par transmission du volet et de l'échangeur thermique sont obtenus à l'aide de la matrice de diffusion expérimentale. L'environnement du milieu de propagation acoustique a une influence sur le bruit produit. La transposition des termes de source d’un environnement d'essai normalisé à un environnement représentatif des modules de ventilation a donc été étudiée. La méthode développée repose sur la modélisation du terme de source par une force volumique dont l'amplitude et la localisation sont indépendantes du milieu. Le développement de cette méthode a nécessité des modèles analytiques et numériques. L'application de la méthode pour un ventilateur placé dans un module de ventilation simplifié est confrontée à des essais. Un outil de prototypage virtuel est présenté pour un module de ventilation simplifié. La prédiction du bruit produit est confrontée à des mesures de puissance acoustique. L'usage de l'outil de prototypage permet d'étudier la contribution de chaque composant en considérant différents cas de ventilation. / The sound quality problem inside the car cabin is important in the automotive field, especially in the case of upmarket vehicles. The reductions of the noise produced by internal combustion engines and the emergence of hybrid and electric solutions have transformed the perception of sound by the user. The acoustic contribution of equipment such as the HVAC has become paramount and must be studied from the design stage. In order to treat acoustic problems and provide virtual prototyping tools, t his thesis was conducted within the framework of the Cevas project (Conception d'Equipement de Ventilation à Air Silencieux) to study and characterize the components of an automotive HVAC. An acoustic synthesis approach is used to identify the components responsible for the noise generated and transmitted. Their active and passive properties, translated by a source term and a transmission loss, have been studied and represented by thin strips spectra. This definition allows sound synthesis of the noise produced and the study of sound quality using acceptance laws. The source term of the fan is predicted by an original law, based on experimental data and inspired by ASHRAE law. The source term of the flap is characterized by using the Nelson and Morphey empirical method. The source term of the heat exchanger is determined from measurements. The transmission losses of the flap and the heat exchanger are obtained using the scattering matrix. The transposition of the source terms from a standardized test environment to an acoustic medium representative of the HVAC has been studied. The developed method is based on modeling t he source term by acoustic excitation whose amplitude and location are independent of the environment. The application of this method has required analytical and numerical models to characterize the acoustic excitation. In the case of the fan, its propagation in a simplified HVAC is studied. A virtual prototyping tool has been implemented in the case of the simplified HVAC. The noise prediction is confronted with sound power measurements. The use of the prototyping tool allows studying the contribution of each component considering various cases of ventilation.
146

Design of a radio direction finder for search and rescue operations : estimation, sonification, and virtual prototyping / Navigation guidée par sonification des signaux GSM dans un contexte de secours

Poirier-Quinot, David 18 May 2015 (has links)
Cette thèse étudie le design et la conception d’un Goniomètre Radio Fréquence (GRF) visant à assister les services de secours à la personne (e.g. équipes de sauvetage déblaiement), exploitant les téléphones des victimes à retrouver comme des balises de détresse radio. La conception est focalisée sur une interface audio, utilisant le son pour guider progressivement les sauveteurs vers la victime. L’ambition de la thèse est d’exploiter les mécanismes naturels propres à l’audition humaine pour améliorer les performances générales du processus de recherche plutôt que de développer de nouvelles techniques d’Estimation de Direction de Source (EDS).Les techniques d’EDS classiques sont tout d’abord exposées, ainsi qu’une série d’outils permettant d’en évaluer les performances. Basée sur ces outils, une étude de cas est proposée visant à évaluer les performances attendues d’un GRF portable, adapté aux conditions d’emploi nominales envisagées. Il est montré que les performances des techniques dites « à haute résolution » généralement utilisées pour l’EDS sont sérieusement amoindries lorsqu’une contrainte de taille/poids maximum est imposée sur le réseau d’antennes associé au GRF, particulièrement en présence de multi-trajets de propagation entre le téléphone ciblé et le tableau d’antenne.Par la suite, une étude bibliographique concernant la sonification par encodage de paramètres (Parameter Mapping Sonification) est proposée. Plusieurs paradigmes de sonification sont considérés et évalués en rapport à leur capacité à transmettre une information issue de différents designs de GRF envisagés. Des tests d’écoute sont menés, suggérant qu’après une courte phase d’entrainement les sujets sont capables d’analyser plusieurs flux audio en parallèle ainsi que d’interpréter des informations de haut niveau encodées dans des flux sonores complexes. Lesdits tests ont permis de souligner le besoin d’une sonification du GRF basée sur une hiérarchie perceptive de l’information présentée, permettant aux débutants de focaliser leur attention sans efforts et uniquement sur les données les plus importantes. Une attention particulière est portée à l’ergonomie de l’interface sonore et à son impact sur l’acceptation et la confiance de l’opérateur vis-à-vis du GRF (e.g. en ce qui concerne la perception du bruit de mesure pendant l’utilisation du GRF pendant la navigation).Finalement, un prototype virtuel est proposé, simulant une navigation basée sur le GRF dans un environnement virtuel pour en évaluer les performances (e.g. paradigmes de sonification proposés plus haut). En parallèle, un prototype physique est assemblé afin d’évaluer la validité écologique du prototype virtuel. Le prototype physique est basé sur une architecture radio logicielle, permettant d’accélérer les phases de développement entre les différentes versions du design de GRF étudiées. L’ensemble des études engageant les prototypes virtuels et physiques sont menées en collaboration avec des professionnels des opérations de recherche à la personne. Les performances des designs de GRF proposés sont par la suite comparées à celles des solutions de recherche existantes (géo-stéréophone, équipes cynotechniques, etc.).Il est montré que, dans le contexte envisagé, un simple GRF basé sur la sonification en parallèle des signaux provenant de plusieurs antennes directionnelles peut offrir des performances de navigations comparables à celles résultantes de designs plus complexes basés sur des méthodes à haute résolution. Puisque l’objectif de la tâche est de progressivement localiser une cible, la pierre angulaire du système semble être la robustesse et la consistance de ses estimations plutôt que sa précision ponctuelle. Impliquer l’utilisateur dans le processus d’estimation permet d’éviter des situations critiques où ledit utilisateur se sentirait impuissant face à un système autonome (boîte noire) produisant des informations qui lui semblent incohérentes. / This research investigates the design of a radio Direction Finder (DF) for rescue operation using victims' cellphone as localization beacons. The conception is focused on an audio interface, using sound to progressively guide rescuers towards their target. The thesis' ambition is to exploit the natural mechanisms of human hearing to improve the global performance of the search process rather than to develop new Direction-Of-Arrival (DOA) estimation techniques.Classical DOA estimation techniques are introduced along with a range of tools to assess their efficiency. Based on these tools, a case study is proposed regarding the performance that might be expected from a lightweight DF design tailored to portable operation. It is shown that the performance of high-resolution techniques usually implemented for DOA estimation are seriously impacted by any size-constraint applied on the DF, particularly in multi-path propagation conditions.Subsequently, a review of interactive parameter mapping sonification is proposed. Various sonification paradigms are designed and assessed regarding their capacity to convey information related to different levels of DF outputs. Listening tests are conducted suggesting that trained subjects are capable of monitoring multiple audio streams and gather information from complex sounds. Said tests also indicate the need for a DF sonification that perceptively orders the presented information, for beginners to be able to effortlessly focus on the most important data only. Careful attention is given to sound aesthetic and how it impacts operators' acceptance and trust in the DF, particularly regarding the perception of measurement noise during the navigation.Finally, a virtual prototype is implemented that recreates DF-based navigation in a virtual environment to evaluate the proposed sonification mappings. In the meantime, a physical prototype is developed to assess the ecological validity of the virtual evaluations. Said prototype exploits a software defined radio architecture for rapid iteration through design implementations. The overall performance evaluation study is conducted in consultation with rescue services representatives and compared with their current search solutions.It is shown that, in this context, simple DF designs based on the parallel sonification of the output signal of several antennas may produce navigation performance comparable to these of more complex designs based on high-resolution methods. As the task objective is to progressively localize a target, the system's cornerstone appears to be the robustness and consistency of its estimations rather than its punctual accuracy. Involving operators in the estimation allows avoiding critical situations where one feels helpless when faced with an autonomous system producing non-sensical estimations. Virtual prototyping proved to be a sensible and efficient method to support this study, allowing for fast iterations through sonifications and DF designs implementations.
147

Méthode de modélisation prédictive de boîtiers des circuits intégrés en vue d’anticiper avant design l’immunité au bruit du circuit / predictive modeling method of electronic packages for noise immunity prediction

Bouchaala, Afef 02 December 2016 (has links)
Avec la miniaturisation de plus en plus poussée des composants sur silicium, certains phénomènes, connus sous le nom des problèmes de la Compatibilité Électromagnétique peuvent surgir, ils sont les principales causes de la reconception des systèmes intégrés. Ce travail de thèse consiste à développer une méthodologie d'analyse prédictive de la compatibilité électromagnétique pour les systèmes électroniques, par anticipation design. Afin d'aboutir à ce modèle prédictif, différents champs d'investigation ont été mise en place afin d'appréhender l'ensemble du problème. Premièrement, nous avons développé une méthode de prédiction des parasites du boîtier électronique appelée « MCTL Matrix Method ». Cette méthode est issue du principe du prototypage virtuel du boîtier et elle est basée sur des lignes de transmission multiconducteurs. Deuxièmement, nous avons proposé une méthodologie d'analyse de l'immunité du système complet dès les premières phases de la conception. / Modern electronic systems require a high-level of integrations. As a result, some phenomena which are known as ElectroMagnetic Compatibility (EMC) issues are arising, and they are the major causes of system redesign. This main objective of this work is to develop a predictive methodology for systems immunity. To do so, different fields have been investigated: first, we have developed a predictive method for package parasites called “MCTL Matrix Method” which is based on a virtual package prototyping and Multiconductor transmission lines. Then we have proposed a new methodology for system immunity at the earliest design stages.
148

Le marché français de la téléphonie mobile face à l'entrée du 4e opérateur, Free / The France’s mobile phone market faced with the entry of the 4th operator, Free

Bonanet, Sarah 01 June 2016 (has links)
En fin 2009, les autorités de la concurrence ont accordé une 4ème licence de téléphonie mobile à Free, opérateur français déjà présent dans le fixe et l'internet. Le nouvel opérateur ne disposant pas d'un réseau mobile complet, il a obtenu l'autorisation de signer un contrat d'itinérance avec l'opérateur historique Orange, permettant aux abonnés de Free d'avoir accès au réseau dans les zones non encore couvertes. Vu sa dépendance à Orange, Free peut être considéré comme un opérateur mobile virtuel. Nous utilisons un paramètre qui décrit le niveau d'indépendance de Free et peut prendre trois valeurs possibles. D'abord Free est un opérateur totalement dépendant d'Orange. Ensuite, une partie du trafic de Free passe par son propre réseau. Enfin, Free est un opérateur autonome comme Orange, SFR et Bouygues Telecom. A partir d'une analyse de statique comparative, nous étudions les conséquences de l'octroi de cette licence sous une concurrence à la Cournot. Lorsque Free est un opérateur totalement dépendant d'Orange avec un tarif faible d'accès au réseau d'Orange, son entrée entraîne une baisse du prix, des profits de certains opérateurs titulaires et une hausse du surplus du consommateur. Cependant l'ampleur de la baisse est plus importante quand Free devient plus indépendant. La concurrence à la Stackelberg permet de mieux constater la baisse de prix après l'entrée de Free. Ainsi, l'objectif de cette thèse est de souligner l'importance de la prise en compte du contrat d'itinérance pour analyser les effets de l'entrée de Free. Free a eu des impacts négatifs sur ses concurrents notamment Bouygues Telecom. Pour se maintenir dans le secteur, il existe trois possibilités de fusion. Les fusions avec Free ou SFR-Numéricable se font avec réduction de coûts, tandis que celle avec Orange est sans synergie. L'analyse de ces fusions montre qu'elles sont à la fois rentables et socialement bénéfiques. Ainsi dans cette thèse, nous montrons que toute fusion ne générant aucune synergie, n'est pas forcément anticoncurrentielle. Cependant un dilemme se pose pour Bouygues Telecom, car la fusion acceptée par les autorités de régulation n'est pas celle qui lui procure le profit le plus élevé. / At the end of 2009, the competition authorities have granted a 4th mobile license to Free, French operator already present in the fixed telephony and the Internet. The new operator not having a good coverage, he obtained permission to sign a roaming agreement with the incumbent operator Orange, enabling Free subscribers access to the network in areas not yet covered. Given its dependence on Orange, Free can be seen as a virtual mobile operator. We use a parameter that describes the level of independence of Free and can take three possible values. At first Free is an operator totally dependent on Orange. Then, a part of the traffic of Free passes by its own network. Finally, Free is an independant operator like Orange, SFR and Bouygues Telecom. From a comparative static analysis, we study the consequences of the granting of this license under Cournot competition. When Free is an operator totally dependent on Orange, with a low rate of access to the Orange network, its entry leads to a reduction of price and profits of some incumbent operators with an increase in consumer surplus. However the magnitude of the reduction is greater when Free becomes more independent. Stackelberg competition allows to notice better the price reduction after the entry of Free. Thus, the objective of this thesis is to highlight the importance of the inclusion of the roaming contract to analyze the effects of the entry of Free. Free had negative impacts on his competitors, in particular Bouygues Telecom. To remain in the sector, there are three possibilities of merger. The mergers with Free or SFR-Numericable are made with reduction of costs, whereas that with Orange is without synergy. The analysis of these mergers show that they are at the same time profitable and socially beneficial. Thus in this thesis, we show that any merger creates no synergy, is not necessarily anti-competitive. However a dilemma arises for Bouygues Telecom, because the merger accepted by the authorities of regulation is not the one that gives him the highest profit.
149

La théorie de la machine lacanienne : de la production du virtuel à la chaîne

Saint-Jevin, Alexandre 22 November 2014 (has links)
L'analyse de la théorie de la machine de Jacques Lacan, qui sera une des premièresépistémologies de la machine cybernétique, permet de rapprocher la psychanalysecontemporaine et les sciences cognitives, tout en révélant leurs particularitésherméneutiques dans l’exégèse de la conception cybernéticienne de la machine. Àl'aune des théories de la cybernétique, notamment des textes de Turing, Lacan relirala notion freudienne d'appareil psychique en termes de machine cybernétique, afind'y intégrer les apports du structuralisme saussurien et lévi-straussien. Il proposeraune lecture psychanalytique s'appuyant sur une approche philosophique de lacybernétique, par une lecture kanto-bergsonienne de la théorie des jeux,kierkegaardienne du feedback et aristotélicienne de l'automatique. Cette lecture luipermit de révéler l'importance épistémologique du passage d'une conception spatialed'un appareil mécaniste localisé à une conception temporelle d'une machine logiquesans localisation, à travers l'avènement des topiques de Sigmund Freud. Lapsychanalyse passera ainsi d'une métaphore théâtrale de l'inconscient à celle d'uneusine, permettant à Lacan de donner une définition du virtuel qui influencera lapensée deleuzienne.Ainsi, la machine lacanienne révèle la part inhumaine constituant toute humanité.C’est la dimension mortifère propre à l’accès au symbolique. / The analysis of Jacques Lacan’s machine theory will be one of the firstepistemology of cybernetic machine. It allows us to make links betweencontemporary psychoanalysis and cognitive sciences, and it enlightens theirhermeneutical exegesis particularities of the cybernetic machine’s conception at thesame time. In the light of cybernetics’ theories includind texts of Turing, Lacan readin cybernetic terms the Freudian concepts of psychic apparatus in order to includethe contributions of Saussurian and Levi-Straussian structuralism. Lacan presents apsychoanalytic reading of cybernetics based on philosophy, offering a Kanto-Bergsonian reading of the «theory of game», a Kierkegaardian feedback andAristotelian automatic. It allows him to reveal the epistemological importance of thepassage from a spatial conception of a mechanical located device to a timeconception of a logical machine without location, through the advent of Freudiantopography. Psychoanalysis changes from a theatrical metaphor into a unconsciousa s a factory. It enables Lacan to give a definition of virtual which is going toinfluence Deleuze’s thinking.The Lacanian Machine reveals the inhuman part of the humanity. It is the specificdeath-dealing dimension in order to reach the symbolic
150

Simulation numérique et approche orientée connaissance pour la découverte de nouvelles molécules thérapeutiques / Numeric simulation and knowledge-oriented approach for the discovery of new therapeutic molecules

Ghemtio Wafo, Léo Aymar 07 May 2010 (has links)
L’innovation thérapeutique progresse traditionnellement par la combinaison du criblage expérimental et de la modélisation moléculaire. En pratique, cette dernière approche est souvent limitée par la pénurie de données expérimentales, particulièrement les informations structurales et biologiques. Aujourd'hui, la situation a complètement changé avec le séquençage à haut débit du génome humain et les avancées réalisées dans la détermination des structures tridimensionnelles des protéines. Cette détermination permet d’avoir accès à une grande quantité de données pouvant servir à la recherche de nouveaux traitements pour un grand nombre de maladies. À cet égard, les approches informatiques permettant de développer des programmes de criblage virtuel à haut débit offrent une alternative ou un complément aux méthodes expérimentales qui font gagner du temps et de l’argent dans la découverte de nouveaux traitements.Cependant, la plupart de ces approches souffrent des mêmes limitations. Le coût et la durée des temps de calcul pour évaluer la fixation d'une collection de molécules à une cible, qui est considérable dans le contexte du haut débit, ainsi que la précision des résultats obtenus sont les défis les plus évidents dans le domaine. Le besoin de gérer une grande quantité de données hétérogènes est aussi particulièrement crucial.Pour surmonter les limitations actuelles du criblage virtuel à haut débit et ainsi optimiser les premières étapes du processus de découverte de nouveaux médicaments, j’ai mis en place une méthodologie innovante permettant, d’une part, de gérer une masse importante de données hétérogènes et d’en extraire des connaissances et, d’autre part, de distribuer les calculs nécessaires sur les grilles de calcul comportant plusieurs milliers de processeurs, le tout intégré à un protocole de criblage virtuel en plusieurs étapes. L’objectif est la prise en compte, sous forme de contraintes, des connaissances sur le problème posé afin d’optimiser la précision des résultats et les coûts en termes de temps et d’argent du criblage virtuel / Therapeutic innovation has traditionally benefited from the combination of experimental screening and molecular modelling. In practice, however, the latter is often limited by the shortage of structural and biological information. Today, the situation has completely changed with the high-throughput sequencing of the human genome, and the advances realized in the three-dimensional determination of the structures of proteins. This gives access to an enormous amount of data which can be used to search for new treatments for a large number of diseases. In this respect, computational approaches have been used for high-throughput virtual screening (HTVS) and offer an alternative or a complement to the experimental methods, which allow more time for the discovery of new treatments.However, most of these approaches suffer the same limitations. One of these is the cost and the computing time required for estimating the binding of all the molecules from a large data bank to a target, which can be considerable in the context of the high-throughput. Also, the accuracy of the results obtained is another very evident challenge in the domain. The need to manage a large amount of heterogeneous data is also particularly crucial.To try to surmount the current limitations of HTVS and to optimize the first stages of the drug discovery process, I set up an innovative methodology presenting two advantages. Firstly, it allows to manage an important mass of heterogeneous data and to extract knowledge from it. Secondly, it allows distributing the necessary calculations on a grid computing platform that contains several thousand of processors. The whole methodology is integrated into a multiple-step virtual screening funnel. The purpose is the consideration, in the form of constraints, of the knowledge available about the problem posed in order to optimize the accuracy of the results and the costs in terms of time and money at various stages of high-throughput virtual screening

Page generated in 0.1746 seconds