• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 891
  • 470
  • 95
  • 20
  • 9
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 1536
  • 563
  • 362
  • 311
  • 246
  • 234
  • 192
  • 166
  • 155
  • 152
  • 151
  • 135
  • 131
  • 111
  • 102
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
631

Reliability and cost efficiency in coding-based in-network data storage and data retrieval for IoT/WSNs / Fiabilité et efficacité de l'usage énergétique dans le stockage et récupérabilité des données basées sur la théorie du codage dans les réseaux sans fil intégré dans le contexte du IoT

Souza Oliveira, Camila Helena 09 December 2015 (has links)
Dans cette thèse, nous nous intéressons à cette gestion des données dans les réseaux de capteurs sans fil intégrés dans un contexte IoT. Plus précisément, nous aborderons la problématique du stockage des données au sein même du réseau de capteurs en se posant la question suivante : Comment stocker provisoirement les données dans le réseau de capteurs de sorte que ces données soient facilement accessible par les consommateurs tout en assurant le meilleur compromis entre la fiabilité de livraison des donnés et la préservation des ressources énergétiques des capteurs ?Il s'agit dans un premier temps de proposer un système fiable de stockage de données basé sur la théorie du codage réseau et sur le modèle de communication « Publish/Subscribe ». Le système proposé est adapté à l'architecture des réseaux de capteurs ainsi qu'aux besoins des applications et services IoT localisés. Pour démontrer la validité du système de stockage proposé, des évaluations de performances au travers d'une analyse mathématique et de simulations sont conduites. Celles-ci montrent clairement une augmentation de la fiabilité de la livraison des données aux consommateurs avec un taux de livraison des paquets de 80% en moyenne. Afin d'améliorer encore plus les performances du système de stockage de données, nous proposons, dans un second temps, l'optimisation du système afin que celui-ci puisse réaliser le stockage des données de manière adaptative et autonome, tout en assurant le meilleur compromis entre fiabilité et coût. Ce dernier se traduit par l'impact du système de stockage sur la consommation d'énergie du réseau de capteurs sans fil. À notre connaissance, notre système est le premier à proposer d'assurer la fiabilité du stockage des données en fonction des demandes des services et des conditions du réseau. L'évaluation des performances, par simulation, de notre système de stockage adaptatif et autonome montre que l'optimisation du stockage des données (formulée sous forme d'un processus de décision Markovien (MDP)) selon les conditions de fonctionnement du réseau permet l'accès à 70% de données en plus comparativement au système non-adaptatif proposé précédemment. Ce résultat est obtenu tout en augmentant la durée de vie du réseau de 43%.Après avoir travaillé sur l'aspect quantitatif des performances du réseau à travers une étude sur le compromis coût - consommation énergétique, nous nous intéresserons dans la troisième contribution de cette thèse à l'utilisation de notre système de stockage dans des réseaux de capteurs sans fil disposant de cycles de services (cycle d'endormissement-réveil) variables. Aujourd'hui, les réseaux de capteurs reposant sur le standard 802.15.4 peuvent utiliser des cycles de services variables et avoir recours à l'endormissement des nœuds dans le but d'économiser leur énergie. Dans une première partie de cette contribution, nous avons ainsi proposé une amélioration du mécanisme de gestion du cycle de service (duty cycle) du standard 802.15.4 afin de le rendre dynamique et adaptable au trafic réseau. L'évaluation des performances par simulations de l'amélioration proposée montre que celle-ci aboutit à une économie d'énergie très significative tout en permettant au réseau de capteurs sans fil de remplir sa mission de prise en charge du trafic généré. Dans une seconde partie de cette contribution, nous évaluons les performances de notre système de stockage de données dans le but d'évaluer si un tel mécanisme pourrait cohabiter positivement avec un mécanisme de cycle de service variable (condition d'exploitation réaliste du réseau). L'évaluation des performances montre que l'activation d'un cycle de service variable dans le réseau de capteurs n'apporte aucune amélioration au niveau de la consommation énergétique mais que le compromis optimal entre la fiabilité et la consommation énergétique obtenu par notre système de stockage adaptatif et autonome n'est pas non plus affecté, celui-ci est maintenu / Wireless Sensor Networks (WSN) are made up of small devices limited in terms of memory, processing and energy capacity. They work interconnected and autonomously in order to monitoring a region or an object of interest. The evolution in the development of devices more powerful (with new capability such as energy harvesting and acting) and less expensive made the WSNs a crucial element in the emergence of Internet of Things (IoT). Nonetheless, assuming the new applications and services offered in the IoT scenario, new issues arise in the data management performed in the WSNs. Indeed, in this new context, WSNs have to deal with a large amount of data, now consumed on-demand, while ensure a good trade-off between its reliability and retrievability, and the energy consumption. In the scope of this thesis, we are interested in the data management in the WSN in the context of IoT realm. Specifically, we approach the problem of in-network data storage by posing the following question: How to store data for a short term in the WSNs so that the data could be easily retrieved by the consumers while ensuring the best trade-off between data reliability and conservation of energy resources? Foremost, we propose a reliable data storage scheme based on coding network, and assuming a communication model defined by the Publish/Subscribe paradigm. We validate the efficiency of our proposal by a theoretical analyses that is corroborate by a simulation evaluation. The results show that our scheme achieves a reliability of 80% in data delivery with the best cost-benefit compared to other data storage scheme. Aiming to further improve the performance of the data storage scheme proposed in our first contribution, we propose its optimization (modeling it as a Markov Decision Process (MDP)) in order to store data with optimal trade-off between reliability and communication overhead (in this context, also seen as energy consumption), and in an autonomously and adaptive way. For the best of our knowledge, our optimized data storage scheme is the only to ensure data reliability while adapt itself according to the service requirements and network condition. In addition, we propose a generalization of the mathematical model used in our first contribution, and a system model that defines the integration of WSNs performing our data storage scheme in the context for which it was envisaged, the IoT realm. Our performance evaluation shows that our optimization allows the consumers to retrieve up to 70% more packets than a scheme without optimization whereas increase the network lifetime of 43%.Finally, after being interested in finding the best trade-off between reliability and cost, we now focus on an auxiliary way to reduce the energy consumption in the sensor nodes. As our third contribution, we propose a study, in two parts, to measure how much a node activity scheduling can save energy. First, we propose an improvement in the duty cycle mechanism defined in the 802.15.4. Then, we propose a duty cycle mechanism introduced into our data storage scheme aiming at saving energy in the storage nodes. The simulation results show that our solution to the duty cycle mechanism in 802.15.4 led in considerable saving in energy costs. However, regarding duty cycle in our data storage scheme, it did not end up in more energy saving. Actually, as our optimized scheme already saves as much resource energy as possible while ensuring high reliability, the duty cycle mechanism can not improve the energy saving without compromise the data reliability. Nonetheless, this result corroborates that our scheme, indeed, performs under the optimal trade-off between reliability and communication overhead (consumption energy)
632

Techniques de conservation d'énergie pour les réseaux de capteurs sans fil / Energy conservation techniques for wireless sensor networks

Kacimi, Rahim 28 September 2009 (has links)
Les progrès technologiques réalisés ces dernières années ont permis le développement de nouveaux types de capteurs dotés de moyens de communication sans fil, peu onéreux et pouvant être configurés pour former des réseaux autonomes. Les domaines d'application sont nombreux : domotique, santé, domaine militaire ou bien encore surveillance de phénomènes environnementaux. Les limites imposées sont la limitation des capacités de traitement, de stockage et surtout d'énergie. La liberté laissée à l'implantation est forte et impose de concevoir complètement l'infrastructure, les mécanismes et les protocoles en fonction de l'application visée. Dans cette thèse, nous nous sommes tout d'abord focalisés sur des réseaux de petites tailles. Nous avons conçu une solution protocolaire "Placide" pour le suivi de la chaîne du froid proposée dans le cadre du projet ANR-CAPTEURS. L'originalité première de la solution repose sur l'absence d'infrastructure et de Station de Base. Elle est composée de protocoles performants fondés sur la formation d'un anneau virtuel entre les noeuds, auto-organisants et très économes en énergie. Le second axe est dédié à une étude expérimentale de la qualité du lien.L'objectif est double. Nous souhaitions tout d'abord étayer certaines hypothèses effectuées dans la première partie du travail. Il s'agissait ensuite de proposer des protocoles et des algorithmes fondés sur la qualité du lien. Nous nous sommes focalisés sur la variation de la qualité du lien en fonction de la distance entre les noeuds et de la puissance de transmission. Par la suite, l'impact de la qualité du lien sur la topologie du réseau a été étudiée. Les retours d'expérience sont importants quant à la compréhension des facteurs affectant la durée de vie du réseau. La dernière contribution concerne l'exploitation de ces observations en proposant des stratégies de partage decharge. Notre idée est que des protocoles très réduits et des mécanismes simples peuvent être mis en oeuvre pour le routage. Nous illustrons ces principes au travers d'exemples pour lesquels nous montrons la supériorité de ces solutions par rapport à des routages de type plus court chemin. / Technological advances during the last few years allowed the development of new and cheap sensors equiped with wireless communication which can be configured to form autonomous networks. The application areas for wireless sensor networks (WSN) are various: home automations, health care services, military domain, and environment monitoring. The imposed constraints are limited capacity of processing, storage, and especially energy. In addition, implementing WSN solutions is highly open and requires that the infrastructure, the mechanisms and the protocols should be completely designed based on each specific application.In this thesis, we first focused on small networks. We designed « Placide », a protocol stack solution for cold chain monitoring proposed within the ANR-CAPTEURS project. The first originality of this solution is based on the absence of infrastructure and base stations. « Placide » is composed of self-organizing and energy-efficient protocols based on a virtual ring construction between nodes. The second topic is devoted to an experimental study on Link Quality Indicator (LQI). There are two main objectives. Firstly, we want to endorse our precise assumptions of the first part of the work. Secondly, our poposed link quality based protocols and algorithms willbe described. We focused on LQI variations according to distance between nodes and transmission power.Thereafter, the impact of LQI on the network topology has been studied. Feedbacks are important to understand which factors affect the network lifetime. The last contribution relates to the use of these observations by proposing load balancing strategies. Our idea is that very reduced protocols and simple mechanisms can be used in routing protocols. We illustrate these principles through simple examples where we show the superiority of these solutions compared to standard routing like shortest path for example.
633

Surfactant-free synthesis of magnetic latex particles / Synthèse de particules de latex magnétiques en l'absence de tensioactif

Li, Keran 30 October 2015 (has links)
Ce travail de thèse décrit l'élaboration de latex hybrides oxyde de fer (OF)/polymère par polymérisation en émulsion sans tensioactif. Des nanoparticules d'OF cationiques ont été tout d'abord synthétisées par co-précipitation de sels de fer dans l'eau. Des latex hybrides magnétiques ont été ensuite obtenus par deux voies de polymérisation. La première consiste en la synthèse de particules de latex de morphologie 'carapace' par polymérisation en émulsion Pickering du styrène et du méthacrylate de méthyle (MMA). Un comonomère auxiliaire (acide (méth)acrylique ou acide 2-acrylamido-2-méthyl-1-propane sulfonique) a été utilisé pour favoriser l'adsorption des OF à la surface des particules de polymère produites. Les analyses par MET indiquent la présence d'OF à la surface des particules de polymère (structure carapace). L'analyse thermogravimétrique a permis de quantifier l'efficacité d'incorporation des OF, i.e. la fraction d'OF initialement introduits effectivement adsorbés à la surface des particules. L'efficacité d'incorporation augmente avec la quantité de comonomère auxiliaire, le pH et la concentration en OF et dépend de la nature du monomère hydrophobe. Dans la deuxième voie, les OF ont été encapsulés par polymérisation radicalaire contrôlée par transfert de chaîne réversible par addition-fragmentation (RAFT) en émulsion aqueuse. La stratégie utilisée repose sur l'utilisation de macroagents RAFT amphiphiles comportant des groupements acide carboxylique connus pour interagir avec la surface des OF. L'interaction entre les macroRAFTs et les OF a été étudiée à travers le tracé de l'isotherme d'adsorption. Des analyses SAXS et DLS indiquent la formation de clusters d'oxyde de fer. Ces derniers ont été ensuite engagés dans la polymérisation en émulsion du styrène ou d'un mélange de MMA et d'ABu (ratio massique : 90/10) pour former une écorce de polymère à leur surface. Les particules carapace et les OF encapsulés affichent un comportement superparamagnétique / This work describes the elaboration of polymer/iron oxide (IO) hybrid latexes through surfactant-free emulsion polymerization. Cationic iron oxide nanoparticles stabilized by nitrate counterions were first synthesized by the co-precipitation of iron salts in water. Magnetic hybrid latexes were next obtained by two polymerization routes carried out in the presence of IO. The first route consists in the synthesis of polymer latexes armored with IO via Pickering emulsion polymerization of methyl methacrylate (MMA) or styrene (St). An auxiliary comonomer (namely methacrylic acid, acrylic acid or 2-acrylamido-2-methy-1- propane sulfonic acid) was used to promote IO particle adhesion to the surface of the generated polymer particles. TEM showed the presence of IO at the surface of the polymer particles and the successful formation of IO-armored polymer particles. TGA was used to quantify the IO incorporation efficiency, which corresponds to the fraction of IO effectively located at the particle surface. The incorporation efficiency increased with increasing the amount of auxiliary comonomer, suspension pH and IO content or with increasing monomer hydrophobicity. In the second route, IO encapsulation was investigated via reversible addition-fragmentation chain transfer (RAFT)-mediated emulsion polymerization. The developed strategy relies on the use of water-soluble amphipathic macromolecular RAFT agents containing carboxylic acid groups, designed to interact with IO surface. The interaction between the macroRAFT agents and IO was investigated by the study of the adsorption isotherms. Both DLS and SAXS measurements indicated the formation of dense IO clusters. These clusters were then engaged in the emulsion polymerization of St or of MMA and nbutyl acrylate (90/10 wt/wt) to form a polymer shell at their surface. Both IO-armored latex particles and polymer-encapsulated clusters display a superparamagnetic behavior
634

Solutions pour l'auto-adaptation des systèmes sans fil / Solutions for the self-adaptation of wireless systems

Andraud, Martin 14 June 2016 (has links)
La demande courante de connectivité instantanée impose un cahier des charges très strict sur la fabrication des circuits Radio-Fréquences (RF). Les circuits doivent donc être transférées vers les technologies les plus avancées, initialement introduites pour augmenter les performances des circuits purement numériques. De plus, les circuits RF sont soumis à de plus en plus de variations et cette sensibilité s’accroît avec l’avancées des technologies. Ces variations sont par exemple les variations du procédé de fabrication, la température, l’environnement, le vieillissement… Par conséquent, la méthode classique de conception de circuits “pire-cas” conduit à une utilisation non-optimale du circuit dans la vaste majorité des conditions, en termes de performances et/ou de consommation. Ces variations doivent donc être compensées, en utilisant des techniques d’adaptation.De manière plus importante encore, le procédé de fabrication des circuits introduit de plus en plus de variabilité dans les performances des circuits, ce qui a un impact important sur le rendement de fabrication des circuits. Pour cette raison, les circuits RF sont difficilement fabriqués dans les technologies CMOS les plus avancées comme les nœuds 32nm ou 22nm. Dans ce contexte, les performances des circuits RF doivent êtres calibrées après fabrication pour prendre en compte ces variations et retrouver un haut rendement de fabrication.Ce travail de these présente une méthode de calibration post-fabrication pour les circuits RF. Cette méthodologie est appliquée pendant le test de production en ajoutant un minimum de coût, ce qui est un point essentiel car le coût du test est aujourd’hui déjà comparable au coût de fabrication d’un circuit RF et ne peut être augmenté d’avantage. Par ailleurs, la puissance consommée est aussi prise en compte pour que l’impact de la calibration sur la consommation soit minimisé. La calibration est rendue possible en équipant le circuit avec des nœuds de réglages et des capteurs. L’identification de la valeur de réglage optimale du circuit est obtenue en un seul coup, en testant les performances RF une seule et unique fois. Cela est possible grâce à l’utilisation de capteurs de variations du procédé de fabrication qui sont invariants par rapport aux changements des nœuds de réglage. Un autre benefice de l’utilisation de ces capteurs de variation sont non-intrusifs et donc totalement transparents pour le circuit sous test. La technique de calibration a été démontrée sur un amplificateur de puissance RF utilisé comme cas d’étude. Une première preuve de concept est développée en utilisant des résultats de simulation.Un démonstrateur en silicium a ensuite été fabriqué en technologie 65nm pour entièrement démontrer le concept de calibration. L’ensemble des puces fabriquées a été extrait de trois types de wafer différents, avec des transistors aux performances lentes, typiques et rapides. Cette caractéristique est très importante car elle nous permet de considérer des cas de procédé de fabrication extrêmes qui sont les plus difficiles à calibrer. Dans notre cas, ces circuits représentent plus des deux tiers des puces à disposition et nous pouvons quand même prouver notre concept de calibration. Dans le détails, le rendement de fabrication passe de 21% avant calibration à plus de 93% après avoir appliqué notre méthodologie. Cela constitue une performance majeure de notre méthodologie car les circuits extrêmes sont très rares dans une fabrication industrielle. / The current demand on ubiquitous connectivity imposes stringent requirements on the fabrication of Radio-Frequency (RF) circuits. Designs are consequently transferred to the most advanced CMOS technologies that were initially introduced to improve digital performance. In addition, as technology scales down, RF circuits are more and more susceptible to a lot of variations during their lifetime, as manufacturing process variability, temperature, environmental conditions, aging… As a result, the usual worst-case circuit design is leading to sub-optimal conditions, in terms of power and/or performance most of the time for the circuit. In order to counteract these variations, increasing the performances and also reduce power consumption, adaptation strategies must be put in place.More importantly, the fabrication process introduces more and more performance variability, which can have a dramatic impact on the fabrication yield. That is why RF designs are not easily fabricated in the most advanced CMOS technologies, as 32nm or 22nm nodes for instance. In this context, the performances of RF circuits need to be calibrated after fabrication so as to take these variations into account and recover yield loss.This thesis work is presenting on a post-fabrication calibration technique for RF circuits. This technique is performed during production testing with minimum extra cost, which is critical since the cost of test can be comparable to the cost of fabrication concerning RF circuits and cannot be further raised. Calibration is enabled by equipping the circuit with tuning knobs and sensors. Optimal tuning knob identification is achieved in one-shot based on a single test step that involves measuring the sensor outputs once. For this purpose, we rely on variation-aware sensors which provide measurements that remain invariant under tuning knob changes. As an auxiliary benefit, the variation-aware sensors are non-intrusive and totally transparent to the circuit.Our proposed methodology has first been demonstrated with simulation data with an RF power amplifier as a case study. Afterwards, a silicon demonstrator has then been fabricated in a 65nm technology in order to fully demonstrate the methodology. The fabricated dataset of circuits is extracted from typical and corner wafers. This feature is very important since corner circuits are the worst design cases and therefore the most difficult to calibrate. In our case, corner circuits represent more than the two third of the overall dataset and the calibration can still be proven. In details, fabrication yield based on 3 sigma performance specifications is increased from 21% to 93%. This is a major performance of the technique, knowing that worst case circuits are very rare in industrial fabrication.
635

La protection juridique des migrants en situation irrégulière comme processus politique : une négociation discursive constante entre politisation par l’humanitaire et dépolitisation par l’État

Asavei, Lavinia January 2013 (has links)
Cette thèse porte sur la question de la migration irrégulière. Plus précisément, elle porte sur la protection des droits des migrants en situation irrégulière dans le contexte européen de sécurisation de la migration. Cette thèse vise à répondre à l'absence d'interrogation sur la protection des migrants vulnérables en situation irrégulière dans les disciplines sociales, notamment en Relations Internationales. L'argument est basé sur la littérature en sécurité critique traitant de la décriminalisation du migrant en situation irrégulière et visant le dévoilement de l’artificialité de toute exclusion politique. Cette thèse s’ancre aussi dans la littérature des mouvements sociaux se concentrant sur l’accès des migrants en situation irrégulière aux droits sociaux et politiques des pays occidentaux. Elle est aussi inspirée par le corpus de littérature traitant des questions de la citoyenneté, de l’identité politique et de l’inclusion politique. Au plan empirique, cette thèse repose sur une analyse systématique du discours de plusieurs ONG humanitaires françaises, italiennes et espagnoles. L'analyse entend distribuer plus de 200 documents sur un axe allant de la dépolitisation, comprise comme l’exclusion du corps politique des migrants en situation irrégulière, vers la répolitisation, comprise comme l’inclusion politique des migrants concernés. À l'aide de cette grille d'analyse, cette thèse tentera de mettre en lumière une nouvelle façon d’argumenter la protection. La protection des droits des migrants en situation irrégulière peut se réaliser non seulement à travers le processus traditionnel d'octroi et de reconnaissance des droits par l'État du haut vers le bas mais, de plus en plus souvent et avec une assez grande efficacité, du bas vers le haut, en ayant comme point de départ le migrant lui-même et la société civile qui l’appuie dans ses revendications par rapport à l'État. Cette thèse argumente ainsi l'importance de mettre l'accent sur la politique de la protection, les jeux de pouvoir, les négociations entre plusieurs acteurs qui font et défont la protection l’inclusion et l’exclusion politique du migrant en situation irrégulière, le tout étant conçu comme processus de politisation-dépolitisation. Cette thèse affirme que toute décision juridique est avant tout une négociation politique qui doit impliquer une multitude d'acteurs et non seulement les États. Une plus grande importance devrait être accordée aux acteurs de la société civile et à l'individu lui-même concerné par l'exclusion, une meilleure crédibilité et une meilleure place dans la politique de la protection. Cette recherche affirme aussi que, dans ce contexte, l'humanitaire voit son intervention réformée, il devient un humanitaire politisé, activement engagé dans la protection des droits et par conséquent, dans la politisation du migrant en situation irrégulière. De là, toute l'importance de mettre en évidence l'existence de ce mouvement de protection sur la place publique, orchestré par l'humanitaire, et de voir par quels discours, par quelles stratégies et vers quels buts cette mobilisation de l'humanitaire se réalise.
636

Facteurs déterminants du pouvoir de panification de l’amidon de manioc modifié par fermentation et irradiation UV / Determinant factors affecting breadmaking ability of cassava starch modified by fermentation and UV irradiation

Maldonado Alvarado, Pedro Gustavo 21 May 2014 (has links)
Compte tenu que la capacité de panification de l'amidon aigre, amidon de manioc modifié par fermentation et irradiation UV, n'a pas encore été complètement élucidée, l'influence du génotype et les traitements post-récolte sur le pouvoir de panification de l'amidon aigre a été l'objectif de ce travail. 13 génotypes de manioc de Colombie, cultivés à 1000 m. et 1700 m.p.n.m (3 de plaine et 10 d'altitude, respectivement) modifiés par fermentation (0 ou30 jours) et séchage (four ou soleil) ont été étudiés. Les analyses de la taille des granules, la viscosité d'empesage RVA et la viscosité intrinsèque révèlent que les traitements post-récolte ont été les facteurs prépondérants en vue de l'amélioration de la capacité de panification tandis que le facteur génotype a présenté une influence moins importante. Parmi les traitements post-récolte, la fermentation a présenté un effet plus prononcé sur la structure des granules d'amidon, que le séchage au soleil. Cependant, la combinaison de ces deux traitements a été nécessaire pour obtenir une forte capacité de panification. L'effet d'altitude de culture a été mis en évidence lors de la fermentation par des sensibilités différentes trouvées entre les granules de plaine et d'altitude (exocorrosion et endocorrosion, respectivement). Les génotypes d'altitude, donc, ont montré une bonne capacité de panification. Néanmoins, d'autres facteurs entrent en jeu, la teneur en amylose mesurée par DSC a influencé négativement l'expansion de la pâte, probablement en raison de la formation de complexes amylose-lipide. Par conséquent, la combinaison de génotypes de manioc (la teneur en amylose principalement) et les traitements post-récolte sont un élément clé de la capacité de panification de l'amidon aigre. Ces contributions peuvent aider à l'établissement de standards de qualité de l'amidon aigre vis à vis de leur potentielle utilisation dans la fabrication des produits sans-gluten. / The breadmaking ability of sour cassava starch, cassava starch modified by fermentation and UV irradiation, have not been yet fully elucidated. The influence of genotype and postharvest treatments on expansion ability of sour cassava was the objective of this work. Thirteen cassava genotypes have been studied. All genotypes proceeded from Colombia. Two altitudes of origin (1000 m. and 1700 m.a.s.l. refered to respectively as lowland and highland), fermentation treatments (0 or 30 days) and drying treatments (oven or sun) were considered. Analyses of the granule size, RVA pasting behavior and intrinsic viscosity were analysed as indicators of breadmaking ability. Results showed that post-harvest treatments were prevailing factors in improving breadmaking ability while the genotype factors had a smaller influence. Among post-harvest treatments, fermentation had a greater influence than sun-drying on these indicators, in particular on starch granular structure. The combination of both treatments was needed to obtain a high capacity bread. Furthermore, the altitude of origin of cassava genotypes was observed to affect the fermentation process: different sensitivities to fermentation were found between granules of lowland and highland (exocorrosion and endocorrosion, respectively). Highland genotypes showed a better breadmaking ability. Other influencing factor related to genotype was the amylose content measured by DSC: it negatively influenced the expansion of the dough, probably due to the formation of amylose-lipid complex. As a conclusion, the combination of cassava genotypes (mainly amylose content) and post-harvest treatment is key for expansion ability of sour starch. This knowledge is a first, essential step to provide quality standards for sour starch, targeted particularly for use in gluten-free products.
637

Pince acoustique : piégeage et manipulation d'un objet par pression de radiation d'une onde progressive / Acoustical tweezers : trapping and manipulation of small objects with the radiation pressure of progressive sound waves

Baresch, Diego 26 November 2014 (has links)
La pression de radiation acoustique est la force moyenne qu'une onde peut exercer sur un obstacle. Initialement, la faible manifestation de cette force ne suggérait pas d'applications potentielles. Néanmoins, avec l'avènement de sources acoustiques de haute puissance, il a rapidement été envisagé de manipuler de petits objets à distance par pression de radiation. Depuis, c'est via l'excitation d'ondes stationnaires dans des cavités que cette méthodologie connait son essor. Parallèlement, la pression de radiation de la lumière a rapidement permis de piéger et de manipuler des petits objets. Grâce à un laser fortement focalisé, la pince optique a donné une grande flexibilité aux techniques de manipulation sans contact et est devenue un outil fondamental pour de nombreuses disciplines scientifiques. Cependant, les faibles forces développées, les importantes intensités lumineuses requises et la petite taille des objets sont d'importantes limites tout particulièrement pour leur application en biologie.A l'heure actuelle, il n'existe pas l'équivalent de la pince optique en acoustique utilisant un unique faisceau. Le travail présenté donne un ensemble d'éléments théoriques et expérimentaux profitables pour la compréhension de la pression de radiation en acoustique et le dimensionnement d'une pince acoustique utilisant un unique faisceau ultrasonore : le vortex acoustique. Ce travail esquisse l'ébauche d'une nouvelle méthode de manipulation sans contact donnant une véritable dextérité de préhension. Les faibles intensités nécessaires associées aux larges forces développées sauront se montrer attractives pour imaginer un large panel de nouvelles applications scientifiques. / As an acoustic wave impinges an obstacle, a mean force is exerted on its surface. This so-called radiation pressure arises from the non linear interaction between the wave and the object.The early history of this force did not suggest any application of such a feeble effect. Nevertheless, as technological advances improved the prospects of new powerful sound sources, it was rapidly considered to use the acoustic radiation pressure as a mean of non-contact manipulation of small objects. Ever since, standing wave schemes excited in cavities has been the preferred strategy that is becoming considerably popular.In the same time, the radiation pressure of light was also recognised to trap and manipulate very small objects. Using a single focused laser beam, optical tweezers brought a great dexterity to non contact manipulation techniques and rapidly grew to become a fundamental tool in many scientific fields. However, the minuteness of the force, the high intensities required and the smallness of trappable objects are well-known limitations in particular for biological applications.Although optics and acoustics have shown many similarities, an acoustical analogue to optical tweezers using a single beam is yet to be demonstrated. Theoretical and experimental efforts are presented here and shed light on the underpinning mechanisms of single-beam acoustical tweezers. The analysis of a peculiar beam's radiation pressure, i.e. acoustical vortices, unveiled new characteristics for single-beam trapping. Our experimental demonstration along with the low intensities required and the large forces developed show promise for a wide spectrum of new scientific applications.
638

HMC-MAC : un protocole MAC hybride et multi-canal pour les réseaux de capteurs sans fil / HMC-MAC : hybrid multi-channel MAC protocol for wireless sensor networks

Diab, Rana 15 June 2015 (has links)
L'utilisation des canaux multiples améliore significativement les performances globales des réseaux de capteurs sans fil (RCSF) en permettant des transmissions parallèles sur plusieurs canaux. Cependant, la mise en place d’un protocole MAC multi-canal dans un réseau multisauts nécessite une méthode efficace d’allocation des canaux pour permettre une coordination entre les nœuds afin de partager les canaux disponibles. Dans cette thèse, nous nous intéressons à la conception d’un protocole MAC multi-canal qui répond aux exigences des applications de collecte de données à haut débit dans un réseau multi-saut. Pour ce faire, nous abordons d’abord les principales façons d’utiliser plusieurs canaux pour réaliser le partage du médium. Ensuite, nous proposons un protocole MAC multi-canal, répondant aux exigences des RCSF à haut débit, qui combine les trois techniques TDMA, CSMA et FDMA. En effet, nous utilisons une nouvelle méthode d’allocation des canaux qui permet aux nœuds de choisir le canal de réception le plus convenable dans leurs voisinages jusqu’à 3-sauts d’une façon distribuée afin de minimiser les effets des interférences et des collisions. Enfin, nous évaluons par simulation les performances de notre protocole et nous le comparons à d’autres protocoles proposés dans la littérature. Les résultats obtenus montrent l’efficacité de notre proposition dans les différents scénarios étudiés. / The use of multi-channel significantly improves the overall network performance of wireless sensor networks (WSNs) by allowing parallel transmissions over multiple channels. However, the design of a multi-channel MAC protocol in a multi-hop network requires an efficient channel allocation method that allows the coordination between the nodes in order to share available channels. In this thesis, we focus on the conception of a multi-channel MAC protocol that meets the requirements of high data collection applications in a multi-hop network. In order to achieve this goal, we first present the main techniques to use multiple channels to realize medium access sharing. Then, we propose a multi-channel MAC protocol that meets the requirements of high data rate WSNs, which combines three techniques TDMA, FDMA and CSMA. Indeed, we use a new channel assignment method that enables nodes to choose the most convenient channel in their 3-hop neighborhood in a distributed manner in order to minimize the effects of interferences and collisions. Finally, we evaluate by simulation the performance of our protocol and we compare it to other protocols proposed in the literature. The results show the efficiency of our proposition in the different studied scenarios.
639

Deleuze : la pensée sans image / Deleuze : thought without image

Bénit, Bernard 07 January 2017 (has links)
Dans ses premières œuvres, Deleuze recherche une "pensée sans image", inséparable de la critique de "l'image de la pensée", c'est-à -dire de la représentation. Le problème, organisant alors la philosophie de Deleuze, est celui du rapport de la pensée avec l'image, problème qui est repris .et déplacé, de Nietzsche et la philosophie à Différence et répétition. Pour "décrire" les actes d'une pensée sans image, Deleuze procède en trois étapes : "le point de départ" est la critique de l'image de la pensée, la dénonciation de la représentation et de ses présupposés, qui emprisonnent et dénaturent la pensée. "Le véritable commencement" consiste, dès lors, à dégager les conditions, non de l'expérience possible comme dans la représentation, mais de l'expérience réelle, c'est-à-dire une nouvelle image de la pensée qui la libère de la représentation. A l'image représentative de la pensée, Deleuze substitue donc une nouvelle image de la pensée qui est l'ensemble des conditions d'une pensée sans image. Enfin, la troisième étape, "l'authentique répétition", est la mise à jour d'une pensée sans image, sub-représentative. Loin d'être naturelle, donnée à un penseur de bonne volonté, comme recognition, la pensée sans image est création de penser dans la pensée, pensée sauvage, nomade, qui nait sans modèle préalable, ni ressemblance : elle surgit de la rencontre violente avec le signe qui la force à penser. Autrement dit, la pensée sans image, c'est le système du simulacre. / In his early works, Deleuze looks for a "thought without image", inseparable from the critique of the "image of thought", i.e. of representation. The problem, organizing Deleuze's philosophy, is the relation of thought with the image problem that is picked up and moved, from Nietzsche and phi/osophy to Difference and repetition. To "describe" the acts of a thought without image, Deleuze proceeds in three steps: "the starting point" is the criticism of the image of thought, the denunciation of representation and its presuppositions, which trap and distort the thought. "The real beginning" consists, therefore, in identifying the conditions, not of experience possible such in the representation, but the actual experience, which is a new image of thought that frees it from the representation. The representative image of thought, Deleuze substitute to a new image of thought which is the set of conditions for a thought without image. Finally, the third step, "the authentic repetition", is the update of a thought without image, sub­ representative. Far from being natural, given to a thinker of goodwill, like recognition, the thought without image is creation of thinking in thought, thought wild, nomadic, who was born without prior model, or likeness: it arises from the violent encounter with the sign that forces it to think. In other words, the thought without image, is the system of the simulacrum.
640

Communication térahertz sans fil à haut débit avec un transistor à haute mobilité électronique comme détecteur / High data-rate wireless terahertz communication using a High-electron-mobility transistor as detector

Juery, Lucie 17 December 2014 (has links)
Un des objectifs majeurs des systèmes de communication est de pouvoir transmettre des données aux plus hauts débits possibles. La demande croissante des utilisateurs pour la communication sans fil à haut débit excède déjà les possibilités des réseaux actuels. Afin de répondre à cette problématique, nous présentons des systèmes de communication basés sur des fréquences porteuses térahertz (THz), fréquences suffisamment élevées pour supporter des débits supérieurs à la centaine de gigahertz. En particulier, nous nous intéressons au développement et à l'intégration d'un détecteur haut débit destiné à la communication THz sans fil. Nous utilisons comme détecteur un transistor GaAs à haute mobilité électronique (HEMT). Contrairement aux détecteurs existants tels que les diodes Schottky, le transistor étudié offre des avantages en ce qui concerne le coût, la compacité et les performances. En particulier, l'impédance de sortie est mieux adaptée aux circuits intégrés hauts débits d'impédance d'entrée de 50 Ohm. Nous présentons une caractérisation de ce détecteur en sensibilité et en bande passante de modulation, démontrant pour la première fois sa capacité à être utilisé pour des communications à haut débit. L'intégration du transistor, indispensable à la réalisation de communications réelles, est détaillée. Une communication THz sans fil est démontrée à des fréquences de 0,200 THz et 0,309 THz. Pour la première fois, une transmission de données sans erreur a été démontrée jusqu'à un débit de 8,2 Gbps avec un transistor GaAs HEMT à une fréquence porteuse de 0,309 THz. Enfin, nous présentons de nouveaux transistors avec antenne intégrée permettant des communications à plus haut débit et de plus grande portée, grâce à une meilleure sensibilité. / One of the major objectives of communication systems is the ability to transmit data at the highest possible rates. The ever-growing user demand for wireless communication already exceeds capacities of present networks.In order to solve this problem, we introduce communication systems based on terahertz (THz) high-frequency carriers, whose frequencies are high enough to support data-rates higher than a hundred of gigahertz. In particular, we are interested in the development and the integration of a high data-rate detector intended for THz wireless communication.We use a GaAs High-electron-mobility transistor (HEMT) as detector. Unlike existing detectors such as Schottky diodes, the transistor studied in this thesis offers advantages in terms of cost, compactness and performances. In particular, the output impedance is more suitable for high data-rate integrated circuits whose input impedance is 50 Ohm. We present the characterization of the detector in terms of sensitivity and modulation bandwidth, demonstrating for the first time its ability to be used for high data-rate communications. The transistor's integration, essential for real communications, is detailed.A wireless THz communication is demonstrated around 0.200 THz and 0.309 THz. For the first time, an error-free transmission at data-rates up to 8.2 Gbps is demonstrated, using a GaAs plasma wave HEMT and a 0.309 THz carrier frequency. Finally, we present new transistors with integrated antenna, allowing communications at higher data-rates and with a longer range, thanks to a better sensitivity.

Page generated in 0.0343 seconds