• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1801
  • 762
  • 170
  • 9
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2801
  • 1025
  • 573
  • 318
  • 301
  • 278
  • 263
  • 220
  • 212
  • 204
  • 197
  • 195
  • 192
  • 177
  • 175
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Développement d'un banc ellipsométrique hyperfréquence pour la caractérisation de matériaux non transparents / Development of a microwave ellipsometric bench for the characterization of non-transparent materials

Moungache, Amir 28 October 2011 (has links)
Dans la fabrication d’un produit, la maîtrise des propriétés physiques des matériaux utilisés est indispensable. Il est donc nécessaire de déterminer leurs propriétés comportementales. On exploite en général des propriétés physiques intermédiaires telles que les propriétés électromagnétiques. Nous avons mis au point une technique de caractérisation sans contact de matériaux non transparents en transposant les concepts de base de l’ellipsométrie optique en hyperfréquence. La caractérisation se fait par résolution d’un problème inverse par deux méthodes numériques : une méthode d’optimisation classique utilisant l’algorithme itératif de Levenberg Marquardt et une méthode de régression par l’uti1isation de réseaux de neurones du type perceptron multicouches. Avec la première méthode, on détermine deux paramètres du matériau sous test à savoir l’indice de réfraction et l’indice d’extinction. Avec la deuxième, on détermine les deux indices ainsi que l’épaisseur de 1’échantillon. Pour la validation, nous avons monté un banc expérimental en espace libre à 30 GHz en transmission et en incidence oblique avec lequel nous avons effectué des mesures sur des échantillons de téflon et d’époxy de différentes épaisseurs (1 à 30 mm). Nous avons obtenu une caractérisation satisfaisante de l’indice et de l’épaisseur. Nous avons ensuite fait des mesures de trois types de papier dont la caractérisation de l’indice était satisfaisante sans toutefois les discriminer. Ces travaux ont montré la possibilité de caractériser des matériaux épais et non transparents par une technique ellipsométrique / The control of the physical properties of materials used to manufacture a product is essential. Therefore, it is necessary to determine their behavioral properties. Generally, we get them through intermediate physical properties such as electromagnetic properties. We have developed a technique for contactless characterization of non-transparent materials by applying the basic concepts of optical ellipsometry in the microwave domain. The characterization is done by solving an inverse problem through two different numerical methods: a classical optimization method using the iterative algorithm of Levenberg Marquardt and a regression method by using neural networks particularly the multilayer perceptron. With the first method, we can determine two parameters which are the refractive index and the extinction index of the sample under test. With the second method, we can determine the indices and the thickness of the sample. As a validation, we set up a 30 GHz - experimental free space bench configurated for oblique transmission incidence measurement that we have used to carry out measurements on PTFE and epoxy samples having different thicknesses (1 to 30 mm). We obtained a satisfactory characterization of the index and thickness. Then, we have carried out measurements on three types of paper. The index was satisfactorily characterized but they could not be distinguished. These studies have shown that it is possible to characterize thick and non-transparent materials using ellipsometric technics
382

Impact de l'utilisation de composants au carbure de silicium sur la mise en oeuvre d'un chargeur bidirectionnel

Fortin, Pascal-André January 2017 (has links)
Le nombre grandissant de véhicules électriques implique une grande quantité d’accumulateurs devant être alimentés par le réseau électrique. Le principe d’échange d’énergie véhicule-réseau (V2G) permet des transferts énergétiques bidirectionnels entre le réseau et les véhicules électriques. Il est ainsi possible de compter sur ces accumulateurs pour alimenter le réseau. Le chargeur intégré assure l’interface entre le réseau et ces accumulateurs. Son rendement constitue un élément majeur de la viabilité du principe V2G. Son caractère mobile est tout aussi important puisque cet appareil est intégré au véhicule. Les semi-conducteurs au carbure de silicium (SiC) présentent une percée substantielle pour atteindre le rendement et la densité énergétiques nécessaires pour un tel convertisseur. Les impacts de l’utilisation du SiC dans la conception et la mise en œuvre d’un chargeur bidirectionnel seront démontrés dans ce mémoire. La topologie du convertisseur est initialement déterminée puis dimensionnée pour les paramètres de l’étude, soit en tension et puissance. Les simulations du convertisseur exposent les différences entre une solution n’utilisant que des composants au SiC à une seconde n’utilisant que des composant au silicium (Si) traditionnellement utilisés. Une dernière solution combinant les deux types de composant a aussi été évaluée. Finalement, la mise en œuvre d’un chargeur bidirectionnel prototype démontre des phénomènes distincts entre les solutions exposant l’impact des semi-conducteurs au carbure de silicium sur le rendement du convertisseur bidirectionnel.
383

Durabilité aux cycles de gel-dégel de bétons fabriqués avec des liants binaires et ternaires

Bouchard, Régis January 2016 (has links)
La dégradation du béton associée à l’exposition en ambiance hivernale rigoureuse est une problématique connue en Amérique du Nord en raison de la sévérité du climat en période hivernale. Un des types de dégradation, la fissuration interne, se manifeste par l'apparition d'une intense microfissuration du béton en surface, mais aussi à l'intérieur de la masse. Celle-ci peut conduire à une perte de cohésion du matériau, réduisant ses caractéristiques mécaniques et sa perméabilité. Dans un souci de développement durable et de recherche performancielle, des liants ternaires, comprenant des ajouts minéraux autre que la fumée de silice ont été développés. Les études scientifiques portant sur l’influence du facteur d’espacement à ce type de dégradation sont peu nombreuses, voire inexistantes. Il est par conséquent important de vérifier si les spécifications actuelles permettent d’assurer la confection d’un matériau durable au gel. Dans ce mémoire, nous avons étudié l’influence du facteur d’espacement, du paramètre E/L, de l’influence du type de superplastifiant et d’un granulat marginal sur la résistance à la fissuration interne des bétons en utilisant l’essai accéléré normalisé ASTM C666, procédure A lors de l’utilisation de liants ternaires. Une grande partie de cette recherche a porté sur l’étude de la relation entre le facteur d’espacement et la tenue aux cycles gel-dégel des bétons. Le projet s’est divisé en 4 phases, la première a permis de déterminer un intervalle contenant le facteur d’espacement critique pour chacun des liants étudiés. Il est ainsi établi qu’il est nécessaire d’avoir un facteur d’espacement inférieur à 340 µm pour assurer la durabilité des bétons V-S formulés à partir de liants ternaires. La deuxième phase a montré que le type de superplastifiant n’influe pas sur le facteur d’espacement critique, mais change les caractéristiques du réseau d’air à l’état frais. La troisième phase a porté sur l’analyse de l’influence d’une variation du rapport E/L sur la durabilité au gel-dégel. Il en résulte qu’une variation dans les limites permises n’a pas d’incidence sur le facteur d’espacement critique tant que les hypothèses restent dans l’intervalle prescrit par le tome VII de la norme 3101. La dernière et quatrième phase a permis de montrer que le granulat marginal sélectionné n’a pas d’incidence particulière sur la résistance au gel-dégel en fissuration interne.
384

Ecoulements, imbibition et fragmentation de phase dans les milieux poreux / Flow, imbibition and phase fragmentation in porous media

Charpentier, Jean-Baptiste 04 December 2017 (has links)
Les milieux poreux sont omniprésents dans le quotidien des hommes du 21ème siècle que ce soit par hasard ou par nécessité. Certains permettent le transport d’une ou plusieurs phases fluides immiscibles, une situation à la fois courante et critique dans de nombreuses applications industrielles. Le transport d’une phase mouillante, l’imbibition, a été largement étudiée mais un certain nombre de problèmes restent ouverts. Dans cette thèse, nous nous sommes concentrés sur trois d’entre eux. La fragmentation de phase induite par la gravité dans une jonction asymétrique a été étudiée. La dynamique et un critère d’apparition ont été prédits analytiquement puis confirmés expérimentalement. Ensuite, l’évolution de l’épaisseur d’un front d’imbibition dans un réseau de capillaires a été simulée numériquement. Les résultats ont permis de lever une controverse de la littérature. Enfin, l’imbibition dans un milieu constitué de lames flexibles déformables a été explorée numériquement et expérimentalement. Il a été montré que la déformabilité des lames induit leur coalescence et agit sur la dynamique de l'imbibition. / Porous media are ubiquitous in today’s society due to chance or necessity. Some of them allow the transportation of one or several immiscible fluid phases simultaneously. This property is both usual and critical in many industrial processes. The transport of a wetting phase, imbibition, has been widely studied but lots of issues remain opened. In this manuscript, three of them are addressed. Gravity induced phase fragmentation has been studied in an asymmetric pore junction. Fragmentation criterion and dynamic are predicted analytically and confirmed experimentally. Then, the broadening of an imbibition front in a capillary network has been investigated numerically. Results resolved a controversy in the literature. Finally, imbibition in a medium made of flexible sheets has been studied both numerically and experimentally. It showed that sheets flexibility induces their clustering and influences the imbibition dynamic.
385

Weight parameterizations in deep neural networks / Paramétrisation des poids des réseaux de neurones profonds

Zagoruyko, Sergey 07 September 2018 (has links)
Les réseaux de neurones multicouches ont été proposés pour la première fois il y a plus de trois décennies, et diverses architectures et paramétrages ont été explorés depuis. Récemment, les unités de traitement graphique ont permis une formation très efficace sur les réseaux neuronaux et ont permis de former des réseaux beaucoup plus grands sur des ensembles de données plus importants, ce qui a considérablement amélioré le rendement dans diverses tâches d'apprentissage supervisé. Cependant, la généralisation est encore loin du niveau humain, et il est difficile de comprendre sur quoi sont basées les décisions prises. Pour améliorer la généralisation et la compréhension, nous réexaminons les problèmes de paramétrage du poids dans les réseaux neuronaux profonds. Nous identifions les problèmes les plus importants, à notre avis, dans les architectures modernes : la profondeur du réseau, l'efficacité des paramètres et l'apprentissage de tâches multiples en même temps, et nous essayons de les aborder dans cette thèse. Nous commençons par l'un des problèmes fondamentaux de la vision par ordinateur, le patch matching, et proposons d'utiliser des réseaux neuronaux convolutifs de différentes architectures pour le résoudre, au lieu de descripteurs manuels. Ensuite, nous abordons la tâche de détection d'objets, où un réseau devrait apprendre simultanément à prédire à la fois la classe de l'objet et l'emplacement. Dans les deux tâches, nous constatons que le nombre de paramètres dans le réseau est le principal facteur déterminant sa performance, et nous explorons ce phénomène dans les réseaux résiduels. Nos résultats montrent que leur motivation initiale, la formation de réseaux plus profonds pour de meilleures représentations, ne tient pas entièrement, et des réseaux plus larges avec moins de couches peuvent être aussi efficaces que des réseaux plus profonds avec le même nombre de paramètres. Dans l'ensemble, nous présentons une étude approfondie sur les architectures et les paramétrages de poids, ainsi que sur les moyens de transférer les connaissances entre elles / Multilayer neural networks were first proposed more than three decades ago, and various architectures and parameterizations were explored since. Recently, graphics processing units enabled very efficient neural network training, and allowed training much larger networks on larger datasets, dramatically improving performance on various supervised learning tasks. However, the generalization is still far from human level, and it is difficult to understand on what the decisions made are based. To improve on generalization and understanding we revisit the problems of weight parameterizations in deep neural networks. We identify the most important, to our mind, problems in modern architectures: network depth, parameter efficiency, and learning multiple tasks at the same time, and try to address them in this thesis. We start with one of the core problems of computer vision, patch matching, and propose to use convolutional neural networks of various architectures to solve it, instead of manual hand-crafting descriptors. Then, we address the task of object detection, where a network should simultaneously learn to both predict class of the object and the location. In both tasks we find that the number of parameters in the network is the major factor determining it's performance, and explore this phenomena in residual networks. Our findings show that their original motivation, training deeper networks for better representations, does not fully hold, and wider networks with less layers can be as effective as deeper with the same number of parameters. Overall, we present an extensive study on architectures and weight parameterizations, and ways of transferring knowledge between them
386

Diagnostic en réseau de mobiles communicants, stratégies de répartition de diagnostic en fonction de contraintes de l'application / Diagnostic of mobiles networks, strategies for the diagnostic distribution as a function of the application constraints

Sassi, Insaf 27 November 2017 (has links)
Dans la robotique mobile, le réseau de communication est un composant important du système global pour que le système accomplisse sa mission. Dans un tel type de système, appelé un système commandé en réseau sans fil (SCR sans fil ou WNCS), l’intégration du réseau sans fil dans la boucle de commande introduit des problèmes qui ont un impact sur la performance et la stabilité i.e, sur la qualité de commande (QoC). Cette QoC dépend alors de la qualité de service (QoS) et la performance du système va donc dépendre des paramètres de la QoS. C’est ainsi que l’étude de l’influence des défauts du réseau sans fil sur la QoC est cruciale. Le WNCS est un système temps réel qui a besoin d’un certain niveau de QoS pour une bonne performance. Cependant, la nature probabiliste du protocole de communication CSMA/CA utilisé dans la plupart des technologies sans fil ne garantit pas les contraintes temps réel. Il faut alors une méthode probabiliste pour analyser et définir les exigences de l’application en termes de QoS, c’est-à-dire en termes de délai, de gigue, de débit, et de perte de paquets. Une première contribution de cette thèse consiste à étudier les performances et la fiabilité d’un réseau sans fil IEEE 802.11 pour des WNCSs qui partagent le même réseau et le même serveur de commandes en développant un modèle stochastique. Ce modèle est une chaîne de Markov qui modélise la méthode d’accès au canal de communication. Ce modèle a servi pour définir les paramètres de la QoS qui peuvent garantir une bonne QoC. Nous appliquons notre approche à un robot mobile commandé par une station distante. Le robot mobile a pour mission d’atteindre une cible en évitant les obstacles. Pour garantir l’accomplissement de cette mission, une méthode de diagnostic probabiliste est primordiale puisque le comportement du système n’est pas déterministe. La deuxième contribution a été d’établir la méthode probabiliste qui sert à surveiller le bon déroulement de la mission et l’état du robot. C’est un réseau bayésien (RB) modulaire qui modélise les relations de dépendance cause-à-effet entre les défaillances qui ont un impact sur la QoC du système. La dégradation de la QoC peut être due soit à un problème lié à l’état interne du robot, soit à un problème lié à la QoS, soit à un problème lié au contrôleur lui-même. Les résultats du modèle markovien sont utilisés dans le RB modulaire pour définir l'espace d'état de ses variables (étude qualitative) et pour définir les probabilités conditionnelles de l'état de la QoS (étude quantitative). Le RB permet d’éviter la dégradation de la QoC en prenant la bonne décision qui assure la continuité de la mission. En effet, dans une approche de co-design, quand le RB détecte une dégradation de la QoC due à une mauvaise QoS, la station envoie un ordre au robot pour qu'il change son mode de fonctionnement ou qu'il commute sur un autre contrôleur débarqué. Notre hypothèse est que l’architecture de diagnostic est différente en fonction des modes de fonctionnement : nous optons pour un RB plus global et partagé lorsque le robot est connecté à la station et pour RB interne au robot lorsqu’il est autonome. La commutation d’un mode de fonctionnement débarqué à un mode embarqué implique la mise à jour du RB. Un autre apport de cette thèse est la définition d’une stratégie de commutation entre les modes de diagnostic : commutation d’un RB distribué à un RB monolithique embarqué quand le réseau de communication ne fait plus partie de l'architecture du système et vice-versa. Les résultats d’inférence et de scénario de diagnostic ont montré la pertinence de l’utilisation des RBs distribués modulaires. Ils ont aussi montré la capacité du RB développé à détecter la dégradation de la QoC et de la QoS et à superviser l’état du robot. L’aspect modulaire du RB a permis de faciliter la reconfiguration de l’outil de diagnostic selon l’architecture de commande ou de communication adaptée (RB distribué ou RB monolithique embarqué). / In mobile robotics systems, the communication network is an important component of the overall system, it enables the system to accomplish its mission. Such a system is called Wireless Networked Control System WNCS where the integration of the wireless network into the control loop introduces problems that impact its performance and stability i.e, its quality of control (QoC). This QoC depends on the quality of service (QoS) therefore, the performance of the system depends on the parameters of the QoS. The study of the influence of wireless network defects on the QoC is crucial. WNCS is considered as a real-time system that requires a certain level of QoS for good performance. However, the probabilistic behavior of the CSMA / CA communication protocol used in most wireless technologies does not guarantee real-time constraints. A probabilistic method is then needed to analyze and define the application requirements in terms of QoS: delay, jitter, rate, packet loss. A first contribution of this thesis is to study the performance and reliability of an IEEE 802.11 wireless network for WNCSs that share the same network and the same control server by developing a stochastic model. This model is a Markov chain that models the access procedure to the communication channel. This model is used to define the QoS parameters that can guarantee the good QoC. In this thesis, we apply our approach to a mobile robot controlled by a remote station. The mobile robot aims to reach a target by avoiding obstacles, a classic example of mobile robotics applications. To ensure that its mission is accomplished, a probabilistic diagnostic method is essential because the system behavior is not deterministic. The second contribution of this thesis is to establish the probabilistic method used to monitor the robot mission and state. It is a modular Bayesian network BN that models cause-and-effect dependency relationships between failures that have an impact on the system QoC. The QoC degradation may be due either to a problem related to the internal state of the robot, a QoS problem or a controller problem. The results of the Markov model analysis are used in the modular BN to define its variables states (qualitative study) and to define the conditional probabilities of the QoS (quantitative study). It is an approach that permits to avoid the QoC degradation by making the right decision that ensures the continuity of the mission. In a co-design approach, when the BN detects a degradation of the QoC due to a bad QoS, the station sends an order to the robot to change its operation mode or to switch to another distant controller. Our hypothesis is that the diagnostic architecture depends on the operation mode. A distributed BN is used when the robot is connected to the station and a monolithic embedded BN when it is autonomous. Switching from a distributed controller to an on-board one involves updating the developed BN. Another contribution of this thesis consists in defining a switching strategy between the diagnostic modes: switching from a distributed BN to an on-board monolithic BN when the communication network takes no longer part of the system architecture and vice versa -versa. The inference and diagnostic scenarii results show the relevance of using distributed modular BNs. They also prove the ability of the developed BN to detect the degradation of QoC and QoS and to supervise the state of the robot. The modular structure of the BN facilitates the reconfiguration of the diagnostic policy according to the adapted control and communication architecture (distributed BN or on-board monolithic RB).
387

Conception d'un système d'information distribué pour la conduite des flexibilités dans un réseau de distribution électrique : modélisation, simulation et implémentation / Conception of a distributed information system to manage flexibilities in electrical distribution networks : model, simulation and implementation

Vinot, Benoît 25 June 2018 (has links)
Le secteur industriel de l'énergie, et les réseaux électriques en particulier, rendent à nos sociétés modernes d'immenses services dont nous ne pouvons plus nous passer. Ils présentent aussi, hélas, un certain nombre de graves inconvénients, notamment en matière d'impact environnemental. Ces inconvénients apparaissent aujourd'hui comme inacceptables; le secteur de l'énergie s'efforce donc actuellement de les amoindrir autant que possible, dans le cadre de ce qu'on appelle la transition énergétique.Outre d'indispensables efforts en matière de sobriété et d'efficacité énergétique, deux grands axes d'amélioration se dessinent: d'une part, le remplacement progressif de certains moyens de production d'électricité conventionnels par des moyens de production renouvelables; et d'autre part, le transfert de certains usages aujourd'hui non-électriques vers l'électricité --- en particulier en matière de mobilité.L'intégration au réseau électrique de ces nouveaux types de dispositifs pose cependant des difficultés techniques considérables, qui motivent depuis le début des années 2000 de nombreux travaux sur le thème de ce que l'on appelle aujourd'hui les "smart grids": des réseaux électriques compatibles avec les exigences de la transition énergétique, c'est-à-dire capables d'accueillir massivement les nouveaux types d'usages comme la production photovoltaïque et les bornes de recharge des véhicules électriques, ceci notamment grâce à l'utilisation accrue des nouvelles technologies de l'information et de la communication. Parmi les difficultés susmentionnées, qui limitent la capacité d'accueil du réseau, figurent les congestions, c'est-à-dire les limites physiques à la puissance que l'on peut faire transiter d'un point à un autre sur une infrastructure donnée. C'est à la gestion des congestions que nos travaux sont consacrés. À ce sujet, la question fondamentale est de déterminer par quel enchaînement de mesures, de calcul, de communications et in fine d'actions, on peut passer d'une situation de contrainte sur un réseau de distribution d'électricité, à une situation où cette contrainte a été éliminée par l'action des flexibilités environnantes; autrement dit, en augmentant ou en réduisant judicieusement la production et/ou la consommation locales, et éventuellement en jouant sur d'autres types de leviers.L'objet de cette thèse est de participer à l'élaboration des outils conceptuels et informatiques qui nous permettront de répondre à la question fondamentale ci-dessus. Nos travaux portent ainsi sur la question de la modélisation des réseaux de distribution d'électricité "flexibles", et sur l'implémentation concrète des modèles retenus sous forme d'un logiciel de simulation ad hoc, parfaitement adapté à l'étude de ce type de réseaux. / The energy sector and the electrical networks in particular, provide great and indispensable services to our modern societies. Unfortunately, they also bring some serious drawbacks, especially with regard to the environment. These drawbacks are becoming more and more unacceptable; that is why the energy sector is trying to reduce them as much as possible, in the framework of the so-called energy transition.In addition to mandatory efforts in terms of energy efficiency and sobriety, two major directions of improvement have been identified: on the one hand, the progressive replacement of some conventional power plants with renewable production units; and on the other hand, the transfer of several non-electrical usages towards electricity --- in particular in the area of mobility.The integration of these new devices into electrical networks raise new technical challenges which, since the early 2000s, have been driving a lot of work about so-called "smart grids": electrical networks compatible with the requirements of the energy transition, ie. able to host new devices like photovoltaic solar panels and charging stations for electric vehicles, notably through the increasing usage of new information and communications technologies.Among the difficulties mentioned above, which limit the hosting capacity of the network, there are congestions ie. physical constraints limiting the amount of power that may be transmitted through a given infrastructure. Our work is devoted to the management of congestions. The fundamental issue thereon is to define a sequence of decisions, computations, communications and in fine actionsthat allows to move from a constrained situation on the electrical distribution network, to a situation in which the action of local flexibilities has lifted the constraint; in other words, to a situation where increasing or decreasing local generation and/or consumption, or taking some other control action, relieved the network.The aim of this thesis is to contribute to the development of conceptual and computing tools that will allow us to answer the fundamental aforementioned issue. Our work thus deals with the modelling of flexible electrical distribution networks, and with the tangible implementation of selected models in the form of ad hoc simulation software, specifically designed for the study of such networks.
388

Nanostructuration d'électrodes en interface avec le vivant / Study of nanostructured electrodes interfacing with biological cells

Bibari, Olivier 08 March 2012 (has links)
Au cours de ce travail de thèse, je présente les résultats de travaux de recherche visant à la fabrication et au développement d'une nouvelle génération d'implants cérébraux permettant l'enregistrement stable dans le temps de signaux électrophysiologiques. L'objectif est d'offrir une solution technologique pour le développement de nouvelles applications chroniques utiles pour l'investigation du fonctionnement du cerveau (ex : dynamique des réseaux de neurones, traitement de l'information) mais aussi nécessaires pour la mise au point de nouvelles technologies, de type Brain Computer Interface (BCI), qui devraient, à terme, permettre d'augmenter l'autonomie des patients atteints de troubles moteurs ou victimes d'accident ayant conduit à un handicap physique.Nous rapportons, à travers diverses études expérimentales, des arguments soutenant l'utilisation de matériaux nanostructurés et en particulier les nanotubes de carbone, pour permettre d'améliorer les performances électriques et pour diminuer leur impact sur la réponse immunitaire du cerveau induite par l'implantation d'un corps étranger. Ceci représente la principale limitation à l'utilisation d'implants de mesure sur de longues périodes.Notre étude couvre ainsi l'ensemble des problématiques relatives aux implants cérébraux, en abordant les techniques de fabrication, le protocole de caractérisation électrique et enfinl'évaluation biologique in vitro et in vivo.Dans un premier temps, nous avons développé une matrice de microélectrodes nanostructurées en utilisant les techniques de microfabrication. Ceci a permis de mettre en avant la diminution de l'impédance interfaciale des électrodes liée à l'augmentation de leurs surfaces développées et, par conséquent, l'amélioration de la qualité du signal due à la réduction du niveau de bruit de la mesure. Une analyse électrochimique complémentaire, nous a dans le même temps, permis d'établir un modèle qualitatif représentant les différents phénomènes mis en jeu et soulignant l'importance des phénomènes diffusifs lors de la mesure et leurs éventuelles conséquences in vivo.Cette première génération d'électrodes nous a également permis de mener une campagne de tests in vitro pour évaluer la cytotoxicité des nanotubes à partir de différents modèles cellulaires: cultures de lignées neuronales (NG108-15) et cellules primaires (cellules gliales7et neurones du cortex ou de l'hippocampe). Suite à ces expériences, aucune forme de toxicité n'a été décelée. Bien au contraire, l'évolution des cellules gliales pendant la culture tend à défendre l'idée que les nanotubes de carbone ont le potentiel de réduire la réaction immunitaire du cerveau. Nous avons testé ce phénomène in vivo grâce à l'analyse histologique de cerveaux de rats après une implantation sous-durale d'un mois avec des échantillons en nitrure de titane (TiN) avec ou sans nanotubes de carbone. Nos résultats confirment une réduction significative de la cicatrice gliale lors d'implantations avec des échantillons nanostructurés.Ces résultats suggèrent un possible impact des nanotubes de carbone sur la stabilité de la mesure dans le temps, autrement dit sur sa « biostabilité ». Nous avons donc implanté un macaque Fascicularis avec un système comportant 16 électrodes en TiN et 16 électrodes nanostructurées de 1mm², amincies à 25μm et montées sur un substrat en polyimide flexible.L'étude qui se situe dans le cadre du projet Neurolink (financé par l'ANR/PNANO),représente la première validation expérimentale sur une longue période et démontre les avantages tant électriques que biologiques de l'utilisation des nanotubes de carbone comme interface entre l'électrode et les neurones. / During this work of thesis, I present the results of research works aiming at the manufacturing and to the development of a new generation of intellectual implants allowing the stable recording in the time of signals électrophysiologiques. The objective is to offer a technological solution for the development of new useful chronic applications for the investigation of the functioning of the brain (ex: dynamics of the networks of neurones, data processing) but also necessities for the development of new technologies, Brain Computer Interface ( BCI), which should, eventually, allow to increase the autonomy of the patients reached(affected) by driving disorders(confusions) or the victims of accident having led(driven) to a physical handicap. [résumé incomplet]
389

Gestion de la mobilité dans les réseaux Ad Hoc par anticipation des métriques de routage / Mobility management in ad hoc networks by anticipation of routing metrics

Naimi, Sabrine 22 July 2015 (has links)
Avec le succès des communications sans fil, il devient possible d'accéder au réseau partout et à tout moment sans avoir recours à connecter physiquement les appareils communicants à une infrastructure. Les nœuds (ordinateurs portables, smartphones, etc) peuvent analyser les différents canaux radio afin de pouvoir s'associer à un réseau sans fil disponible (station de base, point d'accès, etc.). Un avantage indéniable de ses technologies sans fil est la possibilité d'être mobile tout en restant connecté. Cependant, la mobilité est une tâche difficile à gérer car elle doit être abordée à différentes couches pour être transparente aux utilisateurs. Dans les MANET (Mobile Ad hoc Network), les protocoles de routage utilisent des métriques pour sélectionner les meilleures routes. Les métriques peuvent refléter la qualité de la liaison sans fil et aider à gérer la mobilité.Mais, un retard important entre l'estimation des métriques et leur inclusion dans le processus de routage rend cette approche inefficace.Les travaux de cette thèse s'intéressent à la proposition de nouvelles méthodes de calcul des métriques de routage pour gérer le problème de la mobilité dans les réseaux ad hoc. Les nouvelles métriques doivent refléter la qualité du lien et être sensibles à la mobilité en même temps. Nous considérons les métriques classiques, en particulier ETX (Expected Transmission Count) et ETT (Expected Transmission Time). Nous introduisons de nouvelles méthodes pour anticiper les valeurs de ces métriques en utilisant des algorithmes de prédiction. Nous utilisons une approche Cross layer, qui permet l'utilisation conjointe de l'information à partir des couches 1, 2 et 3. La validation de nouvelles méthodes de calcul des métriques de routage nécessite une évaluation au travers d'un véritable banc d'essai. Nous avons donc également mis en œuvre les nouvelles métriques de routage dans un testbed afin d'évaluer et de comparer leurs performances avec les métriques classiques. / With the success of wireless communications, it becomes possible to access the network anywhere at any time without the need for physically connect communicating devices in an infrastructure. The nodes (laptops, smartphones, etc.) can analyze different radio channels to be able to associate with an available wireless network (base station, access point, etc.). An undeniable advantage of wireless technologies is the ability to be mobile while staying connected. However, mobility is difficult to manage because it must be addressed at different layers to be transparent to users. In MANET (Mobile Ad hoc Network) routing protocols use metrics to select the best routes. The metric can reflect the quality of the wireless link and help manage mobility.But a significant delay between the estimate metrics and their inclusion in the routing process makes this approach ineffective.The work of this thesis are interested in proposing new methods for calculating routing metrics to manage the problem of mobility in ad hoc networks. The new metrics should reflect the quality of the link and be sensitive to the mobility simultaneously. We consider the classical metrics, particularly ETX (Expected Transmission Count) and ETT (Expected Transmission Time). We introduce new methods to predict the values of these metrics using prediction algorithms.We use a cross layer approach, which allows the joint use of information from layers 1, 2 and 3. The validation of new methods for calculating routing metrics requires evaluation through a real bench test. So we also implemented new routing metrics in a testbed to assess and compare their performance with classical metrics.
390

SDRN : réseau maillé temps réel dynamique défini par logiciel / SDRN : Software-Defined Real-Time Mesh Networking

Greff, Florian 16 May 2018 (has links)
Dans le cadre d'une thèse CIFRE conjointe entre le Loria et Thales Research & Technology, nous étudions un nouveau type de réseau maillé embarqué temps réel. La mise en réseau maillé des composants des systèmes embarqués concilie les contraintes temps réel des applications avec leurs besoins croissants en termes de bande passante et collaboration. La pluralité des chemins de communication résulte en de meilleures propriétés de flexibilité, résilience, passage à l'échelle et répartition de charge. Cependant, ceci nécessite d'être capable d'allouer dynamiquement les ressources réseau en fonction des besoins des applications. Notre approche consiste à permettre aux applications de faire des requêtes de flux temps réel à l'exécution, puis allouer dynamiquement les ressources correspondant aux besoins en communication. A cette fin, nous avons conçu l'architecture Software-Defined Real-time Networking (SDRN). Elle aborde en même temps les problématiques d'isolation des flux, analyse temporelle, routage, tolérance aux fautes, ainsi que les interfaces avec les couches applicatives et les couches basses du système. Elle est également modulaire, c'est-à-dire que certaines parties de l'architecture peuvent être remplacées sans remettre en cause les autres modules. Enfin, elle a été validée par une implémentation sur plateforme matérielle RapidIO. Ce document restitue les travaux de recherche sur SDRN. Il s'intéresse également à la problématique de l'expérimentation sur les réseaux embarqués et propose une approche originale d'expérimentation, ERICA. Cette approche facilite la mise en place d'expérimentations mêlant aspects réels et simulés. ERICA génère les fichiers nécessaires à la mise en place du scénario défini dans une interface graphique haut niveau. Elle permet ainsi au chercheur d'appliquer une réflexion haut niveau sur ses expérimentations et de réutiliser les couches communes à plusieurs scénarios d'expérimentation / We are studying a new kind of embedded real-time mesh network. Mesh networking of the components of embedded systems reconciles their real-time constraints with the new application needs in terms of bandwidth and tight interactions. The plurality of communication paths results in increased flexibility, resilience, scalability and load balancing characteristics. However, this requires the ability to dynamically allocate network resource with respect to the needs of running applications. Our approach is to allow applications to make online real-time flow resource requests and consequently allot network resources according to these requirements. To this end, we have designed the Software-Defined Real-time Networking (SDRN) architecture. It addresses flow isolation, timing analysis, routing, fault tolerance, as well as the interfaces with the application layer and the lower layers of the system. It also allows any module to be replaced without interfering with the remainder of the architecture. It has been validated via an implementation on an in-silicon RapidIO platform. This thesis describes our research on the SDRN architecture. It also proposes an original method for experimenting on embedded networks, ERICA. The ERICA framework automatically generates all what is needed to conduct a network experiment in a selected environment (such as a simulator or a testbed), with both physical and simulated aspects. Hence, it allows the researcher to perform a high-level thinking of the whole experimentation process and to reuse applications and experiment designs from an experimentation stack to another

Page generated in 0.0415 seconds