• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 11
  • 4
  • Tagged with
  • 30
  • 30
  • 30
  • 17
  • 16
  • 10
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Ferroelectric tunnel junctions : memristors for neuromorphic computing / Jonctions tunnel ferroélectriques : memristors pour le calcul neuromorphique

Boyn, Sören 03 May 2016 (has links)
Les architectures d’ordinateur classiques sont optimisées pour le traitement déterministe d’informations pré-formatées et ont donc des difficultés avec des données naturelles bruitées (images, sons, etc.). Comme celles-ci deviennent nombreuses, de nouveaux circuits neuromorphiques (inspirés par le cerveau) tels que les réseaux de neurones émergent. Des nano-dispositifs, appelés memristors, pourraient permettre leur implémentation sur puce avec une haute efficacité énergétique et en s’approchant de la haute connectivité synaptique du cerveau.Dans ce travail, nous étudions des memristors basés sur des jonctions tunnel ferroélectriques qui sont composées d’une couche ferroélectrique ultramince entre deux électrodes métalliques. Nous montrons que le renversement de la polarisation de BiFeO3 induit des changements de résistance de quatre ordres de grandeurs et établissons un lien direct entre les états de domaines mixtes et les niveaux de résistance intermédiaires.En alternant les matériaux des électrodes, nous révélons leur influence sur la barrière électrostatique et les propriétés dynamiques des memristors. Des expériences d’impulsion unique de tension montrent un retournement de polarisation ultra-rapide. Nous approfondissons l’étude de cette dynamique par des mesures d’impulsions cumulées. La combinaison de leur analyse avec de l’imagerie par microscopie à force piézoélectrique nous permet d’établir un modèle dynamique du memristor. Suite à la démonstration de la spike-timing-dependent plasticity, une règle d’apprentissage importante, nous pouvons prédire le comportement de notre synapse artificielle. Ceci représente une avance majeure vers la réalisation de réseaux de neurones sur puce dotés d’un auto-apprentissage non-supervisé. / Classical computer architectures are optimized to process pre-formatted information in a deterministic way and therefore struggle to treat unorganized natural data (images, sounds, etc.). As these become more and more important, the brain inspires new, neuromorphic computer circuits such as neural networks. Their energy-efficient hardware implementations will greatly benefit from nanodevices, called memristors, whose small size could enable the high synaptic connectivity degree observed in the brain.In this work, we concentrate on memristors based on ferroelectric tunnel junctions that are composed of an ultrathin ferroelectric film between two metallic electrodes. We show that the polarization reversal in BiFeO3 films can induce resistance contrasts as high as 10^4 and how mixed domain states are connected to intermediate resistance levels.Changing the electrode materials provides insights into their influence on the electrostatic barrier and dynamic properties of these memristors. Single-shot switching experiments reveal very fast polarization switching which we further investigate in cumulative measurements. Their analysis in combination with piezoresponse force microscopy finally allows us to establish a model describing the memristor dynamics under arbitrary voltage signals. After the demonstration of an important learning rule for neural networks, called spike-timing-dependent plasticity, we successfully predict new, previously unexplored learning curves. This constitutes an important step towards the realization of unsupervised self-learning hardware neural networks.
12

Cognitive management of SLA in software-based networks / Gestion cognitive de SLA dans un contexte NFV

Bendriss, Jaafar 14 June 2018 (has links)
L’objectif de la thèse est d’étudier la gestion de bout en bout des architectures à la SDN, et comment nos briques OSS (Operation Support System) doivent évoluer: cela implique d’étudier les processus métier associés, leurs implémentations ainsi que l’outillage nécessaire. Les objectifs de la thèse sont donc de répondre aux verrous suivants:1. Identifier les changements impliqués par l’émergence de ces réseaux programmables sur les architectures de gestions en termes d’exigences ou "requirements". L’étude peut être focalisée sur un type de réseau, mobile par exemple. 2. Identifier l’évolution à apporter aux interfaces de gestions actuelles: quelles alternatives aux FCAPS (fault, configuration, accounting, performance, and security) ? Quels changements à apporter aux couches de gestions allant du gestionnaire d’équipement ou "Element Management System" jusqu’au OSS ? / The main goal of the PhD activities is to define and develop architecture and mechanisms to ensure consistency and continuity of the operations and behaviors in mixed physical/virtual environments, characterized by a high level of dynamicity, elasticity and heterogeneity by applying a cognitive approach to the architecture where applicable. The target is then to avoid the "build it first, manage it later" paradigm. The research questions targeted by the PhD are the following: 1. Identify the changes on Network Operation Support Systems implementation when using SDN as a design approach for future networks. The study could be restricted to mobile networks for example, or sub-part of it (CORE networks, RAN, data centers, etc); 2.Identify the needed evolution at the management interfaces level: a. Shall we need alternative to the well-known FCAPS and do we still need the element management system? b. What will change to provision an SDN based service? c. How to ensure resiliency of SDN based networks?
13

Localisation et détection de fautes dans les réseaux de capteurs sans fil / Localization and fault detection in wireless sensor networks

Khan, Safdar Abbas 16 December 2011 (has links)
Dans cette thèse, on s'est intéressé à trois problématiques des réseaux de capteurs sans fil (WSN). Dans un premier temps nous avons analysé l'impact de la chute de tension dans la batterie du nœud sur la puissance du signal en réception. On propose alors une méthode pour compenser l'augmentation apparente de la distance calculée entre les nœuds due à la diminution de l'énergie de la batterie. Pour les nœuds passant par deux états principaux endormi et actif, on propose d'étudier, la relation entre la diminution de la tension de la batterie en fonction du temps passé par un nœud dans l'état actif. Ensuite, on calcule le rapport entre la RSS et la distance entre les nœuds connectés avec des batteries complètement chargées. Après on mesure la RSS en faisant varier la tension de la batterie du nœud émetteur et en gardant le nœud récepteur à une distance constante. Finalement, on propose une relation entre la RSS observée et la tension actuelle de la batterie du nœud émetteur. Cette fonction permet de calculer la valeur corrigée de la RSS qui correspond à la distance réelle entre les nœuds connectés. Ainsi l'efficacité des méthodes de la localisation basée sur la RSS se trouvent améliorées. Dans la deuxième partie de cette thèse on propose une méthode d'estimation des positions des nœuds dans un WSN. Dans l'algorithme de localisation proposé, on utilise des nœuds ancres comme des points de référence. On a utilisé une approche heuristique pour trouver la topologie relative avec l'aide de la matrice de distance. Le but de la matrice de distance est d'indiquer s'il existe une connexion entre une paire de nœuds donnée et en cas de connectivité, la distance estimée entre ces nœuds. En utilisant les informations de connectivité entre les nœuds et leurs distances, on obtient la topologie du réseau. La méthode proposée utilise la solution de l'intersection de deux cercles au lieu de la méthode classique de triangulation, où un système quadratique de trois équations avec deux variables est utilisé ce qui rend la complexité de calcul augmentée. Lorsque deux nœuds connectés ont un autre nœud en commun, puis en utilisant les informations de distances entre ces nœuds interconnectés, nous pouvons calculer deux positions possibles pour le troisième nœud. La présence ou l'absence d'un lien entre le troisième nœud et un quatrième nœud, permet de trouver la position précise. Ce processus est réitéré jusqu'à ce que toutes les positions des nœuds aient été obtenues. Une fois la topologie relative calculée, il faut trouver la symétrie, l'orientation et la position de cette topologie dans le plan. C'est à ce moment que la connaissance des positions des trois nœuds entre en action. La topologie donne les coordonnées temporaires des nœuds. En ayant une comparaison de certaines caractéristiques entre les coordonnées temporaires et les coordonnées exactes, on trouve d'abord la symétrie de la topologie relative qui correspondrait à la topologie originale. En d'autres termes on vérifie si oui ou non la topologie relative est une image miroir de la topologie originale. Des opérateurs géométriques sont alors utilisés pour corriger la topologie relative par rapport à la topologie réelle. Ainsi, on localise tous les nœuds dans un WSN en utilisant exactement trois ancres. Dans la dernière partie de cette thèse, on propose une méthode pour la détection de défauts dans un WSN. Il y a toujours une possibilité qu'un capteur d'un nœud ne donne pas toujours des mesures précises. On utilise des systèmes récurrents et non récurrents pour la modélisation et on prend comme variable d'entrée, en plus des variables du nœud en question, les informations des capteurs voisins. La différence entre la valeur estimée et celle mesurée est utilisée pour déterminer la possibilité de défaillance d'un nœud / In this thesis three themes related to wireless sensor networks (WSNs) are covered. The first one concerns the power loss in a node signal due to voltage droop in the battery of the node. In the first part of the thesis a method is proposed to compensate for the apparent increase in the calculated distance between the related nodes due to decrease in the energy of the signal sending node battery. A function is proposed whose arguments are the apparently observed RSS and the current voltage of the emitter node battery. The return of the function is the corrected RSS that corresponds to the actual distance amongst the connected nodes. Hence increasing the efficiency of the RSS based localization methods in WSNs. In the second part of the thesis a position estimation method for localization of nodes in a WSN is proposed. In the proposed localization algorithm anchor nodes are used as landmark points. The localization method proposed here does not require any constraint on the placement of the anchors; rather any three randomly chosen nodes can serve as anchors. A heuristic approach is used to find the relative topology with the help of distance matrix. The purpose of the distance matrix is to indicate whether or not a pair of nodes has a connection between them and in case of connectivity it gives the estimated distance between the nodes. By using the information of connectivity between the nodes and their respective distances the topology of the nodes is calculated. This method is heuristic because it uses the point solution from the intersection of two circles instead of conventional triangulation method, where a system of three quadratic equations in two variables is used whereby the computational complexity of the position estimation method is increased. When two connected nodes have another node in common, then by using the information of distances between these interconnected nodes, two possible positions are calculated for the third node. The presence or absence of a connection between the third node and a fourth node helps in finding the accurate possibility out of the two. This process is iterated till all the nodes have been relatively placed. Once the relative topology has been calculated, we need to find the exact symmetry, orientation, and position of this topology in the plane. It is at this moment the knowledge of three nodes positions comes into action. From the relative topology we know the temporary coordinates of the nodes. By having a comparison of certain characteristics between the temporary coordinates and the exact coordinates; first the symmetry of relative topology is obtained that would correspond to the original topology. In other words it tells whether or not the relative topology is a mirror image of the original topology. Some geometrical operators are used to correct the topology position and orientation. Thus, all the nodes in the WSN are localized using exactly three anchors. The last part of the thesis focuses on the detection of faults in a WSN. There is always a possibility that a sensor of a node is not giving accurate measurements all of the time. Therefore, it is necessary to find if a node has developed a faulty sensor. With the precise information about the sensor health, one can determine the extent of reliance on its sensor measurement. To equip a node with multiple sensors is not an economical solution. Thus the sensor measurements of a node are modeled with the help of the fuzzy inference system (FIS). For each node, both recurrent and non-recurrent systems are used to model its sensor measurement. An FIS for a particular node is trained with input variables as the actual sensor measurements of the neighbor nodes and with output variable as the real sensor measurements of that node. The difference between the FIS approximated value and the actual measurement of the sensor is used as an indication for whether or not to declare a node as faulty
14

Simulation du mouvement pulmonaire personnalisé par réseau de neurones artificiels pour la radiothérapie externe

Laurent, Rémy 21 September 2011 (has links) (PDF)
Le développement de nouvelles techniques en radiothérapie externe ouvre de nouvelles voies dans la recherche de gain de précision dans la distribution de dose en passant notamment par la connaissance du mouvement pulmonaire. La simulation numérique NEMOSIS (Neural Network Motion Simulation System) basée sur les Réseaux de Neurones Artificiels (RNA) développée ici permet, en plus de déterminer de façon personnalisée le mouvement, de réduire les doses nécessaires initiales pour le déterminer. La première partie présente les techniques actuelles de traitement, les mouvements pulmonaires ainsi que les méthodes de simulation ou d'estimation du mouvement déjà existantes. La seconde partie décrit le réseau de neurones artificiels utilisé et les étapes de son paramétrage pour répondre à la problématique posée. Une évaluation précise de notre approche a été réalisée sur des données originales. Les résultats obtenus sont comparés avec une méthode d'estimation du mouvement. Les temps de calcul extrêmement faibles, de l'ordre de 7 millisecondes pour générer une phase respiratoire, ont permis d'envisager son utilisation en routine clinique. Des modifications sont apportées à NEMOSIS afin de répondre aux critères de son utilisation en radiothérapie externe et une étude sur le mouvement de contours tumoraux est effectuée. Ces travaux ont mis en place les bases de la simulation du mouvement pulmonaire par RNA et ont validé cette approche. Son exécution en temps réel couplé à la précision de la prédiction fait de NEMOSIS un outil prometteur dans la simulation du mouvement synchronisé avec la respiration.
15

Technologies émergentes de mémoire résistive pour les systèmes et application neuromorphique

Suri, Manan 18 September 2013 (has links) (PDF)
La recherche dans le domaine de l'informatique neuro-inspirée suscite beaucoup d'intérêt depuis quelques années. Avec des applications potentielles dans des domaines tels que le traitement de données à grande échelle, la robotique ou encore les systèmes autonomes intelligents pour ne citer qu'eux, des paradigmes de calcul bio-inspirés sont étudies pour la prochaine génération solutions informatiques (post-Moore, non-Von Neumann) ultra-basse consommation. Dans ce travail, nous discutons les rôles que les différentes technologies de mémoire résistive non-volatiles émergentes (RRAM), notamment (i) Phase Change Memory (PCM), (ii) Conductive-Bridge Memory (CBRAM) et de la mémoire basée sur une structure Metal-Oxide (OXRAM) peuvent jouer dans des dispositifs neuromorphiques dédies. Nous nous concentrons sur l'émulation des effets de plasticité synaptique comme la potentialisation à long terme (Long Term Potentiation, LTP), la dépression à long terme (Long Term Depression, LTD) et la théorie STDP (Spike-Timing Dependent Plasticity) avec des synapses RRAM. Nous avons développé à la fois de nouvelles architectures de faiblement énergivore, des méthodologies de programmation ainsi que des règles d'apprentissages simplifiées inspirées de la théorie STDP spécifiquement optimisées pour certaines technologies RRAM. Nous montrons l'implémentation de systèmes neuromorphiques a grande échelle et efficace énergétiquement selon deux approches différentes: (i) des synapses multi-niveaux déterministes et (ii) des synapses stochastiques binaires. Des prototypes d'applications telles que l'extraction de schéma visuel et auditif complexe sont également montres en utilisant des réseaux de neurones impulsionnels (Feed-forward Spiking Neural Network, SNN). Nous introduisons également une nouvelle méthodologie pour concevoir des neurones stochastiques très compacts qui exploitent les caractéristiques physiques intrinsèques des appareils CBRAM.
16

Prévision du rayonnement solaire global par télédétection pour la gestion de la production d’énergie photovoltaïque / Nowcasting and very short term forecasting of the global horizontal irradiance at ground level : application to photovoltaic output forecasting

Dambreville, Romain 16 October 2014 (has links)
L’intégration des énergies intermittentes sur le réseau électrique existant soulèvedes problèmes de stabilité de la balance consommation/production. Afin de limiter les risques,la loi autorise un taux de pénétration maximum de ces énergies de 30% de la puissanceinstallée. Afin de pallier cette limitation, deux pistes sont envisagées, le stockage d’énergie etla prévision de production. Les travaux menés dans cette thèse s’inscrivent dans la secondecatégorie et se concentrent sur la prévision du rayonnement global au sol, ressource principaledes systèmes de production d’énergie photovoltaïque. Dans l’objectif d’une prévision à trèscourt terme (infra-horaire), la problématique développée concerne la fusion d’informationsprovenant d’une part d’observations satellitaires et de l’autre d’observations in-situ telles quedes images hémisphériques. L’approche suivie se veut progressive et s’articule autour de 4grand axes. Le premier chapitre énonce les définitions et les enjeux principaux liés à l’étudedu GHI en décrivant les différents facteurs physiques ayant des interactions sur sa mesure. Lesecond chapitre permet d’évaluer le potentiel des images hémisphériques pour l’estimation durayonnement global. On y développe une méthode d’estimation du GHI basée sur l’utilisationd’un réseau de neurones artificiels permettant d’effectuer une régression non linéaire entre descaractéristiques choisie de l’image et le rayonnement mesuré sur site par un pyranomètre. Letroisième chapitre concerne l’utilisation des images satellitaires pour la prévision à très courtterme du rayonnement global. L’originalité des méthodes proposées provient de l’utilisationen entrées de cartes de rayonnement dérivées des images satellitaires via une méthode externe.L’utilisation de ces cartes de rayonnement permet la construction de modèles linéairessimples (modèles auto-régressifs) grâce à l’homogénéité des données utilisées. Cependant,leur pertinence pour le calcul de champ de vecteurs a également été prouvé et validé dans unsecond modèle. La comparaison des deux modèles ainsi créés à partir d’imagerie satellitairea permis de caractériser les forces et faiblesses de ces modèles. L’intérêt de l’observationsatellitaire réside dans l’anticipation du déplacement des masses nuageuse. Cependant, unbiais non systématique persiste dans la conversion des valeurs des pixels en rayonnement.Ce biais est inhérent à la résolution spatio-temporelle de ces observations. Étant donné cesconsidérations, le chapitre 4 présente alors une méthode d’intégration des données acquisespar l’imagerie hémisphérique, disposant une meilleure résolution spatio-temporelle, dans lesrésultats de prévision satellitaires précédemment évoqués. On joint alors les caractéristiquesretenues au chapitre 2 dans un réseau de neurone avec la prévision pour produire uneprévision dont le biais est largement réduit. L’utilisation de caractéristiques dérivées del’imagerie hémisphérique à la place de simple mesures du pyranomètre est justifiée par l’effetde persistance non souhaité apportées par ces dernières. Ainsi, après avoir étudié chaquesource d’information séparément, on a pu développer un modèle leur permettant de secompléter. / To handle the integration of intermittent energies to the existing grid,managers require more and more acurate tools to forecast the primary resources. This thesisfocuses on the very short term forecast of the global horizontal irradiance (GHI), maininput for most photovoltaic power plant. We chose to use both ground based images fromhemispherical cameras and satellite images to provide a forecating tool. In the first handwe present a novel appraoch to estimate the GHI using ground based images. On secondhand, we propose several satellite based methods to forecast the GHI up to one hour. Finally,we developp a new method allowing us to merge both data in order to benefit from theirrespective advantages. All the methods were tested against real data acquired on the SIRTAsite, Polytechnique campus.
17

Prédire la chute de la personne âgée : apports des modèles mathématiques non-linéaires / Predicting of falls in the elderly : using of non-linear of mathematical models

Kabeshova, Anastasiia 14 October 2015 (has links)
En 2015, la chute de la personne âgée reste toujours un événement majeur, quel que soit l’angle de vue considéré. Elle est toujours associée à une forte morbi-mortalité, nombreuses incapacités, altération la qualité de vie du chuteur, mais aussi, en raison du vieillissement de la population, avec le nombre croissant de chuteurs requérant une prise en charge médicale. Cette situation repose en bonne partie sur notre incapacité à identifier la personne âgée qui est le plus à risque de chute, cette étape étant la première de toute stratégie d’intervention efficace et efficiente. Il est donc nécessaire voir obligatoire aujourd’hui de redoubler nos efforts sur l’amélioration de la prédiction de la chute. En contrepartie de nouvelles opportunités s’ouvrent à nous en raison de l’implantation et de l’informatisation des données médicales. La chute doit être considérée comme un événement chaotique et sa prédiction doit se faire via de nouveaux modèles mathématiques intégrant la particularité de ce comportement. C’est pour cette raison que des méthodes d’analyse basée sur l'intelligence artificielle semblent être une solution appropriée. C’est à partir de ce constat que nous avons émis l’hypothèse que les modèles mathématiques issus de l’intelligence artificielle devaient permettre d’atteindre une qualité de la prédiction meilleure. L’objectif principal de cette thèse est d’étudier la qualité de la prédiction de la chute, récurrente ou non, chez des personnes âgées de 65 ans et plus, en utilisant les réseaux neuronaux et un modèle de logique floue, en les comparant avec des modèles mathématiques linéaires utilisés classiquement dans la littérature. L’ensemble de nos résultats confirme notre hypothèse de départ en montrant que le choix du modèle mathématique influence la qualité de la prédiction de la chute, les modèles non linéaires, et notamment les réseaux neuronaux et les systèmes de logique flous, étant plus performants que les modèles linéaires pour la prédiction des chutes surtout lorsqu’elles sont récurrentes. / Falls in the elderly are still a major issue in 2015 because they are associated with high rate of morbidity, mortality and disability, which affect the quality of life. From the patient’s perspective, it is still associated with high morbidity, mortality and disability, which affect the quality of life. The number of fallers requiring medical and/or social care is growing up due to aging population. This fact seems paradoxical since during the recent years the knowledge about the mechanisms of falls and the quality of interventions to support fallers significantly increased. This is largely based on our inability to predict correctly the risk of falling among the elderly person, knowing that this is the first step of any efficient and effective intervention strategies. Therefore it is necessary today to double our efforts in improving the prediction of falls. Nonetheless, new opportunities and advanced technologies provide to us the possibility of computerizing of medical data and research, and also to improve prediction of falls using new approaches. A fall should be considered as a chaotic event, and its prediction should be done via new mathematical models incorporating the feature of this behaviour. Thus, the methods ofartificial intelligence-based analysis seem to be an appropriate solution to analyse complex medical data. These artificial intelligence techniques have been already used in many medical areas, but rarely in the field of fall prediction. Artificial neural networks are the most commonly used methods while other promising techniques based on fuzzy logic are less often applied.Based on this observation we have formulated the hypothesis that non-linear mathematical models using artificial intelligence are the models, which are the most likely to achieve the bestquality of the prediction. The main objective of this thesis is to study the quality of theprediction of falls, recurrent or not, among the adults aged 65 years and more,applying neuralnetworks and fuzzy logic models, and comparing them either among themselves or with the linear mathematical models conventionally employed in the literature for fall prediction. The first cross-sectional study was conducted by using a decision tree to explore the risk of recurrent falls in various combinations of fall risk factors compared to a logistic regression model. The second study was designed to examine the efficiency of artificial neural networks (Multilayer Perceptron and Neuroevolution of Augmenting Topologies) to classify recurrent and nonrecurrent fallers by using a set of clinical characteristics corresponding to risk factors measured among seniors living in the community. Finally, in the third study we compared the results of different statistical methods (linear and nonlinear) in order to identify the risk of falls using 7 clinical variables, separating the collection mode (retrospective and prospective) of the fall and its recurrence. The results confirm our hypothesis showing that the choice of the mathematical model affects the quality of fall prediction. Nonlinear models, such as neural networks and fuzzy logic systems, are more efficient than linear models for the prediction of falls especially for recurrent falls. However, the results show that the balance between different criteria used to judge the quality of the forecast (sensitivity, specificity, positive and negative predictive value, area under the curve, positive and negative likelihood ratio, and accuracy) has not been always correct, emphasizing the need to continue the development of the models whose intelligence should specifically predict the fall.
18

Conception d’un circuit de lecture à étampes temporelles multiples pour un photodétecteur destiné à la tomographie d’émission par positrons

Lemaire, William January 2018 (has links)
La médecine moderne fait usage de divers appareils pour faciliter le diagnostic et le traitement des maladies. Parmi ceux-ci, l’imagerie par tomographie d’émission par positrons (TEP) se démarque par sa capacité d’imager des processus biologiques spécifiques comme le métabolisme du glucose. Cette caractéristique permet de mettre en évidence des signes distinctifs des maladies comme le cancer à l’aide de radiotraceurs capables de cibler certaines cellules. Dans le but de favoriser de meilleurs diagnostics et de mener des recherches de pointe dans le domaine médical, la qualité des images produites par les appareils TEP doit être améliorée. Les avancées des dernières années ont permis d’améliorer la résolution spatiale des images jusqu’à pratiquement atteindre la limite théorique imposée par le déplacement du positron lors du processus de désintégration. Depuis, les travaux s’orientent plutôt vers l’amélioration du contraste de l’image en intégrant la mesure du temps de vol (TdV) dans l’algorithme de reconstruction. Le défi dans cette mesure réside dans la conception d’un photodétecteur avec une résolution temporelle suffisante pour localiser le lieu d’émission du radiotraceur entre deux détecteurs coïncidents. La plupart des photodétecteurs actuels utilisent un seuil sur le nombre de photons de scintillation observé pour déterminer le temps d’arrivée des photons d’annihilation dans le scintillateur. Cependant, plusieurs travaux ont démontré qu’une meilleure résolution temporelle est atteignable en pondérant adéquatement l’information temporelle numérisée de plusieurs photons de scintillation à la place de n’en considérer qu’un seul. Dans le but d’améliorer la résolution temporelle des photodétecteurs, l’utilisation d’un estimateur statistique combinant l’information de plusieurs photons de scintillation se révèle une méthode prometteuse en considérant les résultats théoriques. Cependant, une implémentation matérielle pouvant être intégrée à un appareil TEP reste à être démontrée. Les travaux de recherche présentés dans ce mémoire portent sur l’intégration d’un tel estimateur statistique à un photodétecteur pour la TEP. Ces travaux ont mené au développement d’une chaine d’acquisition qui comporte 1) un circuit de lecture, 2) une trieuse, 3) un filtre de bruit thermique et 4) un estimateur statistique du temps d’interaction basé sur le Best Linear Unbiased Estimator (BLUE). L’intégration de cette chaine à même le circuit intégré du photodétecteur de 1 x 1 mm2 en CMOS 65 nm permet de réduire la bande passante de 250 Mbit/s à 0,5 Mbit/s et le temps mort de 68,6 μs à 1024 ns. Des simulations démontrent l’atteinte d’une résolution temporelle qui s’approche de la limite inférieure théorique (appelée borne de Cramér-Rao) quant à la résolution temporelle atteignable par ce photodétecteur.
19

Estimation neuronale de l'information mutuelle.

Belghazi, Mohamed 09 1900 (has links)
Nous argumentons que l'estimation de l'information mutuelle entre des ensembles de variables aléatoires continues de hautes dimensionnalités peut être réalisée par descente de gradient sur des réseaux de neurones. Nous présentons un estimateur neuronal de l'information mutuelle (MINE) dont la complexité croît linéairement avec la dimensionnalité des variables et la taille de l'échantillon, entrainable par retro-propagation, et fortement consistant au sens statistique. Nous présentons aussi une poignée d'application ou MINE peut être utilisé pour minimiser ou maximiser l'information mutuelle. Nous appliquons MINE pour améliorer les modèles génératifs adversariaux. Nous utilisons aussi MINE pour implémenter la méthode du goulot d'étranglement de l'information dans un cadre de classification supervisé. Nos résultats montrent un gain substantiel en flexibilité et performance. / We argue that the estimation of mutual information between high dimensional continuous random variables can be achieved by gradient descent over neural networks. We present a Mutual Information Neural Estimator (MINE) that is linearly scalable in dimensionality as well as in sample size, trainable through back-prop, and strongly consistent. We present a handful of applications on which MINE can be used to minimize or maximize mutual information. We apply MINE to improve adversarially trained generative models. We also use MINE to implement the Information Bottleneck, applying it to supervised classification; our results demonstrate substantial improvement in flexibility and performance in the settings.
20

Impact du stress hydrique sur les émissions d'isoprène de Quercus pubescens Willd / Water stress impact on isoprene emission from Quercus pubescens Willd.

Genard-Zielinski, Anne-Cyrielle 23 June 2014 (has links)
Les Composés Organiques Volatils biogènes (COVB) sont des molécules issues du métabolisme secondaire des végétaux, dont l'émission peut être modulée par les conditions environnementales. Parmi ces composés, l'isoprène a été très étudié du fait des flux d'émission important et de son implication dans la photochimie troposphérique. Cependant, les mécanismes d'action des facteurs environnementaux sont encore mal connus, et notamment celui de l'impact du stress hydrique. Dans le contexte de changements climatiques, ce type de stress va particulièrement impacter la région méditerranéenne.Nous avons étudié l'impact du stress hydrique sur les émissions d'isoprène de Quercus pubescens Willd. Cette espèce, très présente dans cette région, serait la seconde source d'isoprène en Europe.Deux étude ont été menées.La première, effectuée en pépinière, a consisté à appliquer un stress hydrique modéré et sévère d'avril à octobre. Une augmentation des émissions d'isoprène des arbres modérément stressés a été observée alors qu'il n'y a eu aucune modification des émissions pour les arbres très stressés.La seconde a consisté à faire un suivi saisonnier du stress hydrique au sein d'une chênaie pubescente. Un stress hydrique amplifié a été appliqué par un système d'exclusion de pluie, permettant de diminuer la quantité de pluie de 30%. Nous avons observé que le stress hydrique amplifié augmentait les facteurs d'émission d'isoprène des arbres.Cette base de données a permis le développement, par Réseau de Neurones Artificiels (RNA), d'un algorithme d'émission d'isoprène. Nous avons ainsi mis en évidence l'impact prédominant du contenu en eau du sol sur les émissions d'isoprène. / Biogenic Volatile Organic Compounds (BVOC) are plants secondary-metabolism-molecules. Their emissions are modulated by environmental conditions. Among these compounds, isoprene has been particularly studied due to its intense emission fluxes as well as its major contribution to tropospheric photochemistry. However, the impacts of environmental constraints on isoprene emission are still not yet well known. In particular, water stress impact is still a contradictory issue. In a world facing multiple climatic changes, models expect this kind of stress to hit Mediterranean area.This work focused on the impact of water stress on Quercus pubescens Willd. isoprene emissions. This species, widely spread in this area, is the second isoprene emitter in Europe.Two types of study were used.First, during an experimental carried out in a nursery, Q. pubescens saplings were grown under a moderate and severe water stress from April to October. This experimentation highlighted an increase of isoprene emissions for mid-stressed trees, while no emission changes were observed for the highly stressed trees.Secondly, an experimentation was conducted on a pubescent oak forest with trees acclimated to long lasting stress periods. We followed, during a whole season, the impact, on isoprene emissions, of a water stress created by artificially reducing 30% of the rains by means of a specific deploying roof. Isoprene emission factors were observed to increase under water stress.The database thus obtained was used in an Artificial Neural Network (ANN) to develop an appropriate isoprene emission algorithm. We underlined the predominant impact of soil water content on isoprene emissions.

Page generated in 0.1324 seconds