• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 79
  • 20
  • 1
  • Tagged with
  • 292
  • 226
  • 224
  • 196
  • 129
  • 103
  • 102
  • 100
  • 100
  • 87
  • 82
  • 80
  • 78
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Deep learning based semi-supervised video anomaly detection

Baradaran, Mohammad 16 January 2024 (has links)
Thèse ou mémoire avec insertion d'articles / La détection d'anomalies vidéo (DAV) est une tâche cruciale de vision par ordinateur pour diverses applications du monde réel telles que la vidéosurveillance, le contrôle qualité, etc. Avec la rareté des données d'anomalies étiquetées et la nature ouverte des définitions d'anomalies, il y a eu une croissance d'intérêt des chercheurs pour l'exploration de méthodes semi-supervisées de détection d'anomalies vidéo. Ces méthodes utilisent une tâche proxy pour ajuster un modèle sur des échantillons normaux, en tenant compte de leurs caractéristiques d'apparence et de mouvement. Les anomalies sont par conséquent détectées en mesurant l'écart des échantillons de test par rapport au modèle normal formé. Cette thèse est dédiée à l'avancement de ce domaine, englobant quatre composantes distinctes. Dans la partie initiale, nous menons une étude approfondie sur les méthodes DAV semi-supervisées de pointe existantes afin d'examiner leurs points forts et leurs défis. Pour compléter notre examen, nous effectuons également des expériences pour mieux comprendre les capacités et les limites des approches existantes. Les résultats de cette étude servent de source de motivation et mettent en lumière l'orientation de notre recherche. Cette étude est publiée sous la forme d'un article de synthèse (MTAP2023). Lors de l'analyse des méthodes existantes, il devient évident qu'elles ne tiennent pas suffisamment compte de la classe des objets lorsqu'il s'agit de détecter des anomalies d'apparence. Inspirés par ce besoin, nous proposons, dans la deuxième partie, une méthode DAV basée sur l'apprentissage en profondeur et sensible aux classes d'objets. C'est une méthode à deux flux qui modélise et détecte les anomalies de mouvement et d'apparence dans différentes branches. Dans la branche apparence, nous introduisons une approche basée sur la distillation des connaissances qui utilise une méthode de segmentation sémantique pré-entraînée (Mask-RCNN) pour former un réseau étudiant dédié à la segmentation sémantique avec des objets normaux. Par conséquent, en mesurant l'écart entre les sorties des réseaux enseignant et étudiant, nous dérivons un score d'anomalie pour la branche d'apparence. La branche de mouvement, d'autre part, traduit une image brute en sa carte de magnitude de flux optique correspondante, pour modéliser les mouvements normaux et détecter les anomalies associées. L'approche de modélisation de mouvement proposée atténue le risque de généralisation aux anomalies, améliorant ainsi la fiabilité et la précision du processus de détection. Les résultats de cette étude ont été publiés sous forme d'article de conférence (CRV 2022). Dans la troisième partie, nous proposons une méthode de détection d'anomalies vidéo basée sur l'apprentissage multi-tâches visant à tirer parti des avantages de la combinaison de plusieurs tâches proxy complémentaires pour améliorer les performances de détection d'anomalies. Différentes tâches complémentaires sont proposées en tenant compte de leurs capacités et insuffisances à détecter différents cas d'anomalies. De plus, nous proposons une nouvelle tâche proxy de prédiction de carte de segmentation sémantique future pour la détection d'anomalies vidéo qui bénéficie des capacités de prédiction de trames futures et de tâches de segmentation sémantique pour la détection d'anomalies de mouvement et d'apparence. De plus, pour améliorer encore la détection des anomalies de mouvement, nous intégrons la tâche de prédiction de l'amplitude du flux optique à partir d'une trame brute dans une autre branche. Finalement, pour relever les défis rencontrés dans notre méthode précédente, nous proposons plusieurs mécanismes d'attention pour engager des informations contextuelles dans la modélisation de mouvement, conduisant à une amélioration des performances. Les résultats de cette étude ont été publiés sous forme d'article de conférence (CVPRW 2023). Dans la dernière partie, nous relevons un autre défi dans la modélisation du mouvement. Tant dans nos méthodes proposées que dans d'autres méthodes existantes, les modèles de mouvement à long terme n'ont pas été efficacement pris en compte pour la détection d'anomalies vidéo. Pour remédier à cette limitation, nous proposons une nouvelle tâche proxy pour la détection d'anomalies vidéo : la prédiction vidéo future à partir d'une seule image. Cette méthode prend en compte les modèles de mouvement à long terme en plus des modèles à court terme pour la détection d'anomalies vidéo et relève le défi de la généralisation aux mouvements anormaux. Cette étude donne des résultats significatifs. Les résultats démontrent que la formulation de DAV comme une prédiction d'images plus éloignées dans le futur (au lieu de l'image suivante immédiate) entraîne une plus grande disparité entre les normales et les anomalies et donc une amélioration des performances. Les résultats de cette étude sont acceptés sous forme d'article de conférence (ISVC 2023). Nos résultats qualitatifs et quantitatifs ainsi que des études d'ablation sur des ensembles de données de référence tels que les ensembles de données ShanghaiTech, UCSD-Ped1 et UCSD-Ped2 démontrent le succès de chaque contribution de notre thèse dans la réalisation de leurs objectifs respectifs. / Video anomaly detection (VAD) is a crucial computer vision task for various real-world applications such as video surveillance, quality control, etc. With the scarcity of labeled anomaly data and the open-ended nature of anomaly definitions, there has been a growing interest among researchers in exploring semi-supervised methods for video anomaly detection. These methods employ a proxy-task to fit a model on normal samples, taking into account their appearance and motion features. Anomalies are consequently detected by measuring the deviation of test samples from the trained normal model. This thesis is dedicated to advancing this field, encompassing four distinct components. In the initial part, we conduct an in-depth study on existing state-of-the-art semi-supervised VAD methods to examine their strong points and challenges. To supplement our review, we also conduct experiments to gain deeper insights into the capabilities and limitations of existing approaches. The outcomes of this study serve as a source of motivation and highlights the direction of our research. This study is published as a review paper (MTAP2023). Upon analyzing the existing methods, it becomes apparent that they do not adequately consider the object class when it comes to detecting appearance anomalies. Inspired by this need, we propose, in the second part, a two-stream object class-aware deep learning based VAD method that models and detects motion and appearance anomalies in different network branches. In the appearance branch, we introduce a knowledge-distillation-based approach that utilizes a pre-trained semantic segmentation method (Mask-RCNN) to train a student network dedicated to semantic segmentation with normal objects. Consequently, by measuring the disparity between the outputs of the teacher and student networks, we derive an anomaly score for the appearance branch. Motion branch, on the other hand, translates a raw frame to its corresponding optical flow magnitude map, to model normal motions and detect related anomalies. The proposed motion modeling approach, mitigates the risk of generalization to anomalies, thus enhancing the reliability and precision of the detection process. Results of this study is published as a conference paper (CRV 2022). In the third part, we put forth a multi-task learning based video anomaly detection method aimed at leveraging the benefits of combining multiple complementary proxy-tasks to enhance anomaly detection performance. Different complementary tasks are suggested taking into ac count their abilities and shortcomings in detecting different anomaly cases. Moreover, we propose a novel proxy-task of future semantic segmentation map prediction for video anomaly detection which benefits from the abilities of future frame prediction and semantic segmentation tasks for motion and appearance anomaly detection. Additionally, to further enhance the detection of motion anomalies, we incorporate the task of optical flow magnitude prediction from a raw frame in another branch. Finally, to address the challenges encountered in our previous method, we propose multiple attention mechanisms to engage context information in motion modeling, leading to performance improvement. Results of this study is published as a conference paper (CVPRW 2023). As the final part, we tackle another challenge in motion modeling. Both in our proposed methods and other existing methods, long-term motion patterns have not been effectively considered for video anomaly detection. To address this limitation, we put forward a novel proxy-task for video anomaly detection: future video prediction from a single frame. This method considers long-term motion patterns in addition to short-term ones for video anomaly detection and addresses the challenge of generalization to abnormal motion. This study yields significant findings. The results demonstrate that formulating VAD as a prediction of farther frames in the future (instead of the immediate next frame) results in a larger disparity between normals and anomalies and hence in improved performance. Results of this study is accepted as a conference paper (ISVC 2023). Our qualitative and quantitative results along with ablation studies on benchmark datasets such as ShanghaiTech, UCSD-Ped1 and UCSD-Ped2 datasets demonstrate the success of each contribution of our thesis in achieving their respective goals.
22

Comportement des tunnels en terrains tectonisés : application à la liaison ferroviaire Lyon-Turin / Behavior of tunnel in tectonised ground : application for Lyon-Turin railway link

Vu, The Manh 07 December 2010 (has links)
Comportement différé, anisotrope à la descenderie de Saint-Martin-la-Porte / Time-dependent, anisotropic behavior of Saint-Martin-la-Porte gallery
23

Weight parameterizations in deep neural networks / Paramétrisation des poids des réseaux de neurones profonds

Zagoruyko, Sergey 07 September 2018 (has links)
Les réseaux de neurones multicouches ont été proposés pour la première fois il y a plus de trois décennies, et diverses architectures et paramétrages ont été explorés depuis. Récemment, les unités de traitement graphique ont permis une formation très efficace sur les réseaux neuronaux et ont permis de former des réseaux beaucoup plus grands sur des ensembles de données plus importants, ce qui a considérablement amélioré le rendement dans diverses tâches d'apprentissage supervisé. Cependant, la généralisation est encore loin du niveau humain, et il est difficile de comprendre sur quoi sont basées les décisions prises. Pour améliorer la généralisation et la compréhension, nous réexaminons les problèmes de paramétrage du poids dans les réseaux neuronaux profonds. Nous identifions les problèmes les plus importants, à notre avis, dans les architectures modernes : la profondeur du réseau, l'efficacité des paramètres et l'apprentissage de tâches multiples en même temps, et nous essayons de les aborder dans cette thèse. Nous commençons par l'un des problèmes fondamentaux de la vision par ordinateur, le patch matching, et proposons d'utiliser des réseaux neuronaux convolutifs de différentes architectures pour le résoudre, au lieu de descripteurs manuels. Ensuite, nous abordons la tâche de détection d'objets, où un réseau devrait apprendre simultanément à prédire à la fois la classe de l'objet et l'emplacement. Dans les deux tâches, nous constatons que le nombre de paramètres dans le réseau est le principal facteur déterminant sa performance, et nous explorons ce phénomène dans les réseaux résiduels. Nos résultats montrent que leur motivation initiale, la formation de réseaux plus profonds pour de meilleures représentations, ne tient pas entièrement, et des réseaux plus larges avec moins de couches peuvent être aussi efficaces que des réseaux plus profonds avec le même nombre de paramètres. Dans l'ensemble, nous présentons une étude approfondie sur les architectures et les paramétrages de poids, ainsi que sur les moyens de transférer les connaissances entre elles / Multilayer neural networks were first proposed more than three decades ago, and various architectures and parameterizations were explored since. Recently, graphics processing units enabled very efficient neural network training, and allowed training much larger networks on larger datasets, dramatically improving performance on various supervised learning tasks. However, the generalization is still far from human level, and it is difficult to understand on what the decisions made are based. To improve on generalization and understanding we revisit the problems of weight parameterizations in deep neural networks. We identify the most important, to our mind, problems in modern architectures: network depth, parameter efficiency, and learning multiple tasks at the same time, and try to address them in this thesis. We start with one of the core problems of computer vision, patch matching, and propose to use convolutional neural networks of various architectures to solve it, instead of manual hand-crafting descriptors. Then, we address the task of object detection, where a network should simultaneously learn to both predict class of the object and the location. In both tasks we find that the number of parameters in the network is the major factor determining it's performance, and explore this phenomena in residual networks. Our findings show that their original motivation, training deeper networks for better representations, does not fully hold, and wider networks with less layers can be as effective as deeper with the same number of parameters. Overall, we present an extensive study on architectures and weight parameterizations, and ways of transferring knowledge between them
24

Learning Deep Representations : Toward a better new understanding of the deep learning paradigm / Apprentissage de représentations profondes : vers une meilleure compréhension du paradigme d'apprentissage profond

Arnold, Ludovic 25 June 2013 (has links)
Depuis 2006, les algorithmes d’apprentissage profond qui s’appuient sur des modèles comprenant plusieurs couches de représentations ont pu surpasser l’état de l’art dans plusieurs domaines. Les modèles profonds peuvent être très efficaces en termes du nombre de paramètres nécessaires pour représenter des opérations complexes. Bien que l’entraînement des modèles profonds ait été traditionnellement considéré comme un problème difficile, une approche réussie a été d’utiliser une étape de pré-entraînement couche par couche, non supervisée, pour initialiser des modèles profonds supervisés. Tout d’abord, l’apprentissage non-supervisé présente de nombreux avantages par rapport à la généralisation car il repose uniquement sur des données non étiquetées qu’il est facile de trouver. Deuxièmement, la possibilité d’apprendre des représentations couche par couche, au lieu de toutes les couches à la fois, améliore encore la généralisation et réduit les temps de calcul. Cependant, l’apprentissage profond pose encore beaucoup de questions relatives à la consistance de l’apprentissage couche par couche, avec de nombreuses couches, et à la difficulté d’évaluer la performance, de sélectionner les modèles et d’optimiser la performance des couches. Dans cette thèse, nous examinons d’abord les limites de la justification variationnelle actuelle pour l’apprentissage couche par couche qui ne se généralise pas bien à de nombreuses couches et demandons si une méthode couche par couche peut jamais être vraiment consistante. Nous constatons que l’apprentissage couche par couche peut en effet être consistant et peut conduire à des modèles génératifs profonds optimaux. Pour ce faire, nous introduisons la borne supérieure de la meilleure probabilité marginale latente (BLM upper bound), un nouveau critère qui représente la log-vraisemblance maximale d’un modèle génératif profond quand les couches supérieures ne sont pas connues. Nous prouvons que la maximisation de ce critère pour chaque couche conduit à une architecture profonde optimale, à condition que le reste de l’entraînement se passe bien. Bien que ce critère ne puisse pas être calculé de manière exacte, nous montrons qu’il peut être maximisé efficacement par des auto-encodeurs quand l’encodeur du modèle est autorisé à être aussi riche que possible. Cela donne une nouvelle justification pour empiler les modèles entraînés pour reproduire leur entrée et donne de meilleurs résultats que l’approche variationnelle. En outre, nous donnons une approximation calculable de la BLM upper bound et montrons qu’elle peut être utilisée pour estimer avec précision la log-vraisemblance finale des modèles. Nous proposons une nouvelle méthode pour la sélection de modèles couche par couche pour les modèles profonds, et un nouveau critère pour déterminer si l’ajout de couches est justifié. Quant à la difficulté d’entraîner chaque couche, nous étudions aussi l’impact des métriques et de la paramétrisation sur la procédure de descente de gradient couramment utilisée pour la maximisation de la vraisemblance. Nous montrons que la descente de gradient est implicitement liée à la métrique de l’espace sous-jacent et que la métrique Euclidienne peut souvent être un choix inadapté car elle introduit une dépendance sur la paramétrisation et peut entraîner une violation de la symétrie. Pour pallier ce problème, nous étudions les avantages du gradient naturel et montrons qu’il peut être utilisé pour restaurer la symétrie, mais avec un coût de calcul élevé. Nous proposons donc qu’une paramétrisation centrée peut rétablir la symétrie avec une très faible surcharge computationnelle. / Since 2006, deep learning algorithms which rely on deep architectures with several layers of increasingly complex representations have been able to outperform state-of-the-art methods in several settings. Deep architectures can be very efficient in terms of the number of parameters required to represent complex operations which makes them very appealing to achieve good generalization with small amounts of data. Although training deep architectures has traditionally been considered a difficult problem, a successful approach has been to employ an unsupervised layer-wise pre-training step to initialize deep supervised models. First, unsupervised learning has many benefits w.r.t. generalization because it only relies on unlabeled data which is easily found. Second, the possibility to learn representations layer by layer instead of all layers at once improves generalization further and reduces computational time. However, deep learning is a very recent approach and still poses a lot of theoretical and practical questions concerning the consistency of layer-wise learning with many layers and difficulties such as evaluating performance, performing model selection and optimizing layers. In this thesis we first discuss the limitations of the current variational justification for layer-wise learning which does not generalize well to many layers. We ask if a layer-wise method can ever be truly consistent, i.e. capable of finding an optimal deep model by training one layer at a time without knowledge of the upper layers. We find that layer-wise learning can in fact be consistent and can lead to optimal deep generative models. To do this, we introduce the Best Latent Marginal (BLM) upper bound, a new criterion which represents the maximum log-likelihood of a deep generative model where the upper layers are unspecified. We prove that maximizing this criterion for each layer leads to an optimal deep architecture, provided the rest of the training goes well. Although this criterion cannot be computed exactly, we show that it can be maximized effectively by auto-encoders when the encoder part of the model is allowed to be as rich as possible. This gives a new justification for stacking models trained to reproduce their input and yields better results than the state-of-the-art variational approach. Additionally, we give a tractable approximation of the BLM upper-bound and show that it can accurately estimate the final log-likelihood of models. Taking advantage of these theoretical advances, we propose a new method for performing layer-wise model selection in deep architectures, and a new criterion to assess whether adding more layers is warranted. As for the difficulty of training layers, we also study the impact of metrics and parametrization on the commonly used gradient descent procedure for log-likelihood maximization. We show that gradient descent is implicitly linked with the metric of the underlying space and that the Euclidean metric may often be an unsuitable choice as it introduces a dependence on parametrization and can lead to a breach of symmetry. To mitigate this problem, we study the benefits of the natural gradient and show that it can restore symmetry, regrettably at a high computational cost. We thus propose that a centered parametrization may alleviate the problem with almost no computational overhead.
25

Modélisation de la structure du silicium amorphe à l’aide d’algorithmes d’apprentissage profond

Comin, Massimiliano 08 1900 (has links)
No description available.
26

Self-Adaptive Bandwidth Control for Balanced QoS and Energy Aware Optimization in Wireless Sensor Network / Contrôle de bande passante auto-adaptatif pour une qualité de service équilibrée et une optimisation énergétique optimisée dans le réseau de capteurs sans fil

Liu, Zongyi 04 July 2017 (has links)
Dans le domaine des réseaux de capteurs multimédias sans fil (WMSN), le flux fortement saturé augmente la probabilité de collision et de congestion dans la transmission de données, ce qui dégrade considérablement la performance de la qualité de service (QoS). La technique de déploiement multicanaux est souvent appliquée à la transmission en parallèle pour garantir la QoS. Cependant, comment faire le compromis entre l'exigence QoS et l'efficacité énergétique est un défi pour WMSN énergie-limité. L'analyse théorique de la couche MAC et de la structure de la couche PHY basée sur la norme IEEE 802.15.4, vise à étudier le modèle analytique cross-layer afin de mieux comprendre la relation entre les paramètres du réseau de capteurs et la performance, ouvrant ainsi la voie à de nouvelles améliorations. Recherche d'optimisation multi-canaux. Trouver un indicateur de performance efficace et concevoir une méthode de collecte ou d'estimation de performance efficace basée sur les métriques correspondantes, qui pourraient être utilisées comme entrée de paramètre du mécanisme d'affectation multicanaux. Le système de contrôle dynamique complet est conçu pour une tâche d'attribution multicanal basée sur des techniques d'intelligence de calcul léger et efficace. Nous présentons un mécanisme d'attribution multicouches à bande passante dynamique à fuzzy (MCDB_FLS). La bande passante proactive disponible dans la couche croisée est estimée comme paramètre pour le contrôle d'admission de déploiement multicanal. Une approche axée sur l'apprentissage par renforcement est proposée pour une prise de décision judicieuse dans la mission d'allocation multicanaux. En outre, le modèle de seuil de bande passante basé sur la logique floue fournit une optimisation dynamique sur le contrôle d'admission du système. Les simulations montrent que le MCDB_FLS fonctionne mieux que la référence sur les mesures de QoS et l'efficacité énergétique, réalise le compromis entre l'efficacité énergétique et l'amélioration de la QoS. Enfin, nous introduisons l'intégration de l'approche incrémentielle d'apprentissage automatique dans le mécanisme d'affectation multicanaux avec la Deep Q Network (DQMC). En outre, l'initialisation du poids par action est implémentée sur la base d'un classificateur d'apprentissage supervisé multi-classes avec une approche par empilement. DQMC améliorer la capacité d'auto-adaptatif et de contrôle intelligent pour apprendre le modèle de l'environnement différent de multi-tâches WMSNs. / In the Wireless Multimedia Sensor Networks (WMSNs) field, highly saturated flow increases the probability of collision and congestion in data transmission which dramatically degrade the performance of Quality of Service (QoS). Multi-channels deployment technique is often applied to parallel transmission for QoS guarantee. However, how to make trade-off between QoS requirement and energy efficiency is a challenges to energy-constrained WMSNs. Theoretical analysis of MAC layer and PHY layer structure based on IEEE 802.15.4 standard, aim to study on the cross-layer analytical model in order to provide stronger understanding on the relationship between sensor network parameters and performance, pave the way for new enhancements in succedent multi-channel optimization research. Find effective performance indicator and design efficient performance collection or estimation approach based on the corresponding metrics, which could be used as the parameter input of multi-channel assignment mechanism. Comprehensive dynamically control system is designed for multi-channel assignment task based on light weight and high efficient computation intelligence techniques. We present a fuzzy-based dynamic bandwidth multi-channel assignment mechanism (MCDB_FLS). Cross-layer proactive available bandwidth is estimated as parameters for multi-channel deployment admission control. Reinforcement learning-based approach is proposed for more wisely decision-making in multi- channel allocation mission. Furthermore, fuzzy logic-based bandwidth threshold model provides dynamic optimization on system admission control. Simulations show the MCDB_FLS performs better than benchmark on the metrics of QoS and energy efficiency, achieves the trade-off between energy efficiency and QoS improvement. Finally, we introduce the integration of incremental machine learning approach into multi-channel assignment mechanism with Deep Q Network reinforcement learning method (DQMC). Besides, fully action weight initialization is implemented based on multi-class supervised learning classifier with stacking ensemble approach. DQMC improve the ability of self-adaptive and smart control to learn pattern from different environment of multi-tasks WMSNs.
27

Stimulation cérébrale profonde hypothalamique pour l'obésité chez le primate non humain : Une approche préclinique.

Torres, Napoleon 17 December 2008 (has links) (PDF)
Résume Objet: La stimulation cérébrale profonde (SCP) est devenue une thérapie efficace dans une série de maladies cérébrales. Récemment, dans les cas des algies vasculaires de la face résistantes au traitement (intraitables), chroniques, la SCP hypothalamique a suscité un nouvel intérêt pour cette région, également bien connue pour son implication dans la régulation de la prise alimentaire et de la balance énergétique. Cependant, les risques et les problèmes connexes liés à l'implantation dans cette aire cérébrale ont soulevé plusieurs questions concernant la sûreté de cette technique chirurgicale. Dans cette étude, les auteurs ont proposé l'implantation d'une électrode intraventriculaire insérée dans le troisième ventricule au niveau de l'hypothalamus ventromedial (VMH) chez des singes macaca fascicularis non obèses dans le but de moduler la prise alimentaire et le masse corporelle des sujets. Cette méthode de SCP pourrait s'avérer être un traitement potentiel de l'obésité morbide. Méthodes: Cinq singes de macaca fascicularis adultes (4 sujets et 1 contrôle ou sham) ont été implantés de façon stéréotaxique dans le troisième ventricule. Une électrode chronique Medtronic®, habituellement utilisée dans le cadre de la SCP chez les patients atteints de la maladie de Parkinson, a été positionnées dans l'espace intraventriculaire adossée à la paroi de ce dernier au niveau du VMH. Dans la première phase de l'étude, le comportement alimentaire de chaque animal (durée du repas, quantité de nourriture avalée) et son activité motrice ont été enregistrés et analysés en fonction différents paramètres de stimulation (fréquence et intensité) après une période de jeun de 24 heures. Dans la seconde phase du protocole, trois cycles de stimulation intraventriculaire de 8 semaines chacun ont été réalisés à 130Hz, à 80Hz et à 30Hz, suivi des périodes de « washout » de 4 semaines entre les périodes« on - stimulation ». L'index de masse corporelle, le poids (masse corporelle), la « teneur « en graisse, l'épaisseur cutanée et les concentrations hormonales ont été mesurés au début de l'étude pour établir une ligne de base et après chaque session de stimulation. Résultats: Lors de la première phase du protocole réalisée sur des animaux a jeun depuis 24 heures, nous avons remarqué une diminution de la prise alimentaire comprise entre 11 et 19% chez tous les sujets stimulés à une fréquence 80 hertz. A partie de ces résultats, , une diminution de la masse corporelle et du BMI (body mass index indice de masse corporelle) ont été observés chez trois de quatre singes lors des phases de stimulation chronique à une fréquence de 80 hertz : la moyenne de perte pondérale était de 8± 4.4%. Une augmentation de 2-6 ± 2.5% et de 5 ±2,93 %de la masse corporelle a été observée respectivement chez les animaux stimulés à une fréquence de 130Hzet de 30Hz. Une diminution importante des épaisseurs sous-cutanées ( )a été observée pour chacun des quatre sujets à une fréquence de 80 hertz et dans une moindre mesure, une augmentation de cette variable ( ) a été remarquée une fréquence de 130 Hz. Tout au long de l'étude, les variables relevées sur le singe Sham sont restées stables. Sur la durée de l'étude, aucun effet potentielle ment délétère n'a été remarqués sur les animaux. Conclusion: La stimulation de la région de VMH par voie intraventriculaire pourrait s'avérer efficace pour moduler le comportement alimentaire et induire une diminution soutenue de la masse corporelle caractérisée par réduction de la masse graisseuse chez les primates non humains non obèses.
28

Evolution de l'agrégation des galaxies dans le sondage VIMOS-VLT Deep Survey

Meneux, Baptiste 28 October 2005 (has links) (PDF)
Les grands sondages récents de l'Univers ont mis en évidence la présence de structures dans la distribution de la matière, sous forme de filaments et de vides. Pour étudier l'évolution de la distribution spatiale des galaxies, il est nécessaire de connaître leur position précise dans l'espace à trois dimensions. Cette thèse s'est déroulée dans le cadre du sondage profond VIMOS-VLT Deep Survey (VVDS). Son but est de mesurer quelques 100000 redshifts pour étudier la formation et l'évolution des galaxies et des structures à grande échelle de l'Univers jusqu'à z~5. Après avoir fait un état des lieux de la connaissance que nous avons de la distribution des galaxies, puis introduis le sondage VVDS, je présente la mesure et l'évolution de la fonction de corrélation spatiale à deux points à partir des données de la première époque du VVDS, le plus large échantillon (10759 spectres) jamais acquis à I_AB=24. J'ai développé un ensemble de programmes mis à la disposition du consortium VVDS pour mesurer facilement la longueur de corrélation spatiale des galaxies dans un intervalle en redshift donné, avec ses erreurs associées, en corrigeant les effets de la stratégie d'observation du VVDS. Cet outil a permis de mesurer l'évolution de la fonction de corrélation spatiale de la population globale des galaxies jusqu'à z=2. J'ai prolongé cette étude en divisant l'échantillon de galaxies par type spectral et par couleur. Enfin, en combinant les données de GALEX avec celles du VVDS, j'ai pu mesurer l'agrégation de galaxies sélectionnées en ultraviolet jusqu'à z~1. C'est la première fois que de telles mesures sont réalisées sur une si longue plage de temps cosmique. Les résultats présentés dans cette thèse font ainsi office de nouvelles références pour les travaux futurs.
29

Hydrogéologie isotopique et applications de la géothermie pour préciser l'origine, la durabilité et l'organisation des écoulements souterrains. Exemples des bassins sédimentaires de Bohême et d'Aquitaine.

Jirakova, Hana 13 April 2011 (has links) (PDF)
Les études isotopiques couplées avec des informations géothermiques peuvent constituer des outils pertinents pour l'exploration des eaux souterraines en tant que ressources en eau potable ou géothermiques. Ce travail combine les deux approches, isotopes de l'environnement et radioactifs associés à des données de température sur des aquifères profonds, dans l'objectif d'enrichir et d'améliorer la connaissance des mécanismes de recharge (Bassin d'Aquitaine, France) ainsi que des mécanismes de recharge et du potentiel géothermique (Bassin Crétacé de Bohème, République Tchèque). Les isotopes stables (18O, 2H, 13C) utilisés conjointement avec des radioisotopes (14C, 3H) sont utilisés pour estimer l'époque de la recharge ainsi que les conditions climatiques qui prévalaient lors de l'infiltration depuis la fin de Pléistocène jusqu'à nos jours. Définir le type de recharge et les conditions d'écoulement est nécessaire pour parvenir à modéliser de façon satisfaisante et fiable les grands systèmes aquifères profonds. Trois types de recharge ont été définis en Europe - (i) continue, (ii) interrompue lors du dernier maximum glaciaire (LGM) - un troisième type (iii) correspond à des situations particulières de recharge. Les conditions géographiques et climatiques très différentes rencontrées en France et en République Tchèque ont engendrées une importante hétérogénéité des conditions et processus de recharge. Le sud de la France, avec un climat relativement doux depuis les derniers 40 ka BP, n'a pas enregistré d'interruption de la recharge. Le temps de séjour des eaux souterraines en Bohème est estimé à environ 11 ka BP au maximum. Cependant, l'appauvrissement des teneurs en isotopes stables enregistré suggère une recharge liée à la fonte de la calotte glaciaire Nord Européenne après le dernier maximum glaciaire (LGM), autour de 18-20 ka BP. Des investigations sur les isotopes du carbone minéral dissous des eaux souterraines du bassin de Bohème ont montrées d'importantes interactions avec différentes sources de carbone qui ont été identifiées. Pour le site d'étude tchèque, les informations apportées par la géochimie ont été complétées par des données géothermiques afin d'améliorer la connaissance des flux et de la dynamique des eaux souterraines. Plus d'une centaine d'enregistrements diagraphiques de température ont été utilisés pour estimer le gradient géothermique. Plusieurs phénomènes viennent perturber le gradient géothermique de la région. Les flux d'eau souterraine verticaux et les variations lithologiques et topographiques sont à l'origine d'une distribution complexe du flux de chaleur, étant majoritairement conditionné par les écoulements souterraines. Les discontinuités peu profondes et les nombreux pointements volcaniques exercent aussi une influence importante sur l'écoulement souterrain et donc aussi sur le potentiel géothermique du réservoir. Les investigations sur la géothermie ont ainsi fourni des informations fondamentales sur le potentiel géothermique mais aussi sur les conditions d'écoulement des eaux souterraines. La prise en compte de ces informations s'avère nécessaire afin de proposer des modèles mathématiques d'écoulement réalistes.
30

Comprendre le Web caché

Senellart, Pierre 12 December 2007 (has links) (PDF)
Le Web caché (également appelé Web profond ou Web invisible), c'est-à-dire la partie du Web qui n'est pas directement accessible par des hyperliens, mais à travers des formulaires HTML ou des services Web, est d'une grande valeur, mais difficile à exploiter. Nous présentons un processus pour la découverte, l'analyse syntaxique et sémantique, et l'interrogation des services du Web caché, le tout de manière entièrement automatique. Nous proposons une architecture générale se basant sur un entrepôt semi-structuré de contenu imprécis (probabiliste). Nous fournissons une analyse détaillée de la complexité du modèle d'arbre probabiliste sous-jacent. Nous décrivons comment une combinaison d'heuristiques et de sondages du Web peut être utilisée pour comprendre la structure d'un formulaire HTML. Nous présentons une utilisation originale des champs aléatoires conditionnels (une méthode d'apprentissage supervisé) de manière non supervisée, sur une annotation automatique, imparfaite et imprécise, basée sur la connaissance du domaine, afin d'extraire l'information pertinente de pages de résultat HTML. Afin d'obtenir des relations sémantiques entre entrées et sorties d'un service du Web caché, nous étudions la complexité de l'obtention d'une correspondance de schémas à partir d'instances de bases de données, en se basant uniquement sur la présence des constantes dans ces deux instances. Nous décrivons enfin un modèle de représentation sémantique et d'indexation en compréhension de sources du Web caché, et débattons de la manière de traiter des requêtes de haut niveau à l'aide de telles descriptions.

Page generated in 0.0224 seconds