• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 10
  • 7
  • Tagged with
  • 58
  • 22
  • 16
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

From X-ray tomography to the first X-ray plenoptic camera for nanoparticles bio-localization / De la tomographie X à la première caméra plénoptique à rayons X pour la bio-localisation des nanoparticules

Longo, Elena 20 December 2018 (has links)
La tomographie par rayons X est une technique d’imagerie non-invasive qui permet de réaliser des images en 3D par l’acquisition de multiples images en 2D. La tomographie X par contraste de phase (XPCT) a été utilisée pour étudier la biodistribution de nanoparticules métalliques (NPs) dans des souris. Ces NPs sont très utilisées comme radiosensibilisants dans la recherche de traitements contre les cancers mais aussi pour marquer des plaques amyloïdes de la maladie d’Alzheimer chez la souris. Grace à la grande brillance du synchrotron ESRF, des images XPCT en haute résolution ont été obtenues et traitées pour produire des modèles en 3D d’organes de souris dopés aux NPs de gadolinium, d’or ou de platine.En parallèle, dans le cadre du projet Européen VOXEL (Volumetric X-ray Extremely Low dose), un microscope compact à rayons X mous a été développé pour l’imagerie cellulaire. Ce microscope fonctionne dans la « fenêtre de l’eau », une région spectrale pour laquelle un bon contraste de la structure cellulaire est réalisable naturellement. Ce microscope est conçu pour réaliser de l’imagerie plénoptique, une technique actuellement testée uniquement dans le visible. Ce système est composé d’une lentille principale et d’une matrice de micro-lentilles couplée à un détecteur, permettant d’enregistrer les composantes angulaires et spatiales des rayons arrivant au niveau du détecteur. Il est ainsi possible de produire des images en 3D à partir d’une seule exposition. Adapter cette technique disruptive aux rayons X aura, un très grand impact pour les applications biomédicales car cela permettra de réduire fortement la dose absorbée par les échantillons par rapport à la méthode conventionnelle de tomographie X. / X-ray tomography is a non-invasive imaging technique that allows producing 3D images following the acquisition of multiple 2D images at many angles. In particular, X-ray Phase-Contrast Tomography (XPCT) has been exploited for resolving the biodistribution of metal-based theranostic nanoparticles (NPs) in mice. These NPs are widely used as radiosensitizers for researches on cancer therapies and, recently to mark amyloid plaques in Alzheimer’s disease in mice. Thanks to the high brightness of ESRF synchrotron, high resolution XPCT images were obtained and thus processed for producing 3D models of mice organs doped with gadolinium, gold or platinum NPs.In parallel, in the framework of a European project, named VOXEL (Volumetric X-ray Extremely Low dose), a compact desktop-size soft X-ray microscope was developed aiming at biological cell imaging. The microscope was designed to be suitable in the so-called “water window” spectral range, where a natural good contrast of the cellular structures is achievable. The microscope was conceived to perform plenoptic imaging, a technology currently tested only in the visible domain. This device is composed of a main lens and a microlens array coupled to a detector, allowing recording the spatial and the angular components of the light rays travelling up to the detector and thus enabling producing 3D images in a single exposure. By adapting this disrupting technology to X-rays, a huge impact for bio-medical applications is foreseen, since it would lead to a drastic decrease of the dose absorbed by samples, compared to traditional X-ray tomography methods.
42

Using experiment and first-principles to explore the stability of solid electrolytes for all-solid-state lithium batteries

Benabed, Yasmine 01 1900 (has links)
Cotutelle entre l'Université de Montréal et l'Université catholique de Louvain / Les batteries aux ions lithium (BIL) sont considérées comme la technologie la plus prometteuse en matière de stockage d’énergie. Elles possèdent les plus hautes densités d’énergie connues, permettant la miniaturisation constante des appareils électroniques commercialisés. La recherche dans le domaine des BIL s’est plus récemment tournée vers leur implémentation dans les véhicules électriques, qui nécessitera de plus hautes densités d’énergie et de puissance . Une manière concrète d’augmenter la densité d’énergie d’une BIL est d’en augmenter le voltage de cellule. Pour se faire, la nouvelle génération de batteries sera composée de matériaux d’électrode positive à haut potentiel (tel que LiMn1.5Ni0.5O4 avec un potentiel de 4.7 V vs. Li+ /Li) et de lithium métallique en électrode négative. Néanmoins, l’introduction de ces matériaux d’électrode positive à haut potentiel est limitée par la stabilité électrochimique de l’électrolyte liquide conventionnel, composé d’un sel de lithium et de solvants organiques (typiquement LiPF6 + EC/DEC), qui s’oxyde autour de 4.2 V vs. Li+/Li , . L’utilisation du lithium métallique comme électrode négative est entravée par la nature liquide de l’électrolyte conventionnel, qui n’offre pas assez de résistance mécanique pour empêcher la formation de dendrites de lithium, causant à terme le court-circuit de la batterie. De tels courts-circuits présentent un risque d’incendie car les électrolytes liquides sont composés de solvants organiques inflammables à basse température, posant un sérieux problème de sécurité. Les électrolytes solides, de type céramique ou polymères, sont développés en alternative aux électrolytes liquides. Ils ne contiennent aucun solvant inflammable et sont stables à haute température. Ils constituent l’élément clé d’une nouvelle génération de batteries au lithium dite batteries au lithium tout-solide. Ces dernières sont développées pour répondre à des attentes élevées en termes de sécurité, de stabilité et de haute densité d’énergie. Les électrolytes solides doivent satisfaire un certain nombre d'exigences avant de pouvoir être commercialisés, notamment posséder une conductivité ionique élevée, une large fenêtre de stabilité électrochimique et une conductivité électronique négligeable. Ces propriétés constituent les critères les plus importants à prendre en compte pour la sélection de matériaux d’électrolytes solides. Cependant, on remarque dans la littérature que la majorité des études se concentre sur la conductivité ionique des électrolytes solides, reléguant au second plan l’exploration de leurs stabilité électrochimique et conductivité électronique. La fenêtre de stabilité électrochimique a longtemps été annoncée comme étant très large chez les électrolytes solides céramiques (au moins de 0 à 5 V vs. Li+/Li). Néanmoins, des études plus récentes tendent à démontrer que la valeur de cette fenêtre dépend grandement de la méthode électrochimique utilisée pour la mesurer, et qu’elle est de surcroit souvent surestimée. Dans ce contexte, le premier objectif de cette thèse a été de développer une méthode pertinente pour déterminer la fenêtre de stabilité des électrolytes solides avec précision. Cette méthode a été optimisée et validée sur des électrolytes solides céramiques phare comme Li1.5Al0.5Ge1.5(PO4)3, Li1.3Al0.3Ti1.7(PO4)3 et Li7La3Zr2O12. Quant à la conductivité électronique, elle est rarement étudiée dans les électrolytes solides, qui sont considérés comme isolants électroniques compte tenu de leur large bande interdite. Cela dit, de récentes études à ce sujet prouvent que malgré leur bande interdite, les électrolytes solides peuvent générer de la conductivité électronique par le biais de défauts, et que celle-ci, même faible, peut éventuellement mettre l’électrolyte en échec. Pour cette raison, le second objectif de ce projet de thèse a été d’explorer la formation de défauts dans les électrolytes solides afin de déterminer leur effet sur la génération de conductivité électronique. Pour avoir une vision d’ensemble, les premiers-principes ont été utilisés pour étudier six électrolytes solides largement utilisés notamment LiGe2(PO4)3, LiTi2(PO4)3, Li7La3Zr2O12, et Li3PS4. / Lithium-ion batteries (LIBs) are considered the most promising energy storage technology. LIBs electrode materials have the highest known energy densities, allowing the constant miniaturization of commercial electronic devices. Research in the field of LIBs has more recently turned to their implementation in electric vehicles, which will require higher energy and power densities . A concrete way to increase the energy density of LIBs is to increase the cell voltage. To do so, the new generation of batteries will be composed of high potential positive electrode materials (such as LiMn1.5Ni0.5O4 with a potential of 4.7 V vs. Li+/Li) and metallic lithium in the negative electrode. Nevertheless, the introduction of these high potential positive electrode materials is limited by the electrochemical stability of conventional liquid electrolytes, composed of a lithium salt and organic solvents (LiPF6 + EC/DEC), which gets oxidized around 4.2 V vs. Li+/Li , . The use of metallic lithium as the negative electrode is also hindered by the liquid nature of the conventional electrolyte, which does not offer enough mechanical resistance to prevent the formation of lithium dendrites, ultimately causing a short-circuit of the battery. Such short-circuits are likely to lead to thermal runaway because liquid electrolytes are composed of organic solvents that are flammable at low temperature, posing a serious safety issue. Solid electrolytes, based on ceramics or polymers, are developed as an alternative to liquid electrolytes. They contain no flammable solvents and are stable at high temperatures. They are the key element of a new generation of lithium batteries called all-solid-state lithium batteries. These are developed to meet high expectations in terms of safety, stability and high energy density. Solid electrolytes must satisfy a number of requirements before they can be commercialized, including possessing a high ionic conductivity, a wide electrochemical stability window and negligible electronic conductivity. These properties are the most important criteria to consider when selecting solid electrolyte materials. However, the majority of studies found in the literature focuses on the ionic conductivity of solid electrolytes, overshadowing the exploration of their electrochemical stability and electronic conductivity. The electrochemical stability window has long been reported to be very wide in ceramic solid electrolytes (at least from 0 to 5 V vs. Li+/Li). Nevertheless, more recent studies tend to show that the value of this window depends greatly on the electrochemical method used to measure it, and that it is often overestimated. In this context, the first objective of this thesis was to develop a relevant method to determine the stability window of solid electrolytes with precision. This method was optimized and validated on flagship ceramic solid electrolytes such as Li1.5Al0.5Ge1.5(PO4)3, Li1.3Al0.3Ti1.7(PO4)3 and Li7La3Zr2O12. As for the electronic conductivity, it is scarcely studied in solid electrolytes, which are considered as electronic insulators given their wide band gaps. That being said, more recent studies on this subject proved that despite their band gap, solid electrolytes can generate electronic conductivity through defects, and that electronic conductivity, even if it is weak, can eventually cause the failure of the electrolyte. For this reason, the second objective of this thesis project was to explore the formation of defects in solid electrolytes in order to determine their effect on the generation of electronic conductivity. To get a better overview, first-principles were used to investigate six widely used ceramic solid electrolytes, including LiGe2(PO4)3, LiTi2(PO4)3, Li7La3Zr2O12, and Li3PS4.
43

Dégradation des aspérités des joints rocheux sous différentes conditions de chargement

Fathi, Ali January 2015 (has links)
Résumé: L’objectif de cette thèse est d’interpréter la dégradation des aspérités des joints rocheux sous différentes conditions de chargement. Pour cela, la variation des aspérités durant les différentes étapes du cisaillement d’un joint rocheux est observée. Selon le concept appelé “tiny windows”, une nouvelle méthodologie de caractérisation des épontes des joints a été développée. La méthodologie est basée sur les coordonnées tridimensionnelles de la surface des joints et elles sont mesurées après chaque essai. Après la reconstruction du modèle géométrique de la surface du joint, les zones en contact sont identifiées à travers la comparaison des hauteurs des “tiny windows” superposées. Ainsi, la distribution des zones de la surface en contact, endommagées et sans contact ont été identifiées. La méthode d’analyse d’image a été utilisée pour vérifier les résultats de la méthodologie proposée. Les résultats indiquent que cette méthode est appropriée pour déterminer la taille et la distribution des surfaces du joint en contact et endommagées à différentes étapes du cisaillement. Un ensemble de 38 répliques ont été préparées en coulant du mortier sans retrait sur une surface de fracture obtenue à partir d’un bloc de granite. Différentes conditions de chargement, incluant des chargements statiques et cycliques ont été appliquées afin d’étudier la dégradation des aspérités à différentes étapes du procédé de cisaillement. Les propriétés géométriques des “tiny windows” en contact en phase pré-pic, pic, post-pic et résiduelle ont été analysées en fonction de leurs angles et de leurs auteurs. Il a été remarqué que les facettes des aspérités faisant face à la direction de cisaillement jouent un rôle majeur dans le cisaillement. Aussi, il a été observé que les aspérités présentent différentes contributions dans le cisaillement. Les aspérités les plus aigües (“tiny windows” les plus inclinées) sont abîmées et les aspérités les plus plates glissent les unes sur les autres. Les aspérités d’angles intermédiaires sont définies comme “angle seuil endommagé” et “angle seuil en contact”. En augmentant la charge normale, les angles seuils diminuent d’une part et, d’autre part, le nombre de zones endommagées et en contact augmentent. Pour un petit nombre de cycles (avec faible amplitude et fréquence), indépendamment de l’amplitude, une contraction apparaît ; par conséquent, la surface en contact et les paramètres de résistance au cisaillement augmentent légèrement. Pour un grand nombre de cycles, la dégradation est observée à l’échelle des aspérités de second ordre, d’où une baisse des paramètres de résistance au cisaillement. Il a été aussi observée que les “tiny windows” avec différentes inclinaisons contribuent au processus de cisaillement, en plus des “tiny windows” les plus inclinées (aspérités plus aigües). Les résultats de la méthode proposée montrent que la différenciation entre les zones en contact et celles endommagées s’avère utile pour une meilleure compréhension du mécanisme de cisaillement des joints rocheux. / Abstract: The objective of the current research is to interpret the asperity degradation of rock joints under different loading conditions. For this aim, the changes of asperities during different stages of shearing in the three-dimensional joint surface are tracked. According to a concept named ‘tiny window’, a new methodology for the characterization of the joint surfaces was developed. The methodology is based on the three-dimensional coordinates of the joints surface that are captured before and after each test. After the reconstruction of geometric models of joint surface, in-contact areas were identified according to the height comparison of the face to face tiny windows. Therefore, the distribution and size of just in-contact areas, in-contact damaged areas and not in-contact areas are identified. Image analysis method was used to verify the results of the proposed method. The results indicated that the proposed method is suitable for determining the size and distribution of the contact and damaged areas at any shearing stage. A total of 38 replicas were prepared by pouring non-shrinking cement mortar on a fresh joint surface of a split granite block. Various loading conditions include monotonic and cyclic loading were applied to study the asperities degradation at different stages of shearing. The geometric properties of the in-contact tiny windows in the pre-peak, peak, post-peak softening and residual shearing stages were investigated based on their angle and height. It was found that those asperities facing the shear direction have the primary role in shearing. It is remarkable that different part of these asperities has their own special cooperation in shearing. The steepest parts (steeper tiny windows) are wore and the flatter parts (flatter tiny windows) are slid. The borderlines between these tiny windows defined as “damaged threshold angle” and “in-contact threshold angle”. By increasing normal load, both the amounts of threshold angles are decreased and contact and damaged areas increased. During low numbers of cycles (with low amplitude and frequency), independent of the type of cycle, contraction occurs and consequently the contact area and the shear strength parameters slightly increased. During larger number of cycles, degradation occurred on the second order asperities, therefore the shear strength parameters slowly decreased. It was also observed that tiny windows with different heights participate in the shearing process, not just the highest ones. The results of the proposed method indicated that considering differences between just in-contact areas and damaged areas provide useful insights into understanding the shear mechanism of rock joints.
44

Equation d'état du fer comprimé par choc laser

Huser, Gael 19 January 2004 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des recherches menées sur l'équation d'état de matériaux fortement comprimés. En particulier cette étude se focalise sur le cas du fer comprimé par choc laser. Le but est alors de se rapprocher des conditions du noyau terrestre, constitué d'une graine solide entourée de fer liquide. La compréhension des phénomènes décrivant la thermodynamique du noyau et le processus de géodynamo requiert la connaissance du lieu de la courbe de fusion du fer à l'interface solide-liquide du noyau à 3,3 Mbar. Plusieurs expériences ont été menées dans ce but. Dans un premier temps, une mesure absolue de l'Hugoniot du fer a été effectuée. Vient ensuite une étude des états en détente partielle du fer dans un matériau fenêtre, le fluorure de lithium (LiF). Cette configuration permet un accès direct aux propriétés optiques du fer comprimé (réflectivité et émission propre). La mesure de la vitesse d'interface, largement dépendante des propriétés optiques du LiF comprimé, sert de jauge de pression. A l'aide d'un diagnostic de réflectivité à deux longueurs d'onde, la conductivité électrique continue du fer comprimé a été estimée et se trouve être en bon accord avec les résultats annoncés par la littérature géophysique. Le diagnostic d'émission propre a quant à lui permis d'effectuer une mesure de la température du fer en détente partielle, mettant en évidence le changement d'état solide-liquide à des pressions de l'ordre du Mbar.
45

Analyse des variations de la température du proche sous-sol : interprétation ; application à certains problèmes géotechniques

Barret, Marc 18 October 1984 (has links) (PDF)
La première partie est consacrée à un rappel théorique des propliétés thermiques des matériaux, à des notions sur les flux et transferts thermiques ainsi qu'à la définition du modèle étu* dié où les variations de température sont des ondes thermiques sinusoïdales et où les transferts se font uniquement par conduction. On étudie ensuite les facteurs influençant les échanges thermiques de ce modèle, et notamment la conductivité et la diffusivité. Dans la deuxième partie, après avoir examiné des exemples de données, on montre la nécessité de les traiter pour parvenir à l'extraction de certains paramètres du modèle choisi. Les outils de traitement sont l'analyse spectrale, globale et par fenêtre mobile, et le filtrage fréquentiel numérique. Quelques méthodes de calcul de la diffusivité, du flux thermique conductif et du stock de chaleur sont alors exposées ainsi que les conditions de leur validité, tant d'un point de vue théorique que lors d'applications numériques sur données réelles et synthétiques. Deux exemples d'application géotechnique sont présentés dans la troisième partie où l'on utilise la température du proche sous-sol. .. Le premier exemple concerne le problème de la fiabilité des données transmises par un câble enterré lors de variations temporelles de la température. Il apparaît alors nécessaire de connaÎtre la diffusivité thermique des terrains rencontrés. Celie-ci est calculée à partir d'enregistrements de température par les méthodes présentées dans la deuxième partie. La différence de comportement thermique entre les terrains est ainsi mise en évidence. ..Dans le deuxième exemple, on cherche à déceler des circulations d'eau dans le proche sous-sol par les anomalies qu'elles sont susceptibles d'y provoquer .
46

VCSEL oxydés à base de GaAs émettant à 1.3 µm: conception, fabrication et caractérisation.

Pougeoise, Emilie 14 December 2006 (has links) (PDF)
Ce travail, consacré à la conception, la réalisation et la caractérisation de VCSEL à diaphragme d'oxyde<br />sur substrat GaAs, a pour objectif d'obtenir un composant émettant à 1.3 μm, longueur d'onde d'intérêt pour<br />les transmissions optiques haut débit et moyenne distance. Après l'introduction du contexte économique et<br />historique de l'étude, nous abordons les points clés de la conception du VCSEL : matériau actif, dopage<br />des miroirs, oxydation latérale. Nous avons fabriqué et caractérisé des VCSEL à partir de trois matériaux<br />actifs diérents : des puits quantiques d'InGaAsN/GaAs, des puits quantiques d'InGaAs/GaAs fortement<br />contraints et des boîtes quantiques d'In(Ga)As/GaAs. Leurs caractérisations électro-optiques conrment que<br />la longueur d'onde d'émission des composants réalisés est supérieure à 1270 nm et atteint 1300 nm dans le cas<br />de puits d'InGaAs très contraints. Ces lasers présentent également des courants seuil de l'ordre du milliampère<br />et des puissances optiques de quelques centaines de microwatts pour les puits quantiques d'InGaAsN et les<br />boîtes quantiques d'In(Ga)As, et jusqu'à 1.77 mW pour les puits quantiques d'InGaAs contraints. A de<br />rares exceptions près, l'émission laser devient multimode transverse lorsque l'on augmente le courant injecté.<br />En particulier, les VCSEL à puits quantiques d'InGaAs très contraints présentent un comportement modal<br />spécique avec des modes d'oxyde inattendus. L'étude de ces modes nous amène notamment à observer leur<br />répartition spatiale par microscopie en champ proche spectralement résolue. La compréhension de l'origine<br />des modes transverses dans une cavité VCSEL constitue un premier pas vers leur suppression en vue d'une<br />émission monomode compatible avec les standards des télécommunications optiques.
47

Contribution au traitement du signal pour le contrôle de santé in situ de structures composites : application au suivi de température et à l'analyse des signaux d'émission acoustique

Hamdi, Seif Eddine 12 October 2012 (has links) (PDF)
Le contrôle de santé structural ou Structural Health Monitoring (SHM) des matériaux constitue une démarche fondamentale pour la maîtrise de la durabilité et de la fiabilité des structures en service. Au-delà des enjeux industriels et humains qui ne cessent de s'accroître en termes de sécurité et de fiabilité, le contrôle de santé doit faire face à des exigences de plus en plus élaborées. Les nouvelles stratégies de contrôle de santé doivent non seulement détecter et identifier l'endommagement mais aussi quantifier les différents phénomènes qui en sont responsables. Pour atteindre cet objectif, il est nécessaire d'accéder à une meilleure connaissance des processus d'endommagement. Par ailleurs, ceux-ci surviennent fréquemment sous l'effet de sollicitations mécaniques et environnementales. Ainsi, il est indispensable, d'une part, d'élaborer des méthodes de traitement des signaux permettant d'estimer les effets des conditions environnementales et opérationnelles, dans un contexte de l'analyse des événements précurseurs des mécanismes d'endommagement, et, d'autre part, de définir les descripteurs d'endommagement les plus adaptés à cette analyse. Cette étude propose donc des méthodes de traitement du signal permettant d'atteindre cet objectif, dans un premier temps, pour l'estimation des effets externes sur les ondes multidiffusées dans un contexte de contrôle de santé actif et, dans un second temps, pour l'extraction d'un indicateur d'endommagement à partir de l'analyse des signaux d'émission acoustique dans un contexte de contrôle de santé passif. Dans la première partie de ce travail, quatre méthodes de traitement du signal sont proposées. Celles-ci permettent de prendre en compte les variations des conditions environnementales dans la structure, qui dans le cadre de cette thèse, se sont limitées au cas particulier du changement de la température. En effet, les variations de température ont pour effet de modifier les propriétés mécaniques du matériau et par conséquent la vitesse de propagation des ondes ultrasonores. Ce phénomène entraîne alors une dilatation temporelle des signaux acoustiques qu'il convient d'estimer afin de suivre les variations de température. Quatre estimateurs de coefficients de dilatation sont alors étudiés : Il s'agit de l'intercorrélation à fenêtre glissante, utilisée comme méthode de référence, la méthode du stretching, l'estimateur à variance minimale et la transformée exponentielle. Les deux premières méthodes ont été déjà validées dans la littérature alors que les deux dernières ont été développées spécifiquement dans le cadre de cette étude. Par la suite, une évaluation statistique de la qualité des estimations est menée grâce à des simulations de Monte-Carlo utilisant des signaux de synthèse. Ces signaux sont basés sur un modèle de signal multidiffusé prenant en compte l'influence de la température. Une estimation sommaire de la complexité algorithmique des méthodes de traitement du signal complète également cette phase d'évaluation. Enfin, la validation expérimentale des méthodes d'estimation est réalisée sur deux types de matériaux : Tout d'abord, dans une plaque d'aluminium, milieu homogène dont les caractéristiques sont connues, puis, dans un second temps dans un milieu fortement hétérogène prenant la forme d'une plaque composite en verre/epoxy. Dans ces expériences, les plaques sont soumises à différentes températures dans un environnement thermique contrôlé. Les estimations de température sont alors confrontées à un modèle analytique décrivant le comportement du matériau. La seconde partie de ce travail concerne la caractérisation in situ des mécanismes d'endommagement par émission acoustique dans des matériaux hétérogènes. Les sources d'émission acoustique génèrent des signaux non stationnaires...
48

Détection non supervisée d'évènements rares dans un flot vidéo : application à la surveillance d'espaces publics / Unsupervised detection of rare events in a video stream : application to the surveillance of public spaces

Luvison, Bertrand 13 December 2010 (has links)
Cette thèse est une collaboration entre le LAboratoire des Sciences et Matériaux pour l’Électronique et d’Automatique (LASMEA) de Clermont-Ferrand et le Laboratoire Vision et Ingénierie des Contenus (LVIC) du CEA LIST à Saclay. La première moitié de la thèse a été accomplie au sein de l’équipe ComSee (1) du LASMEA et la deuxième au LVIC. L’objectif de ces travaux est de concevoir un système de vidéo-assistance temps réel pour la détection d’évènements dans des scènes possiblement denses.La vidéosurveillance intelligente de scènes denses telles que des foules est particulièrement difficile, principalement à cause de leur complexité et de la grande quantité de données à traiter simultanément. Le but de cette thèse consiste à élaborer une méthode de détection d’évènements rares dans de telles scènes, observées depuis une caméra fixe. La méthode en question s’appuie sur l’analyse automatique de mouvement et ne nécessite aucune information à priori. Les mouvements nominaux sont déterminés grâce à un apprentissage statistique non supervisé. Les plus fréquemment observés sont considérés comme des évènements normaux. Une phase de classification permet ensuite de détecter les mouvements déviant trop du modèle statistique, pour les considérer comme anormaux. Cette approche est particulièrement adaptée aux lieux de déplacements structurés, tels que des scènes de couloirs ou de carrefours routiers. Aucune étape de calibration, de segmentation de l’image, de détection d’objets ou de suivi n’est nécessaire. Contrairement aux analyses de trajectoires d’objets suivis, le coût calculatoire de notre méthode est invariante au nombre de cibles présentes en même temps et fonctionne en temps réel. Notre système s’appuie sur une classification locale du mouvement de la scène, sans calibration préalable. Dans un premier temps, une caractérisation du mouvement est réalisée, soit par des méthodes classiques de flot optique, soit par des descripteurs spatio-temporels. Ainsi, nous proposons un nouveau descripteur spatio-temporel fondé sur la recherche d’une relation linéaire entre les gradients spatiaux et les gradients temporels en des zones où le mouvement est supposé uniforme. Tout comme les algorithmes de flot optique, ce descripteur s’appuie sur la contrainte d’illumination constante.Cependant en prenant en compte un voisinage temporel plus important, il permet une caractérisation du mouvement plus lisse et plus robuste au bruit. De plus, sa faible complexité calculatoire est bien adaptée aux applications temps réel. Nous proposons ensuite d’étudier différentes méthodes de classification : La première, statique, dans un traitement image par image, s’appuie sur une estimation bayésienne de la caractérisation du mouvement au travers d’une approche basée sur les fenêtres de Parzen. Cette nouvelle méthode est une variante parcimonieuse des fenêtres de Parzen. Nous montrons que cette approche est algorithmiquement efficace pour approximer de manière compacte et précise les densités de probabilité. La seconde méthode, basée sur les réseaux bayésiens, permet de modéliser la dynamique du mouvement. Au lieu de considérer ce dernier image par image, des séquences de mouvements sont analysées au travers de chaînes de Markov Cachées. Ajouté à cela, une autre contribution de ce manuscrit est de prendre en compte la modélisation du voisinage d’un bloc afin d’ajouter une cohérence spatiale à la propagation du mouvement. Ceci est réalisé par le biais de couplages de chaînes de Markov cachées.Ces différentes approches statistiques ont été évaluées sur des données synthétiques ainsi qu’en situations réelles, aussi bien pour la surveillance du trafic routier que pour la surveillance de foule.Cette phase d’évaluation permet de donner des premières conclusions encourageantes quant à la faisabilité de la vidéosurveillance intelligente d’espaces possiblement denses. / The automatic analysis of crowded areas in video sequences is particularly difficult because ofthe large amount of information to be processed simultaneously and the complexity of the scenes. We propose in this thesis a method for detecting abnormal events in possibly dense scenes observed from a static camera. The approach is based on the automatic classification of motion requiring no prior information. Motion patterns are encoded in an unsupervised learning framework in order to generate a statistical model of frequently observed (aka. normal) events. Then at the detection stage, motion patterns that deviate from the model are classified as unexpected events. The method is particularly adapted to scenes with structured movement with directional flow of objects or people such as corridors, roads, intersections. No camera calibration is needed, nor image segmentation, object detection and tracking. In contrast to approaches that rely on trajectory analysis of tracked objects, our method is independent of the number of targets and runs in real-time. Our system relies on a local classification of global scene movement. The local analysis is done on each blocks of a regular grid. We first introduce a new spatio-temporal local descriptor to characterize the movement efficiently. Assuming a locally uniform motion of space-time blocks of the image, our approach consists in determining whether there is a linear relationship between spatial gradients and temporal gradients. This spatio-temporal descriptor holds the Illumination constancy constraint like optical flow techniques, but it allows taking into account the spatial neighborhood and a temporal window by giving a smooth characterization of the motion, which makes it more robust to noise. In addition, its low computational complexity is suitable for real-time applications. Secondly, we present two different classification frameworks : The first approach is a static (frame by frame) classification approach based on a Bayesian characterization of the motion by using an approximation of the Parzen windowing method or Kernel Density Estimation (KDE) to model the probability density function of motion patterns.This new method is the sparse variant of the KDE (SKDE). We show that the SKDE is a very efficient algorithm giving compact representations and good approximations of the density functions. The second approach, based on Bayesian Networks, models the dynamics of the movement. Instead of considering motion patterns in each block independently, temporal sequences of motion patterns are learned by using Hidden Markov Models (HMM). The second proposed improvement consists in modeling the movement in one block by taking into account the observed motion in adjacent blocks. This is performed by the coupled HMM method. Evaluations were conducted to highlight the classification performance of the proposed methods,on both synthetic data and very challenging real video sequences captured by video surveillance cameras.These evaluations allow us to give first conclusions concerning automatic analyses of possibly crowded area.
49

Sensor-based navigation applied to intelligent electric vehicles / Navigation référencée capteurs appliquée aux véhicules électriques intelligents

Alves de Lima, Danilo 17 June 2015 (has links)
La navigation autonome des voitures robotisées est un domaine largement étudié avec plusieurs techniques et applications dans une démarche coopérative. Elle intègre du contrôle de bas niveau jusqu’à la navigation globale, en passant par la perception de l’environnement, localisation du robot, et autres aspects dans une approche référencée capteurs. Bien qu’il existe des travaux très avancés, ils présentent encore des problèmes et limitations liés aux capteurs utilisés et à l’environnement où la voiture est insérée.Ce travail aborde le problème de navigation des voitures robotisées en utilisant des capteurs à faible coût dans des milieux urbains. Dans cette thèse, nous avons traité le problème concernant le développement d’un système global de navigation autonome référencée capteur appliqué à un véhicule électrique intelligent, équipé avec des caméras et d’autres capteurs. La problématique traitée se décline en trois grands domaines de la navigation robotique : la perception de l’environnement, le contrôle de la navigation locale et la gestion de la navigation globale. Dans la perception de l’environnement, une approche de traitement d’image 2D et 3D a été proposé pour la segmentation de la route et des obstacles. Cette méthode est appliquée pour extraire aussi des caractéristiques visuelles, associées au milieu de la route, pour le contrôle de la navigation locale du véhicule. Avec les données perçues, une nouvelle méthode hybride de navigation référencée capteur et d’évitement d’obstacle a été appliquée pour le suivi de la route. Cette méthode est caractérisée par la validation d’une stratégie d’asservissement visuel (contrôleur délibératif) dans une nouvelle formulation de la méthode “fenêtre dynamique référencée image" (Dynamic Window Approach - DWA, en anglais) (contrôleur réactif). Pour assurer la navigation globale de la voiture, nous proposons l’association des données de cartes numériques afin de gérer la navigation locale dans les points critiques du chemin, comme les intersections de routes. Des essais dans les scénarios difficiles, avec une voiture expérimentale, et aussi en environnement simulé, montrent la viabilité de la méthode proposée. / Autonomous navigation of car-like robots is a large domain with several techniques and applications working in cooperation. It ranges from low-level control to global navigation, passing by environment perception, robot localization, and many others in asensor-based approach. Although there are very advanced works, they still presenting problems and limitations related to the environment where the car is inserted and the sensors used. This work addresses the navigation problem of car-like robots based on low cost sensors in urban environments. For this purpose, an intelligent electric vehicle was equipped with vision cameras and other sensors to be applied in three big areas of robot navigation : the Environment Perception, Local Navigation Control, and Global Navigation Management. In the environment perception, a 2D and 3D image processing approach was proposed to segment the road area and detect the obstacles. This segmentation approach also provides some image features to local navigation control.Based on the previous detected information, a hybrid control approach for vision based navigation with obstacle avoidance was applied to road lane following. It is composed by the validation of a Visual Servoing methodology (deliberative controller) in a new Image-based Dynamic Window Approach (reactive controller). To assure the car’s global navigation, we proposed the association of the data from digital maps in order tomanage the local navigation at critical points, like road intersections. Experiments in a challenging scenario with both simulated and real experimental car show the viabilityof the proposed methodology.
50

Temporal processing in autism spectrum disorder and developmental dyslexia : a systematic review and meta-analysis

Meilleur, Alexa 12 1900 (has links)
Les individus ayant un trouble du spectre de l’autisme (TSA) ou une dyslexie développementale (DD) semblent avoir des difficultés de traitement temporel. Ces difficultés peuvent avoir un impact sur des processus de haut-niveau, comme la communication, les compétences sociales, la lecture et l’écriture. La présente méta-analyse a examiné deux tests de traitement temporel afin de remplir les objectifs suivants: 1) déterminer si les difficultés de traitement temporel sont un trait commun au TSA et à la DD, et ce pour le traitement multisensoriel et unisensoriel, pour différentes modalités et types de stimuli, 2) d’évaluer la relation entre la sévérité clinique et le traitement temporel, et 3) d’examiner l’effet de l’âge sur le traitement temporel. Les résultats ont montré un déficit de traitement temporel dans le TSA et la DD, caractérisé de déficits multisensoriels chez ces deux populations, et de déficits unisensoriels auditifs, tactiles et visuels pour la DD. De plus, notre analyse de la sévérité clinique indique qu’un meilleur traitement temporel en DD est associé à de meilleures compétences en lecture. Enfin, les déficits de traitement temporel ne varient pas avec l’âge des individus TSA et DD, ils sont donc présents tout au long du développement et de la vie adulte. En conclusion, les résultats de la méta-analyse montrent que les difficultés de traitement temporel font partie du cadre clinique du TSA et de la DD et permettent d’émettre des recommandations pour de futures recherches et interventions. / Individuals with autism spectrum disorder (ASD) or developmental dyslexia (DD) are commonly reported to have deficits in temporal processing. These deficits can impact higher-order processes, such as social communication, reading and writing. In this thesis, quantitative meta-analyses are used to examine two temporal processing tasks, with the following objectives: 1) determine whether temporal processing deficits are a consistent feature of ASD and DD across specific task contexts such as multisensory and unisensory processing, modality and stimulus type, 2) investigate the relationship between symptom severity and temporal processing, and 3) examine the effect of age on temporal processing deficits. The results provide strong evidence for impaired temporal processing in both ASD and DD, as measured by judgments of temporal order and simultaneity. Multisensory temporal processing was impaired for both ASD and DD, and unisensory auditory, tactile and visual processing was impaired in DD. Greater reading and spelling skills in DD were associated with greater temporal precision. Temporal deficits did not show changes with age in either disorder. In addition to more clearly defining temporal impairments in ASD and DD, the results highlight common and distinct patterns of temporal processing between these disorders. Deficits are discussed in relation to existing theoretical models, and recommendations are made for future research and interventions.

Page generated in 0.0385 seconds