• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 55
  • 11
  • Tagged with
  • 146
  • 68
  • 30
  • 28
  • 27
  • 26
  • 23
  • 21
  • 21
  • 16
  • 15
  • 15
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Clonage réaliste de visage. / Realistic face clone

Manceau, Jérôme 04 May 2016 (has links)
Les clones de visage 3D peuvent être utilisés dans de nombreux domaines tels que l'interaction homme-machine et comme prétraitement dans des applications telles que l'analyse de l'émotion. Toutefois, ces clones doivent avoir la forme du visage bien modélisée tout en conservant les spécificités des individus et ils doivent être sémantiques. Un clone est sémantique quand on connaît la position des différentes parties du visage (yeux, nez ...). Dans notre technique, nous utilisons un capteur RVB-Z pour obtenir les spécificités des individus et un modèle déformable de visage 3D pour marquer la forme du visage. Pour la reconstruction de la forme, nous inversons le processus utilisé classiquement. En effet, nous réalisons d'abord le fitting puis la fusion de données. Pour chaque trame de profondeur, nous gardons les parties appropriées de données appelées patchs de forme. Selon le positionnement de ces patchs, nous fusionnons les données du capteur ou les données du modèle déformable de visage 3D. Pour la reconstruction de la texture, nous utilisons des patchs de forme et de texture pour préserver les caractéristiques de la personne. Ils sont détectés à partir des cartes de profondeur du capteur. Les tests que nous avons effectués montrent la robustesse et la précision de notre méthode. / 3D face clones can be used in many areas such as Human-Computer Interaction and as pretreatment in applications such as emotion analysis. However, such clones should have well-modeled facial shape while keeping the specificities of individuals and they should be semantic. A clone is semantic when we know the position of the different parts of the face (eyes, nose...). In our technique, we use a RGB-D sensor to get the specificities of individuals and 3D Morphable Face Model to mark facial shape. For the reconstruction of the shape, we reverse the process classically used. Indeed, we first perform fitting and then data fusion. For each depth frame, we keep the suitable parts of data called patches. Depending on the location, we merge either sensor data or 3D Morphable Face Model data. For the reconstruction of the texture, we use shape and texture patches to preserve the person's characteristics. They are detected using the depth frames of a RGB-D sensor. The tests we perform show the robustness and the accuracy of our method.
32

Salient object detection and segmentation in videos / Détection d'objets saillants et segmentation dans des vidéos

Wang, Qiong 09 May 2019 (has links)
Cette thèse est centrée sur le problème de la détection d'objets saillants et de leur segmentation dans une vidéo en vue de détecter les objets les plus attractifs ou d'affecter des identités cohérentes d'objets à chaque pixel d'une séquence vidéo. Concernant la détection d'objets saillants dans vidéo, outre une revue des techniques existantes, une nouvelle approche et l'extension d'un modèle sont proposées; de plus une approche est proposée pour la segmentation d'instances d'objets vidéo. Pour la détection d'objets saillants dans une vidéo, nous proposons : (1) une approche traditionnelle pour détecter l'objet saillant dans sa totalité à l'aide de la notion de "bordures virtuelles". Un filtre guidé est appliqué sur la sortie temporelle pour intégrer les informations de bord spatial en vue d'une meilleure détection des bords de l'objet saillants. Une carte globale de saillance spatio-temporelle est obtenue en combinant la carte de saillance spatiale et la carte de saillance temporelle en fonction de l'entropie. (2) Une revue des développements récents des méthodes basées sur l'apprentissage profond est réalisée. Elle inclut les classifications des méthodes de l'état de l'art et de leurs architectures, ainsi qu'une étude expérimentale comparative de leurs performances. (3) Une extension d'un modèle de l'approche traditionnelle proposée en intégrant un procédé de détection d'objet saillant d'image basé sur l'apprentissage profond a permis d'améliorer encore les performances. Pour la segmentation des instances d'objets dans une vidéo, nous proposons une approche d'apprentissage profond dans laquelle le calcul de la confiance de déformation détermine d'abord la confiance de la carte masquée, puis une sélection sémantique est optimisée pour améliorer la carte déformée, où l'objet est réidentifié à l'aide de l'étiquettes sémantique de l'objet cible. Les approches proposées ont été évaluées sur des jeux de données complexes et de grande taille disponibles publiquement et les résultats expérimentaux montrent que les approches proposées sont plus performantes que les méthodes de l'état de l'art. / This thesis focuses on the problem of video salient object detection and video object instance segmentation which aim to detect the most attracting objects or assign consistent object IDs to each pixel in a video sequence. One approach, one overview and one extended model are proposed for video salient object detection, and one approach is proposed for video object instance segmentation. For video salient object detection, we propose: (1) one traditional approach to detect the whole salient object via the adjunction of virtual borders. A guided filter is applied on the temporal output to integrate the spatial edge information for a better detection of the salient object edges. A global spatio-temporal saliency map is obtained by combining the spatial saliency map and the temporal saliency map together according to the entropy. (2) An overview of recent developments for deep-learning based methods is provided. It includes the classifications of the state-of-the-art methods and their frameworks, and the experimental comparison of the performances of the state-of-the-art methods. (3) One extended model further improves the performance of the proposed traditional approach by integrating a deep-learning based image salient object detection method For video object instance segmentation, we propose a deep-learning approach in which the warping confidence computation firstly judges the confidence of the mask warped map, then a semantic selection is introduced to optimize the warped map, where the object is re-identified using the semantics labels of the target object. The proposed approaches have been assessed on the published large-scale and challenging datasets. The experimental results show that the proposed approaches outperform the state-of-the-art methods.
33

Mesures du gradient accélérateur maximum dans des cavités supraconductrices en régime impulsionnel à 3 GHz

Thomas, Catherine 19 January 2000 (has links) (PDF)
NIL
34

Analyse Mathématique De Problèmes En Océanographie Côtière

Israwi, Samer 24 March 2010 (has links) (PDF)
Nous nous étudions ici le problème d'Euler avec surface libre sur un fond non plat et dans un régime fortement non linéaire où l'hypothèse de faible amplitude de l'équation de KdV n'est pas vérifiée. On sait que, pour un tel régime, une généralisation de l'équation de KdV peut être dérivée et justifiée lorsque le fond est plat. Nous généralisons ici ces résultats en proposant une nouvelle classe d'équations prenant en compte des topographies variables. Nous démontrons également que ces nouveaux modèles sont bien posés. Nous les étudions aussi numériquement. Ensuite, nous améliorons quelques résultats sur l'existence des équations de Green-Naghdi (GN) dans le cas 1D. Dans le cas de 2D, nous dérivons et étudions un nouveau système de la même précision que les équations de GN usuelles, mais avec un meilleur comportement mathématique.
35

Impact des images en 2D ou 3D sur les processus cognitifs impliqués dans le traitement visuel et dans le contrôle de l'action: le cas de la chirurgie minimale invasive

Blavier, Adelaïde 22 May 2006 (has links)
Cette thèse avait pour objectif d'analyser l'influence de certains facteurs (expertise, difficulté de la tâche) sur le traitement dimages en 2D et 3D. Le terrain choisi pour étudier cette question est le domaine de la chirurgie minimale invasive, qui, par les nouvelles technologies quelle utilise, permet de recueillir des données écologiques dans une situation réelle avec de vrais experts. Nous avons donc comparé la performance de sujets novices et experts dans des tâches de complexités diverses avec différentes technologies chirurgicales (laparoscopie classique en 2D et 3D et laparoscopie robotique en 2D et 3D). Nos plans expérimentaux nous ont permis de mettre en évidence deux dimensions distinctes : une perceptive (différence 2D-3D) et une instrumentale (différence laparoscopie classique-robotique). Nos résultats montrent dans lensemble que les différences entre le 2D et le 3D se marquent particulièrement pour les sujets novices et dans les tâches de complexité moyenne. En effet, peu de différence entre le 2D et 3D est mise en évidence chez les chirurgiens experts qui ont développé des mécanismes de compensation très efficaces quand ils sont dans un environnement en 2D. En ce qui concerne la complexité des tâches, la différence entre le 2D et 3D est minime quand la tâche est simple et augmente avec la difficulté de la tâche. Elle atteint cependant un sommet à partir duquel elle napparaît plus, la différence se marquant pour les tâches très complexes à un niveau instrumental et non plus perceptif. Enfin, nous montrons chez nos sujets novices très peu de transfert dhabiletés dune technologie à lautre, ce qui encourage la poursuite des formations avec les diverses techniques afin déviter tout risque lors dune reconversion au cours dune intervention chirurgicale. This thesis aimed to analyse the influence of some factors (expertise, task complexity) on the processing of 2D and 3D images. The field of these studies was the minimal invasive surgery which uses new technologies and allows to obtain ecological data from real experts. We compared the performance of novices (medical students) and experts (surgeons) in tasks of varied complexities with different surgical techniques (classical laparoscopy in 2D and 3d and robotic laparoscopy in 2D and 3D). Our experimental plans allowed us to differentiate two dimensions: one perceptive (2D-3D difference) and one instrumental (classical and robotic laparoscopy difference). Our main results showed that difference between 2D and 3D particularly occurs in novice performance and in tasks of middle complexity. Indeed, we observed very few differences between 2D and 3D in expert performance, surgeons have developed very efficient compensatory mechanisms when they act in 2D vision. Concerning the task complexity, the difference between 2D and 3D was really minor when the task is easy and increased with the complexity of the task. However, this difference reached a top after which the difference between 2D and 3D disappeared and thus only the instrumental difference remained for very complex tasks. Finally, we showed very switch of skills between the techniques by novice subjects. This finding stresses the necessity to pursue training with the different techniques in order to prevent gaps in performance and thus operating risk if a conversion procedure occurs.
36

Quelques Contributions à la Stabilisation Instantanée

Devismes, Stéphane 08 December 2006 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés au concept de stabilisation instantanée. Ainsi, nous avons tout d'abord proposé deux solutions instantanément stabilisantes au problème de parcours en profondeur pour des réseaux enracinés quelconques. Ces deux protocoles sont écrits dans le modèle à états et fonctionnent sous l'hypothèse d'un démon distribué inéquitable : le démon le plus général du modèle. Le premier est basé sur des listes d'identités. Le second utilise un principe de question/réponse pour remplacer les listes d'identités. Nous proposons ensuite deux applications instantanément stabilisantes obtenues à partir de nos deux protocoles de parcours en profondeur. Ces deux applications évaluent des propriétés globales sur le réseau. La première application permet de marquer les points d'articulation et les isthmes du réseau. La seconde application permet d'évaluer si un ensemble donné est un ensemble séparateur du réseau. Enfin, dans une dernière partie, nous adoptons une approche plus générale en étudiant un protocole efficace permettant de transformer semi-automatiquement des protocoles de service mono-initiateurs en protocoles instantanément stabilisants. Un protocole de parcours en profondeur et un protocole de construction d'arbre en largeur illustrent la facilité avec laquelle nous pouvons rendre instantanément stabilisants ce type protocole grâce à notre transformateur. Le protocole de parcours en profondeur est non seulement trivial à écrire mais les performances obtenues en font un compromis quasi idéal entre les protocoles à listes et à questions présentés précédemment. Enfin, grâce à une propriété de comptage due à notre transformateur, nous montrerons comment utiliser ce protocole de parcours pour résoudre en quelques lignes l'exclusion mutuelle de manière instantanément stabilisante.
37

Etude de la production de neutrinos associés aux Sursauts Gamma dans le modèle du Boulet de Canon. Possibilité d'observation de ces neutrinos par le détecteur Antares, et étude du bruit de fond optique enregistré par le prototype d'un secteur de ligne

Ferry, Sophie 17 September 2004 (has links) (PDF)
Antares est un projet de télescope à neutrinos qui sera placé au large de Toulon, à 2500 m de profondeur. L'interaction d'un neutrino avec la matière produit un muon dont la lumière Cerenkov, émise lors de sa propagation, est détectée par 900 photomultiplicateurs répartis sur 12 lignes. Les sursauts gamma (GRB) sont des phénomènes cosmiques violents, observés une fois par jour. Dans le modèle du Boulet de Canon le sursaut est produit par l'interaction d'un jet, composé de boulet de canon (CB), avec le reste d'une supernova (SNR). Des chocs se propagent vers l'avant (dans le SNR) et vers l'arrière (dans le CB), aux abords desquels, <br />les neutrinos sont produits. Une estimation de la production de neutrinos est donnée et, est étudiée sur un large espace des paramètres. Pour un GRB typique, entre 0,002 et 0,3 $\nu_{\mu}$ cm$^2$ sont produits. Selon les angles de vue, Antares pourra détecter entre 1 et 10 $\nu_{\mu}$ par an, en corrélation avec les GRB. <br />Le bruit de fond optique ambiant a été enregistré par le prototype d'une ligne d'Antares. L'analyse porte sur l'influence du bruit de fond sur le détecteur ainsi que sur l'activité des organismes qui en sont responsables. Par exemple il apparaît une périodicité entre 17,6 et 20,4 h compatible avec celle des mouvements des masses liquides imposés par la force de Coriolis à la latitude d'Antares.
38

Mesure de la fragilité et détection de chutes pour le maintien à domicile des personnes âgées

Dubois, Amandine 15 September 2014 (has links) (PDF)
Le vieillissement de la population est un enjeu majeur pour les prochaines années en raison, notamment, de l'augmentation du nombre de personnes dépendantes. La question du maintien à domicile de ces personnes se pose alors, du fait de l'impossibilité pour les instituts spécialisés de les accueillir toutes et, surtout, de la volonté des personnes âgées de rester chez elles le plus longtemps possible. Or, le développement de systèmes technologiques peut aider à résoudre certains problèmes comme celui de la sécurisation en détectant les chutes, et de l'évaluation du degré d'autonomie pour prévenir les accidents. Plus particulièrement, nous nous intéressons au développement des systèmes ambiants, peu coûteux, pour l'équipement du domicile. Les caméras de profondeur permettent d'analyser en temps réel les déplacements de la personne. Nous montrons dans cette thèse qu'il est possible de reconnaître l'activité de la personne et de mesurer des paramètres de sa marche à partir de l'analyse de caractéristiques simples extraites des images de profondeur. La reconnaissance d'activité est réalisée à partir des modèles de Markov cachés, et permet en particulier de détecter les chutes et des activités à risque. Lorsque la personne marche, l'analyse de la trajectoire du centre de masse nous permet de mesurer les paramètres spatio-temporels pertinents pour l'évaluation de la fragilité de la personne. Ce travail a été réalisé sur la base d'expérimentations menées en laboratoire, d'une part, pour la construction des modèles par apprentissage automatique et, d'autre part, pour évaluer la validité des résultats. Les expérimentations ont montré que certains modèles de Markov cachés, développés pour ce travail, sont assez robustes pour classifier les différentes activités. Nous donnons, également dans cette thèse, la précision, obtenue avec notre système, des paramètres de la marche en comparaison avec un tapis actimètrique. Nous pensons qu'un tel système pourrait facilement être installé au domicile de personnes âgées, car il repose sur un traitement local des images. Il fournit, au quotidien, des informations sur l'analyse de l'activité et sur l'évolution des paramètres de la marche qui sont utiles pour sécuriser et évaluer le degré de fragilité de la personne.
39

Sur le contexte spatial en gestion des fenêtres et interaction homme-machine.

Faure, Guillaume 15 December 2011 (has links) (PDF)
Il est admis depuis quelque temps déjà qu'une interaction, pour être utile et efficace, doit être pensée "en contexte". Cependant ce contexte reste une notion floue regroupant de nombreux concepts la rendant difficile à exploiter lors de la conception de techniques d'interaction. La présente thèse se concentre sur la partie spatiale du Contexte dans le cadre des environnements de bureau et de la gestion des fenêtres.Nous avons tout d'abord conçu et implémenté un ensemble de techniques d'interaction regroupées sous l'ap- pellation PowerTools. Ces interactions ont comme particularité de conserver la disposition des éléments à l'écran et de garder l'interaction localisée autour du point d'attention de l'utilisateur. Deux de ces techniques, DeskPop et StackLeafing s'intéressent plus particulièrement à la navigation entre les fenêtres (et le bureau) pendant une interaction de glisser-déposer. DeskPop permet de révéler et d'interagir avec l'espace du bureau sans pour autant déplacer ou cacher les fenêtres. StackLeafing elle, propose d'utiliser le non-chevauchement des fenêtres pour les regrouper en couches et ainsi pouvoir parcourir l'ensemble des fenêtres plus rapidement que par la simple inspec- tion individuelle. TimeShift pour sa part propose une méthode de déclenchement des historiques de copier-coller et glisser-déposer permettant de conserver l'interaction autour du point d'attention de l'utilisateur. La conception des PowerTools nous a conduit à effectuer trois études plus théoriques portant sur le contexte spatial et qui ont donné lieu à des expériences utilisateurs en laboratoire.La première de ces études considère l'acquisition de cibles surgissantes ou animées où nous faisons varier le délai d'apparition et d'animation. Il s'avère que l'animation ou l'apparition soudaine d'une cible reste très proche au niveau des performances du pointage classique (cible statique toujours affichée) pour des délais d'apparition ou d'animation très court (en dessous de 200 ms). Cependant, le cas non statique conduit à plus d'erreurs et, dès que le délai dépasse 200 ms, on observe des différences de performance avec le cas statique. Ces résultats montrent que des techniques telles que StackLeafing et DeskPop qui conservent les cibles potentielles statiques et visibles possèdent un avantage par rapport aux techniques classiques.La seconde étude porte sur la profondeur en gestion des fenêtres. Elle a pour but de déterminer si l'application d'un effet graphique sur les fenêtres peut aider les utilisateurs à mieux percevoir la profondeur de couches de fenêtres comme utilisé dans la technique StackLeafing. Cette étude compare trois effets, appelés indices visuels de profondeur : ombres, flou, et luminosité. Ces indices sont appliqués à des scènes composées de fenêtres disposées en couches (ensemble de fenêtres ne se recouvrant pas), les indices de flou et de luminosité étant appliqués de manière plus forte pour les couches plus profondes. Les sujets devaient alors déterminer le nombre total de couches de la scène. L'expérience montre que l'indice le plus efficace est la luminosité.Enfin, la conception de TimeShift à également porté à notre attention la difficulté d'intégrer de nouvelles tech- niques d'interaction dans un environnement existant. Dans le cas de l'implémentation des historiques de copier- ou-déplacer, nous avons utilisé des interactions "temporisées". Pour généraliser ces interactions temporelles, nous proposons que l'utilisateur communique avec le système par la reproduction de motifs rythmiques. Nous avons défini un vocabulaire propice à l'interaction homme-machine puis nous avons mené des expériences utilisateurs pour évaluer les capacités de reproduction et de mémorisation d'association de rythmes à des commandes. Les ex- périences montrent que le type d'interaction rythmique que nous proposons est effectivement adapté à l'Interaction Homme-Machine.La proposition de départ de cette thèse était de modifier le moins possible la disposition des éléments affichés et de conserver l'interaction autour du point d'attention de l'utilisateur afin de conserver le contexte et la mémoire spatiale de ce dernier. Nous avons tout d'abord conçu et intégré un ensemble de techniques dans un environnement réel. Puis, nous avons élaboré et mené des expériences en laboratoire afin de mieux comprendre les implications des choix de conception.
40

Système multimodal de prévisualisation “on set” pour le cinéma / previz on set multimodal system for cinema

De goussencourt, Timothée 19 December 2016 (has links)
La previz on-set est une étape de prévisualisation qui a lieu directement pendant la phase de tournage d’un film à effets spéciaux. Cette proposition de prévisualisation consiste à montrer au réalisateur une vue assemblée du plan final en temps réel. Le travail présenté dans cette thèse s’intéresse à une étape spécifique de la prévisualisation : le compositing. Cette étape consiste à mélanger plusieurs sources d’images pour composer un plan unique et cohérent. Dans notre cas, il s’agit de mélanger une image de synthèse avec une image issue de la caméra présente sur le plateau de tournage. Les effets spéciaux numériques sont ainsi ajoutés à la prise de vue réelle. L’objectif de cette thèse consiste donc à proposer un système permettant l’ajustement automatique du mélange entre les deux images. La méthode proposée nécessite la mesure de la géométrie de la scène filmée. Pour cette raison, un capteur de profondeur est ajouté à la caméra de tournage. Les données sont relayées à l’ordinateur qui exécute un algorithme permettant de fusionner les données du capteur de profondeur et de la caméra de tournage. Par le biais d’un démonstrateur matériel, nous avons formalisé une solution intégrée dans un moteur de jeux vidéo. Les expérimentations menées montrent dans un premier temps des résultats encourageants pour le compositing en temps réel. Nous avons observé une amélioration des résultats suite à l’introduction de la méthode de segmentation conjointe. La principale force de ce travail réside dans la mise en place du démonstrateur qui nous a permis d’obtenir des algorithmes efficaces dans le domaine de la previz on-set. / Previz on-set is a preview step that takes place directly during the shootingphase of a film with special effects. The aim of previz on-set is to show to the film director anassembled view of the final plan in realtime. The work presented in this thesis focuses on aspecific step of the previz : the compositing. This step consists in mixing multiple images tocompose a single and coherent one. In our case, it is to mix computer graphics with an imagefrom the main camera. The objective of this thesis is to propose a system for automaticadjustment of the compositing. The method requires the measurement of the geometry ofthe scene filmed. For this reason, a depth sensor is added to the main camera. The data issent to the computer that executes an algorithm to merge data from depth sensor and themain camera. Through a hardware demonstrator, we formalized an integrated solution in avideo game engine. The experiments gives encouraging results for compositing in real time.Improved results were observed with the introduction of a joint segmentation method usingdepth and color information. The main strength of this work lies in the development of ademonstrator that allowed us to obtain effective algorithms in the field of previz on-set.

Page generated in 0.0509 seconds