• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 528
  • 225
  • 59
  • 31
  • 8
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 863
  • 241
  • 154
  • 152
  • 144
  • 138
  • 123
  • 118
  • 108
  • 104
  • 100
  • 92
  • 86
  • 85
  • 78
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
621

Reconnaissance rapide et précise d'actions humaines à partir de caméras RGB-D. / Fast and accurate human action recognition using RGB-D cameras

Ghorbel, Enjie 12 October 2017 (has links)
ARécemment, les caméras RGB-D ont été introduites sur le marché et ont permis l’exploration de nouvelles approches de reconnaissance d’actions par l’utilisation de deux modalités autres que les images RGB, à savoir, les images de profondeur et les séquences de squelette. Généralement, ces approches ont été évaluées en termes de taux de reconnaissance. Cette thèse s’intéresse principalement à la reconnaissance rapide d’actions à partir de caméras RGB-D. Le travail a été focalisé sur une amélioration conjointe de la rapidité de calcul et du taux de reconnaissance en vue d’une application temps-réel. Dans un premier temps, nous menons une étude comparative des méthodes existantes de reconnaissance d’actions basées sur des caméras RGB-D en utilisant les deux critères énoncés : le taux de reconnaissance et la rapidité de calcul. Suite aux conclusions résultant de cette étude, nous introduisons un nouveau descripteur de mouvement, à la fois précis et rapide, qui se base sur l’interpolation par splines cubiques de valeurs cinématiques du squelette, appelé Kinematic Spline Curves (KSC). De plus, afin de pallier les effets négatifs engendrés par la variabilité anthropométrique, la variation d’orientation et la variation de vitesse, des méthodes de normalisation spatiale et temporelle rapide ont été proposées. Les expérimentations menées sur quatre bases de données prouvent la précision et la rapidité de ce descripteur. Dans un second temps, un deuxième descripteur appelé Hiearchical Kinematic Coavarince(HKC) est introduit. Ce dernier est proposé dans l’optique de résoudre la question de reconnaissance rapide en ligne. Comme ce descripteur n’appartient pas à un espace euclidien, mais à l’espace des matrices Symétriques semi-Définies Positives (SsDP), nous adaptons les méthodes de classification à noyau par l’introduction d’une distance inspirée de la distance Log-Euclidienne, que nous appelons distance Log-Euclidienne modifiée. Cette extension nous permet d’utiliser des classifieurs adaptés à l’espace de caractéristiques (SPsD).Une étude expérimentale montre l’efficacité de cette méthode non seulement en termes de rapidité de calcul et de précision, mais également en termes de latence observationnelle. Ces conclusions prouvent que cette approche jointe à une méthode de segmentation d’actions pourrait s’avérer adaptée à la reconnaissance en ligne et ouvrent ainsi de nouvelles perspectives pour nos travaux futurs. / The recent availability of RGB-D cameras has renewed the interest of researchers in the topic of human action recognition. More precisely, several action recognition methods have been proposed based on the novel modalities provided by these cameras, namely, depth maps and skeleton sequences. These approaches have been mainly evaluated in terms of recognition accuracy. This thesis aims to study the issue of fast action recognition from RGB-D cameras. It focuses on proposing an action recognition method realizing a trade-off between accuracy and latency for the purpose of applying it in real-time scenarios. As a first step, we propose a comparative study of recent RGB-D based action recognition methods using the two cited criteria: accuracy of recognition and rapidity of execution. Then, oriented by the conclusions stated thanks to this comparative study, we introduce a novel, fast and accurate human action descriptor called Kinematic Spline Curves (KSC).This latter is based on the cubic spline interpolation of kinematic values. Moreover, fast spatialand temporal normalization are proposed in order to overcome anthropometric variability, orientation variation and rate variability. The experiments carried out on four different benchmarks show the effectiveness of this approach in terms of execution time and accuracy. As a second step, another descriptor is introduced, called Hierarchical Kinematic Covariance(HKC). This latter is proposed in order to solve the issue of fast online action recognition. Since this descriptor does not belong to a Euclidean space, but is an element of the space of Symmetric Positive semi-definite (SPsD) matrices, we adapt kernel classification methods by the introduction of a novel distance called Modified Log-Euclidean, which is inspiredfrom Log-Euclidean distance. This extension allows us to use suitable classifiers to the feature space SPsD of matrices. The experiments prove the efficiency of our method, not only in terms of rapidity of calculation and accuracy, but also in terms of observational latency. These conclusions show that this approach combined with an action segmentation method could be appropriate to online recognition, and consequently, opens up new prospects for future works.
622

Detection and counting of Powered Two Wheelers in traffic using a single-plane Laser Scanner / Détection de deux roues motorisées par télémètre laser à balayage

Prabhakar, Yadu 10 October 2013 (has links)
La sécurité des deux-roues motorisés (2RM) constitue un enjeu essentiel pour les pouvoirs publics et les gestionnaires routiers. Si globalement, l’insécurité routière diminue sensiblement depuis 2002, la part relative des accidents impliquant les 2RM a tendance à augmenter. Ce constat est résumé par les chiffres suivants : les 2RM représentent environ 2 % du trafic et 30 % des tués sur les routes.On observe depuis plusieurs années une augmentation du parc des 2RM et pourtant il manque des données et des informations sur ce mode de transport, ainsi que sur les interactions des 2RM avec les autres usagers et l'infrastructure routière. Ce travail de recherche appliquée est réalisé dans le cadre du projet ANR METRAMOTO et peut être divisé en deux parties : la détection des2RM et la détection des objets routiers par scanner laser. Le trafic routier en général contient des véhicules de nature et comportement inconnus, par exemple leurs vitesses, leurs trajectoires et leurs interactions avec les autres usagers de la route. Malgré plusieurs technologies pour mesurer le trafic,par exemple les radars ou les boucles électromagnétiques, il est difficile de détecter les 2RM à cause de leurs petits gabarits leur permettant de circuler à vitesse élevée et ce même en interfile. La méthode développée est composée de plusieurs sous-parties: Choisir une configuration optimale du scanner laser afin de l’installer sur la route. Ensuite une méthode de mise en correspondance est proposée pour trouver la hauteur et les bords de la route. Le choix d’installation est validé par un simulateur. A ces données brutes, la méthode de prétraitement est implémentée et une transformation de ces données dans le domaine spatio-temporel est faite. Après cette étape de prétraitement, la méthode d’extraction nommée ‘Last Line Check (LLC)’ est appliquée. Une fois que le véhicule est extrait, il est classifié avec un SVM et un KNN. Ensuite un compteur est mis en œuvre pour compter les véhicules classifiés. A la fin, une comparaison de la performance de chacun de ces deux classifieurs est réalisée. La solution proposée est un prototype et peut être intégrée dans un système qui serait installé sur une route au trafic aléatoire (dense, fluide, bouchons) pour détecter, classifier et compter des 2RM en temps réel. / The safety of Powered Two Wheelers (PTWs) is important for public authorities and roadadministrators around the world. Recent official figures show that PTWs are estimated to represent only 2% of the total traffic but represent 30% of total deaths on French roads. However, as these estimated figures are obtained by simply counting the number plates registered, they do not give a true picture of the PTWs on the road at any given moment. This dissertation comes under the project METRAMOTO and is a technical applied research work and deals with two problems: detection of PTWsand the use of a laser scanner to count PTWs in the traffic. Traffic generally contains random vehicles of unknown nature and behaviour such as speed,vehicle interaction with other users on the road etc. Even though there are several technologies that can measure traffic, for example radars, cameras, magnetometers etc, as the PTWs are small-sized vehicles, they often move in between lanes and at quite a high speed compared to the vehicles moving in the adjacent lanes. This makes them difficult to detect. the proposed solution in this research work is composed of the following parts: a configuration to install the laser scanner on the road is chosen and a data coherence method is introduced so that the system is able to detect the road verges and its own height above the road surface. This is validated by simulator. Then the rawd ata obtained is pre-processed and is transform into the spatial temporal domain. Following this, an extraction algorithm called the Last Line Check (LLC) method is proposed. Once extracted, the objectis classified using one of the two classifiers either the Support Vector Machine (SVM) or the k-Nearest Neighbour (KNN). At the end, the results given by each of the two classifiers are compared and presented in this research work. The proposed solution in this research work is a propototype that is intended to be integrated in a real time system that can be installed on a highway to detect, extract, classify and counts PTWs in real time under all traffic conditions (traffic at normal speeds, dense traffic and even traffic jams).
623

ZX-Calculi for Quantum Computing and their Completeness / ZX-Calculs pour l'informatique quantique et leur complétude

Vilmart, Renaud 19 September 2019 (has links)
Le ZX-Calculus est un langage graphique puissant et intuitif, issu de la théorie des catégories, et qui permet de raisonner et calculer en quantique. Les évolutions quantiques sont vues dans ce formalisme comme des graphes ouverts, ou diagrammes, qui peuvent être transformés localement selon un ensemble d’axiomes qui préservent le résultat du calcul. Un aspect des plus importants du langage est sa complétude : Étant donnés deux diagrammes qui représentent la même évolution quantique, puis-je transformer l’un en l’autre en utilisant seulement les règles graphiques permises par le langage ? Si c’est le cas, cela veut dire que le langage graphique capture entièrement la mécanique quantique. Le langage est connu comme étant complet pour une sous-classe (ou fragment) particulière d’évolutions quantiques, appelée Clifford. Malheureusement, celle-ci n’est pas universelle : on ne peut pas représenter, ni même approcher, certaines évolutions. Dans cette thèse, nous proposons d’élargir l’ensemble d’axiomes pour obtenir la complétude pour des fragments plus grands du langage, qui en particulier sont approximativement universels, voire universels. Pour ce faire, dans un premier temps nous utilisons la complétude d’un autre langage graphique et transportons ce résultat au ZX-Calculus. Afin de simplifier cette fastidieuse étape, nous introduisons un langage intermédiaire, intéressant en lui-même car il capture un fragment particulier mais universel de la mécanique quantique : Toffoli-Hadamard. Nous définissons ensuite la notion de diagramme linéaire, qui permet d’obtenir une preuve uniforme pour certains ensembles d’équations. Nous définissons également la notion de décomposition d’un diagramme en valeurs singuliaires, ce qui nous permet de nous épargner un grand nombre de calculs. Dans un second temps, nous définissons une forme normale qui a le mérite d’exister pour une infinité de fragments du langage, ainsi que pour le langage lui-même, sans restriction. Grâce à cela, nous reprouvons les résultats de complétude précédents, mais cette fois sans utiliser de langage tiers, et nous en dérivons de nouveaux, pour d’autres fragments. Les états contrôlés, utilisés pour la définition de forme normale, s’avèrent en outre utiles pour réaliser des opérations non-triviales telles que la somme, le produit terme-à-terme, ou la concaténation. / The ZX-Calculus is a powerful and intuitive graphical language, based on category theory, that allows for quantum reasoning and computing. Quantum evolutions are seen in this formalism as open graphs, or diagrams, that can be transformed locally according to a set of axioms that preserve the result of the computation. One of the most important aspects of language is its completeness: Given two diagrams that represent the same quantum evolution, can I transform one into the other using only the graphical rules allowed by the language? If this is the case, it means that the graphical language captures quantum mechanics entirely. The language is known to be complete for a particular subclass (or fragment) of quantum evolutions, called Clifford. Unfortunately, this one is not universal: we cannot represent, or even approach, certain quantum evolutions. In this thesis, we propose to extend the set of axioms to obtain completeness for larger fragments of the language, which in particular are approximately universal, or even universal. To do this, we first use the completeness of another graphical language and transport this result to the ZX-Calculus. In order to simplify this tedious step, we introduce an intermediate language, interesting in itself as it captures a particular but universal fragment of quantum mechanics: Toffoli-Hadamard. We then define the notion of a linear diagram, which provides a uniform proof for some sets of equations. We also define the notion of singular value decomposition of a diagram, which allows us to avoid a large number of calculations. In a second step, we define a normal form that exists for an infinite number of fragments of the language, as well as for the language itself, without restriction. Thanks to this, we reprove the previous completeness results, but this time without using any third party language, and we derive new ones for other fragments. The controlled states, used for the definition of the normal form, are also useful for performing non-trivial operations such as sum, term-to-term product, or concatenation.
624

Les FNA en français et en portugais: considérations théoriques et analyses fonctionnelles dans des débats médiatiques électoraux au Brésil, au Portugal et en France

Johnen, Thomas 14 November 2019 (has links)
Ziel dieses Beitrags ist die Untersuchung der Funktionen und Verwendung nominaler Anredeformen in drei Fernsehwahldebatten in Brasilien, Frankreich und Portugal. / Cette étude a pour objectif de comparer la façon dont sont utilisées les formes nominales d’adresse dans des débats télévisés au Portugal, au Brésil et en France à partir de l’exemple des débats du second tour des élections présidentielles de 1986 au Portugal (entre Diogo Pinto de Freitas do Amaral et Mário Alberto Nobre Lopes Soares), de 2006 au Brésil (entre Luíz Inácio Lula da Silva et Geraldo José Rodrigues Alckmin Filho) et de 2007 en France (entre Ségolène Royal et Nicolas Sarkozy). Il s’agit donc d’une comparaison « cross-culturelle » impliquant d’une part, deux langues différentes (le portugais et le français) et d’autre part, deux variantes d’une langue « pluricentrique » (Baxter, 1992), à savoir le portugais européen et le portugais brésilien.
625

Zéros exceptionnels des fonctions L p-adiques de Rankin-Selberg / Extra zeros of the p-adic L-functions of Rankin-Selberg

Horte, Stéphane 27 September 2019 (has links)
Le but de cette thèse est d'étudier les zéros exceptionnels des fonctions L p-adiques de Rankin-Selberg. Autrement dit, pour un couple de formes modulaires nous étudierons l'annulation de la fonction p-adique interpolant la fonction L de Rankin-Selberg associée à ce couple. Lorsque la fonction s'annule, on exprime alors la dérivée de la fonction L p-adique en fonction de l'invariant L,des périodes p-adique et infinie et du terme principal de la fonction complexe de Rankin-Selberg. / The aim of this thesis is to study the extra zeros of the p-adic L functions of Rankin-Selberg. In other words, for a couple of modular forms we study the zeros of the p-adic function interpolating the Rankin-Selberg L function associated to this couple. When the function has a zero we express the value of the derivate in terms of the L invariant, p-adic and infinite periods and the principal term of the complex Rankin-Selberg function.
626

Inversion des formes d'ondes LiDAR pour l'estimation des caractéristiques des cultures et des forêts par des techniques probabilistes et variationnelles / Lidar full waveform inversion for crop and forest caracteristics estimation by probabilistic and variational techniques

Ben Hmida, Sahar 21 December 2018 (has links)
L'utilisation du LiDAR en télédétection permet une description précise de l'architecture du couvert végétal. L'objet de cette thèse est le développement des approches d'inversion de mesures LiDAR à l'aide d'une modélisation physique et statistique du signal dans le but d'estimer des propriétés biophysiques de cultures dominantes (blé, maïs) du Sud-Ouest de la France et d'un couvert forestier en Chine. Le travail a tout d'abord porté sur l'estimation du LAI et la hauteur des cultures par inversion de formes d'onde LiDAR à faible empreinte. Une base de données de simulations de formes d'onde réalistes des cultures est réalisée à l'aide du modèle de transfert radiatif (MTR) DART. L'inversion consiste à utiliser la technique de table de correspondance qui consiste à chercher la simulation la plus proche de l'observation réelle. Le travail a ensuite porté sur l'estimation du profil de LAI des arbres de la forêt. Une approche variationnelle d'estimation du profil de LAI par inversion de formes d'ondes est proposée. Elle repose sur un MTR simplifié et une technique de lissage du profil de LAI s'appuyant sur les chaines de Markov. La formulation bayésienne du problème, nous amène à une fonction de coût non-linéaire. Elle est minimisée à l'aide d'une nouvelle technique de gradient multi-échelle. Les approches développées montrent bien leurs performances en les appliquant sur des données réelles de cultures (maïs et blé) et de milieu forestier. / The use of LiDAR in remote sensing allows a precise description of the vegetation cover architecture. The aim of this thesis is the development of LiDAR data inversion approaches using physical and statistical signal modeling in order to estimate the biophysical properties of dominant crops (wheat, maize) of the South-West of France and a forest cover in China. The work firstly focused on estimating LAI and crop height by small footprint LiDAR waveforms inversion. A realistic crop waveform simulations database is performed using the Radiative Transfer Model (MTR) DART. The inversion consists in using the Look up Table technique which consists of looking for the closest simulation to the actual observation. The second inversion approach focused on LAI profile estimation of the forest trees. A variational approach to estimate LAI by waveform inversion is proposed. It relies on a simplified MTR and LAI profile smoothing technique based on Markov chains. The Bayesian formulation of the problem leads us to a non-linear cost function. It is minimized using a new multi-scale gradient technique. The developed approaches show clearly their performance by applying them to real crop data (corn and wheat) and forest.
627

Développement de formes orales divisées à libération prolongée par la technique de la pellétisation thermoplastique

Hamdani, Jamila 21 June 2005 (has links)
L’étude des caractéristiques physico-chimiques du Compritol® (béhénate de glycérol) et du Précirol® (palmito-stéarate de glycérol) a été effectuée. Les méthodes d’évaluation consistaient en la calorimétrie différentielle à balayage, la microscopie sur platine chauffante et la rhéologie dans un rhéomètre capillaire à pression variable. Cette étude a montré une évolution de la structure cristalline de ces deux corps gras en fonction du temps et de la température de stockage. En effet, ces composés, après fusion et refroidissement, « recristallisent » sous une structure partiellement amorphe, qui évolue avec le temps en structure cristalline. Il est également ressorti de cette évaluation que ces deux excipients lipidiques présentent des plages de fusion bien distinctes. Cette caractéristique est conservée lorsqu’ils sont en mélanges binaires. Enfin, ces corps gras se déforment sous l’action de fortes forces de cisaillement à des températures inférieures à leurs plages de fusion. <p>L’utilisation du Compritol® et du Précirol® comme corps gras lipophiles pour former des microbilles à libération prolongée a alors été envisagée. Nous avons procédé moyennant une technique de fabrication simple et rapide appelée « la pelletisation thermoplastique ». Il s’agit d’un procédé en une étape qui met à profit le pouvoir liant des corps gras facilement fusibles et se passe ainsi de l’usage de l’eau ou de solvants organiques. L’appareillage utilisé est de type mélangeur granulateur à haute vitesse. <p>Nous nous sommes basés sur les renseignements fournis par l’étude de préformulation afin d’optimaliser les conditions de fabrication des microbilles. Le contrôle de la température du mélange est très important pour la réussite du procédé de pelletisation thermoplastique. La vitesse du bras du mélangeur, la température de la double paroi et le temps de sphéronisation constituent les paramètres clés pour réussir la pelletisation du mélange. Nous avons mis au point des formulations contenant 15% (m/m) de Précirol® et une quantité croissante de Compritol® variant de 3 à 65 % (m/m). La libération du chlorhydrate de phényléphrine, employé comme agent traceur, a déjà été ralentie pour les formulations contenant 25 % (m/m) de corps gras. Face à ces résultats encourageants, nous avons mis au point des formulations contenant 75 % (m/m) de différents principes actifs (chlorhydrate de ciprofloxacine, théophylline et kétoprofène) et 25 % (m/m) de corps gras. Ces formulations ont abouti à la fabrication de microbilles à libération prolongée. Une étude de stabilité menée sur certaines des formes finies a montré la stabilité des microbilles lipidiques pour autant que le principe actif incorporé dedans ne soit par lui-même facilement dégradable. <p>Afin d’élargir le champ d’application du procédé de fabrication, nous avons mis au point des microbilles flottantes à libération prolongée. Les formulations proposées contiennent comme excipients :les deux corps gras, un mélange effervescent (bicarbonate sodique/ acide tartrique) et du Methocel K100. Leur flottabilité a été prouvée in vitro sur une période de plus de huit heures et In vivo par administration de microbilles de riboflavine flottantes versus non flottantes à des volontaires humains sains.<p> / Doctorat en Sciences biomédicales et pharmaceutiques / info:eu-repo/semantics/nonPublished
628

Security and Trust in Mobile Cloud Computing / La sécurité et la confiance pour le Cloud computing mobile

Le Vinh, Thinh 14 December 2017 (has links)
Nous vivons aujourd’hui dans l'ère cybernétique où de nouvelles technologies naissent chaque jour avec la promesse de rendre la vie humaine plus confortable, pratique et sûre. Parmi ces nouvelles technologies, l'informatique mobile se développe en influençant la vie de l’utilisateur. En effet, les plates-formes mobiles (smartphone, tablette) sont devenues les meilleurs compagnons de l’utilisateur pour mener à bien ses activités quotidiennes, comme les activités commerciales ou de divertissement. En jouant ces rôles importants, les plates-formes mobiles doivent opérer dans des environnements de confiance. Dans cette thèse, nous étudions la sécurité des plates-formes mobiles en passant d’un niveau de sécurité primitif qui s’appuie sur les plates-formes de confiance, à un niveau plus sophistiqué qui se base sur de l’intelligence bio-inspirée. Plus précisément, après avoir abordé les défis du cloud computing mobile (MCC), nous développons une étude de cas appelée Droplock pour le cloud mobile et nous étudions son efficacité énergétique et ses performances pour illustrer le modèle MCC. En outre, en s’appuyant sur les plates-formes de confiance (comme les TPM), nous avons introduit un nouveau schéma d'attestation à distance pour sécuriser les plates-formes mobiles dans le contexte du cloud mobile. Pour améliorer le niveau de sécurité et être adaptatif au contexte, nous avons utilisé de la logique floue combinant un système de colonies de fourmis pour évaluer la confiance et la réputation du cloud mobile basé sur la notion de cloudlets. / As living in the cyber era, we admit that a dozen of new technologies have been born every day with the promises that making a human life be more comfortable, convenient and safe. In the forest of new technologies, mobile computing is raise as an essential part of human life. Normally, mobile devices have become the best companions in daily activities. They have served us from the simple activities like entertainment to the complicated one as business operations. As playing the important roles, mobile devices deserve to work in the environment which they can trust for serving us better. In this thesis, we investigate the way to secure mobile devices from the primitive security level (Trusted Platforms) to the sophisticated one (bio-inspired intelligence). More precisely, after addressing the challenges of mobile cloud computing (MCC), we have studied the real-case of mobile cloud computing, in terms of energy efficiency and performance, as well as proposed a demonstration of particular MCC model, called Droplock system. Moreover, taking advantages of trusted platform module functionality, we introduced a novel schema of remote attestation to secure mobile devices in the context of Mobile-Cloud based solution. To enhance the security level, we used fuzzy logic combining with ant colony system to assess the trust and reputation for securing another mobile cloud computing model based on the cloudlet notion.
629

Conception d’un algorithme de vision par ordinateur « top-down » dédié à la reconnaissance des sillons corticaux / Design of a top-down computer vision algorithm dedicated to the recognition of cortical sulci

Borne, Léonie 01 October 2019 (has links)
Les plissements du cortex caractérisent de manière unique chaque être humain. Ils apparaissent pendant le dernier trimestre de grossesse, c’est-à-dire pendant la mise en place de l’architecture cérébrale. Les motifs de ces plis sont impactés par les spécificités de cette architecture propres à chaque individu. Ils pourraient donc dévoiler les signatures de certaines anomalies du développement à l’origine de pathologies psychiatriques. Le laboratoire d’analyse d’images de Neurospin développe depuis 25 ans un programme de recherche visant à mettre en évidence de telles signatures grâce à la conception d’outils de vision par ordinateur dédiés qu’il diffuse à la communauté (http://brainvisa.info).Cette thèse a permis l’émergence d’une nouvelle génération d’outils basés sur des techniques d’apprentissage automatique. Le premier outil proposé classifie automatiquement des motifs locaux de plissements du cortex, un problème qui n’avait jamais été abordé jusqu’ici. Le second outil vise l’étiquetage automatique des sillons corticaux en modélisant des mécanismes de reconnaissance « top-down » nécessaires pour pallier les faiblesses des démarches « bottom-up » développées jusqu’à présent. Ainsi, en plus d'avoir des taux de reconnaissances plus élevés et un temps d’exécution plus court, le nouveau modèle proposé est robuste aux erreurs de sous-segmentation, ce qui est l'une des plus grandes faiblesses de l'ancien système. Pour réaliser ces deux outils, plusieurs algorithmes d'apprentissage automatique ont été implémentés et comparés. Ces algorithmes s'inspirent d'une part des méthodes multi-atlas, en particulier de l'approche par patch, qui sont largement utilisées pour la segmentation anatomique d'images médicales et d'autre part des méthodes d'apprentissage profond qui révolutionnent aujourd'hui le monde de la vision par ordinateur. Les travaux de cette thèse confirment l'incroyable efficacité des techniques d'apprentissage profond pour s'adapter à des problèmes complexes. Cependant, les performances obtenues avec ces techniques sont généralement équivalentes à celles des approches par patch, voire moins bonnes si la base de données d'apprentissage est restreinte. Ce qui fait de l'apprentissage profond un outil particulièrement intéressant en pratique n'est autre que sa rapidité d'exécution, d'autant plus pour l'analyse des bases de données colossales aujourd'hui disponibles. / We are seven billion humans with unique cortical folding patterns. The cortical folding process occurs during the last trimester of pregnancy, during the emergence of cortical architecture. The folding patterns are impacted by architectural features specific to each individual. Hence, they could reveal signatures of abnormal developments that can lead to psychiatric syndroms. For the last 25 years, the image analysis lab of Neurospin has been designing dedicated computer vision tools to tackle the research of such signatures. The resulting tools are distributed to the community (http://brainvisa.info).This thesis has resulted in the emergence of a new generation of tools based on machine learning techniques. The first proposed tool automatically classifies local patterns of cortical folds, a problem that had never been addressed before. The second tool aims at the automatic labeling of cortical sulci by modeling the top-down recognition mechanisms necessary to overcome weaknesses of the current bottom-up systems. Thus, in addition to having higher recognition rates and shorter execution time, the proposed new model is robust to sub-segmentation errors, which is one of the greatest weaknesses of the old system. To realize these two tools, several machine learning algorithms were implemented and compared. These algorithms are inspired on the one hand by multi-atlas methods, in particular the patch approach, which are widely used for the anatomical segmentation of medical images and on the other hand by the deep learning methods that are revolutionizing the world of computer vision. The work of this thesis confirms the incredible effectiveness of deep learning techniques to adapt well to complex problems. However, the performances obtained with these techniques are generally equivalent to those of patch approaches, or even worse if the training database is limited. What makes deep learning a particularly interesting tool in practice is its fast execution, especially for the analysis of the huge databases now available.
630

Préparation d'un polymère à double mémoire de formes induites thermiquement par la lumière et le champ magnétique

Langlois, Frédéric 08 1900 (has links)
Le but du projet est de synthétiser un film de polymères à double mémoire de formes avec une sensibilité à la lumière ainsi qu’à un champ magnétique. Afin de rendre le polymère sensible à ces stimuli, des nanoparticules d’oxyde de fer (II,III) furent enrobées d’une couche de polydopamine. Par après, du polycaprolactone et du poly(caprolactone-co-pentadecalactone) furent synthétisés par polymérisation enzymatique à ouverture de cycle. Les polymères furent méthacrylés en fin de chaînes, remplaçant le groupe alcool par une double liaison qui est par la suite utilisée pour une réticulation. Les films de polymères étaient obtenus en combinant les nanoparticules et les polymères via une réaction click de type « thiol-ène ». Des films avec une teneur de nanoparticules de 0 à 1 pour cent en poids furent ainsi synthétisés. L’alternance entre deux formes était possible grâce à deux phénomènes physiques : l’élongation induite par cristallisation et la contraction induite par la fusion. Ces phénomènes sont causés par la fusion et la cristallisation du polycaprolactone, tandis que le poly(caprolactone-co-pentadécalactone) restait maintenu dans un état solide cristallin sur la gamme de températures étudiée. Les films de polymères changeaient de forme en étant chauffés par exposition à la lumière. Les films avec nanoparticules se contractaient quand ils étaient exposés à la lumière et retournaient à leur forme originale quand la lumière était éteinte. Le chauffage par induction avec un champ magnétique alternatif fut aussi un succès. Les films avec nanoparticules se contractaient à l’intérieur d’une bobine de cuivre avec un champ magnétique présent lorsqu’un courant électrique circulait dans la bobine. Les films retournaient à leur forme d’origine lorsque le champ magnétique était coupé. Il fut observé que plus la teneur en nanoparticules au sein du film de polymères était élevée, le plus court le temps de réponse était avant qu’un mouvement de contraction ne soit observé. Aucun changement de volume ne fut observé en chauffant des échantillons de films de polymères de 20 à 60 °C, confirmant, dans les conditions actuelles d’évaluation, que la contraction induite par la fusion et que l’élongation induite par cristallisation se produisent sans causer un changement de volume du film. / The project goal is to synthesize a two-way shape memory polymer that is both magnetically and light responsive. To make the polymer responsive to these stimuli, iron oxide (II, III) nanoparticles with a polydopamine coating were first synthesized. Afterwards, polycaprolactone and poly(caprolactone-co-pentadecalactone) were synthesized by enzymatic ring-opening polymerization. The polymer was then methacrylated at the terminal positions, replacing the alcohol with a double bond which was then used for crosslinking. Polymer films were prepared by combining the nanoparticles and the polymer by a “thiol-ene” click reaction. Films containing from 0 to 1 weight percent of nanoparticles were synthesized. Switching between the two shapes was possible by two physical phenomena: crystallization induced elongation and melting induced contraction. These are caused by the fusion and crystallization of the polycaprolactone network, while the poly(caprolactone-co-pentadecalactone) is consistently maintained in its crystalline solid state in a specific temperature range. The polymer films changed shapes due to heating when exposed to light. Films with nanoparticles contracted when exposed to light and they returned to their original form when the light was turned off. Induction heating with an alternating magnetic field was also successful. The polymer film with magnetic nanoparticles contracted inside a copper coil when the magnetic field was generated by applying electric current to the coil. The film returned to its original shape when the magnetic field was turned off. It was found that the higher the content of nanoparticles in the polymer filler, the shorter the response time was before a contraction movement was observed. No change in the polymer volume during heating of a film sample from 20 to 60 °C was observed, confirming that melting induced contraction and crystallization induced elongation occurred without change in volume under conditions examined.

Page generated in 0.0336 seconds