• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 166
  • 49
  • 11
  • Tagged with
  • 229
  • 45
  • 38
  • 37
  • 36
  • 34
  • 33
  • 31
  • 19
  • 19
  • 18
  • 17
  • 17
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Exemples de schémas de Hilbert invariants et de schémas quot invariants

Jansou, Sébastien 24 October 2005 (has links) (PDF)
Dans une première partie, on se donne un groupe réductif connexe complexe G, et on classifie les modules simples dont le cône des vecteurs primitifs admet une déformation G-invariante non triviale. On relie cette classification à celle des algèbres de Jordan simples, et aussi à celle (due à Akhiezer) des variétés projectives lisses dont les orbites sous l'action d'un groupe algébrique affine connexe sont un diviseur et son complémentaire. Notre principal outil est le schéma de Hilbert invariant d'Alexeev et Brion; on en détermine les premiers exemples. On détermine aussi les déformations infinitésimales (non nécessairement G-invariantes) des cônes des vecteurs primitifs; elles sont triviales pour presque tous les modules simples. Dans une seconde partie, on construit le ``schéma Quot invariant'' et on en détermine une classe d'exemples dans le cas où l'espace ambiant est un cône des vecteurs primitifs.
52

Équation homologique et classification analytique des germes de champs de vecteurs holomorphes de type noeud-col

JEAN DIT TEYSSIER, Loïc 29 September 2003 (has links) (PDF)
J'ai principalement étudié la classification des champs de vecteurs holomorphes Z , ayant une singularité isolée en (0,0) de type noeud-col, sous l'action des changements de coordonnées holomorphes locaux. On montre comment celle-ci se réduit à l'étude de deux équations homologiques, une pour la classification du feuilletage sous-jacent et l'autre pour la classification du flot à feuilletage fixé. On complète ainsi les invariants fonctionnels dégagés par Martinet/Ramis pour les feuilletages. Les invariants de classification expriment les obstructions à l'existence d'une fonction holomorphe F solution d'une équation du type Z(F)=G . En intégrant le second membre selon des chemins tangents à Z , on localise ces obstructions dans la non-nullité de certaines intégrales le long de cycles asymptotiques. Cette approche géométrique se distingue des méthodes utilisées par Meshcheryakova/Voronin pour obtenir indépendament et à la même époque un résultat similaire, en particulier puisqu'elle permet de donner une représentation intégrale "naturelle" aux invariants de Martinet/Ramis. En estimant ces quantités on dégage finalement de nombreuses classes explicites de champs (et d'équations différentielles) mutuellement non conjugué(e)s, alors que dans d'autre cas on peut donner des formes normales.
53

Audit et monitorage de la sécurité

State, Radu 07 December 2009 (has links) (PDF)
Ce manuscrit synthétise les activités de recherche que nous avons menées, au cours des ces dernières années dans le domaine de la gestion de réseaux, et contient une présentation des enjeux pour la décénie à venir. Il contient également un projet de recherche ambitieux visant á répondre aux défis de la sécurité de l'Internet du futur. Nous présentons nos travaux sur l'audit de sécurité en abordant le problème du "fingerprinting", c'est à dire la détection par prise d'empreintes d'une couche protocolaire et/ou d'un équipement. La prise d'empreintes d'un système est une action essentielle dans l'audit de sécurité d'un réseau. L'objectif de ce processus consiste dans la détection d'une version spécifique d'un service/équipement par l'analyse du trafic véhiculé sur le réseau. Nous avons elaboré deux approches de "fingerprinting". La première s'appuie sur l'analyse des arbres d'analyse syntactique pour les messages d'un protocole. Nous abordons ensuite la problématique du "fingerprinting" pour le cas des protocoles dont nous ne disposons pas de spécifications. L'approche que nous présentons est capable d'inférer les divers types de messages et de construire une (ou plusieurs) machine d'états. Ces machines d'états sont les fondements pour définir le comportement. Nous proposons à la suite une approche de fingerprinting qui permet la prise en compte du comportement d'une souche protocolaire. Nous développons ensuite la problématique liée à la surveillance de sécurité d'un réseau. Celle-ci comprend deux parties principales: le monitoring pour la détection d'intrusions et un pot de miel pour la VoIP. La dernière contribution est une approche pro-active élevée pour la détection de failles de sécurité par un processus de type "fuzzing".
54

Modélisation dynamique par réseaux de neurones et machines à vecteurs supports: contribution à la maîtrise des émissions polluantes de véhicules automobiles.

Lucea, Marc 22 September 2006 (has links) (PDF)
La complexité croissante des systèmes employés dans l'industrie automobile, en termes de fonctions réalisées et de méthodes de mise en œuvre, mais aussi en terme de norme d'homologation, amène à envisager des outils toujours plus innovants lors de la conception d'un véhicule. On observe d'ailleurs depuis quelques années une forte augmentation du nombre de brevets déposés, en particulier dans le domaine des systèmes électroniques, dont l'importance ne cesse de croître au sein d'un véhicule automobile moderne. Cette complexité croissante des fonctions réalisées requiert une précision de description accrue pour les dispositifs impliqués, notamment pour les systèmes complexes où une approche analytique est difficilement envisageable. Aux impératifs de précision de la description, qui imposent souvent de prendre en considération les non-linéarités des processus, s'ajoute donc la complexité d'analyse des phénomènes physiques à l'origine des observations que l'on souhaite modéliser. Les développements qu'ont connus ces dernières années les techniques de modélisation non linéaires par apprentissage (notamment les réseaux de neurones formels et les machines à vecteurs supports), alliés à la croissance de la capacité des ordinateurs et des calculateurs embarqués dans les véhicules automobiles, justifient donc l'intérêt porté par Renault à ces outils. C'est dans cette optique qu'a été envisagée une étude portant sur les méthodes de modélisation non linéaire par apprentissage, dont l'objectif était d'en tester les secteurs d'applications possibles dans le contexte automobile, et d'en évaluer les difficultés de mise en œuvre ainsi que les gains attendus. Cette étude a fait l'objet d'une collaboration, sous forme d'un contrat de thèse CIFRE, avec le Laboratoire d'Electronique de l'Ecole Supérieure de Physique et de Chimie Industrielles de la Ville de Paris (ESPCI), dirigé par le Professeur Gérard Dreyfus. De manière générale, les techniques de modélisation par apprentissage permettent d'aborder la modélisation de phénomènes physiques dont la description est ardue, élargissant ainsi le champ des possibles en matière de modélisation, mais également de s'affranchir d'une description physique détaillée pour des processus connus, réduisant ainsi le temps de développement d'un modèle particulier. En contrepartie, l'élaboration de tels modèles par apprentissage requiert la réalisation de mesures sur ledit processus, ce qui implique des coûts qui sont parfois loin d'être négligeables. Notre objectif a donc été d'identifier certains problèmes correspondant à la première approche, c'est-à-dire pour lesquels la réalisation de modèles de connaissance est soit inenvisageable soit particulièrement ardue. Le premier chapitre de ce mémoire s'attache à rappeler les concepts de base relatifs à la modélisation de processus par apprentissage. Nous y introduirons les notions essentielles que nous serons amenés à employer par la suite. Dans le deuxième chapitre, nous décrivons les principaux outils d'optimisation nécessaires à l'élaboration de modèles par apprentissage. Le troisième chapitre regroupe l'ensemble des travaux menés, au cours de cette thèse, sur le thème des réseaux de neurones. Après avoir rappelé la méthodologie d'élaboration de modèles neuronaux, en particulier dans le cas récurrent, nous présentons les résultats obtenus sur deux applications industrielles: l'estimation de la température en un point particulier de la ligne d'échappement, et l'estimation des émissions de différents polluants en sortie d'échappement. Ces deux applications participent à la maîtrise des émissions polluantes, soit durant l'utilisation habituelle d'un véhicule, car la connaissance de cette température est indispensable à la mise en œuvre des stratégies de dépollution actives, soit au stade de la mise au point du moteur, qui sera facilitée par l'utilisation d'un modèle de prédiction des débits de polluants en fonction des réglages du moteur. Nous décrivons également un système de commande optimale en boucle ouverte, associé à un modèle neuronal, et destiné à réduire les variations rapides de la sortie d'un processus: ce système est susceptible d'être utilisé pour contrôler les à-coups de couple d'un véhicule, consécutifs à une variation rapide de l'enfoncement de la pédale d'accélérateur. Une méthode de calcul exact de la matrice Hessienne, dans le cas de modèles décrits par des équations récurrentes, est alors introduite pour permettre l'utilisation de ce système de commande dans le cas de processus dynamiques. Dans le quatrième chapitre, nous nous intéressons aux méthodes de modélisation par noyaux, dont font partie les machines à vecteurs supports, et tentons de les adapter à la modélisation de processus dynamiques, d'abord par un traitement analytique (pour l'une particulière de ces méthodes), avant de proposer un approche itérative du problème d'apprentissage, inspirée de l'algorithme d'apprentissage semi dirigé utilisé pour les réseaux de neurones récurrents.
55

Nouveaux Algorithmes pour l'Apprentissage de Machines à Vecteurs Supports sur de Grandes Masses de Données

Bordes, Antoine 09 February 2010 (has links) (PDF)
Internet ainsi que tous les moyens numériques modernes disponibles pour communiquer, s'informer ou se divertir génèrent des données en quantités de plus en plus importantes. Dans des domaines aussi variés que la recherche d'information, la bio-informatique, la linguistique computationnelle ou la sécurité numérique, des méthodes automatiques capables d'organiser, classifier, ou transformer des téraoctets de données apportent une aide précieuse. L'apprentissage artificiel traite de la conception d'algorithmes qui permettent d'entraîner de tels outils à l'aide d'exemples d'apprentissage. Utiliser certaines de ces méthodes pour automatiser le traitement de problèmes complexes, en particulier quand les quantités de données en jeu sont insurmontables pour des opérateurs humains, paraît inévitable. Malheureusement, la plupart des algorithmes d'apprentissage actuels, bien qu'efficaces sur de petites bases de données, présentent une complexité importante qui les rend inutilisables sur de trop grandes masses de données. Ainsi, il existe un besoin certain dans la communauté de l'apprentissage artificiel pour des méthodes capables d'être entraînées sur des ensembles d'apprentissage de grande échelle, et pouvant ainsi gérer les quantités colossales d'informations générées quotidiennement. Nous développons ces enjeux et défis dans le Chapitre 1. Dans ce manuscrit, nous proposons des solutions pour réduire le temps d'entraînement et les besoins en mémoire d'algorithmes d'apprentissage sans pour autant dégrader leur précision. Nous nous intéressons en particulier aux Machines à Vecteurs Supports (SVMs), des méthodes populaires utilisées en général pour des tâches de classification automatique mais qui peuvent être adaptées à d'autres applications. Nous décrivons les SVMs en détail dans le Chapitre 2. Ensuite, dans le Chapitre 3, nous étudions le processus d'apprentissage par descente de gradient stochastique pour les SVMs linéaires. Cela nous amène à définir et étudier le nouvel algorithme, SGD-QN. Après cela, nous introduisons une nouvelle procédure d'apprentissage : le principe du “Process/Reprocess”. Nous déclinons alors trois algorithmes qui l'utilisent. Le Huller et LaSVM sont présentés dans le Chapitre 4. Ils servent à apprendre des SVMs destinés à traiter des problèmes de classification binaire (décision entre deux classes). Pour la tˆache plus complexe de prédiction de sorties structurées, nous modifions par la suite en profondeur l'algorithme LaSVM, ce qui conduit à l'algorithme LaRank présenté dans le Chapitre 5. Notre dernière contribution concerne le problème récent de l'apprentissage avec une supervision ambigüe pour lequel nous proposons un nouveau cadre théorique (et un algorithme associé) dans le Chapitre 6. Nous l'appliquons alors au problème de l'étiquetage sémantique du langage naturel. Tous les algorithmes introduits dans cette thèse atteignent les performances de l'état-de-l'art, en particulier en ce qui concerne les vitesses d'entraînement. La plupart d'entre eux ont été publiés dans des journaux ou actes de conférences internationaux. Des implantations efficaces de chaque méthode ont également été rendues disponibles. Dans la mesure du possible, nous décrivons nos nouveaux algorithmes de la manière la plus générale possible afin de faciliter leur application à des tâches nouvelles. Nous esquissons certaines d'entre elles dans le Chapitre 7.
56

Interface Cerveau Machine avec adaptation automatique à l'utilisateur

Artusi, Xavier 15 February 2012 (has links) (PDF)
Nous nous intéressons ici à une interface cerveau-machine (BCI, Brain Computer Interface) permettant de commander une prothèse par la pensée. Le rôle du BCI est de décoder à partir de signaux électroencéphalographiques (EEG) le mouvement désiré par le sujet. Le coeur du BCI est un algorithme de classification caractérisé par le choix des descripteurs des signaux et des règles de décision. L'objet de cette thèse est de développer un système BCI précis, capable d'améliorer ses performances en cours d'utilisation et de s'adapter à l'utilisateur sans nécessiter de multiples sessions d'apprentissage. Nous combinons deux moyens pour y parvenir. Le premier consiste à augmenter la précision du système de décision en recherchant des descripteurs pertinents vis à vis de l'objectif de classification. Le second est d'inclure un retour de l'utilisateur sur le système de décision : l'idée est d'estimer l'erreur du BCI à partir de potentiels cérébraux évoqués, reflétant l'état émotionnel du patient corrélé au succès ou à l'échec de la décision prise par le BCI, et de corriger le système de décision du BCI en conséquence. Les principales contributions de la thèse sont les suivantes : nous avons proposé une méthode d'optimisation de descripteurs à bases d'ondelettes pour des signaux EEG multivoies ; nous avons quantifié théoriquement l'amélioration des performances apportée par le détecteur ; un simulateur du système corrigé et bouclé a été développé pour observer le comportement du système global et comparer différentes stratégies de mise à jour de l'ensemble d'apprentissage ; le système complet a été implémenté et fonctionne en ligne dans des conditions réelles.
57

Dévelappement de vecteurs lentiviraux non-intergratifs en vue du transfert de gènes dans le système nerveux central.

Philippe, Stéphanie 23 October 2007 (has links) (PDF)
Les vecteurs lentiviraux sont parmi les plus efficaces et les plus aisés à manipuler en vue du transfert de gènes. Leur application est toutefois fortement compromise par le risque de mutagenèse qui résulte de l'intégration de leur génome dans la chromatine de la cellule cible. Plusieurs stratégies peuvent être envisagées afin de contourner ce risque, l'une d'entre elle est de bloquer l'intégration du génome vecteur et d'utiliser des vecteurs lentiviraux sous forme épisomale.<br />Nous avons introduit une mutation dans la région C-terminale de l'itégrase de vecteurs dérivés du HIV (262RRK->AAH). Nous avons démontré que ces vecteurs permettent l'expression d'un transgène dans différentes lignées cellulaires in vitro ainsi que dans des cultures primaires de cellules en arrêt de division (astrocytes et neurones). L'expression du transgène est perdue par dilution des génomes non intégrés au cours de la division cellulaire. Elle est au contraire stable dans des cellules en arrêt de division. Nous avons également évalué l'activité résiduelle d'intégration des vecteurs mutants exprimant le gène de résistance au G418 (NEO), elle est réduite de 2 à 3 log par rapport au vecteur contrôle. Enfin, nous avons démontré la capacité de ces vecteurs lentiviraux non-intégratifs à diriger l'expression d'un transgène in vivo dans le système nerveux central de rongeur, pendant au moins 10 semaines après injection dans le striatum de souris et pendant au moins 5 mois après injection sous-rétinienne chez le rat.<br />Nous avons ensuite entrepris l'amélioration de l'efficacité d'expression du transgène et la réduction de l'activité résiduelle d'intégration. En premier lieu, dans le but d'augmenter l'activité transcriptionnelle des formes épisomales du génome lentiviral, nous avons incorporé des séquences d'attachement à la matrice nucléaire (séquence MAR de la chaîne légère de l'immunoglobuline de souris et séquence MAR du lysozyme de poulet). Nous avons transduit in vitro différentes lignées cellulaires ainsi que des progéniteurs neuraux humains avec des vecteurs lentiviraux non-intégratifs permettant l'expression de la Luciférase. Nous n'avons pas observé d'amélioration significative du niveau d'expression du transgène en présence des séquences MAR.<br />Parallèlement, nous avons produit des vecteurs portant différentes mutations de l'intégrase (N : 262RRK↑AAH, ou LQ : 186K↑Q, 214Q↑L, 216Q↑L, ou 64D↑V) permettant l'expression de différents transgènes (GFP, LUC, GDNF). Nous avons comparé in vitro l'efficacité de transduction de ces différents vecteurs. Nous avons établi que le vecteur N est moins efficace que les vecteurs D64V et LQ. Nous avons en effet observé un phénomène de saturation de la transduction par le vecteur N. Les vecteurs D64V et LQ permettent une expression comparable du transgène.<br />Nous avons également produit des vecteurs permettant l'expression du gène NEO portant ces différentes mutations d'intégrase, seules ou en combinaison avec la modification des séquences d'attachement des LTR. Nous avons comparé la fréquence d'intégration résiduelle de ces différents vecteurs et observé que le vecteur D64V présente l'intégration la plus élevée parmi les vecteurs mutants. La fréquence d'intégration est réduite de 1 à 2 log par rapport au vecteur contrôle intégratif tandis qu'elle est réduite de 2 à 3 log pour les vecteurs N et LQ. Par ailleurs, nous n'avons pas observé de réduction significative de l'intégration par la modification des LTR, qu'elle que soit l'intégrase mutée considérée.
58

Développement de vecteurs lentiviraux regulables pour le transfert de gène dans le système nerveux central.

Amar, Lahouari 26 February 2007 (has links) (PDF)
La thérapie génique est envisagée pour le traitement de nombreuses maladies du <br />système nerveux. Le transfert de gène peut être utilisé pour compenser l'absence ou le <br />dysfonctionnement d'un gène déficient, coder une protéine thérapeutique, ou inhiber un <br />gène par ARN interférence. L'utilisation de vecteurs lentiviraux pour transférer un gène <br />thérapeutique, est une approche prometteuse pour de futures applications thérapeutiques. <br />Cependant, pour une utilisation sécurisée de ces vecteurs, il est nécessaire de contrôler <br />l'expression des gènes thérapeutiques. Ceci permettra d'adapter le traitement aux besoins <br />du patient ou de l'arrêter en cas de complications graves. Dans ce contexte, mon travail a <br />porté sur la mise au point de systèmes de régulation de l'expression de gènes thérapeutiques <br />inductibles par la tétracycline (Tet-on) au sein d'un seul vecteur lentiviral. <br /><br />Dans une première approche, le système Tet-on a été incorporé au sein d'un vecteur <br />lentiviral unique. Des vecteurs codant la luciférase et la tyrosine hydroxylase (TH) ont été <br />produits et caractérisés in vitro et in vivo. Ces vecteurs ont permis d'exprimer de façon <br />régulée les transgènes avec une expression induite d'un facteur 100 en présence de <br />doxycycline. Le vecteur TH inductible a été par la suite validé dans un modèle de rat de la <br />maladie de Parkinson pour démontrer son efficacité et la possibilité de réguler un gène <br />thérapeutique in vivo. <br /><br />Le deuxième volet de mon travail a porté sur le développement d'un système <br />inductible d'expression des shARN utilisant un nouveau transactivateur dépendant de la <br />doxycycline capable d'induire la transcription de shARN à partir d'un promoteur d'ARN <br />polymérase III minimal. Après intégration dans un vecteur lentiviral, ce système a permis <br />de contrôler efficacement et de manière réversible l'expression de la GFP et de la protéine <br />p53 in vitro. En présence de doxycycline, une extinction de 90 % de l'expression des deux <br />gènes cibles a été obtenue. Cette expression a été réinduite après retrait de la doxycycline. <br />L'efficacité de ce système est dépendante de la dose et du temps de traitement avec la <br />doxycycline. <br /><br />L'intégration de systèmes de régulations efficaces au sein d'un vecteur lentiviral <br />unique constitue une étape cruciale pour une utilisation sécurisée de ces vecteurs en <br />thérapeutique humaine.
59

Les singularités des polynômes à l'infini et les compactifications toriques

Alessandrini, David 11 June 2002 (has links) (PDF)
Cette thèse porte sur l'étude de la topologie des fibres d'un polynôme complexe. Dans les préliminaires, on présente les différentes techniques qui seront utilisées comme les champs de vecteurs stratifiés et les conditions de contrôles sur ces champs, les variétés toriques. On présente aussi quelques résultats préparatoires sur les propriétés de la compactification torique des fibres d'un polynôme.<br /><br />Le chapitre 2 donne les principaux résultats de cette thèse dans le cas d'une compactification torique par poids de l'espace affine C^n. On démontre la trivialité affine d'un polynôme à l'aide de l'hypothèse de modération sur le gradient par poids de Malgrange-Paunescu : |grad_Wf(z)|_W est minoré. On démontre aussi grâce à la même hypothèse de modération sur le gradient la propriété locale suivante : le champ de vecteurs de Kuo-Paunescu après modification torique donne un champ de vecteurs controlé par rapport au diviseur à l'infini. Cette dernière condition nous donne la condition la plus importante : la condition non-caractéristique. On en déduit la trivialité locale en un point du diviseur.<br /><br />Le chapitre 3 est basé sur les travaux de Hamm, Lê et Mebkhout. Il décrit la correspondance entre la condition non-caractéristique obtenue au chapitre 2 et la notion de cycles évanescents ainsi que celle de trivialité locale.<br /><br />Le chapitre 4 présente la généralisation des théorèmes du chapitre 2 pour une compactification torique quelconque de l'espace affine C^n.
60

Fonctions noyaux pour molécules et leur application au criblage virtuel par machines à vecteurs de support

Mahé, Pierre 11 1900 (has links) (PDF)
La recherche thérapeutique a de plus en plus recours à des techniques de modélisation, dites de criblage virtuel, visant à corréler la structure d'une molécule avec ses propriétés biologiques. En particulier, l'utilisation de modèles prédictifs quantifiant la toxicité d'une molécule ou son activité vis à vis d'une cible thérapeutique, permet de réduire de manière considérable le temps et les coûts nécessaires à la mise au point de nouveaux médicaments. Nous nous proposons d'aborder ce problème dans le cadre des méthodes à noyaux, qui permettent de construire de tels modèles de manière efficace dès lors que l'on dispose d'une fonction noyau mesurant la similarité des objets que l'on considère. Plus particulièrement, l'objet de cette thèse est de définir de telles fonctions noyaux entre structures bi- et tri-dimensionnelles de molécules. D'un point de vue méthodologique, ce problème se traduit respectivement comme celui de comparer des graphes représentant les liaisons covalentes des molécules, ou des ensembles d'atomes dans l'espace. Plusieurs approches sont envisagées sur la base de l'extraction et la comparaison de divers motifs structuraux qui permettent d'encoder les groupes fonctionnels des molécules à différents niveaux de résolution. Les validations expérimentales suggèrent que cette méthodologie est une alternative prometteuse aux approches classiques en criblage virtuel.

Page generated in 0.0418 seconds