• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2768
  • 906
  • 403
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4136
  • 1297
  • 979
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 577
  • 504
  • 393
  • 384
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1091

Développement d'une méthodologie robuste de sélection de gènes dans le cadre d'une activation pharmacologique de la voie PPAR

Cotillard, Aurélie 03 December 2009 (has links) (PDF)
De part leur dimension élevée, les données de puces à ADN nécessitent l'application de méthodes statistiques pour en extraire une information pertinente. Dans le cadre de l'étude des différences entre deux agonistes de PPAR (Peroxisome Proliferator-Activated Receptor), nous avons sélectionné trois méthodes de sélection de variables : T-test, Nearest Shrunken Centroids (NSC) et Support Vector Machine – Recursive Feature Elimination. Ces méthodes ont été testées sur des données simulées et sur les données réelles de l'étude PPAR. En parallèle, une nouvelle méthodologie, MetRob, a été développée afin d'améliorer la robustesse ce ces méthodes vis à vis de la variabilité technique des puces à ADN, ainsi que leur reproductibilité. Cette nouvelle méthodologie permet principalement d'améliorer la valeur prédictive positive, c'est-à-dire la confiance accordée aux résultats. La méthode NSC s'est révélée la plus robuste et ce sont donc les résultats de cette méthode, associée à MetRob, qui ont été étudiés d'un point de vue biologique.
1092

Nouveaux Algorithmes pour l'Apprentissage de Machines à Vecteurs Supports sur de Grandes Masses de Données

Bordes, Antoine 09 February 2010 (has links) (PDF)
Internet ainsi que tous les moyens numériques modernes disponibles pour communiquer, s'informer ou se divertir génèrent des données en quantités de plus en plus importantes. Dans des domaines aussi variés que la recherche d'information, la bio-informatique, la linguistique computationnelle ou la sécurité numérique, des méthodes automatiques capables d'organiser, classifier, ou transformer des téraoctets de données apportent une aide précieuse. L'apprentissage artificiel traite de la conception d'algorithmes qui permettent d'entraîner de tels outils à l'aide d'exemples d'apprentissage. Utiliser certaines de ces méthodes pour automatiser le traitement de problèmes complexes, en particulier quand les quantités de données en jeu sont insurmontables pour des opérateurs humains, paraît inévitable. Malheureusement, la plupart des algorithmes d'apprentissage actuels, bien qu'efficaces sur de petites bases de données, présentent une complexité importante qui les rend inutilisables sur de trop grandes masses de données. Ainsi, il existe un besoin certain dans la communauté de l'apprentissage artificiel pour des méthodes capables d'être entraînées sur des ensembles d'apprentissage de grande échelle, et pouvant ainsi gérer les quantités colossales d'informations générées quotidiennement. Nous développons ces enjeux et défis dans le Chapitre 1. Dans ce manuscrit, nous proposons des solutions pour réduire le temps d'entraînement et les besoins en mémoire d'algorithmes d'apprentissage sans pour autant dégrader leur précision. Nous nous intéressons en particulier aux Machines à Vecteurs Supports (SVMs), des méthodes populaires utilisées en général pour des tâches de classification automatique mais qui peuvent être adaptées à d'autres applications. Nous décrivons les SVMs en détail dans le Chapitre 2. Ensuite, dans le Chapitre 3, nous étudions le processus d'apprentissage par descente de gradient stochastique pour les SVMs linéaires. Cela nous amène à définir et étudier le nouvel algorithme, SGD-QN. Après cela, nous introduisons une nouvelle procédure d'apprentissage : le principe du “Process/Reprocess”. Nous déclinons alors trois algorithmes qui l'utilisent. Le Huller et LaSVM sont présentés dans le Chapitre 4. Ils servent à apprendre des SVMs destinés à traiter des problèmes de classification binaire (décision entre deux classes). Pour la tˆache plus complexe de prédiction de sorties structurées, nous modifions par la suite en profondeur l'algorithme LaSVM, ce qui conduit à l'algorithme LaRank présenté dans le Chapitre 5. Notre dernière contribution concerne le problème récent de l'apprentissage avec une supervision ambigüe pour lequel nous proposons un nouveau cadre théorique (et un algorithme associé) dans le Chapitre 6. Nous l'appliquons alors au problème de l'étiquetage sémantique du langage naturel. Tous les algorithmes introduits dans cette thèse atteignent les performances de l'état-de-l'art, en particulier en ce qui concerne les vitesses d'entraînement. La plupart d'entre eux ont été publiés dans des journaux ou actes de conférences internationaux. Des implantations efficaces de chaque méthode ont également été rendues disponibles. Dans la mesure du possible, nous décrivons nos nouveaux algorithmes de la manière la plus générale possible afin de faciliter leur application à des tâches nouvelles. Nous esquissons certaines d'entre elles dans le Chapitre 7.
1093

Analyse discursive pour le repérage automatique de segments obsolescents dans des documents encyclopédiques.

Laignelet, Marion 25 September 2009 (has links) (PDF)
La question de la mise à jour des documents se pose dans de nombreux do- maines. Elle est centrale dans le domaine de l'édition encyclopédique : les ouvrages publiés doivent être continuellement vérifiés afin de ne pas mettre en avant des informations fausses ou altérées par le temps. Dans ce travail, nous proposons la mise en œuvre d'un prototype d'aide à la mise à jour : l'objectif visé est le repérage automatique de zones textuelles dans lesquelles l'information est potentiellement obsolescente. Pour y répondre, nous proposons la prise en compte d'indices linguistiques et discursifs variés et faisant appel à des niveaux d'analyses différents. L'obsolescence étant un phénomène non linguistique pour lequel il n'existe pas d'outil rhétorique dédié, notre hypothèse est qu'il faut considérer les indices linguistiques et discursifs en termes de complémentarité, de combinaisons. Sur un corpus annoté manuellement par des experts, nous projetons un repérage automatique d'un grand nombre d'indices linguistiques, discursifs et structurels. Un système d'apprentissage automatique est ensuite mis en place afin de faire émerger les configurations d'indices pertinentes dans les segments obsolescents caractérisés par les experts. Notre double finalité est remplie : nous proposons une description fine de l'ob- solescence dans notre corpus de textes encyclopédiques ainsi qu'un prototype logi- ciel d'aide à la mise à jour des textes. Une double évaluation a été menée : par validation croisée sur le corpus d'apprentissage et par les experts sur un corpus de test. Les résultats sont encourageants. Ils nous amènent à faire évoluer la définition du segment d'obsolescence, sur la base des « découvertes » émergeant des corpus et dans l'interaction avec les besoins des experts concernant l'aide à la mise à jour. Ils montrent également les limites des annotations automatiques des indices linguistiques et discursifs. Enfin, la reproductibilité de notre système doit être évaluée ainsi que la pertinence et la réutilisabilité du modèle de représentation des données présenté.
1094

Turbo equalization and turbo estimation for multiple-input multiple-output wireless systems

Wautelet, Xavier 13 September 2006 (has links)
In the nineties, two major events brought about a revolution in the field of digital communications: the invention of turbo codes and the development of multiple-input multiple-output (MIMO) wireless systems. The turbo codes are error-correcting codes which enable communication systems to operate close to the channel capacity with a reasonable complexity. Multiple-antenna transceivers, a.k.a. MIMO wireless systems, mitigate the effect of multipath fading that occurs in most terrestrial wireless communications. MIMO transmissions are more reliable than single-input single-output transmissions. Moreover, the data rate achievable by MIMO systems is also much higher. This thesis combines these two recent breakthroughs in digital communications. Iterative decoding is a key factor in the success of turbo codes. This principle has proved to be so powerful that it has soon been applied to other schemes such as iterative channel equalization, also known as turbo equalization. In the first part of this thesis, we derived a low-complexity iterative equalizer for frequency-selective MIMO channels. Its robustness against channel estimation errors was also addressed. The second part of this thesis is devoted to the estimation of the channel impulse response and the noise variance for coded transmissions over MIMO channels. We proposed several new iterative estimators based on the expectation-maximization algorithm, the expectation-conditionalmaximization algorithm and the minimum mean square error criterion. Finally, we derived lower bounds on the mean square error of channel estimators. In particular, the Cramer-Rao bound for the estimation of frequency-selective MIMO channels were computed. We mainly investigated the case where no training sequence are transmitted and the case where the receiver has a partial knowledge of the transmitted sequence.
1095

Chirurgie fonctionnelle des epilepsies réfractaires: nouvelles approches physiopathologiques, diagnostiques et thérapeutiques; Surgery for refractory epilepsy: New concept regarding physiopathology, diagnosis and treatment.

Colligon, Frédéric 21 May 2007 (has links)
Beaucoup de progrès restent à réaliser dans la compréhension de la physiopathologie ainsi que dans la prise en charge thérapeutique de lépilepsie. De nombreux patients restent réfractaires au traitement médical et sont susceptibles dêtre de bons candidats à un traitement chirurgical. Lapport de nouvelles techniques dimagerie est une avancée importante dans la définition des crises et dans la localisation du foyer épileptogène et a permis daméliorer le résultat du traitement chirurgical par une meilleure sélection des candidats. La première partie de notre travail est une introduction générale où sont principalement exposées les techniques actuelles dexploration de lépilepsie ainsi que les résultats à long terme du traitement chirurgical chez 399 patients souffrant dépilepsie réfractaire, de manière à préciser le rôle de la chirurgie ainsi que les facteurs pouvant influencer le résultat postopératoire. La prise en charge des crises dépilepsie réfractaire dont le foyer épileptique se localise au niveau de zone fonctionnelle reste difficile et controversée. Il existe des arguments historiques et physiologiques justifiant une exérèse chirurgicale du foyer au niveau de zones fonctionnelles telles que le cortex sensitivomoteur mais il nexiste pourtant pas dans la littérature moderne de série qui permette dévaluer lefficacité de ce traitement et de le comparer avec dautres techniques chirurgicales comme par exemple les transsections sous- piales multiples. Dans la deuxième partie de ce travail, nous présentons une série de cinq patients provenant de la série des 399 patients exposée dans la première partie de notre travail, qui ont tous bénéficié dune résection corticale au niveau du cortex sensitivomoteur. Nous montrons que la difficulté du traitement de ces patients nest pas tant le geste chirurgical mais la définition et la localisation exacte du foyer épileptogène. Nous démontrons également que la mise au point exhaustive et précise de cette pathologie, en utilisant les méthodes dinvestigation décrites dans la première partie, permet de sélectionner les candidats de manière optimale avec des résultats postopératoires satisfaisants. La physiopathologie des crises dépilepsie est encore mal définie. Le mécanisme le plus souvent évoqué est un déséquilibre synaptique entre les afférences excitatrices et inhibitrices, une anomalie des canaux ioniques membranaires ou encore un trouble du métabolisme neuronal ou glial au niveau dun foyer où les neurones présentent une activité anormale. Une des questions primordiales à éclaircir est de savoir si cest le neurone qui est hyperexcitable, le réseau neuronal présent au sein du foyer ou les deux. Les structures gliales formées par les astrocytes et les oligodendrocytes jouent-elles un rôle accessoire ou primordial dans ce phénomène ? En dehors du rôle que pourraient jouer les connexions synaptiques dans le phénomène épileptique, les jcs semblent être importantes dans le mécanisme physiopatholgique des crises. Elles pourraient favoriser la synchronisation de lactivité épileptique ainsi que la propagation de celle-ci vers les régions cérébrales avoisinantes. La troisième partie de notre travail explore le rôle que pourrait jouer les jcs dans le phénomène épileptique. Les épilepsies mésiotemporales associées à une sclérose hippocampique sont les épilepsies dont le traitement chirurgical est le plus fréquemment proposé lorsque les crises deviennent réfractaires au traitement médical. Lobtention de tissu est dès lors aisée ce qui nous a permis détudier lexpression des jcs au niveau de tissus hippocampiques provenant de patients épileptiques et de la comparer avec celle déterminée au niveau dhippocampes provenant de patients non épileptiques et obtenus postmortem. Notre objectif est de savoir si cette éventuelle contribution au phénomène épileptique est liée à une augmentation de lexpression des jcs au niveau des tissus épileptiques et, si oui au niveau de quels types cellulaires (neurones, astrocytes) et de quelles régions de lhippocampe (gyrus dentelé, CA1 à CA4, subiculum)
1096

Le transfert de films : vers une intégration hétérogène des micro et nanosystèmes

Schelcher, Guillaume 23 October 2012 (has links) (PDF)
Une technologie d'élaboration de micro et nanosystèmes idéale devrait permettre l'intégration de différents matériaux (magnétiques, piézoélectriques, polymères, etc.) ou structures (composants optiques, mécaniques, optoélectroniques, etc.) de nature fortement hétérogène dans le but d'obtenir des systèmes multifonctionnels complexes éventuellement encapsulés. Un moyen de contourner les différents problèmes d'incompatibilité, liés aux mélanges des technologies de fabrication, est de transférer les différents films de matériaux ou composants d'un substrat donneur, sur lequel ils ont été préalablement élaborés, vers le substrat comportant le système visé Dans cette optique, un procédé de transfert de film à basse température a été développé. Ce procédé repose sur le contrôle de l'adhésion d'un film mince de nickel préformé, à partir d'un substrat dit " donneur ", sur une couche à adhésion contrôlée de nature carbonée ou fluorocarbonée. La libération mécanique du film, sur un substrat dit " cible ", est assurée par une soudure adhésive via des cordons de scellement en BCB. Grâce à sa facilité de mise en œuvre et aux faibles températures requises pour le scellement des substrats, ce procédé a permis de transférer des microstructures en nickel sur des substrats de silicium, de verre ainsi que sur des substrats Kapton souples. L'emploi d'une soudure BCB assure l'isolation thermique et électrique des microstructures sur le substrat cible. La versatilité du procédé a été prouvée par l'empilement de microstructures suspendues et par le transfert de divers matériaux. Ce procédé est très prometteur pour de nombreuses applications et apporte de nouvelles perspectives quant à l'intégration hétérogène 3D de micro et nanosystèmes.
1097

Infiltration-percolation sur sable et sur fibre de coco, filtres plantes et épuration d'eaux usées domestiques à dominance agroalimentaire sous climat tropical sec : cas des eaux résiduaires urbaines de Ouagadougou, Burkina Faso

Diallo, Martine 21 December 2011 (has links) (PDF)
Au Burkina Faso, l'un des soucis majeurs demeure la gestion des eaux usées et excréta. Dans l'optique de trouver une alternative à l'assainissement autonome (assainissement non collectif), des technologies biologiques rustiques par cultures fixées sur supports fins, destinées aux petites et moyennes collectivités ont été expérimentées. Le premier volet du travail expérimental à consister à évaluer les performances comparées du sable et des fibres de coco en traitement d'eaux résiduaires urbaines après un processus anaérobie par lagunage. Dans une deuxième étape, ont été évaluées les performances épuratoires de filtres plantés de Andropogon gayanus Kunth et Chrysopogon nigritana (Benth) Veldkamp deux poaceae des zones tropicales. Les abattements moyens d'élimination de la pollution biodégradable sont respectivement de 99% et 98% à la sortie du filtre à sable et de celui de substrat de coco. Cependant, il y a une DCO ajoutée due à l'extraction de composés phénoliques du substrat de coco qui occulte les performances réelles de ce support de culture. Toutefois, en l'absence d'une bonne nitrification au sein du massif de substrat de coco, contrairement au sable, nous avons relevé une élimination de l'azote sous forme d'ammonium avec un rendement de 75%. Par ailleurs, ce matériau végétal par sa structure très poreuse a montré une plus grande capacité à éliminer les sels minéraux comparativement au sable. Quant aux filtres plantés de Andropogon gayanus et Chrysopogon nigritana, si les deux pilotes ont assuré des abattements de plus de 97% de la DBO5, le premier a assuré un prélèvement plus important des nutriments (N et P).
1098

Rôle du traitement visuel simultané dans l'acquisition des connaissances orthographiques lexicales

Chaves, Nathalie 08 June 2012 (has links) (PDF)
La connaissance orthographique des mots est indispensable au développement d'une lecture experte et rapide et d'une écriture correcte. L'acquisition de ces connaissances orthographiques lexicales est un processus complexe, encore mal compris. Cette acquisition se ferait en grande partie de façon implicite au cours de la lecture. Elle dépendrait alors de la qualité du décodage, d'autres facteurs restant à préciser. Des données théoriques et certains premiers résultats empiriques ont suggéré que le traitement visuel simultané de toutes les lettres du mot est un facteur important pour l'acquisition de son orthographe spécifique. Dans ce travail de thèse, cette hypothèse est testée d'une part par des études de régression, d'autre part par des études expérimentales. Les analyses de régression étudient le lien entre l'empan visuo-attentionnel (EVA), estimant les capacités maximales de traitement visuel simultané, et les connaissances orthographiques lexicales. Les résultats montrent une relation significative entre l'EVA et les connaissances orthographiques lexicales lorsque celles-ci sont évaluées par une épreuve de production écrite ou par un test d'auto-apprentissage. Cette relation est spécifique aux connaissances lexicales puisqu'elle ne se généralise pas à l'orthographe grammaticale. Elle existe indépendamment des capacités de mémoire de travail visuo-spatiale et de lecture. Les études expérimentales, tant chez l'enfant que chez l'adulte, explorent toutes le rôle du traitement visuel simultané sur l'acquisition des connaissances orthographiques en situation d'auto-apprentissage. Cette exploration est conduite en contrastant, pendant une lecture de mots nouveaux, une condition expérimentale où le traitement visuel simultané est possible avec une autre condition où ce type de traitement est impossible. Les résultats mettent en évidence un avantage de la condition avec traitement visuel simultané possible, sur la mémorisation de l'orthographe des mots nouveaux. Cet avantage n'est pas dû à des différences de temps de présentation ou de temps de traitement des items entre les deux conditions et confirme donc que, au-delà des capacités de lecture-décodage, les capacités de traitement visuel simultané sont directement impliquées dans l'acquisition des connaissances orthographiques lexicales.
1099

DEVELOPPEMENT D'UNE METHODE POUR QUALIFIER LA DEFORMATION D'UN PRODUIT ISSU D'UN TRAITEMENT THERMIQUE. APPROCHES EXPERIMENTALE ET NUMERIQUE

Nicolas, Cyril 09 September 2009 (has links) (PDF)
La déformation en traitement thermique est associée à des mécanismes complexes du fait de l'interaction d'un grand nombre de paramètres technologiques et physiques. Dans ce contexte, la méthode développée dans ces travaux de thèse définit un cadre générique pour étudier l'influence de ces paramètres sur la déformation d'un produit. Cette méthode comporte trois facettes d'intérêt. La première est la qualification de la déformation au moyen de signatures géométriques 3D significatives, choisies pour leur réalité physique : les phénomènes de déformations. Ceux-ci sont ensuite quantifiés et leur pertinence est évaluée par un indicateur de niveau de confiance. La deuxième facette de la méthode est la possibilité de confronter directement les résultats expérimentaux et ceux issus de la simulation numérique. La prédiction de la déformation est ainsi vérifiée en comparant les amplitudes des signatures géométriques. La troisième et dernière facette est la compréhension des mécanismes de la déformation. Elle s'effectue par le suivi des amplitudes des phénomènes de déformations en fonction des effets thermiques, métallurgiques et mécaniques survenant lors du traitement thermique. Appliquée à l'éprouvette croissant, la méthode a permis d'illustrer l'influence de deux paramètres sur la déformation : la nuance d'acier et le milieu de trempe. Pour cela, les phénomènes de déformations ont été séparés en deux catégories : la première correspond à la variation homogène des dimensions dues aux effets thermomécaniques, la seconde, à la partie hétérogène due aux effets métallurgiques et mécaniques. L'application de la méthode à un cas issu de la simulation numérique 3D a révélé la prédiction satisfaisante des signatures géométriques, y compris celles locales. Les investigations numériques ont permis d'appréhender les mécanismes de la déformation du croissant et de mettre en évidence la forte sensibilité de certains phénomènes de déformations face à la variation des paramètres expérimentaux, utilisés comme données initiales dans les simulations.
1100

Gestion de contraintes et expertise dans les stratégies d'ordonnancement

Guerin, Clément 06 July 2012 (has links) (PDF)
Encore très peu de travaux de psychologie se sont penchés sur l'activité d'ordonnancement, par exemple dans la planification des tâches, de l'occupation des personnels et des machines dans des ateliers. Jusqu'alors, les travauxexistants dans la littérature ont cherché à décrire les procédures mises en oeuvre par les ordonnanceurs. En adoptantle point de vue complémentaire des représentations manipulées, cette thèse a examiné les processus psychologiquesimpliqués dans cette activité, en termes de gestion de contraintes. Deux situations d'ordonnancement ont été étudiées : la conception d'emploi du temps et l'ordonnancement manufacturier. En comparant l'activité de novices à celle d'experts,nous avons observé que la stratégie experte est de s'appuyer sur les contraintes visibles dans le Système de Représentation et de Traitement externe de la solution au problème d'ordonnancement (emploi du temps ou diagrammede Gantt). Ces études nous ont également permis de confirmer la capacité d'abstraction des ordonnanceurs experts. De plus, en choisissant deux cas particuliers d'ordonnancement, nous avons aussi pu comparer leurs similarités et leurs différences. Par ailleurs, à partir d'un travail mené antérieurement à l'IRCCyN dans le domaine de la recherche opérationnelle, nous avons évalué un outil d'assistance à l'ordonnancement. Ce travail pluridisciplinaire nous a permisd'examiner l'effet d'une des modalités de coopération homme-­‐machine (le contrôle mutuel de la machine) sur l'activitéde l'ordonnanceur, mais aussi la question de la gestion des risques de panne par les ordonnanceurs.

Page generated in 0.1171 seconds