• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 388
  • 128
  • 40
  • 2
  • Tagged with
  • 565
  • 176
  • 166
  • 141
  • 105
  • 101
  • 87
  • 80
  • 77
  • 72
  • 68
  • 60
  • 58
  • 56
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Analyse probabiliste, étude combinatoire et estimation paramétrique pour une classe de modèles de croissance de plantes avec développement stochastique

Loi, Cédric 31 May 2011 (has links) (PDF)
Dans cette thèse, nous nous intéressons à une classe particulière de modèles stochastique de croissance de plantes structure-fonction à laquelle appartient le modèle GreenLab. L'objectif est double. En premier lieu, il s'agit d'étudier les processus stochastiques sous-jacents à l'organogenèse. Un nouveau cadre de travail combinatoire reposant sur l'utilisation de grammaires formelles a été établi dans le but d'étudier la distribution des nombres d'organes ou plus généralement des motifs dans la structure des plantes. Ce travail a abouti à la mise en place d'une méthode symbolique permettant le calcul de distributions associées à l'occurrence de mots dans des textes générés aléatoirement par des L-systèmes stochastiques. La deuxième partie de la thèse se concentre sur l'estimation des paramètres liés au processus de création de biomasse par photosynthèse et de son allocation. Le modèle de plante est alors écrit sous la forme d'un modèle de Markov caché et des méthodes d'inférence bayésienne sont utilisées pour résoudre le problème.
232

Terminaison basée sur les types et filtrage dépendant pour le calcul des constructions inductives

Sacchini, Jorge 29 June 2011 (has links) (PDF)
Les assistants de preuve basés sur des théories des types dépendants sont de plus en plus utilisé comme un outil pour développer programmes certifiés. Un exemple réussi est l'assistant de preuves Coq, fondé sur le Calcul des Constructions Inductives (CCI). Coq est un langage de programmation fonctionnel dont un expressif système de type qui permet de préciser et de démontrer des propriétés des programmes dans une logique d'ordre supérieur. Motivé par le succès de Coq et le désir d'améliorer sa facilité d'utilisation, dans cette thèse nous étudions certaines limitations des implémentations actuelles de Coq et sa théorie sous-jacente, CCI. Nous proposons deux extension de CCI que partiellement resourdre ces limitations et que on peut utiliser pour des futures implémentations de Coq. Nous étudions le problème de la terminaison des fonctions récursives. En Coq, la terminaison des fonctions récursives assure la cohérence de la logique sous-jacente. Les techniques actuelles assurant la terminaison de fonctions récursives sont fondées sur des critères syntaxiques et leurs limitations apparaissent souvent dans la pratique. Nous proposons une extension de CCI en utilisant un mécanisme basé sur les type pour assurer la terminaison des fonctions récursives. Notre principale contribution est une preuve de la normalisation forte et la cohérence logique de cette extension. Nous étudions les définitions par filtrage dans le CCI. Avec des types dépendants, il est possible d'écrire des définitions par filtrage plus précises, par rapport à des langages de programmation fonctionnels Haskell et ML. Basé sur le succès des langages de programmation avec types dépendants, comme Epigram et Agda, nous développons une extension du CCI avec des fonctions similaires.
233

Mesures de similarité et cosinus généralisé : une approche d'apprentissage supervisé fondée sur les k plus proches voisins

Qamar, Ali Mustafa 19 November 2010 (has links) (PDF)
Les performances des algorithmes d'apprentissage automatique dépendent de la métrique utilisée pour comparer deux objets, et beaucoup de travaux ont montré qu'il était préférable d'apprendre une métrique à partir des données plutôt que se reposer sur une métrique simple fondée sur la matrice identité. Ces résultats ont fourni la base au domaine maintenant qualifié d'apprentissage de métrique. Toutefois, dans ce domaine, la très grande majorité des développements concerne l'apprentissage de distances. Toutefois, dans certaines situations, il est préférable d'utiliser des similarités (par exemple le cosinus) que des distances. Il est donc important, dans ces situations, d'apprendre correctement les métriques à la base des mesures de similarité. Il n'existe pas à notre connaissance de travaux complets sur le sujet, et c'est une des motivations de cette thèse. Dans le cas des systèmes de filtrage d'information où le but est d'affecter un flot de documents à un ou plusieurs thèmes prédéfinis et où peu d'information de supervision est disponible, des seuils peuvent être appris pour améliorer les mesures de similarité standard telles que le cosinus. L'apprentissage de tels seuils représente le premier pas vers un apprentissage complet des mesures de similarité. Nous avons utilisé cette stratégie au cours des campagnes CLEF INFILE 2008 et 2009, en proposant des versions en ligne et batch de nos algorithmes. Cependant, dans le cas où l'on dispose de suffisamment d'information de supervision, comme en catégorisation, il est préférable d'apprendre des métriques complètes, et pas seulement des seuils. Nous avons développé plusieurs algorithmes qui visent à ce but dans le cadre de la catégorisation à base de k plus proches voisins. Nous avons tout d'abord développé un algorithme, SiLA, qui permet d'apprendre des similarités non contraintes (c'est-à-dire que la mesure peut être symétrique ou non). SiLA est une extension du perceptron par vote et permet d'apprendre des similarités qui généralisent le cosinus, ou les coefficients de Dice ou de Jaccard. Nous avons ensuite comparé SiLA avec RELIEF, un algorithme standard de re-pondération d'attributs, dont le but n'est pas sans lien avec l'apprentissage de métrique. En effet, il a récemment été suggéré par Sun et Wu que RELIEF pouvait être considéré comme un algorithme d'apprentissage de métrique avec pour fonction objectif une approximation de la fonction de perte 0-1. Nous montrons ici que cette approximation est relativement mauvaise et peut être avantageusement remplacée par une autre, qui conduit à un algorithme dont les performances sont meilleurs. Nous nous sommes enfin intéressés à une extension directe du cosinus, extension définie comme la forme normalisée d'un produit scalaire dans un espace projeté. Ce travail a donné lieu à l'algorithme gCosLA. Nous avons testé tous nos algorithmes sur plusieurs bases de données. Un test statistique, le s-test, est utilisé pour déterminer si les différences entre résultats sont significatives ou non. gCosLA est l'algorithme qui a fourni les meilleurs résultats. De plus, SiLA et gCosLA se comparent avantageusement à plusieurs algorithmes standard, ce qui illustre leur bien fondé.
234

Intégration du contexte par réseaux bayésiens pour la détection et le suivi multi-cibles

Jida, B. 09 December 2008 (has links) (PDF)
Ces travaux se placent dans le cadre général de l'assistance au conducteur et plus particulièrement de la sécurité. L'objectif est ici de surveiller l'environnement d'un véhicule grâce à un capteur télémétrique à balayage et d'informer le conducteur de situations potentiellement dangereuses. Ce dispositif permet alors d'envisager une manoeuvre d'évitement ou d'atténuation de collision. Deux points particuliers ont retenu notre attention : la détection d'objets qui occupe une place privilégiée car elle conditionne directement les performances globales de la méthode, et le processus d'association/suivi qui doit permettre d'associer efficacement les mesures disponibles à chaque objet suivi. Les données télémétriques utilisées nécessitent de passer par une étape de détection afin d'estimer le nombre d'objets présents dans la scène et leur distance au capteur, en procédant à une agrégation des mesures liées au même objet. Nous proposons en particulier dans ce mémoire une méthode de détection d'objets qui exploite non seulement la nature des mesures disponibles mais également les caractéristiques géométriques particulières liées au contexte applicatif. L'approche retenue pour l'étape d'association repose sur les méthodes d'association probabiliste de données qui permettent notamment de considérer le fait qu'une mesure disponible puisse ne pas être liée à un objet, en exploitant donc directement les notions de probabilité de détection et de fausse alarme. Ces probabilités, et notamment la probabilité de détection, demeurent non seulement fortement liées au détecteur, mais également au contexte de la scène : contexte capteur/objet et contexte objet/objet. Pour pouvoir intégrer ces informations globales de contexte, nous proposons une méthode d'association-suivi basée sur les réseaux bayésiens qui autorise l'intégration de paramètres liés aux caractéristiques des objets et du capteur dans la détermination de la probabilité de détection.
235

Étude de fonctions actives et/ou passives à base de<br />micro-résonateurs à modes de galerie

Arnaud, Carole 15 December 2004 (has links) (PDF)
Ces travaux de thèse portent sur l'étude de résonateurs cyclique (à symétrie de révolution) dans lesquels existent des modes confinés de très haute surtension, appelés « modes de galerie ». Dans ces modes, la lumières est guidée dans le diélectrique constituant le résonateur le long d'un cercle équatorial par une succession de réflexion totales internes à l'interface diélectrique/air et les résonances correspondent à une condition de retour en phase. Les résonances sont très fines ce qui permet d'envisager des applications aussi biens passives (filtrage, insertion/extraction) qu'active (laser faible seuil, fonction non-linéaire).<br />Ce manuscrit de thèse est constitué de deux parties distinctes :<br />La première partie, qui concerne les fonctions passives à base de micro-résonateur planaire, présente différents outils (numérique et analytique) qui permettent de modéliser le comportement de ces structures et démontre la complémentarité de ces outils.<br />La deuxième partie concerne les lasers micro-sphériques (dopés Erbium) et plus précisément le problème de l'interaction entre les modes d'une micro-sphère et un miroir métallique.
236

Segmentation morphologique interactive pour la fouille de séquences vidéo

Weber, Jonathan 30 September 2011 (has links) (PDF)
Nous observons actuellement une augmentation importante du volume de données vidéo disponibles. L'utilisation efficace de cette masse de données nécessite d'en extraire de l'information. Dans cette thèse, nous proposons d'utiliser les méthodes de fouille de données et de les appliquer sur les objets-vidéo d'intérêt afin de combler le fossé sémantique en impliquant l'utilisateur dans le processus. Extraire ces objets à partir des pixels nécessite de manipuler un grand volume de données, induisant un traitement coûteux (en temps et en mémoire) peu compatible avec une implication interactive de l'utilisateur. Ainsi, nous proposons d'appliquer le processus interactif de segmentation sur une réduction des données, les zones quasi-plates. N'étant définies que pour les images fixes, nous proposons une extension des zones quasi-plates aux séquences vidéo ainsi qu'une nouvelle méthode de filtrage. La segmentation est effectuée interactivement par l'utilisateur qui dessine des marqueurs sur les objets d'intérêt afin de guider la fusion des zones quasi-plates composant ces objets. Elle est effectuée sur un graphe d'adjacence de régions représentant les zones quasi-plates spatiotemporelles ainsi que leurs relations d'adjacence. L'utilisation de cette structure assure un faible temps de calcul. Les objets-vidéo obtenus sont ensuite utilisés dans un processus de fouille interactif guidé par des descripteurs extraits automatiquement de la video et des informations données par l'utilisateur. La forte interactivité avec l'utilisateur, à la fois lors de l'étape de segmentation puis lors de l'étape de fouille favorise la synergie entre données numériques et interprétation humaine.
237

Développement d'une méthode hybride RANS-LES temporelle pour la simulation de sillages d'obstacles cylindriques

Tran, Thanh Tinh 28 March 2013 (has links) (PDF)
Dans le domaine de la modélisation des écoulements turbulents, les approche hybrides RANS/LES ont reçu récemment beaucoup d'attention car ils combinent le coût de calcul raisonnable du RANS et la précision de la LES.Parmi elles, le TPITM (Temporal Partially Integrated Transport Model) est une approche hybride RANS/LES temporelle qui surmonte les inconsistances du raccordement continu du RANS et de la LES grâce à un formalisme de filtrage temporel. Cependant, le modèle TPITM est relativement difficile à mettre en œuvre et, en particulier, nécessite l'utilisation d'une correction dynamique, contrairement à d'autres approches, notamment la DES (Detached Eddy Simulation).Cette thèse propose alors une approche hybride RANS/LES similaire à la DES, mais basée sur un filtrage temporel, déduite du modèle TPITM par équivalence, c'est-à-dire en imposant la même partition entre énergies résolue et modélisée. Ce modèle HTLES (Hybrid Temporal LES) combine les caractéristiques de la DES (facilité de mise en œuvre) et du TPITM (formalisme consistant, justification théorique des coefficients).Après calibration en turbulence homogène, l'approche est appliquée à des cas d'écoulements autour de cylindres carrés puis rectangulaires. La modélisation des tensions de sous-filtre est une adaptation au contexte hybride du modèle RANS k-wSST.
238

Localisation de Terminaux Mobiles par Exploitation d'Empreintes

Öktem, Turgut Mustafa 27 June 2011 (has links) (PDF)
Depuis plusieurs années, le positionnement de terminal mobile reçoit un intérêt particulièrement grand. La motivation principale pour le développement de système de positionnement mobile provient essentiellement d'une nécessité imposée par le service E-911 de l'U.S FCC. Bien qu'au départ ils ont été utilisés pour les besoins des systèmes de sécurité d'urgence, aujourd'hui ils trouvent des applications dans de nombreux domaine tel que les systèmes cellulaires. Il existe de nombreux algorithmes développés pour le problème de localisation MT. Les méthodes traditionnelles de localisation géométrique sont conçues pour fonctionner sous les conditions de line-of-sight (LoS). Cependant, les conditions LoS pourrait ne pas être toujours présentes entre la station de base (BS) et le MT. Par conséquent, les techniques de localisation basée sur fingerprinting qui sont également l'objet de cette thèse attire l'attention en raison de leur capacité à travailler aussi en multi trajet et dans des environnements non-line-of-sight (NLoS). Dans cette thèse, nous introduisons de nouveaux algorithmes de fingerprinting, à savoir l'algorithme de power delay Doppler profile-fingerprinting (PDDP-F) qui exploite la mobilité du MT. Le but est d'augmenter la précision de localisation en utilisant la dimension Doppler. Nous étudions également les performances de localisation des algorithmes power delay profile-fingerprinting (PDP-F) et PDDP-F via la dérivation des bornes de Cramer-Rao (CRBs). L'impact de la géométrie du réseau est également étudié. Un autre sujet nous nous occupons est l'analyse de la probabilité d'erreur par paires (PEP) pour les méthodes PDP-F. Le PEP est une notion bien connue dans les communications numériques, et nous l'importons dans le domaine de la localisation pour dériver la probabilité de prendre une décision en faveur d'une mauvaise position. Le dernier sujet sur lequel nous avons travaillé est le suivi adaptatif de l'environ MT en utilisant un filtre de Kalman. Différents modèles de mobilité sont comparés en termes de leurs erreurs de prédiction de position.
239

Observation et commande des systèmes de grande dimension

Mansouri, Mejda 08 December 2012 (has links) (PDF)
Dans ce mémoire, on s'est intéressé aux problèmes d'estimation, de filtrage H-infini et de la commande basée observateur des systèmes de grande dimension. L'étude porte sur les systèmes linéaires standards mais aussi sur les systèmes algèbro-différentiels appelés aussi systèmes singuliers pour couvrir la classe la plus large possible des systèmes de grande dimension. Ainsi, on a commencé notre travail en proposant des méthodes de synthèse d'observateurs décentralisés à interconnexions inconnues pour des systèmes de grande dimension standards et singuliers. On a cherché à éliminer l'effet des interconnections inconnues sur la dynamique de l'erreur d'observation. La synthèse de l'observateur est basée sur des LMIs permettant de déterminer la matrice de gain paramétrant toutes les matrices de l'observateur. La formulation LMI est basée sur l'approche Lyapunov et déduite des différents lemmes bornés. Ensuite, on a proposé des filtres décentralisés qui permettent d'assurer, en plus de la stabilité, un critère de performance H-infini, c'est à dire qu'on a cherché à atténuer l'effet des perturbations, supposées être inconnues mais à énergie bornée, sur la dynamique de l'erreur d'estimation. On a abordé après l'étude des observateurs interconnectés pour les systèmes de grande dimension, où on a proposé une nouvelle méthode permettant de synthétiser une nouvelle forme d'observateurs interconnectés connectivement stable. On s'est intéressé à la capacité d'un tel observateur à être stable de manière robuste vis-a-vis des incertitudes sur les interconnexions entre les sous observateurs qui les forment. Enfin, on s'est intéressé à l'application des méthodes d'estimation proposées dans le cadre de la commande. En effet, dans un premier temps, on a proposé une commande décentralisée basée sur un filtre H-infini pour une classe de systèmes de grande dimension standards à interconnections non-linéaires. L'approche est une extension des travaux de Kalsi et al. aux cas des systèmes perturbés standards. En effet, on a commencé par le calcul du gain de retour d'état qui satisfait les spécifications du système bouclé. Puis, on a synthétisé un filtre qui a pour but de fournir en sortie une estimée de ce retour d'état. L'approche a été validée sur un exemple de système composé de trois machines électriques interconnectées. Dans le second volet du chapitre, on a considéré le problème de la commande via un filtre H-infini pour une classe de système singulier de grande dimension soumis à des perturbations à énergie bornée. L'approche est une extension des travaux de Kalsi et al. au cas des systèmes singuliers perturbés L'un des principaux apports de nos travaux, a été de proposer une nouvelle méthode de synthèse de commande basée sur un filtre H-infini qui générée par des conditions de solvabilité moins restrictives que celles introduites dans les travaux de Kalsi et al. Ainsi, on a relaxé les contraintes qui portait sur la distance entre la paire de matrices formée par la matrice d'état et la matrice d'entrée d'une part et l'ensemble de paires de matrices incontrôlables d'autre part. De plus, on tient compte de la maximisation des bornes de l'interconnexion, ce qui est très important en pratique.
240

Ecologie et évolution des maladies infectieuses aiguës : le cas de la grippe

Ballesteros, Sébastien 18 December 2009 (has links) (PDF)
Cette thèse s'intéresse aux interactions entre immunologie, épidémiologie et biologie évolutive. Nous utilisons une combinaison d'approches mathématiques et statistiques pour comprendre les processus gouvernant les dynamiques épidémiologiques et les phylogénies observées pour différents pathogènes de l'échelle individuelle aux populations. Nous prenons l'exemple de la grippe humaine. Trois hypothèses permettent de rendre compte de la phylodynamique particulière de la grippe: (i) il existe un mécanisme de densité-dépendance directe médié par une période temporaire d'immunité totale après infection ; (ii) le nombre de phénotypes possibles est limité, les virus les ré-explorant sans cesse ; (iii) l'évolution de l'antigène principal de la grippe est ponctuée, les échappements ponctuels à l'immunité induisant des balayages sélectifs. (iii) domine aujourd'hui et rend compte de la variabilité des épidémies de grippe, de larges échappements à l'immunité en induisant de plus grandes. Nous montrons que le formalisme ayant mené à (iii) induit de manière implicite un processus immunologique irréaliste pour la grippe. Nous révélons que les séries temporelles d'incidences grippales ne peuvent pas fournir une preuve du caractère ponctué de l'évolution antigénique, un modèle parcimonieux prenant en compte une évolution antigénique purement graduelle les reproduisant. La nature chaotique de ces dynamiques marque une limite fondamentale à la prédictibilité de la taille des épidémies de grippe et ce, indépendamment de la contingence évolutive. Nous développons un formalisme confrontable aux données pour tester les différentes hypothèses rendant compte de la phylodynamique de la grippe.

Page generated in 0.0596 seconds