71 |
Imagerie microonde: influence de la polarimétrie du champ diffractéLe Brusq, E. 23 October 2003 (has links) (PDF)
Le travail présenté dans ce mémoire de thèse s'intéresse au problème de l'imagerie microonde bidimensionnelle polarimétrique. Il est scindé en deux parties, la première est dédiée aux études expérimentales liées à la détection d'objets enfouis tandis que la seconde présente le développement d'un algorithme d'imagerie quantitative. Ainsi le travail effectué dans la première partie du manuscrit porte sur la réalisation d'antennes ultra-large bande et la détermination de leur comportement lors de mesures polarimétriques sur sites. Dans ce dernier cas, plusieurs tests ont été réalisés et permettent de conclure sur les qualités des capteurs développés. Dans une deuxième phase, un code d'imagerie bidimensionnelle prenant en compte à la fois la polarisation 2D-TM et 2D-TE est présenté. Le développement d'un algorithme de diffraction électromagnétique est tout d'abord exposé. Son association avec un algorithme de problème inverse existant déjà au laboratoire permet alors de générer le code d'imagerie quantitative. Plusieurs configurations de reconstruction d'objet homogène, isotrope ou non, permettent ensuite de mettre en évidence ses capacités.
|
72 |
MÉLIDIS : Reconnaissance de formes par modélisation mixte intrinsèque/discriminante à base de systèmes d'inférence floue hiérarchisésRagot, Nicolas 28 October 2003 (has links) (PDF)
La problématique de la reconnaissance de formes manuscrites est particulièrement riche et complexe. Il existe en effet un grand nombre de problèmes différents à traiter dans lesquels les formes à reconnaître sont nombreuses, soumises à une variabilité importante et donc sources de confusions. De plus, les contraintes applicatives, et notamment celles résultant de la volonté de diffusion des moyens informatiques au travers de l'informatique nomade (PDA, smart phone...), font que la conception et l'adaptation de systèmes de reconnaissance à des contextes précis d'utilisation sont particulièrement délicats.<br /><br />Pour faciliter cette mise au point nous proposons une méthodologie de classification visant à réunir un ensemble de propriétés rarement satisfaites dans une même approche : performances, généricité, fiabilité, robustesse, compacité et interprétabilité. Ce dernier point est particulièrement important puisqu'il permet au concepteur d'adapter, de maintenir et d'optimiser le système plus facilement. L'approche proposée, centrée sur la notion de connaissances dans un classifieur, est entièrement guidée par les données. L'originalité réside notamment dans l'exploitation conjointe de connaissances intrinsèques et discriminantes extraites automatiquement et organisées sur deux niveaux pour bénéficier au mieux de leur complémentarité. Le premier niveaux modélise les classes de façon explicite par des prototypes flous. Ceux-ci sont notamment utilisés pour décomposer le problème initial en sous-problèmes dans lesquels les formes possèdant des propriétés intrinsèques similaires sont regroupées. Le second niveau effectue ensuite une discrimination ciblée sur ces sous-problèmes par des arbres de décision flous. L'ensemble est formalisé de façon homogène par des systèmes d'inférence floue qui sont combinés pour la classification.<br /><br />Cette approche a conduit à la réalisation du système Mélidis qui a été validé sur plusieurs benchmarks dont des problèmes de reconnaissance de caractères manuscrits en ligne.
|
73 |
Incidence de la régulation d'un carrefour à feux sur le risque des usagers; Apprentissage d'indicateurs par sélection de données dans un fluxSaunier, Nicolas 08 April 2005 (has links) (PDF)
Dans le cadre de la régulation des carrefours à feux et du développement d'outils intégrés de gestion du trafic, notre recherche consiste à construire un système d'analyse des données d'observation d'un carrefour. Nous utilisons un dispositif expérimental d'observation automatique d'un carrefour réel basé sur des capteurs vidéo et une base d'enregistrements de scènes de trafic, qui nous permet de comparer l'incidence relative de deux stratégies, une stratégie de référence et une stratégie adaptative temps-réel, appelée CRONOS et développée à l'INRETS. <br /><br />Nous nous intéressons aux interactions entre véhicules et à leur relation à l'accident, appelée sévérité. Nous proposons une modélisation des interactions entre les véhicules dans un carrefour, et étudions particulièrement la zone de conflit. Nous mesurons les durées d'interactions et qualifions à chaque instant la sévérité des interactions détectées selon deux indicateurs, un indicateur de proximité et un indicateur de vitesse. Notre système modulaire détecte les interactions à l'aide de règles expertes explicites. Pour les indicateurs de sévérité, nous développons une méthode d'apprentissage générique, par sélection de données dans un flux. Cette méthode est testée sur l'apprentissage de l'indicateur de vitesse, et sur d'autres problèmes classiques. <br /><br />Nous utilisons le système développé pour traiter une partie des données de la base. Nous étudions les distributions des durées d'interaction selon les indicateurs de sévérité et mettons en évidence des différences entre les stratégies comparées.
|
74 |
Le contrôle non linéaire par réseaux de neurones formels: les perceptrons affines par morceauxLehalle, Charles-Albert 20 June 2005 (has links) (PDF)
Le but de ce travail est d'exposer de nouveaux résultats concernant l'utilisation d'une classe particulière de réseaux de neurones formels (les Perceptrons Affines Par morceaux: PAP) dans le cadre du contrôle optimal en boucle fermée. Les résultats principaux obtenus sont: plusieurs propriétés des PAP, concernant la nature des fonctions qu'ils peuvent émuler, un théorème constructif de représentation des fonctions continues affines par morceaux, qui permet de construire explicitement un PAP à partir d'une collection de fonctions affines, une série d'heuristiques pour l'apprentissage des paramètres d'un perceptron dans une boucle fermée et dans un cadre de contrôle optimal, des résultats théoriques concernant la stabilité de PAP utilisés comme contrôleurs. La dernière partie est consacrée des applications de ces résultats à la construction automatique de contrôleurs de la combustion de moteurs de voiture, qui ont donné lieu au dépot de deux brevets par Renault.
|
75 |
Le partage de la valeur ajoutée en France depuis 1970Sylvain, Arnaud 09 November 2004 (has links) (PDF)
Comprendre la formation de la répartition salaires-profits est important puisqu'un partage déséquilibré est préjudiciable à la croissance et à l'emploi. En France, la part des profits dans la valeur ajoutée a connu des évolutions tranchées : une période de forte diminution entre 1973 et 1982; un redressement sensible de 1982 à 1989 ; une augmentation régulière depuis 1989. Ces évolutions sont comparables à celles constatées en Allemagne et au Japon. La répartition salaires-profits semble en revanche relativement stable aux Etats-Unis et au Royaume-Uni. Les analyses théoriques s'accordent pour interpréter la chute puis le redressement du taux de marge par l'apparition puis la résorption d'un excès de salaire réel. Elles expliquent également le niveau élevé du taux de marge à partir de la fin des années 80 par un choc additionnel. Selon les auteurs, ce choc provient d'une modification de la demande de travail, d'une hausse des taux d'intérêt réels, ou de l'apparition d'un progrès technique économe en main d'œuvre. L'ensemble de ces analyses repose cependant sur des indicateurs fragiles. La tendance à la hausse du taux de marge commune à ces indicateurs est certainement un phénomène artificiel et le partage de la valeur ajoutée est proche du niveau d'équilibre de début de période depuis le début des années 90. Ce résultat fragilise l'hypothèse d'un choc au cours des années 80 et rend plus plausible l'hypothèse d'une stabilité de long terme du partage de la valeur ajoutée. Cette hypothèse de stabilité est en outre renforcée par l'estimation de fonctions de production sur données individuelles qui ne permettent pas de rejeter l'hypothèse d'une fonction de type Cobb-Douglas. Finalement, (1) comme le partage de la valeur ajoutée se trouvait à son niveau d'équilibre au début des années 70 (2) parce que le partage de la valeur ajoutée est vraisemblablement d'un niveau équivalent en début et en fin de période (3) puisqu'il se peut que le partage de la valeur ajoutée soit stable à long terme, on ne peut exclure que le partage de la valeur ajoutée se trouve à la fin des années 90 à son niveau d'équilibre de long terme et que les mouvements heurtés des décennies 70 et 80 proviennent de rigidités sur les marchés du travail voire des biens et services.
|
76 |
Recherche dans les bases de donnees satellitaires des paysages et application au milieu urbain: clustering, consensus et categorisationKyrgyzov, Ivan 30 May 2008 (has links) (PDF)
Les images satellitaires ont trouvées une large application pour l'analyse des ressources naturelles et des activités humaines. Les images à haute résolution, e.g., SPOT5, sont très nombreuses. Ceci donne un grand intérêt afin de développer de nouveaux aspects théoriques et des outils pour la fouille d'images. L'objectif de la thèse est la fouille non-supervisée d'images et inclut trois parties principales. Dans la première partie nous démontrons le contenu d'images à haute résolution. Nous décrivons les zones d'images par les caractéristiques texturelles et géométriques. Les algorithmes de clustering sont présentés dans la deuxième partie. Une étude de critères de validité et de mesures d'information est donnée pour estimer la qualité de clustering. Un nouveau critère basé sur la Longueur de Description Minimale (LDM) est proposé pour estimer le nombre optimal de clusters. Par ailleurs, nous proposons un nouveau algorithme hiérarchique basé sur le critère LDM à noyau. Une nouvelle méthode de ''combinaison de clustering'' est présentée dans la thèse pour profiter de différents algorithmes de clustering. Nous développons un algorithme hiérarchique pour optimiser la fonction objective basée sur une matrice de co-association. Une deuxième méthode est proposée qui converge à une solution globale. Nous prouvons que le minimum global peut être trouvé en utilisant l'algorithme de type ''mean shift''. Les avantages de cette méthode sont une convergence rapide et une complexité linéaire. Dans la troisième partie de la thèse un protocole complet de la fouille d'images est proposé. Différents clusterings sont représentés via les relations sémantiques entre les concepts.
|
77 |
Decision Fusion in Identity Verification using Facial ImagesCzyz, Jacek 12 December 2003 (has links)
Automatic verification of personal identity using facial images is the
central topic of the thesis. This problem can be stated as follows. Given
two face images, it must be determined automatically whether they are
images of the same person or of different persons. Due to many factors such
as variability of facial appearance, sensitivity to noise, template aging,
etc., the problem is difficult. We can overcome some of these difficulties
by combining different information sources for the
classification/recognition task. In this thesis we propose strategies on
how to combine the different information sources, i.e. fusion strategies,
in order to improve the verification accuracy. We have designed and
thoroughly optimised a number of face verification algorithms. Their
individual properties such as how their accuracy depends on algorithm
parameters, image size, or sensitivity to mis-registrations have been
studied. We have also studied how to combine the outputs of the different
algorithms in order to reduce the verification error rates. Another
decision fusion aspect considered in this thesis is the fusion of
confidences obtained sequentially on several video frames of the same
person's face. Finally multimodal fusion has been studied. In this case,
the speech and face of the same subject are recorded and processed by
different algorithms which output separate opinions. These two opinions are
then conciliated at the fusion stage. It is shown that in all cases,
information fusion allows a considerable performance improvement if the
fusion stage is carefully designed.
|
78 |
Prédiction d'Interactions et Amarrage Protéine-Protéine par combinaison de classifieursAzé, Jérôme 16 November 2012 (has links) (PDF)
Le travail présenté dans ce document correspond à huit années de recherche sur la problématique de l'interaction entre protéines. J'ai abordé le problème de la prédiction des interactions entre protéines sous l'angle de l'apprentissage supervisé. Je me suis donc intéressé à l'apprentissage de modèles prédictifs aux interactions entre protéines. J'ai étudié deux types d'interactions différentes : - l'interaction protéine-protéine au sens réseau d'interactions ; - l'interaction physique entre protéines consistant à prédire quels résidus se trouvent effectivement en interaction (amarrage protéine-protéine). Le document est structuré de la manière suivante : après avoir présenté la problématique de l'apprentissage supervisé et non-supervisé dans le premier chapitre, un second chapitre est consacré à la prédiction d'interaction protéine-protéine. Les résultats obtenus sur l'amarrage protéine-protéine est présenté dans le troisième chapitre et enfin, un dernier chapitre est consacré aux perspectives associées à ces travaux.
|
79 |
Combinaison cohérente d'amplificateurs à fibre en régime femtosecondeDaniault, Louis 05 December 2012 (has links) (PDF)
Pour un grand nombre d'applications, les sources laser impulsionnelles femtoseconde (fs) doivent fournir des puissances toujours plus importantes. En régime impulsionnel, on recherche d'une part une forte puissance crête par impulsion, et d'autre part une forte puissance moyenne, c'est à dire un taux de répétition élevé. Parmi les technologies existantes, les amplificateurs à fibre optique dopée ytterbium présentent de nombreux avantages pour l'obtention de fortes puissances moyennes, cependant le fort confinement des faisceaux dans la fibre sur de grandes longueurs d'interaction induit inévitablement des effets non-linéaires, et limite ainsi la puissance crête accessible. Nous avons étudié lors de cette thèse la combinaison cohérente d'impulsions fs appliquée aux systèmes fibrés. Ayant déjà fait ses preuves dans les régimes d'amplification continu et nanoseconde, la combinaison cohérente de faisceaux (dite combinaison spatiale) permet de diviser une seule et unique source en N voies indépendantes, disposées en parallèle et incluant chacune un amplificateur. Les faisceaux amplifiés sont ensuite recombinés en espace libre en un seul et unique faisceau, qui contient toute la puissance des N amplificateurs sans accumuler les effets non-linéaires. Cette architecture permet théoriquement de monter d'un facteur N le niveau de puissance crête issu des systèmes d'amplification fibrés. Au cours de cette thèse, nous avons démontré la compatibilité et l'efficacité de cette méthode en régime d'amplification fs avec deux amplificateurs, selon différents procédés. Les expériences démontrent d'excellentes efficacités de combinaison ainsi qu'une très bonne préservation des caractéristiques temporelles et spatiales initiales de la source. Les procédés de combinaison cohérente nécessitent cependant un accord de phase entre différents amplificateurs stable dans le temps, assuré en premier lieu par une boucle de rétroaction. Nous avons poursuivi notre étude en concevant une architecture totalement passive, permettant une implémentation plus simple d'un système de combinaison à deux faisceaux sans asservissement électronique. Enfin, une méthode passive de combinaison cohérente dans le domaine temporel est étudiée et caractérisée dans le domaine fs, et implémentée simultanément avec la méthode passive de combinaison spatiale proposée précédemment. Ces expériences démontrent la validité et la variété des concepts proposés, ainsi que leurs nombreuses perspectives pour les systèmes d'amplification fs fibrés.
|
80 |
Utilisation de profils utilisateurs pour l'accès à une bibliothèque numériqueVan, Thanh Trung 01 December 2008 (has links) (PDF)
Aujourd'hui, les bibliothèques numériques deviennent de plus en plus populaires. Ces bibliothèques fournissent plusieurs services pour leurs utilisateurs. Le service de recherche d'information est un service indispensable pour ces bibliothèques. La personnalisation de ce service pour mieux répondre aux exigences des utilisateurs est une approche qui attire beaucoup d'attention de la communauté scientifique. Plusieurs systèmes de recherche d'information personnalisée actuels ont choisi de re-trier les résultats d'un moteur de recherche en prenant en compte les similarités entre ces résultats et le profil utilisateur afin de rendre des résultats plus pertinents pour les utilisateurs. Cependant, la plupart de ces systèmes n'utilise que les approches basées sur le contenu textuel pour ce but. Dans nos travaux, nous proposons d'utiliser également des méthodes basées sur les citations telles que la méthode des co-citations et la méthode du couplage bibliographique pour calculer les similarités document-profil. Nous étudions la performance de la méthode des co-citations avec différentes bases de données bibliographiques. Nous utilisons également différentes fonctions de combinaison pour combiner les scores individuels. Les approches proposées ont été validées par des expérimentations sur une collection de test utilisée dans INEX 2005.
|
Page generated in 0.0502 seconds