• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 15
  • 5
  • 1
  • Tagged with
  • 62
  • 38
  • 38
  • 24
  • 20
  • 17
  • 17
  • 15
  • 15
  • 14
  • 12
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Essai sur la nature des travailleurs indépendants français : une approche socioéconomique / Essay on the nature of the French self-employed : a socioeconomical approach

Rapelli, Stéphane 14 January 2011 (has links)
L'objectif de cette thèse est de proposer une méthode de repérage empirique robuste du travailleur indépendant français. En effet, l'absence de norme homogène atténue la portée des travaux économétriques et statistiques. Dans un premier chapitre, les fondements de l'indépendance professionnelle sont mis en avant par une approche historique. Le deuxième chapitre permet de formuler des hypothèses typologiques consécutivement à l'examen des normes juridiques et du corpus empirique.Un idéaltype empirique est proposé dans le troisième chapitre. Il est formulé en opposant les hypothèses à l'analyse des résultats de classifications ascendantes hiérarchiques effectuées sur différents échantillons de travailleurs. La norme ainsi proposée permet de repérer objectivement les indépendants français au regard de critères inhérents au métier effectivement exercé, aux statuts entrepreneuriaux, à la taille de l'entreprise et au secteur d'activité. Cet idéaltype empirique permet un repérage robuste des indépendants au sein de la population des travailleurs non-salariés. / The objective of this thesis is to propose an robust empirical method to stake out French self-employed.Indeed, the absence of homogeneous standard tones down the reach of econometric and statistical works.In a first chapter, the foundations of the professional independence are studed through historic approach.The second chapter allows to formulate typological hypotheses as a result of the examination of the legalrules and the empirical corpus. An empirical idealtype is proposed in the third chapter. It is formulated bysetting the hypotheses against the analysis of the results of hierarchical ascending classifications made onworkers' various samples. The standard proposed here allows to stake out objectively the French selfemployedtowards criteria inherent to the effectively exercised occupation, to the entrepreneurial statuses,to the size of the enterprise and to the business sector. This empirical idealtype allows a robust location ofthe self-employed workers inside the population of non-salaried workers.
12

Méthodes avancées de séparation de sources applicables aux mélanges linéaires-quadratiques / Advanced methods of source separation applicable to linear-quadratic mixtures

Jarboui, Lina 18 November 2017 (has links)
Dans cette thèse, nous nous sommes intéressés à proposer de nouvelles méthodes de Séparation Aveugle de Sources (SAS) adaptées aux modèles de mélange non-linéaires. La SAS consiste à estimer les signaux sources inconnus à partir de leurs mélanges observés lorsqu'il existe très peu d'informations disponibles sur le modèle de mélange. La contribution méthodologique de cette thèse consiste à prendre en considération les interactions non-linéaires qui peuvent se produire entre les sources en utilisant le modèle linéaire-quadratique (LQ). A cet effet, nous avons développé trois nouvelles méthodes de SAS. La première méthode vise à résoudre le problème du démélange hyperspectral en utilisant un modèle linéaire-quadratique. Celle-ci se repose sur la méthode d'Analyse en Composantes Parcimonieuses (ACPa) et nécessite l'existence des pixels purs dans la scène observée. Dans le même but, nous proposons une deuxième méthode du démélange hyperspectral adaptée au modèle linéaire-quadratique. Elle correspond à une méthode de Factorisation en Matrices Non-négatives (FMN) se basant sur l'estimateur du Maximum A Posteriori (MAP) qui permet de prendre en compte les informations a priori sur les distributions des inconnus du problème afin de mieux les estimer. Enfin, nous proposons une troisième méthode de SAS basée sur l'analyse en composantes indépendantes (ACI) en exploitant les Statistiques de Second Ordre (SSO) pour traiter un cas particulier du mélange linéaire-quadratique qui correspond au mélange bilinéaire. / In this thesis, we were interested to propose new Blind Source Separation (BSS) methods adapted to the nonlinear mixing models. BSS consists in estimating the unknown source signals from their observed mixtures when there is little information available on the mixing model. The methodological contribution of this thesis consists in considering the non-linear interactions that can occur between sources by using the linear-quadratic (LQ) model. To this end, we developed three new BSS methods. The first method aims at solving the hyperspectral unmixing problem by using a linear-quadratic model. It is based on the Sparse Component Analysis (SCA) method and requires the existence of pure pixels in the observed scene. For the same purpose, we propose a second hyperspectral unmixing method adapted to the linear-quadratic model. It corresponds to a Non-negative Matrix Factorization (NMF) method based on the Maximum A Posteriori (MAP) estimate allowing to take into account the available prior information about the unknown parameters for a better estimation of them. Finally, we propose a third BSS method based on the Independent Component Analysis (ICA) method by using the Second Order Statistics (SOS) to process a particular case of the linear-quadratic mixture that corresponds to the bilinear one.
13

Analyse en composantes indépendantes par ondelettes

Barbedor, Pascal 05 December 2006 (has links) (PDF)
L'analyse en composantes indépendantes (ACI) est une forme d'analyse multivariée qui a émergée en tant que concept dans les années 1980-90. C'est un type de problème inverse où on observe une variable X dont les composantes sont les mélanges linéaires d'une variable S inobservable. Les composantes de S sont mutuellement indépendantes. La relation entre les deux variables s'exprime par X=AS, où A est une matrice de mixage inconnue .<br /><br />Le problème principal de l'ACI est d'estimer la matrice A, à partir de l'observation d'un échantillon i.i.d. de X, pour atteindre S qui constitue un système explicatif meilleur que X dans l'étude d'un phénomène particulier. Le problème se résout généralement par la minimisation d'un certain critère, issu d'une mesure de dépendance.<br /><br />L'ACI ressemble à l'analyse en composantes principales (ACP) dans la formulation du problème. Dans le cas de l'ACP on cherche des composantes non corrélées, c'est-à-dire indépendantes par paire à l'ordre 2 ; dans le cas de l'ACI on cherche des composantes mutuellement indépendantes, ce qui est beaucoup plus contraignant; dans le cas général, il n'existe plus de solution algébrique simple. Les principaux problèmes d'identification de A sont évités par un certain nombre de conventions adoptées dans le modèle ACI classique.<br /><br />L'approche qui est proposée dans cette thèse est du type non paramétrique. Sous des hypothèses de type Besov, on étudie plusieurs estimateurs d'un critère de dépendance exact donné par la norme L2 de la différence entre une densité et le produit de ses marges. Ce critère constitue une alternative à l'information mutuelle qui représentait jusqu'ici le critère exact de référence de la plupart des méthodes ACI.<br /><br />On donne une majoration de l'erreur en moyenne quadratique de différents estimateurs du contraste L2. Cette majoration prend en compte le biais d'approximation entre le Besov et l'espace de projection qui, ici, est issu d'une analyse multirésolution (AMR) générée par le produit tensoriel d'ondelettes de Daubechies. Ce type de majoration avec prise en compte du biais d'approximation est en général absent des méthodes non paramétriques récentes en ACI (méthodes kernel, information mutuelle).<br /><br />Le critère en norme L2 permet de se rapprocher de problèmes déjà connus dans la littérature statistique, estimation de l'intégrale de f au carré, tests d'homogénéité en norme L2, résultats de convergence d'estimateurs adoptant un seuillage par bloc. <br /><br />On propose des estimateurs du contraste L2 qui atteignent la vitesse minimax optimale du problème de intégrale de f au carré. Ces estimateurs de type U-statistique ont des complexités numériques quadratique en n, ce qui peut poser un problème pour la minimisation du contraste à suivre, en vue d'obtenir l'estimation concrète de la matrice A. En revanche, ces estimateurs admettent une forme de seuillage par bloc où la connaissance de la régularité s de la densité multivariée sous-jacente est inutile pour obtenir une vitesse optimale.<br /><br />On propose un estimateur de type plug-in dont la vitesse de convergence est sous-optimale mais qui est de complexité numérique linéaire en n. L'estimateur plug-in admet aussi une forme seuillée terme à terme, qui dégrade la vitesse de convergence mais permet d'obtenir un critère auto-adaptatif. Dans sa version linéaire, l'estimateur plug-in semble déjà quasiment auto-adaptatif dans les faits, c'est-à-dire que sous la contrainte 2^{jd} < n, où d est la dimension du problème et n le nombre d'observations, la majorité des résolutions j permettent d'estimer A après minimisation.<br /><br />Pour obtenir ces résultats on a été amené à développer une technique combinatoire spécifique permettant de majorer le moment d'ordre r d'une U-statistique ou d'une V-statistique. Les résultats classiques sur les U-statistiques ne sont en effet pas directement utilisables et pas facilement adaptables dans le contexte d'étude de la thèse. La méthode développée est utilisable dans d'autres contextes.<br /><br />La méthode par ondelettes s'appuie sur le paradigme usuel estimation d'un critère de dépendance, puis minimisation. On étudie donc dans la thèse les éléments permettant de faciliter la minimisation. On donne notamment des formulations du gradient et du hessien de l'estimateur du contraste qui se prêtent à un changement de résolution par simple filtrage et qui se calculent selon une complexité équivalente à celle de l'évaluation de l'estimateur lui même. <br /><br />Des simulations proposées dans la thèse confirment l'applicabilité de la méthode et donnent des résultats excellents. Tous les éléments nécessaires à l'implémentation de la méthode, et le code commenté des parties clefs de la programmation (notamment des algorithmes d-dimensionnels) figurent également dans le document.
14

Séparation de sources convolutives

Akil, Moussa 22 April 2008 (has links) (PDF)
La séparation de sources consiste à extraire des signaux appelés sources à partir seulement de mélanges observés de ces signaux appelés observations. De nombreuses approches ont été brièvement présentées dans ce manuscrit. La plupart de ces approches exploite l'hypothèse d'indépendance des sources.<br />Dans cette thèse, nous avons considéré le cas des mélanges linéaires convolutifs. Nous proposons de calculer les contributions des sources sur les capteurs afin d'optimiser la procédure de séparation.<br />L'estimation des contributions dans les observations est réalisée grâce à un critère quadratique optimisé par un filtre de Wiener. Ensuite, nous étudions deux approches de séparation de sources. <br />La première utilise l'information mutuelle comme critère d'indépendance et la seconde dite fonction de contraste est basée sur les statistiques d'ordre quatre. L'utilisation des contributions des sources sur les capteurs dans la phase de séparation nous permet de proposer deux algorithmes de séparation, qui constituent deux généralisations d'algorithmes classiques.
15

Etude IRMf de la plasticité cérébrale des réseaux moteurs et cognitifs dans la Sclérose Latérale Amyotrophique

Poujois, Aurélia 31 October 2011 (has links) (PDF)
Ce travail a porté sur les remaniements corticaux précoces des circuits moteurs et extramoteurs dans la SLA grâce à l'étude des activations IRMf issues de tâches motrices et cognitives. La première partie de nos travaux nous a permis de montrer grâce des tâches simples d'activation motrice en IRMf (1) qu'alors que les patients SLA présentaient un déficit moteur discret, une augmentation des activations corticales est apparue dans les aires sensorimotrices bilatérales du cerveau. (2) Ces modifications précoces de l'activité neuronale étaient corrélées à la latéralisation du déficit moteur du membre ou la prédominance manuelle et surtout, (3) au taux de progression de la maladie à un an et à la survie, suggérant que ce remaniement de l'activité qui correspond probablement à de la plasticité cérébrale a des implications fonctionnelles. Enfin, (4) ce phénomène apparaissait actif puisqu'il s'est poursuivi pendant au moins onze mois. Dans la deuxième partie, nous avons montré lors d'une tâche de fluence verbale silencieuse que (1) les SLA présentaient une suractivation initiale des aires dévolues au processus sémantique avec un renforcement de la connectivité fonctionnelle entre les réseaux (CFR). (2) Au bout de onze mois et alors que l'atteinte des fluences était stable, ce phénomène de compensation s'épuisait avec une diminution conjointe de l'activation des réseaux et de la CFR. La tâche de 2-Back, réalisée alors que les patients ne présentaient pas d'atteinte de la mémoire de travail lors des tests psychométriques, nous a permis de montrer en outre que certains circuits non-moteurs se réorganisaient très précocement chez les patients, alors même qu'ils étaient asymptomatiques
16

Détection et localisation tridimensionnelle par stéréovision d'objets en mouvement dans des environnements complexes : application aux passages à niveau

Fakhfakh, Nizar 14 June 2011 (has links) (PDF)
La sécurité des personnes et des équipements est un élément capital dans le domaine des transports routiers et ferroviaires. Depuis quelques années, les Passages à Niveau (PN) ont fait l'objet de davantage d'attention afin d'accroître la sécurité des usagers sur cette portion route/rail considérée comme dangereuse. Nous proposons dans cette thèse un système de vision stéréoscopique pour la détection automatique des situations dangereuses. Un tel système permet la détection et la localisation d'obstacles sur ou autour du PN. Le système de vision proposé est composé de deux caméras supervisant la zone de croisement. Nous avons développé des algorithmes permettant à la fois la détection d'objets, tels que des piétons ou des véhicules, et la localisation 3D de ces derniers. L'algorithme de détection d'obstacles se base sur l'Analyse en Composantes Indépendantes et la propagation de croyance spatio-temporelle. L'algorithme de localisation tridimensionnelle exploite les avantages des méthodes locales et globales, et est composé de trois étapes : la première consiste à estimer une carte de disparité à partir d'une fonction de vraisemblance basée sur les méthodes locales. La deuxième étape permet d'identifier les pixels bien mis en correspondance ayant des mesures de confiances élevées. Ce sous-ensemble de pixels est le point de départ de la troisième étape qui consiste à ré-estimer les disparités du reste des pixels par propagation de croyance sélective. Le mouvement est introduit comme une contrainte dans l'algorithme de localisation 3D permettant l'amélioration de la précision de localisation et l'accélération du temps de traitement.
17

Quelques développements récents en traitement du signal

Comon, Pierre 18 September 1995 (has links) (PDF)
Quelques développements récents en traitement du signal
18

Contrôle santé des structures composites : approche expérimentale et statistique

Rafik, Hajrya 06 July 2012 (has links) (PDF)
L'industrie aéronautique utilise des matériaux toujours plus performants pour ses avions et systèmes spatiaux. Ainsi, pour réaliser les communications, les avionneurs souhaiteraient aller vers une réelle intégration des structures antennaires à la structure de l'avion et donc de passer de la structure antennaire vue comme équipement embarqué à la structure antennaire devenue équipement intégré. Notre travail de thèse se situe dans le cadre du projet MSIE (Matériaux et Structures Intelligentes pour l'Electromagnétisme). L'objectif de ce projet est de répondre aux demandes du secteur aéronautique, en évaluant le concept de nouveaux matériaux susceptibles de permettre la réalisation de structures antennaires conformées, compactes et reconfigurables. Cette adaptabilité suppose que ces structures soient reconfigurables et donc capables, une fois munies de capteurs/actionneurs, de réaliser un contrôle actif de la directivité, du rendement et du gain des structures antennaires. Il est alors apparu nécessaire d'adjoindre à ces futures structures, une fonction de Contrôle santé ou Structural Health Monitoring "SHM", de manière à pouvoir détecter d'éventuels endommagements (impact, délaminage entre le réseau d'antennes et la structure composite, rupture des fibres, etc....) susceptibles de se produire au cours du vol ou au cours du vieillissement de la structure. C'est dans le développement de la fonction SHM que s'inscrit ce travail de thèse. A cet effet, nous avons réalisé des dispositifs expérimentaux en tenant compte des demandes de l'industriel. Ces dispositifs comportent des structures composites antennaires munies de capteurs et d'actionneurs piézoélectriques. A travers les informations transmises par les capteurs, nous avons développé deux méthodes de détection de l'endommagement à base d'Analyse en Composantes Principales (ACP) et d'Analyse en Composantes Indépendantes (ACI). Ces deux méthodes sont des approches statistiques qui ne nécessitent pas la connaissance du modèle mécanique de la structure à surveiller. Il s'agit de méthodes traitant des observations vectorielles (multivariées) transmises par les capteurs piézoélectriques, afin d'en extraire des caractéristiques de fonctionnement de la structure à l'état sain et de la structure dans un état inconnu. La comparaison entre ces caractéristiques nous a permis de calculer pour chacune des deux méthodes, un résidu indicateur d'endommagement. Nous avons complété ce résidu par une robustification de la prise de décision et cela par le calcul d'une borne, au-delà de laquelle l'endommagement est détecté.
19

Ordonnancement temps réel préemptif multiprocesseur avec prise en compte du coût du système d'exploitation

Ndoye, Falou 03 April 2014 (has links) (PDF)
Dans cette thèse nous étudions le problème d'ordonnancement temps réel multiprocesseur préemptif avec prise en compte du coût exact du système d'exploitation. Ce coût est formé de deux parties : une partie facile à déterminer, correspondant au coût de l'ordonnanceur et une partie difficile à déterminer, correspondant au coût de la préemption. Cette difficulté est due au fait qu'une préemption peut en engendrer une autre, pouvant ainsi créer un phénomène d'avalanche. Dans un premier temps, nous avons étudié l'ordonnancement hors ligne multiprocesseur de tâches indépendantes avec prise en compte du coût exact de la préemption et proposé une analyse d'ordonnançabilité fondée sur une heuristique d'ordonnancement multiprocesseur. Cette heuristique utilise la stratégie d'ordonnancement multiprocesseur par partitionnement. Pour prendre en compte le coût exact de la préemption sur chaque processeur nous avons utilisé la condition d'ordonnançabilité proposée par Meumeu et Sorel. Cette condition d'ordonnançabilité pour des tâches à priorités fixes, est basée sur une opération binaire d'ordonnancement qui permet de compter le nombre exact de préemption et d'ajouter leur coût dans l'analyse d'ordonnançabilité des tâches. L'heuristique proposée permet de maximiser le facteur d'utilisation restant afin de répartir équitablement les tâches sur les processeurs et de réduire leur temps de réponse. Elle produit une table d'ordonnancement hors ligne. Dans un second temps, nous avons étudié l'ordonnancement hors ligne multiprocesseur de tâches dépendantes avec prise en compte du coût exact de la préemption. Puisque la condition d'ordonnançabilité utilisée pour ordonnancer les tâches indépendantes ne s'applique qu'à des tâches à priorités fixes, elle ne permet pas de gérer les inversions de priorités que peuvent entraîner les tâches dépendantes. Nous avons donc proposé une nouvelle condition d'ordonnançabilité pour des tâches à priorités dynamiques. Elle prend en compte le coût exact de la préemption et les dépendances sans aucune perte de données. Ensuite en utilisant toujours la stratégie d'ordonnancement par partitionnement, nous avons proposé pour des tâches dépendantes une heuristique d'ordonnancement multiprocesseur qui réutilise cette nouvelle condition d'ordonnançabilité au niveau de chaque processeur. Cette heuristique d'ordonnancement prend en compte les coûts de communication inter-processeurs. Elle permet aussi de minimiser sur chaque processeur le makespan (temps total d'exécution) des tâches. Cette heuristique produit pour chaque processeur une table d'ordonnancement hors ligne contenant les dates de début et de fin de chaque tâches et de chaque commmunication inter-processeur. En supposant que nous avons une architecture multiprocesseur de type dirigée par le temps (Time-Triggered) pour laquelle tous les processeurs ont une référence de temps unique, nous avons proposé pour chacun des processeurs un ordonnanceur en ligne qui utilise la table d'ordonnancement produite lors de l'ordonnancement hors ligne. Cet ordonnanceur en ligne a l'avantage d'avoir un coût constant qui de plus est facile à déterminer de manière exacte. En effet il correspond uniquement au temps de lecture dans la table d'ordonnancement pour obtenir la tâche sélectionnée lors de l'analyse d'ordonnançabilité hors ligne, alors que dans les ordonnanceurs classiques en ligne ce coût correspond à mettre à jour la liste des tâches qui sont dans l'état prêt à l'exécution puis à sélectionner une tâche selon un algorithme, par exemple RM, DM, EDF, etc. Il varie donc avec le nombre de tâches prêtes à s'exécuter qui change d'une invocation à l'autre de l'ordonnanceur. C'est ce coût qui est utilisé dans les analyses d'ordonnançabilités évoquées ci-dessus. Un autre avantage est qu'il n'est pas nécessaire de synchroniser l'accès aux mémoires de données partagées par plusieurs tâches, car cette synchronisation a été déjà effectuée lors de l'analyse d'ordonnançabilité hors ligne.
20

Essai sur la nature des travailleurs indépendants français : une approche socioéconomique

Rapelli, Stéphane 14 January 2011 (has links) (PDF)
L'objectif de cette thèse est de proposer une méthode de repérage empirique robuste du travailleur indépendant français. En effet, l'absence de norme homogène atténue la portée des travaux économétriques et statistiques. Dans un premier chapitre, les fondements de l'indépendance professionnelle sont mis en avant par une approche historique. Le deuxième chapitre permet de formuler des hypothèses typologiques consécutivement à l'examen des normes juridiques et du corpus empirique.Un idéaltype empirique est proposé dans le troisième chapitre. Il est formulé en opposant les hypothèses à l'analyse des résultats de classifications ascendantes hiérarchiques effectuées sur différents échantillons de travailleurs. La norme ainsi proposée permet de repérer objectivement les indépendants français au regard de critères inhérents au métier effectivement exercé, aux statuts entrepreneuriaux, à la taille de l'entreprise et au secteur d'activité. Cet idéaltype empirique permet un repérage robuste des indépendants au sein de la population des travailleurs non-salariés.

Page generated in 0.0892 seconds