• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 151
  • 126
  • 23
  • 18
  • 17
  • 4
  • 4
  • 1
  • Tagged with
  • 339
  • 185
  • 54
  • 50
  • 38
  • 35
  • 34
  • 32
  • 32
  • 30
  • 29
  • 29
  • 28
  • 27
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Indexation sonore : recherche de composantes primaires pour une structuration audiovisuelle

PINQUIER, Julien 20 December 2004 (has links) (PDF)
Le développement croissant des données numériques et l'explosion des accès multimédia à l'information, sont confrontés au manque d'outils automatiques efficaces. Dans ce cadre, plusieurs approches relatives à l'indexation et la structuration de la bande sonore de documents audiovisuels sont proposées. Leurs buts sont de détecter les composantes primaires telles que la parole, la musique et les sons clés (jingles, sons caractéristiques, mots clés...). Pour la classification parole/musique, trois paramètres inhabituels sont extraits : la modulation de l'entropie, la durée des segments (issue d'une segmentation automatique) et le nombre de ces segments par seconde. Les informations issues de ces trois paramètres sont ensuite fusionnées avec celle issue de la modulation de l'énergie à quatre hertz. Des expériences sur un corpus radiophonique montrent la robustesse de ces paramètres : notre système possède un taux de classification correcte supérieur à 90%. Le système est ensuite comparé, puis fusionné à un système classique basé sur des Modèles de Mélanges de lois Gaussiennes (MMG) et une analyse cepstrale. Un autre partitionnement consiste à détecter des sons clés. La sélection de candidats potentiels est effectuée en comparant la « signature » de chacun des jingles au flux de données. Ce système est simple par sa mise en œuvre mais rapide et très efficace : sur un corpus audiovisuel d'une dizaine d'heures (environ 200 jingles) aucune fausse alarme n'est présente. Il y a seulement deux omissions dans des conditions extrêmes. Les sons caractéristiques (applaudissements et rires) sont modélisés à l'aide de MMG dans le domaine spectral. Un corpus télévisuel permet de valider cette première étude par des résultats encourageants. La détection de mots clés est effectuée de manière classique : il ne s'agit pas ici d'améliorer les systèmes existants mais de se placer toujours dans un besoin de structuration. Ainsi, ces mots clés renseignent sur le type des émissions (journal, météo, documentaire...). Grâce à l'extraction de ces composantes primaires, les émissions audiovisuelles peuvent être annotées de manière automatique. Au travers de deux études, une réflexion est conduite quant à l'utilisation de ces composantes afin de trouver une structure temporelle aux documents. La première étude permet une détection d'un motif récurrent dans une collection d'émissions, dites de plateau, alors que la seconde réalise la structuration en thèmes d'un journal télévisé. Quelques pistes de réflexions sur l'apport de l'analyse vidéo sont développées et les besoins futurs sont explorés.
172

Des surfaces aux joints de grains : la ségrégation dans tous ses états

CREUZE, Jérôme 13 October 2000 (has links) (PDF)
Grand nombre des propriétés des alliages dépend de la structure et de la composition chimique des défauts. Dans ce contexte, nous avons étudié la ségrégation interfaciale d'un système présentant une forte démixtion en volume et une tendance à ségréger en surface (i.e. Cu/Ag), par simulations Monte Carlo avec déplacements et un modèle d'Ising effectif sur réseau rigide. Les interfaces considérées sont le joint de grains de flexion Sigma=5 (310) <001> ainsi que les surfaces (001) et (310). Les résultats obtenus en Monte Carlo pour le joint de grains montrent l'existence d un composé ordonné bi-dimensionnel dans le plan du joint... dans un système à tendance à la démixtion ! Pour la surface (001), nous montrons l'apparition d une surstructure cristallographique illustrant le couplage complexe entre ségrégation et modification structurale. L analyse par le modèle sur réseau rigide nous a permis de déterminer les forces motrices de ségrégation intergranulaire et superficielle. Le couplage des deux méthodes a mis en évidence le rôle important de l'entropie vibrationnelle dans la ségrégation intergranulaire, alors qu'elle peut être négligée pour la ségrégation superficielle. L'évaluation de l'entropie vibrationnelle de ségrégation doit tenir compte des couplages entre vibrateurs premiers voisins (le modèle d Einstein ne pouvant donc être utilisé) et de la dilatation thermique différentielle à proximité du joint de grains. Nous avons alors utilisé l'approche analytique pour déterminer les isothermes de ségrégation intergranulaire. Nous avons ainsi mis en évidence une transition de phase du premier ordre à caractère multicouche. Un comportement identique est obtenu pour la surface (310), les interactions inter-plan étant à l'origine de ces transitions. Cet aspect multicouche de la ségrégation intergranulaire a été confirmé par des simulations Monte Carlo montrant de plus l'apparition d un phénomène de mouillage, le joint de grains initial se scindant en deux interfaces séparées par une phase métastable.
173

Analyse et conception de la commande des systèmes embarqués distribués sous des contraintes de communication

Roy, Prateep Kumar 04 December 2009 (has links) (PDF)
Les Systèmes de Contrôle Embarqués Distribués (SCED) utilisent les réseaux de communication dans les boucles de rétroaction. Étant donné que les systèmes SCED ont une puissance de batterie, une bande passante de communication et une puissance de calcul limitée, les débits des données ou des informations transmises sont bornées et ils peuvent affecter leur stabilité. Ceci nous amène à élargir le spectre de notre étude et y intégrer une étude sur la relation entre la théorie du contrôle d'un coté et celle de l'information de l'autre. La contrainte de débit de données induit la quantification des signaux tandis que les aspects de calcul temps réel et de communication induit des événements asynchrones qui ne sont plus réguliers ou périodiques. Ces deux phénomènes donnent au SCED une double nature, continue et discrète, et en font des cas d'étude spécifiques. Dans cette thèse, nous analysons la stabilité et la performance de SCED du point de vue de la théorie de l'information et du contrôle. Pour les systèmes linéaires, nous montrons l'importance du compromis entre la quantité d'information communiquée et les objectifs de contrôle, telles que la stabilité, la contrôlabilité/observabilité et les performances. Une approche de conception conjointe de contrôle et de communication (en termes de débit d'information au sens de Shannon) des SCED est étudiée. Les principaux résultats de ces travaux sont les suivants : nous avons prouvé que la réduction d'entropie (ce qui correspond à la réduction d'incertitude) dépend du Grammien de contrôlabilité. Cette réduction est également liée à l'information mutuelle de Shannon. Nous avons démontré que le Grammien de contrôlabilité constitue une métrique de l'entropie théorique de l'information en ce qui concerne les bruits induits par la quantification. La réduction de l'influence de ces bruits est équivalente à la réduction de la norme du Grammien de contrôlabilité. Nous avons établi une nouvelle relation entre la matrice d'information de Fisher (FIM) et le Grammien de Contrôlabilité (CG) basé sur la théorie de l'estimation et la théorie de l'information. Nous proposons un algorithme qui distribue de manière optimale les capacités de communication du réseau entre un nombre "n" d'actionneurs et/ou systèmes concurrents se basant sur la réduction de la norme du Grammien de Contrôlabilité
174

Analysis & design of control for distributed embedded systems under communication constraints

Roy, Prateep Kumar 04 December 2009 (has links) (PDF)
Les Systèmes de Contrôle Embarqués Distribués (SCED) utilisent les réseaux de communication dans les boucles de rétroaction. Étant donné que les systèmes SCED ont une puissance de batterie, une bande passante de communication et une puissance de calcul limitée, les débits des données ou des informations transmises sont bornées et ils peuvent affecter leur stabilité. Ceci nous amène à élargir le spectre de notre étude et y intégrer une étude sur la relation entre la théorie du contrôle d'un coté et celle de l'information de l'autre. La contrainte de débit de données induit la quantification des signaux tandis que les aspects de calcul temps réel et de communication induit des événements asynchrones qui ne sont plus réguliers ou périodiques. Ces deux phénomènes donnent au SCED une double nature, continue et discrète, et en font des cas d'étude spécifiques. Dans cette thèse, nous analysons la stabilité et la performance de SCED du point de vue de la théorie de l'information et du contrôle. Pour les systèmes linéaires, nous montrons l'importance du compromis entre la quantité d'information communiquée et les objectifs de contrôle, telles que la stabilité, la contrôlabilité/observabilité et les performances. Une approche de conception conjointe de contrôle et de communication (en termes de débit d'information au sens de Shannon) des SCED est étudiée. Les principaux résultats de ces travaux sont les suivants : nous avons prouvé que la réduction d'entropie (ce qui correspond à la réduction d'incertitude) dépend du Grammien de contrôlabilité. Cette réduction est également liée à l'information mutuelle de Shannon. Nous avons démontré que le Grammien de contrôlabilité constitue une métrique de l'entropie théorique de l'information en ce qui concerne les bruits induits par la quantification. La réduction de l'influence de ces bruits est équivalente à la réduction de la norme du Grammien de contrôlabilité. Nous avons établi une nouvelle relation entre la matrice d'information de Fisher (FIM) et le Grammien de Contrôlabilité (CG) basé sur la théorie de l'estimation et la théorie de l'information. Nous proposons un algorithme qui distribue de manière optimale les capacités de communication du réseau entre un nombre "n" d'actionneurs et/ou systèmes concurrents se basant sur la réduction de la norme du Grammien de Contrôlabilité
175

Pour l'identification de modèles factoriels de séries temporelles: Application aux ARMA stationnaires

Toque, Carole 10 1900 (has links) (PDF)
Cette thèse est axée sur le problème de l'identification de modèles factoriels de séries temporelles et est à la rencontre des deux domaines de la Statistique, l'analyse des séries temporelles et l'analyse des données avec ses méthodes descriptives. La première étape de notre travail a pour but d'étendre à plusieurs séries temporelles discrètes, l'étude des composantes principales de Jenkins développée dans les années 70. Notre approche adapte l'analyse en composantes principales "classique" (ou ACP) aux séries temporelles en s'inspirant de la technique Singular Spectrum Analysis (ou SSA). Un principe est déduit et est appliqué au processus multidimensionnel générateur des séries. Une matrice de covariance à structure "remarquable" est construite autour de vecteurs al9;atoires décalés: elle exploite la chronologie, la stationnarité et la double dimension du processus. A l'aide de deux corollaires établis par Friedman B. dans les années 50 basés sur le produit tensoriel de matrices, et de propriétés de covariance des processus circulaires, nous approchons les éléments propres de la matrice de covariance. La forme générale des composantes principales de plusieurs séries temporelles est déduite. Dans le cas des processus "indépendants", une propriété des scores est établie et les composantes principales sont des moyennes mobiles des séries temporelles. A partir des résultats obtenus, une méthodologie est présentée permettant de construire des modèles factoriels de référence sur des ARMA vectoriels "indépendants". L'objectif est alors de projeter une nouvelle série dans un des modèles graphiques pour son identification et une première estimation de ses paramètres. Le travail s'effectue dans un cadre théorique, puis dans un cadre expérimental en simulant des échantillons de trajectoires AR(1) et MA(1) stationnaires, "indépendantes" et à coefficients symétriques. Plusieurs ACP, construites sur la matrice temporelle issue de la simulation, produisent de bonnes qualités de représentation des processus qui se regroupent ou s'opposent selon leur type en préservant la propriété des scores et la symétrie dans le comportement des valeurs propres. Mais, ces modèles factoriels reflètent avant tout la variabilité des bruits de la simulation. Directement basées sur les autocorrélations, de nouvelles ACP donnent de meilleurs résultats quels que soient les échantillons. Un premier modèle factoriel de référence est retenu pour des séries à forts coefficients. La description et la mesure d'éventuels changements structurels conduisent à introduire des oscillateurs, des fréquences et des mesures entropiques. C'est l'approche structurelle. Pour établir une possible non-linéarité entre les nombreux critères et pour augmenter la discrimination entre les séries, une analyse des correspondances multiples suivie d'une classification est élaborée sur les entropies et produit un deuxième modèle de référence avec trois classes de processus dont celle des processus à faibles coefficients. Ce travail permet également d'en déduire une méthode d'analyse de séries temporelles qui combine à la fois, l'approche par les autocorrélations et l'approche par les entropies, avec une visualisation par des méthodes factorielles. La méthode est appliquée à des trajectoires AR(2) et MA(2) simulées et fournit deux autres modèles factoriels de référence.
176

Histoire et Enseignement de la Physique : Lumière, Planètes, Relativité et Quanta

Bracco, Christian 15 March 2010 (has links) (PDF)
Il est possible de concevoir un enseignement de la physique qui incorpore l'histoire de la physique sur un mode qui n'est ni anecdotique, ni autonome et qui peut être décliné à différents niveaux de la formation, des élèves de lycée aux enseignants à l'université. L'introduction du manuscrit porte sur une mise en perspective de la démarche proposée avec des recherches antérieures. Le manuscrit est composé de quatre parties. Dans la partie I, après avoir rappelé les objectifs qui ont prévalu à la réalisation du cédérom « Histoire des idées sur la lumière - de l'Antiquité au début du XXe siècle », qui aborde la lumière à travers une approche historique, expérimentale et philosophique, je propose une utilisation de ce cédérom pour l'enseignement de la diffraction par une approche historique (la disparition des franges intérieures dans l'ombre d'un fil). Dans la partie II, je précise l'enjeu que constitue l'utilisation de la figure géométrique de Newton (1684), accompagnée des coordonnées polaires et des vecteurs, pour mettre à la portée d'un large public l'un des grands succès de la pensée scientifique : la détermination des trajectoires elliptiques des planètes (sans utilisation du calcul différentiel). Dans cette partie, je reviens également sur le modèle d'équant de Kepler, souvent assimilé à un échec, alors qu'il peut ouvrir la voie, dans le cadre de la formation des enseignants, à une discussion renouvelée des dynamiques aristotélicienne et newtonienne. La partie III est une analyse historique de "La Dynamique de l'électron" de Henri Poincaré. Après avoir rappelé le point de vue général de Poincaré sur les sciences et leur enseignement, et avoir situé son travail dans la lignée de Lorentz et des connaissances des géomètres, je reviens sur quatre clés que nous avons proposées (avec Jean-Pierre Provost) pour comprendre la logique du Mémoire : l'utilisation de transformations de Lorentz actives, le rôle de l'action et de son invariance, l'origine de la condition de groupe pour éliminer les dilatations (à travers les lettres à Lorentz de mai 1905) et le rôle des modèles d'électron comme théorème d'existence de la nouvelle dynamique. Dans la quatrième et dernière partie, je donne un historique des travaux de Planck et d'Einstein sur les quanta, afin de comparer leurs approches (étude des dépendances énergétique ou volumique de l'entropie du corps noir) et de les replacer dans une perspective moderne où la notion de mode quantique est la notion fondamentale. Je reviens ensuite sur deux questions naturelles que posent les quanta d'Einstein de mars 1905 pour des étudiants abordant la relativité et le quantique : leur vitesse (à laquelle répond le second postulat de la relativité) et leur indépendance (assujettie au retour à loi de Wien de 1896).
177

Cartes incertaines et planification optimale pour la localisation d'un engin autonome

Celeste, Francis 10 February 2010 (has links) (PDF)
Des avancées importantes ont été réalisées dans le domaine de la robotique mobile. L'usage croissant des robots terrestres et des drones de petite taille, n'est possible que par l'apport de capacités d'autonomie de mouvement dans l'environnement d'évolution. La problématique de la localisation du système, par la mise en correspondance de mesures issues des capteurs embarqués avec des primitives contenues dans une carte, est primordiale. Ce processus, qui s'appuie sur la mise en oeuvre de techniques de fusion, a été très étudié. Dans cette thèse, nous proposons de définir des méthodes de planification du mouvement d'un mobile, avec pour objectif de garantir une performance de localisation à partir d'une carte incertaine donnée a priori, et ce lors de l'exécution. Une méthode de génération contrôlée de réalisations de cartes bruitées, exploitant la théorie des processus ponctuels, est d'abord présentée. Cette base de cartes permet de construire des cartes multi-niveaux pour la localisation. Le critère d'optimisation est défini à partir de fonctionnelles de la borne de Cramèr-Rao a posteriori, qui tient compte de l'incertitude sur la dynamique du mobile et de la cartographie incertaine. Nous proposons différentes approches, basées sur la méthode de cross-entropie, pour obtenir des stratégies de déplacement avec des modèles de dynamique discret et continu. La qualité des solutions optimales fournies par ces approches heuristiques est analysée en utilisant des résultats de la théorie des valeurs extrêmes. Enfin, nous esquissons une démarche pour l'amélioration ciblée de cartes sous contrainte de ressources afin d'améliorer la performance de localisation.
178

Systèmes complexes gouvernés par des flux : schémas de volumes finis hybrides et optimisation numérique

Jaisson, Pascal 13 October 2006 (has links) (PDF)
Cette thèse concerne la modélisation par des EDP et la résolution numérique de problèmes d'optimisation pour les flux d'information et pour le trafic routier. Nous proposons un nouveau type de schémas hybrides. En premier, nous nous intéressons à l'optimisation des temps de service nécessaires à un serveur informatique pour traiter un ou plusieurs types de requêtes, afin de satisfaire une qualité de service imposée. La modélisation choisie fait intervenir un système de lois de conservation proposé par De Vuyst. Les particules sont les requêtes et la variable d'espace représente le taux d'avancement dans le traitement de la requête. Nous exhibons alors les équations différentielles ordinaires permettant de calculer les temps de service. Cela nous permet d'optimiser l'allocation des ressources du serveur suivant le type de requêtes. Nous présentons deux exemples de simulation numérique. Ensuite, nous considérons un problème d'optimisation en trafic routier faisant intervenir le modèle "fluide" aux EDP du second ordre de Aw-Rascle. Les particules sont les véhicules. A partir de données observées, en quantité limitée, sur une portion de route [0;L] et sur un intervalle de temps [0;T], nous voulons prévoir les conditions de circulation après le temps T. Il faut connaître précisément les conditions aux temps T pour les utiliser dans le système de Aw-Rascle comme nouvelles conditions initiales. Nous calculons cette condition initiale en retrouvant par un algorithme d'optimisation la solution de Aw-Rascle qui minimise l'erreur entre les valeurs de cette solution et les données observées. Il s'agit d'un problème d'assimilation de données, que nous résolvons par une méthode adjointe. Deux stratégies distinctes sont possibles : nous prenons comme variables d'optimisation les conditions initiales et les conditions aux bords du domaine [0;L]x [0;T] ou alors nous prenons uniquement comme variables d'optimisation les conditions initiales sur une section plus grande [-L';L]. Nous explorons ces deux stratégies. Enfin, nous nous intéressons aux schémas numériques permettant de trouver les solutions des systèmes de lois de conservation tels que les deux systèmes précédents. Nous présentons alors un nouveau type de schémas hybrides à un paramètre qui permet d'obtenir la propriété TVD et d'être du second ordre en espace et en temps. Le paramètre permet d'interpoler les schémas de Lax-Wendroff et de Lax-Friedrichs. Après cette première phase prédictrice, il est possible de corriger ce paramètre dans les cellules où il y a production d'entropie numérique. Nous obtenons ainsi un schéma qui permet de capturer la solution physique.
179

Détection et suivi d'événements de surveillance

Sharif, Md. Haidar 16 July 2010 (has links) (PDF)
Dans les systèmes de vidéosurveillance, les algorithmes de vision assistée par ordinateur ont joué un rôle crucial pour la détection d'événements liés à la sûreté et la sécurité publique. Par ailleurs, l'incapacité de ces systèmes à gérer plusieurs scènes de foule est une lacune bien connue. Dans cette thèse, nous avons développé des algorithmes adaptés à certaines difficultés rencontrées dans des séquences vidéo liées à des environnements de foule d'une ampleur significative comme les aéroports, les centres commerciaux, les rencontres sportives etc. Nous avons adopté différentes approches en effectuant d'abord une analyse globale du mouvement dans les régions d'intérêt de chaque image afin d'obtenir des informations sur les comportements multimodaux de la foule sous forme de structures spatio-temporelles complexes. Ces structures ont ensuite été utilisées pour détecter des événements de surveillance inhabituels au sein-même de la foule. Pour réaliser nos expériences, nous nous sommes principalement appuyés sur trois ensembles de données qui ont suscité notre réflexion. Les résultats reflètent à la fois la qualité et les défauts de ces approches. Nous avons également développé une distance pseudo-euclidienne.Pour démontrer son utilité, une méthodologie qui lui est propre a été utilisée pour la détection de plusieurs événements de surveillance standards issus de la base TRECVID2008. Certains résultats montrent la robustesse de cette méthodologie tandis que d'autres soulignent la difficulté du problème. Les principaux défis portent, entre autres, sur le flux massif de personnes, l'importance de l'occlusion, la réflexion, les ombres, les fluctuations, les variations de la taille de la cible, etc. Cependant, nos idées et nos expériences de ces problèmes d'ordre pratique ont été particulièrement utiles. De plus, cette thèse développe un algorithme permettant de suivre une cible individuelle dans le cadre de plusieurs scènes de foule. Les séquences vidéo de la base de PETS2009 Benchmark ont été prises en compte pour évaluer les performances de cet algorithme. Si on analyse ses avantages et ses inconvénients, celui-ci fait toujours preuve d'une grande exactitude et sensibilité vis-à-vis des effets de variationde la lumière, ce qui atteste de sa grande efficacité même lorsque la luminosité baisse, que la cible entre ou sort d'une zone d'ombre ou en cas de lueur soudaine.
180

Modélisation et simulation numérique des écoulements diphasiques par une approche bifluide à deux pressions

Guillemaud, Vincent 27 March 2007 (has links) (PDF)
Dans ce mémoire, on s'intéresse à la simulation des écoulements liquide-vapeur en transition de phase. Pour décrire ces écoulements, une approche bifluide moyennée à deux pressions indépendantes est retenue. Cette description du mélange liquide-vapeur s'appuie sur le modèle à sept équations de Baer et Nunziato. On étudie les aptitudes de cette modélisation à simuler les transitions de phase apparaissant en ingénierie nucléaire.<br /><br />Dans un premier temps, on élabore un cadre thermodynamique théorique pour décrire les écoulements liquide-vapeur. Dans ce cadre, on réalise la fermeture du modèle de Baer et Nunziato. De nouvelles modélisations sont proposées pour les termes d'interaction entre les phases. Ces nouvelles modélisations dotent le modèle bifluide à deux pressions d'une inégalité d'entropie. On étudie ensuite les propriétés mathématiques de ce modèle. Sa partie convective hyperbolique se présente sous une forme non-conservative. On étudie tout d'abord la définition de ses solutions faibles. Divers régimes d'écoulement sont alors mis à jour pour le mélange diphasique. Ces différents régimes d'écoulement présentent des analogies avec le comportement fluvial et torrentiel des écoulements en rivière. Les stabilités linéaire et non-linéaire de l'équilibre liquide-vapeur sont ensuite établies. Pour affiner notre description des interactions diphasiques, on étudie pour finir l'implémentation d'un modèle de turbulence, ainsi que l'implémentation d'une procédure de reconstruction pour la densité d'aire interfaciale.<br /><br />On s'intéresse ensuite à la simulation de ce modèle. Suivant une approche à pas fractionnaires, une méthode numérique est élaborée dans un formalisme Volumes Finis. Pour réaliser l'approximation de la partie convective, diverses adaptations non-conservatives de solveurs de Riemann standard sont tout d'abord proposées. A l'inverse du cadre non-conservatif classique, l'ensemble de ces schémas converge vers une unique solution. Un nouveau schéma de relaxation est ensuite proposé pour approcher la dynamique des transferts interfaciaux. L'ensemble de la méthode numérique se caractérise alors par la préservation des équilibres liquide-vapeur. Dans un premier temps, cette méthode numérique est employée à la comparaison des différentes modélisations bifluides à une et deux pressions. On l'applique ensuite à la simulation des écoulements liquide-vapeur dans les circuits hydrauliques des réacteurs à eau sous pression en configuration accidentelle.

Page generated in 0.0613 seconds