• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 30
  • 2
  • Tagged with
  • 70
  • 70
  • 42
  • 39
  • 16
  • 16
  • 15
  • 14
  • 13
  • 13
  • 12
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthodes d'optimisation pour l'espace et l'environnement

Touya, Thierry 19 September 2008 (has links) (PDF)
Ce travail se compose de deux parties relevant d'applications industrielles différentes. <br />La première traite d'une antenne spatiale réseau active. <br />Il faut d'abord calculer les lois d'alimentation pour satisfaire les contraintes de rayonnement. Nous transformons un problème avec de nombreux minima locaux en un problème d'optimisation convexe, dont l'optimum est le minimum global du problème initial, en utilisant le principe de conservation de l'énergie. <br />Nous résolvons ensuite un problème d'optimisation topologique: il faut réduire le nombre d'éléments rayonnants (ER). Nous appliquons une décomposition en valeurs singulières à l'ensemble des modules optimaux relaxés, puis un algorithme de type gradient topologique décide les regroupements entre ER élémentaires. <br /><br />La deuxième partie porte sur une simulation type boîte noire d'un accident chimique. <br />Nous effectuons une étude de fiabilité et de sensibilité suivant un grand nombre de paramètres (probabilités de défaillance, point de conception, et paramètres influents). Sans disposer du gradient, nous utilisons un modèle réduit. <br />Dans un premier cas test nous avons comparé les réseaux neuronaux et la méthode d'interpolation sur grille éparse Sparse Grid (SG). Les SG sont une technique émergente: grâce à leur caractère hiérarchique et un algorithme adaptatif, elles deviennent particulièrement efficaces pour les problèmes réels (peu de variables influentes). <br />Elles sont appliquées à un cas test en plus grande dimension avec des améliorations spécifiques (approximations successives et seuillage des données). <br />Dans les deux cas, les algorithmes ont donné lieu à des logiciels opérationnels.
32

Algorithmes rapides d'optimisation convexe. Applications à la reconstruction d'images et à la détection de changements.

Weiss, Pierre 21 November 2008 (has links) (PDF)
Cette thèse contient des contributions en analyse numérique et en vision par ordinateur. Dans une première partie, nous nous intéressons à la résolution rapide, par des méthodes de premier ordre, de problèmes d'optimisation convexe. Ces problèmes apparaissent naturellement dans de nombreuses tâches telles que la reconstruction d'images, l'échantillonnage compressif ou la décomposition d'images en texture et en géométrie. Ils ont la particularité d'être non différentiables ou très mal conditionnés. On montre qu'en utilisant des propriétés fines des fonctions à minimiser on peut obtenir des algorithmes de minimisation extrêmement efficaces. On analyse systématiquement leurs taux de convergence en utilisant des résultats récents dûs à Y. Nesterov. Les méthodes proposées correspondent - à notre connaissance - à l'état de l'art des méthodes de premier ordre. Dans une deuxième partie, nous nous intéressons au problème de la détection de changements entre deux images satellitaires prises au même endroit à des instants différents. Une des difficultés principales à surmonter pour résoudre ce problème est de s'affranchir des conditions d'illuminations différentes entre les deux prises de vue. Ceci nous mène à l'étude de l'invariance aux changements d'illuminations des lignes de niveau d'une image. On caractérise complètement les scènes qui fournissent des lignes de niveau invariantes. Celles-ci correspondent assez bien à des milieux urbains. On propose alors un algorithme simple de détection de changements qui fournit des résultats très satisfaisants sur des images synthétiques et des images Quickbird réelles.
33

Analyse en ondelettes M-bandes en arbre dual; application à la restauration d'images

Chaux, Caroline 13 December 2006 (has links) (PDF)
Cette thèse porte sur les décompositions en ondelettes M-bandes en arbre dual ainsi que sur leur application à l'analyse et la restauration d'images. Ces décompositions permettent d'obtenir une analyse multi-échelles, directionnelle et locale des images. Elles s'inscrivent donc dans la perspective de travaux récents visant à mieux représenter les informations géométriques (textures, contours) et les préserver lors de traitements. Ce travail s'appuie sur les travaux antérieurs de N. Kingsbury et I. Selesnick portant sur la construction de décompositions en ondelettes formant des paires de Hilbert (approchées). Ces auteurs ont établi divers résultats concernant le cas dyadique et l'une de nos contributions a été de montrer qu'il était possible de généraliser leurs conclusions et de montrer de nouveaux résultats dans le cas M-bandes. Les représentations proposées présentent de nombreux avantages notamment en termes d'invariance par translation de l'analyse et de sélectivité directionnelle. Nous avons établi les conditions que doivent satisfaire les bancs de filtres en arbre dual servant à l'analyse et à la synthèse des signaux traités. Nous avons également étudié les pré-traitements qu'il est nécessaire d'appliquer à des données discrètes. Ces décompositions introduisant typiquement une redondance d'un facteur 2 (dans le cas réel, et de 4 dans le cas complexe), elles constituent des trames à partir desquelles on peut calculer une reconstruction optimale. Ces nouvelles transformées ont finalement été généralisées aux cadres biorthogonal et complexe. Notre volonté d'appliquer ces outils d'analyse au débruitage de signaux nous a conduit à l'étude des propriétés statistiques des coefficients issus de la décomposition M-bandes en arbre dual d'un processus aléatoire stationnaire au sens large. Nous avons tout d'abord calculé les statistiques au second ordre de ces coefficients et nous avons étudié le rôle du post-traitement dans le calcul des corrélations. Quelques résultats asymptotiques concernant les corrélations d'un couple de coefficients primal/dual ont également été obtenus. Les inter-corrélations entre les ondelettes primale et duale jouant un rôle clé dans notre étude, nous en avons fourni des expressions exactes pour quelques familles d'ondelettes usuelles. Des simulations numériques nous ont aussi permis de valider nos résultats théoriques ainsi que d'évaluer la zone d'influence de la dépendance statistique induite. Pour démontrer l'efficacité de ces décompositions, nous avons été amenés à nous intéresser à deux types de problèmes : le débruitage et la déconvolution d'images. En ce qui concerne le débruitage, nous avons poursuivi deux buts principaux liés au cheminement de la thèse. Dans un premier temps, nous nous sommes attachés à montrer que la décomposition en arbre dual M-bandes apporte un gain significatif en terme de qualité, à la fois objective et subjective, par rapport à une décomposition en ondelettes classique, voire une décomposition dyadique en arbre dual. Dans un second temps, nous avons considéré le débruitage d'images multi-canaux pour lesquelles nous avons mis en place un estimateur statistique original reposant sur l'emploi du principe de Stein et permettant notamment de prendre en compte des voisinages quelconques (spatial, intercomposantes, inter-échelles, ...). Les problèmes de déconvolution d'images ont été appréhendés dans le cadre de méthodes variationnelles, en mettant en place un algorithme itératif, utilisant des outils récemment développés en analyse convexe. L'approche proposée permet de résoudre des problèmes inverses associés à des modèles probabilistes variés et elle est applicable à l'analyse M-bandes en arbre dual ainsi qu'à tout autre type de représentation à l'aide d'une trame.
34

Décompositions en ondelettes redondantes pour le codage par descriptions multiples des images fixes et des séquences vidéo

Petrisor, Claudia Teodora 28 September 2009 (has links) (PDF)
L'utilisation croissante des réseaux à perte de paquets pour la transmission multimédia est placée sous le signe de la fiabilité des données sous contraintes de débit. L'objectif de cette thèse est de construire des représentations dites par "descriptions multiples", à faible redondance, pour compenser la perte d'information sur les canaux de transmission. Nous avons considéré des schémas basées sur des trames d'ondelettes, implantées en "lifting". Dans un premier temps, nous avons considéré la construction de deux descriptions selon l'axe temporel d'un codeur vidéo "t+2D". La redondance introduite par transformée a été ultérieurement réduite par un sous-échantillonnage supplémentaire appliqué aux sous-bandes de détail. Cela permet d'ajuster la redondance à la taille d'une sous-bande d'approximation en ondelettes classiques. Ceci rajoute en revanche un problème de reconstruction parfaite que nous avons étudié en détail. En outre, nous avons établi des critères de choix entre les plusieurs schémas possibles, basés sur la réduction du bruit de quantification. Ensuite, les méthodes ci-dessus ont été adaptées pour le signal bi-dimensionnel (images). Nous avons aussi proposé un post-traitement aux décodeurs, visant à améliorer la qualité de la reconstruction en situation de pertes. Enfin, nous avons abordé le sujet sous un nouvel angle, inspiré de la nouvelle théorie du "Compressed Sensing", en cherchant d'obtenir le débit optimal qui satisfait une contrainte de distorsion maximum autorisée et en exploitant le caractère creux du signal. Cette approche se distingue par le transfert de complexité à l'encodeur en gardant des décodeurs linéaires.
35

Méthodes proximales pour la résolution de problèmes inverses : application à la tomographie par émission de positrons

Pustelnik, Nelly 13 December 2010 (has links) (PDF)
L'objectif de cette thèse est de proposer des méthodes fiables, efficaces et rapides pour minimiser des critères convexes apparaissant dans la résolution de problèmes inverses en imagerie. Ainsi, nous nous intéresserons à des problèmes de restauration/reconstruction lorsque les données sont dégradées par un opérateur linéaire et un bruit qui peut être non additif. La fiabilité de la méthode sera assurée par l'utilisation d'algorithmes proximaux dont la convergence est garantie lorsqu'il s'agit de minimiser des critères convexes. La quête d'efficacité impliquera le choix d'un critère adapté aux caractéristiques du bruit, à l'opérateur linéaire et au type d'image à reconstruire. En particulier, nous utiliserons des termes de régularisation basés sur la variation totale et/ou favorisant la parcimonie des coefficients du signal recherché dans une trame. L'utilisation de trames nous amènera à considérer deux approches : une formulation du critère à l'analyse et une formulation du critère à la synthèse. De plus, nous étendrons les algorithmes proximaux et leurs preuves de convergence aux cas de problèmes inverses multicomposantes. La recherche de la rapidité de traitement se traduira par l'utilisation d'algorithmes proximaux parallélisables. Les résultats théoriques obtenus seront illustrés sur différents types de problèmes inverses de grandes tailles comme la restauration d'images mais aussi la stéréoscopie, l'imagerie multispectrale, la décomposition en composantes de texture et de géométrie. Une application attirera plus particulièrement notre attention ; il s'agit de la reconstruction de l'activité dynamique en Tomographie par Emission de Positrons (TEP) qui constitue un problème inverse difficile mettant en jeu un opérateur de projection et un bruit de Poisson dégradant fortement les données observées. Pour optimiser la qualité de reconstruction, nous exploiterons les caractéristiques spatio-temporelles de l'activité dans les tissus.
36

Traitement des signaux parcimonieux et applications

AZIZ SBAI, Si Mohamed 20 November 2012 (has links) (PDF)
Quel que soit le domaine d'application, il est nécessaire de tirer profit de toute l'information a priori dans le but d'optimiser les résultats ou parfois même de manière à rendre un problème soluble. Dans ce contexte, la notion de parcimonie a émergé comme un a priori fondamental ces dernières années. On dit qu'un signal est parcimonieux dans une base s'il peut être décrit par un faible nombre de coefficients non nuls dans cette base. L'objet de cette thèse est l'étude de nouveaux apports de l'hypothèse de parcimonie au traitement du signal. Deux domaines d'applications sont considérés. Outre l'utilisation de la parcimonie, ces deux domaines ont en commun la résolution de problèmes inverses sous-déterminés. Le premier concerne la séparation de sources. Dans ce domaine, la parcimonie a conduit au développement de différentes méthodes de séparation de sources. Les performances de ces méthodes sont sensibles au choix de certains paramètres, habituellement choisis de manière empirique. Dans cette thèse, on propose un formalisme statistique qui permet de réduire le nombre de ces paramètres, tout en préservant la qualité de la séparation. Le second domaine d'application étudié est l'acquisition compressée des signaux à alphabet fini. Une telle acquisition compressée permet de réduire la dimension des signaux à alphabet fini, tout en gardant l'information nécessaire à leur reconstruction. Une formalisation du problème permet de le relier à celui de la reconstruction des signaux parcimonieux à partir de mesures incomplètes. Cette thèse est donc une exploration de nouvelles problématiques où l'intégration de la parcimonie conduit à de bonnes performances.
37

Synthèse de régulateurs numériques robustes multivariables par optimisation convexe

Prochazka, Hynek 23 January 2004 (has links) (PDF)
La thèse concerne essentiellement les méthodes de synthèse de régulateurs numériques robustes, monovariables ou multivariables, pour la commande des procédés temps-continu. Pour la synthèse, il est supposé que l'on dispose d'un modèle linéaire échantillonné (discrétisé) du procédé continue à commander. La robustesse de régulateur est traitée par l'analyse fréquentielle des sensibilités (fonctions/matrices de transfert de la boucle fermée). Comme dans le cas de la commande H∞, les valeurs singulières des réponses fréquentielles sont examinées pour ces analyses.<br /><br />Le mémoire est divisé en cinq parties. La première partie concerne les systèmes monovariables et le reste est concentré sur les problèmes de synthèse dans le domaine multivariable. Les cinq parties traitent les problématiques suivantes:<br /><br />• La première partie (Chapitre 2) touche la synthèse de régulateurs robustes monovariables par le placement de pôles, le calibrage de sensibilités et l'optimisation convexe [LK98, LL99]. Elle présente une nouvelle approche de la synthèse par placement de pôles en utilisant les filtres bande-étroite du 2$^e$ ordre et un logiciel associé développé dans le cadre de ce travail. Le logiciel reflète les améliorations apportées qui ont radicalement simplifiées la procédure de synthèse. La section qui concerne l'optimisation convexe rappelle les principes est introduit la notation utilisée ultérieurement pour la théorie multivariable.<br />• La deuxième partie (Chapitre 3 et 4) évoque la théorie fondamentale de la commande multivariable et développe l'idée de la synthèse de régulateurs robustes multivariables par placement de pôles et calibrage des sensibilités. Le régulateur a la forme d'observateur avec le retour des états estimés et il est utilisé dans la suite comme le régulateur central pour la synthèse de régulateurs par optimisation convexe.<br />• La troisième partie (Chapitre 5) est la partie essentielle et elle développe la méthode de synthèse de régulateurs robustes multivariables par calibrage de sensibilités et optimisation convexe. La méthode est basée sur la même principe que celui utilisé dans le domaine monovariable [Lan98, LL99] et elle est réalisé comme une boite à outils interactive pour Matlab. Le placement de pôles multivariable est aussi intégré dans cette application. Le logiciel développé fait partie de la thèse et il est brièvement décrit dans ce chapitre.<br />• La quatrième partie (Chapitre 6) traite la synthèse par optimisation convexe du pré-compensateur multivariable pour la poursuite. Le pré-com\-pen\-sa\-teur nous permet de séparer les spécifications sur la robustesse (rejet de perturbations et traitement des incertitudes) et les spécifications sur la poursuite (temps de montée, dépassement maximal).<br />• La cinquième partie (Chapitre 7) concerne la technique de réduction des régulateurs multivariables par identification en boucle fermée. La méthode développée fait suite à un approche similaire développé pour les régulateurs monovariables dans [LKC01].
38

Emergence de structures modulaires dans les régulations des systèmes biologiques : théorie et applications à Bacillus subtilis

Goelzer, Anne 04 November 2010 (has links) (PDF)
Cette thèse consiste à étudier l'organisation du système de contrôle des voies métaboliques des bactéries afin de dégager des propriétés systémiques révélant son fonctionnement. Dans un premier temps, nous montrons que le contrôle des voies métaboliques est hautement structuré et peut se décomposer en modules fortement découplés en régime stationnaire. Ces modules possèdent des propriétés mathématiques remarquables ayant des conséquences importantes en biologie. Cette décomposition, basée intrinsèquement sur la vision système de l'Automatique, offre un cadre théorique formel général d'analyse du contrôle des voies métaboliques qui s'est révélé effectif pour analyser des données expérimentales. dans un deuxième temps, nous nous intéressons aux raisons possibles de l'émergence de cette structure de contrôle similaire. Nous identifions un ensemble de contraintes structurelles agissant au niveau de la répartition d'une ressource commune, les protéines, entre les processus cellulaires. Respecter ces contraintes pour un taux de croissance donné conduit à formaliser et résoudre un problème d'optimisation convexe non différentiable, que nous appelons Resource balance Analysis. Ce problème d'optimisation se résout numériquement à l'échelle de la bactérie grâce à un problème de Programmation Linéaire équivalent. plusieurs propriétés sont déduites de l'analyse théorique du critère obtenu. Tout d'abord, le taux de croissance est structurellement limité par la répartition d'une quantité finie de protéines entre les voies métaboliques et les ribosomes. Ensuite, l'émergence des modules dans les voies métaboliques provient d'une politique générale d'économie en protéines chez la bactérie pour gagner du taux de croissance. Certaines stratégies de transport bien connues comme la répression catabolique ou la substitution de transporteurs haute/basse affinités sont prédites par notre méthode et peuvent alors être interprétées comme le moyen de maximiser la croissance tout en minimisant l'investissement en protéines.
39

Commande linéaire à paramètres variants des robots manipulateurs flexibles

Halalchi, Houssem 13 September 2012 (has links) (PDF)
Les robots flexibles sont de plus en plus utilisés dans les applications pratiques. Ces robots sont caractérisés par une conception mécanique légère, réduisant ainsi leur encombrement, leur consommation d'énergie et améliorant leur sécurité. Cependant, la présence de vibrations transitoires rend difficile un contrôle précis de la trajectoire de ces systèmes. Cette thèse est précisément consacrée à l'asservissement en position des manipulateurs flexibles dans les espaces articulaire et opérationnel. Des méthodes de commande avancées, basées sur des outils de la commande robuste et de l'optimisation convexe, ont été proposées. Ces méthodes font en particulier appel à la théorie des systèmes linéaires à paramètres variants (LPV) et aux inégalités matricielles linéaires (LMI). En comparaison avec des lois de commande non-linéaires disponibles dans la littérature, les lois de commande LPV proposées permettent de considérerdes contraintes de performance et de robustesse de manière simple et systématique. L'accent est porté dans notre travail sur la gestion appropriée de la dépendance paramétrique du modèle LPV, en particulier les dépendances polynomiale et rationnelle. Des simulations numériques effectuées dans des conditions réalistes, ont permis d'observer une meilleure robustesse de la commande LPV par rapport à la commande non-linéaire par inversion de modèle face aux bruits de mesure, aux excitations de haute fréquence et aux incertitudes de modèle.
40

Fonctions de coût pour l'estimation des filtres acoustiques dans les mélanges réverbérants

Benichoux, Alexis 14 October 2013 (has links) (PDF)
On se place dans le cadre du traitement des signaux audio multicanaux et multi-sources. À partir du mélange de plusieurs sources sonores enregistrées en milieu réverbérant, on cherche à estimer les réponses acoustiques (ou filtres de mélange) entre les sources et les microphones. Ce problème inverse ne peut être résolu qu'en prenant en compte des hypothèses sur la nature des filtres. Notre approche consiste d'une part à identifier mathématiquement les hypothèses nécessaires sur les filtres pour pouvoir les estimer et d'autre part à construire des fonctions de coût et des algorithmes permettant de les estimer effectivement. Premièrement, nous avons considéré le cas où les signaux sources sont connus. Nous avons développé une méthode d'estimation des filtres basée sur une régularisation convexe prenant en compte à la fois la nature parcimonieuse des filtres et leur enveloppe de forme exponentielle décroissante. Nous avons effectué des enregistrements en environnement réel qui ont confirmé l'efficacité de cet algorithme. Deuxièmement, nous avons considéré le cas où les signaux sources sont inconnus, mais statistiquement indépendants. Les filtres de mélange peuvent alors être estimés à une indétermination de permutation et de gain près à chaque fréquence par des techniques d'analyse en composantes indépendantes. Nous avons apporté une étude exhaustive des garanties théoriques par lesquelles l'indétermination de permutation peut être levée dans le cas où les filtres sont parcimonieux dans le domaine temporel. Troisièmement, nous avons commencé à analyser les hypothèses sous lesquelles notre algorithme d'estimation des filtres pourrait être étendu à l'estimation conjointe des signaux sources et des filtres et montré un premier résultat négatif inattendu : dans le cadre de la déconvolution parcimonieuse aveugle, pour une famille assez large de fonctions de coût régularisées, le minimum global est trivial. Des contraintes supplémentaires sur les signaux sources ou les filtres sont donc nécessaires.

Page generated in 0.1156 seconds