101 |
Mouvement et vidéo : estimation, compression et filtrage morphologiqueLaveau, Nicolas 12 December 2005 (has links) (PDF)
Le travail de thèse développé dans ce mémoire porte sur le traitement des séquences vidéos. Ceci inclut la compression pour une grande partie de la thèse, mais également le filtrage spatio-temporel et la segmentation vidéo. Un des outils d'analyse récurrent dans chacune de ces applications est la mesure du mouvement, c'est-à-dire la description de la cohérence temporelle d'une séquence vidéo. Un système de compression vidéo comprend généralement les trois composantes suivantes : estimation du mouvement, transformations temporelle et spatiale, quantification et codage des coefficients. Nous nous intéressons successivement à chacune de ces composantes. Dans un premier temps, nous essayons d'adapter une méthode d'estimation par projection du flot optique sur une base d'ondelettes à valeur complexe à la compression vidéo. Le champ obtenu étant dense et sensible au bruit, nous introduisons dans la résolution un élément de régularisation afin de diminuer son coût de codage. En dépit d'une nette amélioration apportée par nos modifications, la technique d'estimation par projection sur une base d'ondelettes n'est pas compétitive face au block-matching qui constitue l'algorithme de référence pour la compression vidéo. Cela illustre bien le fait que le choix et la conception d'une méthode sont étroitement liés à l'usage qui en est fait : des mé- thodes d'estimation de mouvement optimisées pour des applications aussi diverses que la compression vidéo, le filtrage et la segmentation, ou encore l'analyse de scènes 3D ont peu de chances d'être les mêmes. Dans ces expériences, nous avons utilisé une méthode visant à satisfaire un critère qui est équivalent à un critère d'appariement optimal pour la compression sous des conditions théoriques qui ne sont en général pas vérifiées. Une telle approche est donc visiblement sous-optimale. Forts de cette observation, nous avons ensuite développé une méthode de mesure de mouvement qui repose sur une paramétrisation du champ bilinéaire par morceaux, et qui minimise cette fois directement l'erreur quadratique moyenne qui est notre critère d'évaluation. Nous montrons qu'il est possible d'obtenir de bons résultats quand les paramètres du champ sont épars. Un codage vidéo avec une prédiction temporelle suppose de coder des données aussi hétérogènes que des champs de mouvement ou des images d'erreur. Nous avons travaillé sur l'allocation de débit entre images d'erreur et de manière moins approfondie entre image d'erreur et champ de mouvement. Nous avons adapté un modèle de planification de débit introduit par Mallat et Falzon qui a été initialement conçu pour des images statiques et qui est actuellement utilisé pour la compression au ot d'images satellitales. Cette approche se révèle meilleure que des approches plus classiquement utilisées en compression vidéo. Pour pouvoir effectuer un codage par transformée du champ et des images d'erreur, nous avons cherché à concevoir de nouvelles transformations en sous-bandes non-linéaires. Pour cela, nous avons utilisé le schéma de lifting, qui garantit l'inversibilité formelle des transformations qu'il peut réaliser, que celles-ci soient linéaires ou non. Nous avons construit deux nouvelles décompositions non-linéaires. La première vise à réduire un artéfact communément appelé e et de Gibbs. Cette première décomposition consiste à utiliser un prédicteur de Deslauriers-Dubuc modifié de manière à réduire ces artéfacts. La modification introduite permet effectivement de réduire les oscillations autour de discontinuités en échange d'un surcoût modeste en terme d'efficacité de représentation dans les sections régulières du signal représenté. La formulation évite le mécanisme de transition d'un filtre à l'autre relativement habituel dans ce genre d'approche en recourant à des opérateurs continus de type min et max, qui permettent de garantir la continuité de la transformation et donc sa stabilité après quantification. L'autre se propose d'améliorer la décomposition en ondelettes du champ de mouvement en utilisant l'information qu'apporte chacune de ses composantes sur l'autre. En effet, l'intuition nous incite à penser que les discontinuités sont présentes au même endroit dans chacune des composantes du mouvement. Nous nous servons de cette co-occurrence des discontinuités pour choisir le filltre de prédiction. Dans les deux cas, les méthodes mises au point donnent des résultats positifs sur des signaux de synthèse mais perdent en efficacité sur des signaux réels. Une des grandes difficultés est de mettre au point un étage de mise-à-jour dans le schéma de lifting. Par ailleurs, le schéma linéaire le plus efficace est un schéma à 4 étages pour lequel il est difficile de concevoir un concurrent non-linéaire dans la mesure où ses propriétés sont difficilement lisibles sur les étages individuels du schéma de lifting. Nfin transposé des idées rencontrées en compression vidéo pour dé nir des opérations de filtrage morphologique vidéo intégrant la mesure du mouvement, utilisant des éléments structurants qui suivent le mouvement. L'application de ces idées donne des résultants probants en filltrage et en segmentation, en particulier grâce à une forte cohérence spatio-temporelle introduite dans les voisinages : cette approche donne des résultats de segmentation plus stables puisqu'elle impose une cohérence temporelle beaucoup plus forte aux frontières des régions que les méthodes itératives en temps. Nous discutons ensuite des possibilités d'utilisation de champs de mouvement à précision sous-pixellique.
|
102 |
Etude, développement et validation d'un concept d'architecture électronique sans temps mort pour TEP de haute sensibilitéVert, P.-E. 28 March 2007 (has links) (PDF)
L'électronique de lecture des tomographes à émission de positrons (TEP) est performante, mais possède son lot de qualités et de défauts. Hautement incriminée, spontanément, dans l'explication de la sensibilité assez pauvre de ces instruments, il ressort tout d'abord de l'étude présentée que les temps morts répartis relatifs à l'électronique n'incombent aux pertes de données qu'à hauteur de 16% pour une activité injectée typique de 10 microCi/ml. Les taux d'acquisition bruts pourraient ainsi être majorés de 20% par la suppression des saturations. A regarder plus en détails la philosophie de l'acquisition sur ces imageurs, il apparaît un caractère limitant davantage encore la sensibilité : la résolution temporelle. Elle conditionne, au premier ordre, les possibilités de réjection des événements fortuits, d'une partie des diffusés et donc du bruit, finalement rapporté au signal matérialisé par les vraies coïncidences. Une minimisation de la résolution temporelle passe par la suppression des acteurs inutiles et l'adoption d'une technique d'étiquetage temporel adaptée (filtrage optimal). Ce faisant, la résolution intrinsèque des voies de lecture est diminuée d'un facteur 7, se réduisant à 350 ps. Le plancher du fenêtrage en coïncidence peut être abaissé substantiellement et le NECR augmente de 50% en conséquence. A ce stade, un algorithme de mesure du temps de vol (TOF) peut être implémenté. Opportuniste, il promet une réduction de la variance associée au bruit de 430%, ce gain se répercute sur le NECR. Au final, le cumul des idées permet d'espérer gagner un ordre de grandeur sur le rapport signal sur bruit NECR, avec l'espoir d'examens cliniques raccourcis d'autant. Dans ce contexte, il est apparu légitime d'imaginer un nouveau synoptique d'acquisition pour TEP entièrement pixélisés. Le nombre de canaux explose au passage, par rapport à ce qui existe. Ceci est en partie compensé par la décision d'intégrer l'électronique au maximum. Les mesures d'énergie et de temps sont prévues sur une seule et même voie d'acquisition, avec une lecture en continue et sans temps mort des événements incidents. Le développement de l'électronique est en cours, ce manuscrit donne une description des trois premiers blocs. A terme, la réalisation d'un démonstrateur est prévue.
|
103 |
Contribution à l'intégration de temporalité au formalisme B : Utilisation du calcul des durées en tant que sémantique temporelle pour BColin, Samuel 03 October 2006 (has links) (PDF)
Dans le domaine des systèmes informatisés où la fiabilité est la première priorité, les méthodes formelles ont prouvé leur efficacité pour la conception de logiciels sûrs. La dépendance à de tels systèmes augmente, et les contraintes rencontrées se font plus diverses et précises, en particulier les contraintes temporelles. Certaines méthodes formelles, notamment la méthode B, rendent la conception malaisée sous de telles contraintes, puisqu'elles n'ont pas été prévues pour cela à l'origine.<br /><br />Nous nous proposons donc d'étendre la méthode B pour lui permettre de spécifier et valider des systèmes à contraintes temporelles complexes. Nous utilisons pour ce faire des calculs de durées pour exprimer la sémantique du langage B et en déduire une extension conservative qui permet de l'utiliser à la fois dans son cadre d'origine et dans le cadre de systèmes à contraintes temporelles.<br /><br />Nous nous penchons également sur le problème de l'utilisation d'un outil de preuve générique pour valider des formules de calcul des durées. La généricité de ce type d'outil répond à la multiplication des méthodes formelles, mais pose le problème de l'intégration des fondations mathématiques de ces méthodes à un outil générique. Nous proposons donc d'étudier la mise en oeuvre en plongement léger du calcul des durées dans l'assistant de preuve Coq. Nous en déduisons un retour sur expérience de la définition d'une logique modale particulière dans un outil à vocation générique.
|
104 |
Comportement asymptotique de la distribution des pluies extrêmes en FranceMuller, Aurélie 24 November 2006 (has links) (PDF)
Le comportement des valeurs extrêmes de pluie en France a été analysé au travers de variables locales telles que les maxima annuels ou saisonniers de pluies mesurées sur différents pas de temps entre l'heure et la journée, les valeurs supérieures à un seuil élevé, ou la série temporelle de succession d'averses. Différents modèles, issus de la théorie des valeurs extrêmes uni-variée et bi-variée ou de générateurs stochastiques de pluie, ont été présentés pour étudier le comportement asymptotique de ces variables aléatoires. Dans le cas des séries temporelles d'averses, la persistance dans le temps des valeurs fortes a été modélisée à l'aide d'un processus Markovien. Les incertitudes associées aux différents modèles ont également été analysées, avec des méthodes bayésiennes ou fréquentielles. Nous avons pu valider nos modèles avec de longues séries de mesures pluviométriques, avec des chroniques de pluies horaires et avec des chroniques d'événements pluvieux décrits par des averses fournis par Météo-France et le Cemagref. Dans de nombreux cas, nous avons en particulier noté que la distribution des extrêmes est non bornée, et de queue plus lourde qu'une loi Gumbel ou exponentielle.
|
105 |
Propriétés de jeux multi-agentsDa Costa Lopes, Arnaud 20 September 2011 (has links) (PDF)
Nous etendons les logiques temporelles du temps alternant ATL et ATL* au moyen de contextes strategiques et de contraintes sur la memoire : la premiere extension permet aux agents de s'en tenir a leurs strategies lors de l'evaluation des formules, contrairement a ATL ou chaque quantificateur de strategies ecrase les strategies anterieurement selectionnees. La seconde extension permet aux quantificateurs de strategies de se restreindre aux strategies sans memoire ou avec memoire bornee. Nous avons l'etudie l'expressivite de nos logiques. Nous montrons qu'elles expriment des proprietes importantes comme l'exstence d'equilibres, et nous les comparons formellement a d'autres formalismes proches (ATL, ATL*, Game Logic, Strategy Logic, ...). Nous avons aborde les problemes de model-checking. Nous donnons un algorithme PSPACE pour la logique n'impliquant que des strategies sans memoire, et un algorithme EXPSPACE pour le cas des strategies a memoire bornee. Dans le cas general, malgre leur forte expresssivite, nous prouvons que leur model-checking reste decidable par un algorithme a base d'automates d'arbres alternants qui permet d'evaluer une formule sur la classe complete des CGS avec n joueurs.
|
106 |
Quelle prise en compte des dynamiques urbaines dans la prévision de la demande de transport ?Cabrera Delgado, Jorge 01 July 2013 (has links) (PDF)
Dans la pratique de la planification urbaine, la prévision de la demande de transport fait en général appel au modèle à quatre étapes (génération, distribution, répartition modale et affectation), malgré des avancées théoriques considérables dans le domaine.Cette persistance s'explique par une facilité relative de mise en œuvre, liée notamment à la forme des données disponibles et susceptibles d'alimenter les modèles. Cependant, la nature statique de l'approche pose des interrogations quant à sa pertinence pour faire des prévisions de moyen-long terme. Cette thèse étudie, la validité de l'hypothèse de stabilité temporelle des trois premières étapes du modèle de prévision. Pour ce faire, en prenant l'agglomération lyonnaise comme terrain d'étude, nous avons codifié des réseaux routiers et de transports en commun à différentes dates (1985, 1995 et 2006). Cette donne, généralement indisponible, combinée aux enquêtes ménages déplacements correspondantes,nous permet de calibrer les trois premières étapes du modèle traditionnel et de tester leur capacité prédictive. Pour les modèles de génération, on note des prévisions acceptables à un horizon de 10 ans. À 20 ans, certaines évolutions dans les styles de vie se sont traduites paru ne baisse du nombre moyen de sorties pour le motif travail, que les modèles traditionnels ne permettent pas de prévoir complètement. Au niveau de la distribution, l'allongement des distances entre lieux de réalisation de certaines activités et le lieu de domicile peut être relativement bien reproduit par des modèles gravitaires avec des paramètres stables dans le temps. Au niveau de la répartition modale, les paramètres ne sont pas stables et les modèles estimés n'auraient pas permis de prévoir le regain de parts de marché des transports en commun observé ces dernières années.
|
107 |
Clarté des attributions dans un contexte de changement social : la privation relative comme résultat d'un manque de clarté des attributions par rapport au changement social et ses impacts sur le bien-être psychologiquePinard Saint-Pierre, Fabrice January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
|
108 |
Coopération asynchrone colocalisée dans l'habitat intelligent en santéChamberland-Tremblay, Daniel January 2012 (has links)
Le Québec vit un vieillissement marqué de sa population et doit faire face aux problèmes que cela engendre. Cette situation soulève des enjeux sociaux et économiques liés à la santé comme l'augmentation des problèmes chroniques de santé en fin de vie, le maintien de la qualité des soins à la population et plus généralement le financement du domaine de la santé. Le Centre de recherche sur les habitats intelligents (CRHI) de l'Université de Sherbrooke cherche à développer une solution technologique socialement acceptable à ces enjeux. Les travaux qui y sont faits visent à favoriser l'autonomie de personnes atteintes de troubles cognitifs afin de leur permettre de demeurer à domicile le plus longtemps possible. Cette recherche doctorale porte spécifiquement sur l'utilisation des technologies de l'habitat intelligent pour soutenir le travail coopératif entre les professionnels de la santé, les intervenants sociaux et les proches aidants. On y aborde la problématique du travail "même lieu/temps différents" dans l'équipe hétérogène sous l'angle du travail coopératif assisté par ordinateur (TCAO). Un collecticiel asynchrone distribué dans l'habitat intelligent a été développé à titre de preuve de concept. Des activités de communication, de coordination et de production des intervenants ont été scénarisées afin de démontrer le fonctionnement du prototype. Le collecticiel C4C intègre notamment des outils de travail éprouvés comme le système de mesure de l'autonomie fonctionnelle (SMAF) qui est utilisé pour déterminer et suivre le niveau de service à offrir à une personne en perte d'autonomie. Notre recherche a permis d'élaborer : - une infrastructure distribuée de services sous l'approche par réseau de pairs pour un habitat intelligent ; - un modèle de gestion de l'information dans une perspective historique et spatiale intérieure tridimensionnelle ; - un modèle de gestion de la coopération en mode "pousser de l'information" basé sur le contexte de travail. Ensemble, ces contributions structurent et définissent le mode de travail dans l'équipe de soins et de maintien à domicile. En facilitant la coopération dans l'habitat intelligent, notre recherche vise la continuité accrue des soins pour permettre à plus de personnes souffrant de limitations cognitives ou physiques de vivre à la maison dans leur communauté.
|
109 |
Role du striatum dans la perception temporelle via un modele rat transgenique de la maladie de huntingtonHohn, Sophie 28 October 2011 (has links) (PDF)
Afin d'analyser le rôle de la plasticité striatale dans la perception temporelle, nous avons réalisé une étude comportementale et électrophysiologique d'un modèle rat transgénique de la maladie de Huntington impliquant la dégénérescence progressive du striatum. Pour ce faire, nous avons élaboré une étude longitudinale (4-15 mois) du suivi de la maladie de Huntington au niveau moteur, motivationnel et temporel, et une étude présymptomatique (4-5 mois) de l'estimation temporelle et électrophysiologique in vivo de la voie préfronto-striatale. Nous avons détecté un dysfonctionnement de la perception temporelle et de la plasticité synaptique de manière présymptomatique, suggérant une corrélation entre ces deux dysfonctionnements. En symptomatique, le comportement temporel discriminatif est plus fortement altéré, corrélat d'une dégénérescence du striatum.
|
110 |
Calibration par programmation linéaire et reconstruction spatio-temporelle à partir de réseaux d'imagesCourchay, Jérôme 05 January 2011 (has links) (PDF)
Le problème de la stéréovision à partir de caméras multiples calibrées capturant une scène fixe est étudié depuis plusieurs décennies. Les résultats présentés dans le benchmark de stéréovision proposé par Strecha et al., attestent de la qualité des reconstructions obtenues. En particulier, les travaux du laboratoire IMAGINE, mènent à des résultats visuellement impressionnant. Aussi, il devient intéressant de calibrer des scènes de plus en plus vastes, afin d'appliquer ces algorithmes de stéréovision de façon optimale. Trois objectifs essentiels apparaissent : - La précision de la calibration doit être améliorée. En effet comme pointé par Yasutaka Furukawa, même les benchmarks de stéréovision fournissent parfois des caméras bruitées à la précision imparfaite. Un des moyen d'améliorer les résultats de stéréovision est d'augmenter la précision de la calibration. - Il est important de pouvoir prendre en compte les cycles dans le graphe des caméras de façon globale. En effet la plupart des méthodes actuelles sont séquentielles, et dérivent. Ainsi ces méthodes ne garantissent pas, pour une très grande boucle, de retrouver cette configuration cyclique, mais peuvent plutôt retrouver une configuration des caméras en spirale. Comme on calibre des réseaux d'images, de plus en plus grand, ce point est donc crucial. - Pour calibrer des réseaux d'images très grands, il convient d'avoir des algorithmes rapides. Les méthodes de calibration que nous proposons dans la première partie, permettent de calibrer des réseaux avec une précision très proche de l'état de l'art. D'autre part elle permettent de gérer les contraintes de cyclicité par le biais d'optimisations linéaires sous contraintes linéaires. Ainsi ces méthodes permettent de prendre en compte les cycles et bénéficient de la rapidité de la programmation linéaire. Enfin, la recherche en stéréovision étant arrivée à maturité, il convient de s'intéresser à l'étape suivante, à savoir la reconstruction spatio-temporelle. La méthode du laboratoire IMAGINE représentant l'état de l'art en stéréovision, il est intéressant de développer cette méthode et de l'étendre à la reconstruction spatio-temporelle, c'est-à-dire la reconstruction d'une scène dynamique capturée par un dôme de caméras. Nous verrons cette méthode dans la seconde partie de ce manuscrit
|
Page generated in 0.059 seconds