• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 30
  • 10
  • Tagged with
  • 130
  • 39
  • 24
  • 24
  • 23
  • 22
  • 19
  • 16
  • 15
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Méthodes simplifiées basées sur une approche quasi-statique pour l'évaluation de la vulnérabilité des ouvrages soumis à des excitations sismiques

Tataie, Laila 05 December 2011 (has links) (PDF)
Dans le cadre de la protection du bâti face au risque sismique, les techniques d'analyse simplifiées, basées sur des calculs quasi-statiques en poussée progressive, se sont fortement développées au cours des deux dernières décennies. Le travail de thèse a pour objectif d'optimiser une stratégie d'analyse simplifiée proposée par Chopra et al. (2001) et adoptée par les normes américaines FEMA 273. Il s'agit d'une analyse modale non linéaire découplée, dénommée par les auteurs UMRHA qui se caractérisent principalement par : des calculs de type pushover selon les modes de vibration dominants de la structure, la création de modèles à un degré de liberté non linéaire à partir des courbes de pushover, puis le calcul de la réponse temporelle de la structure en recombinant les réponses temporelles associées à chaque mode de vibration. Dans ce travail, la méthode UMRHA a été améliorée en investiguant les points suivants. Tout d'abord, plusieurs modèles à un degré de liberté non linéaire déduits des courbes de pushover modal sont proposés afin d'enrichir la méthode UMRHA originelle qui emploie un simple modèle élasto-plastique : autres modèles élasto-plastiques avec des courbes enveloppes différentes, le modèle de Takeda prenant en compte un comportement hystérétique propre aux structures sous séismes, et enfin, un modèle simplifié basé sur la dégradation de fréquence en fonction d'un indicateur de dommage. Ce dernier modèle à un degré de liberté privilégie la vision de la chute de fréquence au cours du processus d'endommagement de la structure par rapport à une description réaliste des boucles d'hystérésis. La réponse totale de la structure est obtenue en sommant les contributions non linéaires des modes dominants aux contributions linéaires des modes non dominants. Enfin, la dégradation des déformées modales, due à l'endommagement subi par la structure au cours de la sollicitation sismique, est prise en compte dans la méthode M-UMRHA proposée dans ce travail, en généralisant le concept précédent de dégradation des fréquences modales en fonction d'un indicateur de dommage : la déformée modale devient elle-aussi dépendante d'un indicateur de dommage, le déplacement maximum en tête de l'ouvrage ; l'évolution de la déformée modale en fonction de cet indicateur est directement identifiée à partir des calculs de pushover modal. La pertinence de la nouvelle méthode M-UMRHA est investiguée pour plusieurs types de structures, en adoptant des modélisations éprouvées dans le cadre de la simulation des structures sous séismes : portique en béton armé modélisé par des éléments multifibres pour le béton et les armatures, remplissage en maçonnerie avec des éléments barres diagonales résistant uniquement en compression, bâti existant contreventé (Hôtel de Ville de Grenoble) avec des approches coques multicouches. Les résultats obtenus par la méthode simplifiée proposée sont comparés aux résultats de référence issus de l'analyse temporelle non linéaire dynamique.
102

Effet de l'atorvastatine et de l'amlodipine sur le remodelage vasculaire dans l'hypertension

Doyon, Marielle 12 1900 (has links)
Résumé Introduction L’amlodipine et l’atorvastatine offrent des avantages thérapeutiques au-delà de leur indication primaire, soit la réduction de la pression artérielle et des lipides sanguins, respectivement. L’amlodipine induit l’apoptose des cellules de muscle lisse vasculaire (CMLV) in vivo, contribuant à la régression de l'hypertrophie aortique chez le rat spontanément hypertendu (SHR). L'atorvastatine induit l’apoptose des CMLV in vitro, un effet proportionnel à la dose. Toutefois, cet effet reste à être démontré in vivo. Nous postulons que l’atorvastatine induira la régression de l’hypertrophie aortique via l’apoptose des CMLV chez le SHR, et que la combinaison de l’amlodipine et de l’atorvastatine aura un effet synergique sur la régression de l’hypertrophie aortique via l’apoptose des CMLV chez le SHR. Méthodologie L’amlodipine et l’atorvastatine ont été administrées à des SHR âgés de 11 semaines durant trois ou six semaines, individuellement ou en combinaison. Les points principaux à l'étude étaient le remodelage vasculaire et la pression artérielle. La fragmentation et le contenu en ADN, le stress oxydant, le taux de cholestérol et les niveaux de nitrates ont aussi été mesurés. Résultats Lorsque l’atorvastatine a été administrée seule, une diminution significative du stress oxydant et de la pression artérielle a été observée après trois et six semaines de traitement, respectivement. Par contre, aucune différence n’a pu être décelée quant au remodelage vasculaire. L'amlodipine a réduit la pression artérielle et l'hypertrophie aortique de façon dépendante de la dose. Une diminution significative de l'hyperplasie a été détectée après trois semaines de traitement avec la combinaison, et après six semaines avec une faible dose d'amlodipine. Conclusion Nos résultats ne supportent pas l'hypothèse que l'atorvastatine induit l'apoptose des CMLV in vivo. Par contre, lorsque combinée à l'amlodipine, elle pourrait ajouter un bénéfice supplémentaire au niveau de la réduction de l'hyperplasie aortique. / Abstract Background and purpose Antihypertensive drugs such as the calcium channel blocker (CCB) amlodipine and cholesterol lowering agents such as statins exhibit pleiotropic effects. Amlodipine reduces aortic hypertrophy and hyperplasia in spontaneously hypertensive rat (SHR) by inducing a transient wave of apoptosis. Atorvastatin induces apoptosis of vascular smooth muscle cell (VSMC) in vitro, independently of cholesterol synthesis, an effect that remains to be shown in vivo. The present studies were designed to test the hypothesis that atorvastatin can induce vascular remodeling by VSMC apoptosis in vivo in SHR, and to test whether combined therapy with low dose amlodipine would provide synergistic effects on regression of aortic hypertrophy. Experimental approach 11-week old SHR were given atorvastatin and amlodipine, alone or in combination, for three or six weeks. Primary end-points were vascular remodeling and blood pressure. Secondary end-points included DNA fragmentation and content in the aorta, oxidative stress, cholesterol and serum total nitrite and nitrate (NOx) concentrations. Key results Treatment with atorvastatin did not modify vascular structure, although it significantly reduced oxidative stress after three weeks and blood pressure after six weeks. Amlodipine dose-dependently reduced blood pressure and aortic hypertrophy. Significant reduction of cellular hyperplasia was reached after 6 weeks with a low dose of amlodipine alone or after 3 weeks when atorvastatin was combined with low dose amlodipine. Conclusions and implications Our results do not support the notion that atorvastatin induces VSMC apoptosis in vivo, although the data suggest a possible interaction with amlodipine in reducing VSMC hyperplasia in the hypertensive aorta.
103

Approches multiéchelles pour la segmentation de très grandes images : application à la quantification de biomarqueurs en histopathologie cancérologique.

Signolle, Nicolas 03 November 2009 (has links) (PDF)
Visualiser et analyser automatiquement des coupes fines de tumeurs cancéreuses sont des enjeux majeurs pour progresser dans la compréhension des mécanismes de la cancérisation et mettre en évidence de nouveaux indicateurs de réponse au traitement. Les nouveaux scanners microscopiques apportent une aide essentielle en fournissant des images couleur haute résolution de la totalité des lames histologiques. Ceci permet de s'affranchir de l'hétérogénéité de distribution des marqueurs à quantifier. La taille de ces images, appelées lames virtuelles, peut atteindre plusieurs GigaOctets. L'objectif de cette thèse est de concevoir et d'implémenter une méthode de segmentation permettant de séparer les différents types de compartiments stromaux présents sur une lame virtuelle de carcinome ovarien. Les deux principales difficultés à surmonter sont la taille des images, qui empêche de les traiter en une seule fois, et le choix de critères permettant de différencier les compartiments stromaux. Pour répondre à ces problèmes, nous avons développé une méthode générique de segmentation multiéchelle qui associe un découpage judicieux de l'image à une caractérisation de chaque compartiment stromal, considéré comme une texture. Cette caractérisation repose sur une modélisation multiéchelle des textures par un modèle d'arbre de Markov caché, appliqué sur les coefficients de la décomposition en ondelettes. Plutôt que de considérer tous les types de compartiments stromaux simultanément, nous avons choisi de transformer le problème multiclasse en un ensemble de problèmes binaires. Nous avons également analysé l'influence d'hyperparamètres (représentation couleur, type d'ondelettes et nombre de niveaux de résolutions intégrés à l'analyse) sur la segmentation, ce qui nous a permis de sélectionner les classifieurs les mieux adaptés. Différentes méthodes de combinaison des décisions des meilleurs classifieurs ont ensuite été étudiées. La méthode a été testée sur une vingtaine de lames virtuelles. Afin d'évaluer les résultats de la segmentation, nous avons mis en œuvre un protocole de tests fondé sur une approche stéréologique. Les résultats sur différents jeux de tests (images synthétiques, images de petite taille, images réelles) sont présentés et commentés. Les résultats obtenus sur les lames virtuelles sont prometteurs, compte tenu de la variabilité des échantillons et de la difficulté, pour un expert, à identifier parfois très précisément un compartiment : environ 60% des points sont correctement classés (entre 35% et 80% selon les lames).
104

Techniques de diversité pour les transmissions HARQ sur des canaux sélectifs en fréquence

Assimi, Abdel-Nasser 17 December 2009 (has links) (PDF)
Nous considérons dans cette thèse le problème de la transmission fiable de données par paquets en utilisant une transmission mono-porteuse sur des canaux sélectifs en fréquence à évanouissements. Notre objectif est de concevoir des couples émetteurs-récepteurs permettant d'améliorer les performances de la détection en l'absence d'information sur le canal à la transmission et ceci en exploitant la diversité temporelle disponible dans le cadre des protocoles de retransmission hybrides (HARQ). En analysant les performances du système de transmission avec un récepteur à maximum de vraisemblance, nous établissons un critère pertinent pour l'étude des performances du système basé sur les statistiques de la distance Euclidienne à la sortie du canal sélectif en fréquence. A partir de ce cadre théorique, nous proposons un nouveau schéma de diversité entre les différentes retransmissions, nommé précodage de phase, qui permet de combattre l'interférence entre symboles pour les canaux lentement variables dans le temps. Puis, à l'aide de nos outils d'analyse, nous revisitons un autre schéma de diversité qu'est la diversité d'entrelacement. En particulier, nous soulignons le double avantage offert par ce schéma, à savoir la diversité de modulation et la réduction de l'interférence entre symboles. Nous réalisons ensuite une étude comparative entre les deux schémas de diversité précédents sous traitement itératif ou non itératif au récepteur. Enfin, nous introduisons un nouveau protocole de retransmission adaptative pour les transmissions dîtes multi-couches afin de réduire l'interférence entre couches pour les canaux rapidement variant dans le temps utilisant des informations de retour limitées.
105

Techniques de synchronisation à très faible SNR pour des applications satellites / Synchronization techniques at very low signal to noise ratio for satellite applications

Jhaidri, Mohamed Amine 07 December 2017 (has links)
Les transmissions numériques par satellite sont largement utilisées dans plusieurs domaines allant des applications commerciales en orbites terrestres aux missions d'exploration scientifiques en espace lointain (Deep Space). Ces systèmes de transmission fonctionnent sur des très grandes distances et ils disposent des ressources énergétiques très limitées. Cela se traduit par un très faible rapport signal à bruit au niveau de la station de réception terrestre. Une possibilité d'établir une liaison fiable dans ces conditions très défavorables, réside dans l'utilisation de codes correcteurs d'erreurs puissants tels que les Turbo codes et le LDPC. Cependant, les gains de codage sont conditionnés par le bon fonctionnement des étages de la démodulation cohérente en amont, notamment l'étage de synchronisation. L'opération de synchronisation consiste à estimer et compenser le décalage en phase et en fréquence entre le signal reçu et l'oscillateur local du récepteur. Ces décalages sont généralement provoqués par des imperfections matérielles et le phénomène d'effet Doppler. A très faible rapport signal à bruit, les systèmes de synchronisation actuels se trouvent limités et incapables d'assurer les performances requises. Notre objectif est de fiabiliser l'étage de synchronisation du récepteur dans des conditions très difficiles de faible rapport signal sur bruit, d'effet Doppler conséquent avec prise en compte d'un phénomène d'accélération (Doppler rate) et d'une transmission sans pilote. Cette thèse CIFRE traite du problème de la synchronisation porteuse pour la voie descendante d'une transmission Deep Space. Après la réalisation d'une étude de l'état de l'art des techniques de synchronisation, nous avons retenu les boucles à verrouillage de phase (PLL: Phase Locked Loop). Dans un contexte industriel, les PLL offrent le meilleur compromis entre complexité d'implémentation et performances. Plusieurs détecteurs de phase basés le critère du maximum de vraisemblance ont été considérés et modélisés par leurs courbes caractéristiques. En se basant sur les modèles équivalents, nous avons développé une nouvelle étude de la phase d'acquisition non-linéaire d'une PLL du deuxième ordre avec un détecteur de phase semi-sinusoïdal. La deuxième partie de la thèse a été consacrée à l'étude des techniques de combinaison d'antennes. Ces méthodes visent à exploiter la diversité spatiale et améliorer le bilan de liaison de la chaîne de transmission tout en offrant une flexibilité de conception ainsi qu'une réduction considérable du coût d'installation. A l'issue de cette partie, nous avons proposé un nouveau schéma de combinaison d'antenne qui améliore le seuil de fonctionnement des systèmes existants. / In deep space communication systems, the long distance between the spacecraft and the ground station along with the limited capacity of the on-board power generator result a very low signal to noise ratio (SNR). However, such transmission still possible by using near Shannon limit error correction codes (Turbo code and LDPC code). Nevertheless, to take advantage of this coding gain, the coherent demodulation is mandatory, and the carrier phase synchronization must be reliable at more restrictive SNR. At very low SNR, current synchronization systems are limited and unable to provide the required performances. Our goal is to improve the reliability of the receiver synchronization stage under very difficult conditions of a very low SNR, a variable Doppler effect (Doppler rate) and a blind transmission. This thesis deals with the problem of carrier phase synchronization for the downlink of a Deep Space transmission. After the study of the existing solutions, we selected the phase locked loop (Phase Locked Loop: PLL). In an industrial context, PLL offers the best trade-off between complexity and performance. Several phase detectors based on the maximum likelihood criterion were considered and characterized by their S-curves. Based on the equivalent models, we have developed a new study of the non-linear acquisition phase of a second-order PLL with a semi-sinusoidal phase error detector. The second part of the thesis was dedicated to the antennas combining techniques. These methods aim to improve the link budget of the transmission and offer more flexibility. At the end of this part, we proposed a new antennas combining scheme that improves the operating threshold of existing systems.
106

Méthodes avancées de traitement de la parole et de réduction de bruit pour les terminaux mobiles / Advanced methods of speech processing and noise reduction for mobile devices

Mai, Van Khanh 09 March 2017 (has links)
Cette thèse traite d'un des problèmes les plus stimulants dans le traitement de la parole concernant la prothèse auditive, où seulement un capteur est disponible avec de faibles coûts de calcul, de faible utilisation d'énergie et l'absence de bases de données. Basée sur les récents résultats dans les deux estimations statistiques paramétriques et non-paramétriques, ainsi que la représentation parcimonieuse. Cette étude propose quelques techniques non seulement pour améliorer la qualité et l'intelligibilité de la parole, mais aussi pour s'attaquer au débruitage du signal audio en général.La thèse est divisée en deux parties ; Dans la première partie, on aborde le problème d'estimation de la densité spectrale de puissance du bruit, particulièrement pour le bruit non-stationnaire. Ce problème est une des parties principales du traitement de la parole du mono-capteur. La méthode proposée prend en compte le modèle parcimonieux de la parole dans le domaine transféré. Lorsque la densité spectrale de puissance du bruit est estimée, une approche sémantique est exploitée pour tenir compte de la présence ou de l'absence de la parole dans la deuxième partie. En combinant l'estimation Bayésienne et la détection Neyman-Pearson, quelques estimateurs paramétriques sont développés et testés dans le domaine Fourier. Pour approfondir la performance et la robustesse de débruitage du signal audio, une approche semi-paramétrique est considérée. La conjointe détection et estimation peut être interprétée par Smoothed Sigmoid-Based Shrinkage (SSBS). Ainsi, la méthode Bloc-SSBS est proposée afin de prendre en compte les atomes voisinages dans le domaine temporel-fréquentiel. De plus, pour améliorer fructueusement la qualité de la parole et du signal audio, un estimateur Bayésien est aussi dérivé et combiné avec la méthode Bloc-SSBS. L'efficacité et la pertinence de la stratégie dans le domaine transformée cosinus pour les débruitages de la parole et de l'audio sont confirmées par les résultats expérimentaux. / This PhD thesis deals with one of the most challenging problem in speech enhancement for assisted listening where only one micro is available with the low computational cost, the low power usage and the lack out of the database. Based on the novel and recent results both in non-parametric and parametric statistical estimation and sparse representation, this thesis work proposes several techniques for not only improving speech quality and intelligibility and but also tackling the denoising problem of the other audio signal. In the first major part, our work addresses the problem of the noise power spectrum estimation, especially for non-stationary noise, that is the key part in the single channel speech enhancement. The proposed approach takes into account the weak-sparseness model of speech in the transformed model. Once the noise power spectrum has been estimated, a semantic road is exploited to take into consideration the presence or absence of speech in the second major part. By applying the joint of the Bayesian estimator and the Neyman-Pearson detection, some parametric estimators were developed and tested in the discrete Fourier transform domain. For further improve performance and robustness in audio denoising, a semi-parametric approach is considered. The joint detection and estimation can be interpreted by Smoothed Sigmoid-Based Shrinkage (SSBS). Thus, Block-SSBS is proposed to take into additionally account the neighborhood bins in the time-frequency domain. Moreover, in order to enhance fruitfully speech and audio, a Bayesian estimator is also derived and combined with Block-SSBS. The effectiveness and relevance of this strategy in the discrete Cosine transform for both speech and audio denoising are confirmed by experimental results.
107

Etudes sur le cycle économique. Une approche par les modèles à changements de régime / Studies in Business Cycles Using Markov-switching Models

Rabah-Romdhane, Zohra 12 December 2013 (has links)
L'ampleur de la Grande Récession a suscité un regain d'intérêt pour l'analyse conjoncturelle, plus particulièrement du cycle économique. Notre thèse participe de ce renouveau d'attention pour l'étude des fluctuations économiques.Après une présentation générale des modèles à changements de régime dans le chapitre 1, le chapitre suivant propose une chronologie du cycle des affaires de l'économie française sur la période 1970-2009. Trois méthodes de datation sont utilisées à cette fin : la règle des deux trimestres consécutifs de croissance négative, l'approche non paramétrique de Bry et Boschan (1971) et le modèle markovien à changements de régime de Hamilton (1989). Les résultats montrent que l'existence de ruptures structurelles peut empêcher ce dernier modèle d'identifier correctement les points de retournement cycliques. Cependant, quandces ruptures sont prises en considération, le calendrier des récessions françaises obtenu à l'aide du modèle d'Hamilton coïncide largement avec celui obtenu par les deux autres méthodes. Le chapitre 3 développe une analyse de la non-linéarité dans le modèle à changements de régime en utilisant un ensemble de tests non-standards. Une étude par simulation Monte Carlo révèle qu'un test récemment proposé par Carrasco, Hu et Ploberger (2013) présente une faible puissance pour des processus générateurs des données empiriquement pertinents et ce, lorsqu'on tient compte de l'autocorrélation sous l'hypothèse nulle. En revanche, untest "bootstrap" paramétrique basé sur le rapport des vraisemblances a, pour sa part une puissance plus élevée, ce qui traduit l'existence probable de non-linéarités significatives dans le PIB réel trimestriel de la France et des Etats-Unis. Quand il s'agit de tester un changement de régime en moyenne ou en constante, il est important de tenir compte de l'autocorrélation sous l'hypothèse nulle de linéarité. En effet, dans le cas contraire, un rejet de la linéarité pourrait simplement refléter une mauvaise spécification de la persistance des données, plutôt que d'une non-linéarité inhérente.Le chapitre 4 examine une question importante : la considération de ruptures structurelles dans les séries améliore-t-elle la performance prédictive du modèle markovien relativement à son homologue linéaire ? La démarche adoptée pour y répondre consiste à combiner les prévisions obtenues pour différentes périodes d'estimation. Voici le principal résultat dû à l'application de cette démarche : la prise en compte des données provenant des intervalles de temps précédant les ruptures structurelles et la "Grande Modération" améliore les prévisions basées sur des données tirées exclusivement de ces épisodes. De la sorte, les modèles à changements de régime s'avèrent capables de prédire la probabilité d'événements tels que la Grande Récession, avec plus de précision que ses homologues linéaires.Les conclusions générales synthétisent les principaux acquis de la thèse et évoqueplusieurs perspectives de recherche future. / The severity of the Great Recession has renewed interest in the analysis of business cycles. Our thesis pertains to this revival of attention for the study of cyclical fluctuations. After reviewing the regime-switching models in Chapter one, the following chapter suggests a chronology of the classical business cycle in French economy for the 1970-2009 period. To that end, three dating methodologies are used: the rule of thumb of two consecutive quarters of negative growth, the non-parametric approach of Bry and Boschan (1971), and the Markov-switching approach of Hamilton (1989). The results show that,omitted structural breaks may hinder the Markov-switching approach to capture business-cycle fluctuations. However, when such breaks are allowed for, the timing of the French recessions provided by the Markov-switching model closely matches those derived by the rule-based approaches.Chapter 3 performs a nonlinearity analysis inMarkov-switching modelling using a set of non-standard tests. Monte Carlo analysis reveals that a recently test proposed by Carrasco, Hu, and Ploberger (2013) for Markov switching has low power for empirically-relevant data generating processes when allowing for serial correlation under the null. By contrast, a parametric bootstrap likelihood ratio (LR) test of Markov switching has higher power in the same setting, providing stronger support for nonlinearity in quarterly French and U.S. real GDP. When testing for Markov switching in mean or intercept of an autoregressive process, it is important to allow for serial correlation under the null hypothesis of linearity.Otherwise, a rejection of linearity could merely reflect misspecification of the persistence properties of the data, rather than any inherent nonlinearity.Chapter 4 examines whether controlling for structural breaks improves the forecasting performance of the Markov-switching models, as compared to their linear counterparts.The approach considered to answer this issue is to combined forecasts across different estimation windows. The outcome of applying such an approach shows that, including data from periods preceding structural breaks and particularly the "Great Moderation" improves upon forecasts based on data drawn exclusively from these episodes. Accordingly, Markov-switching models forecast the probability of events such as the Great Recession more accurately than their linear counterparts.The general conclusions summarize the main results of the thesis and, suggest several directions for future research.
108

Recherche multi-descripteurs dans les fonds photographiques numérisés / Multi-descriptor retrieval in digitalized photographs collections

Bhowmik, Neelanjan 07 November 2017 (has links)
La recherche d’images par contenu (CBIR) est une discipline de l’informatique qui vise à structurer automatiquement les collections d’images selon des critères visuels. Les fonctionnalités proposées couvrent notamment l’accès efficace aux images dans une grande base de données d’images ou l’identification de leur contenu par des outils de détection et de reconnaissance d’objets. Ils ont un impact sur une large gamme de domaines qui manipulent ce genre de données, telles que le multimedia, la culture, la sécurité, la santé, la recherche scientifique, etc.Indexer une image à partir de son contenu visuel nécessite d’abord de produire un résumé visuel de ce contenu pour un usage donné, qui sera l’index de cette image dans la collection. En matière de descripteurs d’images, la littérature est désormais trés riche: plusieurs familles de descripteurs existent, et dans chaque famille de nombreuses approches cohabitent. Bon nombre de descripteurs ne décrivant pas la même information et n’ayant pas les mêmes propriétés d’invariance, il peut être pertinent de les combiner de manière à mieux décrire le contenu de l’image. Cette combinaison peut être mise en oeuvre de différentes manières, selon les descripteurs considérés et le but recherché. Dans cette thése, nous nous concentrons sur la famille des descripteurs locaux, avec pour application la recherche d’images ou d’objets par l’exemple dans une collection d’images. Leurs bonnes propriétés les rendent très populaires pour la recherche, la reconnaissance et la catégorisation d'objets et de scènes. Deux directions de recherche sont étudiées:Combinaison de caractéristiques pour la recherche d’images par l’exemple: Le coeur de la thèse repose sur la proposition d’un modèle pour combiner des descripteurs de bas niveau et génériques afin d’obtenir un descripteur plus riche et adapté à un cas d’utilisation donné tout en conservant la généricité afin d’indexer différents types de contenus visuels. L’application considérée étant la recherche par l’exemple, une autre difficulté majeure est la complexité de la proposition, qui doit correspondre à des temps de récupération réduits, même avec de grands ensembles de données. Pour atteindre ces objectifs, nous proposons une approche basée sur la fusion d'index inversés, ce qui permet de mieux représenter le contenu tout en étant associé à une méthode d’accès efficace.Complémentarité des descripteurs: Nous nous concentrons sur l’évaluation de la complémentarité des descripteurs locaux existant en proposant des critères statistiques d’analyse de leur répartition spatiale dans l'image. Ce travail permet de mettre en évidence une synergie entre certaines de ces techniques lorsqu’elles sont jugées suffisamment complémentaires. Les critères spatiaux sont exploités dans un modèle de prédiction à base de régression linéaire, qui a l'avantage de permettre la sélection de combinaisons de descripteurs optimale pour la base considérée mais surtout pour chaque image de cette base. L'approche est évaluée avec le moteur de recherche multi-index, où il montre sa pertinence et met aussi en lumière le fait que la combinaison optimale de descripteurs peut varier d'une image à l'autre.En outre, nous exploitons les deux propositions précédentes pour traiter le problème de la recherche d'images inter-domaines, correspondant notamment à des vues multi-source et multi-date. Deux applications sont explorées dans cette thèse. La recherche d’images inter-domaines est appliquée aux collections photographiques culturelles numérisées d’un musée, où elle démontre son efficacité pour l’exploration et la valorisation de ces contenus à différents niveaux, depuis leur archivage jusqu’à leur exposition ou ex situ. Ensuite, nous explorons l’application de la localisation basée image entre domaines, où la pose d’une image est estimée à partir d’images géoréférencées, en retrouvant des images géolocalisées visuellement similaires à la requête / Content-Based Image Retrieval (CBIR) is a discipline of Computer Science which aims at automatically structuring image collections according to some visual criteria. The offered functionalities include the efficient access to images in a large database of images, or the identification of their content through object detection and recognition tools. They impact a large range of fields which manipulate this kind of data, such as multimedia, culture, security, health, scientific research, etc.To index an image from its visual content first requires producing a visual summary of this content for a given use, which will be the index of this image in the database. From now on, the literature on image descriptors is very rich; several families of descriptors exist and in each family, a lot of approaches live together. Many descriptors do not describe the same information and do not have the same properties. Therefore it is relevant to combine some of them to better describe the image content. The combination can be implemented differently according to the involved descriptors and to the application. In this thesis, we focus on the family of local descriptors, with application to image and object retrieval by example in a collection of images. Their nice properties make them very popular for retrieval, recognition and categorization of objects and scenes. Two directions of research are investigated:Feature combination applied to query-by-example image retrieval: the core of the thesis rests on the proposal of a model for combining low-level and generic descriptors in order to obtain a descriptor richer and adapted to a given use case while maintaining genericity in order to be able to index different types of visual contents. The considered application being query-by-example, another major difficulty is the complexity of the proposal, which has to meet with reduced retrieval times, even with large datasets. To meet these goals, we propose an approach based on the fusion of inverted indices, which allows to represent the content better while being associated with an efficient access method.Complementarity of the descriptors: We focus on the evaluation of the complementarity of existing local descriptors by proposing statistical criteria of analysis of their spatial distribution. This work allows highlighting a synergy between some of these techniques when judged sufficiently complementary. The spatial criteria are employed within a regression-based prediction model which has the advantage of selecting the suitable feature combinations globally for a dataset but most importantly for each image. The approach is evaluated within the fusion of inverted indices search engine, where it shows its relevance and also highlights that the optimal combination of features may vary from an image to another.Additionally, we exploit the previous two proposals to address the problem of cross-domain image retrieval, where the images are matched across different domains, including multi-source and multi-date contents. Two applications of cross-domain matching are explored. First, cross-domain image retrieval is applied to the digitized cultural photographic collections of a museum, where it demonstrates its effectiveness for the exploration and promotion of these contents at different levels from their archiving up to their exhibition in or ex-situ. Second, we explore the application of cross-domain image localization, where the pose of a landmark is estimated by retrieving visually similar geo-referenced images to the query images
109

Assessment of concrete strength in existing structures using nondestructive tests and cores : analysis of current methodology and recommendations for more reliable assessment / Évaluation de la résistance mécanique du béton dans les ouvrages existants en utilisant les tests non-destructifs et carottes : analyse de la méthodologie courante et recommandations pour évaluation plus fiable

Alwash, Maitham Fadhil Abbas 10 May 2017 (has links)
Pour évaluer la résistance mécanique du béton dans un ouvrage existant, la méthodologie courante combine des mesures non destructives (CND) comme le rebond ou/et la vitesse des ondes ultrasoniques avec la technique destructive (carottes) afin de produire une relation‘‘modèle de conversion” entre la résistance mécanique et les mesures CND. Le modèle de conversion est utilisé pour estimer la valeur locale de résistance mécanique à chaque emplacement de test en utilisant la valeur CND correspondante. Ensuite, on calcule les estimations de la résistance moyenne et/ou de l’écart-type de la résistance (variabilité de la résistance du béton). Cependant, la fiabilité d’estimation est toujours discutable en raison des incertitudes associées à l’évaluation de la résistance basée sur les mesures CND. Pour améliorer la fiabilité, les incertitudes doivent être réduites en spécifiant et en contrôlant leurs facteurs d’influence. Par conséquent, l’objectif de cette thèse est d’analyser la méthodologie d’évaluation courante afin de fournir des recommandations pratiques qui peuvent améliorer la fiabilité de l’évaluation de la résistance in-situ du béton dans les ouvrages existantes par des tests non destructifs et des carottes.Pour ce but, un simulateur a été construit afin d’analyser les effets des facteurs les plus influents en utilisant une vaste campagne de données provenant de sources différentes (études in situ ou en laboratoire et données synthétiques générées). La première contribution de ce travail est le développement d’une nouvelle approche d’identification du modèle ‘‘bi-objectif” qui peut efficacement capturer la variabilité de la résistance mécanique en plus de la moyenne. Après avoir étudié l’effet du mode de sélection des emplacements pour les carottes, une méthode a été proposée pour sélectionner ces emplacements en fonction des mesures CND ‘‘sélection conditionnelle” qui améliore la qualité de l’évaluation sans coût supplémentaire. Une dernière innovation est l’établissement de courbes de risque qui quantifient la relation entre le nombre de carottes et la précision de l’estimation. Enfin, des recommandations ont été formulées afin de fournir des estimations plus fiables. / To assess concrete strength in an existing structure, the current methodology combines nondestructive measurements (NDT) like rebound hammer or/and pulse velocity with destructive technique (cores) in order to implement a relationship ‘‘conversion model” between the compressive strength and NDT measurements. The conversion model is used to estimate the local strength value at each test location using the corresponding NDT value.Then the estimated mean strength and/or estimated strength standard deviation (concrete strength variability) values are calculated. However, the reliability of these estimated values isalways a questionable issue because of the uncertainties associated with the strength assessment based upon NDT measurements. To improve the reliability, the uncertainties must be reduced by specifying and controlling their influencing factors. Therefore, the objective of this thesis is to analyze the current assessment methodology in order to provide practical recommendations that can improve the reliability of assessing the in-situ strength in existing concrete structures by nondestructive tests and cores.To this end, a simulator was built in order to analyze the effects of the most influencing factors using a large campaign of datasets from different sources (in-situ or laboratory studies,and generated synthetic data).The first contribution of this work is the development of a new model identification approach“bi-objective” that can efficiently capture the strength variability in addition to the mean strength. After studying the effect of the way of selection the core locations, a method was proposed to select these locations depending on the NDT measurements “conditional selection” that improves the quality of assessment without additional cost. A third innovation was the development of a procedure to identify the relation between the number of cores and the accuracy of the estimation. Finally recommendations were derived in order to providemore reliable estimated values.
110

On the use of a discriminant approach for handwritten word recognition based on bi-character models / Vers une approche discriminante pour la reconnaissance de mots manuscrits en-ligne utilisant des modèles de bi-caractères

Prum, Sophea 08 November 2013 (has links)
Avec l’avènement des dispositifs nomades tels que les smartphones et les tablettes, la reconnaissance automatique de l’écriture manuscrite cursive à partir d’un signal en ligne est devenue durant les dernières décennies un besoin réel de la vie quotidienne à l’ère numérique. Dans le cadre de cette thèse, nous proposons de nouvelles stratégies pour un système de reconnaissance de mots manuscrits en-ligne. Ce système se base sur une méthode collaborative segmentation/reconnaissance et en utilisant des analyses à deux niveaux : caractère et bi-caractères. Plus précisément, notre système repose sur une segmentation de mots manuscrits en graphèmes afin de créer un treillis à L niveaux. Chaque noeud de ce treillis est considéré comme un caractère potentiel envoyé à un moteur de Reconnaissance de Caractères Isolés (RCI) basé sur un SVM. Pour chaque noeud, ce dernier renvoie une liste de caractères associés à une liste d’estimations de probabilités de reconnaissance. Du fait de la grande diversité des informations résultant de la segmentation en graphèmes, en particulier à cause de la présence de morceaux de caractères et de ligatures, l’injection de chacun des noeuds du treillis dans le RCI engendre de potentielles ambiguïtés au niveau du caractère. Nous proposons de lever ces ambiguïtés en utilisant des modèles de bi-caractères, basés sur une régression logistique dont l’objectif est de vérifier la cohérence des informations à un niveau de reconnaissance plus élevé. Finalement, les résultats renvoyés par le RCI et l’analyse des modèles de bi-caractères sont utilisés dans la phase de décodage pour parcourir le treillis dans le but de trouver le chemin optimal associé à chaque mot dans le lexique. Deux méthodes de décodage sont proposées (recherche heuristique et programmation dynamique), la plus efficace étant basée sur de la programmation dynamique. / With the advent of mobile devices such as tablets and smartphones over the last decades, on-line handwriting recognition has become a very highly demanded service for daily life activities and professional applications. This thesis presents a new approach for on-line handwriting recognition. This approach is based on explicit segmentation/recognition integrated in a two level analysis system: character and bi-character. More specifically, our system segments a handwritten word in a sequence of graphemes to be then used to create a L-levels lattice of graphemes. Each node of the lattice is considered as a character to be submitted to a SVM based Isolated Character Recognizer (ICR). The ICR returns a list of potential character candidates, each of which is associated with an estimated recognition probability. However, each node of the lattice is a combination of various segmented graphemes. As a consequence, a node may contain some ambiguous information that cannot be handled by the ICR at character level analysis. We propose to solve this problem using "bi-character" models based on Logistic Regression, in order to verify the consistency of the information at a higher level of analysis. Finally, the recognition results provided by the ICR and the bi-character models are used in the word decoding stage, whose role is to find the optimal path in the lattice associated to each word in the lexicon. Two methods are presented for word decoding (heuristic search and dynamic programming), and dynamic programming is found to be the most effective.

Page generated in 0.0577 seconds