• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • Tagged with
  • 15
  • 15
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Étude de certaines mesures d'association multivariées et d'un test de dépendance extrémale fondés sur les rangs

Ben Ghorbal, Noomen 17 April 2018 (has links)
Cette thèse contribue à la modélisation de la dépendance stochastique par la théorie des copules et la statistique non paramétrique. Elle s'appuie sur trois articles rédigés avec mes directeurs de thèse, M. Christian Genest et Mme Johanna Neslehovâ. Le premier article, intitulé ± On the Ghoudi, Khoudraji, and Rivest test for extreme-value dependence, ¿ a été publié en 2009 dans La revue canadienne de statistique, vol. 37, no 4, pp. 534-552. Le second article, intitulé ± Spearman's footrule and Gini's gamma : A review with complements, ¿ paraîtra sous peu dans le Journal of Nonparametric Statistics. Le troisième article, intitulé ± Estimators based on Kendall's tau in multivariate copula models, ¿ est en cours d'évaluation.
2

Résolution du problème d'allocation optimale de ressources multiples à l'aide d'un algorithme génétique

Ben Jabeur, Marouene 16 April 2018 (has links)
Les opérations de recherche et de sauvetage font partie des activités humanitaires que le gouvernement canadien offre. Ces opérations doivent être mises à la disposition de tous les vols aériens dans un espace de plus de vingt millions de kilomètres carrés et de tous les bateaux naviguant dans les eaux maritimes du gouvernement fédéral dont les océans, le fleuve Saint-Laurent et les Grands Lacs. L'ultime objectif que se fixe le gouvernement canadien en mettant à l'oeuvre ce genre d'opérations consiste à "prévenir les pertes de vie et les blessures en utilisant les ressources privées et publiques pour alerter, répondre et aider dans les situations de détresse". Leur travail, humanitaire, consiste à trouver un objet perdu dans les meilleurs délais afin de ne pas risquer de perdre des vies. Ce but pourrait être atteint si l'on arrive à trouver un moyen d'affecter d'une manière optimale les ressources dont on dispose à des secteurs sur lesquels les opérations de recherche vont être effectuées. L'objectif de nos travaux est d'examiner de plus près et d'essayer de résoudre le problème d'allocation de ressources multiples que vivent les centres de coordination des opérations de recherche et de sauvetage. Ce problème se résume à mettre en place un plan d'affectation des ressources à des zones de recherche permettant de maximiser l'efficience de leurs utilisations et d'augmenter les chances de trouver des survivants en peu de temps. Pour ce faire, nous définissons un algorithme génétique capable de trouver une solution au problème à résoudre. Ensuite, nous adapterons la solution proposée afin de prendre en charge et manipuler les contraintes imposées par le problème. Lors de nos expérimentations, nous avons cherché à améliorer la performance et l'efficacité de notre algorithme en y introduisant plusieurs méthodes basées sur le principe de la satisfaction des contraintes. Notre bilan nous indique que nos meilleurs résultats sont obtenus en mettant en place un algorithme génétique dont le fonctionnement des opérateurs de reproduction ne tolère aucune violation de contraintes. En les comparant à ceux obtenus en résolvant le problème par l'approche d'optimisation combinatoire, nous avons constaté qu'on n'a pas pu égaler le niveau de succès atteint. Ceci est dû à l'aspect aléatoire sur lequel les algorithmes génétiques se basent pour parcourir l'espace de recherche, sélectionner et améliorer une solution.
3

Comparaison expérimentale de la thermographie modulée et de la thermographie pulsée pour l'évaluation non destructive des matériaux employés en aérospatial

Ben Larbi, Wael 16 April 2018 (has links)
Ce mémoire a pour but de comparer deux méthodes de contrôle non destructif : la thermographie modulée et la thermographie puisée, l'étude a été faite sur différents échantillons utilisés dans la construction aéronautique et est présentée sous forme de comparaison quantitative et qualitative, avec une explication des avantages et des inconvénients de chaque méthode.
4

Étude des caractéristiques physico-chimiques des membranes sicopion

Ben Yakhlef, Sonia 16 April 2018 (has links)
Dans certains procédés électromembranaires tels que les piles à combustibles des agents agresseurs chimiques comme les radicaux libres se forment suite à une réaction d'oxydation, et peuvent conduire à la destruction des membranes hydrocarbonées. Le test ORAC est une méthode qui utilise les composés ±azo¿ (R-N=N-R) comme initiateurs de réaction. Ces composés sont utiles à l' étude quantitative des cinétiques d'oxydation car ils génèrent des radicaux à une vitesse constante et reproductible. L'ajout d'un antioxydant naturel extrait d'une infusion de thé, l'épigallocatéchine gallate (EGCG), dans une membrane constituée de polyétheréthercétone de faible taux de sulfonation (SPEEK) (3:97) a montré une réponse ORAC de 1254 ± 336 [mu]mol d' équivalents de Trolox / g comparé à la même membrane sans EGCG qui a donné une réponse de 59 ± 14 [mu]mol d'équivalents de Trolox / g. La molécule d'EGCG possède un pouvoir antioxydant élevé, suggérant qu' elle serait responsable de la réponse ORAC élevée de la membrane enrichie.
5

Commutation de packets optiques avec reconnaissance des étiquettes de poids-2 par mélange à quatre ondes

Ben M'Sallem, Yousra 13 April 2018 (has links)
Dans ce mémoire, nous démontrons expérimentalement une alternative aux traitements complexes associés à l'échange des étiquettes dans les réseaux GMPLS. En se basant sur un multiplexage temporel d'étiquettes muIti-longueurs d'onde de poids-2, nous étudions une structure de réseaux permettant un routage optique des paquets. Nous adoptons donc une solution optique simple, à bas prix et pratique tout en assurant un débit binaire élevé et une bonne fiabilité. Nous exploitons une technique de reconnaIssance des étiquettes multi-Iongueurs d'onde M-À de poids-2 en utilisant l'allocation de mélange à quatre ondes (FWM) et un filtrage optique sélectif. Au niveau des noeuds de transmission, les étiquettes sont séparées en utilisant un réseau de Bragg (FBG) avec une réflexion élevée. Quant aux produits de FWM, ils sont générés en utilisant un amplificateur optique à semi-conducteur (SOA) fortement non-linéaire. Ainsi, avec ce montage, on a pu montrer la fiabilité de la structure proposée en réalisant une transmission réussie et sans erreur de paquets contenant deux étiquettes M-À de poids-2 à travers un réseau à deux noeuds. En effet, la pénalité .en puissance est moins de 1.5 dB pour assurer la transmission sans erreur du payload (BER < 101°) à travers tout le réseau.
6

Reconnaissance invariante sous tranformations d'intensité : étude de performances

Ben Tara, Walid 13 April 2018 (has links)
On présente dans ce qui suit une étude détaillée de la performance du LACIF (locally adaptive contrast invariant filter), qui est à la base un filtre non linéaire invariant sous transformation linéaire d'intensité de la forme± af(x, y) + bO(x, y) ¿, où± f(x, y) ¿est l'objet à reconnaitre et± O(x, y) ¿ son support. ± a ¿ et ± b ¿ sont respectivement les facteurs multiplicatif et additif du changement d'intensité. Ainsi l'étude de performance est établie sous différents aspects et par le biais de différents outils qu'on a adopté tout au long de ce mémoire.
7

Modélisation de la tendance de l'opinion publique à partir de la sphère digitale

Ben Ayed, Slim 16 April 2018 (has links)
Au niveau de notre étude, nous avons comparé la performance de prévision de plusieurs modèles statistique de prévisions, modèles simples et modèles sophistiqués. Pour atteindre notre bute nous avons utilisé le ± MAPE ¿ comme mesure de précision des prédictions pour voir le quel de ces modèles est la plus appropriés à fournir les meilleures prévisions de l'opinion publique. Pour le faire nous nous somme basé sur une liste de données composée de séries chronologiques gracieusement fourni par Swammer. Ces séries comportent des données journalières couvrant la campagne présidentielle de France de 2007. Nous résultats montrent clairement que les méthodes statistiques simples ont un pouvoir de prédiction plus important que celui des méthodes sophistiquées pour un horizon de prédiction à très court terme. Nous constatons aussi que pour un horizon de prévision un peu plus long la méthode paramétrique de la régression robuste non linéaire représente la meilleure perspective de prévision parmi tous les modèles étudiés. Nous concluons ainsi que les méthodes statistiques sophistiquées ont un pouvoir de prédiction plus élevé que ce lui des méthodes statistiques simples pour un horizon de prévision un peu plus long que le très court terme.
8

Étude de l'impact des méthodes de séchage sur la qualité nutritionnelle et physico-chimique des poudres de fromage gouda

Ben Abdelkader, Houcine 18 April 2018 (has links)
Les ingrédients fromagers peuvent représenter jusqu'à 50% de la production de fromage. Parmi eux, ceux en poudre ont des avantages dus à leur convenance d'usage dans les aliments fabriqués ainsi qu'une durée de vie prolongée. Les méthodes de séchage par atomisation ou à l'air chaud, opérant en présence d'oxygène à des conditions drastiques de température, restent encore celles utilisées en industrie pour la production des poudres de fromage malgré les risques associés à la détérioration de la qualité du produit. L'effet de la méthode de séchage et des conditions d'opération sur la cinétique de déshydratation et la qualité finale de la poudre de Gouda a été étudié à partir du fromage râpé ou en emulsion. Une emulsion a été produite en mélangeant du fromage Gouda (40%) avec de l'eau distillée (57.5%) et des sels émulsifiants (2.5%). D'autre part, le fromage a été râpé à une épaisseur de 2 mm. Le fromage en emulsion ou râpé a été séché par atomisation, à l'air chaud et par lyophilisation. Le séchage par atomisation a été réalisé selon les conditions opératoires suivantes : températures d'entrée et de sortie de l'air de 180-200°C et 80-110°C, respectivement, des débits du produit entre 1.4 et 2.3 kg/h. Pour le séchage par air chaud, celui-ci a été réalisé selon les conditions suivantes : température de l'air de 50-70°C avec une vitesse de flux d'air de lm/s. Le séchage par lyophilisation a été réalisé comme suit : les échantillons ont été congelés à -40°C et déshydratés à une température de 25 et 50°C sous vide. La qualité des poudres obtenues à partir des différentes méthodes de séchage a été caractérisée selon plusieurs paramètres tels que la teneur en acide linoléique conjuguée (ALC), l'indice de peroxyde, la mouillabilité, la couleur, l'indice d'insolubilité, la masse volumique en vrac et tassée, leur granulométrie, l'écoulement, la température de transition vitreuse (Tg) et les isothermes de sorption. Les résultats obtenus ont montré que la meilleure qualité nutritionnelle et physico-chimique de la poudre du fromage Gouda a été obtenue par lyophilisation de 1'emulsion à 25 °C. En effet, son indice de peroxyde n'était que de 0.145 ± 0.023 ml O₂/kg de lipides, un temps de mouillabilité de 2.17 ± 0.055 min et un indice d'insolubilité de 0.6 ±0.18 ml. Cette poudre a une bonne aptitude au tassement et un excellent comportement d'écoulement. Ces résultats suggèrent que la lyophilisation constitue un procédé prometteur pour la production de poudre de fromage.
9

Présence de l'asymétrie informationnelle sur le marché de l'assurance automobile

Ben Hamouda, Mehdi 16 April 2018 (has links)
Ce mémoire traite de l'asymétrie informationnelle sur le marché de l'assurance automobile. Elle s'y présente sous deux formes : la sélection adverse et l'aléa moral. Face à cette asymétrie, l'assureur a mis en place divers mécanismes incitatifs (audit, classification de risques, système bonus-malus et contrats avec franchise). Nous tentons, dans un premier temps, par une approche empirique, de vérifier l'efficacité de ces mécanismes pour réduire les deux formes d'asymétrie. Ensuite, par une approche théorique, nous analysons l'impact de la présence d'asymétrie sur l'équilibre du marché d'assurance automobile en situation de monopole ou en situation de concurrence. Les résultats montrent que certains mécanismes sont efficaces pour réduire, voire éliminer, l'asymétrie informationnelle. Nous notons aussi que, en comparaison avec un marché où l'information est symétrique, dans la plupart des cas, à l'équilibre, c'est l'assuré à faible risque qui souffre de la présence de l'asymétrie informationnelle.
10

Évaluation du potentiel des interactions protéine-polysaccharide pour l'extraction du TGF-β2 à partir de substrats laitiers

Ben Ounis, Wassef. 16 April 2018 (has links)
Le TGF-β2 (Transforming Growth Factor-β2) est un facteur de croissance dont les activités biologiques sont nombreuses et que l'on retrouve en concentration relativement élevée dans certains isolats de protéines de lactosérum (IPLs). Bien que plusieurs travaux aient démontré le potentiel nutraceutique d'extraits laitiers enrichis en TGF-β2, peu d'études ont porté sur la concentration du TGF-β2 à partir d'IPLs. Ce projet visait donc à développer de nouvelles approches d'extraction du TGF-β2 à partir d'IPLs en se basant sur la formation de complexes protéine-polysaccharide. La chromatographie d'affinité ayant comme ligand le sulfate d'héparine a été utilisée pour concentrer les facteurs de croissance à partir d'un IPL. Des dosages immunologiques ont démontré que cette approche permettait de concentrer le TGF-β2, l'IGF-I (Insulin-like Growth Factor-I) et la lactoferrine par des facteurs de 10, 23 et 31, respectivement. Une analyse en électrophorèse sur gel 2D a aussi permis de détecter la présence de nombreuses protéines mineures reconnues pour leur bioactivité. La microfiltration a ensuite été étudiée en vue de séparer le TGF-β2 d'un IPL suivant sa complexation avec du carraghénane-[delta]. Pour ces essais, trois pH et deux forces ioniques ont été comparés en mode recirculation. Les résultats ont montré qu'à pH 7, sans l'ajout de sel ou de carraghénane-[delta], la transmission des protéines était de 72%, alors que celle du TGF-β2 était de 26%. Avec cette approche, le TGF-β2 a été concentré par un facteur inférieur à 2. La dernière approche consistait plutôt à complexer les protéines anioniques d'un IPL avec du chitosane, un polysaccharide cationique, puis à séparer les complexes par centrifugation en vue d'obtenir un surnageant enrichi en TGF-β2. Toutefois, la majorité des protéines sont demeurées dans le surnageant en présence du TGF-β2. Dans le culot, le TGF-β2 a été concentré par un facteur de seulement 1,14. Une analyse par SDS-PAGE a révélé que la p-lactoglobuline et le glycomacropeptide semblaient interagir avec le chitosane. Ces résultats supportent l'hypothèse que les interactions protéine-polysaccharide pourraient permettre de produire des fractions enrichies en TGF-β2. Toutefois, les approches et conditions évaluées dans cette étude ont mené à des taux d'enrichissement en TGF-β2 relativement faibles, limittant ainsi leur potentiel de mise à l'échelle industrielle.

Page generated in 0.0441 seconds