Spelling suggestions: "subject:"efficacité"" "subject:"fficacité""
651 |
Impact des pratiques de gestion pré-abattage sur la physiologie et qualité de la viande de lapin et de veau de grainLarivière-Lajoie, Anne-Sophie 05 November 2024 (has links)
Dans le contexte où la consommation de viande de lapin et de veau de grain est variable et relativement faible comparativement à d'autres viandes comme celle du bœuf, du porc et du poulet, la présence de ces viandes sur le marché demande de maintenir ou d'améliorer leur qualité. La qualité de la viande peut être influencée par plusieurs facteurs, dont la gestion pré-abattage (temps de jeûne, la durée du transport et le temps d'attente à l'abattoir). Une gestion pré-abattage inadéquate peut exposer les animaux à un stress incontrôlé avant l'abattage, pouvant mener à d'importants défauts de qualité de la viande. Cette qualité est bien définie dans la littérature pour certaines espèces animales telles que le porc et la volaille, mais pour le lapin et le veau de grain, les connaissances sont limitées. Ainsi, l'objectif de cette thèse était d'évaluer l'impact des différents défis et conditions particulières de la gestion pré-abattage spécifique au lapin et au veau de grain sur la physiologie et la qualité de la viande. Une attention particulière a été mise sur le jeûne pré-abattage pour le lapin et sur le transport pour le veau de grain en réponse aux besoins spécifiques de chaque secteur. Les résultats des trois premières études ont permis de démontrer qu'un temps de jeûne de 18 h serait optimal pour permettre une vidange gastrique adéquate et une excrétion limitée d'*Enterobacteriaceae* dans les fèces sans impact majeur sur la qualité de la viande de lapin tant en conditions expérimentales que commerciales. La première étude a tout d'abord permis de démontrer qu'un jeûne pré-abattage inférieur à 24 h, sans les effets de la mise en cage et du transport des animaux, n'est pas particulièrement stressant pour les lapins en contexte expérimental. Néanmoins, un jeûne de 18 h serait optimal, car la présence d'*Enterobacteriaceae* a été observée dans les fèces des lapins mâles après 18 et 22 h de jeûne. De plus, moins d'espèces totales ont été observées et celles-ci étaient moins uniformément réparties dans le microbiome fécal des lapins ayant des jeûnes plus longs. Toutefois, le nombre limité d'*Enterobacteriaceae* détectée dans les fèces des lapins suggère un risque d'excrétion plus faible comparativement à d'autres espèces animales telles que le porc et la volaille. Les résultats de la deuxième étude ont démontré que, lorsque les temps de transport et d'attente à l'abattoir sont courts (30 min chacun), un jeûne de 18 h permet une vidange gastrique adéquate sans effets majeurs sur la qualité de la viande. Le sexe des lapins a aussi eu un effet limité sur la qualité de la viande lorsque les lapins étaient abattus à un poids vif inférieur à 2,65 kg. Pour la troisième étude, le jeûne ayant donné les meilleurs résultats lors du deuxième essai (18 h) a été testé en conditions commerciales en en comparaison au jeûne effectué normalement par le producteur (23 h). Les résultats ont montré que les deux temps de jeûne pourraient être adéquats, compte tenu de l'impact minimal sur la qualité de la viande ainsi que sur les microbiomes du cæcum et des fèces. Pour les veaux de grain, comme des périodes relativement longues sont nécessaires chez les bovins pour observer des effets négatifs du jeûne sur la qualité de la viande, le besoin de recherche était plutôt au niveau de la longueur et des conditions de transport des animaux jusqu'à l'abattoir. La dernière étude a permis d'observer que la qualité de la viande des veaux de grain est acceptable pour un usage commercial, mais que certains facteurs intrinsèques reliés à l'animal et les conditions pré-abattage ont des impacts importants sur la qualité de la viande. Plus particulièrement, le sexe était le paramètre mesuré ayant eu le plus d'impact sur la qualité de la viande et que, pour le *longissimus* et le *pectoralis*, le pH ultime (pH$\mathsf{_{u}}$) était plus élevé pour les mâles. De plus, pour les veaux de grain transportés entre 8 et 307 min, une durée d'attente à l'abattoir inférieure à 120 min est préférable afin d'obtenir un pH$\mathsf{_{u}}$ du *longissimus* plus faible. Finalement, cette dernière étude a révélé que les paramètres pré-abattage étudiés ont eu un impact plus important sur la qualité de la viande du *longissimus* que sur celle du *pectoralis*. / Given the variable and relatively low consumption of rabbit and grain-fed calf meats compared to others like beef, pork, and chicken, maintaining or improving their quality is crucial to maintain their presence in the market. Meat quality attributes can be influenced by pre-slaughter management such as feed withdrawal time, transport duration and lairage time at the slaughterhouse. An inadequate pre-slaughter management can expose animals to uncontrolled stress before slaughter, potentially leading to meat quality defects. While pre-slaughter management is well-defined in the literature for some animal species like pigs and poultry, knowledge is limited for rabbits and veal calves. Therefore, the objective of this thesis was to evaluate the impact of different challenges and specific pre-slaughter management conditions for rabbits and grain-fed calves on blood and gastrointestinal tract parameters as well as meat quality. Particular attention was given to pre-slaughter feed withdrawal for rabbits and transport conditions and duration for grain-fed calves, addressing the specific needs of each sector. The results of the first three studies suggest that an 18 h feed withdrawal time (FWT) can allow the gut to empty properly and limits the excretion of *Enterobacteriaceae* in feces with limited effect on rabbit meat quality under both experimental and commercial conditions. The first study demonstrated that a preslaughter FWT shorter than 24 h, without the effects of crating and transport, is not particularly stressful for rabbits. However, an 18-h FWT would be optimal, as the presence of *Enterobacteriaceae* was observed in the feces of male rabbits after 18 and 22 h of FWT. Additionally, fewer total species were observed, and these were less evenly distributed in the fecal microbiome of rabbits with longer FWT. Nevertheless, the limited numbers detected suggest a lower risk of fecal shedding for rabbits compared to other animal species such as pigs and poultry. Nonetheless, longer FWTs could still present the risk of fecal shedding of those undesirable organisms and contaminate the carcass at slaughter. The results of the second study showed that when transport and lairage times are short (30 min each), an 18 h FWT can allow the gut to empty properly with limited effect on rabbit meat quality. Additionally, the impact of sex on meat quality is limited when rabbits are slaughtered at a live weight lower than 2.65 kg. For the third study, the FWT that yielded the best results in the second trial (18 h) was tested under commercial conditions in comparison to the FWT normally practiced by the producer (23 h). The results showed that both FWT could be adequate, considering the minimal impact on meat quality as well as on the cecum and feces microbiomes. For grain-fed calves, as relatively long periods are necessary for observing negative effects of feed withdrawal on meat quality, we focused on the duration and conditions of transport to the slaughterhouse. The fourth study observed that the meat quality of grain-fed calves is acceptable for commercial use, but certain intrinsic animal-related factors and pre-slaughter conditions have significant impacts on meat quality. More specifically, gender had the most significant impact on *pectoralis* and *longissimus* meat quality and meat ultimate pH (pH$\mathsf{_{u}}$), for both muscles, was higher for male calves compared to females (*P* < 0.001). Additionally, for calves transported between 8 and 307 min, a lairage time at the slaughterhouse shorter than 120 min is preferable to achieve a lower *longissimus* pH$\mathsf{_{u}}$. Finally, the preslaughter parameters evaluated in this study had a lesser impact on the *pectoralis* compared to the *longissimus* muscle.
|
652 |
Analyse de l'effet-maître sur le rendement scolaire des élèves du cours moyen 2e année (C.M.2) de l'enseignement primaire public au GabonNlep, Patric Antoine Christian 21 December 2021 (has links)
L'effet maître désigne l'influence des caractéristiques socioprofessionnelles et des pratiques pédagogiques des enseignants sur le rendement scolaire des élèves de CM2 dans la province de l'Estuaire au Gabon. Cet effet a été analysé en lui-même et en tenant compte d'un certain nombre de variables contextuelles comme le milieu d'implantation de l'école, la taille de la classe, le type de classe, régulière ou multigrade et la composition socioculturelle de la classe. En raison de la taille relativement limitée de notre population cible (soit 204 enseignants), notre échantillon se confond avec notre population. L'instrument de collecte des données fut le questionnaire. 204 questionnaires de 58 questions chacun ont été distribués et 143 ont été complétés pour un taux de réponse de 70,09%. Quatre types d'analyse ont été faites à savoir, l'analyse descriptive, l'analyse bivariée, l'analyse à trois variables et l'analyse de régression. Au terme de cette étude, il s'avère que l'expérience professionnelle de l'enseignant, les méthodes d'enseignement (actives), le fait de donner des exercices à la maison et la taille de la classe sont les facteurs qui prédisent le plus rendement scolaire.
|
653 |
Le rôle de la coordination d'équipe adaptative pendant la réanimation cardio-pulmonaire = : The Role of Adaptive Team Coordination during Cardiopulmonary Resuscitation / Role of Adaptive Team Coordination during Cardiopulmonary ResuscitationKramer, Chelsea 13 December 2024 (has links)
Plus de 200 000 patients en Amérique du Nord subissent un arrêt cardiaque à l’hôpital chaque année, mais moins de 25 % des patients survivent jusqu’à leur congé de l’hôpital. Lorsque le coeur aux battements arythmiques d’un patient ne parvient pas à faire circuler efficacement le sang, une équipe de secouristes procèdent à des interventions vitales définies en fonction d’algorithmes de réanimation cardiorespiratoire (RCR). Depuis l’adoption des lignes directrices de l’American Heart Association (AHA) il y a plus de 30 ans, les travaux de recherche ont principalement porté sur l’amélioration des taux de survie grâce à l’efficacité des tâches techniques de RCR. Au cours de la dernière décennie, une plus grande importance a été accordée aux facteurs associés à la performance d’équipe. Outre les facteurs propres au patient, les chances de survie dépendent du délai de traitement et de la qualité de la RCR que vient compliquer l’interaction de multiples intervenants qui tentent d’orchestrer des mesures de secours concurrentes. Ainsi, la coordination et le travail d’équipe inefficaces font partir des plus grands obstacles à une réanimation réussie en équipe. Dans le cadre de la présente thèse, la relation entre les différents mécanismes de coordination et le résultat technique de la RCR, mesurée en temps passif dans deux contextes de recherche empirique de réanimation simulée, a été mise à l’essai. Les résultats laissent croire que si l’action explicite constitue la caractéristique déterminante des mécanismes de coordination utilisés en réanimation cardiaque en équipe, les équipes qui performent le mieux coordonnent leurs activités de manière différente de celles qui performent le moins bien, et qu’il existe un lien important entre les tendances en matière de mécanismes de coordination et la réussite de la RCR, qui change en fonction des exigences de la tâche. Ces résultats combinés permettent d’établir un cadre de coordination proposé pour les soins de réanimation actifs et de proposer des aspects pratiques pour la formation en RCR et une contribution méthodologique aux futurs travaux de recherche. / In-hospital cardiac arrest affects over 200,000 patients in North America each year, but less than 25% of patients survive to hospital discharge. When a patient’s arrhythmic heart is unable to effectively circulate blood, a team of rescuers provide lifesaving interventions according to Cardiopulmonary Resuscitation (CPR) rescue algorithms. Since the inception of the American Heart Association (AHA) CPR guidelines over 30 years ago, research pursuits to improve survival rates have primarily focused on the technical tasks such as CPR technique. Over the past decade, there has been increased focus on team performance related to treatment delays and CPR quality, touting ineffective coordination and teamwork as some of the largest obstacles to successful team resuscitation. The objective of this work was to validate a proposed framework outlining the relationship among explicit and implicit coordination mechanisms required for successful CPR performance: minimal interruptions (hands-off ratio), rapid initiation of chest compressions and defibrillation. The framework was tested in two independent studies of simulated adult and pediatric resuscitation of in-hospital cardiac arrest. The results showed that while team performance improved over time, the main Explicit and Implicit coordination type patterns were stable. Instead, small shifts occurred within the Information and Action coordination sub-types. Explicit coordination was dominant throughout all resuscitation scenarios, but only Implicit coordination was associated with better hands-off ratio performance. In both studies, higher performing teams coordinated differently than lower performing teams and there was a significant relationship between the patterns of coordination mechanisms and CPR performance. The combined results are used to refine a proposed coordination framework for acute resuscitation care and propose practical implications for CPR training and methodological contribution for future research.
|
654 |
Contribution à la prise des décisions stratégiques dans le contrôle de la trypanosomiase humaine africaine Contribution to strategic decision making in human African trypanosomiasis controlLutumba, Pascal PL 29 November 2005 (has links)
RESUME
La Trypanosomiase Humain Africaine (THA) demeure un problème de santé publique pour plusieurs pays en Afrique subsaharienne. Le contrôle de la THA est basé essentiellement sur la stratégie de dépistage actif suivi du traitement des personnes infectées. Le dépistage actif est réalisé par des unités mobiles spécialisées, bien que les services de santé fixes jouent un rôle important en détectant « passivement » des cas. Le dépistage reposait jadis sur la palpation ganglionnaire mais, depuis le développement du test d’agglutination sur carte (CATT), trois possibilités se sont offertes aux programmes de contrôle à savoir: i) continuer avec la palpation ganglionnaire ii) combiner la palpation ganglionnaire avec le CATT iii) recourir au CATT seul. Certains programmes comme celui de la République Démocratique du Congo (RDC) ont opté pour la combinaison en parallèle de la palpation ganglionnaire avec le CATT. Toute personne ayant une hypertrophie ganglionnaire cervicale et/ou un CATT positif est considéré comme suspecte de la THA. Elle sera soumise aux tests parasitologiques de confirmation à cause de la toxicité des médicaments anti-THA. Les tests parasitologiques classiques sont l’examen du suc ganglionnaire (PG), l’examen du sang à l’état frais (SF), la goutte épaisse colorée (GE). La sensibilité de cette séquence a été estimée insuffisante par plusieurs auteurs et serait à la base d’une grande perte de l’efficacité de la stratégie dépistage-traitement. D’autres techniques de concentration ont été développées comme la mini-Anion Exchange Concentration Technique (mAECT), la Centrifugation en Tube Capillaire (CTC) et le Quantitative Buffy Coat (QBC), mais ces techniques de concentration ne sont pas utilisées en routine.
En RDC, une interruption des activités de contrôle en 1990 a eu comme conséquence une réémergence importante de la maladie du sommeil. Depuis 1998 les activités de contrôle ont été refinancées de manière structurée.
Ce travail vise deux buts à savoir le plaidoyer pour la continuité des activités de contrôle et la rationalisation des stratégies de contrôle. Nous avons évalué l’évolution de la maladie du sommeil en rapport avec le financement, son impact sur les ménages ainsi que la communauté. L’exercice de rationalisation a porté sur les outils de dépistage et de confirmation. Nous avons d’abord évalué la validité des tests, leur faisabilité ainsi que les coûts et ensuite nous avons effectué une analyse décisionnelle formelle pour comparer les algorithmes de dépistage et pour les tests de confirmation.
Pendant la période de refinancement structurel de la lutte contre la THA en RDC (1998-2003), le budget alloué aux activités a été doublé lorsqu’on le compare à la période précédente (1993-1997). Le nombre des personnes examinées a aussi doublé mais par contre le nombre des nouveaux cas de THA est passé d’un pic de 26 000 cas en 1998 à 11 000 en 2003. Le coût par personne examinée a été de 1,5 US$ et celui d’un cas détecté et sauvé à 300 US$. Pendant cette période, les activités ont été financées par l’aide extérieure à plus de 95%. Cette subvention pourrait laisser supposer que l’impact de la THA au niveau des ménages et des communautés est réduit mais lorsque nous avons abordé cet aspect, il s’est avéré que le coût de la THA au niveau des ménages équivaut à un mois de leur revenu et que la THA fait perdre 2145 DALYs dans la communauté. L’intervention par la stratégie de dépistage-traitement a permis de sauver 1408 DALYs à un coût de 17 US$ par DALYs sauvé. Ce coût classe l’intervention comme « good value for money ».
Le recours au CATT seul s’est avéré comme la stratégie la plus efficiente pour le dépistage actif. Le gain marginal lorsque l’on ajoute la palpation ganglionnaire en parallèle est minime et n’est pas compensé par le coût élevé lié à un nombre important des suspects soumis aux tests parasitologiques. Les techniques de concentration ont une bonne sensibilité et leur faisabilité est acceptable. Leur ajout à l’arbre classique améliore la sensibilité de 29 % pour la CTC et de 42% pour la mAECT. Le coût de la CTC a été de 0,76 € et celui de la mAECT de 2,82 €. Le SF a été estimé très peu sensible. L’algorithme PG- GE-CTC-mAECT a été le plus efficient avec 277 € par vie sauvée et un ratio de coût-efficacité marginal de 125 € par unité de vie supplémentaire sauvée. L’algorithme PG-GE-CATT titration avec traitement des personnes avec une parasitologie négative mais un CATT positif à un seuil de 1/8 devient compétitif lorsque la prévalence de la THA est élevée.
Il est donc possible dans le contexte actuel de réduire la prévalence de la THA mais à condition que les activités ne soient pas interrompues. Le recours à un algorithme recourant au CATT dans le dépistage actif et à la séquence PG-GE-CTC-mAECT est le plus efficient et une efficacité de 80%. La faisabilité et l’efficacité peut être différent d’un endroit à l’autre à cause de la focalisation de la THA. Il est donc nécessaire de réévaluer cet algorithme dans un autre foyer de THA en étude pilote avant de décider d’un changement de politique. Le recours à cet algorithme implique un financement supplémentaire et une volonté politique.
SUMMARY
Human African Trypanosomiasis (HAT) remains a major public health problem affecting several countries in sub-Saharan Africa. HAT control is essentially based on active case finding conducted by specialized mobile teams. In the past the population screening was based on neck gland palpation, but since the development of the Card Agglutination Test for Trypanosomiasis (CATT) three control options are available to the control program: i) neck gland palpation ii) CATT iii) neck gland palpation and CATT done in parallel . Certain programs such as the one in DRC opted for the latter, combining CATT and neck gland palpation. All persons having hypertrophy of the neck gland and/or a positive CATT test are considered to be a HAT suspect. Confirmation tests are necessary because the screening algorithms are not 100 % specific and HAT drugs are very toxic. The classic parasitological confirmation tests are lymph node puncture (LNP), fresh blood examination (FBE) and thick blood film (TBF). The sensitivity of this combination is considered insufficient by several authors and causes important losses of efficacy of the screening-treatment strategy. More sensitive concentration methods were developed such as the mini Anion Exchange Concentration Techniques (mAECT), Capillary Tube Centrifugation (CTC) and the Quantitative Buffy Coat (QBC), but they are not used on a routine basis. Main reasons put forward are low feasibility, high cost and long time of execution.
In the Democratic Republic of Congo, HAT control activities were suddenly interrupted in 1990 and this led to an important re-emergence or the epidemic. Since 1998 onwards, control activities were financed again in a structured way.
This works aims to be both a plea for the continuation of HAT control as well as a contribution to the rationalization of the control strategies. We analyzed the evolution of sleeping sickness in the light of its financing, and we studied its impact on the household and the community. We aimed at a rationalization of the use of the screening and confirmation tools. We first evaluated the validity of the tests, their feasibility and the cost and we did a formal decision analysis to compare screening and confirmation algorithms.
The budget allocated to control activities was doubled during the period when structural aid funding was again granted (1998-2003) compared with the period before (1993-1997). The number of persons examined per year doubled as well but the number of cases found peaked at 26 000 in 1998 and dropped to 11 000 in the period afterwards. The cost per person examined was 1.5 US$ and per case detected and saved was 300 US$. The activities were financed for 95 % by external donors during this period. This subvention could give the impression that the impact of HAT on the household and the household was limited but when we took a closer look at this aspect we found that the cost at household level amounted to one month of income and that HAT caused the loss of 2145 DALYs in the community. The intervention consisting of active case finding and treatment allowed to save 1408 DALY’s at a cost of 17 US$ per DALY, putting the intervention in the class of “good value for money”.
The use of CATT alone as screening test emerged as the most efficient strategy for active case finding. The marginal gain when neck gland palpation is added is minor and is not compensated by the high cost of doing the parasitological confirmation test on a high number of suspected cases. The concentration methods have a good sensitivity and acceptable feasibility. Adding them to the classical tree improves its sensitivity with 29 % for CTC and with 42 % for mAECT. The cost of CTC was 0.76 US$ and of mAECT was 2.82 US$. Sensitivity of fresh blood examination was poor. The algorithm LNP-TBF-CTC-mAECT was the most efficient costing 277 Euro per life saved and a marginal cost effectiveness ratio of 125 Euro per supplementary life saved. The algorithm LNP-TBF-CATT titration with treatment of persons with a negative parasitology but a CATT positive at a dilution of 1/8 and more becomes competitive when HAT prevalence is high.
We conclude that it is possible in the current RDC context to reduce HAT prevalence on condition that control activities are not interrupted. Using an algorithm that includes CATT in active case finding and the combination LNP-TBF-CTC-mAECT is the most efficient with an efficacy of 80 %. Feasibility and efficacy may differ from one place to another because HAT is very focalized, so it is necessary to test this novel algorithm in another HAT focus on a pilot basis, before deciding on a policy change. Implementation of this algorithm will require additional financial resources and political commitment.
|
655 |
Apprentissage machine efficace : théorie et pratiqueDelalleau, Olivier 03 1900 (has links)
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée).
Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre.
Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique. / Despite constant progress in terms of available computational power, memory and amount of data, machine learning algorithms need to be efficient in how they use them. Although minimizing cost is an obvious major concern, another motivation is to attempt to design algorithms that can learn as efficiently as intelligent species. This thesis tackles the problem of efficient learning through various papers dealing with a wide range of machine learning algorithms: this topic is seen both from the point of view of computational efficiency (processing power and memory required by the algorithms) and of statistical efficiency (n
umber of samples necessary to solve a given learning task).The first contribution of this thesis is in shedding light on various statistical inefficiencies in existing algorithms. Indeed, we show that decision trees do not generalize well on tasks with some particular properties (chapter 3), and that a similar flaw affects typical graph-based semi-supervised learning algorithms (chapter 5). This flaw is a form of curse of dimensionality that is specific to each of these algorithms. For a subclass of neural networks, called sum-product networks, we prove that using networks with a single hidden layer can be exponentially less efficient than when using deep networks (chapter 4). Our analyses help better understand some inherent flaws found in these algorithms, and steer research towards approaches that may potentially overcome them.
We also exhibit computational inefficiencies in popular graph-based semi-supervised learning algorithms (chapter 5) as well as in the learning of mixtures of Gaussians with missing data (chapter 6). In both cases we propose new algorithms that make it possible to scale to much larger datasets. The last two chapters also deal with computational efficiency, but in different ways. Chapter 7 presents a new view on the contrastive divergence algorithm (which has been used for efficient training of restricted Boltzmann machines). It provides additional insight on the reasons why this algorithm has been so successful. Finally, in chapter 8 we describe an application of machine learning to video games, where computational efficiency is tied to software and hardware engineering constraints which, although often ignored in research papers, are ubiquitous in practice.
|
656 |
UTBB FDSOI mosfet dynamic behavior study and modeling for ultra-low power RF and mm-Wave IC Design / Étude et modélisation du comportement dynamique du transistor MOS du type UTBB FDSOI pour la conception de circuits integrés analogiques à hautes fréquences et très basse consommationEl Ghouli, Salim 22 June 2018 (has links)
Ce travail de recherche a été principalement motivé par les avantages importants apportés par la technologie UTBB FDSOI aux applications analogiques et RF de faible puissance. L'objectif principal est d'étudier le comportement dynamique du transistor MOSFET du type UTBB FDSOI et de proposer des modèles prédictifs et des recommandations pour la conception de circuits intégrés RF, en mettant un accent particulier sur le régime d'inversion modérée. Après une brève analyse des progrès réalisés au niveau des architectures du transistor MOSFET, un état de l’art de la modélisation du transistor MOSFET UTBB FDSOI est établi. Les principaux effets physiques impliqués dans le transistor à double grille avec une épaisseur du film de 7 nm sont passés en revue, en particulier l’impact de la grille arrière, à l’aide de mesures et de simulations TCAD. La caractéristique gm/ID en basse fréquence et la caractéristique ym/ID proposée pour la haute fréquence sont étudiées et utilisées dans une conception analogique efficace. Enfin, le modèle NQS haute fréquence proposé reproduit les mesures dans toutes les conditions de polarisation y compris l’inversion modérée jusqu’à 110 GHz. / This research work has been motivated primarily by the significant advantages brought about by the UTBB FDSOI technology to the Low power Analog and RF applications. The main goal is to study the dynamic behavior of the UTBB FDSOI MOSFET in light of the recent technology advances and to propose predictive models and useful recommendations for RF IC design with particular emphasis on Moderate Inversion regime. After a brief review of progress in MOSFET architectures introduced in the semiconductor industry, a state-of-the-art UTBB FDSOI MOSFET modeling status is compiled. The main physical effects involved in the double gate transistor with a 7 nm thick film are reviewed, particularly the back gate impact, using measurements and TCAD. For better insight into the Weak Inversion and Moderate Inversion operations, both the low frequency gm/ID FoM and the proposed high frequency ym/ID FoM are studied and also used in an efficient first-cut analog design. Finally, a high frequency NQS model is developed and compared to DC and S-parameters measurements. The results show excellent agreement across all modes of operation including very low bias conditions and up to 110 GHz.
|
657 |
Apprentissage machine efficace : théorie et pratiqueDelalleau, Olivier 03 1900 (has links)
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée).
Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre.
Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique. / Despite constant progress in terms of available computational power, memory and amount of data, machine learning algorithms need to be efficient in how they use them. Although minimizing cost is an obvious major concern, another motivation is to attempt to design algorithms that can learn as efficiently as intelligent species. This thesis tackles the problem of efficient learning through various papers dealing with a wide range of machine learning algorithms: this topic is seen both from the point of view of computational efficiency (processing power and memory required by the algorithms) and of statistical efficiency (n
umber of samples necessary to solve a given learning task).The first contribution of this thesis is in shedding light on various statistical inefficiencies in existing algorithms. Indeed, we show that decision trees do not generalize well on tasks with some particular properties (chapter 3), and that a similar flaw affects typical graph-based semi-supervised learning algorithms (chapter 5). This flaw is a form of curse of dimensionality that is specific to each of these algorithms. For a subclass of neural networks, called sum-product networks, we prove that using networks with a single hidden layer can be exponentially less efficient than when using deep networks (chapter 4). Our analyses help better understand some inherent flaws found in these algorithms, and steer research towards approaches that may potentially overcome them.
We also exhibit computational inefficiencies in popular graph-based semi-supervised learning algorithms (chapter 5) as well as in the learning of mixtures of Gaussians with missing data (chapter 6). In both cases we propose new algorithms that make it possible to scale to much larger datasets. The last two chapters also deal with computational efficiency, but in different ways. Chapter 7 presents a new view on the contrastive divergence algorithm (which has been used for efficient training of restricted Boltzmann machines). It provides additional insight on the reasons why this algorithm has been so successful. Finally, in chapter 8 we describe an application of machine learning to video games, where computational efficiency is tied to software and hardware engineering constraints which, although often ignored in research papers, are ubiquitous in practice.
|
658 |
Apprentissage de stratégies de calcul adaptatives pour les réseaux neuronaux profondsKamanda, Aton 07 1900 (has links)
La théorie du processus dual stipule que la cognition humaine fonctionne selon deux modes distincts : l’un pour le traitement rapide, habituel et associatif, appelé communément "système 1" et le second, ayant un traitement plus lent, délibéré et contrôlé, que l’on nomme "système 2". Cette distinction indique une caractéristique sous-jacente importante de la cognition humaine : la possibilité de passer de manière adaptative à différentes stratégies de calcul selon la situation. Cette capacité est étudiée depuis longtemps dans différents domaines et de nombreux bénéfices hypothétiques semblent y être liés. Cependant, les réseaux neuronaux profonds sont souvent construits sans cette capacité à gérer leurs ressources calculatoires de manière optimale. Cette limitation des modèles actuels est d’autant plus préoccupante que de plus en plus de travaux récents semblent montrer une relation linéaire entre la capacité de calcul utilisé et les performances du modèle lors de la phase d’évaluation. Pour résoudre ce problème, ce mémoire propose différentes approches et étudie leurs impacts sur les modèles, tout d’abord, nous étudions un agent d’apprentissage par renforcement profond qui est capable d’allouer plus de calcul aux situations plus difficiles. Notre approche permet à l’agent d’adapter ses ressources computationnelles en fonction des exigences de la situation dans laquelle il se trouve, ce qui permet en plus d’améliorer le temps de calcul, améliore le transfert entre des tâches connexes et la capacité de généralisation. L’idée centrale commune à toutes nos approches est basée sur les théories du coût de l’effort venant de la littérature sur le contrôle cognitif qui stipule qu’en rendant l’utilisation de ressource cognitive couteuse pour l’agent et en lui laissant la possibilité de les allouer lors de ses décisions il va lui-même apprendre à déployer sa capacité de calcul de façon optimale. Ensuite, nous étudions des variations de la méthode sur une tâche référence d’apprentissage profond afin d’analyser précisément le comportement du modèle et quels sont précisément les bénéfices d’adopter une telle approche. Nous créons aussi notre propre tâche "Stroop MNIST" inspiré par le test de Stroop utilisé en psychologie afin de valider certaines hypothèses sur le comportement des réseaux neuronaux employant notre méthode. Nous finissons par mettre en lumière les liens forts qui existent entre apprentissage dual et les méthodes de distillation des connaissances. Notre approche a la particularité d’économiser des ressources computationnelles lors de la phase d’inférence. Enfin, dans la partie finale, nous concluons en mettant en lumière les contributions du mémoire, nous détaillons aussi des travaux futurs, nous approchons le problème avec les modèles basés sur l’énergie, en apprenant un paysage d’énergie lors de l’entrainement, le modèle peut ensuite lors de l’inférence employer une capacité de calcul dépendant de la difficulté de l’exemple auquel il fait face plutôt qu’une simple propagation avant fixe ayant systématiquement le même coût calculatoire. Bien qu’ayant eu des résultats expérimentaux infructueux, nous analysons les promesses que peuvent tenir une telle approche et nous émettons des hypothèses sur les améliorations potentielles à effectuer. Nous espérons, avec nos contributions, ouvrir la voie vers des algorithmes faisant un meilleur usage de leurs ressources computationnelles et devenant par conséquent plus efficace en termes de coût et de performance, ainsi que permettre une compréhension plus intime des liens qui existent entre certaines méthodes en apprentissage machine et la théorie du processus dual. / The dual-process theory states that human cognition operates in two distinct modes: one for rapid, habitual and associative processing, commonly referred to as "system 1", and the second, with slower, deliberate and controlled processing, which we call "system 2". This distinction points to an important underlying feature of human cognition: the ability to switch adaptively to different computational strategies depending on the situation. This ability has long been studied in various fields, and many hypothetical benefits seem to be linked to it. However, deep neural networks are often built without this ability to optimally manage their computational resources. This limitation of current models is all the more worrying as more and more recent work seems to show a linear relationship between the computational capacity used and model performance during the evaluation phase. To solve this problem, this thesis proposes different approaches and studies their impact on models. First, we study a deep reinforcement learning agent that is able to allocate more computation to more difficult situations. Our approach allows the agent to adapt its computational resources according to the demands of the situation in which it finds itself, which in addition to improving computation time, enhances transfer between related tasks and generalization capacity. The central idea common to all our approaches is based on cost-of-effort theories from the cognitive control literature, which stipulate that by making the use of cognitive resources costly for the agent, and allowing it to allocate them when making decisions, it will itself learn to deploy its computational capacity optimally. We then study variations of the method on a reference deep learning task, to analyze precisely how the model behaves and what the benefits of adopting such an approach are. We also create our own task "Stroop MNIST" inspired by the Stroop test used in psychology to validate certain hypotheses about the behavior of neural networks employing our method. We end by highlighting the strong links between dual learning and knowledge distillation methods. Finally, we approach the problem with energy-based models, by learning an energy landscape during training, the model can then during inference employ a computational capacity dependent on the difficulty of the example it is dealing with rather than a simple fixed forward propagation having systematically the same computational cost. Despite unsuccessful experimental results, we analyze the promise of such an approach and speculate on potential improvements. With our contributions, we hope to pave the way for algorithms that make better use of their computational resources, and thus become more efficient in terms of cost and performance, as well as providing a more intimate understanding of the links that exist between certain machine learning methods and dual process theory.
|
659 |
Trois essais sur les primes au travailBrouillette, Dany 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / Chacun des trois essais de cette thèse présente une analyse d'un programme de prime au travail : le Projet d'autosuffisance (PAS), la Prime au travail et la mesure Action emploi. La conclusion générale que l'on peut tirer est que ces trois programmes ont eu des effets positifs pour les participants. Les résultats du premier essai montrent que la participation au PAS a eu des effets positifs de court et de long terme sur la participation au marché du travail et sur les salaires des participants qui ont reçu la subvention. Les simulations du second essai montrent que l'introduction de la Prime au travail a eu des effets positifs en termes de participation au marché du travail à la marge extensive. En revanche, les simulations à la marge intensive montrent que les travailleurs à faibles revenus ont très peu d'incitation à augmenter leur effort de travail suite à l'introduction de la Prime au travail. Enfin, la participation à la mesure Action emploi a des effets de long terme négatifs sur la dépendance à l'aide sociale. Les prestataires qui ont reçu la subvention au cours d'un mois ou plus sont plus susceptibles de quitter l'aide sociale et moins susceptibles d'effectuer une transition vers l'aide sociale après leur participation.
|
660 |
Analyse économique et évaluation des pratiques du pharmacien d'officine : Application au dépistage d'une maladie chronique : Le syndrome d'apnées du sommeilPerraudin, Clémence 10 June 2013 (has links) (PDF)
Face aux problématiques d'accès, de désertification médicale et de qualité des soins, la loi " Hôpital, Patients, Santé, Territoires " (HPST), votée en 2009, représente un socle pour la réorganisation des soins primaires en France. L'accent est mis sur la collaboration entre les professionnels de santé et l'optimisation des compétences de chacun. Le pharmacien d'officine se trouve au coeur de cette loi. Grâce à son accessibilité, sa formation et sa proximité avec les patients sains comme malades, il voit l'opportunité d'étendre ses pratiques au-delà de la simple dispensation des médicaments en fournissant directement des soins au patient. Cette proposition n'est pas une exception française mais s'inspire des expériences internationales et du concept de " soins pharmaceutiques ". Le pharmacien écossais peut désormais être payé à la capitation pour délivrer des consultations pharmaceutiques lors du renouvellement d'ordonnance au patient atteint de maladie chronique; le pharmacien anglais peut prescrire des médicaments dans le cadre d'un plan de gestion clinique et recevoir un honoraire de dispensation; le pharmacien suisse peut organiser des réunions de discussion avec les médecins; et le pharmacien portugais peut vacciner son patient au sein de l'officine. Les illustrations de la diversification des pratiques du pharmacien d'officine sont donc variées et se replacent dans leur contexte national. L'enjeu est aujourd'hui de comprendre les conditions et les effets d'un ensemble d'innovations techniques, organisationnelles et sociales qui pourraient être en faveur du développement des soins pharmaceutiques en France. Ce travail de thèse a pour objectif de nourrir les débats autour de cette problématique. Un état des lieux de la profession en France et une enquête d'opinion auprès des futurs pharmaciens montrent que le contexte sanitaire, professionnel, économique est propice au développement des pratiques du pharmacien et que l'avenir des soins pharmaceutiques trouve un écho favorable auprès des pharmaciens de demain. Cependant, nombreux sont les facteurs qui peuvent constituer des obstacles à leur diffusion (Chapitres 1 et 2). D'un point de vue économique, d'après une revue de littérature systématique sur l'efficience des soins pharmaceutiques en Europe, les services de surveillance médicamenteuse, de médication officinale, de collaboration entre les professionnels de santé et de promotion de la santé pourraient être, dans certaines conditions, des interventions coût-efficaces d'un point de vue collectif (Chapitre 3). Mais qu'en est-il en France ? On ne dispose pas de travaux sur le sujet. Deux travaux originaux - une étude de cohorte (exposés/non exposés) et une analyse coût-efficacité -, que nous avons menés, se focalisant sur l'implication du pharmacien d'officine dans le dépistage d'une maladie chronique (le syndrome d'apnées du sommeil) montrent que les coûts engendrés par la mise en place d'une telle intervention sont sous certaines conditions compensés par les gains générés, et les résultats sont en faveur de l'implantation du service en pratique de routine (Chapitre 4).
|
Page generated in 0.0501 seconds