1 |
Analysis of racial bias in Northpointe's COMPAS algorithmJanuary 2019 (has links)
archives@tulane.edu / This study will evaluate the effectiveness and validity of an algorithm that is widely used in
the criminal justice system. In the year 2000, Northpointe introduced a risk assessment algorithm,
called Correctional Offender Management Profiling for Alternative Sanctions, often referred to as
COMPAS, in attempt to optimize the pretrial and sentencing stages of the process. COMPAS
computes scores for defendants and these scores assist judges in deciding jail terms, sentencing,
and probation. Some argue that such algorithms are more accurate and less biased than humans,
but COMPAS has been highly criticized for perpetuating the systemic racial bias that is currently
present in the criminal justice system.
This analysis will test the logical bases of the algorithm and its predictive ability. The results
of this analysis cast doubt on the usefulness of the COMPAS algorithm if fairness is the goal of the
criminal justice system.
A logistic regression analysis will show that the two most important variables for predicting
recidivism are a defendant’s age and the number of prior offenses committed. A linear model using
only these two predictors will be shown to yield better predictive accuracy than COMPAS. The
analysis will also show that COMPAS scores were unevenly distributed between different racial
groups. In general, African Americans were more likely than Caucasians to be given higher scores
regardless of their recidivism rates. Further, more frequently than Caucasians, African Americans
who were assigned lower scores did not recidivate. / 1 / Adrienne Brackey
|
2 |
Computer Anxiety Among Virginia Cooperative Extension Field PersonnelMartin, Brenda L. 15 April 1998 (has links)
Extension professionals must have easy access to and knowledge of emerging technologies to deliver programs more efficiently and effectively. With the increasing use of computer technology comes an increasing number of individuals who have computer anxiety. This study examined selected variables as predictors of computer anxiety. Data were collected from 402 Virginia Cooperative Extension field personnel. The personnel included Agricultural and Natural Resources agents, Family and Consumer Sciences agents, 4-H agents, technicians, and secretaries. A modified version of Oetting's 1983 Computer Anxiety Scale (COMPAS) was used to determine the computer anxiety levels. For this instrument, an internal consistency reliability of Cronbach's alpha r = .95 resulted from this study. The survey results were analyzed using the Statistical Package for the Social Sciences (SPSS). The overall mean score for the respondents to this study was 101.68, on a 200 point scale, which was interpreted using the COMPAS manual to indicate that only 20% of the Virginia Cooperative Extension personnel were "anxious" or "very anxious." Regression analysis indicated that time per day using a computer, years with Extension, and age were the significant variables related to anxiety. Increased computer use reduced but did not entirely eliminate computer anxiety.
A profile of a respondent who was relaxed about computer use included being age 20 to 29, a secretary, and using a computer more than two hours per day. A person anxious about computer use was middle aged (40 and over), a technician, and used the computer less than two hours per day. The results indicated that the more a respondent used the computer per day the less anxious they were. A large number of personnel used the computer to compile and produce educational material and to communicate with colleagues.
The Virginia Cooperative Extension administration should direct their attention regarding computer training to respondents who are 40 years of age and older and are technicians. To reduce computer anxiety, personnel should be provided with in-service training emphasizing computer applications.
Additional research could identify why technicians have higher levels of computer anxiety. Further study could identify other variables that may be related to computer anxiety. / Ph. D.
|
3 |
Lost in translation: Regulating profiling within the GDPR while upholding the dynamic law. / Risker med översättning: Att reglera profilering inom GDPR medan en dynamisk lag upprätthålls.Larsson-Steglind, Selma January 2022 (has links)
No description available.
|
4 |
公平貿易反傾銷稅的訂定:以中國毛巾傾銷案為例 / Anti-dumping duty under fair trade rule:An application on the import of Chinese towels林佩瑩 Unknown Date (has links)
在推展全球化貿易下,面對市場逐漸開放之際,世界貿易組織為了減緩世界各國貿易自由化過程中所受到衝擊,允許會員國實施暫時性的保護措施,以矯正不公平貿易行為,其中又以反傾銷制度最為重要,為各國最常採用方式,但卻造成已開發國家如美國、歐盟過度濫用反傾銷措施,致過度保護本國產業。因此本研究以中國毛巾傾銷案作為研究對象,並運用美國國際貿易委員會所發展的COMPAS模型,來探討中國毛巾傾銷行為對我國毛巾產業之影響。除此之外,由於各國對於反傾銷稅的課徵是否過高頗有爭議,本研究因此進一步檢視我國在中國毛巾傾銷案中所課徵之反傾銷稅稅率是否過高?是否符合WTO反傾銷協定「公平貿易」之規範?若不符合,則在滿足「公平貿易」的前提下,其稅率訂定應該為何?
由實證結果顯示,整體而言,傾銷對我國國內同類產品的產出、價格與收益,確實有負面的影響,國內市場佔有率則因受到低價傾銷進口品的替代,而呈現逐年下滑趨勢。在反傾銷稅課徵方面,在目前課徵稅率下(204.1%),確實可為國內廠商帶來正面的影響,然而本研究發現目前課徵稅率過高,而可能導致過度保護本國廠商,進而違反WTO「公平貿易」之規範。若將目前所課徵的稅率調降為符合「公平貿易」規範下之稅率(75.7%),其稅額會較採用傾銷差額課徵為低,不僅符合WTO 「較低稅率原則」,同時也可避免過度保護本國產業,對於整體社會福利之損失也較小。因此,本研究對政策的建議是反傾銷稅率訂定除了參考傾銷差率外,更須考量國內廠商之受損害程度,以課徵足以消除國內產業所受損害之稅率即可,來減少因稅賦所帶來之扭曲以及對國際貿易損害,而進一步傷害社會福利。 / At the same time of expanding global trade and increasing openness of the market, World Trade Organization (WTO) has been trying to decrease the impacts on Members during the process of liberalization and has permitted Members to practice temporary measures of protection and to correct unfair trade. Among these measures, anti-dumping is the most important and common one. However, it has abused by several developed countries, such as the USA and European Union (EU), which lead to over-protection of their domestic industries. Therefore, the research chooses the dumping case of Chinese towels as its subject and applies a model of Commercial Policy Analysis System (COMPAS) developed by United States International Trade Commission to evaluate the impacts on domestic towel industry due to import dumping from China. In addition, it is still controversial over the levels of antidumping duty to remain fair trade. Thus, the research will estimate further that if the rate of the present anti-dumping duty on the dumping case of Chinese towels is overrated or meets the principles of “fair trade” under WTO Anti-Dumping Agreement. Besides, if it is not, what is the rate should be to meet the principles of “fair trade” under WTO.
The empirical results showed that dumping does have a negative impact on the price, output, and revenue of the domestic industry. The domestic market share has been decreasing year after year because of the substitute effect from dumped imports. As for imposing anti-dumping duty, the empirical results indicate that imposing anti-dumping duty under the present duty rate (204.1%) has a positive effect on domestic industry. However, according to the finding of this research, the present duty rate is too high. Overcharging of the anti-dumping duty could lead to over-protection of domestic industry and to further violation of the principles of “fair trade” under WTO. If the present duty rate can be reduced to meet the principles of “fair trade” (the rate is 75.7%), the tax will be less than the dumping margin. At the same time, it will conform to the“lesser duty rule”under WTO, avoid over-protection of domestic industry and contribute the minimum loss to the social welfare. Hence, this research suggests that the government imposing anti-dumping duty rate should refer to the dumping margin and evaluate the depth of injury to domestic firms. It should only impose an appropriate duty to remove the injury to domestic industry. It is significant to reduce the distortion of the tax and the injury to the international trade, and further harm of social welfare.
|
5 |
Les instruments mathématiques historiques : pour une plus grande utilisation de l'histoire dans l'enseignement des mathématiquesBertrand, Joanne 05 1900 (has links) (PDF)
Le but principal de ce travail est de fournir des outils concrets aux enseignants afin de favoriser une plus grande utilisation de l'histoire dans l'enseignement des mathématiques. Pour ce faire, nous avons réuni plusieurs activités basées sur des instruments mathématiques historiques. Comme nous croyons qu'un des liens les plus évidents entre les mathématiques et notre société est celui existant entre la navigation et l'astronomie et par le fait même, la géométrie, nous nous attardons principalement à plusieurs instruments mathématiques historiques qui, pour la plupart, ont un lien avec l'astronomie et la navigation. Nous nous attardons également à quelques instruments qui ont un lien moins direct avec l'astronomie et la navigation. Cependant, certains d'entre eux se prêtent facilement à des activités ayant un côté ludique indéniable. Les activités avec la règle et le compas à partir d'extraits de textes anciens de Bion (1723) en sont un bon exemple. Pour chaque instrument, nous faisons une description, parlons de son origine en le mettant dans son contexte historique autant que faire se peut, et proposons des activités à faire avec des élèves. Les activités proposées, qui sont le cœur de notre travail, sont détaillées de façon assez exhaustive afin que le travail d'adaptation nécessaire pour les réaliser soit minime. Nous pensons réellement que leur réalisation permet d'utiliser l'histoire dans l'enseignement des mathématiques d'une façon intéressante et dynamique. Les activités en lien avec les instruments mathématiques historiques ont cependant été séparées en deux chapitres. Dans le chapitre III, nous avons réuni les activités en lien avec le compas de proportion et le bâton de Jacob. Pour chacune des activités, nous avons mis à la fin une étape intitulée Tout au long de l'activité. Dans cette dernière étape, nous avons tenté de préciser une grande quantité de détails ou de questions auxquelles il serait important de porter attention lors du déroulement de chaque activité. Dans le chapitre IV, nous avons réuni des activités en lien avec le compas et la règle, le bâton de Gerbert, le quadrant, la sphère armillaire, l'astrolabe et le cadran solaire. La seule différence dans ce chapitre, c'est que la dernière étape de chacune des activités, intitulée Tout au long de l'activité, n'a pas été développée comme c'est le cas dans le chapitre III.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : astrolabe, bâton de Gerbert, bâton de Jacob, cadran solaire, compas, compas de proportion, enseignement, histoire, historique, instrument, mathématique, quadrant, sphère armillaire
|
6 |
Optimisation structurelle des gridshellsBouhaya, Lina 14 December 2010 (has links) (PDF)
Le terme gridshell désigne une coque discrète qui est obtenue par déformation élastique d'une grille bidirectionnelle continue plane sans rigidité en cisaillement puis rigidifiée par une troisième direction de barres. Ainsi défini, un gridshell a un potentiel structural intéressant et peut répondre à des exigences architecturales complexes. La recherche de forme de ces structures a été menée à travers l'histoire principalement par deux méthodes, la méthode du filet inversé et la relaxation dynamique. Ces deux méthodes permettent d'obtenir une forme approchée de celle proposée par l'architecte, dérivant d'une grille à plat et de conditions aux limites partiellement ou complètement imposées. Dans le cadre de cette thèse, nous nous sommes intéressés à générer un gridshell sur une surface à forme et contours imposés. Un outil numérique se basant sur la méthode du compas a été développé. Il permet de mailler un réseau de Tchebychev sur une surface connaissant son équation cartésienne. Un autre outil permettant le maillage se basant sur un calcul en éléments finis explicite a été mis en œuvre. La particularité de cette technique est de pouvoir tenir en compte des propriétés mécaniques de la structure et de simuler le comportement du gridshell. Des applications des deux méthodes sur des formes architecturalement intéressantes ont permis de voir les limitations de la possibilité de mailler une forme avec un réseau de Tchebychev. La méthode du compas a ensuite été couplée à des algorithmes métaheuristiques types génétiques. L'algorithme résultant permet d'optimiser un gridshell en minimisant la courbure dans les barres et donc les contraintes dans la structure introduites lors de la mise en forme. Il a été mis en œuvre et testé pour plusieurs surfaces
|
7 |
Optimisation structurelle des gridshells / Structural optimization of GridshellsBouhaya, Lina 14 December 2010 (has links)
Le terme gridshell désigne une coque discrète qui est obtenue par déformation élastique d'une grille bidirectionnelle continue plane sans rigidité en cisaillement puis rigidifiée par une troisième direction de barres. Ainsi défini, un gridshell a un potentiel structural intéressant et peut répondre à des exigences architecturales complexes. La recherche de forme de ces structures a été menée à travers l'histoire principalement par deux méthodes, la méthode du filet inversé et la relaxation dynamique. Ces deux méthodes permettent d'obtenir une forme approchée de celle proposée par l'architecte, dérivant d'une grille à plat et de conditions aux limites partiellement ou complètement imposées. Dans le cadre de cette thèse, nous nous sommes intéressés à générer un gridshell sur une surface à forme et contours imposés. Un outil numérique se basant sur la méthode du compas a été développé. Il permet de mailler un réseau de Tchebychev sur une surface connaissant son équation cartésienne. Un autre outil permettant le maillage se basant sur un calcul en éléments finis explicite a été mis en œuvre. La particularité de cette technique est de pouvoir tenir en compte des propriétés mécaniques de la structure et de simuler le comportement du gridshell. Des applications des deux méthodes sur des formes architecturalement intéressantes ont permis de voir les limitations de la possibilité de mailler une forme avec un réseau de Tchebychev. La méthode du compas a ensuite été couplée à des algorithmes métaheuristiques types génétiques. L'algorithme résultant permet d'optimiser un gridshell en minimisant la courbure dans les barres et donc les contraintes dans la structure introduites lors de la mise en forme. Il a été mis en œuvre et testé pour plusieurs surfaces / Gridshells are often defined as structures that have the shape and rigidity of a double curvature shell but they consist of a grid and not a continuous surface. They are obtained by elastic deformation of a two-way grid initially flat. The deformed grid is then rigidified using a third direction of bars. Thus, a gridshell has an interesting structural potential and can respond to complex architectural requirements. Two methods have been used through out history for the form finding of gridshells, the inversion method and the dynamic relaxation method. Both techniques lead to a deformed grid which is a result of calculations. The form obtained is closed to the one proposed by the architect. A numerical tool based on the compass method is developed in this thesis. It allows mapping aTchebychev net on an imposed form and imposed boundary conditions.Another tool based on an explicit dynamic finite element calculationis proposed. The particularity of this technique is to be able to take into account the mechanical properties of the structure and to simulate the gridshell behavior. Applications of both methods on differents forms show the limitations of mapping a Tchebychev net on an imposed form. The compass method has been coupled with geneticalgorithms. The algorithm optimizes the gridshell by minimizing the curvature in bars in order not to break the bars during the construction. It has been implemented and tested on several surfaces
|
8 |
Construction automatique de figures géometriques et programmation logique avec contraintesBouhineau, Denis 17 June 1997 (has links) (PDF)
Les contributions théoriques de ce travail comportent : 1) la définition d'une représentation exacte et normale des nombres constructibles (expressions arithmétiques avec racines carrées imbriquées), 2) un algorithme pour tester l'égalité, la différence et l'inégalité entre ces nombres et 3) une méthode pour la vérification de contraintes redondantes vis a vis d'un systême de contraintes quadratiques. L'ensemble de ce travail est intégré dans un environnement CLP(géométrie) reprenant l'approche de la programmation logique avec contraintes. La principale contribution expérimentale porte sur un ensemble de 512 théorèmes de géométrie proposés par Chou. Elle consiste en la réduction du nombre d'extensions quadratiques nécessaires pour représenter ces situations géométriques grâce à un choix soigneux des constructions employées. Cette réduction s'accompagne du résultat suivant : la grande majorité des 512 théorèmes proposés par Chou peuvent être prise en compte de manière exacte avec un surcoût limité, en pratique les nombres rationnels sont suffisants. Le lien étroit de ce travail avec les préoccupations liées à la réalisation de tuteurs homme-machine font de cette approche un outils intéressant pour l'enseignement de la géométrie. Trois applications sont données dans ce domaine. La principale concerne une approche déclarative pour la définition et la manipulation de figures géométriques.
|
9 |
Avaliação de métodos para estimativas de dissimilaridade em gradientes ecológicos com alta diversidade beta / An evaluation of methods to estimate dissimilarity in ecological gradients with high beta diversityHoffmann, Júlio Cury 18 April 2018 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2018-07-03T18:02:31Z
No. of bitstreams: 2
Dissertação - Júlio Cury Hoffmann - 2018.pdf: 1219488 bytes, checksum: 20fea8e1513a899e8a9f32df5739d99a (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-07-04T12:29:08Z (GMT) No. of bitstreams: 2
Dissertação - Júlio Cury Hoffmann - 2018.pdf: 1219488 bytes, checksum: 20fea8e1513a899e8a9f32df5739d99a (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-07-04T12:29:08Z (GMT). No. of bitstreams: 2
Dissertação - Júlio Cury Hoffmann - 2018.pdf: 1219488 bytes, checksum: 20fea8e1513a899e8a9f32df5739d99a (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2018-04-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / There are several problems on the analysis of biological communities with sparse data,
resulting from gradients with high beta diversity. I used four strategies to solve this
problem (Beals smoothing, Swan, Shortest Path and Extended Dissimilarity). I
randomly removed from 1% to 50% of the individuals in empirical and simulated
matrices. I then performed PCoA and nMDS ordinations and used Procrustes
correlation of the original two dimensional ordination with the ordination obtained
using the degraded matrices. For the simulated data set, I also correlated the ordenation
in two dimensions with the coordinates of the samples in the two-dimensional simulated
gradients. Finally, I analyzed how robustness to degradation, quantified as Procrustean
correlation, was related to the matrix properties. Different from the expected, in the
comparison of the degraded and original ordinations, the uncorrected data with a
traditional dissimilarity index (Bray-Curtis) produced higher fit than the four methods
evaluated. In relation to the coordinates of the simulated two-dimensional gradients, the
evaluated methods were slightly better than the raw data. Overall, the simulated data
were more robust to the degradation than the empirical ones and the data of abundance
were more robust than matrices of presence and absence. Matrices with small
proportion of zeros were more robust to degradation. I conclude that the correction
methods evaluated distorted the pattern on the original data. Also, data with low beta
diversity (few zeros) are robust to degradation and sufficient to reconstruct the original
gradient. / Existem vários problemas nas análises de comunidades em Ecologia decorrentes da
grande quantidade de zeros na matriz de espécies por locais (dados esparsos),
principalmente em situações em que a diversidade beta é alta. Usando quatro estratégias
para resolver estes problemas (Beals, Swan, Menor Caminho e Dissimilaridade
estendida) retirei aleatoriamente de 1 ate 50 % dos indivíduos de matrizes empíricas e
simuladas (degradação das matizes). Realizei ordenações PCoA e nMDS e, com
correlações de Procrustes, relacionei a ordenação original em duas dimensões com a
ordenação obtida pelas matrizes degradadas. Com dados simulados relacionei a
ordenação em duas dimensões também com as coordenadas das amostras no gradiente
bidimensional simulado. Além disso, analisei como a robustez à degradação, medida
como correlação Procrustes, está relacionada às características da matriz. Diferente do
esperado, na comparação das ordenações de matrizes degradadas com a ordenação da matriz original, os dados utilizados sem correções e com índice de dissimilaridade
tradicional (Bray-Curtis) tiveram maior ajuste que os quatro métodos avaliados. Em
relação às coordenadas, os métodos aplicados tiveram desempenho um pouco melhor do
que os dados sem correções quando a diversidade beta foi maior. Em geral, os dados
simulados foram mais robustos à degradação que os empíricos e os dados de abundância
foram mais robustos que de presença e ausência. Matrizes com menor proporção de
zeros foram mais robustas à degradação. Concluo que os métodos de correção
distorceram o padrão dos dados originais. Ainda, dados com baixa diversidade beta
(poucos zeros na matrix) são robustos à degradação e são suficientes para reconstruir o
gradiente original.
|
10 |
INVESTIGATING DATA ACQUISITION TO IMPROVE FAIRNESS OF MACHINE LEARNING MODELSEkta (18406989) 23 April 2024 (has links)
<p dir="ltr">Machine learning (ML) algorithms are increasingly being used in a variety of applications and are heavily relied upon to make decisions that impact people’s lives. ML models are often praised for their precision, yet they can discriminate against certain groups due to biased data. These biases, rooted in historical inequities, pose significant challenges in developing fair and unbiased models. Central to addressing this issue is the mitigation of biases inherent in the training data, as their presence can yield unfair and unjust outcomes when models are deployed in real-world scenarios. This study investigates the efficacy of data acquisition, i.e., one of the stages of data preparation, akin to the pre-processing bias mitigation technique. Through experimental evaluation, we showcase the effectiveness of data acquisition, where the data is acquired using data valuation techniques to enhance the fairness of machine learning models.</p>
|
Page generated in 0.0311 seconds