Par Zoe Purcell
[English version below]

La technologie n'est jamais neutre. Elle reflète la vision du monde et les priorités de ceux qui la créent.
Cette idée est particulièrement importante lorsqu'on parle du développement et du déploiement de l'intelligence artificielle (IA). Aujourd'hui, les systèmes d'IA font partie intégrante de notre quotidien. Ils influencent des domaines clés comme le diagnostic médical, les pratiques de recrutement et l'application de la loi (Lum & Isaac, 2016 ; Obermeyer et al., 2019).
En plus de ces usages, l'IA joue un rôle de plus en plus important dans la sélection des informations que nous consommons. Elle recommande des contenus de divertissement et personnalise les fils d'actualité, façonnant ainsi nos connaissances et nos croyances. Cette capacité de l'IA à influencer ce que nous voyons et entendons affecte directement notre perception du monde, ce qui peut soulever des questions, en particulier chez les enfants et adolescents. Puisque l'IA contribue à façonner notre vision du monde, il est essentiel d'examiner comment ces systèmes sont conçus et quels biais ils peuvent introduire.
Les IA utilisées dans l'éducation en ligne ou sur les plateformes de recommandation de contenu peuvent créer des environnements d'apprentissage biaisés.
Les enfants et adolescents risquent d'être exposés de manière disproportionnée à des informations renforçant des stéréotypes sociaux, raciaux ou de genre. Par exemple, si l'IA recommande des contenus en fonction des précédentes recherches, elle peut limiter la diversité des perspectives disponibles. Des biais problématiques ont été observés dans des domaines comme la police prédictive (Lum & Isaac, 2016) et les algorithmes de santé (Obermeyer et al., 2019), ce qui a conduit à des recherches sur leurs causes et les moyens les réduire ces biais.
Les biais peuvent apparaître à différentes étapes du développement des systèmes d'IA. Ils peuvent être introduits dès la phase de conception, dans le choix des ressources et technologies, ou encore dans les ensembles de données utilisés pour l'entraînement. Les critères définis pour le déploiement final jouent aussi un rôle. Les recherches montrent que les biais des machines reflètent souvent ceux présents dans les données d'entraînement. Pour limiter ces biais, des approches comme l'apprentissage par renforcement à partir du feedback humain (Atari et al., 2023 ; Hartmann et al., 2023) ont été développées. Cependant, le contrôle de ce processus reste entre les mains d'un petit groupe homogène de développeurs. Leurs propres biais et visions du monde influencent inévitablement les systèmes qu'ils conçoivent.
Des études récentes montrent que les systèmes d'IA ne se contentent pas d'hériter des biais présents dans les données. Ils reflètent aussi les opinions personnelles de leurs concepteurs. Par exemple, les disparités politiques et raciales au sein des équipes de développement influencent les perspectives intégrées dans l'IA (Lazar, 2024 ; West et al., 2019). Lazar (2024) a démontré que les préférences politiques des développeurs avaient un impact sur les grands modèles de langue, au-delà des données d'entraînement. Ces résultats soulèvent des questions sur d'autres biais potentiels et les valeurs qui pourraient être intégrées dans ces systèmes.
Nos recherches s'inscrivent dans ce champ d'études en analysant les croyances morales et les attitudes envers la diversité et l'égalité des développeurs actuels et futurs de l'IA.
La diversité dans l’IA
L’industrie de l’intelligence artificielle (IA) fait face à une crise de diversité. La main-d’œuvre est majoritairement composée d’hommes blancs issus de milieux socio-économiques favorisés.
Les femmes ne représentent que 22 % des professionnels de l’IA
(https://www.stiftung-nv.de/publications/ai-gender-gap). Le manque de diversité parmi les créateurs d’IA a été largement lié à des décisions algorithmiques biaisées dans des domaines comme la santé et la justice (Noble, 2018 ; West et al., 2019).
Même lorsque les systèmes d’IA ne prennent pas de décisions ouvertement discriminatoires, leurs résultats peuvent renforcer certains stéréotypes et normes culturelles. Par exemple, lorsqu’on demande à ChatGPT de générer une image d’un monarque, il produit généralement la représentation d’un homme blanc entouré d’iconographie chrétienne. Ces représentations peuvent perpétuer des stéréotypes historiques liés à la race, au genre et à la religion. L'acceptabilité de ces représentations dépend du point de vue de chacun. Certains estiment qu'elles reflètent les croyances et normes locales, tandis que d'autres pensent qu'elles devraient être plus inclusives ou représentatives de la réalité mondiale.
Actuellement, il n’existe ni réglementation ni cadre philosophique clair pour encadrer ces choix. Ces décisions restent donc entre les mains des développeurs de l’IA. Or, les jeunes générations, particulièrement sensibles aux questions d’identité et de développement moral, risquent d’être influencées par des systèmes qui ne reflètent pas la diversité des expériences humaines.
Les chercheurs et les professionnels de l’éducation ont un rôle clé à jouer en collaborant avec les développeurs pour garantir que les technologies de demain intègrent une plus grande diversité de valeurs humaines et offrent des expériences d’apprentissage plus équitables pour tous les enfants et adolescents.
Bien que la question des biais des machines suscite de nombreuses inquiétudes, il n’existe pas encore de méthode claire pour les évaluer, ni de philosophie partagée sur la manière de les corriger. Ce qui est certain, cependant, c’est que ces décisions sont actuellement prises par un petit groupe de personnes. Tant qu’il n’existe pas de réglementation systématique, les normes et ajustements des systèmes de l’IA seront dictés par les idées et réalités de ses développeurs. Cela met en évidence la nécessité d’avoir plus de transparence et de discussions sur les différentes normes. Il est également essentiel d’améliorer la diversité au sein des domaines technologiques et particulièrement de l’IA. L’une des solutions les plus prometteuses pour réduire les biais tout au long du cycle de vie des systèmes d’IA est d’inclure une plus grande diversité de voix dans leur développement. Cela permettrait de créer des systèmes qui reflètent mieux la diversité humaine et réduiraient le risque d’aggraver les inégalités existantes.
Recherches actuelles sur la diversité et l’IA
Bien que les biais de l'IA soient de plus en plus reconnus comme un problème, peu de recherches ont exploré comment la diversité (ou son absence) dans les équipes de développement influence les dimensions morales et éthiques de ces systèmes. Nos travaux récents tentent de répondre à cette question en regardant si les différences de genre parmi les développeurs d’IA influencent les priorités morales intégrées dans ces systèmes. Nous avons également étudié si ces différences pourraient diminuer avec la prochaine génération de développeurs, en raison de l'évolution des préférences morales ou d’une réduction des inégalités de genre dans les carrières liées à l'IA.
Nos résultats ont révélé des différences de genre dans les priorités morales et les attitudes envers la diversité (Purcell et al., 2024). Jusqu'à présent, nous avons surtout étudié les préférences utilitaristes (c'est-à-dire accepter un sacrifice pour le bien du plus grand nombre), car l’opinion publique associe souvent les développeurs d’IA au mouvement de l'altruisme efficace (Bordelon, 2023 ; Clarke, 2023 ; Lazar & Nelson, 2023 ; Seetharaman, 2023). Ces préférences sont particulièrement importantes dans les décisions impliquant un compromis entre le bien-être collectif et individuel, un domaine où les systèmes d’IA jouent un rôle croissant (Bonnefon et al., 2016 ; Deng, 2015).
Nous avons constaté que les hommes avaient une tendance légèrement plus utilitariste que les femmes. Cependant, cette différence n'était pas présente chez les adolescents. Néanmoins, dans les deux groupes d'âge, les hommes obtenaient des scores plus élevés sur l’aspect du préjudice instrumental de l’utilitarisme. Cela signifie qu'ils sont davantage enclins à causer du tort à autrui si cela permet d'atteindre un bien commun supérieur. En revanche, les adolescentes montraient une plus grande adhésion au principe d’« impartialité bienveillante », en accordant plus d’importance au bien-être de tous, indépendamment des relations personnelles, de la proximité ou de l’identité. Ces différences de genre en matière d’impartialité se retrouvaient également dans une nouvelle mesure d’adhésion à la diversité.
Pour évaluer cette adhésion à la diversité et la manière dont les participants pensent que les machines devraient traiter ces questions, nous avons développé une tâche imitant le processus d'apprentissage par renforcement basé sur le feedback humain (RLHF) (Purcell et al., 2024). Les participants pouvaient récompenser ou sanctionner des machines selon une série d’énoncés portant sur la diversité dans le leadership, la gestion, l’éducation et le travail. Nos résultats ont révélé que les hommes, qu'ils soient adultes ou adolescents, soutenaient moins la diversité que les femmes. Cette tendance concernait plusieurs dimensions de la diversité, notamment le genre, l'orientation sexuelle, le handicap et l'origine ethnique. Ces différences, à la fois dans les préférences utilitaristes générales et dans l’adhésion à la diversité, soulignent une préoccupation majeure : une main-d’œuvre de l’IA largement masculine pourrait involontairement créer des machines dont les préférences morales ne reflètent pas fidèlement celles de l’ensemble de la population.
Diversité, IA et éducation
Une façon d'adresser le manque de diversité dans le domaine de l’IA peut être abordé à l’école. Les recherches montrent qu’il existe des disparités de genre persistantes dans les filières STEM (sciences, technologie, ingénierie et mathématiques) (Wang & Degol, 2016), et que ces disparités sont encore plus marquées en physique, en ingénierie et en informatique (Cimpian et al., 2020). Nos travaux indiquent que les jeunes femmes de 16 à 18 ans sont beaucoup moins intéressées par une carrière dans l’IA que les jeunes hommes (Purcell et al., 2024). Ces résultats suggèrent que le manque de diversité dans l’IA risque de perdurer et d’avoir des répercussions sur le développement moral des machines. Sans interventions efficaces, l’écart entre les genres, à l’origine de ces différences, risque de ne pas disparaitre.
Pour combler cet écart, il est essentiel d’agir tôt en suscitant l’intérêt et la confiance des jeunes filles et des groupes sous-représentés dans ces domaines.
Des ateliers pratiques de codage, des programmes de mentorat et des programmes scolaires inclusifs, qui luttent contre les stéréotypes, peuvent jouer un rôle clé. Certaines études montrent que lorsque les intervenants pour parler des métiers des filières STEM sont des femmes, cela a un impact positif sur les perceptions et les choix de carrière des lycéens. Cela permet de réduire les stéréotypes de genre dans les sciences, d’encourager les filles à poursuivre des études sélectives et d’intégrer des filières STEM traditionnellement dominées par les hommes (Breda et al., 2023). Kuchynka et al. (2022) recommandent également d’enseigner explicitement les inégalités de genre et les biais dans les STEM dès le plus jeune âge afin d’aider les élèves à remettre en question les stéréotypes.
Au-delà de la question du genre, ces efforts doivent aussi inclure d’autres dimensions de la diversité, comme l’origine ethnique, le milieu socio-économique et les perspectives culturelles. Ces initiatives sont essentielles non seulement pour réduire les biais dans les systèmes d’IA, mais aussi pour garantir que ces technologies reflètent les valeurs diverses des sociétés qu’elles servent. Davantage de recherches en sciences cognitives et en informatique sont nécessaires pour mieux comprendre l’impact de la diversité des développeurs d’IA sur ces systèmes. Il est aussi essentiel d'identifier des solutions pour atténuer les effets des inégalités actuelles et empêcher qu'elles ne persistent.
Pour aller plus loin :
Atari, M., Xue, M. J., Park, P. S., Blasi, D., & Henrich, J. (2023). Which Humans? OSF. https://doi.org/10.31234/osf.io/5b26t
Bonnefon, J.-F., Shariff, A., & Rahwan, I. (2016). The social dilemma of autonomous vehicles. Science, 352 (6293), 1573–1576. https://doi.org/10.1126/science.aaf2654
Bordelon, B. (2023, December 30). When Silicon Valley’s AI warriors came to Washington. POLITICO. https://www.politico.com/news/2023/12/30/ai-debate-culture-clash-dc-silicon-valley-00133323
Breda, T., Grenet, J., Monnet, M., & Van Effenterre, C. (2023). How effective are female role models in steering girls towards STEM? Evidence from French high schools. The Economic Journal, 133(653), 1773-1809
Cimpian, J. R., Kim, T. H., & McDermott, Z. T. (2020). Understanding persistent gender gaps in STEM. Science, 368(6497), 1317-1319.
Clarke, L. (2023, September 14). How Silicon Valley doomers are shaping Rishi Sunak’s AI plans. POLITICO. https://www.politico.eu/article/rishi-sunak-artificial-intelligence-pivot-safety-
summit-united-kingdom-silicon-valley-effective-altruism/
Deng, B. (2015). Machine ethics: The robot’s dilemma. Nature, 523 (7558), 24–26. https://doi.org/10.1038/523024a
Kuchynka, S. L., Eaton, A., & Rivera, L. M. (2022). Understanding and addressing gender‐based inequities in STEM: Research synthesis and recommendations for US K‐12 education. Social issues and policy review, 16(1), 252-288.
Lazar, S. (2024). Automatic Authorities: Power and AI (arXiv:2404.05990). arXiv. https://doi.org/10.48550/arXiv.2404.05990
Lazar, S., & Nelson, A. (2023). AI safety on whose terms? Science, 381 (6654), 138–138. https://doi.org/10.1126/science.adi8982
Lum, K., & Isaac, W. (2016). To Predict and Serve? Significance,13 (5), 14–19. https://doi.org/10.1111/j.1740-9713.2016.00960.x
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. https://doi.org/10.2307/j.ctt1pwt9w5
Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366 (6464), 447–453. https://doi.org/10.1126/science.aax2342
Purcell, Z. A., Charbit, L., Borst, G., & Nussberger, A.-M. (2024). Divergent Moral Preferences of AI Builders versus AI Users. Preprint. https://doi.org/10.31234/osf.io/sm5hk
Seetharaman, R. M. and D. (2023, November 22). How a Fervent Belief Split Silicon Valley—And Fueled the Blowup at OpenAI. WSJ. https://www.wsj.com/tech/ai/openai-blowup-effective-altruism-disaster-f46a55e8
Wang, M. T., & Degol, J. L. (2017). Gender gap in science, technology, engineering, and mathematics (STEM): Current knowledge, implications for practice, policy, and future directions. Educational psychology review, 29, 119-140.
West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating systems: Gender, race and power in AI. AI Now Institute. https://ainowinstitute.org/wp-content/uploads/2023/04/discriminatingsystems.pdf
8
Auteurs :

Zoe Purcell
Post-doctorante au LaPsyDÉ, Université Paris Cité

English version
Man-Made Machines: How Gender is Shaping AI’s Moral Compass
By Zoe Purcell
![Technology is born for a purpose and, in its impact on human society, always represents a form of order in social relations and an arrangement of power […]. In a more or less explicit way, this constitutive power dimension of technology always includes the worldview of those who invented and developed it. – Pope Francis at the G7 Summit in June 2024](https://static.wixstatic.com/media/87ac87_fc565838277e4c27aa6a9aa33e8e18e1~mv2.webp/v1/fill/w_980,h_980,al_c,q_85,usm_0.66_1.00_0.01,enc_avif,quality_auto/87ac87_fc565838277e4c27aa6a9aa33e8e18e1~mv2.webp)
Technology is never neutral. It embodies the worldview and priorities of those who create it. This observation becomes particularly significant when we consider the development and deployment of artificial intelligence (AI). AI systems have become deeply embedded in our daily lives, influencing critical areas such as medical diagnostics, hiring practices, and law enforcement (e.g., Lum & Isaac, 2016; Obermeyer et al., 2019). Beyond these direct applications, AI also increasingly plays a role in the selection of the information we consume—from entertainment recommendations to personalized news feeds—subtly shaping our knowledge and beliefs over time. This ability of AI to guide what we see and hear directly affects our perceptions of the world, particularly among children still in development. As AI becomes a central player in shaping our worldview, it is critical to examine how these systems are developed and the biases they may introduce.
AI systems used in areas like online education or content recommendation platforms can create biased learning environments, where children and adolescents are disproportionately exposed to information that reinforces social, racial, or gender stereotypes.
For example, when AI uses data from past behaviors to recommend content or career paths, it can limit the diversity of perspectives that children and adolescents are exposed to. Highly consequential AI biases have been observed in critical areas such as predictive policing (Lum & Isaac, 2016) and healthcare algorithms (Obermeyer et al., 2019). Prompting investigations into why this is happening and how it might be mitigated. Bias can be introduced into AI systems at many points in their lifecycle, including initial design phase, the choice of resources and technologies used, the training datasets employed, the fine-tuning processes applied, and the criteria used to determine when a product is ready for deployment. Research shows that many machine biases reflect those present in the training data, prompting efforts to mitigate these effects through human, “top-down” interventions such as Reinforcement Learning from Human Feedback (RLHF; Atari et al., 2023; Hartmann et al., 2023). However, control over the entire lifecycle, including attempts to mitigate bias, remains concentrated in a relatively small and homogenous group of developers whose own bias and unique worldviews inevitably influence the machines they create.
Emerging evidence indicates that AI systems do not merely inherit biases from training data but also reflect the idiosyncratic perspectives of their developers. Studies have revealed, for example, that political and racial disparities in the AI workforce influence the perspectives embedded in AI systems (Lazar, 2024; West et al., 2019). Lazar (2024) demonstrated that the political leanings of developers influenced the perspectives exhibited by large language models beyond the training data alone. These findings invite deeper investigation into what other idiosyncratic perspectives the AI workforce may hold, and, in turn, what values may be embedded in AI systems. Our research contributes to this growing body of work by estimating the core moral beliefs and attitudes toward diversity and equality held by the current and projected AI workforce.
Diversity in AI
The AI industry is facing a diversity crisis.
The workforce remains predominantly white, male, and from high socioeconomic backgrounds, with women making up only 22% of AI professionals
(e.g., https://www.stiftung-nv.de/publications/ai-gender-gap). Links between the lack of diversity of AI-builders and various instances of diversity-biased algorithmic decision-making, like those in healthcare and law enforcement, have been fervently drawn (Noble, 2018; West et al., 2019). Even when AI systems are not directly making discriminatory decisions, their outputs can reinforce certain stereotypes and cultural norms. For example, when asked to generate an image of a monarch, ChatGPT typically produces a depiction of a white, male-presenting figure, surrounded by Christian iconography. Such outputs may reinforce historical stereotypes about race, gender, and religion. Whether such depictions are acceptable depends on one’s perspective. Some may argue these images are appropriate as they reflect local beliefs and norms; others may contend they should represent more contemporary or inclusive ideals; others still, may argue that they should reflect a more global reality, for instance, an Asian person to reflect the greater number of Asian than European kingdoms. Currently, there are no regulations or set philosophies around these kinds of benchmarks and so these decisions remain in the hands of machine developers. Young generations, who are particularly sensitive to identity and moral development, risk being exposed to AI systems that do not reflect the diversity of human experiences.
Researchers and educational professionals have a key role to play in this discussion, collaborating with AI developers to ensure that the technologies of tomorrow reflect a broader range of human values and promote equitable learning experiences for all children and adolescents.
While there is widespread concern about machine bias, it's not clear how we should examine that bias nor which philosophy ought to correct those responses. What is clear, however, is that these decisions currently rest in the hands of a small group of individuals and until we have systematic regulations, the checks and balances of AI systems will be determined by the ideologies and realities of the people in these positions. This underscores the urgent need for greater transparency and continued discussions about systematic benchmarks, as well as the immediate need for greater diversity within the fields of technology and AI. One of the most hopeful avenues for reducing bias across the machine lifecycle is to expand the range of voices shaping AI so that we can create systems that better reflect the diversity of human experiences and minimize the risk of exacerbating existing inequalities.
Current Research on Diversity and AI
Despite growing recognition of the challenges posed by biases in AI, relatively little research has explored how the diversity in AI development teams (or lack thereof) affects the moral and ethical dimensions of these systems. Our recent work has been addressing this gap by investigating whether gender differences among AI developers might shape the moral priorities embedded in AI systems. That is, whether, due to the highly skewed gender composition of the AI workforce (78% male), we should be concerned about distinctly male moral preferences being embedded in machines. Additionally, we also considered whether any observed differences might reduce with the next generation of developers either due to generational shifts in moral preferences or a reduction in the gender gap in AI career choices.
Our findings revealed gender differences in moral priorities and attitudes toward diversity (Purcell et al., 2024). So far, we have focused on utilitarian preferences in particular because public perceptions seem to strongly associate AI-builders with the Effective Altruism movement (Bordelon, 2023; Clarke, 2023; Lazar & Nelson, 2023; Seetharaman, 2023) and because utilitarian preferences are particularly relevant to decisions that trade-off collective versus individual welfare – decisions that AI systems are increasingly involved in (Bonnefon et al., 2016; Deng, 2015). We found that adult men were slightly more utilitarian than adult women, but that this distinction was not present in adolescents. However, for both adults and adolescents, men scored higher on the instrumental harm dimension of utilitarianism. That is, males tend to endorse causing harm to others when it serves to achieve a greater overall good to a greater extent than women. However, in line with other utilitarian principles, adolescent women endorsed notions of impartial beneficence to a greater extent than adolescent men. They showed stronger preferences for prioritising the well-being of all individuals, regardless of personal relationships, proximity, or identity. These gender differences in impartiality were also reflected in a new measure of diversity endorsement.
To measure diversity endorsement and specifically how people felt machines should treat issues of diversity, we developed a task to emulate the RLHF process (Purcell et al., 2024). Participants could reward or punish machines for a series of statements about diversity in leadership, management, education, and work. Both male adults and male adolescents were less endorsing diversity than their female counterparts. This was observed across a range of diversity characteristics from gender, sexual orientation, disability, and race (origins). Given these broad differences in general, utilitarian preferences, and specific, diversity endorsements, our research echoes the concerns that a male dominated AI workforce may inadvertently produce machines with moral preferences that do not accurately reflect those of the broader population.
Diversity, AI and education
The diversity gap in AI can be addressed during school years and requires a multi-faceted approach. Indeed, research indicates that there are persistent gender disparities in science, technology, engineering, and mathematics fields - STEM (Wang & Degol, 2016) and particularly in physics, engineering and computer science (Cimpian et al., 2020). Our own research suggests that preferences to enter the AI workforce specifically remain much lower for women compared to men amongst 16–18-year-olds (Purcell et al., 2024). These findings suggest that the lack of diversity in AI is likely to persist, and in turn have ongoing consequences for the moral development of machines. It also suggests that without effective interventions, the gender gap at root of those idiosyncrasies is likely to persist.
To close this gap, interventions must start early, focusing on building interest and confidence in STEM fields among young girls and underrepresented groups.
Hands-on coding workshops, mentorship programs, and inclusive curricula that counter stereotypes can play a critical role. Some researchers have demonstrated that brief exposure to female role models in scientific fields positively impacts high school students' perceptions and career choices, reduces stereotypical views about gender roles in science and abilities, and encourages high-achieving girls to pursue selective, male-dominated STEM programs in college (Breda et al., 2023). Kuchynka et al. (2022) also recommend explicitly teaching about gender inequity and biases in STEM and helping students challenge gender stereotypes.
Beyond addressing gender imbalances, efforts should encompass other dimensions of diversity, including race, socioeconomic background, and cultural perspectives. Such initiatives are critical not only for mitigating biases in AI systems but also for ensuring their ongoing alignment with the pluralistic values of the societies they serve. Much more research both in cognitive and computer sciences is needed to fully understand how the demographics of the AI workforce is affecting AI, how we can best deal with the consequences, and how to prevent these disparities from continuing.
To go further:
Atari, M., Xue, M. J., Park, P. S., Blasi, D., & Henrich, J. (2023). Which Humans? OSF. https://doi.org/10.31234/osf.io/5b26t
Bonnefon, J.-F., Shariff, A., & Rahwan, I. (2016). The social dilemma of autonomous vehicles. Science, 352 (6293), 1573–1576. https://doi.org/10.1126/science.aaf2654
Bordelon, B. (2023, December 30). When Silicon Valley’s AI warriors came to Washington. POLITICO. https://www.politico.com/news/2023/12/30/ai-debate-culture-clash-dc-silicon-valley-00133323
Breda, T., Grenet, J., Monnet, M., & Van Effenterre, C. (2023). How effective are female role models in steering girls towards STEM? Evidence from French high schools. The Economic Journal, 133(653), 1773-1809
Cimpian, J. R., Kim, T. H., & McDermott, Z. T. (2020). Understanding persistent gender gaps in STEM. Science, 368(6497), 1317-1319.
Clarke, L. (2023, September 14). How Silicon Valley doomers are shaping Rishi Sunak’s AI plans. POLITICO. https://www.politico.eu/article/rishi-sunak-artificial-intelligence-pivot-safety-summit-united-kingdom-silicon-valley-effective-altruism/
Deng, B. (2015). Machine ethics: The robot’s dilemma. Nature, 523 (7558), 24–26. https://doi.org/10.1038/523024a
Kuchynka, S. L., Eaton, A., & Rivera, L. M. (2022). Understanding and addressing gender‐based inequities in STEM: Research synthesis and recommendations for US K‐12 education. Social issues and policy review, 16(1), 252-288.
Lazar, S. (2024). Automatic Authorities: Power and AI (arXiv:2404.05990). arXiv. https://doi.org/10.48550/arXiv.2404.05990
Lazar, S., & Nelson, A. (2023). AI safety on whose terms? Science, 381 (6654), 138–138. https://doi.org/10.1126/science.adi8982
Lum, K., & Isaac, W. (2016). To Predict and Serve? Significance,13 (5), 14–19. https://doi.org/10.1111/j.1740-9713.2016.00960.x
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. https://doi.org/10.2307/j.ctt1pwt9w5
Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366 (6464), 447–453. https://doi.org/10.1126/science.aax2342
Purcell, Z. A., Charbit, L., Borst, G., & Nussberger, A.-M. (2024). Divergent Moral Preferences of AI Builders versus AI Users. Preprint. https://doi.org/10.31234/osf.io/sm5hk
Seetharaman, R. M. and D. (2023, November 22). How a Fervent Belief Split Silicon Valley—And Fueled the Blowup at OpenAI. WSJ. https://www.wsj.com/tech/ai/openai-blowup-effective-altruism-disaster-f46a55e8
Wang, M. T., & Degol, J. L. (2017). Gender gap in science, technology, engineering, and mathematics (STEM): Current knowledge, implications for practice, policy, and future directions. Educational psychology review, 29, 119-140.
West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating systems: Gender, race and power in AI. AI Now Institute. https://ainowinstitute.org/wpcontent/uploads/2023/04/discriminatingsystems.pdf
Author:

Zoe Purcell
Post-doctoral fellow at LaPsyDÉ, Paris Cité University
Comments