Academic literature on the topic 'IA éthique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'IA éthique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "IA éthique"

1

El Ganbour, Morad, and Saida Belouali. "Élaboration et validation d’un référentiel éthique de l’intelligence artificielle en Éducation : cas du contexte marocain." Médiations et médiatisations, no. 18 (October 30, 2024): 125–47. http://dx.doi.org/10.52358/mm.vi18.403.

Full text
Abstract:
Cet article présente l’élaboration d’un référentiel éthique destiné à encadrer l’utilisation de l’intelligence artificielle (IA) en éducation, en mettant particulièrement l’accent sur le contexte marocain. La méthodologie adoptée englobe une revue exhaustive de la littérature portant sur l’éthique dans le domaine de l’IA, de l’éducation, ainsi que dans le contexte spécifique du Maroc. Cette littérature a été traitée et analysée au moyen des logiciels NVivo et Tropes. Par la suite, une enquête a été menée auprès d’acteurs clés tels que les enseignants-chercheurs, les ingénieurs en IA et les responsables de l’enseignement supérieur dans l’objectif de la validation du référentiel éthique élaboré. Les résultats de cette enquête ont été analysés à l’aide de l’outil statistique SPSS pour définir des indicateurs éthiques prioritaires. Le référentiel éthique élaboré vise à orienter les praticiens et les décideurs vers des pratiques éducatives éthiques, en tenant compte des spécificités culturelles et sociales du Maroc.
APA, Harvard, Vancouver, ISO, and other styles
2

Boubacar, Soumaila. "Évaluation de la Rationalité de l'Intelligence Artificielle à l'Aide de la Formule de Soumaila : Une Perspective Neuro-mathématique et Éthique." Journal Africain des Cas Cliniques et Revues 8, no. 3 (July 10, 2024): 1–5. http://dx.doi.org/10.70065/24ja83.001l011007.

Full text
Abstract:
Ce manuscrit propose une nouvelle approche pour évaluer la rationalité des projets d'intelligence artificielle (IA) à travers une formule innovante nommée "formule de Soumaila". En partant de l'idée que l'IA cherche à imiter l'intelligence humaine (IH), l'auteur utilise une analogie avec une montée d'escalier pour expliquer comment l'IA peut être rationalisée. La formule se base sur la loi de Blondel et tient compte du nombre d'objectifs de l'IA et de l'âge du fondateur ou promoteur du projet. Les résultats obtenus montrent une classification des niveaux de rationalité de l'IA, offrant une perspective pratique pour évaluer et guider le développement de projets d'IA. Le manuscrit aborde également les implications éthiques de l'IA et la nécessité de cadres robustes pour garantir une utilisation équitable et responsable des technologies d'IA. Cette recherche innovante ouvre de nouvelles perspectives pour l'évaluation et l'intégration éthique de l'IA dans divers domaines. Mots-clés : Intelligence Artificielle (IA), Rationalité de l'IA, Éthique de l'IA, Formule de Soumaila
APA, Harvard, Vancouver, ISO, and other styles
3

Messaoudi, Aïssa. "Les défis de l’IA dans l’éducation : de la protection des données aux biais algorithmiques." Médiations et médiatisations, no. 18 (October 30, 2024): 148–60. http://dx.doi.org/10.52358/mm.vi18.409.

Full text
Abstract:
Cet article examine l'impact de l'intelligence artificielle (IA) sur le domaine de l'éducation, et en explore les avantages et les défis. Le recours à l'IA dans le secteur éducatif offre de nombreux avantages tels que l'automatisation des tâches administratives répétitives et la personnalisation des parcours d’apprentissage. Cependant, cela soulève des préoccupations éthiques quant à la protection des données individuelles et au risque de biais algorithmiques. En outre, nous abordons d’autres défis : ceux liés à l’opposition entre l'évaluation automatisée et l'évaluation humaine ainsi que les implications complexes de la reconnaissance faciale dans un contexte éducatif. Il est essentiel qu’une approche réfléchie et éthique dans le déploiement de l'IA en éducation soit pensée en soulignant la nécessité de principes éthiques précis et transparents, et d'une réflexion pédagogique approfondie. Nous préconisons l'utilisation d'outils IA open source pour favoriser la transparence et la conformité aux réglementations en vigueur.
APA, Harvard, Vancouver, ISO, and other styles
4

Goulenok, Cyril, Marc Grassin, Robin Cremer, Julien Duvivier, Caroline Hauw-Berlemont, Mercé Jourdain, Antoine Lafarge, et al. "Introduction aux enjeux éthiques de l’Intelligence Artificielle en réanimation." Médecine Intensive Réanimation 33, Hors-série 1 (June 11, 2024): 101–10. http://dx.doi.org/10.37051/mir-00211.

Full text
Abstract:
L’Intelligence Artificielle (IA) va occuper une place grandissante en réanimation dans les années à venir. Les possibilités d’utilisation seront très larges, couvrant notamment les champs des prédictions, de l’aide à la décision, de l’imagerie, de la recherche et la formation des soignants. L’implémentation de l’IA en réanimation pourrait significativement bouleverser la prise en charge des patients, mais aussi l’activité des médecins. Ces changements à venir amènent des questionnements éthiques spécifiques qu’il est nécessaire et urgent d’évoquer. De la mise au point d’un algorithme jusqu’à sa mise sur le marché, il existe plusieurs étapes qui nécessitent une vigilance éthique par une approche habituellement qualifiée d’ethic by design. Il est possible de subdiviser ces enjeux en quatre parties distinctes qui seront successivement abordées : les données, le patient, l’algorithme et le soignant. Les questions environnementales mais aussi économiques, dans le contexte de la récente prise de conscience d’une nécessaire diminution de l’empreinte carbone, seront enfin évoquées. Une meilleure appréhension des enjeux éthiques est probablement une première étape vers une intégration efficiente de cette nouvelle technologie dans le domaine des soins critiques.
APA, Harvard, Vancouver, ISO, and other styles
5

Tremblay, Diane-Gabrielle, Valérie Psyché, and Amina Yagoubi. "mise en œuvre de l’IA dans les organisations est-elle compatible avec une société éthique?" Ad machina, no. 7 (December 18, 2023): 166–87. http://dx.doi.org/10.1522/radm.no7.1663.

Full text
Abstract:
Cet article expose les compétences essentielles à la gestion de l’intelligence artificielle (IA) dans les organisations en mettant l’accent sur la dimension éthique, mais sans négliger les enjeux d’un point de vue managérial, technique, humain, inclusif et responsable. En effet, dans le contexte de changement associé à la transformation numérique, les organisations qui se numérisent, en intégrant l’IA, ont besoin d’identifier les enjeux éthiques et les compétences requises associées pour gérer des projets d’IA. Les enjeux liés au développement et à la gestion des projets d’IA sont complexes et différents de ceux liés à la gestion traditionnelle des projets informatiques. Cette complexité soulève des questions éthiques, juridiques et de responsabilité sociale (du point de vue de l’équité, de la diversité et de l’inclusion) en matière d’IA; celles-ci auront des implications sur les compétences attendues des gestionnaires de projets d’IA à l’avenir. Notre recherche visait à identifier ces enjeux et à les décrire en matière de compétences, ce que nous avons fait au moyen d’entrevues et de groupes de discussion avec des experts de la communauté de l’IA, dans le contexte plus large d’une recherche sur la gestion de l’IA. Cet article porte surtout sur les enjeux éthiques dégagés de notre revue des écrits et des rencontres avec des experts de l’IA et leur résonance dans l’écosystème d’IA québécois; nous nous concentrons donc ici sur les questions d’éthique, de transformation du marché du travail, de gouvernance et de responsabilité sociale.
APA, Harvard, Vancouver, ISO, and other styles
6

Audran, Jacques. "Cinq enjeux d’évaluation face à l’émergence des IA génératives en éducation." Mesure et évaluation en éducation 47, no. 1 (2024): 6–26. http://dx.doi.org/10.7202/1114564ar.

Full text
Abstract:
Depuis novembre 2022, les acteurs de l’éducation s’émeuvent de l’apparition de services informatiques qui permettent de générer des textes, des images ou des sons en une simple requête. Ces programmes désignés sous le nom d’intelligences artificielles génératives font l’objet d’une forte médiatisation. En évaluation, de nouveaux enjeux apparaissent : 1) Sait-on déterminer les compétences à évaluer chez les élèves, utilisateurs potentiels de ces technologies ? 2) Sait-on faire la différence entre production humaine et machinique ? 3) Peut-on évaluer, sur le fond, des productions qui pratiquent l’illusion de la forme ? 4) Comment évaluer la dimension authentique d’une production d’élève ? 5) Sait-on évaluer les potentialités éducatives de ces technologies ? Relever ces cinq enjeux suppose une sensibilisation des enseignants et des formateurs à la pratique d’une évaluation éthique et formative apte à tirer parti de ces technologies pour préparer les élèves à des technologies qui seront bientôt banales à l’école.
APA, Harvard, Vancouver, ISO, and other styles
7

Mansouri, Mohamed. "L’intelligence artificielle et la publicité : quelle éthique ?" Annales des Mines - Enjeux numériques N° 1, no. 1 (January 24, 2018): 53–58. http://dx.doi.org/10.3917/ennu.001.0053.

Full text
Abstract:
L’histoire moderne de l’Intelligence Artificielle (IA) débuta en 1956, lors du summer camp de Dartmouth, dans le New Hampshire. Des scientifiques y travaillèrent en nourrissant l’espoir d’aboutir à des conclusions probantes dans un avenir qui leur était proche. Or, en 2018, nous sommes encore loin du compte, bien que l’appellation d’IA soit aujourd’hui largement, et souvent abusivement, employée. L’usage de cette terminologie en marketing et publicité pose un problème de loyauté à deux niveaux : à l’égard du public puisqu’il crée une fracture entre ses attentes et la réalité ; et entre professionnels, car certains acteurs en font un usage indu, au détriment d’autres qui structurent le véritable marché de l’IA. Aujourd’hui, des applications marketing et publicitaires concrètes existent, principalement autour de l’acquisition de trafic, de la transformation des visiteurs et des solutions de fidélisation. De bonnes pratiques doivent dès à présent être adoptées par les professionnels au niveau mondial. Celles-ci s’articulent autour de trois axes : des données « propres », exactes et non biaisées ; la transparence algorithmique ; et le respect du choix des consommateurs loyalement informés. Enfin, il convient de s’interroger sur la place laissée à l’éthique quand la créativité humaine s’efface au profit de celle de l’IA. Car, en aucun cas, l’humain ne saurait se soustraire à ses responsabilités en se dissimulant derrière une délégation du processus créatif à l’intelligence artificielle.
APA, Harvard, Vancouver, ISO, and other styles
8

Mayol, Samuel. "Du Tempo au Big Data : la symphonie du Marketing 6.0." Question(s) de management 47, no. 6 (December 20, 2023): 89–94. http://dx.doi.org/10.3917/qdm.227.0089.

Full text
Abstract:
Le Marketing 6.0 se caractérise par l’hyperpersonnalisation, l’intégration de l’intelligence artificielle et une focalisation sur l’expérience utilisateur. Le Marketing 6.0 incorpore une dimension sociale et éthique, en visant à créer une valeur partagée et en mettant l’accent sur la responsabilité sociale des entreprises. Par ailleurs cet article rappelle que la musique a toujours eu un impact significatif en marketing, notamment dans les publicités et le marketing digital. Elle crée une connexion émotionnelle avec les consommateurs et peut augmenter l’engagement et la visibilité sur les réseaux sociaux. L’article tente donc de faire le lien entre Marketing 6.0, musique et IA.
APA, Harvard, Vancouver, ISO, and other styles
9

Fodor, Sylvie. "Un cadre juridique pour une intelligence artificielle éthique : le règlement IA (RIA ou AI Act)." I2D - Information, données & documents 242, no. 2 (November 26, 2024): 79–81. https://doi.org/10.3917/i2d.242.0079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Bellon, Anne, and Julia Velkovska. "L’intelligence artificielle dans l’espace public : du domaine scientifique au problème public." Réseaux N° 240, no. 4 (September 21, 2023): 31–70. http://dx.doi.org/10.3917/res.240.0031.

Full text
Abstract:
L’article analyse la publicisation de l’intelligence artificielle (IA) et sa constitution en problème public, sous l’étiquette « éthique de l’IA », du point de vue des discours et des acteurs circulants entre arènes médiatique, scientifique et politique. Pour saisir l’ampleur de cette dynamique d’ensemble, il prend un objet peu exploré, la mise en relation entre ces trois arènes, c’est-à-dire les mécanismes de circulation et de déformation des discours, les conflits de définition, et les reconfigurations qui en résultent pour le domaine et pour les modes d’existence publique de l’IA. Articulant des méthodes quantitatives et qualitatives, l’enquête s’appuie sur trois types de données issues des arènes médiatique, politique et scientifique françaises : un corpus d’articles de presse relatifs à l’IA couvrant une période de près de 20 ans (2000-2019) ; des entretiens auprès d’acteurs du débat public (scientifiques, journalistes, institutionnels) ; des rapports publics (2006-2019). Portée par l’augmentation de la puissance de calcul et la disponibilité de larges bases de données d’entraînement, la « vague de l’IA » dans l’espace public se produit à la faveur de facteurs convergents – technologiques, économiques, médiatiques et politiques – sans être le reflet d’une véritable « révolution scientifique », promue par les médias et les entreprises mais contestée dans les récits des chercheurs. L’article montre ainsi comment la vie publique de l’IA prend forme à la croisée de registres discursifs concurrents et souvent incommensurables. De plus, si les discours sur l’IA et son éthique sont très présents dans l’espace public et émergent comme un « problème public » devenu un enjeu de régulation, ils ne s’appuient pas véritablement sur un « public concerné » (Dewey, 2012) en dehors des sphères spécialisées, qui serait engagé dans un travail d’enquête et de mobilisations collectives. Ainsi, la dernière « vague de l’IA » et la montée en puissance des questions éthiques semblent plutôt marquer une économicisation avancée du domaine, de plus en plus soumis aux intérêts privés, face à laquelle chercheurs et politiques cherchent à se positionner.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "IA éthique"

1

Hizam, Meriem. "Exploration de la contribution des outils d'intelligence artificielle à la prise de décision en organisation publique et privée : comparaison et caractérisation." Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU3013.

Full text
Abstract:
L’intelligence artificielle (IA), bien que solidement ancrée dans le paysage technologique depuis plusieurs décennies, puise ses avancées dans trois leviers fondamentaux : la puissance de calcul, la sophistication des algorithmes et l’abondance exponentielle des données. Pourtant, son essor rapide s’est souvent accompagné d’une compréhension lacunaire de son véritable potentiel technique, d’un encadrement éthique insuffisant et d’un manque d’évaluation quant à la pertinence de sa mobilisation. Ces carences, conjuguées à d’autres facteurs, expliquent en partie les taux d’échec préoccupants des projets d’IA, atteignant 85 % selon Gartner. Il apparaît dès lors que l’IA ne constitue pas une solution universelle à toutes les problématiques organisationnelles et sociales. Notre thèse doctorale propose d’explorer l’intégration stratégique et éthique de l’IA, afin d’en maximiser la pertinence et d’en minimiser les risques. Bien que nous évoluions encore à l’ère de l’IA faible, en raison défis techniques, philosophiques et épistémologiques freinant l’avènement d’une IA générale, notre recherche aspire à promouvoir une intégration plus pertinente et éthique des systèmes d’IA. Nos recherches nous ont permis d’identifier une taxonomie des facteurs d’échec des projets d’IA. Deux dimensions fondamentales ont été retenues pour nos travaux suivants : a) stratégique : une première itération de la théorie de la décision Ad Hoc Augmentée pour évaluer la pertinence de mobilisation de l’IA dans les processus décisionnels des organisations, b) éthique : une matrice d’évaluation de la maturité éthique des systèmes d’IA aider les organisations à se positionner et évaluer leur responsabilité et leur conformité éthique. Inscrite dans le cadre du dispositif CIFRE, cette thèse confronte nos modèles aux réalités organisationnelles. Nos objectifs sont doubles : fournir des outils pragmatiques pour des décisions éclairées et alimenter le débat scientifique autour des enjeux éthiques et stratégiques de l’IA. Enfin, notre travail repose sur une logique tridimensionnelle intégrant les dimensions techniques, humano-sociale et organisationnelle, afin de mieux coordonner les intelligences humaine et artificielle pour une prise de décision optimisée
Artificial Intelligence (AI), although firmly rooted in the technological landscape for several decades, derives its remarkable advancements from three fundamental pillars: computing power, algorithmic sophistication, and the exponential abundance of data. However, its rapid rise has often been accompanied by a limited understanding of its true technical potential, inadequate ethical oversight, and a lack of evaluation regarding the relevance of its application. These shortcomings, combined with other factors, partially explain the alarming failure rates of AI projects, which reach 85% according to Gartner. It thus appears that AI is not a universal solution to all organizational and social challenges. Our doctoral thesis aims to explore the strategic and ethical integration of AI to maximize its relevance while minimizing associated risks. Although we are still in the era of narrow AI, due to technical, philosophical, and epistemological challenges hindering the emergence of general AI, our research seeks to promote a more relevant and ethically sound integration of AI systems. Our investigations have enabled us to identify a taxonomy of factors contributing to the failure of AI projects. Two fundamental dimensions have been prioritized for our subsequent work: a) Strategic: a preliminary iteration of the Ad Hoc Augmented Decision Theory, designed to assess the relevance of deploying AI in organizational decisionmaking processes. b) Ethical: a maturity matrix for evaluating the ethical robustness of AI systems, helping organizations to position themselves and assess their ethical responsibility and compliance. Conducted within the CIFRE framework, this thesis confronts our theoretical models with organizational realities. Our objectives are twofold: to provide organizations with pragmatic tools for informed decision-making and to enrich the scientific debate on the ethical and strategic issues surrounding AI. Finally, our work is based on a three-dimensional logic integrating technical, human-social, and organizational dimensions, to better coordinate human and artificial intelligence for optimized decision-making
APA, Harvard, Vancouver, ISO, and other styles
2

Souverain, Thomas. "Comment l'IA nous classe : expliquer l'IA dans les services financiers et la recherche d'emploi, des solutions techniques aux enjeux éthiques." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLE010.

Full text
Abstract:
Au croisement de la data-science et de la philosophie, cette thèse CIFRE mène une recherche sur la notion d'IA explicable (XIA), centrée sur deux cas d'usage qui touchent l'un aux recommandations de l'IA sur l'octroi de prêts (partenariat DreamQuark), l'autre concernant la vérification par l'IA de la légalité des offres d'emploi (partenariat France Travail). La thèse présente d'abord un panorama critique des techniques d'explicabilité en IA (le quoi de l'explication). Elle examine ensuite en construisant un package, la manière dont les biais de classification de l'IA sont susceptibles d'être corrigés dans le cas de l'octroi de crédit, afin d’obtenir une décision juste (le pourquoi de l'explication). Elle explore enfin comment sur le terrain, les usagers de l'IA interagissent avec les recommandations algorithmiques, et comment optimiser ces interactions (pour qui expliquer). Nous défendons ainsi que les solutions d’explicabilité ne sont que la base d’un discours qui doit intégrer causalité, justice, et intelligibilité, pour effectivement expliquer l’IA
This thesis explores the notion of explainable AI (XAI), involving data-science and philosophy. Thanks to industrial partnerships, we focus on two use cases where AI classifications are deployed, and impact humans on a daily basis: loan granting (partnership with the company DreamQuark) and warnings on illegal job offers (partnership with the French Employment Agency, France Travail). We begin with a critical lens on techniques used to explain AI classifications (the what of explanation). Building our own package, we then examine how classification bias can be mitigated in loan lending, to obtain a fair outcome (the what for of explanation). Finally, we empirically investigate how users of AI interact with algorithmic recommendations, and how these interactions can be optimized (for whom to explain). We argue that explainability solutions are merely the basis of a description which must incorporate causality, fairness, and intelligibility in order to effectively explain AI
APA, Harvard, Vancouver, ISO, and other styles
3

Taheri, Sojasi Yousef. "Modeling automated legal and ethical compliance for trustworthy AI." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS225.

Full text
Abstract:
Les avancées en intelligence artificielle ont conduit à des enjeux juridiques et éthiques significatifs liés à la vie privée, aux biais, à la responsabilité, etc. Ces dernières années, de nombreuses réglementations ont été mises en place pour limiter ou atténuer les risques associés à l'IA. Le respect de ces réglementations est nécessaire pour la fiabilité des systèmes d'IA et pour garantir une utilisation responsable. De plus, des systèmes d'IA fiables doivent également être éthiques, en assurant une conformité avec les normes éthiques. La conformité aux lois applicables et l'adhésion aux principes éthiques sont essentielles pour la plupart des applications de l'IA. Nous étudions ce problème du point de vue des agents d'IA. En d'autres termes, comment un agent peut-il garantir que ses actions respectent les normes juridiques et éthiques. Nous nous intéressons aux approches basées sur le raisonnement logique pour intégrer la conformité juridique et éthiques dans le processus de planification de l'agent. Le domaine spécifique dans lequel nous poursuivons notre objectif est le traitement des données personnelles, c'est-à-dire, les actions de l'agent impliquent l'utilisation et le traitement des données personnelles. Une réglementation applicable dans ce domaine est le Règlement Général sur la Protection des Données (RGPD). De plus, le traitement des données personnelles peut entraîner certains risques éthiques en matière de vie privée ou de biais.Nous abordons cette question à travers une série de contributions présentées dans cette thèse. Nous commençons par la question de la conformité au RGPD. Nous adoptons le Calcul des Événements avec la Programmation par Ensembles de Réponses (ASP) pour modéliser les actions des agents et l'utiliser pour planifier et vérifier la conformité au RGPD. Un langage de policy est utilisé pour représenter les obligations et exigences du RGPD. Ensuite, nous examinons la question de la conformité éthique. Un modèle d'utilité ordinale pluraliste est proposé, permettant d'évaluer les actions en fonction des valeurs morales. Ce modèle est basé sur plusieurs critères et utilise des systèmes de vote pour agréger les évaluations sur une échelle ordinale. Nous intégrons ensuite ce modèle d'utilité et le cadre de conformité juridique dans un planificateur de Réseau de Tâches Hiérarchiques (HTN). Dans cette contribution, les normes juridiques sont considérées comme des contraintes "hard" et les normes éthiques comme des contraintes "soft". Enfin, en dernière étape, nous explorons davantage les combinaisons possibles de la conformité juridique et éthique avec l'agent de planification et proposons un cadre unifié. Ce cadre capture l'interaction et les conflits entre les normes juridiques et éthiques et est testé dans un cas d'utilisation avec des systèmes d'IA gérant la livraison d'articles médicaux
The advancements in artificial intelligence have led to significant legal and ethical issues related to privacy, bias, accountability, etc. In recent years, many regulations have been put in place to limit or mitigate the risks associated with AI. Compliance with these regulations are necessary for the reliability of AI systems and to ensure that they are being used responsibly. In addition, reliable AI systems should also be ethical, ensuring alignment with ethical norms. Compliance with applicable laws and adherence to ethical principles are essential for most AI applications. We investigate this problem from the point of view of AI agents. In other words, how an agent can ensure the compliance of its actions with legal and ethical norms. We are interested in approaches based on logical reasoning to integrate legal and ethical compliance in the agent's planning process. The specific domain in which we pursue our objective is the processing of personal data. i.e., the agent's actions involve the use and processing of personal data. A regulation that applies in such a domain is the General Data Protection Regulations (GDPR). In addition, processing of personal data may entail certain ethical risks with respect to privacy or bias.We address this issue through a series of contributions presented in this thesis. We start with the issue of GDPR compliance. We adopt Event Calculus with Answer Set Programming(ASP) to model agents' actions and use it for planning and checking the compliance with GDPR. A policy language is used to represent the GDPR obligations and requirements. Then we investigate the issue of ethical compliance. A pluralistic ordinal utility model is proposed that allows one to evaluate actions based on moral values. This model is based on multiple criteria and uses voting systems to aggregate evaluations on an ordinal scale. We then integrate this utility model and the legal compliance framework in a Hierarchical Task Network(HTN) planner. In this contribution, legal norms are considered hard constraints and ethical norm as soft constraint. Finally, as a last step, we further explore the possible combinations of legal and ethical compliance with the planning agent and propose a unified framework. This framework captures the interaction and conflicts between legal and ethical norms and is tested in a use case with AI systems managing the delivery of health care items
APA, Harvard, Vancouver, ISO, and other styles
4

Delarue, Simon. "Learning on graphs : from algorithms to socio-technical analyses on AI." Electronic Thesis or Diss., Institut polytechnique de Paris, 2025. http://www.theses.fr/2025IPPAT004.

Full text
Abstract:
Cette thèse aborde le double défi de l'avancement des méthodes d'Intelligence Artificielle (IA) tout en évaluant de manière critique leur impact sociétal. Alors que les techniques d'IA s'intègrent dans des secteurs à décisions critiques comme la santé et la justice, leur influence croissante exige un examen approfondi, reflété dans l'émergence de réglementations internationales telles que l'AI Act en Europe. Pour relever ces défis, ce travail utilise des méthodes à base de graphes attribués et préconise de passer d'un paradigme de modèles axés sur la performance vers des approches qui privilégient également la scalabilité, la simplicité et l'explicabilité. La première partie de cette thèse développe un ensemble de méthodes et d'algorithmes de graphes attribués pour améliorer les techniques d'apprentissage en IA. Elle fournit une contribution logicielle exploitant la parcimonie des réseaux complexes pour réduire les coûts de calcul. De plus, elle présente des modèles de graphes non neuronaux permettant de résoudre les tâches de classification de nœuds et de prédiction de liens, montrant comment ces méthodes peuvent surpasser les approches par réseaux de neurones tout en étant plus économes en ressources de calcul. Enfin, elle propose un algorithme de fouille de motifs permettant de générer des résumés concis et lisibles pour de grands réseaux. Ainsi, ces contributions soulignent le potentiel de ces approches pour fournir des solutions efficaces et interprétables aux défis techniques de l'IA. La deuxième partie adopte une approche interdisciplinaire pour étudier l'IA en tant que système sociotechnique. En considérant l'IA comme un écosystème influencé par divers acteurs et préoccupations sociétales, elle utilise des modèles de graphes pour analyser les interactions et tensions liées à l'explicabilité, à l'éthique et à l'impact environnemental au coeur de l'IA. Une étude utilisateur explore l'influence des designs d'explications à base de graphes sur la perception des recommandations d'IA, tandis que la constitution et l'analyse d'un corpus de chartes et manifestes éthiques en IA permettent de quantifier le rôle des principaux acteurs dans la gouvernance de l'IA. Une dernière analyse étudie la littérature scientifique à la frontière des domaines de l'IA et de l'environnement, et révèle que les préoccupations environnementales en IA sont principalement abordées sous un angle technique, soulignant la nécessité d'une approche plus large pour saisir les implications écologiques de la digitalisation
This thesis addresses the dual challenge of advancing Artificial Intelligence (AI) methods while critically assessing their societal impact. With AI technologies now embedded in high-stake decision sectors like healthcare and justice, their growing influence demands thorough examination, reflected in emerging international regulations such as the AI Act in Europe. To address these challenges, this work leverages attributed-graph based methods and advocates for a shift from performance-focused AI models to approaches that also prioritise scalability, simplicity, and explainability.The first part of this thesis develops a toolkit of attributed graph-based methods and algorithms aimed at enhancing AI learning techniques. It includes a software contribution that leverages the sparsity of complex networks to reduce computational costs. Additionally, it introduces non-neural graph models for node classification and link predictions tasks, showing how these methods can outperform advanced neural networks while being more computationally efficient. Lastly, it presents a novel pattern mining algorithm that generates concise, human-readable summaries of large networks. Together, these contributions highlight the potential of these approaches to provide efficient and interpretable solutions to AI's technical challenges.The second part adopts an interdisciplinary approach to study AI as a socio-technical system. By framing AI as an ecosystem influenced by various stakeholders and societal concerns, it uses graph-based models to analyse interactions and tensions related to explainability, ethics, and environmental impact. A user study explores the influence of graph-based explanations on user perceptions of AI recommendations, while the building and analysis of a corpus of AI ethics charters and manifestos quantifies the roles of key actors in AI governance. A final study reveals that environmental concerns in AI are primarily framed technically, highlighting the need for a broader approach to the ecological implications of digitalisation
APA, Harvard, Vancouver, ISO, and other styles
5

Mainsant, Marion. "Apprentissage continu sous divers scénarios d'arrivée de données : vers des applications robustes et éthiques de l'apprentissage profond." Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALS045.

Full text
Abstract:
Le cerveau humain reçoit en continu des informations en provenance de stimuli externes. Il a alors la capacité de s’adapter à de nouvelles connaissances tout en conservant une mémoire précise de la connaissance apprise par le passé. De plus en plus d’algorithmes d’intelligence artificielle visent à apprendre des connaissances à la manière d’un être humain. Ils doivent alors être mis à jour sur des données variées arrivant séquentiellement et disponibles sur un temps limité. Cependant, un des verrous majeurs de l’apprentissage profond réside dans le fait que lors de l’apprentissage de nouvelles connaissances, les anciennes sont quant-à-elles perdues définitivement, c’est ce que l’on appelle « l’oubli catastrophique ». De nombreuses méthodes ont été proposées pour répondre à cette problématique, mais celles-ci ne sont pas toujours applicables à une mise en situation réelle car elles sont construites pour obtenir les meilleures performances possibles sur un seul scénario d’arrivée de données à la fois. Par ailleurs, les meilleures méthodes existant dans l’état de l’art sont la plupart du temps ce que l’on appelle des méthodes à « rejeu de données » qui vont donc conserver une petite mémoire du passé, posant ainsi un problème dans la gestion de la confidentialité des données ainsi que dans la gestion de la taille mémoire disponible.Dans cette thèse, nous proposons d’explorer divers scénarios d’arrivée de données existants dans la littérature avec, pour objectif final, l’application à la reconnaissance faciale d’émotion qui est essentielle pour les interactions humain-machine. Pour cela nous présenterons l’algorithme Dream Net – Data-Free qui est capable de s’adapter à un vaste nombre de scenarii d’arrivée des données sans stocker aucune donnée passée. Cela lui permet donc de préserver la confidentialité des données apprises. Après avoir montré la robustesse de cet algorithme comparé aux méthodes existantes de l’état de l’art sur des bases de données classiques de la vision par ordinateur (Mnist, Cifar-10, Cifar-100 et Imagenet-100), nous verrons qu’il fonctionne également sur des bases de données de reconnaissance faciale d’émotions. En s’appuyant sur ces résultats, nous proposons alors un démonstrateur embarquant l’algorithme sur une carte Nvidia Jetson nano. Enfin nous discuterons la pertinence de notre approche pour la réduction des biais en intelligence artificielle ouvrant ainsi des perspectives vers une IA plus robuste et éthique
The human brain continuously receives information from external stimuli. It then has the ability to adapt to new knowledge while retaining past events. Nowadays, more and more artificial intelligence algorithms aim to learn knowledge in the same way as a human being. They therefore have to be able to adapt to a large variety of data arriving sequentially and available over a limited period of time. However, when a deep learning algorithm learns new data, the knowledge contained in the neural network overlaps old one and the majority of the past information is lost, a phenomenon referred in the literature as catastrophic forgetting. Numerous methods have been proposed to overcome this issue, but as they were focused on providing the best performance, studies have moved away from real-life applications where algorithms need to adapt to changing environments and perform, no matter the type of data arrival. In addition, most of the best state of the art methods are replay methods which retain a small memory of the past and consequently do not preserve data privacy.In this thesis, we propose to explore data arrival scenarios existing in the literature, with the aim of applying them to facial emotion recognition, which is essential for human-robot interactions. To this end, we present Dream Net - Data-Free, a privacy preserving algorithm, able to adapt to a large number of data arrival scenarios without storing any past samples. After demonstrating the robustness of this algorithm compared to existing state-of-the-art methods on standard computer vision databases (Mnist, Cifar-10, Cifar-100 and Imagenet-100), we show that it can also adapt to more complex facial emotion recognition databases. We then propose to embed the algorithm on a Nvidia Jetson nano card creating a demonstrator able to learn and predict emotions in real-time. Finally, we discuss the relevance of our approach for bias mitigation in artificial intelligence, opening up perspectives towards a more ethical AI
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "IA éthique"

1

JONAS, Sylvie, and Françoise LAMNABHI-LAGARRIGUE. "Éthique et responsabilité des systèmes industriels cyber-physiques." In Digitalisation et contrôle des systèmes industriels cyber-physiques, 317–33. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9085.ch16.

Full text
Abstract:
Une approche juridique et éthique spécifique aux systèmes cyber-physiques, a fortiori aux ICPS, n’est pas encore répandue. Cependant, nous constatons d’une part que les caractéristiques de ces systèmes permettent de faire des parallèles avec des sujets plus couramment abordés tels que l’intelligence artificielle (IA), l’Internet des objets et les robots, et d’autre part que le nouveau champ de recherche des systèmes cyber-physiques et humains (CPHS), englobant les ICPS pour leur impact social, commence à aborder ces questions. Afin d’analyser plus en détail les problèmes rencontrés, la question de l’éthique sera examinée plus en détail dans ce chapitre dans un premier temps, avant d’explorer plus spécifiquement la question de la responsabilité dans un second temps.
APA, Harvard, Vancouver, ISO, and other styles
2

"Autres titres parus dans la collection Éthique IA et société." In Données personnelles : reprenons le pouvoir!, 73–74. Les Presses de l’Université de Laval, 2024. http://dx.doi.org/10.1515/9782766303809-017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

BOUCAUD, Pascale. "Protection de la liberté et de la fragilité de la personne face au robot." In Intelligence(s) artificielle(s) et Vulnérabilité(s) : kaléidoscope, 137–48. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3642.

Full text
Abstract:
Le cadre de vie de la personne âgée, quel qu’il soit, est de plus en plus connecté à des techniques numériques diversifiées. En dépit de l’apport incontestable de ces nouvelles techniques, des risques sont d’ores et déjà à souligner. De nombreuses déclarations ont vu le jour, en faveur d’une IA éthique, responsable et respectueuse des droits de la personne. Sont principalement concernés le principe de dignité humaine, de liberté du consentement, le droit au respect de la vie privée, la protection des données personnelles. Ces droits fondamentaux ne sont pas négociables et encore moins optionnels. C’est pourquoi, nous tenterons dans cet article, de mesurer l’effectivité de certains de ces droits et libertés pour la personne âgée confrontée à la robotisation.
APA, Harvard, Vancouver, ISO, and other styles
4

BAILLARGEAT, Dominique. "Intelligence Artificielle et villes intelligentes." In Algorithmes et Société, 37–46. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4544.

Full text
Abstract:
Les technologies du numérique et de l'Intelligence Artificielle (IA) sont amenées à jouer un rôle essentiel dans tous les domaines de la société de demain pour améliorer le fonctionnement de la ville et la qualité de vie de ses habitants, tout en diminuant l'impact environnemental et la facture énergétique globale. Pour atteindre ses objectifs, il est nécessaire de penser les modes de complémentarité entre l'Humain et les systèmes intelligents. En effet, l'IA contribuera à rendre les villes intelligentes et sera vue comme un facteur d'amélioration de la qualité de vie, qui si elle est comprise et acceptée par les citoyens. Ce futur environnement urbain numérique ne peut alors se résumer à un réseau interconnecté de boîtes noires, mais doit tendre vers un réseau intelligent explicable, éthique et centré sur l'Humain. Ce chapitre se place dans ce contexte et propose des pistes de réflexion sur les enjeux numériques et sociétaux de la future ville intelligente.
APA, Harvard, Vancouver, ISO, and other styles
5

PICHENOT, Évelyne. "Société civile européenne et enjeux des algorithmes." In Algorithmes et Société, 141–54. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4621.

Full text
Abstract:
Aux différentes étapes de la recherche de régulation de l'intelligence artificielle (IA), le Comité économique et social européen, fort de son expérience du consensus entre les Parties prenantes, joue un rôle de relais au niveau européen, pour l'instauration d'un dialogue Science et Société sur ce sujet techniquement complexe aux fortes incidences sociétales. Ce compendium retrace aussi l'approche autonome des Partenaires sociaux au sein du Dialogue social européen qui vise à mesurer l'impact sur les métiers et les emplois de ces innovations technologiques. En parallèle, la société civile européenne veille à faire prendre en compte les principes éthiques de l'IA définis au niveau européen par les organismes internationaux en cours d'élaboration de normes sur l'IA.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "IA éthique"

1

Hulin, Anne-Sophie. Enjeux sociétaux de l'IA 101 : un guide pour démystifier les enjeux éthiques et juridiques des systèmes d’IA. Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique, August 2024. http://dx.doi.org/10.61737/nneu6499.

Full text
Abstract:
Le développement de l’intelligence artificielle présente de nombreux bénéfices pour les individus et les sociétés, mais aussi d’importants enjeux. Leur intégration progressive à nos usages personnels et professionnels et leur performance évolutive suscitent des questionnements sur les risques associés à cette transformation technologique dans nos rapports sociaux à l’échelle mondiale. Comment assurer le développement éthique et responsable de ces IA afin que ces technologies puissent bénéficier à l’ensemble des sociétés? Cette boîte à questions vise à démystifier les concepts et les caractéristiques des systèmes d’intelligence artificielle et leurs enjeux éthiques et juridiques afin d’en stimuler les réflexions et les débats.
APA, Harvard, Vancouver, ISO, and other styles
2

Anne, Abdoulaye, Elisa Gagnon, Esli Osmanlliu, Esma Aïmeur, Florent Michelot, Florie Brangé, Georges-Philippe Gadoury-Sansfaçon, et al. Abécédaire de l’IA. Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique, September 2024. http://dx.doi.org/10.61737/bgjn7670.

Full text
Abstract:
Vous avez entre les mains l’abécédaire de l’IA, un outil développé par l’Axe Éducation et Capacitation de l’Obvia (Observatoire sur les impacts sociétaux de l’IA et du numérique) en collaboration avec le RÉCIT. Vous y trouverez des fiches classées en ordre alphabétique abordant des concepts phares de l’intelligence artificielle (IA). Chaque fiche comporte une définition et un exemple pour mieux cerner les concepts ciblés. Chacune d’elles appartient à une des trois catégories suivantes : concepts fondamentaux, éthique de l’IA et technique de l’IA.
APA, Harvard, Vancouver, ISO, and other styles
3

Plusquellec, Pierrich, Lesly Nzeusseu Kouamou, Alexandre Alle, Cynthia Chassigneux, Antoine Congost, Marie-Pierre Cossette, Abdoulaye Baniré Diallo, et al. Action IA : ensemble pour le développement et l’adoption responsable dans l’industrie - Synthèse de la journée. Observatoire international sur les impacts sociétaux de l'IA et du numérique, February 2025. https://doi.org/10.61737/ubll6547.

Full text
Abstract:
Le 4 juin 2024, près d’une centaine de participants issus de divers horizons – industries, milieux académiques et organisations publiques – se sont réunis chez Ubisoft La Forge à Montréal pour participer à Action IA : Ensemble pour le développement et l’adoption responsable dans l’industrie. Organisée par la Direction scientifique de l’Obvia, responsable de la collaboration avec l’industrie, en partenariat avec Ubisoft La Forge, les Fonds de recherche du Québec (FRQ) et le Conseil de l’innovation du Québec (CIQ), cette journée avait pour objectif de faciliter un dialogue intersectoriel sur le déploiement responsable de l’intelligence artificielle (IA) dans différents secteurs industriels. L’événement a permis aux participants d’accéder à un réseau diversifié d’experts, de découvrir des outils innovants et d’échanger autour des bonnes pratiques favorisant un usage éthique et durable de l’IA. Ce document résume les moments forts de cette journée, en mettant en lumière les présentations, discussions et collaborations qui ont contribué à renforcer une communauté engagée pour un développement responsable de l’IA.
APA, Harvard, Vancouver, ISO, and other styles
4

Langlois, Lyse, Marc-Antoine Dilhac, Jim Dratwa, Thierry Ménissier, Jean-Gabriel Ganascia, Daniel Weinstock, Luc Bégin, and Allison Marchildon. L'éthique au cœur de l'IA. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, October 2023. http://dx.doi.org/10.61737/mdhp6080.

Full text
Abstract:
Issu d’un travail collaboratif regroupant des spécialistes de l’éthique, de la philosophie, de l’informatique et de l’économie, le rapport « L’éthique au cœur de l’IA » vise à préciser et clarifier le rôle que doit occuper l’éthique à l’ère de l’intelligence artificielle (IA), et à mettre en lumière comment cette notion peut être appliquée et mise en œuvre de manière efficace et fructueuse. S’adressant à l’ensemble des individus engagés, de près ou de loin, dans le développement de l’IA, ce document met de l’avant une éthique centrée sur la réflexivité et le dialogue. Dans une volonté de traduire plus concrètement cette vision, il met en lumière l’approche méthodologique utilisée pour construire la Déclaration de Montréal et propose également quelques pistes de recommandation. En somme, le présent texte plaide pour l’inclusion d’une réelle réflexion éthique dans l’ensemble des étapes du processus de développement de l’IA. Il se veut ainsi une main tendue, un appel à la collaboration entre éthiciennes et éthiciens, développeuses et développeurs et membres de l’industrie afin de véritablement intégrer l’éthique au cœur de l’IA.
APA, Harvard, Vancouver, ISO, and other styles
5

Naffi, Nadia, Chris Isaac Larnder, Viviane Vallerand, and Simon Duguay. Éduquer contre la désinformation amplifiée par l’IA et l’hypertrucage : une recension d’initiatives de 2018 à 2024. ­Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique, October 2024. http://dx.doi.org/10.61737/qchr7582.

Full text
Abstract:
Si la désinformation ne date pas d'hier, l’arrivée d’Internet et, plus récemment, l'essor de l’Intelligence Artificielle (IA),dont l’IA générative, ont contribué à l'amplification de ce phénomène. Tandis qu’auparavant la création et la diffusion de campagnes de désinformation étaient coûteuses en temps et en argent, l’IA facilite, aujourd’hui, la création de contenus trompeurs à grande échelle, causant ainsi une augmentation des risques de la désinformation. Depuis quelques années, plusieurs initiatives pour éduquer la population contre la désinformation propulsée par l’utilisation non éthique de l’IA ont vu le jour dans le monde. Pour orienter la recherche et concerter les efforts, ce rapport présente les résultats d’une recension de telles initiatives. Sans prétendre à l'exhaustivité, cette recension permet d’avoir une idée de la variété des approches visant à informer et éduquer les personnes apprenantes et le personnel enseignant sur cette nouvelle réalité. Ce document permet à la communauté scientifique, à la classe politique, au personnel enseignant et aux conseillers et conseillères pédagogiques de consulter ce qui se fait déjà à différents endroits dans le monde. En découvrant ces initiatives, ces acteurs et actrices scolaires pourront prendre connaissance des angles morts en recherche sur le sujet, des possibles orientations de programmes ou encore des idées d’activités complètes et déjà testées pour éduquer sur cette réalité. Comme ce document contient aussi plusieurs ressources de développement professionnel sur le sujet de la désinformation propulsée par IA, il permet aussi au personnel enseignant ou aux conseillères et conseillers pédagogiques d’avoir accès à des sources pertinentes pour en apprendre plus sur ce phénomène.
APA, Harvard, Vancouver, ISO, and other styles
6

Jacob, Steve, and Sébastien Brousseau. L’IA dans le secteur public : cas d’utilisation et enjeux éthiques. Observatoire international sur les impacts sociétaux de l'IA et du numérique, May 2024. http://dx.doi.org/10.61737/fcxm4981.

Full text
Abstract:
L’introduction de l’intelligence artificielle (IA) dans l’administration publique est en pleine expansion et représente la phase plus récente de la transformation numérique. L’utilisation de systèmes d’IA est souvent associée à l’amélioration de l’efficacité et de la productivité, car elle permet d’exécuter rapidement des tâches routinières, de réaliser des activités à une plus grande échelle et de rendre les services accessibles à un plus grand nombre de personnes. Cette technologie a donc le potentiel de transformer plusieurs aspects du travail administratif comme la prise de décision automatisée, l’analyse prédictive, le traitement de documents et l’interaction avec les citoyens. À l’heure où les technologies d’intelligence artificielle occupent une place grandissante dans la vie des citoyens et que les administrations publiques introduisent progressivement ces technologies au sein de leurs services, il semble que les fonctions et possibilités associées aux systèmes d’IA (SIA) ne sont pas toujours clairement connues ou comprises par les décideurs, les usagers ou les employés du secteur public. Ce rapport a pour but de décrire des cas concrets d’utilisation de l’IA dans les organisations publiques de pays de l’OCDE. L’intention est d’enrichir la connaissance et la compréhension des potentialités de l’IA en présentant un éventail de systèmes aux capacités techniques variées.
APA, Harvard, Vancouver, ISO, and other styles
7

Langlois, Lyse, Justin Lawarée, and Aude Marie Marcoux. Travaux exploratoires pour le développement d’un outil d’évaluation des impacts sociétaux de l’IA et du numérique. Observatoire international sur les impacts sociétaux de l'IA et du numérique, September 2022. http://dx.doi.org/10.61737/mnnj5598.

Full text
Abstract:
Afin de mettre un outil intégrateur à la disposition des organisations québécoises, le Forum IA Québec a confié à l’OBVIA le mandat de mener un projet de recherche exploratoire visant à tester des chartes éthiques et voir laquelle pourrait correspondre aux besoins des entreprises participantes. Les travaux réalisés ont permis de dégager 7 principes et 25 sous-principes ainsi qu’une série de caractéristiques spécifiques importantes à intégrer dans l’outil. Le document suivant présente la première partie de cet outil comprenant les principes, les définitions qui ont été validées par un groupe d’experts, de même qu’une première série de questionnements éthiques et d’évaluation des risques.
APA, Harvard, Vancouver, ISO, and other styles
8

Dilhac, Marc-Antoine, Vincent Mai, Carl-Maria Mörch, Pauline Noiseau, and Nathalie Voarino. Penser l’intelligence artificielle responsable : un guide de délibération. Observatoire international sur les impacts sociétaux de l'IA et du numérique, March 2020. http://dx.doi.org/10.61737/nicj7555.

Full text
Abstract:
La fonction Délibération de l'OBVIA et Algora Lab ont développé, en partenariat avec CIFAR, un guide de délibération qui vise à outiller les participantes et participants en vue des différentes délibérations publiques organisées sur l'intelligence artificielle (IA). Le déploiement de l’IA affecte l’ensemble des citoyennes et des citoyens et pose des questions éthiques et politiques qui doivent faire l’objet d’une délibération citoyenne. Pour cela, il est primordial de consolider la littératie numérique du grand public, c’est-à-dire d’informer et d’outiller les citoyennes et les citoyens pour leur permettre de mieux comprendre les enjeux du développement responsable de l’IA et de participer aux délibérations publiques sur les principes et les normes de son déploiement. Le présent guide a précisément pour vocation de rendre accessible l’IA et les questions éthiques qui s’y rapportent, et d’introduire à la délibération sur l’éthique de l’IA. Il a aussi pour ambition d’outiller les communautés pour qu’elles organisent leurs propres délibérations sur l’IA et le déploiement des technologies numériques dans leur environnement social.
APA, Harvard, Vancouver, ISO, and other styles
9

Mörch, Carl-Maria, Pascale Lehoux, Marc-Antoine Dilhac, Catherine Régis, and Xavier Dionne. Recommandations pratiques pour une utilisation responsable de l’intelligence artificielle en santé mentale en contexte de pandémie. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, December 2020. http://dx.doi.org/10.61737/mqaf7428.

Full text
Abstract:
La pandémie actuelle a provoqué une onde de choc dont les conséquences se font sentir dans tous les aspects de notre vie. Alors que la santé physique a été généralement au cœur de l’attention scientifique et politique, il est devenu clair que la pandémie de COVID-19 a influé significativement sur la santé mentale de nombreux individus. Plus encore, elle aurait accentué les fragilités déjà existantes dans nos systèmes de santé mentale. Souvent moins financé ou soutenu que la santé physique, le domaine de la santé mentale pourrait-il bénéficier d’innovations en intelligence artificielle en période de pandémie ? Et si oui comment ? Que vous soyez développeur.e.s en IA, chercheur.e.s ou entrepreneur.e.s, ce document vise à vous fournir une synthèse des pistes d’actions et des ressources pour prévenir les principaux risques éthiques liés au développement d’applications d’IA dans le champ de la santé mentale. Pour illustrer ces principes, ce document propose de découvrir quatre cas fictif, à visée réaliste, à partir desquels il vous sera proposé de porter attention aux enjeux éthiques potentiels dans cette situation, aux enjeux d’innovation responsable à envisager, aux pistes d’action possibles inspirées de la liste de contrôle (Protocole Canadien conçu pour favoriser une utilisation responsable de l’IA en santé mentale et prévention du suicide, Mörch et al., 2020), aux ressources pratiques et à certains enjeux juridiques pertinents. Ce document a été élaboré par Carl-Maria Mörch, PhD, Algora Lab, Université de Montréal, Observatoire International sur les impacts sociétaux de l’Intelligence Artificielle et du Numérique (OBVIA), Mila – Institut Québécois d’Intelligence Artificielle, avec les contributions de Pascale Lehoux, Marc-Antoine Dilhac, Catherine Régis et Xavier Dionne.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography