Academic literature on the topic 'Intelligence artificielle responsable'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Intelligence artificielle responsable.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Intelligence artificielle responsable"

1

Barlow, Julie. "Comment les humains battront-ils les machines ?" Gestion Vol. 48, no. 3 (August 31, 2023): 84–88. http://dx.doi.org/10.3917/riges.483.0084.

Full text
Abstract:
L’intelligence artificielle mènera-t-elle l’humanité au désastre ou vers des lendemains qui chantent ? Voilà l’idée sous-jacente derrière la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, signée par plus de 2 000 personnalités du monde de la technologie. En mars 2023, la question a incité plus de 1 000 sommités à signer une pétition demandant à l’industrie de décréter un moratoire de six mois sur la formation des systèmes d’intelligence artificielle (IA).
APA, Harvard, Vancouver, ISO, and other styles
2

de Saint-Affrique, Diane. "Intelligence artificielle et médecine : quelles règles éthiques et juridiques pour une IA responsable ?" Médecine & Droit 2022, no. 172 (February 2022): 5–7. http://dx.doi.org/10.1016/j.meddro.2021.09.001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Boubacar, Soumaila. "Évaluation de la Rationalité de l'Intelligence Artificielle à l'Aide de la Formule de Soumaila : Une Perspective Neuro-mathématique et Éthique." Journal Africain des Cas Cliniques et Revues 8, no. 3 (July 10, 2024): 1–5. http://dx.doi.org/10.70065/24ja83.001l011007.

Full text
Abstract:
Ce manuscrit propose une nouvelle approche pour évaluer la rationalité des projets d'intelligence artificielle (IA) à travers une formule innovante nommée "formule de Soumaila". En partant de l'idée que l'IA cherche à imiter l'intelligence humaine (IH), l'auteur utilise une analogie avec une montée d'escalier pour expliquer comment l'IA peut être rationalisée. La formule se base sur la loi de Blondel et tient compte du nombre d'objectifs de l'IA et de l'âge du fondateur ou promoteur du projet. Les résultats obtenus montrent une classification des niveaux de rationalité de l'IA, offrant une perspective pratique pour évaluer et guider le développement de projets d'IA. Le manuscrit aborde également les implications éthiques de l'IA et la nécessité de cadres robustes pour garantir une utilisation équitable et responsable des technologies d'IA. Cette recherche innovante ouvre de nouvelles perspectives pour l'évaluation et l'intégration éthique de l'IA dans divers domaines. Mots-clés : Intelligence Artificielle (IA), Rationalité de l'IA, Éthique de l'IA, Formule de Soumaila
APA, Harvard, Vancouver, ISO, and other styles
4

Droesbeke, Jean-Jacques. "Jean-Paul Almetti, Olivier Coppet, Gilbert Saporta, Manifeste pour une intelligence artificielle comprise et responsable." Statistique et société, no. 10 | 3 (December 1, 2022): 85–87. http://dx.doi.org/10.4000/statsoc.578.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Malafronte, Olivier. "Développement des leaders avec coaching et Intelligence Artificielle : augmentation des compétences." Management & Avenir N° 142, no. 4 (September 20, 2024): 39–59. http://dx.doi.org/10.3917/mav.142.0039.

Full text
Abstract:
Cet article propose l’étude empirique de retours d’expériences de managers, leaders et étudiants en management et de l’usage de deux outils d’IA Coaching sur le sujet du développement des compétences de leaders et futurs leaders en situation de travail et de formation. En mobilisant une analyse thématique réf lexive et la théorie de l’activité, notre étude propose le concept d’augmentation des compétences pour aider les responsables RH et de la formation à appréhender et aborder l’IA pour le développement des compétences, des leaders et futurs leaders dans les organisations.
APA, Harvard, Vancouver, ISO, and other styles
6

Marcoux, Audrey, Marie-Hélène Tessier, Frédéric Grondin, Laetitia Reduron, and Philip L. Jackson. "Perspectives fondamentale, clinique et sociétale de l’utilisation des personnages virtuels en santé mentale." Santé mentale au Québec 46, no. 1 (September 21, 2021): 35–70. http://dx.doi.org/10.7202/1081509ar.

Full text
Abstract:
Avec l’attrait engendré par les avancées en informatique et en intelligence artificielle, les personnages virtuels (c.-à-d. personnages représentés numériquement d’apparence humaine ou non) sont pressentis comme de futurs prestataires de soins en santé mentale. À ce jour, l’utilisation principale de tels personnages est toutefois marginale et se limite à une aide complémentaire à la pratique des cliniciens. Des préoccupations liées à la sécurité et l’efficacité, ainsi qu’un manque de connaissances et de compétences peuvent expliquer cette discordance entre ce que certains s’imaginent être l’utilisation future (voire futuriste) des personnages virtuels et leur utilisation actuelle. Un aperçu des récentes données probantes contribuerait à réduire cette divergence et à mieux saisir les enjeux associés à leur utilisation plus répandue en santé mentale. Objectif Cet article vise à informer tous les acteurs impliqués, dont les cliniciens, quant au potentiel des personnages virtuels en santé mentale, et de les sensibiliser aux enjeux associés à leur usage. Méthode Une recension narrative de la littérature a été réalisée afin de synthétiser les informations obtenues de la recherche fondamentale et clinique, et de discuter des considérations sociétales. Résultats Plusieurs caractéristiques des personnages virtuels provenant de la recherche fondamentale ont le potentiel d’influencer les interactions entre un patient et un clinicien. Elles peuvent être regroupées en deux grandes catégories : les caractéristiques liées à la perception (p. ex. réalisme) et celles liées à l’attribution spontanée d’une catégorie sociale au personnage virtuel par un observateur (p. ex. genre). Selon la recherche clinique, plusieurs interventions ou évaluations utilisant des personnages virtuels ont montré divers degrés d’efficacité en santé mentale, et certains éléments de la relation thérapeutique (p. ex. alliance et empathie) peuvent d’ailleurs être présents lors d’une relation avec un personnage virtuel. De multiples enjeux socioéconomiques et éthiques doivent aussi être discutés en vue d’un développement et d’une utilisation plus accrue qui soient responsables et éthiques. Bien que l’accessibilité et la disponibilité des personnages virtuels constituent un avantage indéniable pour l’offre de services en santé mentale, certaines iniquités demeurent. L’accumulation de données biométriques (p. ex. rythme cardiaque) a également le potentiel d’enrichir le travail des cliniciens, mais aussi de mener au développement de personnages virtuels autonomes à l’aide de l’intelligence artificielle, ce qui pourrait conduire à certains dérapages (p. ex. erreurs de décision clinique). Quelques pistes de recommandations visant à éviter ces effets indésirables sont présentées. Conclusion L’emploi des personnages virtuels sera de plus en plus répandu en santé mentale en raison de leurs avantages prometteurs. Ainsi, il est souhaitable que tous les acteurs impliqués s’informent sur leur usage dans ce contexte, se sensibilisent aux enjeux spécifiques, participent activement aux discussions quant à leur développement et adoptent des recommandations uniformes en vue d’un usage sécuritaire et éthique en santé mentale.
APA, Harvard, Vancouver, ISO, and other styles
7

Desbois, Dominique. "Manifeste pour une intelligence artificielle comprise et responsable." Terminal, no. 134-135 (November 8, 2022). http://dx.doi.org/10.4000/terminal.8922.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

RACOCEANU, Daniel, Mehdi OUNISSI, and Yannick L. KERGOSIEN. "Explicabilité en Intelligence Artificielle ; vers une IA Responsable - Instanciation dans le domaine de la santé." Technologies logicielles Architectures des systèmes, December 2022. http://dx.doi.org/10.51257/a-v1-h5030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

NAULLY, NICOLAS. "KANT ET LA MORALE DES MACHINES : PROGRAMMER LA « BONTÉ » DANS L’ÈRE DES MODÈLES DE LANGAGE." Management & Data Science, 2023. http://dx.doi.org/10.36863/mds.a.25661.

Full text
Abstract:
Cet article examine la possibilité de programmer une intelligence artificielle (IA) pour qu'elle soit moralement "bonne", en s'inspirant des principes de Kant. Il aborde les défis de définir une éthique universelle pour les machines, la complexité des décisions morales, et les risques de biais et de discrimination. Parallèlement, il souligne les opportunités offertes par une IA éthique, telles que l'amélioration de la prise de décision et la réduction des biais humains. Des recommandations sont proposées, incluant l'établissement de principes éthiques clairs, la conception inclusive, et la transparence. L'article conclut sur l'importance de développer une IA éthiquement responsable pour façonner une société où la technologie reflète nos valeurs morales.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Intelligence artificielle responsable"

1

Belahcene, Khaled. "Explications pour l’agrégation des préférences — une contribution à l’aide à la décision responsable." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC101/document.

Full text
Abstract:
Nous cherchons à équiper un processus d’aide à la décision d’outils permettantde répondre aux exigences de redevabilité. Un décideur fournit de l’information quant à ses préférences au sujet de la façon d’arbitrer entre des points de vue conflictuels. Un analyste, chargé d’éclairer la prise de décision, fait l’hypothèse d’un modèle de raisonnement, et l’ajuste aux informations fournies par le décideur. Nous faisons l’hypothèse d’un processus d’élicitation robuste, dont les recommandations sont déduites des éléments dialectiques. Nous nous sommes donc intéressés à la résolution d’un problème inverse concernant le modèle, ainsi qu’à la production d’explications, si possible correctes, complètes, facile à calculer et à comprendre. Nous avons considéré deux formes de représentation du raisonnement: l’une ayant trait à la comparaison de paires d’alternatives fondée sur un modèle de valeur additive, l’autre ayant trait au tri des alternatives dans des catégories ordonnées fondé sur un raisonnement non-compensatoire
We consider providing a decision aiding process with tools aiming at complying to the demands of accountability. Decision makers, seeking support, provide preference information in the form of reference cases, that illustrates their views on the way of taking into account conflicting points of view. The analyst, who provides the support, assumes a generic representation of the reasoning with preferences, and fits the aggregation procedure to the preference information. We assume a robust elicitation process, where the recommendations stemming from the fitted procedure can be deduced from dialectical elements. Therefore, we are interested in solving an inverse problem concerning the model, and in deriving explanations, if possible sound, complete, easy to compute and to understand. We address two distinct forms of reasoning: one aimed at comparing pairs of alternatives with an additive value model, the other aimed at sorting alternatives into ordered categories with a noncompensatory model
APA, Harvard, Vancouver, ISO, and other styles
2

Ounissi, Mehdi. "Decoding the Black Box : Enhancing Interpretability and Trust in Artificial Intelligence for Biomedical Imaging - a Step Toward Responsible Artificial Intelligence." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS237.

Full text
Abstract:
À une époque dominée par l'IA, son processus décisionnel opaque, connu sous le nom de problème de la "boîte noire", pose des défis significatifs, particulièrement dans des domaines critiques comme l'imagerie biomédicale où la précision et la confiance sont essentielles. Notre recherche se concentre sur l'amélioration de l'interprétabilité de l'IA dans les applications biomédicales. Nous avons développé un cadre pour l'analyse d'images biomédicales qui quantifie la phagocytose dans les maladies neurodégénératives à l'aide de la microscopie vidéo à contraste de phase en accéléré. Les méthodes traditionnelles ont souvent du mal avec les interactions cellulaires rapides et la distinction des cellules par rapport aux arrière-plans, essentielles pour étudier des conditions telles que la démence frontotemporale (DFT). Notre cadre évolutif et en temps réel comprend un module de segmentation cellulaire explicable qui simplifie les algorithmes d'apprentissage profond, améliore l'interprétabilité et maintient des performances élevées en incorporant des explications visuelles et par simplifications. Nous abordons également les problèmes dans les modèles génératifs visuels, tels que les hallucinations en pathologie computationnelle, en utilisant un encodeur unique pour la coloration Hématoxyline et Éosine couplé avec plusieurs décodeurs. Cette méthode améliore la précision et la fiabilité de la génération de coloration synthétique, utilisant des fonctions de perte innovantes et des techniques de régularisation qui renforcent les performances et permettent des colorations synthétiques précises cruciales pour l'analyse pathologique. Nos méthodologies ont été validées contre plusieurs benchmarks publics, montrant des performances de premier ordre. Notamment, notre cadre a distingué entre les cellules microgliales mutantes et contrôles dans la DFT, fournissant de nouveaux aperçus biologiques sur ce phénomène non prouvé. De plus, nous avons introduit un système basé sur le cloud qui intègre des modèles complexes et fournit des retours en temps réel, facilitant une adoption plus large et des améliorations itératives grâce aux insights des pathologistes. La publication de nouveaux ensembles de données, incluant la microscopie vidéo sur la phagocytose des cellules microgliales et un ensemble de données de coloration virtuelle lié à la maladie de Crohn pédiatrique, ainsi que tous les codes sources, souligne notre engagement envers la collaboration scientifique ouverte et transparente et l'avancement. Notre recherche met en évidence l'importance de l'interprétabilité dans l'IA, plaidant pour une technologie qui s'intègre de manière transparente avec les besoins des utilisateurs et les normes éthiques dans les soins de santé. Une interprétabilité améliorée permet aux chercheurs de mieux comprendre les données et d'améliorer les performances des outils
In an era dominated by AI, its opaque decision-making --known as the "black box" problem-- poses significant challenges, especially in critical areas like biomedical imaging where accuracy and trust are crucial. Our research focuses on enhancing AI interpretability in biomedical applications. We have developed a framework for analyzing biomedical images that quantifies phagocytosis in neurodegenerative diseases using time-lapse phase-contrast video microscopy. Traditional methods often struggle with rapid cellular interactions and distinguishing cells from backgrounds, critical for studying conditions like frontotemporal dementia (FTD). Our scalable, real-time framework features an explainable cell segmentation module that simplifies deep learning algorithms, enhances interpretability, and maintains high performance by incorporating visual explanations and by model simplification. We also address issues in visual generative models, such as hallucinations in computational pathology, by using a unique encoder for Hematoxylin and Eosin staining coupled with multiple decoders. This method improves the accuracy and reliability of synthetic stain generation, employing innovative loss functions and regularization techniques that enhance performance and enable precise synthetic stains crucial for pathological analysis. Our methodologies have been validated against several public benchmarks, showing top-tier performance. Notably, our framework distinguished between mutant and control microglial cells in FTD, providing new biological insights into this unproven phenomenon. Additionally, we introduced a cloud-based system that integrates complex models and provides real-time feedback, facilitating broader adoption and iterative improvements through pathologist insights. The release of novel datasets, including video microscopy on microglial cell phagocytosis and a virtual staining dataset related to pediatric Crohn's disease, along with all source codes, underscores our commitment to transparent open scientific collaboration and advancement. Our research highlights the importance of interpretability in AI, advocating for technology that integrates seamlessly with user needs and ethical standards in healthcare. Enhanced interpretability allows researchers to better understand data and improve tool performance
APA, Harvard, Vancouver, ISO, and other styles
3

Haidar, Ahmad. "Responsible Artificial Intelligence : Designing Frameworks for Ethical, Sustainable, and Risk-Aware Practices." Electronic Thesis or Diss., université Paris-Saclay, 2024. https://www.biblio.univ-evry.fr/theses/2024/interne/2024UPASI008.pdf.

Full text
Abstract:
L'intelligence artificielle (IA) transforme rapidement le monde, redéfinissant les relations entre technologie et société. Cette thèse explore le besoin essentiel de développer, de gouverner et d'utiliser l'IA et l'IA générative (IAG) de manière responsable et durable. Elle traite des risques éthiques, des lacunes réglementaires et des défis associés aux systèmes d'IA, tout en proposant des cadres concrets pour promouvoir une Intelligence Artificielle Responsable (IAR) et une Innovation Numérique Responsable (INR).La thèse commence par une analyse approfondie de 27 déclarations éthiques mondiales sur l'IA pour identifier des principes dominants tels que la transparence, l'équité, la responsabilité et la durabilité. Bien que significatifs, ces principes manquent souvent d'outils pratiques pour leur mise en œuvre. Pour combler cette lacune, la deuxième étude de la recherche présente un cadre intégrateur pour l'IAR basé sur quatre dimensions : technique, IA pour la durabilité, juridique et gestion responsable de l'innovation.La troisième partie de la thèse porte sur l'INR à travers une étude qualitative basée sur 18 entretiens avec des gestionnaires de secteurs divers. Cinq dimensions clés sont identifiées : stratégie, défis spécifiques au numérique, indicateurs de performance organisationnels, impact sur les utilisateurs finaux et catalyseurs. Ces dimensions permettent aux entreprises d'adopter des pratiques d'innovation durable et responsable tout en surmontant les obstacles à leur mise en œuvre.La quatrième étude analyse les risques émergents liés à l'IAG, tels que la désinformation, les biais, les atteintes à la vie privée, les préoccupations environnementales et la suppression d'emplois. À partir d'un ensemble de 858 incidents, cette recherche utilise une régression logistique binaire pour examiner l'impact sociétal de ces risques. Les résultats soulignent l'urgence d'établir des cadres réglementaires renforcés, une responsabilité numérique des entreprises et une gouvernance éthique de l'IA.En conclusion, cette thèse apporte des contributions critiques aux domaines de l'INR et de l'IAR en évaluant les principes éthiques, en proposant des cadres intégratifs et en identifiant des risques émergents. Elle souligne l'importance d'aligner la gouvernance de l'IA sur les normes internationales afin de garantir que les technologies d'IA servent l'humanité de manière durable et équitable
Artificial Intelligence (AI) is rapidly transforming the world, redefining the relationship between technology and society. This thesis investigates the critical need for responsible and sustainable development, governance, and usage of AI and Generative AI (GAI). The study addresses the ethical risks, regulatory gaps, and challenges associated with AI systems while proposing actionable frameworks for fostering Responsible Artificial Intelligence (RAI) and Responsible Digital Innovation (RDI).The thesis begins with a comprehensive review of 27 global AI ethical declarations to identify dominant principles such as transparency, fairness, accountability, and sustainability. Despite their significance, these principles often lack the necessary tools for practical implementation. To address this gap, the second study in the research presents an integrative framework for RAI based on four dimensions: technical, AI for sustainability, legal, and responsible innovation management.The third part of the thesis focuses on RDI through a qualitative study of 18 interviews with managers from diverse sectors. Five key dimensions are identified: strategy, digital-specific challenges, organizational KPIs, end-user impact, and catalysts. These dimensions enable companies to adopt sustainable and responsible innovation practices while overcoming obstacles in implementation.The fourth study analyzes emerging risks from GAI, such as misinformation, disinformation, bias, privacy breaches, environmental concerns, and job displacement. Using a dataset of 858 incidents, this research employs binary logistic regression to examine the societal impact of these risks. The results highlight the urgent need for stronger regulatory frameworks, corporate digital responsibility, and ethical AI governance. Thus, this thesis provides critical contributions to the fields of RDI and RAI by evaluating ethical principles, proposing integrative frameworks, and identifying emerging risks. It emphasizes the importance of aligning AI governance with international standards to ensure that AI technologies serve humanity sustainably and equitably
APA, Harvard, Vancouver, ISO, and other styles
4

Rusu, Anca. "Delving into AI discourse within EU institutional communications : empowering informed decision-making for tomorrow’s tech by fostering responsible communication for emerging technologies." Electronic Thesis or Diss., Université Paris sciences et lettres, 2023. https://basepub.dauphine.fr/discover?query=%222023UPSLD029%22.

Full text
Abstract:
La prolifération des technologies émergentes, définies comme de nouvelles technologies ou de nouvelles utilisations de technologies anciennes (par exemple, l'intelligence artificielle (IA)), offre à la société à la fois des opportunités et des défis lors de leur utilisation. Ces technologies promettent de révolutionner divers secteurs en apportant de nouvelles efficacités, capacités et perspectives, ce qui les rend intéressantes à développer et à utiliser. Cependant, leur utilisation soulève également d'importantes préoccupations éthiques, environnementales et sociales. Les organisations communiquent par le biais de divers modes, dont l'un est le discours écrit. Un tel discours englobe non seulement la structure du message, mais aussi son contenu. En d'autres termes, le vocabulaire (la structure) est utilisé pour exprimer un point de vue spécifique (le contenu). Dans le domaine de l'utilisation des technologies, il existe un lien évident entre la communication et la prise de décision éclairée, car l'information sur la technologie (sa forme et sa substance) est diffusée par le biais de la communication, ce qui contribue à prendre des décisions éclairées. Cette thèse adopte une approche de gouvernance des risques, qui implique une perspective préventive visant à minimiser (ou à éviter) les risques potentiels futurs. Cette perspective reconnaît l'importance des individus prenant des décisions éclairées concernant l'acceptation ou l'action face aux risques futurs potentiels. Il convient de noter que les décisions des individus sont influencées par ce qu'ils savent sur une technologie et par leurs perceptions (ce qu'ils ne savent pas mais croient).Ainsi, notre recherche vise à explorer les perspectives théoriques sur les responsabilités de communication des organisations et les pratiques réelles employées par ces entités. Ce choix découle du manque apparent dans la littérature concernant la communication responsable et de la nécessité d'examiner ce sujet, en mettant l'accent sur les considérations pratiques pour définir davantage les modes de communication organisationnelle à analyser et à prendre des mesures proactives lors de la communication sur les technologies émergentes telles que l'IA. Lorsqu'une organisation communique sur une technologie émergente, on trouve dans la littérature des éléments mettant l'accent sur la responsabilité de partager des informations, mais aucun sur la responsabilité (considérée comme un comportement éthique) d'une organisation concernant l'impact de ce qui est communiqué sur le processus de prise de décision. Une certaine responsabilité est liée à la responsabilité sociale des entreprises (RSE), mais l'accent reste sur l'information. Nous proposons un concept qui aborde l'intersection entre trois domaines considérés : les technologies émergentes, la communication organisationnelle et la gouvernance des risques, à savoir celui de la Communication Organisationnelle Responsable sur les Technologies Émergentes (ROCET) pour aborder la responsabilité de ce qui est communiqué en tant que comportement éthique. Nous visons à approfondir ce concept en comblant le fossé entre la théorie et la pratique, en examinant les deux simultanément pour obtenir une compréhension globale. Deux analyses seront menées en parallèle : une revue critique de la littérature autour du concept de "communication responsable" et une analyse de discours de rapports autonomes publiés par des organismes gouvernementaux concernant l'utilisation d'une technologie émergente spécifique, à savoir l'intelligence artificielle (IA). La littérature se concentre soit sur la communication menée par les organisations dans le cadre de leur stratégie de responsabilité sociale, soit du point de vue de la théorie de la communication, en se concentrant sur la manière de transmettre efficacement un message
The proliferation of emerging technologies, which are defined as new technologies or new use of old technologies (for example, artificial intelligence (AI)), presents both opportunities and challenges for society when used. These technologies promise to revolutionize various sectors, providing new efficiencies, capabilities, and insights, which makes them interesting to develop and use. However, their use also raises significant ethical, environmental, and social concerns. Organizations communicate through various modes, one of which is written discourse. Such discourse encompasses not only the structure of the message but also its content. In other words, the vocabulary (the structure) is used to express a specific point of view (the content). Within technology usage, there is a clear connection between communication and informed decision-making, as the information about the technology (its form and substance) is spread through communication, which in turn aids in making well-informed decisions. This thesis adopts a risk governance approach, which involves taking a preventive perspective to minimize (or avoid) future potential risks. This viewpoint acknowledges the importance of people making informed decisions about accepting or acting in light of potential future risks. It is to be noted that people's decisions are influenced by what they know about a technology and their perceptions (what they do not know but believe). Hence, our research aims to explore the theoretical perspectives on organizations' communication responsibilities and the actual practices employed by these entities. This choice stems from the apparent gap in the literature concerning responsible communication and the necessity to examine the topic, emphasizing practical considerations for further defining modes of organizational communication to analyze and take proactive action when communicating about emerging technologies such as AI. When an organization communicates about an emerging technology, elements focusing on the responsibility of sharing information can be found in the literature, but none on the responsibility (seen as an ethical behavior) of one organization regarding the impact of what is communicated on the decision-making process. Some responsibility is linked to corporate social responsibility (CSR), but the focus remains on the information. We propose a concept that addresses the intersection between three considered fields: emerging technologies, organizational communication and risk governance, which is the one of Responsible Organizational Communication on Emerging Technologies (ROCET) to address the responsibility of what is communicated as an ethical behavior. We aim to delve into the concept by bridging the divide between theory and practice, examining both simultaneously to garner a comprehensive understanding. This approach will help construct an understanding that meets halfway, building on knowledge accumulated from both areas. Therefore, two analyses will be conducted in parallel: a critical literature review around the “responsible communication” concept and a discourse analysis of standalone reports published by governmental bodies regarding the use of a specific emerging technology, namely artificial intelligence (AI). Using a single case analysis approach, the analysis aims to problematize one's communication regarding a public discourse while challenging such constitutions by exploring models of responsible communication. There is a gap in the literature in referring to this term as this research does. The literature focuses either on the communication conducted by organizations as part of their corporate responsibility strategy or from a communication theory perspective, concentrating on how to convey a message effectively. Alternatively, it looks at the matter from the emerging technologies perspective, where the focus is on information communication referring to the technology
APA, Harvard, Vancouver, ISO, and other styles
5

Voarino, Nathalie. "Systèmes d’intelligence artificielle et santé : les enjeux d’une innovation responsable." Thèse, 2019. http://hdl.handle.net/1866/23526.

Full text
Abstract:
L’avènement de l’utilisation de systèmes d’intelligence artificielle (IA) en santé s’inscrit dans le cadre d’une nouvelle médecine « haute définition » qui se veut prédictive, préventive et personnalisée en tirant partie d’une quantité inédite de données aujourd’hui disponibles. Au cœur de l’innovation numérique en santé, le développement de systèmes d’IA est à la base d’un système de santé interconnecté et auto-apprenant qui permettrait, entre autres, de redéfinir la classification des maladies, de générer de nouvelles connaissances médicales, ou de prédire les trajectoires de santé des individus en vue d’une meilleure prévention. Différentes applications en santé de la recherche en IA sont envisagées, allant de l’aide à la décision médicale par des systèmes experts à la médecine de précision (ex. ciblage pharmacologique), en passant par la prévention individualisée grâce à des trajectoires de santé élaborées sur la base de marqueurs biologiques. Des préoccupations éthiques pressantes relatives à l’impact de l’IA sur nos sociétés émergent avec le recours grandissant aux algorithmes pour analyser un nombre croissant de données relatives à la santé (souvent personnelles, sinon sensibles) ainsi que la réduction de la supervision humaine de nombreux processus automatisés. Les limites de l’analyse des données massives, la nécessité de partage et l’opacité des décisions algorithmiques sont à la source de différentes préoccupations éthiques relatives à la protection de la vie privée et de l’intimité, au consentement libre et éclairé, à la justice sociale, à la déshumanisation des soins et du patient, ou encore à la sécurité. Pour répondre à ces enjeux, de nombreuses initiatives se sont penchées sur la définition et l’application de principes directeurs en vue d’une gouvernance éthique de l’IA. L’opérationnalisation de ces principes s’accompagne cependant de différentes difficultés de l’éthique appliquée, tant relatives à la portée (universelle ou plurielle) desdits principes qu’à la façon de les mettre en pratique (des méthodes inductives ou déductives). S’il semble que ces difficultés trouvent des réponses dans la démarche éthique (soit une approche sensible aux contextes d’application), cette manière de faire se heurte à différents défis. L’analyse des craintes et des attentes citoyennes qui émanent des discussions ayant eu lieu lors de la coconstruction de la Déclaration de Montréal relativement au développement responsable de l’IA permet d’en dessiner les contours. Cette analyse a permis de mettre en évidence trois principaux défis relatifs à l’exercice de la responsabilité qui pourrait nuire à la mise en place d’une gouvernance éthique de l’IA en santé : l’incapacitation des professionnels de santé et des patients, le problème des mains multiples et l’agentivité artificielle. Ces défis demandent de se pencher sur la création de systèmes d’IA capacitants et de préserver l’agentivité humaine afin de favoriser le développement d’une responsabilité (pragmatique) partagée entre les différentes parties prenantes du développement des systèmes d’IA en santé. Répondre à ces différents défis est essentiel afin d’adapter les mécanismes de gouvernance existants et de permettre le développement d’une innovation numérique en santé responsable, qui doit garder l’humain au centre de ses développements.
The use of artificial intelligence (AI) systems in health is part of the advent of a new "high definition" medicine that is predictive, preventive and personalized, benefiting from the unprecedented amount of data that is today available. At the heart of digital health innovation, the development of AI systems promises to lead to an interconnected and self-learning healthcare system. AI systems could thus help to redefine the classification of diseases, generate new medical knowledge, or predict the health trajectories of individuals for prevention purposes. Today, various applications in healthcare are being considered, ranging from assistance to medical decision-making through expert systems to precision medicine (e.g. pharmacological targeting), as well as individualized prevention through health trajectories developed on the basis of biological markers. However, urgent ethical concerns emerge with the increasing use of algorithms to analyze a growing number of data related to health (often personal and sensitive) as well as the reduction of human intervention in many automated processes. From the limitations of big data analysis, the need for data sharing and the algorithmic decision ‘opacity’ stems various ethical concerns relating to the protection of privacy and intimacy, free and informed consent, social justice, dehumanization of care and patients, and/or security. To address these challenges, many initiatives have focused on defining and applying principles for an ethical governance of AI. However, the operationalization of these principles faces various difficulties inherent to applied ethics, which originate either from the scope (universal or plural) of these principles or the way these principles are put into practice (inductive or deductive methods). These issues can be addressed with context-specific or bottom-up approaches of applied ethics. However, people who embrace these approaches still face several challenges. From an analysis of citizens' fears and expectations emerging from the discussions that took place during the coconstruction of the Montreal Declaration for a Responsible Development of AI, it is possible to get a sense of what these difficulties look like. From this analysis, three main challenges emerge: the incapacitation of health professionals and patients, the many hands problem, and artificial agency. These challenges call for AI systems that empower people and that allow to maintain human agency, in order to foster the development of (pragmatic) shared responsibility among the various stakeholders involved in the development of healthcare AI systems. Meeting these challenges is essential in order to adapt existing governance mechanisms and enable the development of a responsible digital innovation in healthcare and research that allows human beings to remain at the center of its development.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Intelligence artificielle responsable"

1

Richer, Iris, and Clémence Varin. "19 - Intégrer la diversité culturelle dans les instruments relatifs à l’encadrement de l’IA : vers une technologie culturellement responsable?" In Intelligence artificielle, culture et médias, 405–28. Les Presses de l’Université de Laval, 2024. http://dx.doi.org/10.1515/9782763758787-021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

BOUCAUD, Pascale. "Protection de la liberté et de la fragilité de la personne face au robot." In Intelligence(s) artificielle(s) et Vulnérabilité(s) : kaléidoscope, 137–48. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3642.

Full text
Abstract:
Le cadre de vie de la personne âgée, quel qu’il soit, est de plus en plus connecté à des techniques numériques diversifiées. En dépit de l’apport incontestable de ces nouvelles techniques, des risques sont d’ores et déjà à souligner. De nombreuses déclarations ont vu le jour, en faveur d’une IA éthique, responsable et respectueuse des droits de la personne. Sont principalement concernés le principe de dignité humaine, de liberté du consentement, le droit au respect de la vie privée, la protection des données personnelles. Ces droits fondamentaux ne sont pas négociables et encore moins optionnels. C’est pourquoi, nous tenterons dans cet article, de mesurer l’effectivité de certains de ces droits et libertés pour la personne âgée confrontée à la robotisation.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Intelligence artificielle responsable"

1

Gautrais, Vincent, Anne Tchiniaev, and Émilie Guiraud. Guide des bonnes pratiques en intelligence artificielle : sept principes pour une utilisation responsable des données. Observatoire international sur les impacts sociétaux de l'IA et du numérique, February 2023. http://dx.doi.org/10.61737/tuac9741.

Full text
Abstract:
Ce document cherche à traduire juridiquement les centaines de documents à saveur éthique à travers un guide de bonnes pratiques susceptible d’accroitre la diligence des prestataires offrant de tels outils technologiques.
APA, Harvard, Vancouver, ISO, and other styles
2

Mörch, Carl-Maria, Pascale Lehoux, Marc-Antoine Dilhac, Catherine Régis, and Xavier Dionne. Recommandations pratiques pour une utilisation responsable de l’intelligence artificielle en santé mentale en contexte de pandémie. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, December 2020. http://dx.doi.org/10.61737/mqaf7428.

Full text
Abstract:
La pandémie actuelle a provoqué une onde de choc dont les conséquences se font sentir dans tous les aspects de notre vie. Alors que la santé physique a été généralement au cœur de l’attention scientifique et politique, il est devenu clair que la pandémie de COVID-19 a influé significativement sur la santé mentale de nombreux individus. Plus encore, elle aurait accentué les fragilités déjà existantes dans nos systèmes de santé mentale. Souvent moins financé ou soutenu que la santé physique, le domaine de la santé mentale pourrait-il bénéficier d’innovations en intelligence artificielle en période de pandémie ? Et si oui comment ? Que vous soyez développeur.e.s en IA, chercheur.e.s ou entrepreneur.e.s, ce document vise à vous fournir une synthèse des pistes d’actions et des ressources pour prévenir les principaux risques éthiques liés au développement d’applications d’IA dans le champ de la santé mentale. Pour illustrer ces principes, ce document propose de découvrir quatre cas fictif, à visée réaliste, à partir desquels il vous sera proposé de porter attention aux enjeux éthiques potentiels dans cette situation, aux enjeux d’innovation responsable à envisager, aux pistes d’action possibles inspirées de la liste de contrôle (Protocole Canadien conçu pour favoriser une utilisation responsable de l’IA en santé mentale et prévention du suicide, Mörch et al., 2020), aux ressources pratiques et à certains enjeux juridiques pertinents. Ce document a été élaboré par Carl-Maria Mörch, PhD, Algora Lab, Université de Montréal, Observatoire International sur les impacts sociétaux de l’Intelligence Artificielle et du Numérique (OBVIA), Mila – Institut Québécois d’Intelligence Artificielle, avec les contributions de Pascale Lehoux, Marc-Antoine Dilhac, Catherine Régis et Xavier Dionne.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography