Littérature scientifique sur le sujet « IA digne de confiance »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « IA digne de confiance ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "IA digne de confiance"

1

Bertholet, Jean-François, et Marie-Claude Gaudet. « Êtes-vous un gestionnaire digne de confiance ? » Gestion 41, no 3 (2016) : 112. http://dx.doi.org/10.3917/riges.413.0112.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Kammerer, Mariette. « Développer l’accueil par un « tiers digne de confiance » ». Lien Social N° 1331, no 2 (12 janvier 2023) : 12–13. http://dx.doi.org/10.3917/liso.1331.0012.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Maroy, Christian. « Les politiques d’accountability au service de la confiance dans l’institution scolaire et les enseignants ? » Swiss Journal of Educational Research 34, no 1 (3 octobre 2018) : 59–72. http://dx.doi.org/10.24452/sjer.34.1.4875.

Texte intégral
Résumé :
Dans quelle mesure la montée de l’accountability en éducation est-elle significative d’un déclin de la confiance de l’État et des usagers dans l’École? N’est-elle pas également symptomatique d’une perte de confiance à l’égard des enseignants et de leur professionnalisme? Nous traiterons ces questions en proposant une réflexion à partir des théories de la confiance en sciences sociales. Nous distinguerons les théories qui s’interrogent sur les conditions de confiance dans les transactions économiques et celles qui thématisent la confiance «politique» dans les institutions. Nous argumentons que les dispositifs d’accountability tendent surtout à réduire l’incertitude des clients/ managers quant aux risques d’opportunisme et d’opacité des opérateurs scolaires. Il s’agit de favoriser la bonne marche «du marché» ou de «l’organisation productive» scolaire, au risque d’une perte d’autonomie professionnelle des enseignants et sans pour autant que l’École ne redevienne une institution politique «digne de confiance».
Styles APA, Harvard, Vancouver, ISO, etc.
4

Groulx1, Patrice. « Genèse de l’Histoire du Canada (1845-1852)* ». Dossier : L’oeuvre de François-Xavier Garneau 27, no 1 (23 novembre 2018) : 14–37. http://dx.doi.org/10.7202/1054070ar.

Texte intégral
Résumé :
Cet article remet en question l’idée que l’historien François-Xavier Garneau « apparaît tout armé, à la première provocation », comme l’a écrit un auteur. En réalité, contrairement à l’image que ses biographes ont laissée de lui, Garneau s’était remarquablement bien préparé à produire la première Histoire du Canada digne de ce titre, de 1845 à 1852. Auto-formé à l’école du romantisme européen, interagissant avec les érudits qui reconstituent la mémoire nationale autour de lui, désireux de rendre confiance à ses compatriotes démoralisés par l’Union de 1841, Garneau produit une connaissance en phase avec l’historiographie de son temps.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Gronlier, Pierre, et Anne-Sophie Taillandier. « Les apports de Gaia-X ». Annales des Mines - Enjeux numériques 27, no 3 (27 septembre 2024) : 85–94. http://dx.doi.org/10.3917/ennu.027.0085.

Texte intégral
Résumé :
Gaia-X, créée en 2020, par les gouvernements allemand et français, vise à créer une infrastructure de données fédérée garantissant la souveraineté et la transparence des données, soutenant ainsi l’économie numérique de l’Europe. Avec plus de 300 membres, Gaia-X promeut l’interopérabilité et la sécurité grâce à un cadre normalisé, facilitant le partage des données tout en maintenant le contrôle et la conformité avec les réglementations européennes telles que le RGPD. Elle met l’accent sur l’autonomie technique, opérationnelle et juridique, en encourageant les stratégies multi- cloud afin de réduire la dépendance à l’égard des fournisseurs non européens. L’architecture de Gaia-X s’appuie sur des vocabulaires normalisés, des références vérifiables chiffrées et un registre de confiance pour garantir des échanges de données sécurisés et vérifiables. L’initiative soutient également le développement de l’IA en garantissant la traçabilité des données et le consentement, conformément à des réglementations telles que l’IA Act.À l’avenir, Gaia-X vise à intégrer les réglementations futures, en fournissant une couverture complète pour les fournisseurs de données et les consommateurs, favorisant ainsi un écosystème numérique digne de confiance.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Stingle, Ann, et Bud Good. « 4. Communication et grand public Communication optimale et grand public ». Revue Internationale de la Croix-Rouge 72, no 783 (juin 1990) : 251–59. http://dx.doi.org/10.1017/s0035336100059529.

Texte intégral
Résumé :
Si Henry Dunant n'avait pas saisi pleinement l'importance d'une communication efficace, il n'aurait jamais écrit «Un Souvenir de Solférino», le livre qui a éveillé la conscience des nations et les a incitées à l'action. Aux Etats-Unis, Clara Barton qui a fondé la Croix-Rouge américaine était aussi une communicatrice-née. Chose rare à son époque, elle avait le sens de l'opportunité, et elle était consciente à la fois de l'intérêt que pouvaient susciter les questions humanitaires et de l'importance de la diffusion répétée des messages, ce qui lui a permis de maintenir de bons rapports avec la presse et de transmettre au public l'image d'une personne digne de confiance et dévouée aux idéaux humanitaires.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Preteux, Jérôme. « La confiance en l’IA pour une IA d’emploi ». Revue Défense Nationale N° 855, no 10 (1 décembre 2022) : 91–99. http://dx.doi.org/10.3917/rdna.855.0091.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Lahaie, Christiane. « Du fantastique littéraire au fantastique filmique : une question de point de vue ? » Cinémas 5, no 3 (28 février 2011) : 45–63. http://dx.doi.org/10.7202/1001146ar.

Texte intégral
Résumé :
Le texte littéraire fantastique déploie toute une batterie de stratégies narratives propres à en assurer l’intelligibilité. Au-delà d’un fantastique canonique, reconnu d’emblée comme tel, il existe un fantastique plus discursif, où l’acte d’énonciation et ultimement la narration tout entière se voit contaminés par une certaine ambiguïté. Or, ce type de fantastique scriptural issu d’un focalisateur plus ou moins « digne de confiance » existe-t-il toujours une fois adapté à un processus d’énonciation apparemment plus « objectif » comme celui du récit filmique ? L’analyse de deux textes littéraires fantastiques (Les Fils de la vierge de Julio Cortázar et The Haunting of Hill House de Shirley Jackson) et de leur adaptation pour le cinéma (Blow-Up, 1966, de Michelangelo Antonioni et The Haunting, 1963, de Robert Wise) nous fournira quelques éléments de réponses.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Devillers, Laurence. « Le langage non responsable des systèmes d’intelligence artificielle (IA) générative ». Champ lacanien N° 28, no 1 (2 octobre 2024) : 133–38. http://dx.doi.org/10.3917/chla.028.0133.

Texte intégral
Résumé :
Depuis 2022, ChatGPT d’OpenAI a popularisé l’intelligence artificielle (IA), rendant les technologies numériques essentielles. L’IA, qu’elle soit prédictive ou générative, progresse dans des domaines variés comme la médecine et les chatbots. Désormais, certaines actions humaines, comme le langage, sont séparées de l’intelligence réelle. Les IA génératives imitent le langage sans le comprendre, en utilisant des modèles statistiques complexes. Elles peuvent produire des résultats erronés, soulevant des questions éthiques. La transparence des IA est cruciale pour instaurer la confiance, et leur régulation est nécessaire pour concilier technologie et bien-être humain.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Chraibi, Ghizlaine. « L’art projectif en Psychosomatique Relationnelle dans l’accompagnement d’une pathologie fonctionnelle (un tic) ». Psychosomatique relationnelle N° 11, no 1 (11 juillet 2023) : 96–106. http://dx.doi.org/10.3917/psyr.011.0096.

Texte intégral
Résumé :
À travers cette présentation, je soulignerai l’importance de la relation pour surmonter un blocage somatique, tout en focalisant mon attention sur une approche que j’ai créée il y a quelques années et que j’ai nommée « Art Projectif Relationnel ». Les principales questions sont « comment trouve-t-on sa place dans une nouvelle famille à l’âge de 6 ans ? Et comment prouve-t-on qu’on est digne d’amour, de sécurité et de reconnaissance dans cette nouvelle famille ? Surtout, à quel prix faut-il faire sa place pour retrouver son rang auprès des autres enfants de la famille ? Dans cette étude de cas, nous verrons que le patient a subi un burnout et une crampe de l’écrivain avant de commencer une psychothérapie, conduisant à plus de confiance en soi, à une vie plus créative, et surtout à la résolution du symptôme.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "IA digne de confiance"

1

Taheri, Sojasi Yousef. « Modeling automated legal and ethical compliance for trustworthy AI ». Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS225.

Texte intégral
Résumé :
Les avancées en intelligence artificielle ont conduit à des enjeux juridiques et éthiques significatifs liés à la vie privée, aux biais, à la responsabilité, etc. Ces dernières années, de nombreuses réglementations ont été mises en place pour limiter ou atténuer les risques associés à l'IA. Le respect de ces réglementations est nécessaire pour la fiabilité des systèmes d'IA et pour garantir une utilisation responsable. De plus, des systèmes d'IA fiables doivent également être éthiques, en assurant une conformité avec les normes éthiques. La conformité aux lois applicables et l'adhésion aux principes éthiques sont essentielles pour la plupart des applications de l'IA. Nous étudions ce problème du point de vue des agents d'IA. En d'autres termes, comment un agent peut-il garantir que ses actions respectent les normes juridiques et éthiques. Nous nous intéressons aux approches basées sur le raisonnement logique pour intégrer la conformité juridique et éthiques dans le processus de planification de l'agent. Le domaine spécifique dans lequel nous poursuivons notre objectif est le traitement des données personnelles, c'est-à-dire, les actions de l'agent impliquent l'utilisation et le traitement des données personnelles. Une réglementation applicable dans ce domaine est le Règlement Général sur la Protection des Données (RGPD). De plus, le traitement des données personnelles peut entraîner certains risques éthiques en matière de vie privée ou de biais.Nous abordons cette question à travers une série de contributions présentées dans cette thèse. Nous commençons par la question de la conformité au RGPD. Nous adoptons le Calcul des Événements avec la Programmation par Ensembles de Réponses (ASP) pour modéliser les actions des agents et l'utiliser pour planifier et vérifier la conformité au RGPD. Un langage de policy est utilisé pour représenter les obligations et exigences du RGPD. Ensuite, nous examinons la question de la conformité éthique. Un modèle d'utilité ordinale pluraliste est proposé, permettant d'évaluer les actions en fonction des valeurs morales. Ce modèle est basé sur plusieurs critères et utilise des systèmes de vote pour agréger les évaluations sur une échelle ordinale. Nous intégrons ensuite ce modèle d'utilité et le cadre de conformité juridique dans un planificateur de Réseau de Tâches Hiérarchiques (HTN). Dans cette contribution, les normes juridiques sont considérées comme des contraintes "hard" et les normes éthiques comme des contraintes "soft". Enfin, en dernière étape, nous explorons davantage les combinaisons possibles de la conformité juridique et éthique avec l'agent de planification et proposons un cadre unifié. Ce cadre capture l'interaction et les conflits entre les normes juridiques et éthiques et est testé dans un cas d'utilisation avec des systèmes d'IA gérant la livraison d'articles médicaux
The advancements in artificial intelligence have led to significant legal and ethical issues related to privacy, bias, accountability, etc. In recent years, many regulations have been put in place to limit or mitigate the risks associated with AI. Compliance with these regulations are necessary for the reliability of AI systems and to ensure that they are being used responsibly. In addition, reliable AI systems should also be ethical, ensuring alignment with ethical norms. Compliance with applicable laws and adherence to ethical principles are essential for most AI applications. We investigate this problem from the point of view of AI agents. In other words, how an agent can ensure the compliance of its actions with legal and ethical norms. We are interested in approaches based on logical reasoning to integrate legal and ethical compliance in the agent's planning process. The specific domain in which we pursue our objective is the processing of personal data. i.e., the agent's actions involve the use and processing of personal data. A regulation that applies in such a domain is the General Data Protection Regulations (GDPR). In addition, processing of personal data may entail certain ethical risks with respect to privacy or bias.We address this issue through a series of contributions presented in this thesis. We start with the issue of GDPR compliance. We adopt Event Calculus with Answer Set Programming(ASP) to model agents' actions and use it for planning and checking the compliance with GDPR. A policy language is used to represent the GDPR obligations and requirements. Then we investigate the issue of ethical compliance. A pluralistic ordinal utility model is proposed that allows one to evaluate actions based on moral values. This model is based on multiple criteria and uses voting systems to aggregate evaluations on an ordinal scale. We then integrate this utility model and the legal compliance framework in a Hierarchical Task Network(HTN) planner. In this contribution, legal norms are considered hard constraints and ethical norm as soft constraint. Finally, as a last step, we further explore the possible combinations of legal and ethical compliance with the planning agent and propose a unified framework. This framework captures the interaction and conflicts between legal and ethical norms and is tested in a use case with AI systems managing the delivery of health care items
Styles APA, Harvard, Vancouver, ISO, etc.
2

Mosca, Sarah. « Regards croisés sur le placement de l’enfant chez un proche ». Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1A017.

Texte intégral
Résumé :
Notre thèse porte sur un dispositif de la protection de l’enfance, peu utilisé en France : les placements d’enfants chez un proche (7% des placements). Ils représentent une forme spécifique de délégation de l’éducation de l’enfant à un proche, le plus souvent apparenté. Dans cette perspective, nous considérons l’accueil de l’enfant comme une reconfiguration familiale dans la mesure où la protection de l’enfance déplace et transfert la prise en charge de l’enfant à d’autres adultes que ses parents légaux. Ainsi, ces situations nous permettent de réfléchir autrement sur les transformations familiales. Notre recherche croise différents champs : celui de la parentalité et celui de la protection de l’enfance. Dans le contexte spécifique d’un placement, nous nous sommes demandée comment aborder le partage de parentalité entre les différents acteurs. Pour ce faire, nous avons croisé les points de vue des professionnels et des acteurs familiaux concernés. Au total, 65 entretiens ont été réalisés : 31 avec des travailleuses sociales chargées du suivi éducatif des enfants placés et 34 avec des parents et des proches concernés par des situations d’accueil. Notre thèse met en avant une reconfiguration des rôles familiaux au travers du quotidien de l’accueil. Les proches tiennent alors un rôle familial de substitution bouleversant les places autour de l’enfant : les grands-parents, les tantes, etc. endossent le rôle de la mère et/ou du père. Cette transformation des rôles familiaux n’est cependant pas acceptée de la même manière par les travailleuses sociales : certaines substitutions parentales sont acceptables et d’autres ne le sont pas. Les différences de traitement varient notamment en fonction de la place vacante ou non attribuée aux parents. Dans cette perspective, les relations entre les différents acteurs du placement (familiaux et professionnels) sont analysées en termes de triade et non plus dans une dualité parents-professionnels. Par conséquent, l’accueil de l’enfant chez un proche reconfigure les relations entre les parents et les proches, mais aussi entre ces derniers et les travailleuses sociales. Ces situations invitent à la prise en compte du placement chez un proche en termes de pluriparentalité
In the French child protection system, formal kinship care is rarely pronounced (7% of Out-of-home care). They represent a special figure of delegation to relatives or friends. In this perspective, we consider the kinship care as a family reconfiguration since the protection of childhood displaces and transfers to others adults than the parents, the child custody. These situations allow us to think differently about family transformations. Thus, our research crosses different fields, the parenthood and the protection of childhood. In the specific context of placement, we interogate parenting sharing between different actors. To do this, we cross the differents views of the institution and of the families concerned. A total of 65 interviews were conducted: 31 with social workers in charge of the educational follow-up of children in care and 34 with parents and carers concerned. Our thesis highlights a reconfiguration of family roles with the daily of the kinship care. The carers take on a substitute family role, upsetting places around the child: grandparents, aunts, etc. assume the role of mother and/or father. This transformation of family roles is not accepted in the same way by social workers: some parental substitutions are acceptable and others are not. The different treatment depending on the parents’ status: if it is considered by the social worker as vacancy or not. In this perspective, the relationships between the various actors of the kinship care(family and professional) are analyzed in terms of triad and no longer in a duality between parents and professionals. Therefore, kinship care reconfigures relations between parents and relatives, but also between them and social workers. These situations then question the consideration of placement in terms of multi-parenthood by child protection
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bresson, Roman. « Neural learning and validation of hierarchical multi-criteria decision aiding models with interacting criteria ». Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG008.

Texte intégral
Résumé :
L’aide à la décision multicritères (ADMC) est un domaine qui vise à aider des décideurs experts (DE) pour des problèmes tels que la sélection, le classement ou la classification d’alternatives définies par plusieurs attributs qui peuvent intéragir. Ces modèles ne sont pas ceux qui prennent pas la décision, mais ils apportent une assistance au DE lors du processus. Il est donc crucial que le modèle offre au DE des moyens d’interpréter ses résultats. Ceci est en particulier vrai dans des contextes critiques où les erreurs peuvent avoir des conséquences désastreuses. Il est par conséquent indispensable que les modèles d’ADMC soient intelligibles, interprétables et que leur comportement soit fortement contraint par des connaissances provenant d’une expertise dans le domaine. De tels modèles sont généralement construits par une interaction (questions/réponses) avec un DE, par le biais de méthodes issues de la recherche opérationnelle. D’autre part, l’apprentissage automatique (ML) fonde son approche sur l’apprentissage du modèle optimal à partir de données d’ajustement. Ce domaine se concentre généralement sur les performances du modèle, en adaptant les paramètres de modèles complexes (dits boîtes noires) pour obtenir une erreur statistiquement faible sur de nouveaux exemples. Bien que cette approche soit adaptée à de nombreux contextes, l’utilisation de modèles boîtes noires est inconcevable dans les cas usuels d’ADMC, car ils ne sont ni interprétable, ni facilement contraignables. Cette thèse fait le pont entre ces deux domaines. Nous nous concentrons sur une certaine classe de modèles d’ADMC, appelés intégrales de Choquet hiérarchiques utilitaires (ICHU). Notre première contribution, qui est théorique, est de montrer l’identifiabilité (ou l’unicité de la paramétrisation) des ICHUs. Ce résultat motive notre seconde contribution : le framework NeurHCI, une architecture de modules de réseaux de neurones qui peuvent apprendre les paramètres d’un ICHU. En particulier, tous les modèles NeurHCI sont garantis comme étant formellement valides, répondant aux contraintes qui conviennent à de tels modèles (monotonie, normalisation), et restent interprétables. Nous montrons empiriquement que les modèles Neur-HCI sont performants sur des ensembles de données artificielles et réelles, et qu’ils présentent une stabilité remarquable, ce qui en fait des outils pertinents pour alléger l’effort d’élicitation de modèles lorsque les données sont facilement disponibles, et permet leur utilisation comme outils d’analyse appropriés pour identifier certains phénomènes sous-jacents dans les données
Multicriteria Decision Aiding (MCDA) is a field that aims at assisting expert decision mak ers (DM) in problems such as selecting, ranking, or classifying alternatives defined on several inter acting attributes. Such models do not make the decision, but assist the DM, who takes the final decision. It is thus crucial for the model to offer ways for the DM to maintain operational awareness, in particular in safety-critical contexts where errors can have dire consequences. It is thus a prerequisite of MCDA models to be intelligible, in terpretable, and to have a behaviour that is highly constrained by information stemming from in do main knowledge. Such models are usually built hand in hand with a field expert, obtaining infor mation through a Q&A procedure, and eliciting the model through methods rooted in operations research. On the other hand, Machine Learning (ML), and more precisely Preference Learning (PL), bases its approach on learning the optimal model from fitting data. This field usually focuses on model performances, tuning complex black-boxes to ob tain a statistically low error on new examples cases. While this is adapted to many settings, it is out of the question for decision aiding settings, as neither constrainedness nor intelligibility are available. This thesis bridges both fields. We focus on a certain class of MCDA models, called utilitaris tic hierarchical Choquet integrals (UHCI). Our first contribution, which is theoretical, is to show the identifiability (or unicity of the parameterization) of UHCIs This result motivates our second con tribution: the Neur-HCI framework, an archi tecture of neural network modules which can learn the parameters of a UHCI. In particular, all Neur HCI models are guaranteed to be formally valid, fitting the constraints that befit such a model, and remain interpretable. We show empirically that Neur-HCI models perform well on both artificial and real dataset, and that they exhibit remarkable stability, making it a relevant tool for alleviating the model elicitation effort when data is readily available, along with making it a suitable analysis tool for indentifying patterns in the data
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "IA digne de confiance"

1

Alliot, Jacqueline. Que Signifie ...Etre Digne de Confiance. Grolier Limitee, 1989.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Protéger les élections démocratiques par la sauvegarde de l’intégrité de l’information. International IDEA ; Forum sur l’information et la démocratie ; Democracy Reporting International, 2024. http://dx.doi.org/10.31752/idea.2024.9.

Texte intégral
Résumé :
En 2024, presque 3 milliards d’électeurs seront appelés à voter à travers le monde, dans le cadre d’élections démocratiques. L’intégrité de ces élections repose, notamment, sur la possibilité de confiance dans le journalisme ainsi que sur l’accès à des informations électorales fiables et à une diversité d’opinions. Des agents malintentionnés font ainsi un usage abusif de l’intelligence artificielle (IA), et notamment des grands modèles de langage et de l’IA générative, pour déformer des faits, générer des « deepfakes », créer de la confusion et cibler des segments de populations avec des messages hypersegmentés. Pour combattre ces abus et assurer l’intégrité de l’espace informationnel, les plateformes et les États devront mettre en place des garanties politiques et réglementaires. Les organes de gestion électorale (OGE) indépendants pourraient contribuer à garantir l’accès à une information électorale fiable. Les dix recommandations à destination des plateformes et des États reprennent dans les grandes lignes les principales mesures à prendre pour protéger le caractère démocratique des élections.
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "IA digne de confiance"

1

Salvi del Pero, Angelica, et Annelore Verhagen. « Assurer une intelligence artificielle digne de confiance en entreprise : les mesures mises en œuvre par les pays ». Dans Perspectives de l’emploi de l’OCDE 2023. OECD, 2023. http://dx.doi.org/10.1787/f41b2285-fr.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Rapports d'organisations sur le sujet "IA digne de confiance"

1

Yousefi, Farzaneh, et Marie-Pierre Gagnon. L’intelligence artificielle (IA) pour la promotion de la santé et la réduction de la maladie : synthèse des connaissances. Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique, juillet 2024. http://dx.doi.org/10.61737/pjld3032.

Texte intégral
Résumé :
Ce rapport a pour objectif d’explorer l’utilisation de l’intelligence artificielle (IA) pour la promotion de la santé et à la réduction de la maladie dans les pays de l’OCDE. Une revue rapide et une analyse de l’environnement ont été réalisées pour identifier les données probantes récentes sur la manière dont l’IA est utilisée dans la promotion de la santé et la réduction de la maladie. Au total, 22 études ont été incluses dans la revue rapide, dont la plupart ont été menées aux États-Unis (n = 10), suivis par l’Australie (n = 3), le Japon (n = 3), le Royaume-Uni (n = 2) et l’Espagne (n = 2). Dans l’ensemble, des effets positifs ont été rapportés pour les résultats reliées au processus (p. ex. l’acceptabilité, l’engagement), les résultats cognitifs et comportementaux (p. ex., la confiance, le nombre de pas) et les résultats sur la santé (p. ex., la glycémie, la tension artérielle). De plus, plusieurs défis ont été identifiés liés à l’intégration de l’IA dans les interventions de promotion de la santé et de réduction de la maladie, ainsi que des opportunités et des recommandations pour des développements futurs. Ces résultats préliminaires offrent des informations essentielles sur la mise en œuvre efficace de l’IA qui pourront guider les décideurs politiques et les professionnels de la santé dans l’optimisation de l’utilisation des technologies de l’IA pour soutenir la promotion de la santé et la réduction de la maladie.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Corbett, Jaqueline, et Chris Emmanuel Tchatchouang Wanko. Les enjeux transversaux au déploiement et à l'utilisation de l'IA au sein du système professionnel québécois. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, mars 2022. http://dx.doi.org/10.61737/zfuw6688.

Texte intégral
Résumé :
Il existe un vaste consensus sur l’impact considérable qu’aura l’intelligence artificielle (IA) sur la nature du travail et des emplois du futur. Cependant, il y a moins de certitude quant à la nature de ces impacts et à la manière dont ils se manifesteront dans différents secteurs et types d’emplois. Ce rapport se concentre sur les professions régies par un ordre professionnel au Québec et vise à apporter des éléments de réponse préliminaires à la question suivante: «Comment les ordres professionnels du Québec peuvent-ils se préparer et s’adapter à la nouvelle ère de l’IA?» Pour répondre à cette question, une revue de la littérature d’une sélection de publications professionnelles et scientifiques ainsi que des entretiens avec des experts en la matière ont été effectués. Quatre principaux enjeux transversaux auxquels font face les professions de divers secteurs d’activités sont identifiés dans la recherche: 1. Évolution constante de l’IA 2. Déterminer le rythme d’adoption de l’IA 3. Préserver le rôle du professionnel 4. Accompagner ses clients et patients Sous-jacents à ces quatre enjeux, se trouvent 14 défis distincts qui représentent des obstacles potentiels au déploiement et à l’utilisation efficaces de l’IA au sein du système professionnel québécois. La recherche n’a révélé aucun enjeu ou défi associé à l’IA propre à l’un ou l’autre des 3 secteurs d’activité dans lesquels sont regroupés les ordres professionnels au Québec. Cependant, il y a 4 considérations particulières qui influent sur la nature et l’importance des enjeux et des défis auxquels sont confrontés les ordres professionnels et leurs membres, notamment: - Le type de l’IA déployée, - Le contexte organisationnel dans lequel le professionnel exerce ses activités - Le type de tâches affectées par l’IA Les risques liés aux personnes Dans la dernière partie du rapport, 6 recommandations sont proposées pour aider les parties prenantes du système professionnel québécois à répondre aux défis qui les attendent. Ces recommandations pourront servir à la réflexion que suscite cette transformation technologique: 1. S’engager dans un dialogue proactif avec les professionnels 2. Fournir des balises claires en matière d’imputabilité et responsabilité 3. Adapter les programmes de formation 4. Garantir la priorité de la décision humaine 5. Devenir des partenaires de confiance dans le développement de l’IA 6. Assurer la santé et le bien-être des professionnels
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie