Auswahl der wissenschaftlichen Literatur zum Thema „Transparence algorithmique“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Transparence algorithmique" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Transparence algorithmique"

1

Mansouri, Mohamed. „L’intelligence artificielle et la publicité : quelle éthique ?“ Annales des Mines - Enjeux numériques N° 1, Nr. 1 (24.01.2018): 53–58. http://dx.doi.org/10.3917/ennu.001.0053.

Der volle Inhalt der Quelle
Annotation:
L’histoire moderne de l’Intelligence Artificielle (IA) débuta en 1956, lors du summer camp de Dartmouth, dans le New Hampshire. Des scientifiques y travaillèrent en nourrissant l’espoir d’aboutir à des conclusions probantes dans un avenir qui leur était proche. Or, en 2018, nous sommes encore loin du compte, bien que l’appellation d’IA soit aujourd’hui largement, et souvent abusivement, employée. L’usage de cette terminologie en marketing et publicité pose un problème de loyauté à deux niveaux : à l’égard du public puisqu’il crée une fracture entre ses attentes et la réalité ; et entre professionnels, car certains acteurs en font un usage indu, au détriment d’autres qui structurent le véritable marché de l’IA. Aujourd’hui, des applications marketing et publicitaires concrètes existent, principalement autour de l’acquisition de trafic, de la transformation des visiteurs et des solutions de fidélisation. De bonnes pratiques doivent dès à présent être adoptées par les professionnels au niveau mondial. Celles-ci s’articulent autour de trois axes : des données « propres », exactes et non biaisées ; la transparence algorithmique ; et le respect du choix des consommateurs loyalement informés. Enfin, il convient de s’interroger sur la place laissée à l’éthique quand la créativité humaine s’efface au profit de celle de l’IA. Car, en aucun cas, l’humain ne saurait se soustraire à ses responsabilités en se dissimulant derrière une délégation du processus créatif à l’intelligence artificielle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Mancosu, Giorgio. „L’accès aux données publiques et aux codes source en Italie. À la recherche d’une « transparence algorithmique », à l’aube du Réglement général sur la protection des données“. Revue française d'administration publique 167, Nr. 3 (2018): 575. http://dx.doi.org/10.3917/rfap.167.0575.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Abiteboul, Serge. „Qualité, équité, transparence, vérification et explicabilité des décisions algorithmiques“. Annales des Mines - Enjeux numériques N° 13, Nr. 1 (24.01.2021): 58–62. http://dx.doi.org/10.3917/ennu.013.0058.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Messaoudi, Aïssa. „Les défis de l’IA dans l’éducation : de la protection des données aux biais algorithmiques“. Médiations et médiatisations, Nr. 18 (30.10.2024): 148–60. http://dx.doi.org/10.52358/mm.vi18.409.

Der volle Inhalt der Quelle
Annotation:
Cet article examine l'impact de l'intelligence artificielle (IA) sur le domaine de l'éducation, et en explore les avantages et les défis. Le recours à l'IA dans le secteur éducatif offre de nombreux avantages tels que l'automatisation des tâches administratives répétitives et la personnalisation des parcours d’apprentissage. Cependant, cela soulève des préoccupations éthiques quant à la protection des données individuelles et au risque de biais algorithmiques. En outre, nous abordons d’autres défis : ceux liés à l’opposition entre l'évaluation automatisée et l'évaluation humaine ainsi que les implications complexes de la reconnaissance faciale dans un contexte éducatif. Il est essentiel qu’une approche réfléchie et éthique dans le déploiement de l'IA en éducation soit pensée en soulignant la nécessité de principes éthiques précis et transparents, et d'une réflexion pédagogique approfondie. Nous préconisons l'utilisation d'outils IA open source pour favoriser la transparence et la conformité aux réglementations en vigueur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

GERBAIX, SYLVIE. „REDEVABILITÉ, EXPLICABILITÉ ET TRANSPARENCE DE L’IA : UNE MISSION IMPOSSIBLE ?“ Management & Data Science, 2023. http://dx.doi.org/10.36863/mds.a.25083.

Der volle Inhalt der Quelle
Annotation:
Les systèmes algorithmiques d’intelligence artificielle produisent des effets ambivalents, appréciés ou critiqués mais qui peuvent également être indésirables, voire dangereux. Dès lors, apparaît l’idée qu’ils puissent rendre compte, autrement dit être redevable des effets et actions qu’ils causent. Ainsi, l’objectif est ici d’initier une réflexion sur cette “redevabilité” (accountability) des systèmes algorithmiques d’intelligence artificielle et les difficultés de sa mise en œuvre. En particulier, deux types d’obstacles sont mis en relief : la distanciation entre une myriade d’acteurs humains et non-humains et la complexité inhérente aux systèmes algorithmiques. Dès lors, les principes d’E. Morin pour penser cette complexité ouvrent des perspectives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Transparence algorithmique"

1

Elidrissi, Rayane. „Tensions paradoxales et échange médié par l'intelligence artificielle : l'expérience de travail au cœur de la GRH algorithmique“. Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ0025.

Der volle Inhalt der Quelle
Annotation:
L'introduction de l'intelligence artificielle (IA) dans la fonction Ressources Humaines (RH) fait l'objet d'un intérêt croissant tant auprès du monde académique que socio-professionnel. Dans ce contexte, l'objectif de cette thèse vise à comprendre d'une part, les effets de l'introduction de l'IA dans la fonction RH et d'autre part, l'émergence de nouvelles façons de travailler des collaborateurs.Sur le plan théorique, le cadre d'analyse de la théorie des paradoxes, propose d'identifier les réponses des individus face aux tensions paradoxales qui émergent dans un contexte de Gestion des Ressources Humaines (GRH) algorithmique. Il est complété par la théorie de l'échange social médié par l'IA qui permet de considérer l'IA comme un médiateur, reconfigurant les relations d'échanges.La méthodologie mixte mobilisée, s'appuie sur une première étude qualitative exploratoire réalisée auprès des directeurs et responsables RH, des éditeurs de solutions IA-RH et des experts en IA. Elle est suivie d'une seconde étude quantitative exploratoire, menée auprès des collaborateurs permettant de tester le modèle à travers des équations structurelles. Ces deux études permettent de couvrir de façon inédite, l'ensemble des acteurs concernés par l'introduction de l'IA dans la fonction RH et les nouvelles façons de travailler.Nos résultats qualitatifs révèlent une perception duale de l'IA, en raison d'une conscientisation disparate des répondants. Des tensions paradoxales émergent, nécessitant un renouvellement de la représentation de la fonction RH et la mise en place de leviers d'actions managériales pour les accepter. Les expressions d'un besoin de transparence, d'équité algorithmique et d'autonomie professionnelle pour une relation augmentée avec l'IA sont évoquées. Nos résultats quantitatifs révèlent que la transparence perçue de l'IA exerce deux influences : une influence directe sur l'engagement au travail, et une influence indirecte sur cette variable via deux médiateurs partiels : l'équité algorithmique perçue et l'autonomie professionnelle perçue.Notre recherche contribue à mieux identifier les tensions paradoxales émergentes lors de l'échange social médié par l'IA et les nouvelles façons de travailler avec la fonction RH pour une meilleure expérience collaborateur. La proposition d'une fresque de l'IA que nous avons réalisé à destination des responsables RH et des collaborateurs participe à une IA explicable et compréhensible
The introduction of artificial intelligence (AI) in the Human Resources (HR) function is the subject of growing interest in both the academic and socio-professional worlds. In this context, the aim of this thesis is to understand, on the one hand, the effects of the introduction of AI in the HR function and, on the other hand, the emergence of new ways of working for employees.From a theoretical perspective, the paradox theory analysis framework proposes to identify the responses of individuals to the paradoxical tensions that emerge in a context of algorithmic HRM. It is complemented by the theory of AI-mediated social exchange, which considers AI as a mediator, reconfiguring exchange relationships.The mixed methodology used is based on an initial exploratory qualitative study of HR directors and managers, AI solutions providers for HR and AI experts. It is followed by a second exploratory quantitative study, conducted among employees, to test the model through structural equations. These two studies provide unprecedented coverage of all parties involved by the introduction of AI in the HR function and new ways of working.Our qualitative results reveal a dual perception of AI, due to the disparate awareness of respondents. Paradoxical tensions emerge, requiring a renewal of the representation of the HR function and the implementation of managerial action levers to accept them. The need for transparency, algorithmic fairness and professional autonomy for a better relationship with AI is expressed. Our quantitative results reveal that the perceived transparency of AI has two influences: a direct influence on commitment to work, and an indirect influence on this variable via two partial mediators: perceived algorithmic fairness and perceived professional autonomy.Our research contributes to better identifying the paradoxical tensions emerging during AI-mediated social exchange and the new ways of working with the HR function to improve the employee experience. The AI mural that we have produced for HR managers and employees contributed to explainable and understandable AI
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Galicher, Hervé. „Analyse mathématique de modèles en nanophysique“. Paris 6, 2009. http://www.theses.fr/2009PA066641.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se compose de trois parties. Dans une première partie on étudie un problème spectral associé à l'équation de Schrödinger indépendante du temps en trois dimensions et à plusieurs particules : la caractérisation des états excités d'une molécule en termes de recherche de points critiques sur une variété. L'approximation utilisée est l'approximation MCSCF. Le problème spectral est transformé en un problème de géodésiques et d'étude d'indice de Morse de points critiques. On met en œuvre un algorithme pour le traitement numérique de ce problème et on met en évidence l'amélioration des résultats obtenus par rapport aux algorithmes existants. Dans une deuxième partie, on étudie l'équation de Schrödinger dépendante du temps à une particule en une dimension. Des potentiels non triviaux en espace et ou en temps sont appliqués. On résout alors exactement le problème des conditions aux limites transparentes dans le cadre continu ou discret. On donne des formules fermées originales sous forme d'algorithme possédant un nombre d'itérations fini ou bien via des représentations intégrales sur des fonctions spéciales. Le cas des potentiels harmonique, électrostatique dépendant du temps, semi-périodique sont ainsi résolus. On étudie de manière formelle sans donner de formule fermée la forme prise par l'opérateur de Dirichlet-to-Neuman dans le cas d'un potentiel encore plus compliqué. Cette partie est complétée par des apports divers d'analyse sur les fonctions spéciales et certaines équations intégrales. Dans une troisième partie on étudie des propriétés et des algorithmes de résolutions numériques d'une équation des film fin à frontière libre posée sur une variété avec bords.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Transparence algorithmique"

1

Fourcaud, Christine. „L’Europe, ses langues. Quelle unité ?“ In L’Europe, ses langues. Quelle unité ?, 190–220. Observatoire européen du plurilinguisme, 2023. http://dx.doi.org/10.3917/oep.fourc.2023.01.0190.

Der volle Inhalt der Quelle
Annotation:
Jamais l’humanité n’a renoncé à la quête de la langue parfaite. De la lingua franca à la construction d’un code algorithmique multilingue parfaitement rationnel qui la délivrerait de ce qu’elle croit être la malédiction de Babel ; le traitement automatique du langage a fait renaître le rêve d’un instrument de communication multilingue normé, entièrement motivé, transparent, angélique, sans perte ni redondance. Mais, plus une langue est analytiquement cohérente et sémantiquement biunivoque, moins elle est apte à signifier le monde et les idées. En effet, parler n’est pas seulement communiquer, mais faire dialoguer la pensée avec elle-même, pour exister avec les autres dans la Cité. En déléguant à l’intelligence artificielle la rencontre altéritaire, l’homme a-t-il eu l’hybris de vouloir résoudre la « chancelante équivocité du monde » ? Explorons comment la pensée européenne, depuis l’Antiquité, a envisagé l’Être du langage ; peut-être pourrons-nous y entrevoir l’Être de l’Europe ?
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie