Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Intelligence artificielle (IA) embarquée.

Zeitschriftenartikel zum Thema „Intelligence artificielle (IA) embarquée“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-34 Zeitschriftenartikel für die Forschung zum Thema "Intelligence artificielle (IA) embarquée" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

EZANNO, Pauline, Sébastien PICAULT, Nathalie WINTER, Gaël BEAUNÉE, Hervé MONOD und Jean-François GUÉGAN. „Intelligence artificielle et santé animale“. INRAE Productions Animales 33, Nr. 2 (15.09.2020): 95–108. http://dx.doi.org/10.20870/productions-animales.2020.33.2.3572.

Der volle Inhalt der Quelle
Annotation:
Mobiliser les approches issues de l’intelligence artificielle (IA) en santé animale (SA) permet d’aborder des problèmes de forte complexité logique ou algorithmique tels que rencontrés en épidémiologie quantitative et prédictive, en médecine de précision, ou dans l’étude des relations hôtes × pathogènes. L’IA peut dans certaines situations faciliter le diagnostic et la détection de cas, fiabiliser les prédictions et réduire les erreurs, permettre des représentations plus réalistes et lisibles par des non informaticiens de systèmes biologiques complexes, accélérer les décisions, améliorer la précision des analyses de risque et permettre de mieux cibler les interventions et d’en anticiper les effets. De plus, les fronts de science en SA engendrent de nouveaux challenges pour l’IA, du fait de la spécificité des systèmes, des données, des contraintes, et des objectifs d’analyse. Sur la base d’une revue de la littérature à l’interface entre IA et SA couvrant la période 2009-2019, et d’entretiens conduits avec des chercheurs français positionnés à cette interface, cette synthèse explicite les grands domaines de recherche en SA dans lesquels l’IA est actuellement mobilisée, comment elle contribue à revisiter les questions de recherche en SA et lever des verrous méthodologiques, et comment des questions de SA stimulent de nouveaux travaux en IA. Après avoir présenté les freins et leviers possibles, nous proposons des recommandations pour se saisir au mieux de l’enjeu que représente cette interface SA/IA.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Matuchansky, Claude. „Intelligence clinique et intelligence artificielle“. médecine/sciences 35, Nr. 10 (Oktober 2019): 797–803. http://dx.doi.org/10.1051/medsci/2019158.

Der volle Inhalt der Quelle
Annotation:
L’intelligence artificielle (IA) actuelle en médecine peut se prévaloir de grandes performances, particulièrement en analyse d’images à visées diagnostique et pronostique, mais, en pratique clinique quotidienne, les résultats de l’IA fondés sur des données probantes restent peu nombreux. Dans cet article, sont analysés les caractéristiques de l’intelligence clinique en pratique médicale, puis les succès et promesses de l’IA, de même que les limites, réserves et critiques apportées à l’introduction de l’IA en clinique de première ligne. Est soulignée l’importance de certains aspects éthiques et de régulation, notamment une « garantie humaine » à l’IA, telle que celle suggérée par le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE). L’intelligence clinique pourrait être cette garantie humaine de l’IA en médecine, leur complémentarité pouvant conduire à une qualité de décisions largement supérieure à celle fournie séparément par chacune d’elles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Chauvier, Stéphane. „IA : le test de la déférence“. Revue de métaphysique et de morale N° 119, Nr. 3 (10.08.2023): 409–25. http://dx.doi.org/10.3917/rmm.233.0409.

Der volle Inhalt der Quelle
Annotation:
Une machine exécutant des algorithmes d’intelligence artificielle est-elle une réelle intelligence artificielle ou ne fait-elle que simuler les opérations d’une créature intelligente ? Après avoir précisé le concept de simulation mécanique de l’intelligence humaine, nous proposons un critère ou un test permettant de déterminer dans quels cas une machine embarquant la technologie de l’IA devrait être considérée, non comme un simulateur mécanique d’opérations intelligentes, mais comme une réelle intelligence artificielle : nous appelons ce test le test de la déférence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Boss, Gilbert, und Maryvonne Longeart. „Philosophic sur ordinateur ou intelligence artificielle“. Dialogue 32, Nr. 2 (1993): 271–92. http://dx.doi.org/10.1017/s0012217300014438.

Der volle Inhalt der Quelle
Annotation:
L'informatique se définissant comme le traitement rationnel de l'information par machine automatique et l'intelligence se caractérisant par une même capacité de traitement rationnel, il était inévitable que l'on songe à associer l'intelligence au traitement automatique de l'information. C'est ce qu'a fait John McCarthy en forgeant le terme d'intelligence artificielle (IA). Par «intelligence artificielle» on peut vouloir exprimer l'ambition de1. Recréer, transformer ou développer l'intelligence artificiellement2. Simuler l'intelligence en la reconstituant dans des modéles imitant certains aspects de notre intelligence dite naturelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Cennamo, Ilaria, und Loïc de Faria Pires. „Intelligence artificielle et traduction“. FORUM / Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation 20, Nr. 2 (31.12.2022): 333–56. http://dx.doi.org/10.1075/forum.00024.cen.

Der volle Inhalt der Quelle
Annotation:
Résumé S’il est vrai que « l’intelligence artificielle et les médias sociaux ont considérablement modifié notre rapport à la communication en général et à la traduction en particulier » (EMT 2017, 2), il faut pourtant constater que l’impact de ce nouveau paradigme de l’intelligence artificielle sur la formation universitaire et sur la pratique professionnelle est loin de contribuer à une harmonisation des pratiques. Dans le cadre de cette contribution, nous essaierons de développer une réflexion autour de la compétence traductive à l’ère de l’intelligence artificielle (IA) en vue de déterminer la mesure dans laquelle la compétence traductive évolue actuellement dans le contexte de la formation universitaire et celui de la traduction institutionnelle pour répondre aux nouveaux modes d’interaction avec les systèmes de traduction automatique neuronale. Notre objectif est, en ce sens, de contribuer à l’identification des perspectives d’intégration de la traduction automatique neuronale, dans le sens d’une convergence entre formation et profession. Dans un premier temps (cf. Sections 1 et 2), on se propose de définir ce que devient la traduction à l’ère de l’intelligence artificielle, en accordant une attention particulière à l’acquisition des compétences technologiques. Dans un deuxième temps (cf. Sections 3 et 4), ces compétences spécifiques seront mises en relation avec les pratiques professionnelles et notamment celles qui caractérisent le flux de traduction de la direction générale de la traduction (DGT) de la Commission européenne. Les compétences technologiques telles qu’elles ont été définies par le réseau européen des masters en traduction (EMT), dans le référentiel élaboré en 2017 et adopté pour la période 2018–2024, seront utilisées ici pour appuyer nos propos, dans le sens où ce référentiel constitue un pont entre la formation et la pratique professionnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Foucart, Jean-Michel, Augustin Chavanne und Jérôme Bourriau. „Intelligence artificielle : le futur de l’Orthodontie ?“ Revue d'Orthopédie Dento-Faciale 53, Nr. 3 (September 2019): 281–94. http://dx.doi.org/10.1051/odf/2019026.

Der volle Inhalt der Quelle
Annotation:
Nombreux sont les apports envisagés de l’Intelligence Artificielle (IA) en médecine. En orthodontie, plusieurs solutions automatisées sont disponibles depuis quelques années en imagerie par rayons X (analyse céphalométrique automatisée, analyse automatisée des voies aériennes) ou depuis quelques mois (analyse automatique des modèles numériques, set-up automatisé; CS Model +, Carestream Dental™). L’objectif de cette étude, en deux parties, est d’évaluer la fiabilité de l’analyse automatisée des modèles tant au niveau de leur numérisation que de leur segmentation. La comparaison des résultats d’analyse des modèles obtenus automatiquement et par l’intermédiaire de plusieurs orthodontistes démontre la fiabilité de l’analyse automatique; l’erreur de mesure oscillant, in fine, entre 0,08 et 1,04 mm, ce qui est non significatif et comparable avec les erreurs de mesures inter-observateurs rapportées dans la littérature. Ces résultats ouvrent ainsi de nouvelles perspectives quand à l’apport de l’IA en Orthodontie qui, basée sur le deep learning et le big data, devrait permettre, à moyen terme, d’évoluer vers une orthodontie plus préventive et plus prédictive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Ghoshal, Debalina. „Intelligence artificielle et défense antimissile : quelle perspective pour l’Inde ?“ Revue Défense Nationale N° 868, Nr. 3 (12.03.2024): 105–10. http://dx.doi.org/10.3917/rdna.868.0105.

Der volle Inhalt der Quelle
Annotation:
La défense antimissile est un élément essentiel pour l’Inde dans le cadre conceptuel de sa dissuasion. Celle-ci repose sur le nucléaire mais aussi le conventionnel. La protection antiaérienne du territoire indien s’oriente vers une utilisation accrue de l’Intelligence artificielle (IA) pour accroître ses performances opérationnelles. Cela exige des développements importants autour des systèmes d’armes et de leur sécurisation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Franzosi, Marion, Youcef Guechi und Thomas Schmutz. „5 minutes pour apprendre. Intelligence artificielle (IA) : gardons le contrôle“. Revue Médicale Suisse 19, Nr. 837 (2023): 1474–75. http://dx.doi.org/10.53738/revmed.2023.19.837.1474.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Peyrard-Moulard, Martine. „Aide au développement – Intelligence artificielle (IA) – Biais de statu quo“. Pour l'Éco N° 52, Nr. 5 (01.06.2023): 10–11. http://dx.doi.org/10.3917/poec.052.0010.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Quéméner, Myriam. „Entreprises et intelligence artificielle : quels apports, quels risques ?“ Sécurité et stratégie 31, Nr. 3 (19.03.2024): 54–58. http://dx.doi.org/10.3917/sestr.031.0054.

Der volle Inhalt der Quelle
Annotation:
Apparue dans les années 50, l’intelligence artificielle (IA) revient en force et offre des perspectives dans tous les secteurs des activités économiques. Elle se nourrit désormais d’une masse considérable de données ou big data qui constituent la richesse des entreprises. L’intelligence artificielle n’est plus réservée aux services marketing pour définir les tendances de leur marché ou mieux cibler leurs clients, ces applications se diversifient, allant de la finance au domaine de la santé jusqu’au renforcement de la sécurité des entreprises. L’intelligence artificielle est cependant, comme le numérique, à double tranchant ; en instaurant une surveillance de masse, elle comporte des risques de dérives et crée des atouts pour les cyberdélinquants. C’est pourquoi progressivement se fait jour une règlementation destinée à préserver le rôle de l’homme face aux machines rendues intelligentes grâce à l’IA. Myriam Quéméner, avocat général à la cour d’appel de Paris et docteur en droit, est actuellement chargée des procédures économiques et financières à la chambre de l’instruction. Elle réalise la veille juridique en matière de droit du numérique et de cybersécurite pour le parquet général. Elle vient de publier “Le droit face à la disruption numérique” aux éditions lnextenso. L’auteur nous parle aujourd’hui des liens entre entreprises et intelligence artificielle et de la législation qui apparaît pour les réglementer.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Betschart, Christof. „L’humain imago Dei et l’intelligence artificielle imago hominis ?“ Recherches de Science Religieuse Tome 111, Nr. 4 (27.09.2023): 643–59. http://dx.doi.org/10.3917/rsr.234.0643.

Der volle Inhalt der Quelle
Annotation:
Dans cette contribution, nous présentons d’abord les principaux modèles d’interprétation de l’ imago Dei (ontologique, fonctionnel, relationnel) dont Noreen Herzfeld se sert dans son livre In Our Image : Artificial Intelligence and the Human Spirit (Fortress Press, 2002) pour élaborer sa thèse de l’intelligence artificielle (IA) comme imago hominis . À la lumière du Christ imago Dei par excellence, nous proposons ensuite une révision de la théologie de l’image en nous focalisant sur l’humain comme image incarnée, personnelle et filiale de Dieu, à savoir des dimensions qui ne sont pas purement et simplement transposables aux IA. Malgré des potentialités impressionnantes, l’IA est plutôt une apparence humaine qu’une image de l’humain au sens propre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Barlow, Julie. „Comment les humains battront-ils les machines ?“ Gestion Vol. 48, Nr. 3 (31.08.2023): 84–88. http://dx.doi.org/10.3917/riges.483.0084.

Der volle Inhalt der Quelle
Annotation:
L’intelligence artificielle mènera-t-elle l’humanité au désastre ou vers des lendemains qui chantent ? Voilà l’idée sous-jacente derrière la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, signée par plus de 2 000 personnalités du monde de la technologie. En mars 2023, la question a incité plus de 1 000 sommités à signer une pétition demandant à l’industrie de décréter un moratoire de six mois sur la formation des systèmes d’intelligence artificielle (IA).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Deprez, Stanislas. „Intelligence artificielle et transhumanisme : vers une redéfinition de l’humain ?“ Recherches de Science Religieuse Tome 111, Nr. 4 (27.09.2023): 625–42. http://dx.doi.org/10.3917/rsr.234.0625.

Der volle Inhalt der Quelle
Annotation:
L’Intelligence Artificielle (IA) semble s’imposer aujourd’hui dans tous les domaines de la société. Pour mieux cerner le potentiel et les risques de cette intégration, cet article propose une réflexion en trois temps. La première partie situe l’IA dans le champ des techniques. Elle présente les fondements des familles de techniques d’IA de façon à positionner leurs capacités et leurs limites. La seconde partie présente les espoirs qu’ouvre l’usage de l’IA dans différents domaines. Enfin, une troisième partie apporte un éclairage plus réflexif à partir de quelques grands enjeux éthiques et environnementaux liés à ces techniques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Sotiri, Erwin. „Artificial Intelligence, auto-driving cars and why robots will not rule mankind… yet !“ Pin Code N° 2, Nr. 2 (28.07.2019): 18–24. http://dx.doi.org/10.3917/pinc.002.0018.

Der volle Inhalt der Quelle
Annotation:
L’intelligence artificielle ou IA, fait l’objet de nombreuses discussions : juridiques, philosophiques, factuelles ou de fiction. L’émergence de discussions autour de l’imposition des technologies ou des droits universels des robots appuient une tendance vers une crainte généralisée d’un soulèvement de l’IA qui bouleverserait les structures et les réglementations humaines. La confusion entre l’IA logicielle et la fiction des robots humanoïdes sert de camouflet à ces craintes. Cet article vise à démystifier l’intelligence artificielle à travers l’exemple de la conduite automobile automatisée. L’IA sert actuellement en partie à développer des systèmes de conduite qui pourraient libérer les humains du fardeau et conséquences des erreurs de conduite évitables.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Felician Beccari, Stefano, und Matteo Bressan. „The Weaponisation of Artificial Intelligence: Risks and Implications“. L'Europe en Formation 396, Nr. 1 (13.11.2023): 85–94. http://dx.doi.org/10.3917/eufor.396.0085.

Der volle Inhalt der Quelle
Annotation:
Les fonctions de l’intelligence artificielle (IA) font aujourd’hui l’objet de débats dans les universités, les entreprises et les gouvernements. Mais la possibilité d’appliquer le potentiel de l’IA aux systèmes militaires soulève de nouvelles questions et implications. Le risque est que, dans un avenir proche, les systèmes d’armes létales autonomes (« LAWS »), alimentés par l’IA, soient capables d’échapper au contrôle humain et de libérer leurs effets mortels sans aucune limite ni retenue. Cette possibilité fait l’objet de débats dans lesquels les implications militaires, morales, juridiques et technologiques des « systèmes (d’armes) commandés par intelligence artificielle » doivent être soigneusement évaluées, afin d’être prêtes lorsque, dans le futur, ces technologies apparaîtront sur les champs de bataille. L’objectif de cet article est d’offrir une vue d’ensemble des principales implications de l’IA dans le domaine militaire, y compris des références à des scénarios de conflit ouvert.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Longeart, Maryvonne. „Intelligence et intentionalité. Critique de l'argument de Searle contre l'intelligence artificielle“. Dialogue 30, Nr. 1-2 (1991): 85–102. http://dx.doi.org/10.1017/s0012217300013342.

Der volle Inhalt der Quelle
Annotation:
Dans son célèbre article de 1950 «Computing Machinery and Intelligence», Alan Turing suggère qu'un critère d'intelligence pour une machine serait qu'elle puisse se faire passer pour un interlocuteur humain. Ce test, appelé «Test de Turing», a été critiqué par John Searle, qui a remis en cause sa pertinence en s'appuyant sur une expérience mentale connue sous le nom de l'argument de la chambre chinoise (Chinese Room Argument). L'expérience tend à montrer que l'intelligence artificielle au sens propre du terme est impossible, parce que les symboles manipulés par les programmes de prétendue «intelligence artificielle» (IA) sont dépourvus de signification. L'intentionalité propre à certains êtres vivants peut seule faire naître le sens. L'imitation d'un comportement intentionnel ne le peut pas. Le test de Turing serait done insatisfaisant, parce qu'il ne permettrait pas de distinguer les systèmes intentionnels de systèmes qui ne le sont pas, et que par conséquent il ne permettrait pas de distinguer l'intelligence authentique (intentionnelle) de la simulation de l'intelligence (non intentionnelle).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Toutain, Olivier, und Rachid Jabbouri. „Artificial intelligence and the transformation of management education“. Management international 27, Nr. 2 (2023): 119–32. http://dx.doi.org/10.59876/a-kthz-pbf0.

Der volle Inhalt der Quelle
Annotation:
Nous développons un cadre conceptuel pour examiner l’impact potentiel de l’intelligence artificielle (IA) et de ses technologies associées sur cinq dimensions de l’enseignement du management. Grâce à l’analyse des déclarations de mission de 785 startups de technologie éducative, nous identifions cinq mécanismes par lesquels l’IA peut bénéficier et transformer le domaine de l’enseignement de la gestion dans un monde post- COVID-19. Notre recherche est l’une des premières à proposer un cadre théorique global pour mieux comprendre l’impact d’une technologie disruptive dans un domaine traditionnel et immuable de l’enseignement supérieur, et plus particulièrement sur l’enseignement du management.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

de Saint-Affrique, Diane. „Intelligence artificielle et médecine : quelles règles éthiques et juridiques pour une IA responsable ?“ Médecine & Droit 2022, Nr. 172 (Februar 2022): 5–7. http://dx.doi.org/10.1016/j.meddro.2021.09.001.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Bondil, P. „Disruptions en santé sexuelle : clinique, Evidence Based Medicine (EBM) ou intelligence artificielle (IA) ?“ Sexologies 28, Nr. 4 (Oktober 2019): 171–76. http://dx.doi.org/10.1016/j.sexol.2019.06.014.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Desbiolles, Jean-Philippe. „Finance et Intelligence artificielle (IA) : d’une révolution industrielle à une révolution humaine ... tout est à repenser...“ Annales des Mines - Réalités industrielles Février 2019, Nr. 1 (2019): 5. http://dx.doi.org/10.3917/rindu1.191.0005.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Charest, Francine, und Laurence Saglietto. „Stratégies de communication pour construire l’acceptabilité sociale d’une application en intelligence artificielle (IA) : l’analyse de vidéos anonymes (AVA)“. Communication & management Vol. 17, Nr. 2 (09.04.2021): 35–50. http://dx.doi.org/10.3917/comma.172.0035.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Collin, Simon, Alexandre Lepage und Léo Nebel. „Ethical and Critical Issues of Artificial Intelligence in Education: A Systematic Review of the Literature“. Canadian Journal of Learning and Technology 49, Nr. 4 (06.02.2024): 1–29. http://dx.doi.org/10.21432/cjlt28448.

Der volle Inhalt der Quelle
Annotation:
Bien qu’ils aient été étudiés depuis les années 2000, les enjeux que suscitent les systèmes d’intelligence artificielle (IA) lorsqu’ils sont utilisés éducation (SIA-ED) font actuellement l’objet d’une attention croissante dans la littérature scientifique. Il est toutefois difficile d’en avoir une vue synthétique car ils sont abordés par les chercheurs et chercheuses au travers de terrains éducatifs, de techniques computationnelles et d’angles d’analyse hétérogènes. Aussi, l’objectif de cet article est de mener une revue systématique de la littérature sur les enjeux éthiques et critiques des SIA-ED afin d’en avoir un meilleur portrait. Une analyse de 58 documents scientifiques nous a amenés à identifier 70 enjeux éthiques et critiques des SIA-ED, que nous avons organisés sous 6 tensions : complexité des situations éducatives vs standardisation technique ; agentivité des acteurs et actrices scolaires vs automatisation technique ; justice scolaire vs rationalité technique ; gouvernance scolaire vs conception technique ; besoin d’intelligibilité des acteurs et actrices scolaires vs opacité technique ; dignité des acteurs et actrices scolaires vs exploitation des données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Roten, Claude-Alain, Serge Nicollerat, Lionel Pousaz und Guy Genilloud. „Détecter par stylométrie la fraude académique utilisant ChatGPT“. Cahiers IRAFPA 1, Nr. 1 (14.07.2023): 1–11. http://dx.doi.org/10.56240/irafpa.cm.v1n1/rot.

Der volle Inhalt der Quelle
Annotation:
Depuis la fin de l’année 2022, ChatGPT rend possible la rédaction de textes par Intelligence Artificielle. Cette IA faible est un agent conversationnel qui ne comprend ni les textes qu’il produit, ni ceux de son corpus d’entraînement. Car, pour écrire des textes crédibles, le chatbot construit des séquences de mots en choisissant les termes voisins les plus probables d’après les textes d’entraînement utilisés pour son modèle de langage GPT-3.5. Donc, par nature, ChatGPT rédige sans créativité un contenu plausible, mais pas nécessairement conforme à la réalité. Les textes ChatGPT peuvent servir à frauder dans un cadre académique : l’IA est capable de répondre à la place d’un candidat aux questions d’un examen, de rédiger un document certifiant (master, thèse…) ou d’augmenter déraisonnablement le volume des contributions d’un hyper-publiant. L’article décrit deux approches stylométriques capables de détecter la fraude académique générée par chatbot. La rédaction d’un texte par une IA peut d’abord être mise en évidence par la comparaison de son style avec des documents authentiquement rédigés par l’auteur présumé, selon l’approche Machine Learning que nous avons développée pour détecter le ghostwriting : l’IA est soumise au même type de détection qu’un ghostwriter. Ensuite, ChatGPT peut également être détecté comme IA indépendamment de son modèle de langage par notre approche originale Machine Learning, qui mesure le choix des mots et de leurs proches voisins : dans un texte chatbot qui préfère les voisins les plus probables, le choix est sensiblement plus restreint que dans un texte généré par un rédacteur humain. L’article discute les conséquences de la rédaction par IA pour l’enseignement et la recherche et propose des moyens pour la détecter.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Sajous, Patricia. „En route avec l’IA ! Incidence de l’IA et de l’informatique ubiquitaire dans l’établissement de la mobilité quotidienne : le cas des applications GPS“. Flux Pub. anticipées, Nr. 4 (15.12.2022): I3—XV. http://dx.doi.org/10.3917/flux1.pr1.0003.

Der volle Inhalt der Quelle
Annotation:
L’IA (intelligence artificielle) colonise de plus en plus de secteurs du quotidien. Comment prendre cela en compte dans les recherches en sciences humaines portant sur la mobilité quotidienne ? Cet article est l’occasion de s’interroger sur les cadres théorique et méthodologique à mettre en place. Nous développons la notion de « corps augmenté » et considérons les objets techniques permettant l’augmentation comme des « non humains actants » (Callon, 2006). Nous débutons par une définition, précisons les modalités d’analyse de l’augmentation du corps en matière de mobilité quotidienne et mettons en perspective l’ancienneté de cette recherche. Le cadre théorique posé, nous nous penchons sur le cadre méthodologique permettant de cerner les ressorts de l’augmentation. Nous nous intéresserons alors aux applications GPS ( Global Positioning System ) intégrant l’IA, consultables sur smartphone. Objet d’un nombre croissant de téléchargements, nous montrons par une enquête exploratoire sur quatre applications, en France, comment l’IA fait évoluer la donne. Nous revenons dans la discussion sur le cadre réflexif mis en place et sur les tendances identifiées dans les résultats.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Lahmann, Henning, und Robin Geiß. „The use of AI in military contexts: opportunities and regulatory challenges“. Military Law and the Law of War Review 59, Nr. 2 (19.01.2022): 165–95. http://dx.doi.org/10.4337/mllwr.2021.02.02.

Der volle Inhalt der Quelle
Annotation:
While the use of artificial intelligence (AI) and machine-learning algorithms in the context of armed conflicts has been subject to scholarly and political debate for at least the past half-decade, to date discussions have focused on the possible development and deployment of lethal autonomous weapon systems. Going beyond this narrow perspective, the article draws attention to other military uses of AI that are conceivable or in fact already exist, for example for the purpose of detention, force protection, equipment maintenance, or reconnaissance. It critically examines these different applications from a legal and ethical perspective, exposing some of the challenges inherent in the technology such as algorithmic bias or predictability. On the basis of existing and emerging approaches to the regulation of ‘civilian’ AI, the article concludes by proposing a granular, tiered way to future regulation of military AI that proceeds from the criticality of each particular application. Alors que le recours à l’intelligence artificielle et aux algorithmes d’apprentissage automatique dans le contexte des conflits armés a fait l’objet d’un débat entre spécialistes et au niveau politique durant au moins ces cinq dernières années, les discussions se sont concentrées jusqu’alors sur le développement et le déploiement possibles de systèmes d’armes létaux autonomes. Cet article va au-delà de cette perspective restrictive et attire l’attention sur d’autres usages militaires de l’intelligence artificielle qui sont concevables ou qui existent déjà, par exemple à des fins de détention, de protection des forces armées, d’entretien de l’équipement ou de reconnaissance. Il examine de manière critique ces différentes applications d’un point de vue légal et éthique, en exposant certains des défis inhérents à la technologie, tels que le biais algorithmique ou la prévisibilité. En se basant sur des approches existantes ou émergentes relatives à la réglementation de l’intelligence artificielle «civile», l’article propose pour conclure une approche graduelle de la future réglementation en matière d’intelligence artificielle, en partant du caractère critique de chaque application particulière. Hoewel het gebruik van artificiële intelligentie (AI) en machine learning-algoritmen in de context van gewapende conflicten al gedurende minstens de laatste vijf jaar onderwerp is van wetenschappelijk en politiek debat, zijn de discussies tot nu toe vooral gericht geweest op de mogelijke ontwikkeling en inzet van dodelijke autonome wapensystemen. Het artikel gaat verder dan dit beperkte perspectief en vestigt de aandacht op andere militaire toepassingen van AI die denkbaar zijn of in feite al bestaan, bijvoorbeeld voor detentie, troepenbescherming, materieelonderhoud of verkenning. Deze verschillende toepassingen worden kritisch onderzocht vanuit een juridisch en ethisch perspectief, waarbij enkele uitdagingen worden blootgelegd die inherent zijn aan de technologie, zoals algoritmische vooringenomenheid of voorspelbaarheid. Op basis van bestaande en opkomende benaderingen van de reglementering van “civiele” AI, wordt in het artikel tot slot een stapsgewijze manier voorgesteld voor de toekomstige reglementering van militaire AI, die uitgaat van het kritische karakter van elke specifieke toepassing. Mentre l’uso dell’intelligenza artificiale (AI) e degli algoritmi di apprendimento automatico nel contesto dei conflitti armati è stato oggetto di dibattito accademico e politico per almeno l’ultimo mezzo decennio, ad oggi le discussioni si sono concentrate sul possibile sviluppo e dispiegamento di sistemi d’arma autonomi letali. Superando questa limitata prospettiva, l’articolo richiama l’attenzione su altri usi militari dell’IA immaginari o che di fatto già esistono, per esempio a scopo di detenzione, protezione delle forze, manutenzione delle attrezzature o ricognizione. L’articolo esamina criticamente queste diverse applicazioni da una prospettiva legale ed etica, mettendo in luce alcune sfide insite nella tecnologia, come la distorsione algoritmica o la prevedibilità. Sulla base degli approcci esistenti ed emergenti alla regolamentazione dell’IA “civile”, l’articolo conclude proponendo una precisa e graduale via per la futura regolamentazione dell’IA militare che consegue alla criticità di ogni particolare applicazione. Si bien el empleo de inteligencia artificial (IA) y de algoritmos de aprendizaje automático en el contexto de los conflictos armados ha sido objeto de debate académico y político durante al menos la última media década, hasta la fecha las discusiones se han centrado en el posible desarrollo y despliegue de sistemas letales de armas autónomos. Más allá de esta perspectiva particular, el artículo llama la atención sobre otros usos militares de la IA que son concebibles o que de hecho, por ejemplo, ya existen con fines de detención, protección de la fuerza, mantenimiento de equipos o reconocimiento. Se examinan críticamente estas diferentes aplicaciones desde una perspectiva legal y ética, exponiendo algunos de los desafíos inherentes a la tecnología, como el sesgo algorítmico o la previsibilidad. Partiendo de la base de los enfoques ya existentes y emergentes para la regulación de la IA “civil”, el artículo concluye proponiendo una alternativa granular y escalonada de cara a la futura regulación de la IA militar con fundamento en un análisis crítico de cada aplicación en particular. Obwohl die Anwendung von künstlicher Intelligenz (KI) und von Algorithmen für maschinelles Lernen im Kontext bewaffneter Konflikte mindestens in den letzten fünf Jahren Gegenstand wissenschaftlicher und politischer Debatten gewesen ist, fokussierten die Diskussionen bisher auf die mögliche Entwicklung und den möglichen Einsatz letaler autonomer Waffensysteme. Über diesen Gesichtspunkt hinaus lenkt der Artikel die Aufmerksamkeit auf andere denkbare oder tatsächlich bereits existierende militärische Anwendungen der KI, zum Beispiel zum Zwecke der Haft, des Schutzes der eigenen Kräfte, der Ausrüstungswartung oder Aufklärung. Der Autor prüft diese verschiedenen Anwendungen kritisch aus gesetzlicher und ethischer Sicht, und legt dabei einige der Herausforderungen offen, die der Technologie inhärent sind, wie algorithmische Voreingenommenheit oder Voraussagbarkeit. Auf der Basis existierender und neu aufkommender Vorgehensweisen in Bezug auf die Reglementierung “ziviler” KI schlägt der Artikel zum Schluss eine stufenweise künftige Reglementierung militärischer KI vor, die von der Kritikalität jeder besonderen Anwendung ausgeht.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Prud'Homme, A., N. Rheviharinala und A. Serfaty. „Place de l’«Intelligence artificielle» (IA) dans l'organisation et la validation de la production de l'information médicale : retour d'expérience (2017-2022) sur le CH de Saint-Quentin (CHSQ), Aisne, France“. Revue d'Épidémiologie et de Santé Publique 71 (März 2023): 101516. http://dx.doi.org/10.1016/j.respe.2023.101516.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

„Intelligence artificielle vers un Watson du nucléaire“. Revue Générale Nucléaire, Nr. 3 (Mai 2018): 31–33. http://dx.doi.org/10.1051/rgn/20183031.

Der volle Inhalt der Quelle
Annotation:
Qu’appelle-t-on intelligence artificielle ? Aujourd’hui beaucoup de technologies, souvent proches des mathématiques sophistiquées, se présentent sous cette appellation. L’« IA » se positionne au croisement de l’informatique et des mathématiques appliquées. Plus précisément, il s’agit d’un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision qui lui permettent de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

GOUYET, Jean-Noël. „Médias numériques & Intelligence artificielle (IA) : Broadcast – Journalisme – Hypertrucages“. Documents numériques Gestion de contenu, November 2022. http://dx.doi.org/10.51257/a-v1-te5898.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

GOUYET, Jean-Noël. „Médias numériques et Intelligence Artificielle (IA) : Applications images et sons“. Intelligence artificielle, August 2022. http://dx.doi.org/10.51257/a-v1-te5897.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

McKelvey, Fenwick Robert, und Maggie Macdonald. „Artificial Intelligence Policy Innovations at the Canadian Federal Government“. Canadian Journal of Communication 44, Nr. 2 (27.06.2019). http://dx.doi.org/10.22230/cjc.2019v44n2a3509.

Der volle Inhalt der Quelle
Annotation:
This article summarizes two initiatives for artificial intelligence (AI) underway in the Canadian public service: public consultation and collaboration in compiling an algorithmic impact assessment, and a symposium on AI and human rights held by Global Affairs Canada. The findings contextualize the national consultations on digital and data transformation and future steps for more inclusive AI governance in Canada.Cet article offre une synthèse de deux initiatives sur l’intelligence artificielle (IA) en cours dans la fonction publique canadienne : la consultation et collaboration du public dans la compilation d’une évaluation d’impact algorithmique et un symposium sur l’IA et les droits de la personne organisée par Affaires mondiales Canada. Les conclusions permettent de donner un contexte aux consultations nationales sur la transformation du numérique et des données et les mesures à prendre pour une gouvernance en intelligence artificielle plus inclusive au Canada.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

NAULLY, NICOLAS. „KANT ET LA MORALE DES MACHINES : PROGRAMMER LA « BONTÉ » DANS L’ÈRE DES MODÈLES DE LANGAGE“. Management & Data Science, 2023. http://dx.doi.org/10.36863/mds.a.25661.

Der volle Inhalt der Quelle
Annotation:
Cet article examine la possibilité de programmer une intelligence artificielle (IA) pour qu'elle soit moralement "bonne", en s'inspirant des principes de Kant. Il aborde les défis de définir une éthique universelle pour les machines, la complexité des décisions morales, et les risques de biais et de discrimination. Parallèlement, il souligne les opportunités offertes par une IA éthique, telles que l'amélioration de la prise de décision et la réduction des biais humains. Des recommandations sont proposées, incluant l'établissement de principes éthiques clairs, la conception inclusive, et la transparence. L'article conclut sur l'importance de développer une IA éthiquement responsable pour façonner une société où la technologie reflète nos valeurs morales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

RACOCEANU, Daniel, Mehdi OUNISSI und Yannick L. KERGOSIEN. „Explicabilité en Intelligence Artificielle ; vers une IA Responsable - Instanciation dans le domaine de la santé“. Technologies logicielles Architectures des systèmes, Dezember 2022. http://dx.doi.org/10.51257/a-v1-h5030.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Mafille, Yannick, Quentin Julien, Antoine Valentin und Patrick Bouteille. „L’IA au service du contrôle par magnétoscopie et par ressuage“. e-journal of nondestructive testing 28, Nr. 9 (September 2023). http://dx.doi.org/10.58286/28464.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de son activité collective destinée à ses cotisants mécaniciens, le CETIM a réalisé une étude de l’utilisation de l’IA (machine learning) pour une sanction automatique des contrôles par magnétoscopie fluorescente. En effet, les systèmes automatiques classiques basés sur la vision atteignent leurs limites dans le cas de fausses indications liées aux méthodes de contrôle par magnétoscopie et ressuage. Un démonstrateur nomade a été réalisé pour permettre aux industriels de découvrir et d’évaluer sur leur production, les performances de la technologie IA pour la détection automatique par Intelligence Artificielle de défauts décelés par magnétoscopie fluorescente. Cette technologie est transposable à d’autres méthodes CND comme le ressuage fluorescent. Ce démonstrateur automatisable comprend 4 modes de fonctionnement permettant d’illustrer la démarche IA appliquée aux CND : acquisition d’images, annotation des images (classification, détection d’objet, segmentation), entrainement d’algorithmes de Machine Learning et contrôle en temps réel. Les travaux ont été réalisés sur 4 types de pièces forgées (bielles, vilebrequins, moyeux de roue et tulipes de transmission) mises à disposition par les industriels, mais sont transposables à d’autres types de pièces. Les algorithmes entrainés permettent de détecter automatiquement les défauts décelés par magnétoscopie fluorescente. L’étude a montré que l’IA est une technologie aujourd’hui accessible pouvant répondre aux besoins des industriels pour fiabiliser et automatiser les contrôles actuels. Ce démonstrateur est aujourd’hui présenté comme un assistant aux contrôleurs CND.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Gosselin, Laura, Maxime Thibault, Denis Lebel und Jean-François Bussières. „Utilisation de l’intelligence artificielle en pharmacie : une revue narrative“. Canadian Journal of Hospital Pharmacy 74, Nr. 2 (19.04.2021). http://dx.doi.org/10.4212/cjhp.v74i2.3100.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Contexte : L’intelligence artificielle (IA) est une avancée technologique qui consiste à amener une machine à imiter une forme d’intelligence. Objectifs : L’objectif principal est d’effectuer une revue narrative des études évaluant la faisabilité et l’impact de l’IA en pharmacie. L’objectif secondaire est de développer une carte heuristique entourant l’IA en santé. Sources des données : Nous avons consulté quatre bases de données, soit PubMed, Medline, Embase et CINAHL. Sélection des études et extraction des données : Quatre stratégies de recherche ont été élaborées. Sélection des articles sur la base du titre, de l’abrégé puis du texte par une assistante de recherche, suivie d’une révision par un pharmacien de l’équipe. Les articles pris en compte doivent décrire ou évaluer la faisabilité ou l’impact de l’IA en pharmacie. Synthèse des données : À partir de la revue documentaire, 362 articles ont été sélectionnés au départ, 18 d’entre eux ont été retenus selon les critères d’inclusion. De façon générale, on note que les études ont été surtout menées aux États-Unis (72 %, 13/18). Les études portent, par ordre d’importance décroissant, sur la prédiction de la réponse aux traitements et la prédiction d’effets indésirables (33 %, 6/18), la priorisation des patients (28 %, 5/18), l’adhésion thérapeutique (22 %, 4/18), la validation d’ordonnances et la prescription électronique (17 %, 3/18) et d’autres thèmes (p. ex. diagnostic, coûts, assurance, vérification de volumes de seringue). Conclusions : Cette revue narrative met en évidence 18 études évaluant la faisabilité et l’impact de l’IA en pharmacie. Ces études ont utilisé différentes approches méthodologiques dans divers domaines d’application, en officine comme en établissement de santé. Il est encore trop tôt pour prédire les retombées de l’IA en pharmacie, mais ces études soulignent l’importance de s’y intéresser. ABSTRACT Background: Artificial intelligence (AI) can be described as an advanced technology in which machines display a certain form of intelligence. Objectives: The primary objective was to perform a narrative review of studies evaluating the feasibility and impact of AI in pharmacy. The secondary objective was to create a mind map of AI in health care. Data Sources: Four databases were consulted: PubMed, Medline, Embase, and CINAHL. Study Selection and Data Extraction: Four search strategies were developed. Initial selection of articles was based on their titles and abstracts; the full texts were then evaluated by a research assistant, with review by a pharmacist. Articles were included if they described or evaluated the feasibility or impact of AI in pharmacy. Data Synthesis: A total of 362 articles were identified by the literature review, of which 18 met the inclusion criteria. The studies were mainly conducted in the United States (72%, 13/18). The article topics were, in decreasing order, prediction of response to treatments and adverse effects (33%, 6/18), patient prioritization (28%, 5/18), treatment adherence (22%, 4/18), validation of prescriptions and electronic prescription (17%, 3/18), and other themes (e.g., diagnosis, costs, insurance, and verification of syringe volume). Conclusions: This narrative review highlighted 18 studies evaluating the feasibility and impact of AI in pharmacy. The studies used various methodologies in different settings, both retail pharmacies and hospital pharmacies. It is still too soon to predict the implications of AI for pharmacy, but these studies emphasize the importance of attention in this area.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie