Auswahl der wissenschaftlichen Literatur zum Thema „Intelligence artificielle (IA) embarquée“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Intelligence artificielle (IA) embarquée" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Intelligence artificielle (IA) embarquée"

1

EZANNO, Pauline, Sébastien PICAULT, Nathalie WINTER, Gaël BEAUNÉE, Hervé MONOD und Jean-François GUÉGAN. „Intelligence artificielle et santé animale“. INRAE Productions Animales 33, Nr. 2 (15.09.2020): 95–108. http://dx.doi.org/10.20870/productions-animales.2020.33.2.3572.

Der volle Inhalt der Quelle
Annotation:
Mobiliser les approches issues de l’intelligence artificielle (IA) en santé animale (SA) permet d’aborder des problèmes de forte complexité logique ou algorithmique tels que rencontrés en épidémiologie quantitative et prédictive, en médecine de précision, ou dans l’étude des relations hôtes × pathogènes. L’IA peut dans certaines situations faciliter le diagnostic et la détection de cas, fiabiliser les prédictions et réduire les erreurs, permettre des représentations plus réalistes et lisibles par des non informaticiens de systèmes biologiques complexes, accélérer les décisions, améliorer la précision des analyses de risque et permettre de mieux cibler les interventions et d’en anticiper les effets. De plus, les fronts de science en SA engendrent de nouveaux challenges pour l’IA, du fait de la spécificité des systèmes, des données, des contraintes, et des objectifs d’analyse. Sur la base d’une revue de la littérature à l’interface entre IA et SA couvrant la période 2009-2019, et d’entretiens conduits avec des chercheurs français positionnés à cette interface, cette synthèse explicite les grands domaines de recherche en SA dans lesquels l’IA est actuellement mobilisée, comment elle contribue à revisiter les questions de recherche en SA et lever des verrous méthodologiques, et comment des questions de SA stimulent de nouveaux travaux en IA. Après avoir présenté les freins et leviers possibles, nous proposons des recommandations pour se saisir au mieux de l’enjeu que représente cette interface SA/IA.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Matuchansky, Claude. „Intelligence clinique et intelligence artificielle“. médecine/sciences 35, Nr. 10 (Oktober 2019): 797–803. http://dx.doi.org/10.1051/medsci/2019158.

Der volle Inhalt der Quelle
Annotation:
L’intelligence artificielle (IA) actuelle en médecine peut se prévaloir de grandes performances, particulièrement en analyse d’images à visées diagnostique et pronostique, mais, en pratique clinique quotidienne, les résultats de l’IA fondés sur des données probantes restent peu nombreux. Dans cet article, sont analysés les caractéristiques de l’intelligence clinique en pratique médicale, puis les succès et promesses de l’IA, de même que les limites, réserves et critiques apportées à l’introduction de l’IA en clinique de première ligne. Est soulignée l’importance de certains aspects éthiques et de régulation, notamment une « garantie humaine » à l’IA, telle que celle suggérée par le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE). L’intelligence clinique pourrait être cette garantie humaine de l’IA en médecine, leur complémentarité pouvant conduire à une qualité de décisions largement supérieure à celle fournie séparément par chacune d’elles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Chauvier, Stéphane. „IA : le test de la déférence“. Revue de métaphysique et de morale N° 119, Nr. 3 (10.08.2023): 409–25. http://dx.doi.org/10.3917/rmm.233.0409.

Der volle Inhalt der Quelle
Annotation:
Une machine exécutant des algorithmes d’intelligence artificielle est-elle une réelle intelligence artificielle ou ne fait-elle que simuler les opérations d’une créature intelligente ? Après avoir précisé le concept de simulation mécanique de l’intelligence humaine, nous proposons un critère ou un test permettant de déterminer dans quels cas une machine embarquant la technologie de l’IA devrait être considérée, non comme un simulateur mécanique d’opérations intelligentes, mais comme une réelle intelligence artificielle : nous appelons ce test le test de la déférence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Boss, Gilbert, und Maryvonne Longeart. „Philosophic sur ordinateur ou intelligence artificielle“. Dialogue 32, Nr. 2 (1993): 271–92. http://dx.doi.org/10.1017/s0012217300014438.

Der volle Inhalt der Quelle
Annotation:
L'informatique se définissant comme le traitement rationnel de l'information par machine automatique et l'intelligence se caractérisant par une même capacité de traitement rationnel, il était inévitable que l'on songe à associer l'intelligence au traitement automatique de l'information. C'est ce qu'a fait John McCarthy en forgeant le terme d'intelligence artificielle (IA). Par «intelligence artificielle» on peut vouloir exprimer l'ambition de1. Recréer, transformer ou développer l'intelligence artificiellement2. Simuler l'intelligence en la reconstituant dans des modéles imitant certains aspects de notre intelligence dite naturelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Cennamo, Ilaria, und Loïc de Faria Pires. „Intelligence artificielle et traduction“. FORUM / Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation 20, Nr. 2 (31.12.2022): 333–56. http://dx.doi.org/10.1075/forum.00024.cen.

Der volle Inhalt der Quelle
Annotation:
Résumé S’il est vrai que « l’intelligence artificielle et les médias sociaux ont considérablement modifié notre rapport à la communication en général et à la traduction en particulier » (EMT 2017, 2), il faut pourtant constater que l’impact de ce nouveau paradigme de l’intelligence artificielle sur la formation universitaire et sur la pratique professionnelle est loin de contribuer à une harmonisation des pratiques. Dans le cadre de cette contribution, nous essaierons de développer une réflexion autour de la compétence traductive à l’ère de l’intelligence artificielle (IA) en vue de déterminer la mesure dans laquelle la compétence traductive évolue actuellement dans le contexte de la formation universitaire et celui de la traduction institutionnelle pour répondre aux nouveaux modes d’interaction avec les systèmes de traduction automatique neuronale. Notre objectif est, en ce sens, de contribuer à l’identification des perspectives d’intégration de la traduction automatique neuronale, dans le sens d’une convergence entre formation et profession. Dans un premier temps (cf. Sections 1 et 2), on se propose de définir ce que devient la traduction à l’ère de l’intelligence artificielle, en accordant une attention particulière à l’acquisition des compétences technologiques. Dans un deuxième temps (cf. Sections 3 et 4), ces compétences spécifiques seront mises en relation avec les pratiques professionnelles et notamment celles qui caractérisent le flux de traduction de la direction générale de la traduction (DGT) de la Commission européenne. Les compétences technologiques telles qu’elles ont été définies par le réseau européen des masters en traduction (EMT), dans le référentiel élaboré en 2017 et adopté pour la période 2018–2024, seront utilisées ici pour appuyer nos propos, dans le sens où ce référentiel constitue un pont entre la formation et la pratique professionnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Foucart, Jean-Michel, Augustin Chavanne und Jérôme Bourriau. „Intelligence artificielle : le futur de l’Orthodontie ?“ Revue d'Orthopédie Dento-Faciale 53, Nr. 3 (September 2019): 281–94. http://dx.doi.org/10.1051/odf/2019026.

Der volle Inhalt der Quelle
Annotation:
Nombreux sont les apports envisagés de l’Intelligence Artificielle (IA) en médecine. En orthodontie, plusieurs solutions automatisées sont disponibles depuis quelques années en imagerie par rayons X (analyse céphalométrique automatisée, analyse automatisée des voies aériennes) ou depuis quelques mois (analyse automatique des modèles numériques, set-up automatisé; CS Model +, Carestream Dental™). L’objectif de cette étude, en deux parties, est d’évaluer la fiabilité de l’analyse automatisée des modèles tant au niveau de leur numérisation que de leur segmentation. La comparaison des résultats d’analyse des modèles obtenus automatiquement et par l’intermédiaire de plusieurs orthodontistes démontre la fiabilité de l’analyse automatique; l’erreur de mesure oscillant, in fine, entre 0,08 et 1,04 mm, ce qui est non significatif et comparable avec les erreurs de mesures inter-observateurs rapportées dans la littérature. Ces résultats ouvrent ainsi de nouvelles perspectives quand à l’apport de l’IA en Orthodontie qui, basée sur le deep learning et le big data, devrait permettre, à moyen terme, d’évoluer vers une orthodontie plus préventive et plus prédictive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Ghoshal, Debalina. „Intelligence artificielle et défense antimissile : quelle perspective pour l’Inde ?“ Revue Défense Nationale N° 868, Nr. 3 (12.03.2024): 105–10. http://dx.doi.org/10.3917/rdna.868.0105.

Der volle Inhalt der Quelle
Annotation:
La défense antimissile est un élément essentiel pour l’Inde dans le cadre conceptuel de sa dissuasion. Celle-ci repose sur le nucléaire mais aussi le conventionnel. La protection antiaérienne du territoire indien s’oriente vers une utilisation accrue de l’Intelligence artificielle (IA) pour accroître ses performances opérationnelles. Cela exige des développements importants autour des systèmes d’armes et de leur sécurisation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Franzosi, Marion, Youcef Guechi und Thomas Schmutz. „5 minutes pour apprendre. Intelligence artificielle (IA) : gardons le contrôle“. Revue Médicale Suisse 19, Nr. 837 (2023): 1474–75. http://dx.doi.org/10.53738/revmed.2023.19.837.1474.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Peyrard-Moulard, Martine. „Aide au développement – Intelligence artificielle (IA) – Biais de statu quo“. Pour l'Éco N° 52, Nr. 5 (01.06.2023): 10–11. http://dx.doi.org/10.3917/poec.052.0010.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Quéméner, Myriam. „Entreprises et intelligence artificielle : quels apports, quels risques ?“ Sécurité et stratégie 31, Nr. 3 (19.03.2024): 54–58. http://dx.doi.org/10.3917/sestr.031.0054.

Der volle Inhalt der Quelle
Annotation:
Apparue dans les années 50, l’intelligence artificielle (IA) revient en force et offre des perspectives dans tous les secteurs des activités économiques. Elle se nourrit désormais d’une masse considérable de données ou big data qui constituent la richesse des entreprises. L’intelligence artificielle n’est plus réservée aux services marketing pour définir les tendances de leur marché ou mieux cibler leurs clients, ces applications se diversifient, allant de la finance au domaine de la santé jusqu’au renforcement de la sécurité des entreprises. L’intelligence artificielle est cependant, comme le numérique, à double tranchant ; en instaurant une surveillance de masse, elle comporte des risques de dérives et crée des atouts pour les cyberdélinquants. C’est pourquoi progressivement se fait jour une règlementation destinée à préserver le rôle de l’homme face aux machines rendues intelligentes grâce à l’IA. Myriam Quéméner, avocat général à la cour d’appel de Paris et docteur en droit, est actuellement chargée des procédures économiques et financières à la chambre de l’instruction. Elle réalise la veille juridique en matière de droit du numérique et de cybersécurite pour le parquet général. Elle vient de publier “Le droit face à la disruption numérique” aux éditions lnextenso. L’auteur nous parle aujourd’hui des liens entre entreprises et intelligence artificielle et de la législation qui apparaît pour les réglementer.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Intelligence artificielle (IA) embarquée"

1

Mainsant, Marion. „Apprentissage continu sous divers scénarios d'arrivée de données : vers des applications robustes et éthiques de l'apprentissage profond“. Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALS045.

Der volle Inhalt der Quelle
Annotation:
Le cerveau humain reçoit en continu des informations en provenance de stimuli externes. Il a alors la capacité de s’adapter à de nouvelles connaissances tout en conservant une mémoire précise de la connaissance apprise par le passé. De plus en plus d’algorithmes d’intelligence artificielle visent à apprendre des connaissances à la manière d’un être humain. Ils doivent alors être mis à jour sur des données variées arrivant séquentiellement et disponibles sur un temps limité. Cependant, un des verrous majeurs de l’apprentissage profond réside dans le fait que lors de l’apprentissage de nouvelles connaissances, les anciennes sont quant-à-elles perdues définitivement, c’est ce que l’on appelle « l’oubli catastrophique ». De nombreuses méthodes ont été proposées pour répondre à cette problématique, mais celles-ci ne sont pas toujours applicables à une mise en situation réelle car elles sont construites pour obtenir les meilleures performances possibles sur un seul scénario d’arrivée de données à la fois. Par ailleurs, les meilleures méthodes existant dans l’état de l’art sont la plupart du temps ce que l’on appelle des méthodes à « rejeu de données » qui vont donc conserver une petite mémoire du passé, posant ainsi un problème dans la gestion de la confidentialité des données ainsi que dans la gestion de la taille mémoire disponible.Dans cette thèse, nous proposons d’explorer divers scénarios d’arrivée de données existants dans la littérature avec, pour objectif final, l’application à la reconnaissance faciale d’émotion qui est essentielle pour les interactions humain-machine. Pour cela nous présenterons l’algorithme Dream Net – Data-Free qui est capable de s’adapter à un vaste nombre de scenarii d’arrivée des données sans stocker aucune donnée passée. Cela lui permet donc de préserver la confidentialité des données apprises. Après avoir montré la robustesse de cet algorithme comparé aux méthodes existantes de l’état de l’art sur des bases de données classiques de la vision par ordinateur (Mnist, Cifar-10, Cifar-100 et Imagenet-100), nous verrons qu’il fonctionne également sur des bases de données de reconnaissance faciale d’émotions. En s’appuyant sur ces résultats, nous proposons alors un démonstrateur embarquant l’algorithme sur une carte Nvidia Jetson nano. Enfin nous discuterons la pertinence de notre approche pour la réduction des biais en intelligence artificielle ouvrant ainsi des perspectives vers une IA plus robuste et éthique
The human brain continuously receives information from external stimuli. It then has the ability to adapt to new knowledge while retaining past events. Nowadays, more and more artificial intelligence algorithms aim to learn knowledge in the same way as a human being. They therefore have to be able to adapt to a large variety of data arriving sequentially and available over a limited period of time. However, when a deep learning algorithm learns new data, the knowledge contained in the neural network overlaps old one and the majority of the past information is lost, a phenomenon referred in the literature as catastrophic forgetting. Numerous methods have been proposed to overcome this issue, but as they were focused on providing the best performance, studies have moved away from real-life applications where algorithms need to adapt to changing environments and perform, no matter the type of data arrival. In addition, most of the best state of the art methods are replay methods which retain a small memory of the past and consequently do not preserve data privacy.In this thesis, we propose to explore data arrival scenarios existing in the literature, with the aim of applying them to facial emotion recognition, which is essential for human-robot interactions. To this end, we present Dream Net - Data-Free, a privacy preserving algorithm, able to adapt to a large number of data arrival scenarios without storing any past samples. After demonstrating the robustness of this algorithm compared to existing state-of-the-art methods on standard computer vision databases (Mnist, Cifar-10, Cifar-100 and Imagenet-100), we show that it can also adapt to more complex facial emotion recognition databases. We then propose to embed the algorithm on a Nvidia Jetson nano card creating a demonstrator able to learn and predict emotions in real-time. Finally, we discuss the relevance of our approach for bias mitigation in artificial intelligence, opening up perspectives towards a more ethical AI
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Blachon, David. „Reconnaissance de scènes multimodale embarquée“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM001/document.

Der volle Inhalt der Quelle
Annotation:
Contexte : Cette thèse se déroule dans les contextes de l'intelligence ambiante et de la reconnaissance de scène (sur mobile). Historiquement, le projet vient de l'entreprise ST-Ericsson. Il émane d'un besoin de développer et intégrer un "serveur de contexte" sur smartphone capable d'estimer et de fournir des informations de contexte pour les applications tierces qui le demandent. Un exemple d'utilisation consiste en une réunion de travail où le téléphone sonne~; grâce à la reconnaissance de la scène, le téléphone peut automatiquement réagir et adapter son comportement, par exemple en activant le mode vibreur pour ne pas déranger.Les principaux problèmes de la thèse sont les suivants : d'abord, proposer une définition de ce qu'est une scène et des exemples de scènes pertinents pour l'application industrielle ; ensuite, faire l'acquisition d'un corpus de données à exploiter par des approches d'apprentissage automatique~; enfin, proposer des solutions algorithmiques au problème de la reconnaissance de scène.Collecte de données : Aucune des bases de données existantes ne remplit les critères fixés (longs enregistrements continus, composés de plusieurs sources de données synchronisées dont l'audio, avec des annotations pertinentes).Par conséquent, j'ai développé une application Android pour la collecte de données. L'application est appelée RecordMe et a été testé avec succès sur plus de 10 appareils. L'application a été utilisée pour 2 campagnes différentes, incluant la collecte de scènes. Cela se traduit par plus de 500 heures enregistrées par plus de 25 bénévoles, répartis principalement dans la région de Grenoble, mais aussi à l'étranger (Dublin, Singapour, Budapest). Pour faire face au problème de protection de la vie privée et de sécurité des données, des mesures ont été mises en place dans le protocole et l'application de collecte. Par exemple, le son n'est pas sauvegardé, mes des coefficients MFCCs sont enregistrés.Définition de scène : L'étude des travaux existants liés à la tâche de reconnaissance de scène, et l'analyse des annotations fournies par les bénévoles lors de la collecte de données, ont permis de proposer une définition d'une scène. Elle est définie comme la généralisation d'une situation, composée d'un lieu et une action effectuée par une seule personne (le propriétaire du smartphone). Des exemples de scènes incluent les moyens de transport, la réunion de travail, ou le déplacement à pied dans la rue. La notion de composition permet de décrire la scène avec plusieurs types d'informations. Cependant, la définition est encore trop générique, et elle pourrait être complétée par des informations additionnelles, intégrée à la définition comme de nouveaux éléments de la composition.Algorithmique : J'ai réalisé plusieurs expériences impliquant des techniques d'apprentissage automatique supervisées et non non-supervisées. La partie supervisée consiste en de la classification. La méthode est commune~: trouver des descripteurs des données pertinents grâce à l'utilisation d'une méthode de sélection d'attribut ; puis, entraîner et tester plusieurs classifieurs (arbres de décisions et forêt d'arbres décisionnels ; GMM ; HMM, et DNN). Également, j'ai proposé un système à 2 étages composé de classifieurs formés pour identifier les concepts intermédiaires et dont les prédictions sont fusionnées afin d'estimer la scène la plus probable. Les expérimentations non-supervisées visent à extraire des informations à partir des données. Ainsi, j'ai appliqué un algorithme de regroupement hiérarchique ascendant, basé sur l'algorithme EM, sur les données d'accélération et acoustiques considérées séparément et ensemble. L'un des résultats est la distinction des données d'accélération en groupes basés sur la quantité d'agitation
Context: This PhD takes place in the contexts of Ambient Intelligence and (Mobile) Context/Scene Awareness. Historically, the project comes from the company ST-Ericsson. The project was depicted as a need to develop and embed a “context server” on the smartphone that would get and provide context information to applications that would require it. One use case was given for illustration: when someone is involved in a meeting and receives a call, then thanks to the understanding of the current scene (meet at work), the smartphone is able to automatically act and, in this case, switch to vibrate mode in order not to disturb the meeting. The main problems consist of i) proposing a definition of what is a scene and what examples of scenes would suit the use case, ii) acquiring a corpus of data to be exploited with machine learning based approaches, and iii) propose algorithmic solutions to the problem of scene recognition.Data collection: After a review of existing databases, it appeared that none fitted the criteria I fixed (long continuous records, multi-sources synchronized records necessarily including audio, relevant labels). Hence, I developed an Android application for collecting data. The application is called RecordMe and has been successfully tested on 10+ devices, running Android 2.3 and 4.0 OS versions. It has been used for 3 different campaigns including the one for scenes. This results in 500+ hours recorded, 25+ volunteers were involved, mostly in Grenoble area but abroad also (Dublin, Singapore, Budapest). The application and the collection protocol both include features for protecting volunteers privacy: for instance, raw audio is not saved, instead MFCCs are saved; sensitive strings (GPS coordinates, device ids) are hashed on the phone.Scene definition: The study of existing works related to the task of scene recognition, along with the analysis of the annotations provided by the volunteers during the data collection, allowed me to propose a definition of a scene. It is defined as a generalisation of a situation, composed of a place and an action performed by one person (the smartphone owner). Examples of scenes include taking a transportation, being involved in a work meeting, walking in the street. The composition allows to get different kinds of information to provide on the current scene. However, the definition is still too generic, and I think that it might be completed with additionnal information, integrated as new elements of the composition.Algorithmics: I have performed experiments involving machine learning techniques, both supervised and unsupervised. The supervised one is about classification. The method is quite standard: find relevant descriptors of the data through the use of an attribute selection method. Then train and test several classifiers (in my case, there were J48 and Random Forest trees ; GMM ; HMM ; and DNN). Also, I have tried a 2-stage system composed of a first step of classifiers trained to identify intermediate concepts and whose predictions are merged in order to estimate the most likely scene. The unsupervised part of the work aimed at extracting information from the data, in an unsupervised way. For this purpose, I applied a bottom-up hierarchical clustering, based on the EM algorithm on acceleration and audio data, taken separately and together. One of the results is the distinction of acceleration into groups based on the amount of agitation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Chamberland, Simon. „Deux investigations en IA : contrôler les déplacements d'un robot mobile et coordonner les décisions d'une IA pour les jeux“. Mémoire, Université de Sherbrooke, 2013. http://savoirs.usherbrooke.ca/handle/11143/45.

Der volle Inhalt der Quelle
Annotation:
L’intelligence artificielle est un domaine de l’informatique étudiant la conception d’agents intelligents. Un agent est une entité acquérant de l’information sur son environnement par ses capteurs et agissant sur son environnement à travers ses actionneurs. Certains agents existent seulement dans le domaine logiciel, comme par exemple un agent intelligent pour un jeu vidéo, alors que d’autres existent dans le monde physique, tels les robots mobiles. Les domaines des jeux vidéo et de la robotique partagent certaines caractéristiques, dont la nécessité de prendre des décisions en temps réel dans un environnement dynamique ainsi qu’une vue incomplète sur cet environnement. Ce mémoire est divisé en deux chapitres. Le premier chapitre traite d’une approche de planification de trajectoires exploitant la géométrie d’une classe particulière de robots omnidirectionnels non-holonomes afin de calculer des chemins adéquats leur permettant d’atteindre une destination désirée. Les résultats obtenus avec cette approche tendent à démontrer qu’elle est plus efficace que les algorithmes traditionnels de planification de trajectoires grâce à l’information additionnelle prise en compte lors du calcul. Le second chapitre décrit l’architecture décisionnelle de l’agent intelligent SPAR qui est en mesure de jouer de façon autonome des parties de StarCraft : Brood War, un jeu de stratégie en temps réel. L’architecture de SPAR inclut entre autres des algorithmes de planification de trajectoires similaires à ceux du premier chapitre. Elle permet de faire face plus facilement et de façon plus rigoureuse, en comparaison avec les architectures existantes, aux nombreuses difficultés propres à ce type de jeu. Ces difficultés incluent un degré élevé de concurrence dans les actions et une multitude d’unités à contrôler dans un contexte temps réel. L’agent SPAR a participé aux volets 2011 et 2012 de la compétition AIIDE de StarCraft et à l’édition 2012 de la compétition SSCAI où il a obtenu à chaque fois des résultats honorables.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Chamberland, Simon. „Deux investigations en IA : contr??ler les d??placements d'un robot mobile et coordonner les d??cisions d'une IA pour les jeux“. Mémoire, Universit?? de Sherbrooke, 2013. http://savoirs.usherbrooke.ca/handle/11143/45.

Der volle Inhalt der Quelle
Annotation:
L???intelligence artificielle est un domaine de l???informatique ??tudiant la conception d???agents intelligents. Un agent est une entit?? acqu??rant de l???information sur son environnement par ses capteurs et agissant sur son environnement ?? travers ses actionneurs. Certains agents existent seulement dans le domaine logiciel, comme par exemple un agent intelligent pour un jeu vid??o, alors que d???autres existent dans le monde physique, tels les robots mobiles. Les domaines des jeux vid??o et de la robotique partagent certaines caract??ristiques, dont la n??cessit?? de prendre des d??cisions en temps r??el dans un environnement dynamique ainsi qu???une vue incompl??te sur cet environnement. Ce m??moire est divis?? en deux chapitres. Le premier chapitre traite d???une approche de planification de trajectoires exploitant la g??om??trie d???une classe particuli??re de robots omnidirectionnels non-holonomes afin de calculer des chemins ad??quats leur permettant d???atteindre une destination d??sir??e. Les r??sultats obtenus avec cette approche tendent ?? d??montrer qu???elle est plus efficace que les algorithmes traditionnels de planification de trajectoires gr??ce ?? l???information additionnelle prise en compte lors du calcul. Le second chapitre d??crit l???architecture d??cisionnelle de l???agent intelligent SPAR qui est en mesure de jouer de fa??on autonome des parties de StarCraft : Brood War, un jeu de strat??gie en temps r??el. L???architecture de SPAR inclut entre autres des algorithmes de planification de trajectoires similaires ?? ceux du premier chapitre. Elle permet de faire face plus facilement et de fa??on plus rigoureuse, en comparaison avec les architectures existantes, aux nombreuses difficult??s propres ?? ce type de jeu. Ces difficult??s incluent un degr?? ??lev?? de concurrence dans les actions et une multitude d???unit??s ?? contr??ler dans un contexte temps r??el. L???agent SPAR a particip?? aux volets 2011 et 2012 de la comp??tition AIIDE de StarCraft et ?? l?????dition 2012 de la comp??tition SSCAI o?? il a obtenu ?? chaque fois des r??sultats honorables.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Nabholtz, Franz-Olivier. „Problématisation prospective des stratégies de la singularité“. Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCB019.

Der volle Inhalt der Quelle
Annotation:
De la mondialisation à la globalisation, de la modernité à la postmodernité, de l"humain au transhumain : - la révolution numérique et technologique fait émerger des enjeux qui imprègnent notre quotidien au-delà même de ce que le sens commun peut imaginer. La massification des données, analysée comme la résultante d'une hyper-connectivité, liée à une convergence « big data-intelligence artificielle » pose la question de sa juste utilisation et répartition entre des acteurs privés très volontaristes (GAFA) et des institutions publics pour le moins dépassées, quant aux principes d'efficacité rationnelle représentant l'une des caractéristiques des datas. Une caractéristique prédictive qui correspond donc à un besoin vital des états. Une société humaine qui disposerait des connaissances précises de sa situation, pourrait faire des choix rationnels en fonction de scénarios prédictifs et n'agirait plus de la même façon et ne se normaliserait plus de la même façon. Si nous rejetons le transhumanisme dans sa dimension idéologique, nous prenons pour acquises les dimensions conceptuelles de la théorie dite de la singularité que nous problématisons dans ce travail par une analyse de l'information propre à une démarche d'intelligence économique, au-delà même de la pensée commune et d'un consensus hérité d'une école de pensée déductive qui s'est affirmée par la démonstration et imposée par une forme d'idéologie qui existe partout, si ce n'est dans les sciences sociales. La pensée inductive, dont la caractéristique première est la corrélation à vocation prédictive, verrait l'élaboration de scénarios probabilistes multidisciplinaires, audacieux et propres à la science politique, dont l'idée principale serait de détecter et d'anticiper, à l'instar de la médecine prédictive (c'est ce que nous dit la singularité), les grandes tendances sociétales et politiques futures. Cependant, la nature de ces travaux devra faire l'objet d'une indépendance totale. Le processus d'exploitation du big data par le biais d'algorithmes, hors processus traditionnels de validation scientifique, prendra appui sur un modèle nouveau, dans lequel la démonstration de la cause prendra sans doute une dimension quantique ou synaptique dans un futur proche, analysé ainsi, comme singulier
From past world to globalization, from modernity to postmodernity, from the human to the transhuman: - the digital and technological revolution brings out issues that permeate our daily lives beyond even what common sense can imagine. The massification of data, analyzed as the result of a hyper-connectivity, linked to a convergence "big data-artificial intelligence" raises the question of its fair use and distribution between highly voluntary private actors (GAFA) and public institutions for the least outdated, as to the principles of rational efficiency representing one of the characteristics of datas. A predictive characteristic that corresponds to a vital need of states. A human society with specific knowledge of its situation could make rational choices based on predictive scenarios and would no longer behave in the same way and no longer normalize in the same way. If we reject transhumanism in its ideological dimension, we take for granted the conceptual dimensions of the theory of singularity that we problematize in this work by an analysis of information specific to an approach of economic intelligence, even beyond of common thought and consensus inherited from a deductive school of thought that has been affirmed by demonstration and imposed by a form of ideology that exists everywhere, if not in social sciences. Inductive thinking, whose primary characteristic is predictive correlation, would see the development of probabilistic, multidisciplinary, bold and peculiar political science scenarios, the main idea of which would be to detect and anticipate, as predictive medicine (this is what singularity tells us), major societal and political future trends. However, the nature of this work will have to be fully independent. The process of exploiting big data by means of algorithms, outside traditional processes of scientific validation, will be based on a new model, in which the proof of the cause will undoubtedly take on a quantum or synaptic dimension in a near future, analyzed thus, as singular
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Ayats, H. Ambre. „Construction de graphes de connaissances à partir de textes avec une intelligence artificielle explicable et centrée-utilisateur·ice“. Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. http://www.theses.fr/2023URENS095.

Der volle Inhalt der Quelle
Annotation:
Avec les progrès récents dans le domaine de l'intelligence artificielle, la question du contrôle humain est devenu centrale. Aujourd'hui, cela passe à la fois par des recherches en explicabilité et des systèmes centrés autour de l'interaction avec l'utilisateur·ice. De plus, avec l'expansion du web sémantique et des méthodes de traitement automatique du langage naturelle, la tâche de construction de graphes de connaissances à partir de textes est devenu un enjeu important. Cette thèse présente un système centré-utilisateur·ice pour la construction de graphes de connaissances à partir de textes. Cette thèse présente plusieurs contributions. Tout d'abord, nous introduisons un workflow centré-utilisateur·ice pour la tâche sus-citée, ayant la propriété d'automatiser progressivement les actions de l'utilisateur·ice tout en lui laissant un contrôle fin du résultat. Ensuite, nous présentons nos apports dans le domaine de l'analyse de concepts formels, utilisés afin de concevoir un module d'apprentissage fainéant et explicable pour la tâche de classification de relations. Enfin, nous présentons nos apports dans le domaine de l'extraction de relations, et comment ces apports s'inscrivent dans le workflow présenté précédemment
With recent advances in artificial intelligence, the question of human control has become central. Today, this involves both research into explainability and designs centered around interaction with the user. What's more, with the expansion of the semantic web and automatic natural language processing methods, the task of constructing knowledge graphs from texts has become an important issue. This thesis presents a user-centered system for the construction of knowledge graphs from texts. This thesis presents several contributions. First, we introduce a user-centered workflow for the aforementioned task, having the property of progressively automating the user's actions while leaving them a fine-grained control over the outcome. Next, we present our contributions in the field of formal concept analysis, used to design an explainable instance-based learning module for relation classification. Finally, we present our contributions in the field of relation extraction, and how these fit into the presented workflow
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Robert, Gabriel. „MHiCS, une architecture de sélection de l'action motivationnelle et hiérarchique à systèmes de classeurs pour personnages non joueurs adaptatifs“. Paris 6, 2005. http://www.theses.fr/2005PA066165.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Afchar, Darius. „Interpretable Music Recommender Systems“. Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS608.

Der volle Inhalt der Quelle
Annotation:
« Pourquoi est-ce qu’on me recommande toujours les même musiques ? » « Pourquoi notre système recommande-t’il cela aux utilisateurs ? » De nos jours, les plateformes de streaming sont le moyen le plus courant d'écouter de la musique enregistrée. Pourtant, les recommandations musicales — au cœur de ces plateformes — sont loin d’être une mince affaire. Il arrive parfois qu’utilisateurs et ingénieurs soient tout aussi perplexes du comportement d’un système de recommandation musicale (SRM). Les SRM ont été utilisés avec succès pour aider à explorer des catalogues comptant des dizaines de millions de titres musicaux. Construits et optimisés pour la précision, les SRM industriels sont souvent assez complexes. Ils peuvent en outre dépendre de nombreux modules interconnectés qui, notamment, analysent les signaux audio, récupèrent les métadonnées d’albums et artistes et les interactions des utilisateurs du service, et estiment des similarités basées sur du filtrage collaboratif. Cette complexité va en l’encontre de la capacité d'expliquer les recommandations et, plus généralement, ces systèmes. Pourtant, les explications sont essentielles pour fidéliser des utilisateurs sur le long termes avec un système qu'ils peuvent comprendre (et pardonner), et pour les propriétaires du système pour rationaliser les erreurs dudit système. L'interprétabilité peut également être nécessaire pour vérifier l'équité d'une décision ou peut être envisagées comme un moyen de rendre les recommandations plus contrôlables. Nous pouvons également récursivement demander : pourquoi une méthode d'explication explique-t-elle d'une certaine manière ? Cette explication est-elle pertinente ? Quelle pourrait être une meilleure explication ? Toutes ces questions sont liées à l'interprétabilité des SRM. Dans une première partie, nous explorons les multiples visages de l'interprétabilité dans diverses tâches de recommandation. En effet, puisqu'il n'y a pas une seule tâche de recommandation mais plusieurs (e.g., recommandation séquentielle, continuation de playlists, similarité artistes), ainsi que de nombreuses modalités de représentation de la musique (e.g., métadonnées, signaux audio, plongements), il y a autant de tâches possibles d’explications nécessitant des ajustements. Notre étude a été guidée par l’exploration des modalités sus-mentionnées : l'interprétation des signaux implicites utilisateurs, des caractéristiques, des signaux audio, et des inter-similarités. Notre thèse présente plusieurs nouvelles méthodes pour l'IA explicable (XAI) et plusieurs résultats théoriques, portant un nouvel éclairage sur notre compréhension des méthodes passées. Néanmoins, les méthodes d’explications peuvent à leur tour manquer d'interprétabilité. C'est pourquoi, une deuxième partie, nous avons jugé essentiel de prendre du recul par rapport aux discours habituels de l’IA et d'essayer de répondre à une question paradoxalement peu claire pour l’XAI : « Qu'est-ce que l'interprétabilité ? » En s'appuyant sur des concepts issus des sciences sociales, nous soulignons qu'il existe un décalage entre la manière dont les explications de l'XAI sont générées et la manière dont les humains expliquent réellement. Nous suggérons que la recherche actuelle a tendance à trop s'appuyer sur des intuitions et des réductions hâtive de réalités complexes en termes mathématiques commodes, conduisant à ériger des hypothèses en normes discutables (e.g., la parcimonie entraîne l'interprétabilité). Nous avons pensé cette partie comme un tutoriel destiné aux chercheurs en IA afin de renforcer leur connaissance des explications avec un vocabulaire précis et une perspective plus large. Nous résumons des conseils pratiques et mettons en évidence des branches moins populaires de l'XAI mieux alignées avec l’humain. Cela nous permet de formuler une perspective globale pour notre domaine de l'XAI, y compris ses prochaines étapes les plus critiques et prometteuses ainsi que ses lacunes à surmonter
‘‘Why do they keep recommending me this music track?’’ ‘‘Why did our system recommend these tracks to users?’’ Nowadays, streaming platforms are the most common way to listen to recorded music. Still, music recommendations — at the heart of these platforms — are not an easy feat. Sometimes, both users and engineers may be equally puzzled about the behaviour of a music recommendation system (MRS). MRS have been successfully employed to help explore catalogues that may be as large as tens of millions of music tracks. Built and optimised for accuracy, real-world MRS often end up being quite complex. They may further rely on a range of interconnected modules that, for instance, analyse audio signals, retrieve metadata about albums and artists, collect and aggregate user feedbacks on the music service, and compute item similarities with collaborative filtering. All this complexity hinders the ability to explain recommendations and, more broadly, explain the system. Yet, explanations are essential for users to foster a long-term engagement with a system that they can understand (and forgive), and for system owners to rationalise failures and improve said system. Interpretability may also be needed to check the fairness of a decision or can be framed as a means to control the recommendations better. Moreover, we could also recursively question: Why does an explanation method explain in a certain way? Is this explanation relevant? What could be a better explanation? All these questions relate to the interpretability of MRSs. In the first half of this thesis, we explore the many flavours that interpretability can have in various recommendation tasks. Indeed, since there is not just one recommendation task but many (e.g., sequential recommendation, playlist continuation, artist similarity), as well as many angles through which music may be represented and processed (e.g., metadata, audio signals, embeddings computed from listening patterns), there are as many settings that require specific adjustments to make explanations relevant. A topic like this one can never be exhaustively addressed. This study was guided along some of the mentioned modalities of musical objects: interpreting implicit user logs, item features, audio signals and similarity embeddings. Our contribution includes several novel methods for eXplainable Artificial Intelligence (XAI) and several theoretical results, shedding new light on our understanding of past methods. Nevertheless, similar to how recommendations may not be interpretable, explanations about them may themselves lack interpretability and justifications. Therefore, in the second half of this thesis, we found it essential to take a step back from the rationale of ML and try to address a (perhaps surprisingly) understudied question in XAI: ‘‘What is interpretability?’’ Introducing concepts from philosophy and social sciences, we stress that there is a misalignment in the way explanations from XAI are generated and unfold versus how humans actually explain. We highlight that current research tends to rely too much on intuitions or hasty reduction of complex realities into convenient mathematical terms, which leads to the canonisation of assumptions into questionable standards (e.g., sparsity entails interpretability). We have treated this part as a comprehensive tutorial addressed to ML researchers to better ground their knowledge of explanations with a precise vocabulary and a broader perspective. We provide practical advice and highlight less popular branches of XAI better aligned with human cognition. Of course, we also reflect back and recontextualise our methods proposed in the previous part. Overall, this enables us to formulate some perspective for our field of XAI as a whole, including its more critical and promising next steps as well as its shortcomings to overcome
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Dubus, Georges. „Transformation de programmes logiques : application à la personnalisation et à la personnification d’agents“. Thesis, Supélec, 2014. http://www.theses.fr/2014SUPL0017/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'intéresse à la personnalisation et à la personnification d'agents intelligents dans le cadre d'applications web. Les techniques de personnalisation et de personnification sont de plus en plusutilisées pour mieux répondre aux besoins des utilisateurs. La plupart de ces techniques reposent sur des outils de raisonnement issus de l'intelligence artificielle. Cependant, ces techniques sont habituellement utilisés de manière ad-hoc pour chaque application. L'approche de cette thèse est de considérer la personnalisation et la personnification comme deux instances d'altération de comportement, et à étudier l'altération du comportements d'agents rationnels. Les principales contributions sont WAIG, un formalisme basé sur le langage Golog adapté à l'expression d'applications web, et PAGE, un cadre formel pour la manipulation et l'altération de programmes agents Golog, permettant la transformation automatique d'agent selon un critère donné. Ces contributions sont illustrés par plusieurs scénarios concrets issus des domaines de la personnalisation et de la personnification
This thesis deals with personalization and personification of rational agents within the framework of web applications. Personalization and personification techniques are more and more used to answer the needs of users. Most of those techniques are based on reasoning tools that come from the artificial inteligence field. However, those techniques are usually used in an ad-hoc way for each application. The approach of this thesis is to consider personaliaation and personification as two instances of alteration of behaviour, and to study the alteration of the behaviours of rational agents. The main contributions are WAIG, a formalism for the expression of web applications based on the agent programming language Golog, and PAGE, a formal framework for the manipulation and the alteration of Golog agent programs, which allow to transform an agent automatically following a given criterion. Those contributions are illustrated by concrete scenarios from the fields of personalization and personification
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Wang, Olivier. „Adaptive Rules Model : Statistical Learning for Rule-Based Systems“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX037/document.

Der volle Inhalt der Quelle
Annotation:
Les Règles Métiers (Business Rules en anglais, ou BRs) sont un outil communément utilisé dans l’industrie pour automatiser des prises de décisions répétitives. Le problème de l’adaptation de bases de règles existantes à un environnement en constante évolution est celui qui motive cette thèse. Des techniques existantes d’Apprentissage Automatique Supervisé peuvent être utilisées lorsque cette adaptation se fait en toute connaissance de la décision correcte à prendre en toute circonstance. En revanche, il n’existe actuellement aucun algorithme, qu’il soit théorique ou pratique, qui puisse résoudre ce problème lorsque l’information connue est de nature statistique, comme c’est le cas pour une banque qui souhaite contrôler la proportion de demandes de prêt que son service de décision automatique fait passer à des experts humains. Nous étudions spécifiquement le problème d’apprentissage qui a pour objectif d’ajuster les BRs de façon à ce que les décisions prises aient une valeur moyenne donnée.Pour ce faire, nous considérons les bases de Règles Métiers en tant que programmes. Après avoir formalisé quelques définitions et notations dans le Chapitre 2, le langage de programmation BR ainsi défini est étudié dans le Chapitre 4, qui prouve qu’il n’existe pas d’algorithme pour apprendre des Règles Métiers avec un objectif statistique dans le cas général. Nous limitons ensuite le champ d’étude à deux cas communs où les BRs sont limités d’une certaine façon : le cas Borné en Itérations dans lequel, quelles que soit les données d’entrée, le nombre de règles exécutées en prenant la décision est inférieur à une borne donnée ; et le cas Linéaire Borné en Itérations dans lequel les règles sont de plus écrite sous forme Linéaire. Dans ces deux cas, nous produisons par la suite un algorithme d’apprentissage basé sur la Programmation Mathématique qui peut résoudre ce problème. Nous étendons brièvement cette formalisation et cet algorithme à d’autres problèmes d’apprentissage à objectif statistique dans le Chapitre 5, avant de présenter les résultats expérimentaux de cette thèse dans le Chapitre 6
Business Rules (BRs) are a commonly used tool in industry for the automation of repetitive decisions. The emerging problem of adapting existing sets of BRs to an ever-changing environment is the motivation for this thesis. Existing Supervised Machine Learning techniques can be used when the adaptation is done knowing in detail which is the correct decision for each circumstance. However, there is currently no algorithm, theoretical or practical, which can solve this problem when the known information is statistical in nature, as is the case for a bank wishing to control the proportion of loan requests its automated decision service forwards to human experts. We study the specific learning problem where the aim is to adjust the BRs so that the decisions are close to a given average value.To do so, we consider sets of Business Rules as programs. After formalizing some definitions and notations in Chapter 2, the BR programming language defined this way is studied in Chapter 3, which proves that there exists no algorithm to learn Business Rules with a statistical goal in the general case. We then restrain the scope to two common cases where BRs are limited in some way: the Iteration Bounded case in which no matter the input, the number of rules executed when taking the decision is less than a given bound; and the Linear Iteration Bounded case in which rules are also all written in Linear form. In those two cases, we later produce a learning algorithm based on Mathematical Programming which can solve this problem. We briefly extend this theory and algorithm to other statistical goal learning problems in Chapter 5, before presenting the experimental results of this thesis in Chapter 6. The last includes a proof of concept to automate the main part of the learning algorithm which does not consist in solving a Mathematical Programming problem, as well as some experimental evidence of the computational complexity of the algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Intelligence artificielle (IA) embarquée"

1

Conférence européenne sur les techniques et les applications de l'intelligence artificielle en milieu industriel et de service (2nd 1990 Paris, France). Convention IA 90: Actes de la 2e Conférence européenne sur les techniques et les applications de l'intelligence artificielle en milieu industriel et de service, 15-18 janvier 1990, Paris. Paris: Hermès, 1989.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Conférence européenne sur les techniques et les applications de l'intelligence artificielle en milieu industriel et de service. (1st 1989 Paris, France). Convention IA 89: Actes de la 1e Conférence européenne sur les techniques et les applications de l'intelligence artificielle en milieu industriel et de service, 23-27 janvier 1989, Porte de Versailles, Paris. Paris: Hermès, 1989.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Télémédecine Automatisée Par l'IA - une Nouvelle Méthode de Suivi à Distance des Patients: Intelligence Artificielle/augmentée Distribuée - IA - l'avenir des Soins de Santé. Independently Published, 2021.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Convention IA 90: Actes de la 2e Conference europeenne sur les techniques et les applications de l'intelligence artificielle en milieu industriel et de service, 15-18 janvier 1990, Paris. Hermes, 1990.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Intelligence artificielle (IA) embarquée"

1

BAILLARGEAT, Dominique. „Intelligence Artificielle et villes intelligentes“. In Algorithmes et Société, 37–46. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4544.

Der volle Inhalt der Quelle
Annotation:
Les technologies du numérique et de l'Intelligence Artificielle (IA) sont amenées à jouer un rôle essentiel dans tous les domaines de la société de demain pour améliorer le fonctionnement de la ville et la qualité de vie de ses habitants, tout en diminuant l'impact environnemental et la facture énergétique globale. Pour atteindre ses objectifs, il est nécessaire de penser les modes de complémentarité entre l'Humain et les systèmes intelligents. En effet, l'IA contribuera à rendre les villes intelligentes et sera vue comme un facteur d'amélioration de la qualité de vie, qui si elle est comprise et acceptée par les citoyens. Ce futur environnement urbain numérique ne peut alors se résumer à un réseau interconnecté de boîtes noires, mais doit tendre vers un réseau intelligent explicable, éthique et centré sur l'Humain. Ce chapitre se place dans ce contexte et propose des pistes de réflexion sur les enjeux numériques et sociétaux de la future ville intelligente.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

PIATTI, Marie-Christine. „Demain, quelles IA pour quelle humanité ?“ In Intelligence(s) artificielle(s) et Vulnérabilité(s) : kaléidoscope, 45–56. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3634.

Der volle Inhalt der Quelle
Annotation:
«La démocratie ce n’est pas la loi de la majorité mais la protection de la minorité» (A. Camus). Il revient au législateur de prendre en compte un ensemble de principes et de valeurs qui ouvrent la voie à un avenir bénéfique pour tous, donc qui vise le «bien commun».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

PULIDO, Belarmino, Carlos J. ALONSO-GONZÁLEZ und Anibal BREGON. „Approche par intelligence artificielle du diagnostic basé sur les modèles“. In Diagnostic et commande à tolérance de fautes 1, 235–69. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch6.

Der volle Inhalt der Quelle
Annotation:
La discipline de l'intelligence artificielle (IA) se concentre sur le diagnostic initialement abordé comme un problème de classification reliant symptômes et causes. Les approches incluent les systèmes basés sur la connaissance (KBS), les systèmes de raisonnement basés sur des cas (CBR), les systèmes de machine learning et les systèmes basés sur modèle. Les choix dépendent des connaissances disponibles. Les KBS ont historiquement fourni des solutions spécifiques, tandis que le diagnostic basé sur modèle offre des solutions généralisables mais spécifiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

BOUCAUD, Pascale. „Protection de la liberté et de la fragilité de la personne face au robot“. In Intelligence(s) artificielle(s) et Vulnérabilité(s) : kaléidoscope, 137–48. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3642.

Der volle Inhalt der Quelle
Annotation:
Le cadre de vie de la personne âgée, quel qu’il soit, est de plus en plus connecté à des techniques numériques diversifiées. En dépit de l’apport incontestable de ces nouvelles techniques, des risques sont d’ores et déjà à souligner. De nombreuses déclarations ont vu le jour, en faveur d’une IA éthique, responsable et respectueuse des droits de la personne. Sont principalement concernés le principe de dignité humaine, de liberté du consentement, le droit au respect de la vie privée, la protection des données personnelles. Ces droits fondamentaux ne sont pas négociables et encore moins optionnels. C’est pourquoi, nous tenterons dans cet article, de mesurer l’effectivité de certains de ces droits et libertés pour la personne âgée confrontée à la robotisation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

DUBOIS, Didier, Henri PRADE und Claudette TESTEMALE. „WEIGHTED FUZZY PATTERN MATCHING**This work is supported by the “Programme de Recherche Concertée: Intelligence Artificielle” (PRC-IA), sponsored by MRT and CNRS, France.“ In Readings in Fuzzy Sets for Intelligent Systems, 676–85. Elsevier, 1993. http://dx.doi.org/10.1016/b978-1-4832-1450-4.50073-0.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Intelligence artificielle (IA) embarquée"

1

Audet, René, und Tom Lebrun. Livre blanc : L'intelligence artificielle et le monde du livre. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, September 2020. http://dx.doi.org/10.61737/zhxd1856.

Der volle Inhalt der Quelle
Annotation:
Québec et Montréal, le 21 septembre 2020 – L’intelligence artificielle (IA) dans le monde du livre est une réalité. En effet, elle n’est pas réservée aux plateformes de vente ou aux applications médicales. L’IA peut assister l’écriture, accompagner le travail éditorial ou encore aider le libraire. Elle peut répondre à des besoins criants ; malgré ses limites évidentes, elle permet d’envisager des applications inédites dans la chaîne du livre, qui font ici l’objet de recommandations précises. Ce livre blanc, rédigé par deux spécialistes du livre et de l’intelligence artificielle, vise à identifier des pistes d’action pour mettre l’IA au service des nombreux maillons du monde du livre. « Dans ce milieu, où doivent être menées les réflexions utiles à la planification de l’avenir immédiat de ce créneau culturel, l’idée d’une concertation de certains de ses acteurs sur l’utilisation d’IA (voire l’éventuelle mise en commun des données collectées) est une piste à suivre. » Cette concertation est appelée par nombre d’experts, qui témoignent dans ce Livre blanc des enjeux propres au contexte culturel actuel menacé par les géants du commerce : « Si l’IA appelle une vigilance constante concernant son utilisation, il paraît important pour les acteurs du monde du livre de rester très attentifs aux avancées technologiques, tant à ce qu’elles pourraient bousculer qu’à ce qu’elles pourraient apporter. » (Virginie Clayssen, Éditis / Commission numérique du Syndicat national de l’édition, France) Ainsi, « la voie dorée pour l’introduction d’IA, pensée comme intelligence augmentée, dans les différents maillons de la chaîne est sans aucun doute celle d’une exploitation des différentes données déjà disponibles ».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Mörch, Carl-Maria, Pascale Lehoux, Marc-Antoine Dilhac, Catherine Régis und Xavier Dionne. Recommandations pratiques pour une utilisation responsable de l’intelligence artificielle en santé mentale en contexte de pandémie. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, Dezember 2020. http://dx.doi.org/10.61737/mqaf7428.

Der volle Inhalt der Quelle
Annotation:
La pandémie actuelle a provoqué une onde de choc dont les conséquences se font sentir dans tous les aspects de notre vie. Alors que la santé physique a été généralement au cœur de l’attention scientifique et politique, il est devenu clair que la pandémie de COVID-19 a influé significativement sur la santé mentale de nombreux individus. Plus encore, elle aurait accentué les fragilités déjà existantes dans nos systèmes de santé mentale. Souvent moins financé ou soutenu que la santé physique, le domaine de la santé mentale pourrait-il bénéficier d’innovations en intelligence artificielle en période de pandémie ? Et si oui comment ? Que vous soyez développeur.e.s en IA, chercheur.e.s ou entrepreneur.e.s, ce document vise à vous fournir une synthèse des pistes d’actions et des ressources pour prévenir les principaux risques éthiques liés au développement d’applications d’IA dans le champ de la santé mentale. Pour illustrer ces principes, ce document propose de découvrir quatre cas fictif, à visée réaliste, à partir desquels il vous sera proposé de porter attention aux enjeux éthiques potentiels dans cette situation, aux enjeux d’innovation responsable à envisager, aux pistes d’action possibles inspirées de la liste de contrôle (Protocole Canadien conçu pour favoriser une utilisation responsable de l’IA en santé mentale et prévention du suicide, Mörch et al., 2020), aux ressources pratiques et à certains enjeux juridiques pertinents. Ce document a été élaboré par Carl-Maria Mörch, PhD, Algora Lab, Université de Montréal, Observatoire International sur les impacts sociétaux de l’Intelligence Artificielle et du Numérique (OBVIA), Mila – Institut Québécois d’Intelligence Artificielle, avec les contributions de Pascale Lehoux, Marc-Antoine Dilhac, Catherine Régis et Xavier Dionne.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie