Добірка наукової літератури з теми "Intelligence artificielle"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Intelligence artificielle".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Intelligence artificielle":

1

Rivière, Jérémy, Carole Adamn та Sylvie Pesty. "Un ACA sincère, affectif et expressif comme compagnon artificiel". Revue d'intelligence artificielle 28, № 1 (лютий 2014): 67–99. http://dx.doi.org/10.3166/ria.28.67-99.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Intelligence artificielle":

1

Allouche, Mohamad Khaled. "Une société d'agents temporels pour la supervision de systèmes industriels." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1998. http://tel.archives-ouvertes.fr/tel-00822431.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La complexité croissante des systèmes industriels en termes d'expansion, d'hétérogénéité et de décentralisation entraine de plus en plus de contraintes dans leur fonctionnement. Ces contraintes ont souvent une composante temporelle. Des techniques, telles que les systèmes multi-agents, sont bien adaptées au caractère hétérogène et décentralisé de ces systèmes, elles sont de plus en plus souvent utilisées dans les applications telles que : contrôle, supervision, simulation, pilotage des travaux existent sur la représentation du temps dans la modélisation et le raisonnement sur les systèmes industriels. Dans le contexte multi-agents, peu de travaux prennent en compte ce facteur temporel explicitement et il est quasiment absent de tous les aspects sociaux de l'agent. Dans cette thèse, nous proposons et définissons une société d'agents temporels qui permet la prise en compte explicite du temps a la fois dans le raisonnement individuel et le raisonnement social au sein de l'agent. L'accent est mis d'une part sur l'interaction et d'autre part sur les différents types de dépendances qui existent entre agents et leur évolution au cours du temps. Ce modelé générique, a été applique à la supervision par reconnaissance de scenarios temporels, domaine dans lequel l'exécution des différentes taches est extrêmement contrainte par le temps. Le système stars est une implémentation du modèle. Il permet une reconnaissance distribuée des scenarios par un ensemble d'agents utilisant un raisonnement temporel.
2

Metz, Clément. "Codages optimisés pour la conception d'accélérateurs matériels de réseaux de neurones profonds." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST190.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Par leurs domaines d'application très divers (santé, énergie, défense, finance, navigation autonome...), les réseaux de neurones constituent une composante importante des outils d'apprentissage automatique. Les performances des réseaux de neurones sont grandement influencées par la complexité de leur architecture en nombre de couches, de neurones et de connexions. Mais l'entraînement et l'inférence de réseaux de plus en plus grands implique une sollicitation croissante de ressources matérielles et des temps de calcul plus longs. A l'inverse, leur portabilité se retrouve bridée sur des systèmes embarqués aux faibles capacités mémoire et/ou calculatoire.L'objectif de cette thèse est d'étudier et de concevoir des méthodes permettant de réduire l'empreinte matérielle des réseaux de neurones tout en préservant au mieux leurs performances. Nous nous restreignons aux réseaux de convolution dédiés à la vision par ordinateur en étudiant les possibilités offertes par la quantification. La quantification vise à réduire l'empreinte matérielle des réseaux en mémoire, en bande passante et en opérateurs de calculs par la réduction du nombre de bits des paramètres et des activations.Les contributions de cette thèse consistent en une nouvelle méthode de quantification post-entraînement reposant sur l'exploitation des corrélations spatiales des paramètres du réseau, une approche facilitant l'apprentissage des réseaux très fortement quantifiés, ainsi qu'une méthode visant à combiner la quantification en précision mixte et le codage entropique sans perte.Cette thèse se limite essentiellement aux aspects algorithmiques, mais les orientations de recherche ont été fortement influencées par la contrainte de faisabilité matérielle des propositions apportées
Neural networks are an important component of machine learning tools because of their wide range of applications (health, energy, defence, finance, autonomous navigation, etc.). The performance of neural networks is greatly influenced by the complexity of their architecture in terms of the number of layers, neurons and connections. But the training and inference of ever-larger networks translates to greater demands on hardware resources and longer computing times. Conversely, their portability is limited on embedded systems with low memory and/or computing capacity.The aim of this thesis is to study and design methods for reducing the hardware footprint of neural networks while preserving their performance as much as possible. We restrict ourselves to convolution networks dedicated to computer vision by studying the possibilities offered by quantization. Quantization aims to reduce the hardware footprint, in terms of memory, bandwidth and computation operators, by reducing the number of bits in the network parameters and activations.The contributions of this thesis consist of a new post-training quantization method based on the exploitation of spatial correlations of network parameters, an approach facilitating the learning of very highly quantized networks, and a method aiming to combine mixed precision quantization and lossless entropy coding.The contents of this thesis are essentially limited to algorithmic aspects, but the research orientations were strongly influenced by the requirement for hardware feasibility of our solutions
3

Toofanee, Mohammud Shaad Ally. "An innovative ecosystem based on deep learning : Contributions for the prevention and prediction of diabetes complications." Electronic Thesis or Diss., Limoges, 2023. https://aurore.unilim.fr/theses/nxfile/default/656b0a1f-2ff2-49c5-bb3e-f34704d6f6b0/blobholder:0/2023LIMO0107.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En 2021, le diabète touchait environ 537 millions de personnes dans le monde. Ce chiffre devrait grimper à 643 millions d'ici 2030 et 783 millions d'ici 2045. Le diabète est une maladie métabolique persistante qui nécessite des soins et une gestion quotidiens continus. Le fardeau des maladies chroniques pèse lourdement sur les systèmes de santé lorsqu'il touche une partie substantielle de la population. De telles circonstances ont un impact négatif non seulement sur le bien-être général d'une grande partie de la population, mais contribuent également de manière significative aux dépenses de santé. Dans le contexte de Maurice, selon le rapport le plus récent de la Fédération Internationale du Diabète, la prévalence du diabète, en particulier du diabète de type 2 (T2D), était de 22,6 % de la population en 2021, avec des projections indiquant une hausse à 26,6 % d'ici 2045. Face à cette tendance alarmante, une évolution concomitante a été observée dans le domaine de la technologie, l'intelligence artificielle démontrant des capacités prometteuses dans les domaines de la médecine et de la santé. Cette thèse de doctorat entreprend l'exploration de l'intersection entre l'intelligence artificielle, plus précisément l’apprentissage profond, l'éducation, la prévention, et la gestion du diabète. Nous nous sommes d'abord concentrés sur l'exploration du potentiel de l'Intelligence Artificielle (IA) pour répondre à une complication fréquente du diabète : l'Ulcère du Pied Diabétique (DFU). Les DFU présentent un risque grave d'amputations des membres inférieurs, entraînant des conséquences graves. En réponse, nous avons proposé une solution innovante nommée DFU-HELPER. Cet outil permet de valider les protocoles de traitement administrés par les professionnels de la santé aux patients individuels atteints de DFU. L'évaluation initiale de l'outil a montré des résultats prometteurs, bien qu'un affinement further et des tests rigoureux soient impératifs. Les efforts collaboratifs avec les experts en santé publique seront essentiels pour évaluer l'efficacité pratique de l'outil dans des scénarios réels. Cette approche vise à combler le fossé entre les technologies IA et les interventions cliniques, avec pour objectif ultime d'améliorer la prise en charge des patients atteints de DFU. Notre recherche a également abordé les aspects critiques de la vie privée et de la confidentialité inhérents à la manipulation des données liées à la santé. Reconnaissant l'importance capitale de la protection des informations sensibles, nous avons appliqué une approche avancée d'apprentissage fédéré Peer-to-Peer à notre proposition pour l'outil DFU-Helper. Cette approche permet de traiter des données sensibles sans les transférer vers un serveur central, contribuant ainsi à créer un environnement de confiance et sécurisé pour la gestion des données de santé. Enfin, notre recherche s'est étendue au développement d'un agent conversationnel intelligent conçu pour fournir des informations et un soutien 24 heures sur 24 aux personnes atteintes de diabète. Dans la poursuite de cet objectif, la création d'un jeu de données approprié était essentielle. Dans ce contexte, nous avons utilisé des techniques de traitement du langage naturel pour sélectionner des données de qualité provenant de sources médias en ligne traitant du diabète
In the year 2021, estimations indicated that approximately 537 million individuals were affected by diabetes, a number anticipated to escalate to 643 million by the year 2030 and further to 783 million by 2045. Diabetes, characterized as a persistent metabolic ailment, necessitates unceasing daily care and management. In the context of Mauritius, as per the most recent report by the International Diabetes Federation, the prevalence of diabetes, specifically Type 2 Diabetes (T2D), stood at 22.6% of the population in 2021, with projections indicating a surge to 26.6% by the year 2045. Amidst this alarming trend, a concurrent advancement has been observed in the realm of technology, with artificial intelligence techniques showcasing promising capabilities in the spheres of medicine and healthcare. This doctoral dissertation embarks on the exploration of the intersection between artificial intelligence and diabetes education, prevention, and management.We initially focused on exploring the potential of artificial intelligence (AI), more specifically, deep learning, to address a critical complication linked to diabetes – Diabetic Foot Ulcer (DFU). The emergence of DFU poses the grave risk of lower limb amputations, consequently leading to severe socio-economic repercussions. In response, we put forth an innovative solution named DFU-HELPER. This tool serves as a preliminary measure for validating the treatment protocols administered by healthcare professionals to individual patients afflicted by DFU. The initial assessment of the proposed tool has exhibited promising performance characteristics, although further refinement and rigorous testing are imperative. Collaborative efforts with public health experts will be pivotal in evaluating the practical efficacy of the tool in real-world scenarios. This approach seeks to bridge the gap between AI technologies and clinical interventions, with the ultimate goal of improving the management of patients with DFU.Our research also addressed the critical aspects of privacy and confidentiality inherent in handling health-related data. Acknowledging the extreme importance of safeguarding sensitive information, we delved into the realm of Peer-to-Peer Federated Learning. This investigation specifically found application in our proposal for the DFU-Helper tool discussed earlier. By exploring this advanced approach, we aimed to ensure that the implementation of our technology aligns with privacy standards, thereby fostering a trustworthy and secure environment for healthcare data management.Finally, our research extended to the development of an intelligent conversational agent designed to offer round-the-clock support for individuals seeking information about diabetes. In pursuit of this goal, the creation of an appropriate dataset was paramount. In this context, we leveraged Natural Language Processing techniques to curate data from online media sources focusing on diabetes-related content
4

Lajoie, Isabelle. "Apprentissage de représentations sur-complètes par entraînement d’auto-encodeurs." Thèse, 2009. http://hdl.handle.net/1866/3768.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Progress in the machine learning domain allows computational system to address more and more complex tasks associated with vision, audio signal or natural language processing. Among the existing models, we find the Artificial Neural Network (ANN), whose popularity increased suddenly with the recent breakthrough of Hinton et al. [22], that consists in using Restricted Boltzmann Machines (RBM) for performing an unsupervised, layer by layer, pre-training initialization, of a Deep Belief Network (DBN), which enables the subsequent successful supervised training of such architecture. Since this discovery, researchers studied the efficiency of other similar pre-training strategies such as the stacking of traditional auto-encoder (SAE) [5, 38] and the stacking of denoising auto-encoder (SDAE) [44]. This is the context in which the present study started. After a brief introduction of the basic machine learning principles and of the pre-training methods used until now with RBM, AE and DAE modules, we performed a series of experiments to deepen our understanding of pre-training with SDAE, explored its different proprieties and explored variations on the DAE algorithm as alternative strategies to initialize deep networks. We evaluated the sensitivity to the noise level, and influence of number of layers and number of hidden units on the generalization error obtained with SDAE. We experimented with other noise types and saw improved performance on the supervised task with the use of pepper and salt noise (PS) or gaussian noise (GS), noise types that are more justified then the one used until now which is masking noise (MN). Moreover, modifying the algorithm by imposing an emphasis on the corrupted components reconstruction during the unsupervised training of each different DAE showed encouraging performance improvements. Our work also allowed to reveal that DAE was capable of learning, on naturals images, filters similar to those found in V1 cells of the visual cortex, that are in essence edges detectors. In addition, we were able to verify that the learned representations of SDAE, are very good characteristics to be fed to a linear or gaussian support vector machine (SVM), considerably enhancing its generalization performance. Also, we observed that, alike DBN, and unlike SAE, the SDAE had the potential to be used as a good generative model. As well, we opened the door to novel pre-training strategies and discovered the potential of one of them : the stacking of renoising auto-encoders (SRAE).

До бібліографії