Rozprawy doktorskie na temat „Intelligence artificielle – Applications financières”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Intelligence artificielle – Applications financières.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Intelligence artificielle – Applications financières”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Bertrand, Astrid. "Misplaced trust in AI : the explanation paradox and the human-centric path. A characterisation of the cognitive challenges to appropriately trust algorithmic decisions and applications in the financial sector". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAT012.

Pełny tekst źródła
Streszczenie:
L'IA devenant de plus en plus présente dans nos vies, nous sommes soucieux de comprendrele fonctionnement de ces structures opaques. Pour répondre à cette demande, le domaine de la recherche en explicabilité (XAI) s'est considérablement développé au cours des dernières années. Cependant, peu de travaux ont étudié le besoin en explicabilité des régulateurs ou des consommateurs à la lumière d'exigences légales en matière d'explications. Cette thèse s'attache à comprendre le rôle des explications pour permettre la conformité réglementaire des systèmes améliorés par l'IA dans des applications financières. La première partie passe en revue le défi de prendre en compte les biais cognitifs de l'homme dans les explications des systèmes d'IA. L'analyse fournit plusieurs pistes pour mieux aligner les solutions d'explicabilité sur les processus cognitifs des individus, notamment en concevant des explications plus interactives. Elle présente ensuite une taxonomie des différentes façons d'interagir avec les solutions d'explicabilité. La deuxième partie se concentre sur des contextes financiers précis. Une étude porte sur les systèmes de recommandation et de souscription en ligne de contrats d'assurance-vie. L'étude souligne que les explications présentées dans ce contexte n'améliorent pas de manière significative la compréhension de la recommandation par les utilisateurs non experts. Elles ne suscitent pas davantage la confiance des utilisateurs que si aucune explication n'était fournie. Une autre étude analyse les besoins des régulateurs en matière d'explication dans le cadre de la lutte contre le blanchiment d'argent et le financement du terrorisme. Elle constate que les autorités de contrôle ont besoin d'explications pour établir le caractère répréhensible des cas de défaillance échantillonnés, ou pour vérifier et contester la bonne compréhension de l'IA par les banques
As AI is becoming more widespread in our everyday lives, concerns have been raised about comprehending how these opaque structures operate. In response, the research field of explainability (XAI) has developed considerably in recent years. However, little work has studied regulators' need for explainability or considered effects of explanations on users in light of legal requirements for explanations. This thesis focuses on understanding the role of AI explanations to enable regulatory compliance of AI-enhanced systems in financial applications. The first part reviews the challenge of taking into account human cognitive biases in the explanations of AI systems. The analysis provides several directions to better align explainability solutions with people's cognitive processes, including designing more interactive explanations. It then presents a taxonomy of the different ways to interact with explainability solutions. The second part focuses on specific financial contexts. One study takes place in the domain of online recommender systems for life insurance contracts. The study highlights that feature based explanations do not significantly improve non expert users' understanding of the recommendation, nor lead to more appropriate reliance compared to having no explanation at all. Another study analyzes the needs of regulators for explainability in anti-money laundering and financing of terrorism. It finds that supervisors need explanations to establish the reprehensibility of sampled failure cases, or to verify and challenge banks' correct understanding of the AI
Style APA, Harvard, Vancouver, ISO itp.
2

Séguillon, Michel. "Simulation et intelligence artificielle dans le cadre des stratégies financières complexes". Aix-Marseille 3, 1992. http://www.theses.fr/1992AIX32014.

Pełny tekst źródła
Streszczenie:
Dans cette thèse le problème de définition des lois de stratégies financières complexes est étudié. Premièrement une vue d'ensemble des différentes opérations élémentaires classiques est donnée. Des théorèmes mathématiques sont proposes qui permettent de définir les probabilités résultantes. L’aspect numérique des problèmes est considéré et une méthode numérique efficace est proposée et un certain nombre d'exemples intéressants sont donnes qui concernent l'essentiel des différents aspects du problème. Des développements pour des recherches futures sont donnes en perspective de travaux ultérieurs
In this thesis the problem of defining the probabilities laws of complex financial strategies is studied. First an overview of the different classical financial elementary operations is given. Mathematical theorems are proposed which permit to define the resulting probabilities. Then the numerical aspect of the problem is considered and an efficial numerical method is proposed; a number of interesting examples are given which concerned the main different aspects of the problem. Extensions for futures researches are given at the end of the work
Style APA, Harvard, Vancouver, ISO itp.
3

Cathelain, Guillaume. "Ballistocardiographie et applications". Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLP029.

Pełny tekst źródła
Streszczenie:
À l’échelle mondiale, les systèmes de santé ont des coûts croissants et le nombre d’hospitalisations augmente. La télémédecine permet de ramener l’hôpital à la maison et offre aux structures de santé de nouvelles possibilités d’améliorer le parcours de soins des patients. La surveillance physiologique est une condition préalable à l’efficacité des systèmes de télémédecine et est assurée par des dispositifs médicaux connectés qui ne sont pas entièrement automatisés. Les patients doivent les utiliser activement au quotidien : ces inconvénients entraînent soit un désengagement du patient, soit du personnel soignant supplémentaire. Les moniteurs passifs et sans contact des signes vitaux, tels que les ballistocardiographes qui mesurent les activités motrices, respiratoires et cardiaques, peuvent résoudre l’inefficacité de la télémédecine. En outre, ils sont plus confortables et plus sûrs pour les patients que les moniteurs traditionnels, ce qui est crucial pour le développement neurologique néonatal ou dans les cas de dégénérescence mentale, bien qu’ils soient actuellement moins précis. Comment améliorer la précision de la surveillance physiologique en ballistocardiographie pour accroître l’efficacité de la télémédecine ? Dans cette thèse, le matériel est fourni par une instrumentation propriétaire basée sur un accéléromètre, un logiciel dédié, un simulateur de battements cardiaques, et des campagnes de mesure pour les bases de données de ballistocardiogrammes bruts. De nouvelles méthodes d’amplification analogique et de filtrage numérique sont étudiées pour améliorer la précision de la ballistocardiographie. La force ballistocardiographique, provenant de la déformation de la crosse aortique lors de la systole ventriculaire et mesurée sur le côté du lit, est en effet modulée par les activités respiratoires et motrices, et est polluée par les artefacts mécaniques de l’environnement. En outre, la ballistocardiographie n’est pas normalisée et les ballistocardiogrammes présentent des variabilités inter et intra-individuelles élevées, en fonction de la literie, de la position au lit, de la morphologie et de la physiologie du patient. L’amplification analogique est étudiée d’un point de vue mécanique et électronique. Premièrement, en ce qui concerne l’amplification mécanique, un nouveau guide d’ondes, prenant la forme d’un ruban de coton qui encercle le matelas, a été inventé pour concentrer l’énergie de la force ballistocardiographique dans une direction, du thorax jusqu’au capteur. Deuxièmement, en ce qui concerne l’amplification électronique, un circuit de conditionnement hybride a été conçu pour optimiser le compromis entre le gain de l’amplificateur électronique et la durée de saturation après un mouvement. Les méthodes de filtrage numérique visent à séparer les sources de signaux, à éliminer les artefacts puis à détecter les signes vitaux. Trois algorithmes originaux ont été conçus pour reconnaître efficacement les battements de cœur dans les ballistocardiogrammes. Le premier algorithme est la comparaison par déformation temporelle dynamique, où un modèle battement cardiaque est utilisé pour reconnaître les battements cardiaques en utilisant une distance non-linéaire. Le second algorithme modélise les ballistocardiogrammes avec des modèles de Markov cachés périodiques. Le troisième algorithme, le réseau neuronal U-Net, est supervisé et segmente les battements cardiaques en ballistocardiogrammes. Finalement, les ballistocardiogrammes sont amplifiés mécaniquement et électroniquement de 12 dB et 21 dB respectivement, sans saturation après mouvement ; et les algorithmes de filtrage numérique atteignent une précision de 97 % et une sensibilité de 96 % pour la détection des battements cardiaques. Prochainement, le ballistocardiographe conçu sera évalué cliniquement dans une unité de soins intensifs pédiatriques et en télémédecine par rapport à d’autres ballistocardiographes et aux méthodes de référence
Globally, healthcare systems have increasing costs and the number of hospitalizations grows. Telehealth brings hospital at home and provides health structures with new opportunities to improve the patient care pathway. Physiological monitoring is a prerequisite in efficient telehealth systems and is performed by connected medical devices that are not fully automated. Patients need to use them actively on a day-to-day basis: these drawbacks lead either to patient disengagement or to additional caregiver support. Passive contactless vital signs’ monitors, such as ballistocardiograms sleep trackers that measure motor, respiratory and cardiac activities, can solve the telehealth inefficiency. Moreover, they are more comfortable and safer for patients than traditional monitors, which is crucial for neonatal neurological development or in case of mental degeneration, though they are currently less accurate. How to improve physiological monitoring accuracy in ballistocardiography to increase telehealth efficiency? In this thesis, materials are provided by a self-designed accelerometer-based instrumentation, a dedicated software, a heartbeat simulator, and measurement campaigns for raw ballistocardiograms’ databases. Novel analog amplification and digital filtering methods are investigated to improve ballistocardiography accuracy. The ballistocardiographic force, coming from the aortic arch deformation during the ventricular systole and measured on the bedside, is indeed modulated by respiratory and motor activities, and is polluted by environment mechanical artifacts. Furthermore, the ballistocardiography is unstandardized and ballistocardiograms have high inter- and intra-variabilities, depending on the beddings, the position in bed, the morphology and the physiology of the patient. Analog amplification is studied from two perspectives: the mechanical amplification of ballistocardiograms from the patient to the sensor, and the electronic amplification of the analog acceleration signal. First, concerning the mechanical amplification, a novel waveguide bedding, a cotton tape encircling the mattress, was invented to concentrate the strain energy of the ballistocardiographic force in one direction, from the thorax straight to the attached sensor. Second, concerning the electronic amplification, a mixed-signal front-end was conceived to optimize the tradeoff between the electronic amplifier gain and the saturation time after a movement. The conditioning circuit measures the unamplified sensor output, passes it through a digital filter with a sharp transition frequency bandwidth and a proper initialization, and analogically amplifies the difference between this unwanted synthesized signal and the unamplified sensor output using a low noise instrumentation amplifier. Digital filtering methods aims at separating signal sources, removing artifacts then detecting vital signs. Three original algorithms have been designed to efficiently recognize heartbeats in ballistocardiograms. The first algorithm is dynamic time warping template matching, where a heartbeat template is used to match heartbeats using a warping distance. The second algorithm models ballistocardiograms with periodic hidden Markov models. The third algorithm, the U-Net neural network, is supervised and segments heartbeats in ballistocardiograms. Finally, ballistocardiograms are mechanically and electronically amplified by 12 dB and 21 dB respectively, without saturation time; and digital filtering algorithms reach a 97% precision and 96% recall for heartbeats detection. Shortly, the designed ballistocardiograph will be clinically evaluated in a pediatric intensive care unit and in telemedicine against other ballistocardiographs and the gold standard methods
Style APA, Harvard, Vancouver, ISO itp.
4

Do, Si Hoàng. "Informatique répartie et applications à la domotique". Paris 8, 2004. http://www.theses.fr/2004PA083710.

Pełny tekst źródła
Streszczenie:
La domotique encore appelée maison communicante englobe l’ensemble des services et techniques visant à intégrer dans les habitations individuelles ou immeubles collectifs des fonctions propres à l’habitat pouvant, pour certaines collaborer entre elles et utiliser des réseaux de communications. Ces domaines d’application pour la domotique sont, par exemple, la gestion d’énergie, la gestion de l’eau, l’éclairage, la sécurité, mais on y trouve également avec l’avènement des autoroutes de l’information, le divertissement, l’enseignement à distance, les visioconférences et la téléphonie internet. L’objectif de la thèse est de concevoir, d’implémenter, de tester et de valider un système de services domotiques en appliquant la technologie agents mobiles, tout en le combinant aux solutions apportées par l’environnement standard de services domotiques OSGi
Home networking includes the whole services and techniques aiming at integrating, in the individual dwellings or apartment building, of the specific functions to the habitat which can, for some cases, collaborate between them and use communication networks. The applying fields are, for example, energy management, lighting management, security, etc. But it also covers, with the advent of information highways, the entertainment, e-learning, the videoconference and telephony on Internet network. The thesis objective is to design, implement, test and validate a home services system by applying mobile agent technology combining with the brought solutions by the standard home services framework OSGi
Style APA, Harvard, Vancouver, ISO itp.
5

Querrec, Ronan. "Les Systèmes Multi-Agents pour les Environnements Virtuels de Formation : Application à la sécurité civile". Brest, 2003. http://www.theses.fr/2002BRES2037.

Pełny tekst źródła
Streszczenie:
Nos travaux concernent les environnements virtuels de formation pour l'apprentissage en situation opérationnelle. Nus soutenons la thèse que ces environnements sont des sytsèmes multi-agents hétérogènes et ouverts. Nous proposons le modèle MASCARET pour structurer les interactions entre les agents et pour fournir aux agents les capacités réactives, cognitives et sociales leur permettant de simuler l'environnement physique et social composant l'univers virtuel de formation. L'environnement physique simule de manière réaliste les phénomènes que les apprenants et les formateurs doivent prendre en compte. L'environnement social est simulé par des agents réalisant un travail collaboratif et adaptatif; ils effectuent, en équipe, des procédures qu'ils doivent adapter à l'environnement. Les utilisateurs participent à l'environnement de formation via leur avatar. Pour valider notre modèle, nous avons développé l'application SécuRéVi destinée à la formation des officiers sapeurs-pompiers
This study concerns virtual environments for training in operationnal conditions. The principal developed idea is that these environments are heterogeneous and open multiagent systems. The MASCARET model is proposed to organize the interactions between the agents and to give them reactives, cognitives ans socials abilities to simulate the physical and social environment. The physical environment represent, in a realistic way, the phenomena that the learners and the teachers have to take into account. The social environment is simulated by agents executing collaborative and adaptative tasks. They realize, in team, the procedures that they have to adapt to the environment. The users participate to the training environment throught their avatar. To validate our model, the SecuRevi application for fire-fighters training is developed
Style APA, Harvard, Vancouver, ISO itp.
6

Duprat, Jean. "LAIOS : un réseau multiprocesseur orienté vers des applications d'intelligence artificielle". Phd thesis, Grenoble INPG, 1988. http://tel.archives-ouvertes.fr/tel-00329699.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

Meyer, Cédric. "Théorie de vision dynamique et applications à la robotique mobile". Paris 6, 2013. http://www.theses.fr/2013PA066137.

Pełny tekst źródła
Streszczenie:
La reconnaissance d'objet est un grand défi à résoudre pour améliorer l'autonomie des robots. Bien que de nombreuses techniques aient été développées dans le domaine de la vision basée image, aucune d'entre elle ne tient la comparaison face à la perception humaine en termes de performance, de poids et de consommation. Le domaine de l'ingénierie neuromorphique où l'on cherche à reproduire sur puce le comportement d'organes humains, a récemment permis l'émergence de caméras asynchrones bio-inspirées. Les données générées par ces capteurs sont éparses, et asynchrones, ce qui permet le développement d'une vision artificielle adaptée à la scène visuelle en terme de coûts de calculs. Dans cette thèse est étudié l'impact de la prise en compte de temps relatifs précis, rendue possible par l'acquisition évènementielle sur la reconnaissance d'objet. Dans ce travail est d'abord introduit un système de reconnaissance d'objet basé sur des images implémenté sur un robot mobile visant à réaliser une cartographie sémantique. Ensuite sont quantitativement décrits les avantages d'une acquisition évènementielle gr\^ace à l'utilisation de l'information mutuelle. Des primitives visuelles de bas niveau correspondant à la description spatio-temporelle d'une scène dynamique sont ensuite décrites puis une implémentation en temps réel d'un algorithme de suivi de primitive est proposée pour des noyaux de Gabor orientés et de manière générale pour n'importe quel noyau. Finalement, une architecture complètement asynchrone de reconnaissance qui tire pleinement partie de l'information temporelle est présentée, cette méthode étant une extension du modèle HMAX qui s'inspire du cortex visuel des primates
The recognition of objects is a key challenge in increasing the autonomy of robots and their performances. Although many techniques of object recognition have been developed in the field of frame-based vision, none of them hold the comparison against human perception in terms of performance, weight and power consumption. Neuromorphic engineering models biological components into artificial chips. It recently provides an event-based camera inspired from a biological retina. The sparse, asynchronous, scene-driven visual data generated by these sensors allow the development of computationally efficient bio-inspired artificial vision. I focus in this thesis on studying how event-based acquisition and its accurate temporal precision can change object recognition by adding precise timing in the process. This thesis first introduces a frame-based object detection and recognition algorithm used for semantic mapping. It then studies quantitatively what are the advantages of using event-based acquisition using mutual information. It then inquires into low level event-based spatiotemporal features in the context of dynamic scene to introduce an implementation of a real-time multi-kernel feature tracking using Gabor filters or any kernel. Finally, a fully asynchronous time-oriented architecture of object recognition mimicking V1 visual cortex is presented. It extends the state of the art HMAX model in a pure temporal implementation of object recognition
Style APA, Harvard, Vancouver, ISO itp.
8

Duprat, Jean Courtois Bernard Della Dora Jean Jorrand Philippe. "LAIOS un réseau multiprocesseur orienté vers des applications d'intelligence artificielle /". S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00329699.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Liu, Ziming. "Méthodes hybrides d'intelligence artificielle pour les applications de navigation autonome". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4004.

Pełny tekst źródła
Streszczenie:
La navigation autonome est une tâche difficile qui a un large éventail d'applications dans le monde réel. Le système de navigation autonome peut être utilisé sur différentes plateformes, telles que les voitures, les drones et les robots. Ces systèmes autonomes réduiront considérablement le travail humain et amélioreront l'efficacité du système de transport actuel. Certains systèmes autonomes ont été utilisés dans des scénarios réels, comme les robots de livraison et les robots de service. Dans le monde réel, les systèmes autonomes doivent construire des représentations de l'environnement et se localiser pour interagir avec l'environnement. Différents capteurs peuvent être utilisés pour atteindre ces objectifs. Parmi eux, le capteur caméra est le meilleur choix entre le coût et la fiabilité. Actuellement, la navigation autonome visuelle a connu des améliorations significatives grâce à l'apprentissage profond. Les méthodes d'apprentissage profond présentent des avantages pour la perception de l'environnement. Cependant, elles ne sont pas robustes pour la localisation visuelle où les méthodes basées sur des modèles ont des résultats plus fiables. Afin d'utiliser les avantages des méthodes basées sur les données et sur les modèles, une méthode hybride d'odométrie visuelle est étudiée dans cette thèse. Tout d'abord, des méthodes d'optimisation efficaces sont essentielles pour les méthodes basées sur les modèles et les méthodes basées sur les données qui partagent la même théorie d'optimisation. Actuellement, la plupart des réseaux d'apprentissage profond sont encore formés avec des optimiseurs de premier ordre inefficaces. Par conséquent, cette thèse propose d'étendre les méthodes d'optimisation efficaces basées sur les modèles pour former les réseaux d'apprentissage profond. La méthode Gaussienne-Newton et les méthodes efficaces de second ordre sont appliquées pour l'optimisation de l'apprentissage profond. Deuxièmement, la méthode d'odométrie visuelle basée sur un modèle repose sur des informations préalables sur la profondeur, l'estimation robuste et précise de la profondeur est essentielle pour la performance du module d'odométrie visuelle. Sur la base de la théorie traditionnelle de la vision par ordinateur, la vision stéréo peut calculer la profondeur avec l'échelle correcte, ce qui est plus fiable que les solutions monoculaires. Toutefois, les réseaux stéréoscopiques 2D-3D actuels à deux niveaux présentent des problèmes d'annotations de profondeur et d'écart entre les domaines de disparité. En conséquence, un réseau stéréo supervisé par la pose et un réseau stéréo adaptatif sont étudiés. Toutefois, les performances des réseaux en deux étapes sont limitées par la qualité des caractéristiques 2D qui construisent le volume de coût de l'appariement stéréo. Au lieu de cela, un nouveau réseau stéréo 3D en une étape est proposé pour apprendre les caractéristiques et l'appariement stéréo implicitement en une seule étape. Troisièmement, pour assurer la robustesse du système, le réseau stéréo et le module d'odométrie visuelle directe dense sont combinés pour créer une odométrie visuelle directe dense hybride stéréo (HDVO). L'odométrie visuelle directe dense est plus fiable que la méthode basée sur les caractéristiques, car elle est optimisée à partir des informations globales de l'image. L'HDVO est optimisée avec la perte de minimisation photométrique. Cependant, cette perte souffre de bruits provenant de la zone d'occlusion, de la zone de texture homogène et des objets dynamiques. Cette thèse étudie la suppression des valeurs de perte bruitées à l'aide de masques binaires. De plus, pour réduire les effets des objets dynamiques, les résultats de la segmentation sémantique sont utilisés pour améliorer ces masques. Enfin, pour être généralisée à un nouveau domaine de données, une méthode d'entraînement test-temps pour l'odométrie visuelle est explorée
Autonomous driving is a challenging task that has a wide range of applications in the real world. The autonomous driving system can be used in different platforms, such as cars, drones, and robots. These autonomous systems will reduce a lot of human labor and improve the efficiency of the current transportation system. Some autonomous systems have been used in real scenarios, such as delivery robots, and service robots. In the real world, autonomous systems need to build environment representations and localize themselves to interact with the environment. There are different sensors can be used for these objectives. Among them, the camera sensor is the best choice between cost and reliability. Currently, visual autonomous driving has achieved significant improvement with deep learning. Deep learning methods have advantages for environment perception. However, they are not robust for visual localization where model-based methods have more reliable results. To utilize the advantages of both data-based and model-based methods, a hybrid visual odometry method is explored in this thesis. Firstly, efficient optimization methods are critical for both model-based and data-based methods which share the same optimization theory. Currently, most deep learning networks are still trained with inefficient first-order optimizers. Therefore, this thesis proposes to extend efficient model-based optimization methods to train deep learning networks. The Gaussian-Newton and the efficient second-order methods are applied for deep learning optimization. Secondly, the model-based visual odometry method is based on the prior depth information, the robust and accurate depth estimation is critical for the performance of visual odometry module. Based on traditional computer vision theory, stereo vision can compute the depth with the correct scale, which is more reliable than monocular solutions. However, the current two-stage 2D-3D stereo networks have the problems of depth annotations and disparity domain gap. Correspondingly, a pose-supervised stereo network and an adaptive stereo network are investigated. However, the performance of two-stage networks is limited by the quality of 2D features that build stereo-matching cost volume. Instead, a new one-stage 3D stereo network is proposed to learn features and stereo-matching implicitly in a single stage. Thirdly, to keep robust, the stereo network and the dense direct visual odometry module are combined to build a stereo hybrid dense direct visual odometry (HDVO). Dense direct visual odometry is more reliable than the feature-based method because it is optimized with global image information. The HDVO is optimized with the photometric minimization loss. However, this loss suffers noises from the occlusion area, homogeneous texture area, and dynamic objects. This thesis explores removing noisy loss values with binary masks. Moreover, to reduce the effects of dynamic objects, semantic segmentation results are used to improve these masks. Finally, to be generalized for a new data domain, a test-time training method for visual odometry is explored. These proposed methods have been evaluated on public autonomous driving benchmarks, and show state-of-the-art performances
Style APA, Harvard, Vancouver, ISO itp.
10

Page, Michel. "Systèmes experts à base de connaissances profondes : application à un poste de travail intelligent pour le comptable". Phd thesis, Grenoble INPG, 1990. http://tel.archives-ouvertes.fr/tel-00338750.

Pełny tekst źródła
Streszczenie:
La plupart des systèmes experts actuels reposent sur les connaissances de surface (le savoir-faire) d'un expert du domaine d'application. Plus récemment, une autre approche s'est développée. Elle vise a exploiter les connaissances profondes (théoriques) acquises dans le domaine d'application. La thèse étudie cette dernière approche dans le cadre du projet pic (poste de travail intelligent pour le comptable). Les aspects méthodologiques sont développés dans la première partie. Une nouvelle classe d'applications des systèmes experts est proposée: l'interprétation comparative. Elle a pour but de mettre en évidence et expliquer la cause des différences entre deux états d'un système. Une methode générale permettant d'aborder ce probleme est présentée, ainsi que des techniques la mettant en œuvre sur des modèles qualitatifs et numériques. Les contributions au projet pic sont développées dans la seconde partie. Un générateur de systèmes experts d'interprétation comparative est d'abord présenté. Il a servi a la réalisation de deux systèmes: le premier pour l'analyse de la performance d'une entreprise par la methode des surplus, le second pour le diagnostic financier d'entreprise. Un système expert pour la déduction des écritures comptables utilisant également l'approche profonde est ensuite présenté. A la lumière de ces deux dernières applications déjà abordées par les systèmes experts utilisant des connaissances de surface, les deux approches de conception de systèmes experts sont comparées
Style APA, Harvard, Vancouver, ISO itp.
11

Labbi, Abderrahim. "Sur l'approximation et les systèmes dynamiques dans les réseaux neuronaux : applications en intelligence artificielle". Grenoble INPG, 1993. http://www.theses.fr/1993INPG0199.

Pełny tekst źródła
Streszczenie:
Le travail présenté dans cette thèse concerne la modélisation connexionniste de processus de décision par des méthodes mathématiques de la théorie de l'approximation et de la théorie des systèmes dynamiques. Pour cela, deux modèles mathématiques ont été introduits respectivement pour la modélisation du processus de mémoire associative et pour la modélisation de processus de prise de décision dans un environnement évolutif. Les deux modèles ont été rigoureusement analysés d'un point de vue théorique, et ont été validés respectivement sur deux applications: la reconnaissance de caractères et l'aide à la manoeuvre dans un environnement évolutif
Style APA, Harvard, Vancouver, ISO itp.
12

Crémilleux, Bruno Robert Claudine. "Induction automatique aspects théoriques, le système ARBRE, applications en médecine /". S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00339492.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
13

Abernot, Madeleine. "Digital oscillatory neural network implementation on FPGA for edge artificial intelligence applications and learning". Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS074.

Pełny tekst źródła
Streszczenie:
Au cours des dernières décennies, la multiplication des objets embarqués dans de nombreux domaines a considérablement augmenté la quantité de données à traiter et la complexité des tâches à résoudre, motivant l'émergence d'algorithmes probabilistes d'apprentissage tels que l'intelligence artificielle (IA) et les réseaux de neurones artificiels (ANN). Cependant, les systèmes matériels pour le calcul embarqué basés sur l'architecture von Neuman ne sont pas efficace pour traiter cette quantité de données. C'est pourquoi des paradigmes neuromorphiques dotés d'une mémoire distribuée sont étudiés, s'inspirant de la structure et de la représentation de l'information des réseaux de neurones biologiques. Dernièrement, la plupart de la recherche autour des paradigmes neuromorphiques ont exploré les réseaux de neurones à impulsion ou spiking neural networks (SNNs), qui s'inspirent des impulsions utilisées pour transmettre l'information dans les réseaux biologiques. Les SNNs encodent l'information temporellement à l'aide d'impulsions pour assurer un calcul de données continues naturel et à faible énergie. Récemment, les réseaux de neurones oscillatoires (ONN) sont apparu comme un paradigme neuromorphique alternatif pour du calcul temporel, rapide et efficace, à basse consommation. Les ONNs sont des réseaux d'oscillateurs couplés qui émulent les propriétés de calcul collectif des zones du cerveau par le biais d'oscillations. Les récentes implémentations d'ONN combinées à l'émergence de composants compacts à faible consommation d'énergie encouragent le développement des ONNs pour le calcul embarqué. L’état de l’art de l'ONN le configure comme un réseau de Hopfield oscillatoire (OHN) avec une architecture d’oscillateurs entièrement couplés pour effectuer de la reconnaissance de formes avec une précision limitée. Cependant, le grand nombre de synapses de l'architecture limite l’implémentation de larges ONNs et le champs des applications de l'ONN. Cette thèse se concentre pour étudier si et comment l'ONN peut résoudre des applications significatives d'IA embarquée à l'aide d'une preuve de concept de l'ONN implémenté en digital sur FPGA. Tout d'abord, ce travail explore de nouveaux algorithmes d'apprentissages pour OHN, non supervisé et supervisé, pour améliorer la précision et pour intégrer de l'apprentissage continu sur puce. Ensuite, cette thèse étudie de nouvelles architectures pour l'ONN en s'inspirant des architectures en couches des ANNs pour créer dans un premier temps des couches d'OHN en cascade puis des réseaux ONN multi-couche. Les nouveaux algorithmes d'apprentissage et les nouvelles architectures sont démontrées avec l'ONN digital pour des applications d'IA embarquée, telles que pour la robotique avec de l'évitement d'obstacles et pour le traitement d'images avec de la reconnaissance de formes, de la détection de contour, de l'extraction d'amers, ou de la classification
In the last decades, the multiplication of edge devices in many industry domains drastically increased the amount of data to treat and the complexity of tasks to solve, motivating the emergence of probabilistic machine learning algorithms with artificial intelligence (AI) and artificial neural networks (ANNs). However, classical edge hardware systems based on von Neuman architecture cannot efficiently handle this large amount of data. Thus, novel neuromorphic computing paradigms with distributed memory are explored, mimicking the structure and data representation of biological neural networks. Lately, most of the neuromorphic paradigm research has focused on Spiking neural networks (SNNs), taking inspiration from signal transmission through spikes in biological networks. In SNNs, information is transmitted through spikes using the time domain to provide a natural and low-energy continuous data computation. Recently, oscillatory neural networks (ONNs) appeared as an alternative neuromorphic paradigm for low-power, fast, and efficient time-domain computation. ONNs are networks of coupled oscillators emulating the collective computational properties of brain areas through oscillations. The recent ONN implementations combined with the emergence of low-power compact devices for ONN encourage novel attention over ONN for edge computing. State-of-the-art ONN is configured as an oscillatory Hopfield network (OHN) with fully coupled recurrent connections to perform pattern recognition with limited accuracy. However, the large number of OHN synapses limits the scalability of ONN implementation and the ONN application scope. The focus of this thesis is to study if and how ONN can solve meaningful AI edge applications using a proof-of-concept of the ONN paradigm with a digital implementation on FPGA. First, it explores novel learning algorithms for OHN, unsupervised and supervised, to improve accuracy performances and to provide continual on-chip learning. Then, it studies novel ONN architectures, taking inspiration from state-of-the-art layered ANN models, to create cascaded OHNs and multi-layer ONNs. Novel learning algorithms and architectures are demonstrated with the digital design performing edge AI applications, from image processing with pattern recognition, image edge detection, feature extraction, or image classification, to robotics applications with obstacle avoidance
Style APA, Harvard, Vancouver, ISO itp.
14

Mouton, Rémy. "Outils intelligents pour les musicologues". Le Mans, 1992. http://www.theses.fr/1995LEMA1014.

Pełny tekst źródła
Streszczenie:
Divers outils automatiques ont ete realises dans le but de permettre une approche informatisee du phenomene musical (principalement tonal): lecture de partitions, orthographieur de midifiles, analyse melodique et orchestrale, chiffrage harmonique, composition automatique parametrable. Il s'en degage une technique de reconnaissance de formes combinant methodes numeriques et logiques et une proposition de problematique centrale pour l'informatique musicologique
Style APA, Harvard, Vancouver, ISO itp.
15

Jiao, Yang. "Applications of artificial intelligence in e-commerce and finance". Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0002/document.

Pełny tekst źródła
Streszczenie:
L'Intelligence Artificielle est présente dans tous les aspects de notre vie à l'ère du Big Data. Elle a entraîné des changements révolutionnaires dans divers secteurs, dont le commerce électronique et la finance. Dans cette thèse, nous présentons quatre applications de l'IA qui améliorent les biens et services existants, permettent l'automatisation et augmentent considérablement l'efficacité de nombreuses tâches dans les deux domaines. Tout d'abord, nous améliorons le service de recherche de produits offert par la plupart des sites de commerce électronique en utilisant un nouveau système de pondération des termes pour mieux évaluer l'importance des termes dans une requête de recherche. Ensuite, nous construisons un modèle prédictif sur les ventes quotidiennes en utilisant une approche de prévision des séries temporelles et tirons parti des résultats prévus pour classer les résultats de recherche de produits afin de maximiser les revenus d'une entreprise. Ensuite, nous proposons la difficulté de la classification des produits en ligne et analysons les solutions gagnantes, consistant en des algorithmes de classification à la pointe de la technologie, sur notre ensemble de données réelles. Enfin, nous combinons les compétences acquises précédemment à partir de la prédiction et de la classification des ventes basées sur les séries temporelles pour prédire l'une des séries temporelles les plus difficiles mais aussi les plus attrayantes : le stock. Nous effectuons une étude approfondie sur chaque titre de l'indice S&P 500 en utilisant quatre algorithmes de classification à la pointe de la technologie et nous publions des résultats très prometteurs
Artificial Intelligence has penetrated into every aspect of our lives in this era of Big Data. It has brought revolutionary changes upon various sectors including e-commerce and finance. In this thesis, we present four applications of AI which improve existing goods and services, enables automation and greatly increase the efficiency of many tasks in both domains. Firstly, we improve the product search service offered by most e-commerce sites by using a novel term weighting scheme to better assess term importance within a search query. Then we build a predictive model on daily sales using a time series forecasting approach and leverage the predicted results to rank product search results in order to maximize the revenue of a company. Next, we present the product categorization challenge we hold online and analyze the winning solutions, consisting of the state-of-the-art classification algorithms, on our real dataset. Finally, we combine skills acquired previously from time series based sales prediction and classification to predict one of the most difficult but also the most attractive time series: stock. We perform an extensive study on every single stocks of S&P 500 index using four state-of-the-art classification algorithms and report very promising results
Style APA, Harvard, Vancouver, ISO itp.
16

Mokhtari, Myriam. "Réseau neuronal aléatoire : applications à l'apprentissage et à la reconnaissance d'images". Paris 5, 1994. http://www.theses.fr/1994PA05S019.

Pełny tekst źródła
Streszczenie:
Le réseau neuronal aléatoire (rna) est un nouveau modèle introduit par Gelenbe en 1989. Il représente l'état d'un réseau markovien dans lequel circulent des signaux positifs et négatifs. Gelenbe a montré que la distribution stationnaire de l'état du réseau constituée par le potentiel à l'entrée de chaque neurone est égale au produit des probabilités marginales de l'état de chaque neurone. L'algorithme d'apprentissage supervisé pour le rna proposé par Gelenbe en 1992 présente l'intérêt de s'appliquer à des réseaux récurrents. L'objectif de cette thèse est d'étudier le rna en tant que mémoire auto-associative. L'apprentissage des exemples consiste à calculer les poids des connexions et aussi des autres paramètres du rna. Il peut être hebbien ou supervisé. Selon chacun d'entre eux, différentes méthodes propres au rna sont proposées par l'auteur pour la détermination des paramètres du réseau. De même, pour la reconnaissance d'exemples bruites, l'auteur introduit plusieurs méthodes de reconnaissance basées sur les caractéristiques du rna. Les simulations réalisées sur des images typées, chiffres digitalisés et exemples aléatoires montrent que le rna avec apprentissage hebbien peut être plus résistant au bruit que les modèles connexionnistes classiques, sous réserve que ses paramètres soient bien choisis. L'apprentissage supervisé appliqué au rna donne des résultats de reconnaissance similaires à ceux des modèles connexionnistes connus. Enfin, la plupart des résultats théoriques et extensions du modèle rna sont regroupés dans cette thèse. Cet ouvrage invite donc le lecteur à exploiter toutes les richesses du rna.
Style APA, Harvard, Vancouver, ISO itp.
17

Clere, Pascal. "Etude de l'architecture du processeur d'une machine pour les applications temps réel en intelligence artificielle : maia". Paris 11, 1989. http://www.theses.fr/1989PA112179.

Pełny tekst źródła
Streszczenie:
MAIA est un projet développé conjointement par les Laboratoires de Marcoussis et le Centre National d'Etudes des Télécommunications à Lannion. MAlA est un poste de travail qui répond essentiellement à deux types d'applications qui sont la station de travail pour le développement de logiciels dédiés au traitement symbolique et le poste de supervision/conduite de processus en temps réel. MAIA est une machine-langage spécialisée pour l'exécution de LISP et de PROLOG grâce à un jeu d'instructions spécialisé pour la manipulation de listes et du matériel spécifique pour la vérification dynamique du type des objets manipulés, pour le ramasse­ miettes et la gestion des piles d'évaluation LISP. Le logiciel comprend un compilateur et un interprète LISP et de PROLOG, un noyau temps réel multi-tâche, un ramasse-miettes basé sur l'algorithme de Moon et un gestionnaire de mémoire virtuelle
MAIA is a joint project between the Centre National d'Etudes des Télécommunications (CNET) at LANNION and the Compagnie Générale d'Electricité at Laboratoires de Marcoussis. MAIA is both a workstation for software development and for executing applications which need powerful syrnbolic computation and real-time supports. As far many specialized workstations, MAlAis a language-machine, both Lisp-machine and Prelog-machine, with microprogrammed support for list manipulation and memory management, hardware for dynarnic data types checking, collecter assist and Lisp stack heads. The software is made of an integrated environment based on Lisp. It includes a Lisp compiler and interpreter as well as a Prolog compiler and interpreter. The kernel system includes real-time multi-processing based on SCEPTRE, garbage-collection based on the MOON's algorithm and virtual memory management
Style APA, Harvard, Vancouver, ISO itp.
18

DE, SIQUEIRA JOSE. "Controle de la demonstration automatique de theoremes, construction de contre-modeles et applications en intelligence artificielle". Paris 11, 1992. http://www.theses.fr/1992PA112425.

Pełny tekst źródła
Streszczenie:
A partir d'une strategie de controle basee sur les ordres de simplification de termes, il est presente un algorithme de recherche automatique de preuve pour le calcul de sequents, dans le cadre de la logique classique sans egalite. Le calcul de sequents a ete choisi parce que la procedure de preuve pour ce formalisme a le grand avantage de refleter dans la structure meme de l'arbre d'inference la semantique donne a cet arbre. L'algorithme de recherche de preuve presente est prouve correct et complet. Grace a la completude de l'algorithme, il est possible de construire des contre-modeles partiels pour la formule a prouver, si elle n'est pas valide, a partir des sequents de l'arbre d'inference arrete par le controle. Les contre-modeles sont construits sous forme d'inequations pour les termes du langage. Avec la technique de l'evaluation partielle guidee par l'entree, on montre comment construire des propositions de corrections a une formule, a partir des contre-modeles construits, lorsque celle-ci n'est pas consequence logique d'une theorie supposee correcte. Cette technique etend a la logique du premier ordre la technique d'apprentissage a partir d'explications des echecs, proposee dans le cadre des clauses de horn. L'algorithme de recherche automatique de preuve presente a des applications en programmation logique, ou il l'approche plus de son ideal, grace a une plus grande declarativite et un plus grand pouvoir d'expression. Il peut automatiser l'oracle dans les algorithmes de detection d'erreurs de programmes prolog. La technique de construction de corrections, dans ce cadre, permet de proposer des candidats a la correction des erreurs detectees. Il sert aussi a une application de l'apprentissage symbolique au paradigme de la generation et test en programmation
Style APA, Harvard, Vancouver, ISO itp.
19

Shminke, Boris. "Applications de l'IA à l'étude des structures algébriques finies et à la démonstration automatique de théorèmes". Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4058.

Pełny tekst źródła
Streszczenie:
Cette thèse contribue à une recherche de modèles finis et à la démonstration automatisée de théorèmes, en se concentrant principalement, mais sans s'y limiter, sur les méthodes d'intelligence artificielle. Dans la première partie, nous résolvons une question de recherche ouverte à partir de l'algèbre abstraite en utilisant une recherche automatisée de modèles finis massivement parallèles, en utilisant l'assistant de preuve Isabelle. À savoir, nous établissons l'indépendance de certaines lois de distributivité abstraites dans les binaires résiduels dans le cas général. En tant que sous-produit de cette découverte, nous apportons un client Python au serveur Isabelle. Le client a déjà trouvé son application dans les travaux d'autres chercheurs et de l'enseignement supérieur. Dans la deuxième partie, nous proposons une architecture de réseau neuronal génératif pour produire des modèles finis de structures algébriques appartenant à une variété donnée d'une manière inspirée des modèles de génération d'images tels que les GAN (réseaux antagonistes génératifs) et les autoencodeurs. Nous contribuons également à un paquet Python pour générer des semi-groupes finis de petite taille comme implémentation de référence de la méthode proposée. Dans la troisième partie, nous concevons une architecture générale de guidage des vérificateurs de saturation avec des algorithmes d'apprentissage par renforcement. Nous contribuons à une collection d'environnements compatibles OpenAI Gym pour diriger Vampire et iProver et démontrons sa viabilité sur des problèmes sélectionnés de la bibliothèque TPTP (Thousand of Problems for Theorem Provers). Nous contribuons également à une version conteneurisée d'un modèle ast2vec existant et montrons son applicabilité à l'incorporation de formules logiques écrites sous la forme clausal-normale. Nous soutenons que l'approche modulaire proposée peut accélérer considérablement l'expérimentation de différentes représentations de formules logiques et de schémas de génération de preuves synthétiques à l'avenir, résolvant ainsi le problème de la rareté des données, limitant notoirement les progrès dans l'application des techniques d'apprentissage automatique pour la démonstration automatisée de théorèmes
This thesis contributes to a finite model search and automated theorem proving, focusing primarily but not limited to artificial intelligence methods. In the first part, we solve an open research question from abstract algebra using an automated massively parallel finite model search, employing the Isabelle proof assistant. Namely, we establish the independence of some abstract distributivity laws in residuated binars in the general case. As a by-product of this finding, we contribute a Python client to the Isabelle server. The client has already found its application in the work of other researchers and higher education. In the second part, we propose a generative neural network architecture for producing finite models of algebraic structures belonging to a given variety in a way inspired by image generation models such as GANs (generative adversarial networks) and autoencoders. We also contribute a Python package for generating finite semigroups of small size as a reference implementation of the proposed method. In the third part, we design a general architecture of guiding saturation provers with reinforcement learning algorithms. We contribute an OpenAI Gym-compatible collection of environments for directing Vampire and iProver and demonstrate its viability on select problems from the Thousands of Problems for Theorem Provers (TPTP) library. We also contribute a containerised version of an existing ast2vec model and show its applicability to embedding logical formulae written in the clausal-normal form. We argue that the proposed modular approach can significantly speed up experimentation with different logic formulae representations and synthetic proof generation schemes in future, thus addressing the data scarcity problem, notoriously limiting the progress in applying the machine learning techniques for automated theorem proving
Style APA, Harvard, Vancouver, ISO itp.
20

Ye, Xiaoyan. "Applications of Artificial Intelligence to Control and Analyze the Performance of Fiber-Optic Transmission Systems". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT048.

Pełny tekst źródła
Streszczenie:
La demande croissante de trafic internet a nécessité une augmentation continue de la capacité des systèmes de communication par fibre optique, fondement des réseaux de communication globaux.Cette thèse se propose des solutions innovantes pour relever les défis posés par l'amplificationà bande ultra-large et l'estimation fine du bruit dans les systèmes de transmission optique. Les systèmesde communication par fibre optique ont connu une évolution significative pour répondre aux exigencescroissantes en matière de capacité. Ils sont passés des amplificateurs optiques et de la détectioncohérente aux formats de modulation et aux algorithmes de traitement numérique du signal avancés.Pour répondre à la demande croissante de trafic dans les réseaux optiques, l'intégration de schémasUWB et la mise en oeuvre d'outil de conception de réseaux à faible marge sont devenues primordiales.Ce travail explore les aspects fondamentaux de l'amplification UWB. La prédiction précise des profils degain Raman et la conception de configuration optimale sont primordiales, mais les méthodes conventionnelless'avèrent très gourmandes en ressources de calcul. Dans ce contexte, l'apprentissage automatiqueapparaît comme un outil puissant, simplifiant la complexité et améliorant la précision dans ces scénarios.En outre, la thèse aborde le défi de la conception de systèmes à faible marge en développant unoutil fiable de qualité de transmission. Les systèmes de transmission par fibre optique sont confrontés àdiverses dégradations telles que l'atténuation de la fibre, le bruit des amplificateurs, le bruit de phasedu laser, l'interférence non linéaire, etc. Alors que les détériorations linéaires peuvent être efficacementcompensées et caractérisées, les méthodes traditionnelles peuvent manquer d'efficacité dans l'estimationde certaines détériorations non linéaires principales, car elles posent des problèmes en termes de précisionet de complexité. Par conséquent, ce travail se penche sur les approches basées sur les données, ycompris les modèles ML, afin de fournir une estimation efficace du bruit non linéaires Kerr et du bruit dephase renforcé électroniquement. En résumé, cette thèse s'appuie sur des méthodes d'apprentissage ouorientées données pour améliorer les performances des systèmes de transmission optique. Ces avancéessont prêtes à façonner l'avenir des systèmes de communication optique, en contribuant à des capacitésplus élevées et à des transmissions plus fiables dans notre environnement numérique qui évolue rapidement
The surging demands for internet traffic have necessitated continuous expansion in opticalfiber communication systems capacity, cornerstone of global communication networks. This thesisdelves into innovative solutions addressing the challenges posed by ultra-wideband (UWB) amplificationand precise noise estimation in optical transmission systems. Optical fiber communication systems haveundergone significant evolution to meet escalating capacity requirements. Progressing from optical amplifiersand coherent detection to advanced modulationformat and digital signal processing (DSP) algorithms. To meet the need for higher traffic demands in opticalnetworks, integrating UWB schemes and implementing low-margin network designs have becomeprimordial. This work explores fundamental aspects of UWB amplification. Accurate prediction of Ramangain profiles and optimal pump configurations design is paramount, yet conventional methods prove computationallyintensive. Here, Machine Learning (ML) emerges as a powerful tool, simplifying complexityand enhancing accuracy in these scenarios. Additionally, the thesis addresses the challenge of designinglow-margin systems by developing a reliable Quality of Transmission (QoT) tool. Optical fiber transmissionsystems contend with diverse impairments such as fiber attenuation, ASE noise, laser phase noise, nonlinearinterference (NLI), etc. While linear impairments can be effectively mitigated and characterized, traditionalmethods may falter in estimating some major nonlinear impairments, posing challenges in accuracyand complexity. Consequently, this work delves into data-driven approaches, including ML frameworks,to provide effective estimation of Kerr nonlinear impairments and electronically enhanced phase noise(EEPN) In summary, this thesis leverages ML and data-driven methods to enhance the performance ofoptical transmission systems. These advancements are poised to shape the future of optical communicationsystems, facilitating higher capacities and more reliable transmissions in our rapidly evolving digitalenvironment
Style APA, Harvard, Vancouver, ISO itp.
21

Orchampt, Patrick. "Apports des techniques d'intelligence artificielle en conception assistée par ordinateur : applications à la schématique". Lyon 1, 1987. http://www.theses.fr/1987LYO19017.

Pełny tekst źródła
Streszczenie:
Dans une premiere partie, l'apport de l'intelligence artificielle a la conception assistee par ordinateur est etudie. Trois realisations sont presentees dans une deuxieme partie: cooling, un logiciel expert dans le choix des installations de refroidissement; anais, un logiciel expert en verification de ces memes schemas; oscart, logiciel de placement automatique sous contrainte d'objets dans le plan
Style APA, Harvard, Vancouver, ISO itp.
22

Yim, Pascal. "Résolution dans les systèmes formels abstraits : applications a la programmation en logique, aux systemes de reecriture et aux grammaires formelles". Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0041.

Pełny tekst źródła
Streszczenie:
Les mathématiciens utilisent habituellement les systèmes formels pour modéliser le raisonnement hypotético-déductif, en démontrant des théorèmes à partir d'axiomes par des chaînes de déductions successives. Des systèmes formels pour la géométrie, la logique, l'algèbre sont bien connus. Un but de la démonstration automatique consiste alors à trouver une procédure qui décide si une formule est un théorème ou non. Je donne une définition ensembliste des systèmes formels, utilisant une sémantique de point fixe. Cette définition de ce que j'appelle alors les systèmes formels abstraits permet une étude générale de la notion de preuve, basée sur l'opérateur fondamental de choix de Hilbert. Du point de vue informatique, l'essentiel est alors de réduire les choix possibles, de manière à obtenir une procédure la plus efficace possible, en conservant les propriétés de correction et complétude. La procédure obtenue appliquée à la programmation en logique donne la SLD-résolution habituelle. En réécriture, on retrouve très naturellement une forme de la sur-réduction. Un algorithme d'analyse syntaxique dans les grammaires de Chomsky est obtenu facilement. Des applications moins classiques aux clauses de Horn gardées (logique parallèle), à la logique temporelle et à la logique contrainte sont également abordées.
Style APA, Harvard, Vancouver, ISO itp.
23

Jacquelinet, Christian. "Modélisation du langage naturel et représentation des connaissances par graphes conceptuels : applications au domaine de l'information médicale". Rennes 1, 2002. http://www.theses.fr/2002REN1B060.

Pełny tekst źródła
Streszczenie:
Cette thèse aborde la compréhension automatique du langage médical comme un problème de modélisation. Elle se place dans le champ de l'intelligence artificielle et des sciences cognitives appliquées à la médecine. Elle se focalise sur l'étape initiale du processus de compréhension : la transformation d'un énoncé en une structure supposée en supporter la signification. Un modèle sémiotique est proposé pour cette transformation qui opère à partir de l'énoncé une extraction de connaissances. Elle débute par une phase d'analyse lexicale qui aboutit à la transduction des signes lexicaux de l'énoncé en atomes de connaissance appelés des " signes cognitifs ". Ceux-ci sont ensuite assemblés au cours d'une phase de synthèse cognitive selon des règles de contraintes pour former une structure à type de graphe. Un unique formalisme, dérivé des graphes conceptuels, est utilisé pour la représentation des connaissances lexicales, syntaxiques, sémantiques ou référentielles et pour la représentation des règles de contraintes qui sont enregistrées au sein d'un réseau sémiotique. Ce modèle est implanté en un prototype opérationnel dénommé RIBOSOME. Deux champs d'application sont expérimentés : l'analyse de libellés de maladies issus de thesaurus différents en vue de l'organisation d'une ontologie pour le domaine de la transplantation et des défaillances terminales d'organe, et la prise en compte du contexte et de la polysémie pour le traitement automatique du langage médical.
Style APA, Harvard, Vancouver, ISO itp.
24

Seinturier, Julien. "Fusion de connaissances : applications aux relevés photogrammétriques de fouilles archéologiques sous-marines". Phd thesis, Toulon, 2007. https://theses.hal.science/tel-00838699.

Pełny tekst źródła
Streszczenie:
Ce travail est une étude la fusion de connaissances et ses applications aux relevés de fouilles archéologiques sous-marines. Son cadre est la mesure fondée sur la connaissance, synthèse entre des modèles théoriques élaborés par desexperts du domaine étudié et d'un ensemble d'observations des objets à relever. Lors de l'étude d'un site archéologique, les relevés sont effectués par des opérateurs différents et à des moments différents. Cette multiplication induit de l'incohérence lors de l'agrégation des résultats. La construction d'un résultat final nécessite la mise en place d'un processus de fusion automatisé laissant à l'opérateur le choix des méthodes de rétablissement de la cohérence. Ce travail est divisé en trois parties : une étude théorique des méthodes de fusion connues, la mise en place de méthodes de fusion dans notre cadre et l'expérimentation des solutions proposées lors de relevés dans des applications réelles. Dans la première partie, nous proposons une étude théorique des techniques de fusion de croyances existantes et nous proposons un nouveau cadre de fusion réversible aux niveaux sémantique et syntaxique. Ce cadre est basé sur des pondérations par des polynômes afin de représenter les priorités entre les croyances et l'historique des changements de ces priorités. Dans la deuxième partie, nous détaillons la mesure fondée sur la connaissance en décrivant une représentation des connaissances basée sur la notion d'entité. Nous proposons ensuite des techniques de fusion adaptées à cette représentation. Ces techniques sont basées sur la logique des prédicats instanciés. Des algorithmes de fusion sont décrits et étudiés. Dans la dernière partie, nous présentons les expérimentations des techniques de fusion mises en place. Nous proposons une description des outils développés et utilisés dans le cadre du projet Européen VENUS (http://www. Venus-project. Eu)mais aussi leurs extensions à l'archéologie du bâti et à la biologie sous-marine
This work propose a study of the knowledge fusion and its applications in the survey of underwater archaeological excavations. Our framework is the knowledge based measure, which can be represented by a synthesis between theoretical models designed by specific domain experts and set of observations performed on surveyed objects. During the study of an archaeological site, surveys can be made by different operators and at different times. This multiplication of observations can lead lo inconsistencies during the aggregation of the partial results. The building of a final result requires a fusion process piloted by the leader of the study. Such process must be automated while leaving to the operator the choice of the methods used to ensure the final consistency. This work is divided into three parts: a theoretical study of the known methods for knowledge fusion, the implementation of fusion methods as part of the knowledge based measurement and experimentation of proposed solutions during surveys in full-scale applications. In the first part, we present a theoretical study of known belief fusion methods and we propose a new framework allowing to express these methods at a semantic and syntactic level while adding it a reversibility. This framework is based on polynomials weights that allow to represent priorities between believes and history of the changes of these priorities. In the second pan. We present knowledge based measurement by representing a formalism of representation based on entity notion. We propose then adapted technics of fusion in the new representation. These technics are based on first order logic. Algorithms effusion are proposed and studied. In the last part, we introduce experimentation of techniques of proposed fusion methods. We offer a description of the developed tools used as pan of plan European VENUS (http://www. Venus-project. Eu) but also their extensions to building archaeology and in underwater biology
Style APA, Harvard, Vancouver, ISO itp.
25

Seinturier, Julien. "Fusion de connaissances : Applications aux relevés photogrammétriques de fouilles archéologiques sous-marines". Phd thesis, Université du Sud Toulon Var, 2007. http://tel.archives-ouvertes.fr/tel-00838699.

Pełny tekst źródła
Streszczenie:
Nous proposons dans ce travail une étude de la fusion de connaissances et ses applications aux relevés de fouilles archéologiques sous‐marines. Le cadre de ce travail est la mesure fondée sur la connaissance, pouvant être décrite comme la synthèse entre des modèles théoriques élaborés par des experts du domaine étudié et d'un ensemble d'observations effectuées sur les objets à relever. Lors de l'étude d'un site archéologique, les relevés peuvent être effectués par des opérateurs différents et à des moments différents. Cette multiplication des observations induit des risques d'incohérence lors de l'agrégation de tous les résultats (objets mesurés deux fois, objets mal identifiés, ...). La construction d'un résultat final nécessite la mise en place d'un processus de fusion piloté par le responsable de l'étude. Un tel pilotage doit être automatisé tout en laissant à l'opérateur le choix des méthodes de rétablissement de la cohérence. Ce travail est divisé en trois parties : une étude théorique des méthodes de fusion connues, la mise en place de méthodes de fusion dans le cadre de la mesure fondée sur la connaissance et l'expérimentation des solutions proposées lors de relevés dans des applications grandeur nature. Dans la première partie, nous proposons une étude théorique des techniques de fusion de croyances existantes et nous proposons un nouveau cadre de fusion réversible permettant d'exprimer de manière équivalente ces méthodes de fusion d'un point de vue sémantique et syntaxique. Ce cadre est basé sur des pondérations par des polynômes qui permettent de représenter à la fois les priorités entre les croyances mais aussi l'historique des changements de ces priorités. Dans la deuxième partie, nous détaillons la mesure fondée sur la connaissance en décrivant une représentation des connaissances basée sur la notion d'entité. Cette représentation est exprimée dans le modèle Objet ainsi que sous forme semi‐structurée en XML. Nous proposons ensuite des techniques de fusion adaptées à cette représentation. Ces techniques sont basées sur la logique propositionnelle et la logique des prédicats instanciés. Des algorithmes de fusion sont décrits et étudiés. Dans la dernière partie, nous présentons les expérimentations des techniques de fusion mises en place. Nous proposons une description des outils développés et utilisés dans le cadre du projet Européen VENUS (http://www.venus‐project.eu) mais aussi leurs extensions à l'archéologie du bâti et à la biologie sous‐marine.
Style APA, Harvard, Vancouver, ISO itp.
26

Durand, Audrey. "Déclinaisons de bandits et leurs applications". Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/28250.

Pełny tekst źródła
Streszczenie:
Cette thèse s’intéresse à différentes variantes du problème des bandits, une instance simplifiée d’un problème de reinforcement learning (RL) dont l’accent est mis sur le compromis entre l’exploration et l’exploitation. Plus spécifiquement, l’accent est mis sur trois variantes, soient les bandits contextuels, structurés et multi-objectifs. Dans la première, un agent recherche l’action optimale dépendant d’un contexte donné. Dans la seconde, un agent recherche l’action optimale dans un espace potentiellement grand et caractérisé par une métrique de similarité. Dans la dernière, un agent recherche le compromis optimal sur un front de Pareto selon une fonction d’articulation des préférences non observable directement. La thèse propose des algorithmes adaptés à chacune de ces variantes, dont les performances sont appuyées par des garanties théoriques ou des expériences empiriques. Ces variantes de bandits servent de cadre à deux applications réelles et à haut potentiel d’impact, soient l’allocation de traitements adaptative pour la découverte de stratégies de traitement du cancer personnalisées, et l’optimisation en-ligne de paramètres d’imagerie microscopique à grande résolution pour l’acquisition efficace d’images utilisables en neuroscience. La thèse apporte donc des contributions à la fois algorithmiques, théoriques et applicatives. Une adaptation de l’algorithme best empirical sampled average (BESA), GP BESA, est proposée pour le problème des bandits contextuels. Son potentiel est mis en lumière par des expériences en simulation, lesquelles ont motivé le déploiement de la stratégie dans une étude sur des animaux en laboratoire. Les résultats, prometteurs, montrent que GP BESA est en mesure d’étendre la longévité de souris atteintes du cancer et ainsi augmenter significativement la quantité de données recueillies sur les sujets. Une adaptation de l’algorithme Thompson sampling (TS), Kernel TS, est proposée pour le problème des bandits structurés en reproducing kernel Hilbert space (RKHS). Une analyse théorique permet d’obtenir des garanties de convergence sur le pseudo-regret cumulatif. Des résultats de concentration pour la régression à noyau avec régularisation variable ainsi qu’une procédure d’ajustement adaptative de la régularisation basée sur l’estimation empirique de la variance du bruit sont également introduits. Ces contributions permettent de lever l’hypothèse classique sur la connaissance a priori de la variance du bruit en régression à noyau en-ligne. Des résultats numériques illustrent le potentiel de ces outils. Des expériences empiriques illustrent également la performance de Kernel TS et permettent de soulever des questionnements intéressants relativement à l’optimalité des intuitions théoriques. Une nouvelle variante de bandits multi-objectifs généralisant la littérature est proposée. Plus spécifiquement, le nouveau cadre considère que l’articulation des préférences entre les objectifs provient d’une fonction non observable, typiquement d’un utilisateur (expert), et suggère d’intégrer cet expert à la boucle d’apprentissage. Le concept des rayons de préférence est ensuite introduit pour évaluer la robustesse de la fonction de préférences de l’expert à des erreurs dans l’estimation de l’environnement. Une variante de l’algorithme TS, TS-MVN, est proposée et analysée. Des expériences empiriques appuient ces résultats et constituent une investigation préliminaire des questionnements relatifs à la présence d’un expert dans la boucle d’apprentissage. La mise en commun des approches de bandits structurés et multi-objectifs permet de s’attaquer au problème d’optimisation des paramètres d’imagerie STED de manière en-ligne. Les résultats expérimentaux sur un vrai montage microscopique et avec de vrais échantillons neuronaux montrent que la technique proposée permet d’accélérer considérablement le processus de caractérisation des paramètres et facilitent l’obtention rapide d’images pertinentes pour des experts en neuroscience.
This thesis deals with various variants of the bandits problem, wihch corresponds to a simplified instance of a RL problem with emphasis on the exploration-exploitation trade-off. More specifically, the focus is on three variants: contextual, structured, and multi-objective bandits. In the first, an agent searches for the optimal action depending on a given context. In the second, an agent searches for the optimal action in a potentially large space characterized by a similarity metric. In the latter, an agent searches for the optimal trade-off on a Pareto front according to a non-observable preference function. The thesis introduces algorithms adapted to each of these variants, whose performances are supported by theoretical guarantees and/or empirical experiments. These bandit variants provide a framework for two real-world applications with high potential impact: 1) adaptive treatment allocation for the discovery of personalized cancer treatment strategies; and 2) online optimization of microscopic imaging parameters for the efficient acquisition of useful images. The thesis therefore offers both algorithmic, theoretical, and applicative contributions. An adaptation of the BESA algorithm, GP BESA, is proposed for the problem of contextual bandits. Its potential is highlighted by simulation experiments, which motivated the deployment of the strategy in a wet lab experiment on real animals. Promising results show that GP BESA is able to extend the longevity of mice with cancer and thus significantly increase the amount of data collected on subjects. An adaptation of the TS algorithm, Kernel TS, is proposed for the problem of structured bandits in RKHS. A theoretical analysis allows to obtain convergence guarantees on the cumulative pseudo-regret. Concentration results for the regression with variable regularization as well as a procedure for adaptive tuning of the regularization based on the empirical estimation of the noise variance are also introduced. These contributions make it possible to lift the typical assumption on the a priori knowledge of the noise variance in streaming kernel regression. Numerical results illustrate the potential of these tools. Empirical experiments also illustrate the performance of Kernel TS and raise interesting questions about the optimality of theoretical intuitions. A new variant of multi-objective bandits, generalizing the literature, is also proposed. More specifically, the new framework considers that the preference articulation between the objectives comes from a nonobservable function, typically a user (expert), and suggests integrating this expert into the learning loop. The concept of preference radius is then introduced to evaluate the robustness of the expert’s preference function to errors in the estimation of the environment. A variant of the TS algorithm, TS-MVN, is introduced and analyzed. Empirical experiments support the theoreitcal results and provide a preliminary investigation of questions about the presence of an expert in the learning loop. Put together, structured and multi-objective bandits approaches are then used to tackle the online STED imaging parameters optimization problem. Experimental results on a real microscopy setting and with real neural samples show that the proposed technique makes it possible to significantly accelerate the process of parameters characterization and facilitate the acquisition of images relevant to experts in neuroscience.
Style APA, Harvard, Vancouver, ISO itp.
27

Jiao, Yang. "Applications of artificial intelligence in e-commerce and finance". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0002.

Pełny tekst źródła
Streszczenie:
L'Intelligence Artificielle est présente dans tous les aspects de notre vie à l'ère du Big Data. Elle a entraîné des changements révolutionnaires dans divers secteurs, dont le commerce électronique et la finance. Dans cette thèse, nous présentons quatre applications de l'IA qui améliorent les biens et services existants, permettent l'automatisation et augmentent considérablement l'efficacité de nombreuses tâches dans les deux domaines. Tout d'abord, nous améliorons le service de recherche de produits offert par la plupart des sites de commerce électronique en utilisant un nouveau système de pondération des termes pour mieux évaluer l'importance des termes dans une requête de recherche. Ensuite, nous construisons un modèle prédictif sur les ventes quotidiennes en utilisant une approche de prévision des séries temporelles et tirons parti des résultats prévus pour classer les résultats de recherche de produits afin de maximiser les revenus d'une entreprise. Ensuite, nous proposons la difficulté de la classification des produits en ligne et analysons les solutions gagnantes, consistant en des algorithmes de classification à la pointe de la technologie, sur notre ensemble de données réelles. Enfin, nous combinons les compétences acquises précédemment à partir de la prédiction et de la classification des ventes basées sur les séries temporelles pour prédire l'une des séries temporelles les plus difficiles mais aussi les plus attrayantes : le stock. Nous effectuons une étude approfondie sur chaque titre de l'indice S&P 500 en utilisant quatre algorithmes de classification à la pointe de la technologie et nous publions des résultats très prometteurs
Artificial Intelligence has penetrated into every aspect of our lives in this era of Big Data. It has brought revolutionary changes upon various sectors including e-commerce and finance. In this thesis, we present four applications of AI which improve existing goods and services, enables automation and greatly increase the efficiency of many tasks in both domains. Firstly, we improve the product search service offered by most e-commerce sites by using a novel term weighting scheme to better assess term importance within a search query. Then we build a predictive model on daily sales using a time series forecasting approach and leverage the predicted results to rank product search results in order to maximize the revenue of a company. Next, we present the product categorization challenge we hold online and analyze the winning solutions, consisting of the state-of-the-art classification algorithms, on our real dataset. Finally, we combine skills acquired previously from time series based sales prediction and classification to predict one of the most difficult but also the most attractive time series: stock. We perform an extensive study on every single stocks of S&P 500 index using four state-of-the-art classification algorithms and report very promising results
Style APA, Harvard, Vancouver, ISO itp.
28

La, Barbera Giammarco. "Learning anatomical digital twins in pediatric 3D imaging for renal cancer surgery". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT040.

Pełny tekst źródła
Streszczenie:
Les cancers rénaux pédiatriques représentent 9% des cancers pédiatriques avec un taux de survie de 9/10 au prix de la perte d'un rein. La chirurgie d'épargne néphronique (NSS, ablation partielle du rein) est possible si le cancer répond à des critères précis (sur le volume et la localisation de la lésion). L'indication de la NSS repose sur l'imagerie préopératoire, en particulier la tomodensitométrie à rayons X (CT). Si l'évaluation de tous les critères sur des images 2D n'est pas toujours facile, les modèles 3D spécifiques au patient offrent une solution prometteuse. La construction de modèles 3D de l'anatomie rénale à partir de la segmentation est développée chez les adultes mais pas chez les enfants. Il existe un besoin de méthodes de traitement d'images dédiées aux patients pédiatriques en raison des spécificités de ces images, comme l'hétérogénéité de la forme et de la taille des structures. De plus, dans les images CT, l'injection d'un produit de contraste est souvent utilisée (ceCT) pour faciliter l'identification de l'interface entre les différents structures mais cela peut conduire à une hétérogénéité dans le contraste de certaines structures anatomiques, même parmi les patients acquis avec la même procédure. Le premier objectif de cette thèse est d'effectuer une segmentation des organes/tumeurs à partir d'images ceCT, à partir de laquelle un modèle 3D sera dérivé. Des approches d'apprentissage par transfert (des données d'adultes aux images d'enfants) sont proposées. La première question consiste à savoir si de telles méthodes sont réalisables, malgré la différence structurelle évidente entre les ensembles de données. Une deuxième question porte sur la possibilité de remplacer les techniques standard d’augmentation des données par des techniques d’homogénéisation des données utilisant des "Spatial Transformer Networks", améliorant ainsi le temps d’apprentissage, la mémoire requise et les performances. La segmentation de certaines structures anatomiques dans des images ceCT peut être difficile à cause de la variabilité de la diffusion du produit de contraste. L'utilisation combinée d'images CT sans contrast (CT) et ceCT atténue cette difficulté, mais au prix d'une exposition doublée aux rayonnements. Le remplacement d'une des acquisitions CT par des modèles génératifs permet de maintenir les performances de segmentation, en limitant les doses de rayons X. Un deuxième objectif de cette thèse est de synthétiser des images ceCT à partir de CT et vice-versa, à partir de bases d'apprentissage d'images non appariées, en utilisant une extension du "Cycle Generative Adversarial Network". Des contraintes anatomiques sont introduites en utilisant le score d'un "Self-Supervised Body Regressor", améliorant la sélection d'images anatomiquement appariées entre les deux domaines et renforçant la cohérence anatomique. Un troisième objectif de ce travail est de compléter le modèle 3D d'un patient atteint d'une tumeur rénale en incluant également les artères, les veines et les uretères. Une étude approfondie et une analyse comparative de la littérature sur la segmentation des structures tubulaires anatomique sont présentées. En outre, nous présentons pour la première fois l'utilisation de la fonction de ''vesselness'' comme fonction de perte pour l'entraînement d'un réseau de segmentation. Nous démontrons que la combinaison de l’information sur les valeurs propres avec les informations structurelles d’autres fonctions de perte permet d’améliorer les performances. Enfin, nous présentons un outil développé pour utiliser les méthodes proposées dans un cadre clinique réel ainsi qu'une étude clinique visant à évaluer les avantages de l'utilisation de modèles 3D dans la planification préopératoire. L'objectif à terme de cette recherche est de démontrer, par une évaluation rétrospective d'experts, comment les critères du NSS sont plus susceptibles d'être trouvés dans les images 3D que dans les images 2D. Cette étude est toujours en cours
Pediatric renal cancers account for 9% of pediatric cancers with a 9/10 survival rate at the expense of the loss of a kidney. Nephron-sparing surgery (NSS, partial removal of the kidney) is possible if the cancer meets specific criteria (regarding volume, location and extent of the lesion). Indication for NSS is relying on preoperative imaging, in particular X-ray Computerized Tomography (CT). While assessing all criteria in 2D images is not always easy nor even feasible, 3D patient-specific models offer a promising solution. Building 3D models of the renal tumor anatomy based on segmentation is widely developed in adults but not in children. There is a need of dedicated image processing methods for pediatric patients due to the specificities of the images with respect to adults and to heterogeneity in pose and size of the structures (subjects going from few days of age to 16 years). Moreover, in CT images, injection of contrast agent (contrast-enhanced CT, ceCT) is often used to facilitate the identification of the interface between different tissues and structures but this might lead to heterogeneity in contrast and brightness of some anatomical structures, even among patients of the same medical database (i.e., same acquisition procedure). This can complicate the following analyses, such as segmentation. The first objective of this thesis is to perform organ/tumor segmentation from abdominal-visceral ceCT images. An individual 3D patient model is then derived. Transfer learning approaches (from adult data to children images) are proposed to improve state-of-the-art performances. The first question we want to answer is if such methods are feasible, despite the obvious structural difference between the datasets, thanks to geometric domain adaptation. A second question is if the standard techniques of data augmentation can be replaced by data homogenization techniques using Spatial Transformer Networks (STN), improving training time, memory requirement and performances. In order to deal with variability in contrast medium diffusion, a second objective is to perform a cross-domain CT image translation from ceCT to contrast-free CT (CT) and vice-versa, using Cycle Generative Adversarial Network (CycleGAN). In fact, the combined use of ceCT and CT images can improve the segmentation performances on certain anatomical structures in ceCT, but at the cost of a double radiation exposure. To limit the radiation dose, generative models could be used to synthesize one modality, instead of acquiring it. We present an extension of CycleGAN to generate such images, from unpaired databases. Anatomical constraints are introduced by automatically selecting the region of interest and by using the score of a Self-Supervised Body Regressor, improving the selection of anatomically-paired images between the two domains (CT and ceCT) and enforcing anatomical consistency. A third objective of this work is to complete the 3D model of patient affected by renal tumor including also arteries, veins and collecting system (i.e. ureters). An extensive study and benchmarking of the literature on anatomic tubular structure segmentation is presented. Modifications to state-of-the-art methods for our specific application are also proposed. Moreover, we present for the first time the use of the so-called vesselness function as loss function for training a segmentation network. We demonstrate that combining eigenvalue information with structural and voxel-wise information of other loss functions results in an improvement in performance. Eventually, a tool developed for using the proposed methods in a real clinical setting is shown as well as a clinical study to further evaluate the benefits of using 3D models in pre-operative planning. The intent of this research is to demonstrate through a retrospective evaluation of experts how criteria for NSS are more likely to be found in 3D compared to 2D images. This study is still ongoing
Style APA, Harvard, Vancouver, ISO itp.
29

Ali, Sadaqat. "Energy management of multi-source DC microgrid systems for residential applications". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0159.

Pełny tekst źródła
Streszczenie:
Comparé au réseau électrique alternatif (AC), le réseau électrique en courant continu (DC) a démontré de nombreux avantages tels que son interface naturelle avec les RES, les systèmes de stockage d'énergie et les charges en courant continu, une efficacité supérieure avec moins d'étapes de conversion, et un contrôle plus simple sans effet de peau et sans considérations sur le flux de puissance réactive. Le micro-réseaux DC reste une technologie relativement nouvelle, et ses architectures de réseau, stratégies de contrôle, techniques de stabilisation méritent d'énormes efforts de recherche. Dans ce contexte, cette thèse porte sur les problèmes de gestion de l'énergie d'un réseau électrique en courant continu (DC) multi-source dédié aux applications résidentielles. Le réseau électrique en courant continu (DC) est composé de générateurs distribués (panneaux solaires), d'un système de stockage d'énergie hybride (HESS) avec des batteries et un supercondensateur (SC), et de charges en courant continu, interconnectées via des convertisseurs de puissance DC/DC. L'objectif principal de cette recherche est de développer une stratégie avancée de gestion de l'énergie (EMS) d'améliorer l'efficacité opérationnelle du système tout en renforçant sa fiabilité et sa durabilité. Une plateforme de simulation hiérarchique de réseau électrique DC a été développée sous MATLAB/Simulink. Elle est composée de deux couches avec des échelles de temps différentes : une couche de contrôle de niveau local (échelle de temps de quelques secondes à quelques minutes en raison des comportements de commutation des convertisseurs) pour les contrôles des composants locaux, et une couche de contrôle de niveau système (avec une échelle de temps de quelques jours à quelques mois avec un test accéléré) pour la validation à long terme de l'EMS et son évaluation de performance. Dans la couche de contrôle de niveau local, les panneaux solaires, les batteries et le supercondensateur ont été modélisés et contrôlés séparément. Différents modes de contrôle tels que le contrôle de courant, le contrôle de tension et le contrôle du point de puissance maximale (MPPT) ont été mis en œuvre. Un filtre passe-bas (LPF) a été appliqué pour diviser la puissance totale du HESS : basse et haute fréquence pour les batteries et le supercondensateur. Différentes fréquences de coupure du LPF pour le partage de puissance a également été étudiée. Un EMS hybride bi-niveau combiné et un dimensionnement automatique ont été proposés et validés. Il couvre principalement cinq scénarios d'exploitation, notamment la réduction de la production des panneaux solaires, la réduction de la charge et trois scénarios via le contrôle du HESS associé à la rétention du contrôle de l'état de charge (SOC) du supercondensateur. Une fonction objective prenant en compte à la fois le coût en capital (CAPEX) et les coûts d'exploitation (OPEX) a été conçue pour l'évaluation des performances de l'EMS. L'interaction entre l'HESS et l'EMS a été étudiée conjointement sur la base d'un ensemble de données ouvertes de profils de consommation électrique résidentielle couvrant à la fois l'été et l'hiver. Finalement, une plateforme expérimentale de réseau électrique à courant continu (DC) multi-source a été développée pour valider en temps réel l'EMS. Elle est composée de quatre batteries lithium-ion, d'un supercondensateur, d'une alimentation électrique à courant continu programmable, d'une charge à courant continu programmable, de convertisseurs DC/DC correspondants et d'un contrôleur en temps réel (dSPACE/Microlabbox). Des tests accélérés ont été réalisés pour vérifier l'EMS proposé dans différents scénarios d'exploitation en intégrant des panneaux solaires réels et les profils de consommation de charge. Les plateformes de simulation hiérarchique de réseau électrique en courant continu (DC) et expérimentale, peuvent être utilisées de manière générale pour vérifier et évaluer divers EMS
Compared to the alternating current (AC) electrical grid, the direct current (DC) electrical grid has demonstrated numerous advantages, such as its natural interface with renewable energy sources (RES), energy storage systems, and DC loads. It offers superior efficiency with fewer conversion steps, simpler control without skin effect or reactive power considerations. DC microgrids remain a relatively new technology, and their network architectures, control strategies, and stabilization techniques require significant research efforts. In this context, this thesis focuses on energy management issues in a multi-source DC electrical grid dedicated to residential applications. The DC electrical grid consists of distributed generators (solar panels), a hybrid energy storage system (HESS) with batteries and a supercapacitor (SC), and DC loads interconnected via DC/DC power converters. The primary objective of this research is to develop an advanced energy management strategy (EMS) to enhance the operational efficiency of the system while improving its reliability and sustainability. A hierarchical simulation platform of the DC electrical grid has been developed using MATLAB/Simulink. It comprises two layers with different time scales: a local control layer (time scale of a few seconds to minutes due to converter switching behavior) for controlling local components, and a system-level control layer (time scale of a few days to months with accelerated testing) for long-term validation and performance evaluation of the EMS. In the local control layer, solar panels, batteries, and the supercapacitor have been modeled and controlled separately. Various control modes, such as current control, voltage control, and maximum power point tracking (MPPT), have been implemented. A low-pass filter (LPF) has been applied to divide the total HESS power into low and high frequencies for the batteries and supercapacitor. Different LPF cutoff frequencies for power sharing have also been studied. A combined hybrid bi-level EMS and automatic sizing have been proposed and validated. It mainly covers five operational scenarios, including solar panel production reduction, load reduction, and three scenarios involving HESS control combined with supercapacitor state of charge (SOC) control retention. An objective function that considers both capital expenditure (CAPEX) and operating costs (OPEX) has been designed for EMS performance evaluation. The interaction between the HESS and EMS has been jointly studied based on an open dataset of residential electrical consumption profiles covering both summer and winter seasons. Finally, an experimental platform of a multi-source DC electrical grid has been developed to validate the EMS in real-time. It comprises four lithium-ion batteries, a supercapacitor, a programmable DC power supply, a programmable DC load, corresponding DC/DC converters, and a real-time controller (dSPACE/Microlabbox). Accelerated tests have been conducted to verify the proposed EMS in different operational scenarios by integrating real solar panels and load consumption profiles. The hierarchical simulation and experimental DC electrical grid platforms can be generally used to verify and evaluate various EMS
Style APA, Harvard, Vancouver, ISO itp.
30

Fenet, Serge. "Vers un paradigme de programmation pour les applications distribuées basé sur le comportement des insectes sociaux : application à la sécurité des réseaux". Lyon 1, 2001. http://www.theses.fr/2001LYO10261.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans cette thèse se positionnent dans la perspective de la création de futures applications orientées réseau. Nous nous orientons vers un paradigme de programmation d'applications distribuées dans lequel les systèmes informatiques seraient conçus comme de vrais écosystèmes. Les applications distribuées seraient alors vues comme des populations d'agents mobiles vivant et évoluant sur le réseau et dont les fonctionnalités seraient des caractéristiques émergentes. Nous proposons dans cette thèse une architecture générique à base d'agents mobiles se basant sur les mécanismes de communication des insectes sociaux et pouvant se dédier à des tâches de contrôle des réseaux, de routage ou de protection. Elle est basée sur une approche émergente et s'adapte aux constants changements imposés par l'évolution des conditions de fonctionnement du réseau. Elle utilise plusieurs populations d'agents mobiles qui, comme les agents naturels tels que les insectes sociaux, sont individuellement peu sophistiqués et intègrent une part d'aléatoire. Toutefois, leur comportement collectif, issu de l'interaction d'un grand nombre d'individus les uns avec les autres et avec leur environnement, est complexe et tend de façon émergente vers un optimum sans faire appel à un contrôle central. Ils évoluent au sein d'un réseau de machines et interagissent avec un mécanisme supportant la prise en compte spatio-temporelle de critères multiples incarnés en des champs dynamiques. Leur déplacement au sein de ces champs leur permet de se rendre sur une position géographique qui satisfasse les critères modélisés. Une grande partie de nos travaux se concentre sur la détection d'intrusion au sein de réseaux locaux.
Style APA, Harvard, Vancouver, ISO itp.
31

Lechevallier, Antoine. "Physics Informed Deep Learning : Applications to well opening and closing events". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS062.

Pełny tekst źródła
Streszczenie:
La réduction des émissions de CO2 dans l'atmosphère est primordiale afin d'accomplir la transition écologique. Le stockage géologique du CO2 est un instrument essentiel parmi les stratégies de capture et de stockage du CO2. Les simulations numériques fournissent la solution aux équations de l'écoulement multiphasique qui modélisent le comportement du site d'injection de CO2. Elles constituent un outil essentiel pour décider de l'exploitation ou non d'un site potentiel de stockage de CO2. Cependant, les simulations numériques d'écoulement en milieu poreux sont exigeantes en termes de calcul : il peut falloir plusieurs heures sur un cluster HPC pour simuler un scénario d'injection pour un grand réservoir de CO2 afin de modéliser avec précision les processus physiques complexes impliqués. En particulier, les événements liés aux puits (ouvertures et fermetures) posent d'importantes difficultés numériques en raison de leurs impacts immédiat sur le système. Cela force souvent une réduction drastique de la taille du pas de temps afin de résoudre le système d'équations non-linéaires résultant de la discrétisation du modèle mathématique continu. Cependant, ces événements spécifiques liés aux puits sont relativement similaires dans l'espace et le temps : le degré de similitude entre deux événements de puits dépend de quelques paramètres tels que le débit d'injection, l'état du réservoir au moment de l'événement, les conditions aux limites ou les paramètres du milieu poreux (perméabilité et porosité) autour de chaque puits. L'intérêt récent pour l'application de l'apprentissage automatique à la prédiction des processus physiques a stimulé le développement de la ''Physics Informed Deep Learning'' (PIDL), où les modèles d'apprentissage automatique remplacent ou complètent les algorithmes numériques traditionnels tout en préservant les contraintes inhérentes au modèle physique. Par conséquent, l'objectif de cette thèse est d'adapter les avancées récentes en PIDL afin de réduire l'impact des événements de puits dans la simulation numérique des écoulements multiphasiques en milieux poreux. Nos principales contributions sont divisées en trois parties. Dans la première partie, nous remplaçons le solveur numérique traditionnel par un modèle d'apprentissage automatique. Nous montrons qu'il semble possible d'apprendre des opérateurs 'parameter-to-solution' pour les problèmes d'équations aux dérivées partielles. Cependant, lorsque nous utilisons le modèle d'apprentissage automatique afin d'itérer en temps, la solution prédite s'éloigne de la solution réelle. De ce fait, dans la deuxième partie, nous utilisons une approche hybride, qui complète le solveur non-linéaire traditionnel avec un modèle d'apprentissage automatique, tout en préservant les garanties numériques. En pratique, nous utilisons la méthode de Newton hybride, qui consiste à prédire une initialisation globale pour la méthode de Newton plus proche de la solution que l'initialisation standard. Le Fourier Neural Operator est utilisé comme modèle prédictif. Notre méthodologie est appliquée à deux cas tests et présente des résultats prometteurs en réduisant jusqu'à 54% le nombre d'itérations de Newton par rapport à une méthode de référence. Dans la dernière partie, nous appliquons la méthode de Newton hybride pour prédire une initialisation dans la région proche du puits, où se situent les principales variations de saturations en CO2. Nous étudions d'abord l'impact de la taille du domaine local et démontrons ensuite, sur un cas 1D, qu'il est possible d'apprendre une initialisation locale précise pour n'importe quel emplacement de puits. Nous appliquons ensuite cette approche locale à un cas 2D et comparons les performances entre la stratégie hybride de Newton et une stratégie inspirée de la décomposition de domaine. Nous accélérons la gestion des événements de puits d'environ 45% en termes d'itérations de Newton
The reduction of CO2 emission into the atmosphere is mandatory to achieve ecological transition. CO2 geological storage is an essential instrument for efficient Carbon Capture and Storage (CCS) policies. Numerical simulations provide the solution to the multi-phase flow equations that model the behavior of the CO2 injection site. They are an important tool to decide either or not to exploit a potential carbon storage site and to monitor the operations (potential gas leakage, optimal positioning of CO2 injection wells, etc.). However, numerical simulations of fluid flow in porous media are computationally demanding: it can take up to several hours on a HPC cluster in order to simulate one injection scenario for a large CO2 reservoir if we want to accurately model the complex physical processes involved.parMore specifically, well events (opening and closure) cause important numerical difficulties due to their instant impact on the system. This often forces a drastic reduction of the time step size to be able to solve the non-linear system of equations resulting from the discretization of the continuous mathematical model. However, these specific well events in a simulation are relatively similar across space and time: the degree of similarity between two well events depends on a few parameters such as the injection condition, the state of the reservoir at the time of the event, the boundary conditions or the porous media parameters (permeability and porosity) around each well. Recent interest in machine learning applied to the prediction of physical processes has fueled the development of ''Physics Informed Deep Learning'', where machine learning models either replace or complement traditional numerical algorithms while preserving the inherent constraints from the physical model. Therefore, the objective of this thesis is to adapt recent advances in physics informed deep learning in order to alleviate the impact of well events in the numerical simulation of multiphase flow in porous media. Our main contributions are separated in three parts.parIn the first part, we replace the traditional numerical solver with a machine-learning model. We demonstrate the feasibility of learning parameter-to-solution operators for partial differential equation problems. However, when utilizing the machine-learning model for time iteration, we observe that the predicted solution diverges from the true solution. Consequently, in the second part, we use an hybrid approach that complements the traditional non-linear solver with a machine-learning model while preserving numerical guarantees. In practice, we utilize and tailor to our purpose the hybrid Newton methodology, which involves predicting a global initialization for Newton's method closer to the solution than the standard one. We use the state-of-the-art Fourier Neural Operator machine-learning model as a predictive model. Our methodology is applied to two test cases and exhibits promising results by reducing up to 54% the number of Newton iterations compared to a reference method.parIn the last part, we apply the hybrid Newton methodology to predict an initialization in the near-well region, where the main variations of CO2 saturations occur. We investigate the impact of the local domain size and then demonstrate, for a 1D case, that it is possible to learn a local initialization for any well location. Then, we apply this local approach to a 2D case and compare the performances between the hybrid Newton strategy and a Domain Decomposition-inspired strategy. We speed up the handling of well events by around 45% in terms of Newton iterations
Style APA, Harvard, Vancouver, ISO itp.
32

Denize, Julien. "Self-supervised representation learning and applications to image and video analysis". Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMIR37.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous développons des approches d'apprentissage auto-supervisé pour l'analyse d'images et de vidéos. L'apprentissage de représentation auto-supervisé permet de pré-entraîner les réseaux neuronaux à apprendre des concepts généraux sans annotations avant de les spécialiser plus rapidement à effectuer des tâches, et avec peu d'annotations. Nous présentons trois contributions à l'apprentissage auto-supervisé de représentations d'images et de vidéos. Premièrement, nous introduisons le paradigme théorique de l'apprentissage contrastif doux et sa mise en œuvre pratique appelée Estimation Contrastive de Similarité (SCE) qui relie l'apprentissage contrastif et relationnel pour la représentation d'images. Ensuite, SCE est étendue à l'apprentissage de représentation vidéo temporelle globale. Enfin, nous proposons COMEDIAN, un pipeline pour l'apprentissage de représentation vidéo locale-temporelle pour l'architecture transformer. Ces contributions ont conduit à des résultats de pointe sur de nombreux benchmarks et ont donné lieu à de multiples contributions académiques et techniques publiées
In this thesis, we develop approaches to perform self-supervised learning for image and video analysis. Self-supervised representation learning allows to pretrain neural networks to learn general concepts without labels before specializing in downstream tasks faster and with few annotations. We present three contributions to self-supervised image and video representation learning. First, we introduce the theoretical paradigm of soft contrastive learning and its practical implementation called Similarity Contrastive Estimation (SCE) connecting contrastive and relational learning for image representation. Second, SCE is extended to global temporal video representation learning. Lastly, we propose COMEDIAN a pipeline for local-temporal video representation learning for transformers. These contributions achieved state-of-the-art results on multiple benchmarks and led to several academic and technical published contributions
Style APA, Harvard, Vancouver, ISO itp.
33

Talbot, Jean-Marc. "Contraintes ensemblistes définies et co-définies : extensions et applications". Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-367.pdf.

Pełny tekst źródła
Streszczenie:
Les contraintes ensemblistes permettent d'exprimer des relations entre des ensembles d'arbres finis. Syntaxiquement, elles consistent en des inclusions ou des non-inclusions entre des expressions ensemblistes comportant les operateurs usuels de la theorie de ensembles, comme l'union, l'intersection, le complementaire, mais egalement la composition fonctionnelle et des operateurs de projections. L'un des domaines d'application de ces contraintes est l'analyse de programmes, connu sous le nom d'analyse ensembliste. Dans ce travail, nous nous interessons a deux classes de contraintes introduites pour ces motivations : la classe definie proposee par heintze et jaffar et la classe co-definie par charatonik et podelski. Nous proposons pour chacune d'elles une extension. Celles-ci consistent a ajouter des descriptions intensionnelles sous la forme de formules positives monadiques. Ces classes sont alors dites generalisees. Pour la classe definie generalisee (interpretee sur les ensembles d'arbres finis) un algorithme repondant au probleme de satisfiabilite est presente. Celui-ci, base sur les automates d'arbres, donne pour un systeme satisfiable une representation de la plus petite solution. Cet algorithme donne egalement un test de satisfiabilite pour la classe co-definie generalisee (interpretee sur les ensembles d'arbres finis), puisqu'elle se revele etre la duale par complementation de celle definie generalisee. Nous nous interessons alors a la classe co-definie generalisee, mais interpretee sur les ensembles d'arbres finis ou infinis. Nous proposons pour celle-ci un algorithme pour la satisfiabilite utilisant egalement des automates d'arbres et calculant pour un systeme satisfiable la plus grande solution de celui-ci.
Style APA, Harvard, Vancouver, ISO itp.
34

Rose, Cédric. "Modélisation stochastique pour le raisonnement médical et ses applications à la télémédecine". Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00598564.

Pełny tekst źródła
Streszczenie:
La télémédecine est une approche nouvelle de la pratique médicale qui est particulièrement porteuse d'espoir face à l'enjeu sociétal posé par l'incidence croissante des maladies chroniques et l'évolution de la démographie médicale. Le développement de la télésurveillance médicale réalisée grâce au recueil de données physiologiques ou biologiques au domicile du patient implique de développer nos capacités à analyser un volume important de données. Le problème auquel s'intéresse cette thèse est d'établir ou d'apprendre automatiquement la fonction qui lie les données fournies par les capteurs à l'état de santé du patient. La difficulté principale tient à ce qu'il est difficile et souvent impossible d'établir de manière sûre l'état de santé d'un patient, la seule référence disponible étant alors celle que peut donner le médecin traitant. Nous montrons dans cette thèse que la modélisation stochastique et plus particulièrement le formalisme graphique bayésien permet d'aborder cette question sous trois angles complémentaires. Le premier est celui de la représentation explicite de l'expertise médicale. Cette approche est adaptée aux situations dans lesquelles les données ne sont pas accessibles et où il est donc nécessaire de modéliser directement la démarche du médecin. La seconde approche envisagée est celle de l'apprentissage automatique des paramètres du modèles lorsque suffisamment de données sur les sorties attendues sont disponibles. Nous nous intéressons enfin à la possibilité d'apprendre les actions pertinentes par renforcement sous les contraintes de la problématique médicale à savoir d'après l'observation de l'expert dans sa pratique normale. Nous étudions plus spécifiquement l'utilisation de la vraisemblance du modèle pour apprendre une représentation pertinente de l'espace d'états.
Style APA, Harvard, Vancouver, ISO itp.
35

Aversano, Gianmarco. "Development of physics-based reduced-order models for reacting flow applications". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC095/document.

Pełny tekst źródła
Streszczenie:
L’objectif final étant de développer des modèles d’ordre réduit pour les applications de combustion, des techniques d’apprentissage automatique non supervisées et supervisées ont été testées et combinées dans les travaux de la présente thèse pour l’extraction de caractéristiques et la construction de modèles d’ordre réduit. Ainsi, l’application de techniques pilotées par les données pour la détection des caractéristiques d’ensembles de données de combustion turbulente (simulation numérique directe) a été étudiée sur deux flammes H2 / CO: une évolution spatiale (DNS1) et une jet à évolution temporelle (DNS2). Des méthodes telles que l’analyse en composantes principales (ACP), l’analyse en composantes principales locales (LPCA), la factorisation matricielle non négative (NMF) et les autoencodeurs ont été explorées à cette fin. Il a été démontré que divers facteurs pouvaient affecter les performances de ces méthodes, tels que les critères utilisés pour le centrage et la mise à l’échelle des données d’origine ou le choix du nombre de dimensions dans les approximations de rang inférieur. Un ensemble de lignes directrices a été présenté qui peut aider le processus d’identification de caractéristiques physiques significatives à partir de données de flux réactifs turbulents. Des méthodes de compression de données telles que l’analyse en composantes principales (ACP) et les variations ont été combinées à des méthodes d’interpolation telles que le krigeage, pour la construction de modèles ordonnées à prix réduits et calculables pour la prédiction de l’état d’un système de combustion dans des conditions de fonctionnement inconnues ou des combinaisons de modèles valeurs de paramètre d’entrée. La méthodologie a d’abord été testée pour la prévision des flammes 1D avec un nombre croissant de paramètres d’entrée (rapport d’équivalence, composition du carburant et température d’entrée), avec des variantes de l’approche PCA classique, à savoir PCA contrainte et PCA locale, appliquée aux cas de combustion la première fois en combinaison avec une technique d’interpolation. Les résultats positifs de l’étude ont conduit à l’application de la méthodologie proposée aux flammes 2D avec deux paramètres d’entrée, à savoir la composition du combustible et la vitesse d’entrée, qui ont donné des résultats satisfaisants. Des alternatives aux méthodes non supervisées et supervisées choisies ont également été testées sur les mêmes données 2D. L’utilisation de la factorisation matricielle non négative (FNM) pour l’approximation de bas rang a été étudiée en raison de la capacité de la méthode à représenter des données à valeur positive, ce qui permet de ne pas enfreindre des lois physiques importantes telles que la positivité des fractions de masse d’espèces chimiques et comparée à la PCA. Comme méthodes supervisées alternatives, la combinaison de l’expansion du chaos polynomial (PCE) et du Kriging et l’utilisation de réseaux de neurones artificiels (RNA) ont été testées. Les résultats des travaux susmentionnés ont ouvert la voie au développement d’un jumeau numérique d’un four à combustion à partir d’un ensemble de simulations 3D. La combinaison de PCA et de Kriging a également été utilisée dans le contexte de la quantification de l’incertitude (UQ), en particulier dans le cadre de collaboration de données lié (B2B-DC), qui a conduit à l’introduction de la procédure B2B-DC à commande réduite. Comme pour la première fois, le centre de distribution B2B a été développé en termes de variables latentes et non en termes de variables physiques originales
With the final objective being to developreduced-order models for combustion applications,unsupervised and supervised machine learningtechniques were tested and combined in the workof the present Thesis for feature extraction and theconstruction of reduced-order models. Thus, the applicationof data-driven techniques for the detection offeatures from turbulent combustion data sets (directnumerical simulation) was investigated on two H2/COflames: a spatially-evolving (DNS1) and a temporallyevolvingjet (DNS2). Methods such as Principal ComponentAnalysis (PCA), Local Principal ComponentAnalysis (LPCA), Non-negative Matrix Factorization(NMF) and Autoencoders were explored for this purpose.It was shown that various factors could affectthe performance of these methods, such as the criteriaemployed for the centering and the scaling of theoriginal data or the choice of the number of dimensionsin the low-rank approximations. A set of guidelineswas presented that can aid the process ofidentifying meaningful physical features from turbulentreactive flows data. Data compression methods suchas Principal Component Analysis (PCA) and variationswere combined with interpolation methods suchas Kriging, for the construction of computationally affordablereduced-order models for the prediction ofthe state of a combustion system for unseen operatingconditions or combinations of model input parametervalues. The methodology was first tested forthe prediction of 1D flames with an increasing numberof input parameters (equivalence ratio, fuel compositionand inlet temperature), with variations of the classicPCA approach, namely constrained PCA and localPCA, being applied to combustion cases for the firsttime in combination with an interpolation technique.The positive outcome of the study led to the applicationof the proposed methodology to 2D flames withtwo input parameters, namely fuel composition andinlet velocity, which produced satisfactory results. Alternativesto the chosen unsupervised and supervisedmethods were also tested on the same 2D data.The use of non-negative matrix factorization (NMF) forlow-rank approximation was investigated because ofthe ability of the method to represent positive-valueddata, which helps the non-violation of important physicallaws such as positivity of chemical species massfractions, and compared to PCA. As alternative supervisedmethods, the combination of polynomial chaosexpansion (PCE) and Kriging and the use of artificialneural networks (ANNs) were tested. Results from thementioned work paved the way for the developmentof a digital twin of a combustion furnace from a setof 3D simulations. The combination of PCA and Krigingwas also employed in the context of uncertaintyquantification (UQ), specifically in the bound-to-bounddata collaboration framework (B2B-DC), which led tothe introduction of the reduced-order B2B-DC procedureas for the first time the B2B-DC was developedin terms of latent variables and not in terms of originalphysical variables
Style APA, Harvard, Vancouver, ISO itp.
36

Trabelsi, Ahmed. "Modulation des niveaux de résistance dans une mémoire PCM pour des applications neuromorphiques". Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT027.

Pełny tekst źródła
Streszczenie:
La croissance exponentielle des données au cours des dernières années a entraîné une augmentation significative de la consommation d'énergie, créant ainsi un besoin urgent de technologies de mémoire innovantes pour surmonter les limitations des solutions conventionnelles. Cette inondation de données a entraîné une augmentation prévue de la consommation dans les centres de données, avec une multiplication par quatre des données d'ici 2025 par rapport au volume actuel. Pour relever ce défi, des technologies de mémoire émergentes telles que la RRAM (RAM résistive), la PCM (mémoire à changement de phase) et la MRAM (RAM magnéto-résistive) sont en cours de développement pour offrir une haute densité, des temps d'accès rapides et une non-volatilité, révolutionnant ainsi les solutions de stockage et de mémoire (Molas & Nowak, 2021).Une technique prometteuse pour répondre au besoin de technologies de mémoire innovantes est l'utilisation de la modulation de fréquence pour moduler la résistance dans la PCM, qui est un aspect crucial de son utilisation en informatique neuromorphique. La PCM est une technologie de mémoire non volatile basée sur la transition de phase réversible entre les phases amorphe et cristalline de certains matériaux. La capacité de modifier les niveaux de conductance rend la PCM bien adaptée aux réalisations synaptiques en informatique neuromorphique. La cristallisation progressive du matériau à changement de phase et l'augmentation subséquente de la conductance du dispositif permettent à la PCM d'être utilisée dans des applications neuromorphiques. De plus, des réseaux neuronaux basés sur la mémoire PCM ont été développés, et l'effet de dérive de la résistance dans la PCM a été quantifié, ouvrant de nouvelles voies pour le développement d'accélérateurs neuromorphiques à base de memristors PCM. De plus, la modulation de fréquence a été identifiée comme une technique prometteuse pour moduler la résistance dans la PCM. Cette approche peut être appliquée à la PCM ainsi qu'à la RRAM, et on s'attend à ce qu'elle produise des effets d'apprentissage améliorés dans des réseaux plus complexes utilisant des cellules multi-niveaux (Wang et al., 2011). L'objectif principal de cette thèse est d'explorer des méthodes innovantes pour contrôler les niveaux de résistance dans les dispositifs PCM en mettant l'accent sur leur application dans les systèmes neuromorphiques. La recherche implique une compréhension approfondie des mécanismes sous-jacents aux dispositifs PCM et une identification des paramètres susceptibles d'influencer la fiabilité de ces dispositifs. De plus, la thèse vise à proposer une nouvelle approche pour moduler efficacement les niveaux de résistance dans les dispositifs PCM, contribuant ainsi aux avancées dans ce domaine
The exponential growth of data in recent years has led to a significant increase in energy consumption, creating a pressing need for innovative memory technologies to overcome the limitations of conventional solutions. This data deluge has resulted in a forecasted consumption surge in data centers, with an expected fourfold increase in data by 2025 compared to the present volume. To address this challenge, emerging memory technologies such as RRAM (Resistive RAM), PCM (Phase-Change Memory), and MRAM (Magnetoresistive RAM) are being developed to offer high density, fast access times, and non-volatility, thereby revolutionizing storage and memory solutions (Molas & Nowak, 2021).One promising technique to address the need for innovative memory technologies is the use of frequency modulation to modulate resistance in PCM which is a crucial aspect of its use in neuromorphic computing. PCM is a non-volatile memory technology based on the reversible phase transition between amorphous and crystalline phases of certain materials. The ability to alter conductance levels makes PCM well-suited for synaptic realizations in neuromorphic computing. The progressive crystallization of the phase-change material and the subsequent increase in device conductance enable PCM to be used in neuromorphic applications. Additionally, PCM-based memristor neural networks have been developed, and the resistance drift effect in PCM has been quantified, opening up new paths for the development of PCM-based memristor neuromorphic accelerators. Furthermore, frequency modulation has been identified as a promising technique to modulate resistance in PCM. This approach can be applied to PCM as well as RRAM, and it is expected to yield improved learning effects in more complex networks using multi-level cells (Wang et al., 2011). The primary aim of this thesis is to explore innovative methods for controlling resistance levels in PCM devices with a focus on their application in neuromorphic systems. The research involves a comprehensive understanding of the mechanisms underlying PCM devices and an identification of parameters that may influence the reliability of these devices. Additionally, the thesis aims to propose a novel approach to effectively modulate resistance levels in PCM devices, contributing to advancements in this field
Style APA, Harvard, Vancouver, ISO itp.
37

Dimitracopoulou, Angélique. "Le tutorat dans les systèmes informatisés d'apprentissage : étude de la conception et réalisation d'un tutoriel d'aide à la représentation physique des situations étudiées par la mécanique". Paris 7, 1995. http://www.theses.fr/1995PA070089.

Pełny tekst źródła
Streszczenie:
La modélisation des processus tutoriels, question cruciale au sein de la didactique computationnelle, est au centre de notre recherche de conception du prototype arpia : un tutoriel d'aide a la representation physique des situations en mécanique qui est interactif et adapte a l'apprenant. Notre préoccupation est d'aider les élèves (de 17-19 ans) qui ont des difficultés pour élaborer une représentation physique (diagramme de forces et de mouvements). Le cadre théorique repose sur des analyses didactiques (analyse epistemologique et cognitive du contenu, analyse des difficultés des élèves, hypothèses sur l'apprentissage). L'interface de communication a été conçue de façon a permettre a l'élève de construire directement ses représentations (p. Ex. En traçant des vecteurs). Le diagnostic cognitif identifie et interprète la représentation de l'élève. Le prototype dispose actuellement de huit types d'actions tutorielles p. Ex. Conseil d'utilisation d'une technique, incitation a la mise en oeuvre des procédures de contrôle. Procédure de correction de l'erreur par l'élève, processus d'explication. Etc. L'évaluation du tutoriel a démontre qu'il est effectivement approprie pour l'apprentissage de l'élaboration de la représentation physique et a mis en évidence l'existence de voies d'améliorations et d'extensions possibles
The modelisation of tutorials process, a crucial question in the field of computational didactics, is the main question of our research in design and realization of the prototype arpia : it is a tuturial of aid for the physics representation of situations in mechanics ; it is interactive and adapted to the learner. Our target is to help the students (between 17-19 years old) who face difficulties in developping a physics representation of situations (diagrams of forces and movements). The theoretical framework of the design of this tutorial is based on a precisedidactic analysis : epistemological and cognitive analysis of content, analysis of students' difficulties, clarification of learning hypothesis. The interface of communication has been designed in order to permit to the student to construct his representations directly (for instance by drowing the vectors). The process of cognitif diagnosis identifies and interprets the elements of student's representations. The prototype arpia has actually eight types of action : for instance, advice for a use of atechnic, procedure of correction of errors, process of explanation
Style APA, Harvard, Vancouver, ISO itp.
38

Sadeghsa, Shohre. "Prédiction, réseau de neurones et optimisation : applications aux domaines des agro-matériaux et de la télécommunication". Electronic Thesis or Diss., Amiens, 2021. http://www.theses.fr/2021AMIE0091.

Pełny tekst źródła
Streszczenie:
Dans un contexte de changements planétaires, l'utilisation d'agro-ressources dans les matériaux composites est une solution alternative à l'exploitation des ressources fossiles. Le développement d'agromatériaux contenant des végétaux enrobés nécessite de prendre en compte la disponibilité spatiale et temporelle des matières premières biosourcées, leur interchangeabilité et les conséquences sur les propriétés fonctionnelles résultantes. Face à la diversité des données à disposition, à la difficulté d'établir les relations de cause à effet et à la nécessaire gestion de l'imprévu, un système fiable et durable est nécessaire afin de produire un composite contenant un végétal enrobé avec une production à efficacité constante. Les méthodes d'intelligence artificielle doivent permettre d'améliorer la compréhension et le contrôle de la production liée aux matériaux concernés. Étant donné l'incertitude et la variabilité des données, nous avons appliqué l'apprentissage automatique et l'intelligence artificielle pour prédire les paramètres des expériences de manière dynamique. Un modèle pourra ainsi s'adapter en fonction des données d'apprentissage. Les prédictions sont dynamiques et les résultats sont influencés par les données. Le composite végétal est étudié sous trois aspects : prédiction de la résistance à la compression du composite, prédiction de la résistance à la flexion du composite et création d'un modèle de simulation afin de prédire les paramètres de test de résistance à la compression du composite. Le développement du composite végétal nécessite de prendre en compte les paramètres spécifiques des matières premières bio-sourcées tels que la disponibilité temporelle, l'interchangeabilité, et les conséquences sur les propriétés fonctionnelles résultantes. L'optimisation des composites végétaux peut être considérée comme un problème complexe lié à différents domaines tels que la biologie, la physico-chimie et l'ingénierie des procédés. L'optimisation et la production durables de matériaux végétaux nécessitent également une gestion de la localisation, la centralisation et la consolidation des sites de la chaîne d'approvisionnement. Les problèmes de la chaîne d'approvisionnement sont principalement la localisation des sites de production, le cheminement, l'ordonnancement, le stockage des matières premières, la distribution finale et la commercialisation. Le regroupement, la consolidation ou le clustering font référence à l'acte de fusionner deux ou plusieurs sites de supply-chain. Cela implique une réduction du nombre de centres existants. Afin de maintenir l'efficacité continue des chaînes d'approvisionnement et de production, chaque site doit offrir l'ensemble des services qui étaient servis par les sites remplacés. Le problème du regroupement peut se situer à tout niveau de la supply-chain. Le problème du k-clustering peut être défini dans une des deux parties de la chaîne d'approvisionnement qui sont en relation directe. Cette thèse a pour but de traiter la complexité rencontrée pour optimiser le composite végétal et assurer la durabilité des centres d'approvisionnement, de production et de commercialisation. Le premier objectif est atteint en optimisant les caractéristiques du matériau composite à l'aide de l'intelligence artificielle et est détaillé en première partie. Le second objectif est exposé dans la deuxième partie de cette étude. Il s'agit de la fusion des sites de la chaîne d'approvisionnement en utilisant la méthode du K-clustering. Différentes méthodes de solution d'optimisation sont proposées. L'approche transversale appliquée permettant la mise en œuvre de plusieurs compétences est présente dans l'unité de recherche EPROAD. Les méthodes proposées sont issues du domaine de l'intelligence artificielle, de la modélisation discrète issue des mathématiques appliquées, de l'analyse de sensibilité, et du domaine du génie des procédés pour le développement de méthodes coopératives intelligentes
In the context of global changes in the world, the use of vegetal resources in composite materials is an alternative solution to the exploitation of fossil resources. However, the development of the vegetal composite requires taking into account the time and space availability of bio-sourced raw materials, their interchangeability, and their consequences on resulting functional characteristics. Optimization of the vegetal composite faces a variety of available data, the complexity to establish cause and effect relationships, and the mandatory handling of unexpected events (such as disaster, crises, break down, etc, ...). Thus, a reliable and sustainable system is required in order to produce the vegetal composite with constant efficiency. Artificial intelligence methods should allow improving the understanding and control of the production related to the concerned materials. Considering the uncertainty and changeability of the data related to the vegetal materials, we applied machine learning and artificial intelligence methods to predict the parameters of the experiments dynamically. A model can adapt itself based on the training data. Predictions are dynamic, and the results are data-oriented.Herein, the vegetal composite is studied with three aspects: to predict the compressive strength of the composite, to predict the flexural strength of the composite, and a simulation model to predict the parameters of the compressive composite strength test. To overcome the mentioned problems, artificial intelligence and machine learning methods are suggested as a solution that learns from the old data in order to converge towards better local optima. The development of the vegetal composite requires taking into account the specific parameters of the bio-sourced raw materials such as temporal availability, interchangeability, and the consequences on the resulting functional properties. Optimization of the vegetal composites can be viewed as a complex problem related to different domains such as biology, physico-chemistry, and process engineering. The sustainable optimization and production of the vegetal materials also require the localization, centralization, and consolidation of the supply chain sites. The supply chain problems consist of localizing the production sites, routing, and scheduling, and storage of raw materials, and final distribution and marketing. Regrouping, consolidating or clustering are referred to the act of merging two or more sites. It is the act of reducing the number of existing centers. In order to keep the continuous efficiency in the supply and production chains, each site has to provide the whole services that used to be served by the replaced sites. The regrouping problem can be seen in any part of this chain. The k-clustering problem can be defined in any of the two parts of the supply chain that are in direct relations. This thesis aims to deal with the complexity encountered to optimize the vegetal composite and to ensure the sustainability of the supply, production, and marketing sites. The former is achieved, in the first part, by optimizing the characteristics of the composite material using artificial intelligence methods. The latter is presented in the second part of this study. The proposed method merges the supply chain site(s) using the K-clustering problem. Different optimization solution methods are proposed. The applied transversal approach allowing the coupling of skills is presented within the research unit EPROAD. The proposed methods are from the field of artificial intelligence, combinatorial optimization, discrete modeling resulting from applied mathematics, sensitivity analysis, and the field of process engineering for the development of intelligent cooperative methods
Style APA, Harvard, Vancouver, ISO itp.
39

Sow, Cheickh Tidiane. "Utilisation du calcul formel dans la mécanique de Hamilton : modélisation et applications". Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090011.

Pełny tekst źródła
Streszczenie:
Macsyma est utilisé pour la construction d'un macro langage: language. Ce fichier génère automatiquement du code fortran à partir de programmes écrits dans une syntaxe proche de celle du lispo et du prolog. Un système expert est construit dans l'environnement macsyma pour la modélisation des systèmes mécaniques non bouclés. Le lien entre le calcul formel et le calcul numérique est montré. L'obtention des équations de mouvement des systèmes mécaniques se fait par la formulation lagrangienne dans macsyma et leur intégration numérique par la méthode de Gear à pas variable dans les fichiers fortran générés.
Style APA, Harvard, Vancouver, ISO itp.
40

Gaguet, Laurent. "Attitudes mentales et planification en intelligence artificielle : modélisation d'un agent rationnel dans un environnement multi-agents". Clermont-Ferrand 2, 2000. http://www.theses.fr/2000CLF20023.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est d'élaborer un modèle d'agent rationnel capable de planifier ses comportements à partir de ses attitudes mentales. Ce modèle doit permettre de spécifier un agent particulier du système multi-agents développé dans le cadre du projet AMICAL sur l'étude et le développement d'environnements informatiques d'aide à l'apprentissage de la lecture. Après avoir présenté différents aspects de la modélisation des agents dans les approches existantes, nous abordons plus particulièrement le rôle que peuvent jouer les attitudes mentales dans le comportement et la manière dont un plan d'actions peut être conçu comme un processus mental. Ces principes permettent de définir les notions qui sont modélisées par la suite, qui portent sur le raisonnement dont l'agent dispose pour adopter des objectifs, actualiser son état mental et délibérer sur celui-ci afin de planifier ses comportements futurs ou agir dans son environnement. Les représentations utilisées et produites par l'agent au cours du raisonnement regroupent d'une part ses connaissances opératoires en planification et sur son domaine d'expertise, et d'autre part ses différentes composantes mentales. La modélisation de ces différentes notions permet ensuite de spécifier, sous une forme algorithmique, les différents processus internes que l'agent met en oeuvre au cours d'un cycle comportemental pour atteindre des objectifs sur un domaine d'expertise. Ce modèle d'agent est ensuite validé à partir d'exemples de fonctionnement sur des connaissances opératoires types. Nous montrons notamment comment les différentes composantes mentales de l'agent évoluent au cours du raisonnement. Pour finir, nous abordons les principes d'une opérationalisation du modèle d'agent dans AMICAL, et nous situons les apports et les perspectives de cette approche par rapport aux enjeux qui ont été définis au début de l'étude
Style APA, Harvard, Vancouver, ISO itp.
41

Vinurel, Jean-Jacques. "Une application de l'intelligence artificielle à l'enseignement assisté par ordinateur". Paris 6, 1986. http://www.theses.fr/1986PA066379.

Pełny tekst źródła
Streszczenie:
Ce travail fait, dans une première partie, le point sur les didacticiels présents dans les établissements scolaires du second degré en France, puis sur le mouvement " E. I. A. O. ". Quatre applications sont ensuite présentées couvrant les différentes parties du programme de mathématique des classes de collège, réalisations utilisant les techniques de l'intelligence artificielle, adaptées aux contraintes des machines "8" bit" de l'éducation nationale. Les deux premières applications cherchent les erreurs dans les démarches des élèves de façon à pouvoir réexpliquer les bonnes règles de façon adaptée. Ces applications concernent les manipulations des fractions. Le troisième programme traite dans le même esprit des équations cartésiennes des droites. La quatrième application enseigne les démonstrations de la géométrie des triangles en relevant les différentes fautes dans l'application des théorèmes, le système étant de plus capable de guider l'élève sans lui donner toute la démonstration, ceci en tenant compte des étapes déjà trouvées par l'élève.
Style APA, Harvard, Vancouver, ISO itp.
42

Adjali, Omar. "Dynamic architecture for multimodal applications to reinforce robot-environment interaction". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV100.

Pełny tekst źródła
Streszczenie:
La représentation des connaissances et le raisonnement sont au cœur du grand défi de l'Intelligence Artificielle. Plus précisément, dans le contexte des applications robotiques, la représentation des connaissances et les approches de raisonnement sont nécessaires pour résoudre les problèmes de décision auxquels sont confrontés les robots autonomes lorsqu'ils évoluent dans des environnements incertains, dynamiques et complexes ou pour assurer une interaction naturelle dans l'environnement humain. Dans un système d'interaction robotique, l'information doit être représentée et traitée à différents niveaux d'abstraction: du capteur aux actions et plans. Ainsi, la représentation des connaissances fournit les moyens de décrire l'environnement avec différents niveaux d'abstraction qui permettent d'effectuer des décisions appropriées. Dans cette thèse, nous proposons une méthodologie pour résoudre le problème de l'interaction multimodale en décrivant une architecture d'interaction sémantique basée sur un cadre qui démontre une approche de représentation et de raisonnement avec le langage (EKRL environment knowledge representation language), afin d'améliorer l'interaction entre les robots et leur environnement. Ce cadre est utilisé pour gérer le processus d'interaction en représentant les connaissances impliquées dans l'interaction avec EKRL et en raisonnant pour faire une inférence. Le processus d'interaction comprend la fusion des valeurs des différents capteurs pour interpréter et comprendre ce qui se passe dans l'environnement, et la fission qui suggère un ensemble détaillé d'actions qui sont mises en œuvre. Avant que ces actions ne soient mises en œuvre par les actionneurs, ces actions sont d'abord évaluées dans un environnement virtuel qui reproduit l'environnement réel pour évaluer la faisabilité de la mise en œuvre de l'action dans le monde réel. Au cours de ces processus, des capacités de raisonnement sont nécessaires pour garantir une exécution globale d'un scénario d'interaction. Ainsi, nous avons fourni un ensemble de techniques de raisonnement pour effectuer de l’inférence déterministe grâce à des algorithmes d'unification et des inférences probabilistes pour gérer des connaissances incertaines en combinant des modèles relationnels statistiques à l'aide des réseaux logiques de Markov (MLN) avec EKRL. Le travail proposé est validé à travers des scénarios qui démontrent l’applicabilité et la performance de notre travail dans les applications du monde réel
Knowledge Representation and Reasoning is at the heart of the great challenge of Artificial Intelligence. More specifically, in the context of robotic applications, knowledge representation and reasoning approaches are necessary to solve decision problems that autonomous robots face when it comes to evolve in uncertain, dynamic and complex environments or to ensure a natural interaction in human environment. In a robotic interaction system, information has to be represented and processed at various levels of abstraction: From sensor up to actions and plans. Thus, knowledge representation provides the means to describe the environment with different abstraction levels which allow performing appropriate decisions. In this thesis we propose a methodology to solve the problem of multimodal interaction by describing a semantic interaction architecture based on a framework that demonstrates an approach for representing and reasoning with environment knowledge representation language (EKRL), to enhance interaction between robots and their environment. This framework is used to manage the interaction process by representing the knowledge involved in the interaction with EKRL and reasoning on it to make inference. The interaction process includes fusion of values from different sensors to interpret and understand what is happening in the environment, and the fission which suggests a detailed set of actions that are for implementation. Before such actions are implemented by actuators, these actions are first evaluated in a virtual environment which mimics the real-world environment to assess the feasibility of the action implementation in the real world. During these processes, reasoning abilities are necessary to guarantee a global execution of a given interaction scenario. Thus, we provided EKRL framework with reasoning techniques to draw deterministic inferences thanks to unification algorithms and probabilistic inferences to manage uncertain knowledge by combining statistical relational models using Markov logic Networks(MLN) framework with EKRL. The proposed work is validated through scenarios that demonstrate the usability and the performance of our framework in real world applications
Style APA, Harvard, Vancouver, ISO itp.
43

Hadjeres, Gaëtan. "Modèles génératifs profonds pour la génération interactive de musique symbolique". Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS027.

Pełny tekst źródła
Streszczenie:
Ce mémoire traite des modèles génératifs profonds appliqués à la génération automatique de musique symbolique. Nous nous attacherons tout particulièrement à concevoir des modèles génératifs interactifs, c'est-à-dire des modèles instaurant un dialogue entre un compositeur humain et la machine au cours du processus créatif. En effet, les récentes avancées en intelligence artificielle permettent maintenant de concevoir de puissants modèles génératifs capables de générer du contenu musical sans intervention humaine. Il me semble cependant que cette approche est stérile pour la production artistique dans le sens où l'intervention et l'appréciation humaines en sont des piliers essentiels. En revanche, la conception d'assistants puissants, flexibles et expressifs destinés aux créateurs de contenus musicaux me semble pleine de sens. Que ce soit dans un but pédagogique ou afin de stimuler la créativité artistique, le développement et le potentiel de ces nouveaux outils de composition assistée par ordinateur sont prometteurs. Dans ce manuscrit, je propose plusieurs nouvelles architectures remettant l'humain au centre de la création musicale. Les modèles proposés ont en commun la nécessité de permettre à un opérateur de contrôler les contenus générés. Afin de rendre cette interaction aisée, des interfaces utilisateurs ont été développées ; les possibilités de contrôle se manifestent sous des aspects variés et laissent entrevoir de nouveaux paradigmes compositionnels. Afin d'ancrer ces avancées dans une pratique musicale réelle, je conclue cette thèse sur la présentation de quelques réalisations concrètes (partitions, concerts) résultant de l'utilisation de ces nouveaux outils
This thesis discusses the use of deep generative models for symbolic music generation. We will be focused on devising interactive generative models which are able to create new creative processes through a fruitful dialogue between a human composer and a computer. Recent advances in artificial intelligence led to the development of powerful generative models able to generate musical content without the need of human intervention. I believe that this practice cannot be thriving in the future since the human experience and human appreciation are at the crux of the artistic production. However, the need of both flexible and expressive tools which could enhance content creators' creativity is patent; the development and the potential of such novel A.I.-augmented computer music tools are promising. In this manuscript, I propose novel architectures that are able to put artists back in the loop. The proposed models share the common characteristic that they are devised so that a user can control the generated musical contents in a creative way. In order to create a user-friendly interaction with these interactive deep generative models, user interfaces were developed. I believe that new compositional paradigms will emerge from the possibilities offered by these enhanced controls. This thesis ends on the presentation of genuine musical projects like concerts featuring these new creative tools
Style APA, Harvard, Vancouver, ISO itp.
44

Fabbri, André. "Dynamique d'apprentissage pour Monte Carlo Tree Search : applications aux jeux de Go et du Clobber solitaire impartial". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10183/document.

Pełny tekst źródła
Streszczenie:
Depuis son introduction pour le jeu de Go, Monte Carlo Tree Search (MCTS) a été appliqué avec succès à d'autres jeux et a ouvert la voie à une famille de nouvelles méthodes comme Mutilple-MCTS ou Nested Monte Carlo. MCTS évalue un ensemble de situations de jeu à partir de milliers de fins de parties générées aléatoirement. À mesure que les simulations sont produites, le programme oriente dynamiquement sa recherche vers les coups les plus prometteurs. En particulier, MCTS a suscité l'intérêt de la communauté car elle obtient de remarquables performances sans avoir pour autant recours à de nombreuses connaissances expertes a priori. Dans cette thèse, nous avons choisi d'aborder MCTS comme un système apprenant à part entière. Les simulations sont alors autant d'expériences vécues par le système et les résultats sont autant de renforcements. L'apprentissage du système résulte alors de la complexe interaction entre deux composantes : l'acquisition progressive de représentations et la mobilisation de celles-ci lors des futures simulations. Dans cette optique, nous proposons deux approches indépendantes agissant sur chacune de ces composantes. La première approche accumule des représentations complémentaires pour améliorer la vraisemblance des simulations. La deuxième approche concentre la recherche autour d'objectifs intermédiaires afin de renforcer la qualité des représentations acquises. Les méthodes proposées ont été appliquées aux jeu de Go et du Clobber solitaire impartial. La dynamique acquise par le système lors des expérimentations illustre la relation entre ces deux composantes-clés de l'apprentissage
Monte Carlo Tree Search (MCTS) has been initially introduced for the game of Go but has now been applied successfully to other games and opens the way to a range of new methods such as Multiple-MCTS or Nested Monte Carlo. MCTS evaluates game states through thousands of random simulations. As the simulations are carried out, the program guides the search towards the most promising moves. MCTS achieves impressive results by this dynamic, without an extensive need for prior knowledge. In this thesis, we choose to tackle MCTS as a full learning system. As a consequence, each random simulation turns into a simulated experience and its outcome corresponds to the resulting reinforcement observed. Following this perspective, the learning of the system results from the complex interaction of two processes : the incremental acquisition of new representations and their exploitation in the consecutive simulations. From this point of view, we propose two different approaches to enhance both processes. The first approach gathers complementary representations in order to enhance the relevance of the simulations. The second approach focuses the search on local sub-goals in order to improve the quality of the representations acquired. The methods presented in this work have been applied to the games of Go and Impartial Solitaire Clobber. The results obtained in our experiments highlight the significance of these processes in the learning dynamic and draw up new perspectives to enhance further learning systems such as MCTS
Style APA, Harvard, Vancouver, ISO itp.
45

Crémilleux, Bruno. "Induction automatique : aspects théoriques, le système ARBRE, applications en médecine". Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339492.

Pełny tekst źródła
Streszczenie:
L'objectif de ce travail est d'étudier l'induction en tant qu'outil exploratoire de bases d'exemples. L'induction automatique fournit une description tenant compte de l'ensemble des individus de la base d'exemples et en extrait la connaissance nécessaire à la résolution d'un problème. Il existe de nombreux algorithmes d'induction employant différents critères pragmatiques pour sélectionner une variable. Une formalisation mathématique du problème de la sélection d'une variable est proposée. Elle permet d'une part de définir une famille de "bons" critères reposant sur le choix d'une fonction strictement concave. D'autre part, les systèmes d'induction incertaine décrits dans la littérature emploient des techniques d'élagage dont le but est la construction d'arbres de classement. Une méthode d'élagage liée à un indice de qualité et adaptée à notre usage de l'induction incertaine est proposée. Elle montre en quoi la construction et l'élagage d'un arbre relèvent des mêmes concepts théoriques (l'indice de qualité fait intervenir les résultats des calculs entrepris lors de la construction de l'arbre). Un système d'induction (ARBRE) mettant enoeuvre ces résultats théoriques a été développé. il met en évidence les spécifications qui, à notre avis, sont indispensables pour un système en domaine incertain. Il permet une exploration immédiate de base d'exemples sans connaissance préalable du domaine, et représente la connaissance acquise sous la forme d'arbres d'induction. Trois problèmes médicaux réels montrent l'intérêt de l'usage d'un tel système, adapté à tout domaine où la connaissance est incertaine.
Style APA, Harvard, Vancouver, ISO itp.
46

Darwesh, Aso. "Diagnostic cognitif en EIAH : le système PépiMep". Paris 6, 2010. http://www.theses.fr/2010PA066397.

Pełny tekst źródła
Streszczenie:
L’objectif de notre travail est de concevoir un système de diagnostic automatique fiable utilisé à grande échelle sur une plateforme d’enseignement en ligne dans le domaine de l’apprentissage de l’algèbre élémentaire. Ma thèse s’est déroulée dans le cadre du projet Lingot, projet de recherche pluridisciplinaire regroupant, des informaticiens, des didacticiens des mathématiques, des psychologues ergonomes, des enseignants et des formateurs d’enseignants. Ce projet a deux objectifs fondamentaux. Le premier consiste à concevoir des EIAH (Environnements Informatiques pour l’Apprentissage Humain) pour aider les enseignants à gérer la diversité cognitive des élèves pour l’apprentissage de l’algèbre au collège. Le deuxième objectif est de fournir aux chercheurs des dispositifs d’observation pour étudier, sur le long terme, les résultats d’apprentissage des enseignements dispensés. Notre apport est double : d’une part il porte sur l’évaluation du diagnostic et l’amélioration de sa qualité et, d’autre part, il propose un diagnostic adaptatif. Enfin notre système a été mis en œuvre sur la plateforme de l’association Sésamath utilisée par des milliers d’enseignants et d’élèves. Le problème principal qui nous concerne, en tant qu’informaticien, est celui du mode d’inférence des descripteurs de la compétence d’un apprenant à partir des données recueillies lors d’un test diagnostic. Le processus de diagnostic se décompose en deux étapes : un diagnostic local qui consiste à analyser chaque réponse d’un élève, et un diagnostic que nous qualifions de global qui consiste à détecter des cohérences dans les réponses des élèves afin de dresser un bilan des compétences qui ont été détectées. Nous avons, à partir de premiers prototypes, mis au point un modèle conceptuel et un logiciel, PépiMep, qui le met en œuvre. Dans un premier temps, PépiMep recueille des réponses ou des raisonnements algébriques sur une plateforme d’enseignement en ligne, puis, dans un deuxième temps, PépiMep analyse ces réponses en prenant en compte non seulement leur degré de validité mais aussi leur caractérisation sur plusieurs dimensions. Cette analyse s’appuie sur un logiciel de calcul formel développé par l’équipe. Enfin PépiMep construit un bilan cognitif qui caractérise la compétence de l’élève, en établissant des leviers pour l’apprentissage et des fragilités à faire évoluer, et qui le situe sur une échelle de compétence. Nous avons mis en place les modèles de données et le système qui les interprète. Nous nous sommes enfin penchés sur le problème de mettre au point un diagnostic adaptatif pour minimiser le temps de passage du test diagnostic. Ce diagnostic s’appuie sur le modèle markovien de décision séquentielle. Pour mener à bien notre travail de recherche, nous avons adopté une démarche fondée sur le prototypage et sur l’analyse de corpus de réponses d’élèves obtenus à partir de prototypes. Nous avons mis en place des outils pour faciliter l’analyse de ces données par des experts humains (enseignants et didacticiens des mathématiques dans notre cas) et la comparaison entre le diagnostic automatique et celui d’experts ou de professionnels humains. Les résultats de cette comparaison montrent que notre système permet de faire instantanément un travail qui prend plusieurs heures à un expert humain, selon un taux de concordance avec l’expertise humaine qui est supérieur aux taux d’accords entre experts humains avant discussion pour établir un consensus sur un corpus de référence.
Style APA, Harvard, Vancouver, ISO itp.
47

Berkouk, Nicolas. "Persistence and Sheaves : from Theory to Applications". Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX032.

Pełny tekst źródła
Streszczenie:
L’analyse de données topologique est un domaine de recherche récent qui vise à employer les techniques de la topologie algébrique pour concevoir des descripteurs de jeux de données. Pour être utiles en pratique, ces descripteurs doivent être calculables, et posséder une notion de métrique, afin de pouvoir exprimer leur stabilité vis à vis du bruit inhérent à toutes données réelles. La théorie de la persistance a été élaborée au début des années 2000 commeun premier cadre th éorique permettant de définir detels descripteurs - les désormais bien connus codebarres. Bien que très bien adaptée à un contexte informatique, la théorie de la persistance possède certaines limitations théoriques. Dans ce manuscript,nous établissons des liens explicites entre la théorie dérivée des faisceaux munie de la distance de convolution(d’après Kashiwara-Schapira) et la théorie de la persistance.Nous commençons par montrer un théorème d’isométrie dérivée pour les faisceaux constructibles sur R, c’est à dire, nous exprimons la distance deconvolution comme une distance d’appariement entreles code-barres gradués de ces faisceaux. Cela nous permet de conclure dans ce cadre que la distance de convolution est fermée, ainsi que la classe des faisceaux constructibles sur R munie de la distance de convolution forme un espace topologique localement connexe par arcs. Nous observons ensuite que la collection desmodules de persistance zig-zag associée à une fonction à valeurs réelle possède une structure supplémentaire, que nous appelons systèmes de Mayer-Vietoris. Sous des hypothèses de finitude, nous classifions tous les systèmes de Mayer-Vietoris. Cela nous permet d’établir une correspondence fonctorielle et isométrique entre la catégorie dérivée des faisceaux constructibles sur R équipée de la distance de convolution, et la catégorie des systèmes de Mayer-Vietoris fortement finis munie de la distance d’entrelacement. Nous en déduisons une méthode de calcul des code-barres gradués faisceautiques à partir de programmes informatiques déjà implémentés par la communauté de la persistance. Nous terminons par donner une définition purement faisceautique de la notion de module de persistance éphémère. Nous établissons que la catégorie observable des modules de persistance (le quotient de la catégorie des modules de persistance par la sous catégorie des modules de persistance éphémères)est équivalente à la catégorie bien connue des -faisceaux
Topological data analysis is a recent field of research aiming at using techniques coming from algebraic topology to define descriptors of datasets. To be useful in practice, these descriptors must be computable, and coming with a notion of metric, in order to express their stability properties with res-pect to the noise that always comes with real world data. Persistence theory was elaborated in the early 2000’s as a first theoretical setting to define such des-criptors - the now famous so-called barcodes. Howe-ver very well suited to be implemented in a compu-ter, persistence theory has certain limitations. In this manuscript, we establish explicit links between the theory of derived sheaves equipped with the convolu-tion distance (after Kashiwara-Schapira) and persis-tence theory.We start by showing a derived isometry theorem for constructible sheaves over R, that is, we express the convolution distance between two sheaves as a matching distance between their graded barcodes. This enables us to conclude in this setting that the convolution distance is closed, and that the collec-tion of constructible sheaves over R equipped with the convolution distance is locally path-connected. Then, we observe that the collection of zig-zag/level sets persistence modules associated to a real valued function carry extra structure, which we call Mayer-Vietoris systems. We classify all Mayer-Vietoris sys-tems under finiteness assumptions. This allows us to establish a functorial isometric correspondence bet-ween the derived category of constructible sheaves over R equipped with the convolution distance, and the category of strongly pfd Mayer-Vietoris systems endowed with the interleaving distance. We deduce from this result a way to compute barcodes of sheaves from already existing software.Finally, we give a purely sheaf theoretic definition of the notion of ephemeral persistence module. We prove that the observable category of persistence mo-dules (the quotient category of persistence modules by the sub-category of ephemeral ones) is equivalent to the well-known category of -sheaves
Style APA, Harvard, Vancouver, ISO itp.
48

Sorici, Alexandru. "Un Intergiciel de Gestion du Contexte basé Multi-Agent pour les Applications d'Intelligence Ambiante". Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0790/document.

Pełny tekst źródła
Streszczenie:
La complexité et l'ampleur des scénarios de l'Intelligence Ambiante impliquent que des attributs tels que l'expressivité de modelisation, la flexibilité de representation et de deploiement et la facilité de configuration et de developpement deviennent des caracteristiques centrales pour les systèmes de gestion de contexte. Cependant, les ouvrages existants semblent explorer ces attributs orientés-developpement a un faible degré.Notre objectif est de créer un intergiciel de gestion de contexte flexible et bien configurable, capable de répondre aux différents scenarios. A cette fin, notre solution est construite a base de techniques et principes du Web Semantique (WS) et des systèmes multi-agents (SMA).Nous utilisons le WS pour proposer un noveau meta-modèle de contexte, permettant une modelisation expressive et extensible du contenu, des meta-proprietés (e.g. validité temporelle, parametres de qualité) et des dépendances (e.g. les contraintes d'integrité) du contexte.De plus, une architecture a base de SMA et des composants logiciels, ou chaque agent encapsule un aspect fonctionnel du processus de gestion de contexte (acquisition, coordination, diffusion, utilisation) est developpée.Nous introduisons un nouveau moyen de structurer le deploiement d'agents selon les dimensions du modèle de contexte de l'application et nous elaborons des politiques déclaratives gouvernant le comportement d'adaptation du provisionnement contextuel des agents. Des simulations d'un scenario d'université intelligente montrent que un bon outillage construit autour de notre intergiciel peut apporter des avantages significatifs dans la génie des applications sensibles au contexte
The complexity and magnitude of Ambient Intelligence scenarios imply that attributes such as modeling expressiveness, flexibility of representation and deployment, as well as ease of configuration and development become central features for context management systems.However, existing works in the literature seem to explore these development-oriented attributes at a low degree.Our goal is to create a flexible and well configurable context management middleware, able to respond to different scenarios. To this end, our solution is built on the basis of principles and techniques of the Semantic Web and Multi-Agent Systems.We use the Semantic Web to provide a new context meta-model, allowing for an expressive and extensible modeling of content, meta-properties (e.g. temporal validity, quality parameters) and dependencies (e.g. integrity constraints).In addition, we develop a middleware architecture that relies on Multi-Agent Systems and a service component based design. Each agent of the system encapsulates a functional aspect of the context provisioning processes (acquisition, coordination, distribution, use).We introduce a new way to structure the deployment of agents depending on the multi-dimensionality aspects of the application's context model. Furthermore, we develop declarative policies governing the adaptation behavior of the agents managing the provisioning of context information.Simulations of an intelligent university scenario show that appropriate tooling built around our middleware can provide significant advantages in the engineering of context-aware applications
Style APA, Harvard, Vancouver, ISO itp.
49

Putina, Andrian. "Unsupervised anomaly detection : methods and applications". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT012.

Pełny tekst źródła
Streszczenie:
Une anomalie (également connue sous le nom de outlier) est une instance qui s'écarte de manière significative du reste des données et est définie par Hawkins comme "une observation, qui s'écarte tellement des autres observations qu'elle éveille les soupçons qu'il a été généré par un mécanisme différent". La détection d’anomalies (également connue sous le nom de détection de valeurs aberrantes ou de nouveauté) est donc le domaine de l’apprentissage automatique et de l’exploration de données dans le but d’identifier les instances dont les caractéristiques semblent être incohérentes avec le reste de l’ensemble de données. Dans de nombreuses applications, distinguer correctement l'ensemble des points de données anormaux (outliers) de l'ensemble des points normaux (inliers) s'avère très important. Une première application est le nettoyage des données, c'est-à-dire l'identification des mesures bruyantes et fallacieuses dans un ensemble de données avant d'appliquer davantage les algorithmes d'apprentissage. Cependant, avec la croissance explosive du volume de données pouvant être collectées à partir de diverses sources, par exemple les transactions par carte, les connexions Internet, les mesures de température, etc., l'utilisation de la détection d'anomalies devient une tâche autonome cruciale pour la surveillance continue des systèmes. Dans ce contexte, la détection d'anomalies peut être utilisée pour détecter des attaques d'intrusion en cours, des réseaux de capteurs défaillants ou des masses cancéreuses. La thèse propose d'abord une approche basée sur un collection d'arbres pour la détection non supervisée d'anomalies, appelée "Random Histogram Forest (RHF)". L'algorithme résout le problème de la dimensionnalité en utilisant le quatrième moment central (alias 'kurtosis') dans la construction du modèle en bénéficiant d'un temps d'exécution linéaire. Un moteur de détection d'anomalies basé sur le stream, appelé 'ODS', qui exploite DenStream, une technique de clustering non supervisée est présenté par la suite et enfin un moteur de détection automatisée d'anomalies qui allège l'effort humain requis lorsqu'il s'agit de plusieurs algorithmes et hyper-paramètres est présenté en dernière contribution
An anomaly (also known as outlier) is an instance that significantly deviates from the rest of the input data and being defined by Hawkins as 'an observation, which deviates so much from other observations as to arouse suspicions that it was generated by a different mechanism'. Anomaly detection (also known as outlier or novelty detection) is thus the machine learning and data mining field with the purpose of identifying those instances whose features appear to be inconsistent with the remainder of the dataset. In many applications, correctly distinguishing the set of anomalous data points (outliers) from the set of normal ones (inliers) proves to be very important. A first application is data cleaning, i.e., identifying noisy and fallacious measurement in a dataset before further applying learning algorithms. However, with the explosive growth of data volume collectable from various sources, e.g., card transactions, internet connections, temperature measurements, etc. the use of anomaly detection becomes a crucial stand-alone task for continuous monitoring of the systems. In this context, anomaly detection can be used to detect ongoing intrusion attacks, faulty sensor networks or cancerous masses.The thesis proposes first a batch tree-based approach for unsupervised anomaly detection, called 'Random Histogram Forest (RHF)'. The algorithm solves the curse of dimensionality problem using the fourth central moment (aka kurtosis) in the model construction while boasting linear running time. A stream based anomaly detection engine, called 'ODS', that leverages DenStream, an unsupervised clustering technique is presented subsequently and finally Automated Anomaly Detection engine which alleviates the human effort required when dealing with several algorithm and hyper-parameters is presented as last contribution
Style APA, Harvard, Vancouver, ISO itp.
50

Mainsant, Marion. "Apprentissage continu sous divers scénarios d'arrivée de données : vers des applications robustes et éthiques de l'apprentissage profond". Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALS045.

Pełny tekst źródła
Streszczenie:
Le cerveau humain reçoit en continu des informations en provenance de stimuli externes. Il a alors la capacité de s’adapter à de nouvelles connaissances tout en conservant une mémoire précise de la connaissance apprise par le passé. De plus en plus d’algorithmes d’intelligence artificielle visent à apprendre des connaissances à la manière d’un être humain. Ils doivent alors être mis à jour sur des données variées arrivant séquentiellement et disponibles sur un temps limité. Cependant, un des verrous majeurs de l’apprentissage profond réside dans le fait que lors de l’apprentissage de nouvelles connaissances, les anciennes sont quant-à-elles perdues définitivement, c’est ce que l’on appelle « l’oubli catastrophique ». De nombreuses méthodes ont été proposées pour répondre à cette problématique, mais celles-ci ne sont pas toujours applicables à une mise en situation réelle car elles sont construites pour obtenir les meilleures performances possibles sur un seul scénario d’arrivée de données à la fois. Par ailleurs, les meilleures méthodes existant dans l’état de l’art sont la plupart du temps ce que l’on appelle des méthodes à « rejeu de données » qui vont donc conserver une petite mémoire du passé, posant ainsi un problème dans la gestion de la confidentialité des données ainsi que dans la gestion de la taille mémoire disponible.Dans cette thèse, nous proposons d’explorer divers scénarios d’arrivée de données existants dans la littérature avec, pour objectif final, l’application à la reconnaissance faciale d’émotion qui est essentielle pour les interactions humain-machine. Pour cela nous présenterons l’algorithme Dream Net – Data-Free qui est capable de s’adapter à un vaste nombre de scenarii d’arrivée des données sans stocker aucune donnée passée. Cela lui permet donc de préserver la confidentialité des données apprises. Après avoir montré la robustesse de cet algorithme comparé aux méthodes existantes de l’état de l’art sur des bases de données classiques de la vision par ordinateur (Mnist, Cifar-10, Cifar-100 et Imagenet-100), nous verrons qu’il fonctionne également sur des bases de données de reconnaissance faciale d’émotions. En s’appuyant sur ces résultats, nous proposons alors un démonstrateur embarquant l’algorithme sur une carte Nvidia Jetson nano. Enfin nous discuterons la pertinence de notre approche pour la réduction des biais en intelligence artificielle ouvrant ainsi des perspectives vers une IA plus robuste et éthique
The human brain continuously receives information from external stimuli. It then has the ability to adapt to new knowledge while retaining past events. Nowadays, more and more artificial intelligence algorithms aim to learn knowledge in the same way as a human being. They therefore have to be able to adapt to a large variety of data arriving sequentially and available over a limited period of time. However, when a deep learning algorithm learns new data, the knowledge contained in the neural network overlaps old one and the majority of the past information is lost, a phenomenon referred in the literature as catastrophic forgetting. Numerous methods have been proposed to overcome this issue, but as they were focused on providing the best performance, studies have moved away from real-life applications where algorithms need to adapt to changing environments and perform, no matter the type of data arrival. In addition, most of the best state of the art methods are replay methods which retain a small memory of the past and consequently do not preserve data privacy.In this thesis, we propose to explore data arrival scenarios existing in the literature, with the aim of applying them to facial emotion recognition, which is essential for human-robot interactions. To this end, we present Dream Net - Data-Free, a privacy preserving algorithm, able to adapt to a large number of data arrival scenarios without storing any past samples. After demonstrating the robustness of this algorithm compared to existing state-of-the-art methods on standard computer vision databases (Mnist, Cifar-10, Cifar-100 and Imagenet-100), we show that it can also adapt to more complex facial emotion recognition databases. We then propose to embed the algorithm on a Nvidia Jetson nano card creating a demonstrator able to learn and predict emotions in real-time. Finally, we discuss the relevance of our approach for bias mitigation in artificial intelligence, opening up perspectives towards a more ethical AI
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii