Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Ophtalmologie mathématique et informatique.

Дисертації з теми "Ophtalmologie mathématique et informatique"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Ophtalmologie mathématique et informatique".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Saigre, Thomas. "Modélisation mathématique, simulation et réduction d’ordre de flux oculaires et leurs interactions : construire le jumeau numérique de l'oeil." Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAD052.

Повний текст джерела
Анотація:
Le corps humain est un système complexe, et l'œil humain n’y fait pas exception. Malgré les avancées médicales, de nombreuses questions pathologiques subsistent. Les modèles mathématiques et computationnels complètent les études cliniques en dévoilant des mécanismes physiopathologiques complexes.L'œil, accessible de manière non invasive, offre des marqueurs biologiques utiles pour diagnostiquer des maladies. Comprendre son comportement, ses pathologies et les traitements associés est donc essentiel.Cette thèse explore la modélisation et la simulation des flux oculaires, notamment le transfert de chaleur et le flux d’humeur aqueuse. Ces approches nécessitent des validations cliniques rigoureuses et tiennent compte de nombreux paramètres, spécifiques au patient ou externes. Une analyse de sensibilité globale évalue leur impact pour guider les cliniciens. Ces analyses, coûteuses en calculs, bénéficient de méthodes de réduction de modèle certifiées, permettant des simulations précises et plus rapides, favorisant l’intégration des modèles dans la pratique clinique
The human body is a complex system, and the human eye is no exception. Despite medical advances, many pathological questions remain. Mathematical and computational models complement clinical studies by revealing complex pathophysiological mechanisms.The eye, which can be accessed non-invasively, offers useful biological markers for diagnosing diseases. Understanding its behavior, pathologies and associated treatments is therefore essential.This thesis explores the modeling and simulation of ocular flows, notably heat transfer and aqueous humor flow. These approaches require rigorous clinical validation and take into account numerous parameters, both patient-specific and external. A global sensitivity analysis assesses their impact to guide clinicians. These computationally-intensive analyses benefit from certified model reduction methods, enabling accurate and faster simulations, favoring the integration of models into clinical practice
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Martiel, Simon. "Approches informatique et mathématique des dynamiques causales de graphes." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4043/document.

Повний текст джерела
Анотація:
Le modèle des automates cellulaires constitue un des modèles le mieux établi de physique discrète sur espace euclidien. Ils implantent trois symétries fondamentales de la physique: la causalité, l'homogénéité et la densité finie de l'information. Bien que l'origine des automates cellulaires provienne de la physique, leur utilisation est très répandue comme modèles de calcul distribué dans l'espace (machines auto-réplicantes, problèmes de synchronisation,...), ou bien comme modèles de systèmes multi-agents (congestion du trafic routier, études démographiques,...). Bien qu'ils soient parmi les modèles de calcul distribué les plus étudiés, la rigidité de leur structure interdit toute extension triviale vers un modèle de topologie variant dans le temps, qui se trouve être un prérequis fondamental à la modélisation de certains phénomènes biologiques, sociaux ou physiques, comme par exemple la discrétisation de la relativité générale. Les dynamiques causales de graphes généralisent les automates cellulaires aux graphes arbitraires de degré borné et pouvant varier dans le temps. Dans cette thèse, nous nous attacherons à généraliser certains des résultats fondamentaux de la théorie des automates cellulaires. En munissant nos graphes d'une métrique compacte, nous présenterons deux approches différentes du modèle. Une première approche axiomatique basée sur les notions de continuité et d'invariance par translation, et une deuxième approche constructive, où une règle locale est appliquée en parallèle et de manière synchrone sur l'ensemble des sommets du graphe
Cellular Automata constitute one of the most established model of discrete physical transformations that accounts for euclidean space. They implement three fundamental symmetries of physics: causality, homogeneity and finite density of information. Even though their origins lies in physics, they are widely used to model spatially distributed computation (self-replicating machines, synchronization problems,...), as well as a great variety of multi-agents phenomena (traffic jams, demographics,...). While being one of the most studied model of distributed computation, their rigidity forbids any trivial extension toward time-varying topology, which is a fundamental requirement when it comes to modelling phenomena in biology, sociology or physics: for instance when looking for a discrete formulation of general relativity. Causal graph dynamics generalize cellular automata to arbitrary, bounded degree, time-varying graphs. In this work, we generalize the fundamental structure results of cellular automata for this type of transformations. We endow our graphs with a compact metric space structure, and follow two approaches. An axiomatic approach based on the notions of continuity and shift-invariance, and a constructive approach, where a local rule is applied synchronously on every vertex of the graph. Compactness allows us to show the equivalence of these two definitions, extending the famous result of Curtis-Hedlund-Lyndon’s theorem. Another physics-inspired symmetry is then added to the model, namely reversibility
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Zini, Pascale. "Etude informatique des résultats de la chirurgie horizontale et verticale simultanée pour les trabismes convergents : à propos de 297 cas." Clermont-Ferrand 1, 1987. http://www.theses.fr/1987CLF11043.

Повний текст джерела
Анотація:
1ère partie : - la chirurgie horizontale et verticale simultanée systématique basée sur la pathogénie du strabisme de Gobin est une chirurgie globale symétrique d' affaiblissement et fonctionnelle qui se fait à un âge précoce différé. - les indications. 2eme partie : une étude rétrospective sur 297 strabismes convergents opérés a été réalisée à l' aide de fiches informatiques. L' élément vertical et l' hyperaction des petits obliques sont très fréquents en pré-opératoire. Malgré la difficulté de définition des critères d' appréciation et de la décompensation lors de l' examen, on obtient de bons résultats pour les petits obliques et des résultats semblables à ceux de la littérature pour déviation horizontale minimale de près sans correction. Les résultats sont meilleurs pour les petits obliques parmi les réussites que parmi les sous-corrections.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Lardeux, Frédéric. "Approches hybrides pour les problèmes de satisfiabilité (SAT et MAX-SAT)." Angers, 2005. http://www.theses.fr/2005ANGE0024.

Повний текст джерела
Анотація:
Cette thèse est centrée sur la résolution des problèmes de satisfiabilité SAT et MAX-SAT. Les contributions apportées sont de trois types. Tout d'abord nous avons développé l'algorithme mémétique GASAT pour les problèmes SAT et MAX-SAT hybridant un algorithme tabou et un algorithme génétique. Des outils spécifiques aux problèmes de satisfiabilité y ont été intégrés tels que des mécanismes d'intensification, de diversification et un nouvel opérateur de croisement. Ensuite, nous avons proposé un nouveau cadre de résolution permettant aux méthodes exactes et aux méthodes approchées de manipuler la même représentation de l'espace de recherche. Pour cela, nous avons ajouté une troisième valeur de vérité "indéterminé". Les résultats obtenus par les algorithmes hybrides trivalués montrent l'intérêt de ce cadre de résolution. Enfin, nous nous sommes penchés sur les heuristiques de branchement des algorithmes de Branch and Bound pour le problème MAX-SAT. L'étude que nous présentons montre que ces heuristiques réagissent très différemment en fonction des paramètres initiaux, de la structure de l'instance étudiée et des mécanismes d'amélioration du Branch and Bound. Elle permet d'envisager la création de nouvelles heuristiques spécifiquement dédiées au problème MAX-SAT
This thesis deals with the resolution of the satisfiability problems SAT and MAX-SAT. Our contributions are in three types. First, we have developed the memetic algorithm GASAT for the SAT and MAX-SAT problems which hybridies a tabu algorithm and a genetic algorithm. Some specific tools for the satisfiability problems have been included in it such as intensification mechanisms, diversification mechanisms and a new crossover operator. Next, we have proposed a new resolution framework which permits the exact and the approached methods to handle the same representation of the search space. To do this, we have added a third truth value ``undetermined''. The results obtained by the tri-valued hybrid algorithms show the utility of this resolution framework. Finally, we are interested in the branching heuristics for the Branch and Bound algorithms in the MAX-SAT context. Our study shows that these heuristics react in different ways in function of the initial parameters, the structure of the studied instances and the improved mechanisms for Branch and Bound. The findings of this study may lead to the creation of new heuristics specifically dedicated to the MAX-SAT problem
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Gallon, Jonathan. "Étude et optimisation d'un algorithme de reconstruction d'horizons sismiques 3D et extension aux données nD." Pau, 2011. http://www.theses.fr/2011PAUU3009.

Повний текст джерела
Анотація:
Dans le monde pétrolier, l'interprétation géophysique des données sismiques 3D est une étape indispensable pour la construction d'un modèle géologique du sous-sol. Ce modèle est constitué d'objets tels que les horizons (surfaces représentant l'interface entre deux couches géologiques) et les failles (surface modélisant les cassures dans les couches géologiques). Afin d'aider les géophysiciens, beaucoup d'outils automatiques ont été proposés afin de reconstruire ces objets, parmi lesquels le propagateur d'horizon 3D développé par Keskes et al. : cet algorithme est considéré comme le plus robuste en terme de qualité de surface reconstruite, mais avec l'augmentation permanente des volumes de données on observe une détérioration de ses temps d'exécution. L'objectif de la thèse concerne l'optimisation de cet algorithme de reconstruction d'horizons sismiques, appelé Propagateur 3D. La chute de performance calculatoire de ce propagateur est engendrée par la nécessité de faire des accès aléatoires dans le volume de données. Pour réduire l'effet de ces accès, très coûteux en temps d'exécution, nous proposons un système de cache briqué intelligent adapté aux caractéristiques de l'algorithme. La mise en place de cette gestion optimisée de la mémoire ouvre la voie vers une refonte du mode de propagation de l'algorithme pour minimiser l'empreinte mémoire : la propagation récursive. Dans la suite de la thèse, nous montrons comment étendre l'algorithme de propagation 3D aux données nD (acquisitions multi-offset, multi-azimut,. . . ) de plus en plus exploitée dans l'interprétation sismique. Deux types extensions sont proposés : la propagation libre et la contrainte. L'ajout de nouvelles dimensions entraîne une forte augmentation de la taille des données à traiter, et donc un fort ralentissement de l'algorithme. Pour chaque extension de la propagation, nous proposons une adaptation du système de cache 3D afin d'en améliorer les performances. Enfin, nous présentons et commentons sur plusieurs cas réels les résultats obtenus par la propagation nD
In the oil industrie, 3D seismic data interpretation is an essential step to build a 3D geological model of an exploration area. This model is constructed with horizons (surfaces representing the main rock interfaces) and faults (surface representing rocks' fractures). In order to facilitate interpretation, a lot of automatic tools have been developed to build these surfaces, among which the 3D horizon propagation algorithm developed by Keskes et al. : this algorithm is considered today as the most powerful in term of surface quality. However, with the continuous increasing size of seismic data, one can observe a slowdown in computation time. The purpose of this thesis concerns the optimization of this seismic horizon reconstruction algorithm. To reduce the effect of the random access required by the propagator, which is very time consuming, we propose an intelligent bricked cache system fully adapted to the algorithm. Then, we modify the original version of the algorithm with a new propagation method in order to minimize the memory usage : the recursive propagation. Then we extend the propagation algorithm to nD data (multi-offsets acquisitions, multiazimuth. . . ) increasingly used for seismic interpretation. Two extensions are then proposed : a "free" propagation and a "constrained" propagation. As the new dimensions increase the seismic data size, we adapt the optimum cache system for each propagation extension in order to improve the performance for both propagations. Finally, we present and comment results of nD propagation obtained on real data
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Schnoebelen, Philippe. "Sémantique du parallélisme et logique temporelle : application au langage FP2." Grenoble INPG, 1990. http://www.theses.fr/1990INPG0075.

Повний текст джерела
Анотація:
Cette thèse contribue à l'étude des liens existant entre les deux principaux points de vue actuellement adoptés pour la spécification des programmes parallèles ; les modèles opérationnels et leurs équivalences comportementales d'une part, la logique temporelle d'autre part. A la différence d'approches plus classiques, nous considérons explicitement des systèmes où le branchement infini (c. -à-d. Le non-déterminisme infini) est autorisé. Dans ce cadre général, les résultats classiques d'adéquation entre les deux points de vue susmentionnés doivent être relativisés. Par exemple, l'équivalence de bisimulation est strictement plus puissante que l'équivalence induite par les logiques du temps arborescent. Nous montrons aussi que l'équivalence induite par la logique temporelle n'est pas une congruence par rapport aux combinateurs usuels de programmes parallèles et que la congruence engendrée reste strictement moins forte que la bisimulation. Cette étude théorique a sa source dans les problèmes posés par le langage FP2. Dans la deuxième partie de cette thèse, nous donnons une définition complète du langage et de sa sémantique. Nous proposons ensuite une méthode de vérification automatique des programmes FP2 qui n'est pas limitée aux systèmes d'états finis. Cette méthode, dite de vérification symbolique, repose sur l'utilisation par FP2 de la réécriture de termes et utilise les résultats de Comon sur la disunification
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Daoudi, Mohamed. "Classification interactive multidimensionnelle par les réseaux neuronaux et la morphologie mathématique." Lille 1, 1993. http://www.theses.fr/1993LIL10134.

Повний текст джерела
Анотація:
Dans ce mémoire, nous avons proposé une méthodologie qui permet à un opérateur de maîtriser le procédé de classification en visualisant les données grâce à un réseau de neurones multicouche. Ce support visuel est alors utilisé pour classer les observations selon différentes procédures plus ou moins interactives. La représentation plane des données mise en oeuvre utilise une réseau neuronal multicouche. L'apprentissage s'effectue en mode non supervisé par la technique de rétro propagation. La visualisation plane est exploitée par l'appui de techniques de classification telle la procédure isodata avec laquelle l'analyste garde un contact étroit avec les données. Cette méthode donne de très bons résultats quand les classes, en présence dans l'échantillon ont des formes sphériques. Pour les cas où les classes ne sont pas sphériques, nous proposons une nouvelle approche fondée sur l'utilisation de critères géométriques et structuraux en faisant appel à la morphologie mathématique. Cette nouvelle approche aboutit à la classification des données en deux étapes successives: une étape de détection des modes et une étape de classification des observations s'appuyant sur les modes détectés. La détection des modes est réalisée par application de l'algorithme de la ligne de partage des eaux. Enfin, afin de préciser les domaines de validité de chacune des méthodes, nous comparons les résultats obtenus avec chacune d'elles. Cela nous permet de proposer une méthodologie de travail pour l'analyste confronte au problème de classification de ces données
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Lhote, Nathan. "Définissabilité et Synthèse de Transductions." Doctoral thesis, Universite Libre de Bruxelles, 2019. https://dipot.ulb.ac.be/dspace/bitstream/2013/287370/4/these.pdf.

Повний текст джерела
Анотація:
Dans la première partie de ce manuscrit nous étudions les fonctions rationnelles, c'est-à-dire définies par des transducteurs unidirectionnels. Notre objectif est d'étendre aux transductions les nombreuses correspondances logique-algèbre qui ont été établies concernant les langages, notamment le célèbre théorème de Schützenberger-McNaughton-Papert. Dans le cadre des fonctions rationnelles sur les mots finis, nous obtenons une caractérisation à la Myhill-Nerode en termes de congruences d'indice fini. Cette caractérisation nous permet d'obtenir un résultat de transfert, à partir d'équivalences logique-algèbre pour les langages vers des équivalences pour les transductions. En particulier nous montrons comment décider si une fonction rationnelle est définissable en logique du premier ordre. Sur les mots infinis, nous pouvons également décider la définissabilité en logique du premier ordre, mais avec des résultats moins généraux.Les fonctions rationnelles sur les mots infinis sont plus difficiles à caractériser et nous obtenons un résultat plus faible: étant donné un transducteur nous montrons comment calculer un transducteur canonique, c'est-à-dire indépendant du transducteur initial, réalisant la même fonction.Cependant cette machine canonique nous permet tout de même de décider si une fonction est définissable en logique du premier ordre.Dans la seconde partie nous introduisons une logique pour les transductions et nous résolvons le problème de synthèse régulière: étant donnée une formule de la logique, peut-on obtenir un transducteur bidirectionnel déterministe satisfaisant la formule ?Dans la seconde partie nous considérons un problème de synthèse: étant donné une relation (spécification) peut-on obtenir une fonction (un programme) qui est inclus dans (qui satisfait) la relation. Les fonctions réalisées par des transducteurs bidirectionnels déterministes sont caractérisés par plusieurs modèles différents, y compris par les transducteurs MSO, et ont ainsi été nommées transductions régulières.Nous introduisons une logique expressive pour les transduction et nous résolvons le problème de synthèse régulière pour cette logique.Plus précisément nous fournissons un algorithme qui produit toujours une fonction régulière satisfaisant une spécification donnée en entrée.Nous exposons également un lien intéressant entre les transductions et les mots avec données.Par conséquent nous obtenons une logique expressive pour les mots avec données, pour laquelle le problème de satisfiabilité est décidable.
Option Informatique du Doctorat en Sciences
info:eu-repo/semantics/nonPublished
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Rubio, Michel. "Courbes morphologiques et reconnaissance d'objets plans." Saint-Etienne, 1990. http://www.theses.fr/1990STET4011.

Повний текст джерела
Анотація:
Une des méthodes de reconnaissance des formes binaires repose sur le calcul de paramètres caractérisant leur géométrie. Ces paramètres sont de deux ordres: ceux calcules sur l'objet lui-même et ceux calcules sur son retour. L'étude de la frontière d'objets binaires discrétisés sur trame conduit a définir les contours morphologiques. Cette définition est validée par son extension mathématique au cas continu: les courbes morphologiques sont introduites. Dès lors, une étude des contours en termes de texture permet de préciser la notion d'échelle d'étude d'un contour. Une méthode d'estimation de la déflection tangentielle s'en déduit. Dans un deuxième temps, l'étude de l'objet lui-même est abordée grâce a la notion d'asymétrie. Elle met en oeuvre trois coefficients classiques, notamment celui de Besicovitch pour lequel un algorithme de calcul est propose. Enfin, des applications des techniques mises en place sont présentées. Elles concernent la chimie physique, la mécanique des fluides et l'usure des matériaux
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Adioui, M'Barek. "Modélisation et Etude Mathématique et Informatique de comportements Collectifs : alignement dans un banc de poissons." Paris 7, 2004. http://www.theses.fr/2004PA077003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Fajardo, Flores Silvia. "Modélisation des interactions non visuelles dans un environnement de travail mathématique visuel et non visuel synchronisé." Paris 8, 2014. http://octaviana.fr/document/184982189#?c=0&m=0&s=0&cv=0.

Повний текст джерела
Анотація:
Les élèves non voyants et malvoyants qui apprennent les mathématiques dans une environnement scolaire intégré font face à des problèmes qui vont au-delà de la difficulté des mathématiques elle-mêmes. La différence de représentation de contenus mathématiques et des outils de support utilisés par les personnes voyantes et les non voyantes rend difficile la communication directe entre eux. L'utilisation d'un ordinateur peut rendre possible la représentation de contenus mathématiques dans des modalités synchronisées qui conviennent à la fois aux voyants et aux non voyants, permettant ainsi la communication entre eux sans intermédiaire. Le but de notre travail consiste à identifier les caractéristiques de représentation et d'interaction visuelle et non visuelle souhaitables dans une interface qui puisse servir comme outil de support dans le processus d'enseignement-apprentissage de l'algèbre dans un environnement intégré. Nous avons développé un prototype d'interface multimodale qui suit les principes de la conception centrée sur l'utilisateur, dans laquelle les élèves et les enseignants de mathématiques, voyants et non voyants, sont impliqués dans les étapes du développement. Le prototype permet l'écriture de contenus mathématiques au clavier et sur la plage braille, ainsi que un mode de lecture active par la navigation granulaire, l'utilisation des commandes de support à la résolution d'équations
The students with blindness who study mathematics in an integrated environment face problems that go beyond the difficulty of the subject. The difference of content representation and supporting tools makes difficult the direct communication between people with and without blindness. The computer makes possible the synchronised representation of contents in multiple modalities, allowing direct communication between them. The objective of this work is to identify the characteristics of visual and non visual representation and the interactions that could be useful on an interface to support the teaching and learning process of algebra learning in an integrated environment. We have developed a prototype of a multimodal interface following the principles of user centered design, in which students and mathematics teachers with and without visual disability were involved during the process of development. The prototype allows writing contents using the computer and the braille keyboard ; active reading is possible through different levels of navigation in the semantic tree of the expression ; we also provide some auxiliary functions to facilitate resolution
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Seddik, Yasmina. "Ordonnancement avec dates de livraison et gains cumulatifs." Paris 6, 2012. http://www.theses.fr/2012PA066640.

Повний текст джерела
Анотація:
Le problème étudié dans cette thèse est issu d'une problématique réelle, concernant l'optimisation du processus de numérisation des ouvrages de la Bibliothèque Nationale de France (BNF). La modélisation de ce problème met en évidence un critère d'optimisation nouveau en ordonnancement, tenant compte de gains cumulatifs liés à des dates de livraison communes à toutes les tâches. Dans le but d'identifier les structures des solutions optimales liées à ce nouveau critère et à des dates de disponibilité des tâches, nous nous sommes surtout concentrés sur un problème d'ordonnancement à une machine. Nous avons identifié les classes de complexité de ce problème, et proposé une méthode de résolution exacte de type Branch and Bound pour le problème général, s'appuyant sur des bornes et des règles de dominance dédiées. Nous avons également considéré le problème à deux dates de livraison (NP-difficile au sens faible), pour lequel nous avons proposé un algorithme pseudopolynomial de programmation dynamique et unalgorithme d'approximation polynomial avec une performance de garantie absolue égale à 1. Enfin, dans le but de nous rapprocher de la problématique industrielle, nous nous sommes intéressés à un problème de flowshop de permutation, avec le même critère d'optimisation. Pour ce problème, nous avons proposé plusieurs heuristiques : des algorithmes constructifs, des algorithmes de recherche locale, et une métaheuristique de type GRASP. Tous les algorithmes ont été implémentés, en particulier le Branch and Bound pour le problème à une machine et la recherche locale pour le flowshop permettent d'obtenir de bonnes solutions en tempsraisonnable
Starting from a real world digitization workflow issue, we identified a scheduling problem with a new criterion involving common delivery dates for the jobs. In order to focus on this new criterion and on the jobs' release dates, we mainly worked on a single machine problem. We delimited the complexity classes of the problem, and provided a Branch and Bound algorithm for the general problem, based on dedicated bounds and dominance rules. We also considered the weakly NP-hard problem with two delivery dates, for which we designed a pseudopolynomial dynamic programming algorithm and an approximation algorithm with an absolute performance guarantee of 1. Finally, in order to consider a problem more closely related to the industrial issue, we studied a permutation flowshop problem with the same criterion. For this problem, we proposed several heuristic methods: constructive algorithms, local search, and a GRASP algorithm. All the algorithms were implemented. In particular the Branch and Bound method for the single machine problem and the local search algorithms for the flowshop provide good solutions in a reasonable time
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Dai, Min. "Transformation et optimisation des programmes pour le parallélisme d'instructions." Versailles-St Quentin en Yvelines, 2000. http://www.theses.fr/2000VERS002V.

Повний текст джерела
Анотація:
Nous commencerons d'abord par l'introduction des techniques de transformation et d'optimisation a haut niveau au chapitre 2. La présentation des architectures auxquelles nous nous intéressons, les processeurs super scalaires et vliw, est présentée dans le chapitre 3. Après avoir aborde les principales machines, nous présentons la méthode de la simulation des unités fonctionnelles qui est voisine des tables de réservation réduites. Dans le quatrième chapitre, nous introduisons les techniques existantes d'extraction de dépendances de données pour qu'elles puissent être utilisées dans les phases de transformation et d'optimisation. Le chapitre suivant résumera les différentes méthodes de la transformation de code source. Nous avons utilisé sage++ comme base de travail pour réaliser les transformations, les parallelisations et les optimisations de code source (tops) dai99. Sage++ fournit une abstraction du programme source, qui facilite la manipulation de code source. Le chapitre 6 détaillera les techniques d'élimination de code redondant en intégrant le pipeline logiciel afin de minimiser les opérations de chargement et déchargement dans la boucle pipelinée. Dans le chapitre 7, nous donnons les résultats expérimentaux des performances qui intègrent différentes transformations et les méthodes d'optimisation que nous avons développées. .
Nous commencerons d'abord par l'introduction des techniques de transformation et d'optimisation a haut niveau au chapitre 2. La presentation des architectures auxquelles nous nous interessons, les processeurs superscalaires et vliw, est presentee dans le chapitre 3. Apres avoir aborde les principales machines, nous presentons la methode de la simulation des unites fonctionnelles qui est voisine des tables de reservation reduites. Dans le quatrieme chapitre, nous introduisons les techniques existantes d'extraction de dependances de donnees pour qu'elles puissent etre utilisees dans les phases de transformation et d'optimisation. Le chapitre suivant resumera les differentes methodes de la transformation de code source. Nous avons utilise sage++ comme base de travail pour realiser les transformations, les parallelisations et les optimisations de code source (tops) dai99. Sage++ fournit une abstraction du programme source, qui facilite la manipulation de code source. Le chapitre 6 detaillera les techniques d'elimination de code redondant en integrant le pipeline logiciel afin de minimiser les operations de chargement et dechargement dans la boucle pipelinee. Dans le chapitre 7, nous donnons les resultats experimentaux des performances qui integrent differentes transformations et les methodes d'optimisation que nous avons developpees. Finalement, le dernier chapitre est destine a donner quelques details d'implantation et de comparaison avec les travaux existants
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Athanaze, Guy. "De la theorie des possibilites a la pretopologie et la morphologie mathematique : nouveaux concepts et methodologie." Lyon, INSA, 2000. http://www.theses.fr/2000ISAL0048.

Повний текст джерела
Анотація:
La théorie des possibilités (cas particulier de la théorie de l' évidence (Shafer) repose sur un affaiblissement axiomatique de la théorie de la mesure, de même que la prétopologie est issue d'un affaiblissement axiomatique de la topologie. Par ailleurs, la prétopologie (et la morphologie mathématique qui est une théorie voisine) a connu des applications fructueuses en reconnaissance de forme et 1' on sait que les possibilités (fortement connectées aux ensembles flous) ont aussi des applications pertinentes en reconnaissance de forme. Ainsi, avons-nous eu l'idée de faire un parallèle entre ces théories. Dans une première étape, ont été établi des théorèmes de représentation des notions de base morphologique (resp. Prétopologique) : dilatation/érosion au moyen de possibilité/ nécessité et inversement. Nous avons alors procédé à certaines modifications des définitions introduites, de façon à les rendre plus performants en vue d'applications. Cette deuxième étape a permis la définition d'une méthodologie applicable en classification symbolique et en reconnaissance de formes, supervisée ou non, en ce sens que l'approche« possibiliste » incluse dans notre démarche permet de résoudre les cas de classification ambiguë. Nous sommes actuellement en train de valider ces méthodes en reconnaissance de caractères sur des bases de données réelles et en classification symbolique. En perspective, nous sommes en train de développer un logiciel de classification symbolique en vue de la ventilation des élèves de 2ème année à l'INSA en département d'option. Ce travail va être proposé dans le cadre d'un contrat avec la région Rhône-Alpes
The theory of possibilities (particular case of the theory of evidence of Shafer) lies upon a weakened topological axiomatic. Besides, pretopology (and mathematical morphology, a close theory) turned out to be very fruitful in applications to the field of pattern recognition. It is also weil know that the theory of possibilities (which is strongly connected to the theory of fuzzy sets) has pertinent applications in pattern recognition. Therefore stems the idea to make a parallel between these various theories. In the first steps, were established some representation theorems of basic morphology (respectively pretopologic) notions: dilation/erosion by means of possibilities/necessities and vice-versa. Further some modifications of the introduced definitions were achieved in order to fit better potential application. The second steps allowed to build a new methodology, applicable to symbolic classification and pattern recognition, supervised or not, in this sense that the "possibility" approach included in our method allows to solve the ambiguous cases in classification. These methods are currently validated in Optical Character Recognition a real data and in symbolic classification. In perspective, software of symbolic classification will be developed; it is aimed to help to distribute students finishing the 1 st cycle of INSA in various engineering departments. This work is to be proposed in the framework of a contract with in the Region RhôneAlpes.
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Cohen, Albert Henri. "Analyse et transformation de programmes : du modèle polyédrique aux langages formels." Versailles-St Quentin en Yvelines, 1999. https://tel.archives-ouvertes.fr/tel-00550829.

Повний текст джерела
Анотація:
Les microprocesseurs et les architectures parallèles d'aujourd'hui lancent de nouveaux défis aux techniques de compilation. En présence de parallélisme, les optimisations deviennent trop spécifiques et complexes pour être laissées au soin du programmeur. Les techniques de parallélisation automatique dépassent le cadre traditionnel des applications numériques et abordent de nouveaux modèles de programmes, tels que les nids de boucles non affines, les appels récursifs et les structures de données dynamiques. Des analyses précises sont au coeur de la détection du parallélisme, elles rassemblent des informations à la compilation sur les propriétés des programmes à l'exécution. Ces informations valident des transformations utiles pour l'extraction du parallélisme et la génération de code parallèle. Cette thèse aborde principalement des analyses et des transformations avec une vision par instances, c'est-à-dire considérant les propriétés individuelles de chaque instance d'une instruction à l'exécution. Une nouvelle formalisation à l'aide de langages formels nous permet tout d'abord d'étudier une analyse de dépendances et de définitions visibles par instances pour programmes récursifs. L'application de cette analyse à l'expansion et la parallélisation de programmes récursifs dévoile des résultats encourageants. Les nids de boucles quelconques font l'objet de la deuxième partie de ce travail. Une nouvelle étude des techniques de parallélisation fondées sur l'expansion nous permet de proposer des solutions à des problèmes d'optimisation cruciaux.
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Ozaktas, Haluk. "Compression de code et optimisation multicritère des systèmes embarqués dans un contexte temps réel strict." Paris 6, 2011. http://www.theses.fr/2011PA066376.

Повний текст джерела
Анотація:
Pour des raisons économiques, énergétiques et/ou ergonomiques, les systèmes embarqués sont soumis à de nombreuses contraintes comme être performants en moyenne ou dans le pire cas, avoir une consommation d'énergie et une mémoire de taille aussi réduite que possible. En conséquence, les systèmes embarqués ont plusieurs critères à optimiser lors de leur conception. Ce travail de thèse s'intéresse à la mise au point de stratégies d'optimisation de code multicritère pour des applications embarquées potentiellement temps réel strict. Dans un premier temps, un schéma de compression de code a été développé et mis en place pour optimiser principalement la taille de code. Ce schéma utilise une décompression dans le pipeline du processeur pour pouvoir optimiser aussi la consommation d’énergie et la performance moyenne ou pire cas. L'analyse des effets du schéma proposé a montré qu’il peut simultanément optimiser, ou offrir de bons compromis entre, plusieurs critères. Dans un deuxième temps, une plateforme d’optimisation multicritère a été mise en œuvre pour appliquer simultanément plusieurs transformations de code ciblant différents critères. Cette plateforme utilise une approche itérative pour trouver les points de compromis entre les critères d’intérêt. Finalement, afin de mettre au point des stratégies d'optimisation multicritère, nous avons proposé d'utiliser une méthode de comparaison statistique de l'efficacité des algorithmes de recherche à trouver rapidement de bonnes optimisations. Nous avons appliqué cette méthode à différents algorithmes de recherche dans plusieurs cas d'optimisation.
Стилі APA, Harvard, Vancouver, ISO та ін.
17

El, Saadi Nadjia. "Modélisation et études mathématique et informatique de populations structurées par des variables aléatoires. : Application à l'agrégation du phytoplancton." Pau, 2004. http://www.theses.fr/2004PAUU3018.

Повний текст джерела
Анотація:
Le rôle des agrégations du phytoplancton dans les chaînes alimentaires marines et dans les processus de transport vertical du carbone est bien reconnu de nos jours. Beaucoup de travaux récents ont montré l'existence et l'importance de la formation de ces grandes particules mais les mécanismes et les dynamiques qui gouvernent leur formation ne sont pas encore clairs. Cette thèse est une contribution dans cette direction. Il s'agit d'une part d'élaborer un modèle mathématique qui décrit la formation d'agrégations du phytoplancton en prenant en compte les mécanismes biologiques à petite échelle. Ensuite, il faut faire l'étude mathématique du modèle. Une modélisation informatique et des simulations permettant de visualiser le phénomène et de compléter l'étude mathématique sont aussi envisagées
The role of aggregates in marine food webs and vertical transport processes is now well recognized. However the mechanisms by which aggregates form and the dynamics governing their formation are not well studied and remain at time unclear. Coagulation theory has more recently been applied to describe phytoplankton aggregates formation. However, studies at small scales of marine particles have emphasized biological mechanisms. In this work, we present the mathematical stochastic modeling of phytoplankton cell, that takes into account the biological mechanisms at small scales. We investigate the mathematical analysis of the model built and present some individual-based simulations to complete the mathematical study
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Anfosso, Jean-Pierre. "Contribution à une modélisation statistique du langage et à sa mise en oeuvre informatique." Nice, 2002. http://www.theses.fr/2002NICE2034.

Повний текст джерела
Анотація:
Automates finis, analyseurs lexicaux, choix d'une structure d'index ouvert, relevé des formes et des références en une seule passe, tri linéaire combinant tri par base et par dénombrement. Indexation et recherche de n-grammes, méthode de Rabin-Karp. Problèmes algébriques posés par des textes naturels (déchiffrabilité, charades). Utilisation de propriétés statistiques des textes pour la compression, le décryptement. Modélisation markovienne du langage et théorie des graphes. Simulation de chaînes. Estimateurs, ajustement d'un modèle sur une séquence de texte, test d'adéquation et choix d'un ensemble d'états. Transposition de méthodes utilisées par la génomique, pour attribuer une séquence textuelle à un type d'écriture (corpus, auteur), et pour découper un corpus en zones homogènes (recherche d'interpolation, de scripteurs différents). Implantation de modèles de Markov cachés, adaptation des algorithmes (Viterbi, forward, backward, Baum-Welch) à des modèles M1-Mk
Indexes dynamic building for texts, linear sorting and n-grams retrieval. Using algebraic and statistical properties, for compression, deciphering, etc. Language Markov modelling and graphical representation. Estimation, testing hypothesis, homogeneity problem. Applying biological sequence analysis methods to discrimination between text sequences from different corpora, and to decode the underlying structure of an inhomogeneous text (e. G. With interpolations or written by several authors). Implementation of an hidden Markov model adapting Viterbi, forward, backward and Baum-Welch algorithms, to higher order variety
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Monsifrot, Antoine. "Utilisation du raisonnement à partir de cas et de l'apprentissage pour l'optimisation de code." Rennes 1, 2002. http://www.theses.fr/2002REN10107.

Повний текст джерела
Анотація:
Des transformations de code permettent de réduire le temps d'exécution des programmes en améliorant l'exploitation des processeurs. Pour déterminer les transformations à appliquer, les outils automatiques reposent sur des heuristisques complexes à produire car les transformations peuvent avoir des effets de bord et interagissent entre elles. D'autre part, toutes les optimisations ne sont pas à la portée de ces outils. Ainsi, la production de code efficace se termine encore aujourd'hui par une phase de "tuning". Nous proposons, au travers de cette thèse l'utilisation de techniques provenant de l'intelligence artificielle : le raisonnement à partir de cas pour détecter les opportunités de transformations et les techniques d'apprentissage pour produire les heuristiques de compilateur. La mise en oeuvre du prototype CAHT (Computer Aided Hand Tuning) nous a permi de valider notre approche dans les domaines des applications numériques et des applications enfouies.
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Venel, Juliette. "Modélisation mathématique et numérique de mouvements de foule." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00346035.

Повний текст джерела
Анотація:
Nous nous intéressons à la modélisation des mouvements de foule causés par des situations d'évacuation d'urgence. L'objectif de cette thèse est de proposer un modèle mathématique et une méthode numérique de gestion des contacts, afin de traiter les interactions locales entre les personnes pour finalement mieux rendre compte de la dynamique globale du trafic piétonnier. Nous proposons un modèle microscopique de mouvements de foule reposant sur deux principes. D'une part, chaque personne a une vitesse souhaitée, celle qu'elle aurait en l'absence des autres. D'autre part, la vitesse réelle des individus prend en compte une certaine contrainte d'encombrement maximal. En précisant le lien entre ces deux vitesses, le problème d'évolution prend la forme d'une inclusion différentielle du premier ordre. Son caractère bien posé est démontré en utilisant des résultats sur les processus de rafle par des ensembles uniformément prox-réguliers. Ensuite, nous présentons un schéma numérique et démontrons sa convergence. Pour calculer une vitesse souhaitée particulière (celle dirigée par le plus court chemin évitant les obstacles), nous présentons une programmation orientée objet ayant pour but de simuler l'évacuation d'une structure de plusieurs étages présentant une géométrie quelconque. Nous finissons avec d'autres choix de vitesse souhaitée (par exemple, en ajoutant des stratégies individuelles) et présentons les résultats numériques associés. Ces simulations numériques permettent de retrouver certains phénomènes observés lors de déplacements piétonniers.
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Sandri, Sandra. "La combinaison de l'information incertaine et ses aspects algorithmiques." Toulouse 3, 1991. http://www.theses.fr/1991TOU30199.

Повний текст джерела
Анотація:
Cette these est le resultat d'une etude de plusieurs aspects lies directement ou indirectement a la fusion de l'information imparfaite. Cette etude a comporte une evaluation critique, -d'un point de vue theorique, aussi bien que d'un point de vue pratique-, des principaux modeles utilises dans le cadre de la manipulation de l'information imparfaite. Dans la premiere partie de cette these nous etudions des aspects theoriques liees a la manipulation de l'information imparfaite selon trois axes: i) l'acquisition de l'information et sa transformation dans un modele formel; ii) l'evaluation de l'information imparfaite fournie par une source et l'evaluation de la source elle-meme; iii) la combinaison de l'information. Cette etude se porte sur les trois modeles d'incertitude les plus connus dans la litterature: la theorie des probabilites, la theorie des possibilites et la theorie des croyances. Dans une deuxieme partie nous presentons deux applications reelles derivees de cette etude. La premiere application se porte sur la conception d'une interface intelligente pour la fusion d'informations provenant des sources heterogenes. Elle se base sur une strategie de combinaisons qui offre a un analyste une methode adequate de combinaison selon se connaissance de la fiabilite (imparfaite) des sources. La deuxieme application concerne un systeme d'evaluation et de combinaison des opinions d'experts dans le cadre de la theorie des possibilites. Avec cette application nous montrons que le modele possibiliste presente les avantages par rapport au modele probabiliste habituellement utilise pour ce type de probleme. Dans la troisieme partie nous etudions le probleme de la propagation de l'information imparfaite dans un graphe des dependances, pour diminuer le cout algorithmique de ce processus, tout en garantissant la coherence des resultats. Nous proposons une strategie d'elagage du graphe qui peut etre utilisee par une grande classe des modeles d'incertitude, et en particulier pour les trois modeles cites ci-dessus. Finalement, encore dans la troisieme partie, nous abordons le probleme de la representation informatique de l'information imparfaite, en vue d'implantations efficaces des idees developpes ici. Dans cette partie nous introduisons une structure d'arbre qui diminue le cout algorithmique de la combinaison de l'information modelisee par la theorie des croyances dans certains cas specifiques
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Benferhat, Salem. "Raisonnement non-monotone et traitement de l'inconsistance en logique possibiliste." Toulouse 3, 1994. http://www.theses.fr/1994TOU30015.

Повний текст джерела
Анотація:
Les travaux de la thèse se situent dans le domaine de l'Intelligence Artificielle, et portent plus précisément sur l'apport de la logique possibiliste à la représentation et au traitement des connaissances génériques sujettes à exception et de bases de connaissances inconsistantes. La logique possibiliste est une logique de l'incertain, proposée par Dubois et Prade depuis 1987 et également développée par Lang, afin de traiter commodément le caractère incertain de l'information. Elle manipule des formules de la logique classique valuées à l'aide de deux mesures à valeur dans l'intervalle [0,1] appelées mesure de possibilité et de nécessité. Le degré de possibilité d'une formule indique à quel point cette formule est compatible (consistante) avec la base de connaissances, et le degré de nécessité d'une formule indique à quel point la formule peut être inférée à partir de la base. Après avoir étudié les propriétés de la relation d'inférence possibiliste, un théorème de représentation pour les relations d'inférence, obéissant à un ensemble de postulats remarquables proposés par Lehmann, est donné. Ensuite, on développe une extension de la logique possibiliste en ajoutant au langage des formules conditionnelles de la forme p>q pour exprimer que la certitude de p est strictement supérieure à celle de q. Cette extension permet de coder en logique possibiliste des règles par défaut, c'est-à-dire des informations de la forme "généralement, à partir de α on déduit β". Le codage ainsi obtenu est comparé à plusieurs systèmes non monotones comme le système Z de Pearl ou la fermeture rationnelle de Lehmann. Finalement, de nouvelles propositions ont été faites pour surmonter les limites du système Z et offrir un traitement simple et efficace du raisonnement sur des défauts. Par ailleurs, plusieurs approches sont étudiées pour raisonner à partir des bases de connaissances inconsistantes. En particulier, une nouvelle relation d'inférence, dite argumentée, est étudiée. Cette relation d'inférence est basée sur la notion d'arguments ou une conclusion issue d'une base de connaissances inconsistante sera considérée comme plausible s'il existe dans cette base un argument cohérent qui soutient cette conclusion et s'il n'existe aucun argument qui soutient son contraire.
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Canals, Didier. "Ordonnancement d'atelier par simulation : étude des règles de priorité et aide au lancement." Toulouse, ENSAE, 1986. http://www.theses.fr/1986ESAE0013.

Повний текст джерела
Анотація:
Après avoir fait un état de l'art en gestion de production assistée par ordinateur (gpao) et une étude critique des principaux progiciels existants, on propose une nouvelle approche qui permet de découpler l'optimisation des temps de cycles et des encours de celle du retard, le but étant de produire juste à temps. D'autre part on présente une typologie des ateliers d'usinage et une étude de l'adéquation des règles de conduite aux types d'atelier et de production habituellement rencontrés.
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Escoffier, Bruno. "Approximation polynomiale de problèmes d’optimisation : aspects structurels et opérationnels." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090065.

Повний текст джерела
Анотація:
Cette thèse s'inscrit dans le domaine de l'étude des problèmes de NPO (problèmes d'optimisation dont la version décision est dans NP), et plus particulièrement dans la théorie de l'approximation polynomiale de ces problèmes. Il s'agit d'étudier la possibilité de fournir efficacement des solutions réalisables ayant une certaine qualité, qualité que nous mesurons tantôt par le rapport standard, tantôt par le rapport différentiel. Deux aspects principaux se dégagent dans notre travail : - La structure des classes d'approximation : il s'agit de structurer les classes classiques par l'introduction de réductions qui préservent certains types d'approximation et qui induisent des notions de complétude. - L'approximation polynomiale de problèmes de NPO : nous avons étudié les problèmes de la coloration pondérée, de la coloration probabiliste et de la couverture d'ensemble quadratique selon le rapport standard, ainsi que des problèmes de satisfiabilité selon le rapport différentiel
This thesis deals with the study of NPO-problems (optimization problems the decision version of which is in NP), and more precisely the theory of worst case polynomial approximation. In this problematic, we aim at determining how it is possible to produce efficiently a feasible solution achieving a certain quality, quality measured either by the standard ratio or by the differential ratio. Our work can be divided into two parts : - The structure of approximation classes, structure which emerges from the introduction of approximation preserving reductions which induce notions of completeness. - Polynomial approximation of some NPO problems: we studied approximation properties of the weighted coloring problem, the probabilistic coloring problem and the quadratic set covering problem using the standard ratio, and satisfiability problems using the differential ratio
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Lombardi, Carlos Alberto. "Espaces de réductions dans les systèmes de réécriture non-séquentiels et les systèmes de réécriture infinitaires." Paris 7, 2014. http://www.theses.fr/2014PA077168.

Повний текст джерела
Анотація:
On aborde dans cette thèse certaines propriétés formelles de systèmes de réécriture qui concernent leurs espaces des dérivations. Les calculs choisis présentent des caractéristiques particulières qui font l'étude des propriétés choisies des défis intéressants. Les contributions les plus importantes de ce travail sont: (1) nous définons une stratégie de réduction multiradicaux pour le Pure Pattern Calculus, un calcul d'ordre supérieur non-séquentiel, et nous prouvons que cette stratégie est normalisante; (2) nous proposons une manière de formaliser le concept de réduction standard pour I Linear Substitution Calculus, un calcul avec substitutions explicites agissent à la distance dont les réductions sont considérés modulo une rélation d'équivalence dans l'ensemble des termes, et nous aboutissons à des résultats d'existence et unicité des reductions standards pour cette formalisation; et (3)nous donnons une charactérisation de l'équivalence entre réductions pour les systèmes de réécriture des termes infinitaires de premier ordre linéares à gauche, et nous nous servons de cette charactérisation pour développer une preuve d'une version renforcée du résultat de compression des réductions infinitaires. Un trait commun a ces trois sujets est l'utilisation de formalismes génériques de systèmes de réécriture. L'étude sur le Pure Pattern Calculus et celui concernant le Linear Substitution Calculus reposent sur le concept de Système Abstrait de Réécriture De son côté, pour le travail sur la réécriture infinitaire, on se sert d'un modèle fondé sur la notion de proof term. Des extensions à ces formalismes génériques sont des contributions additionnelles de cette thèse
We study different aspects related to the reduction spaces of diverse rewriting systems. These systems include features which make the study of their reduction spaces a far from trivial task. The main contributions of this thesis are: (1)we define a multistep reduction strategy for the Pure Pattern Calculus, a non-sequential higher-order term rewriting system, and we prove that the defined strategy is normalising;(2)we propose a formalisation of the concept of standard reduction for the Linear Substitution Calculus, a calculus of explicit substitutions whose reductions are considered modulo an equivaience relation defined on the set of terms, and we obtain a result of uniqueness of standard reductions for this formalisation; and finally, (3) we characterise the equivalence of reductions for the infinitary, first-order, left-linear term rewriting systems, and we use this characterisation to develop an alternative proof of the compression result. We remark that we use generic models of rewriting systems: a version of the notion of Abstract Rewriting Systems is used for the study of the Pure Pattern Calculus and the Linear Substitution Calculus, while a model based on the concept of proof terms is used for the study of infinitary rewriting. We include extensions of both used generic models; these extensions can be considered as additional contributions of this thesis
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Chevalier, Yannick. "Résolution de problèmes d'accessiblité pour la compilation et la validation de protocoles cryptographiques." Nancy 1, 2003. http://www.theses.fr/2003NAN10181.

Повний текст джерела
Анотація:
La généralisation de transactions commerciales et des services sur des supports non-sécurisés a rendu nécessaire l'utilisation de protocoles permettant de garantir aux participants la confidentialité des données aussi bien que l'identification des correspondants. De nombreux protocoles proposés se sont révélés incorrects. Leur importance économique a motivé l'introduction de méthodes formelle pour la détection d'erreurs. Dans cette thèse, nous nous intéressons aux problèmes liés à l'analyse automatique de ces protocoles. Nous donnons une sémantique opérationnelle aux spécifications de haut niveau habituellement utilisées, étendons le cadre standard de l'analyse pour prendre en compte les propriétés des opérateurs algébriques pour la recherche de failles et considérons le problème de la vérification de protocoles. Nous réduisons ces problèmes à des problèmes d'accessibilité pour des systèmes de transitions définis par des règles de réécriture sur des ensembles. Cette réduction permet de donner la complexité de ces problèmes, et est une première étape vers une résolution par des outils entièrement automatiques
Commercial transactions and services over insecure networks have lead to the use of security protocols. These protocols ought to provide both data confidentiality and participants authentication, but many of those proposed up to date have turned out to be flawed. Their economical importance has motivated the introduction of formal verification. In this dissertation, we investigate the problems raised by the automatic analysis of such protocols. We give an operationnal semantics to high-level protocol specifications, extend the standard Dolev-Yao framework to algebraic operators and finally consider the problem of protocol verification. We reduce these problems to reachability problems. This reduction is a first steptoward the implementation of an automatic analysis tool
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Lenoir, Arnaud. "Modèles et algorithmes pour la planification de production à moyen terme en environnement incertain." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2008. http://tel.archives-ouvertes.fr/tel-00731056.

Повний текст джерела
Анотація:
Nous nous intéressons dans cette thèse aux problèmes d'optimisation de systèmes de grande taille en environnement incertain et plus particulièrement à la résolution de leurs équivalents déterministes par des méthodes de décomposition de type proximal. L'application sous-jacente que nous avons à l'esprit est celle de la gestion optimale de la production électrique d'EDF soumise aux aléas climatique, de marche et de consommation. Nous mettons 'a plat les couplages naturels espace-temps- aléas liés à cette application et proposons deux nouveaux schémas de discrétisation pour le couplage des aléas, bas'es sur l'estimation non-paramétrique de espérance conditionnelle, qui constituent des alternatives à la construction d'arbres de scénarios. Nous nous intéressons ensuite aux méthodes de décomposition en travaillant sur un modèle général, celui de la minimisation d'une somme de deux fonctions convexes, la première séparable et l'autre couplante. D'une part, ce modèle simplifie nous exonéré de la technicité due à un choix particulier de cou- plage et de sous-système. D'autre part hypothèse de convexité permet de tirer parti de la théorie des opérateurs monotones et de l'identification des méthodes proximales comme des algorithmes de points fixes. Nous mettons l'accent sur les propriétés différentielles des opérateurs de réflexion généralisée dont on cherche un point fixe, qui permettent de borner la vitesse de convergence. Nous étudions ensuite deux familles d'algorithmes de décomposition-coordination issues des méthodes dites d'éclatement d'opérateurs, à savoir les méthodes Forward-Backward et de type Rachford. Nous suggérons quelques techniques d'accélération de la convergence des méthodes de type Rachford. Pour cela, nous analysons dans un premier temps la méthode d'un point de vue théorique, fournissant ainsi des explications à certaines observations numériques, avant de proposer des améliorations en réponse. Parmi elles, une mise a' jour automatique du facteur d'échelle permet de corriger son éventuel mauvais choix initial. La preuve de convergence de cette technique se voit facilitée grâce aux résultats de stabilité de certaines lois internes vis a' vis de la convergence graphique établis en amont. Nous soumettons aussi l'idée d'introduire des "sauts" dans la méthode lorsqu'elle est appliquée à des problèmes polyédraux, en fondant nos argument sur la géométrie formée par la suite des itérés. En dernier lieu, nous montrons qu'il est possible, en ajoutant un mécanisme de contrôle, de s'affranchir de la résolution de tous les sous-problèmes à chaque itération en préservant la convergence globale. L'intérêt pratique de ces suggestions est confirmé par des tests numériques sur le problème de gestion de production électrique.
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Hodique, Yann. "Sûreté et optimisation par les systèmes de types en contexte ouvert et contraint." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-15.pdf.

Повний текст джерела
Анотація:
La généralisation des équipements électroniques embarqués provoque des besoins croissants d'adaptabilité en ce qui concerne les systèmes logiciels qui doivent y être déployés. Par ailleurs, les faibles ressources dont les équipements disposent, ainsi que leur propension à se trouver en milieu non sécurisé, imposent des contraintes de performance et de fiabilité à ces mêmes systèmes. Le cadre de cette thèse est l'étude de la conception et de l'exploitation de systèmes de types afin d'adapter au mieux les systèmes logiciels à ces différentes contraintes. À travers la définition de systèmes de types adaptés, nous intervenons dans la chaîne de production logicielle de façon à faciliter le respect des contraintes spécifiques du domaine embarqué. Les contributions scientifiques de ce travail trouvent leur place dans deux périodes particulières du cycle de vie du logiciel. La première période est celle de la conception, durant laquelle nous proposons l'emploi d'un système de types présentant la propriété d'être suffisamment souple pour permettre l'expression de concepts de haut niveau sans crainte d'une dégradation de performance. La seconde période est celle du déploiement qui, par sa nature « définitive », nous permet d'avoir recours au calcul de types plus spécifiquement orientés vers l'interprétation spécialisée des programmes, à des fins d'optimisation notamment.
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Luquet, Philippe. "Horn renommage partiel et littéraux purs dans les formules CNF." Caen, 2000. http://www.theses.fr/2000CAEN2035.

Повний текст джерела
Анотація:
Dans la première partie nous formalisons l'idée qu'une conjonction de clauses S qui n'est pas Horn-renommable peut tout de même l'être partiellement. Pour toute formule S nous montrons qu'il existe un sous-ensemble B de variables de S, maximal et unique, tel que S soit Horn renommable relativement à B. Cet ensemble est appelé base de Horn de S. Le reste de S est obtenu à partir de S par suppression de toutes les clauses contenant au moins un littéral sur B. Nous montrons que si S est sans clause unitaire, alors S est satisfaisable si et seulement si le reste de S est satisfaisable. Nous montrons ensuite que ce processus de simplification peut être répété jusqu'à l'obtention d'une formule ayant une base de Horn vide ; on appelle reste itéré de S la formule obtenue en fin de compte. Nous définissons ensuite une nouvelle famille de classes polynomiales pour le probleme SAT. La notion de base de Horn permet en outre de caractériser simplement les formules q-Horn. Nous montrons que la base de Horn ainsi que le reste de S peuvent être calculés en temps linéaire, et que le reste itéré peut être obtenu en temps quadratique. Les algorithmes que nous décrivons s'appuient sur le graphe d'implication exprimant les contraintes du Horn-renommage. La deuxième partie est consacrée à l'étude des données SAT aléatoires, relativement aux littéraux purs. Nous avons tout d'abord réalisé une étude expérimentale sur des données 3-SAT aléatoires afin de détecter quelles formules contiennent des littéraux purs. Nous observons ainsi un phénomène de seuil. Nous prouvons ensuite analytiquement l'existence de ce seuil, en termes identiques pour les trois modèles probabilistes les plus couramment utilisés. Finalement, nous présentons des résultats expérimentaux surprenants qui montrent que les données 2-SAT aléatoires ont, pour la monotonie, des propriétés très particulières
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Abdali, Abdelkebir. "Systèmes experts et analyse de données industrielles." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0032.

Повний текст джерела
Анотація:
L'analyse du fonctionnement des Systèmes de Production Industrielle s'appuie sur des informations de natures diverses. Une bonne partie d'entre elles se présentant sous forme numérisée, on leur applique des méthodes d'analyse des données dont les résultats doivent être confrontés, puis interprétés à l'aide des autres connaissances. Notre travail s'insère dans le cadre de l'application des techniques de l'Intelligence Artificielle à la Statistique. Il vise en particulier à étudier la faisabilité et le développement d'un Système Expert Statistique dans le domaine des Systèmes de Production Industrielle. Nous avons élaboré ALADIN (Aide Logicielle pour l'Analyse de Données Industrielles), un système destiné à aider un utilisateur non-spécialiste à analyser des données recueillies sur des procédés industriels. L'architecture de ce système est flexible et allie aspect qualitatif (connaissances sur les procédés industriels et connaissances sur les méthodes statistiques et d'analyse de données) et aspect quantitatif (collection de programmes d'analyse). Pour l'instant, nous nous sommes limités aux problèmes d'Analyse en Composantes Principales. Outre l'aspect industriel, ALADIN présente l'avantage de fournir une assistance au niveau de chacun des nombreux maillons de la conduite d'une analyse de données et particulièrement en amont de l'analyse proprement dite i. E. Lors de la phase de prétraitement et de préparation des données: cette étape, toujours nécessaire compte tenu de la nature des mesures, est en effet généralement longue et fastidieuse
To analyses industrial process behavio, many kinds of information are needed. As tye ar mostly numerical, statistical and data analysis methods are well-suited to this activity. Their results must be interpreted with other knowledge about analysis prcess. Our work falls within the framework of the application of the techniques of the Artificial Intelligence to the Statistics. Its aim is to study the feasibility and the development of statistical expert systems in an industrial process field. The prototype ALADIN is a knowledge-base system designed to be an intelligent assistant to help a non-specialist user analyze data collected on industrial processes, written in Turbo-Prolong, it is coupled with the statistical package MODULAD. The architecture of this system is flexible and combing knowledge with general plants, the studied process and statistical methods. Its validation is performed on continuous manufacturing processes (cement and cast iron processes). At present time, we have limited to principal Components analysis problems
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Kervarc, Romain. "Systèmes de types purs et substitutions explicites." Lyon, École normale supérieure (sciences), 2007. http://www.theses.fr/2007ENSL0399.

Повний текст джерела
Анотація:
La théorie des types est actuellement considérée comme un outil fondamental en informatique, car elle établit un lien entre un calcul d'une part et un système logique d'autre part, ce qui permet d'exprimer des propriétés variées. Les systèmes de types purs sont un formalisme général dans lequel on peut définir un grand nombre de systèmes logiques. Cette thèse présente l'extension de ces systèmes dans deux cadres : un calcul à substitutions explicites et un calcul de séquents classique, et étudie les propriétés des systèmes obtenus, en particulier la correction des types, la reconstruction de dérivations, la réduction du sujet et la normalisation forte. Dans le premier cas, on introduit une nouvelle règle d'inférence de type inspirée de la synthèse de type et une nouvelle technique de démonstration avec un ordre sur les dérivations. Dans le second cas, on étudie en particulier la notion de bonne formation et l'on s'intéresse à des réorganisations perpétuelles de chemin de réduction
Type theory is currently considered as a fundamental tool in computer science, since it establishes a link between a calculus on the one hand and a logical system on the other hand, which allows to state various properties. Pure type systems are a very general formalism in terms of which many logical systems may be expressed. This thesis presents the extension of those systems in two frameworks: a calculus with explicit substitutions and a classical sequent calculus, and studies the properties of the obtained systems, especially type correction, derivation reconstruction, subject reduction, and strong normalisation. In the first case, a new typing rule is introduced, inspired by type inference considerations, and also a new proof method, relying on an order upon derivations. In the second case, the notion of well-formedness is more particularly studied, and one also considers perpetual reorganisations of reduction paths
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Ngnegueu, Triomphant. "Contribution à la modélisation mathématique et informatique des pertes supplémentaires dans les transformateurs de puissance de type cuirasse." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0121.

Повний текст джерела
Анотація:
Dans ce document, nous présentons quelques modèles de calcul de champ et de pertes supplémentaires dans les transformateurs de puissance. Des méthodes de calcul analytique et des méthodes de calcul numérique (Méthode des éléments finis en 2D et en 3D) sont utilisées. En nous plaçant dans l'approximation 2D, nous analysons les pertes de courants de Foucault et les pertes par courants de circulation dans les bobinages des transformateurs de puissance de type cuirassé, tout en prenant les transpositions en compte. Nous analysons ensuite les pertes induites dans le blindage du transformateur, en utilisant la méthode des éléments finis. Lorsque l'approximation 2D devient insuffisante, nous introduisons un coefficient de correction (coefficient de puissance), pour prendre en compte les effets de la troisième dimension. Nous présentons enfin quelques formulations pour le calcul du champ magnétostatique en trois dimensions, en utilisant un logiciel de calcul de champ par la méthode des éléments finis en trois dimensions (FLUX 3D), nous appliquons ces formulations au calcul du champ de fuite dans les coins des transformateurs. Aux différentes étapes, nous présentons des comparaisons entre des résultats de calculs et des résultats expérimentaux. Cette étude prend comme support, le transformateur de puissance de type cuirassé mais elle ne se généralise facilement à l'étude d'une grande classe de dispositifs électromagnétiques statiques (absence de mouvement) en basse fréquence
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Lenoir, Arnaud. "Modèles et algorithmes pour la planification de production à moyen terme en environnement incertain : application de méthodes de décomposition proximales : Arnaud Lenoir." Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21875.

Повний текст джерела
Анотація:
Cette thèse traite des problèmes d'optimisation de systèmes de grande taille en environnement incertain et plus particulièrement à la résolution de leurs équivalents déterministes par des méthodes de décomposition de type proximal. Deux nouveaux schémas de discrétisation des aléas basés sur l'estimation non-paramétrique de l'espérance conditionnelle sont proposés. Nous nous intéressons ensuite aux méthodes de décomposition en tirant parti de la théorie des opérateurs monotones. Nous mettons l'accent sur les propriétés différentielles des opérateurs de réflexion généralisée dont on cherche un point fixe, qui permettent de borner la vitesse de convergence. Nous suggérons quelques techniques d'accélération de la convergence des méthodes de type Rachford. Pour cela, nous analysons dans un premier temps la méthode d'un point de vue théorique avant de proposer des améliorations en réponse. Parmi elles, une mise à jour automatique du facteur d'échelle permet de corriger son éventuel mauvais choix initial. La preuve de convergence de cette technique se voit facilitée grâce aux résultats de stabilité de certaines lois internes vis-à-vis de la convergence graphique établis en amont. Nous soumettons aussi l'idée d'introduire des "sauts" dans la méthode lorsqu'elle est appliquée à des problèmes polyédraux. En dernier lieu, nous montrons qu'il est possible, en ajoutant un mécanisme de contrôle, de s'affranchir de la résolution de tous les sous-problèmes à chaque itération en préservant la convergence globale. L'intérêt pratique de ces suggestions est confirmé par des tests numériques sur le problème de gestion de production électrique
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Benaïm, Michel. "Dynamiques d'activation et dynamiques d'apprentissage des réseaux de neurones." Toulouse, ENSAE, 1992. http://www.theses.fr/1992ESAE0001.

Повний текст джерела
Анотація:
L'objet principal de cette these est d'etudier de facon rigoureuse un modele temps-reel de reseau de neurones. La description mathematique complete d'un modele temps-reel requiert la donnee de trois dynamiques: la dynamique d'activation ou dynamique des memoires a court terme qui determine l'evolution des etats d'activation des unites. La dynamique des poids ou dynamique des memoires a long terme qui determine l'evolution des vecteurs poids selon une regle d'apprentissage ou un mecanisme d'auto-organisation. Une dynamique exogene qui decrit l'evolution des stimuli exterieurs au reseau et que nous representerons par un processus aleatoire. Aussi l'evolution du reseau est donnee par un systeme dynamique non autonome couple, dans le produit cartesien de l'espace d'activation par l'espace des poids. Avec ce formalisme, nous etudions un modele de reseau qui peut etre vu comme une version temps-reel des cartes auto-organisatrices de kohonen et plus generalement d'une classe de reseaux utilises comme modules elementaires dans des architectures evoluees (art, neocognitron,. . . )
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Buchheit, Isabelle. "Un nouveau concept d'optimisation de la balistique d'irradiation en radiothérapie externe associant un système-expert et un algorithme mathématique." Toulouse 3, 1995. http://www.theses.fr/1995TOU30085.

Повний текст джерела
Анотація:
Un logiciel d'optimisation de la balistique d'irradiation en radiotherapie externe a ete developpe sur une station sun sparc. Ce logiciel associe cavcav, un systeme-expert, applique a l'irradiation des cancers du cavum, a un algorithme d'optimisation mathematique base sur la methode du gradient projete. Le systeme-expert propose une geometrie d'irradiation (angulation des faisceaux, limites de champs et positionnement des caches protecteurs) pour les trois phases du traitement, a partir de regles cliniques sur les atteintes tumorales et de regles physiques sur les faisceaux d'irradiation. La balistique proposee par le systeme-expert pour la phase 2 du traitement, est definie par une geometrie standard. Le programme d'optimisation mathematique adapte les coordonnees de l'isocentre, la ponderation et l'angulation des faisceaux de cette balistique, en tenant compte de la geometrie du volume cible et de la morphologie du patient. Leurs dimensions et la forme de leurs caches protecteurs sont ajustees parallelement, de maniere geometrique par simulation virtuelle. Le support de base de l'algorithme et les parametres de la simulation virtuelle peuvent etre modifies et ainsi, plusieurs solutions de balistiques d'irradiation sont generees. Un calcul de la repartition de dose dans differents plans et la determination des histogrammes dose-volume du volume cible permettent d'evaluer et de comparer les differentes balistiques trouvees. Finalement, cette technique d'optimisation offre la possibilite de conformer l'isodose de prescription au volume cible tridimensionnel du patient
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Sala, Lorenzo. "Modélisation mathématique et simulation de flux sanguins oculaires et leur interactions." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD021.

Повний текст джерела
Анотація:
Les neuropathies optiques comme le glaucome sont souvent des maladies tardives, évolutives et incurables. Malgré les progrès récents de la recherche clinique, de nombreuses questions relatives à l’étiologie de ces troubles et à leur physiopathologie restent ouvertes. De plus, les données sur les tissus postérieurs oculaires sont difficiles à estimer de façon non invasive et leur interprétation clinique demeure difficile en raison de l’interaction entre de multiples facteurs qui ne peuvent pas être facilement isolés. L’utilisation récente de modèles mathématiques pour des problèmes biomédicaux a permis de révéler des mécanismes complexes de la physiologie humaine. Dans ce contexte très enthousiasmant, notre contribution est consacrée à la conception d’un modèle mathématique et computationnel couplant l’hémodynamique et la biomécanique de l’oeil humain. Dans le cadre de cette thèse, nous avons mis au point un modèle spécifique au patient appelé simulateur virtuel de mathématiques oculaires (OMVS), capable de démêler les facteurs multi-échelles et multi-physiques dans un environnement accessible en utilisant des modèles mathématiques et des méthodes numériques avancés et innovants. De plus, le cadre proposé peut servir comme méthode complémentaire pour l’analyse et la visualisation des données pour la recherche clinique et expérimentale, et comme outil de formation pour la recherche pédagogique
Optic neuropathies such as glaucoma are often late-onset, progressive and incurable diseases. Despite the recent progress in clinical research, there are still numerous open questions regarding the etiology of these disorders and their pathophysiology. Furthermore, data on ocular posterior tissues are difficult to estimate noninvasively and their clinical interpretation remains challenging due to the interaction among multiple factors that are not easily isolated. The recent use of mathematical models applied to biomedical problems has helped unveiling complex mechanisms of the human physiology. In this very compelling context, our contribution is devoted to designing a mathematical and computational model coupling tissue perfusion and biomechanics within the human eye. In this thesis we have developed a patient-specific Ocular Mathematical Virtual Simulator (OMVS), which is able to disentangle multiscale and multiphysics factors in a accessible environment by employing advanced and innovative mathematical models and numerical methods. Moreover, the proposed framework may serve as a complementary method for data analysis and visualization for clinical and experimental research, and a training application for educational purposes
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Gibert-Doutre, Marie-Françoise. "Développement d'une approche pour le contrôle qualité à partir de l'analyse de données et de la morphologie mathématique." Compiègne, 1991. http://www.theses.fr/1991COMPD354.

Повний текст джерела
Анотація:
Après une étude systématique de l'état de l'art en matière de contrôle qualité dans le monde industriel, une méthodologie d'approche du contrôle qualité est proposée. Elle est composée de cinq phases : 1) établissement d'un système d'information du problème ; 2) recherche des ensembles homogènes et élimination des points aberrants par analyse de données ; 3) recherche des paramètres significatifs ; 4) classification des fonctionnements par reconnaissance de formes et/ou morphologie mathématique ; 5) mise en place du contrôle à l'aide de systèmes experts. La morphologie mathématique joue un rôle fondamental dans cette méthode puisqu'elle permet de traiter le cas de procédés indsutriels non modélisés, et pour lesquels on ne dispose pas d'ensemble d'apprentissage.
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Mela, Augusta. "Traitement automatique de la coordination par et." Paris 13, 1992. http://www.theses.fr/1992PA132040.

Повний текст джерела
Анотація:
L'analyse des constructions coordonnées a toujours constitué un centre d'intérêt aussi bien en linguistique théorique qu'en linguistique computationnelle. Le phénomène de la coordination par "et" est à la fois large et subtil. Une chaîne conjonctionnelle peut apparaître à droite de presque n'importe quel élément d'une chaîne, constituant ou non-constituant mais pas n'importe où. Cela pose à la fois le problème théorique de rendre compte précisément de l'ensemble des constructions autorisées et le problème calculatoire d'analyser ces constructions le plus efficacement possible. Dans cette thèse nous dressons un inventaire des difficultés occasionnées par ces constructions; nous présentons un état de l'art: précisement nous exposons comme différents formalismes syntaxiques, (tg, gpsg, lfg, ccg) abordent ces problèmes. Nous en tirons des conséquences concernant le choix d'un cadre formel adéquat pour la description de la coordination. Nous proposons un critère de coordination base sur le pouvoir constructeur de têtes lexicales. Nous prétendons que ce critère rend compte des phénomènes structurels que sont les coordinations de constituants de même catégorie et des coordinations de plus d'un constituant, et qu'il est pertinent mais insuffisant pour la coordination de catégories différentes et la coordination à trouée qui sont des phénomènes plus sémantiques.
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Sarzeaud, Olivier. "Contribution à l'étude et au développement de systèmes connexionnistes modulaires." Montpellier 2, 1993. http://www.theses.fr/1993MON20137.

Повний текст джерела
Анотація:
Le theme de la these est l'etude de la construction de modeles structurels de type reseaux de neurones pour la resolution de problemes, a l'aide de methodes automatiques heuristiques appelees regles d'apprentissage. Trois approches sont presentees. Lorsque le probleme a resoudre est simple, l'approche usuelle de construction de reseaux de neurones a temps implicite est valide. Lorsque le probleme comporte une dimension temporelle, une seconde approche s'avere necessaire. Celle-ci revele des proprietes nouvelles tres interessantes. En particulier, nous montrons que l'introduction de retards dans un reseau combinatoire permet d'effectuer un partage de ressources neuronales entre plusieurs reseaux au sein d'une meme structure. Enfin, lorsque le probleme est trop complexe pour etre resolu par un unique reseau, une approche hierarchisee doit etre envisagee. Nous montrons qu'un apprentissage par descentes de gradient locales se revele alors souvent plus avantageux qu'un apprentissage par descente de gradient globale
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Boneva, Iovka. "Expressivité, satisfiabilité et model checking d'une logique spatiale pour arbres non ordonnés." Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/dffac6b2-50d6-4e6d-9e4c-f8f5731c75e2.

Повний текст джерела
Анотація:
Les structures arborescentes (arbres) sont largement étudiées en informatique. Les données semi-structurées en sont un récent champ d'application : il est admis que les arbres ordonnés d'arité non bornée sont un bon modèle pour ces données. Dans certains cas il est intéressant de considérer des arbres non ordonnés. Des formalismes logiques (logiques) sont utilisés pour décrire des requêtes ou vérifier des propriétés sur des données semi-structurées. Il est important d'identifier des logiques représentant un compromis entre expressivité et praticabilité des algorithmes. Des critères pertinents sont la satisfiabilité et la complexité du model checking de la logique. Nous étudions une logique spatiale, LS, qui est à la base d'un langage de requètes pour données semi-structurées modélisées par des arbres non ordonnés. La logique LS est très expressive, incluant des opérateurs spatiaux pour décrire localement la structure d'un arbre, un opérateur de point fixe et permettant de quantifier sur des étiquettes et sur des arbres. Nous établissons des résultats sur la satisfiabilité et la complexité du model checking pour différents fragments de LS. Nous identifions deux fragments syntaxiques de LS à satisfiabilité décidable, montrons que ces fragments sont équivalents aux logiques MSO et PMSO respectivement, et introduisons des classes d'automates d'arbres qui capturent ces deux fragments. Nous montrons que la complexité du mode! checking de LS est dans PSPACE-complet. Si seule la taille de l'arbre est prise en compte, la complexité du model checking va de linéaire à PSP ACE-complet pour les différents fragments de la logique.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Croset, Patricia. "Décomposition dynamique et parallélisme multi-t^ache en analyse de structure." Toulouse, INPT, 1989. http://www.theses.fr/1989INPT033H.

Повний текст джерела
Анотація:
L'utilisation de calculateurs paralleles est aujourd'hui essentielle pour aborder le traitement de structures complexes de grande taille. Une etude du comportement informatique de la methode des sous-structures illustre l'interet des methodes de decomposition dans le cadre du calcul parallele. Une technique de sous-structuration dynamique specifique a une exploitation des calculs en environnement multi-processeurs a ete developpee. Des experimentations realisees sur un cray-2 mettent en evidence l'interaction profonde entre algorithme et machine cible et refletent l'influence des contraintes d'implantation qui penalisent fortement les performances. Diverses solutions susceptibles de reduire le caractere machine dependant de la strategie de mise en uvre et de minimiser l'impact negatif d'une execution en environnement multi-utilisateur ont ete proposees. Enfin, une etude theorique de l'adequation de ce type d'algorithmes aux caracteristiques des architectures a haut degre de parallelisme, illustree de divers exemples de mise en uvre, montre que cette classe de calculateurs pouvait exploiter efficacement le parallelisme intrinseque a ces methodes de decomposition
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Mattiussi, Claude. "Étude du recours informatique dans l'enseignement des mathématiques au collège." Phd thesis, Université Toulouse le Mirail - Toulouse II, 2013. http://tel.archives-ouvertes.fr/tel-01010959.

Повний текст джерела
Анотація:
Avec plus d'un tiers de professeurs pratiquants dans l'académie de Toulouse, les enquêtes ont constaté que, désormais, le recours informatique est un phénomène historique irréversible dans l'enseignement des mathématiques au collège dû : premièrement, à la généralisation des équipements (vidéoprojecteurs en classe) ; à l'engagement des professeurs qui a compensé les défaillances de l'institution dans leurs administrations ; deuxièmement, aux incitations et obligations institutionnelles des nouveaux programmes et des inspections ; troisièmement, à la disponibilité des logiciels gratuits qui ont suppléé les carences budgétaires ; à l'abondance des activités diffusées en ligne par les sites académiques, les IREM et l'association Sésamath ; quatrièmement, au rôle éminent de la formation continue volontaire qui a mobilisé 40 % des professeurs en douze ans ; cinquièmement, à l'enclenchement d'un cercle vertueux de reconnaissance de la valeur du recours informatique. L'étude pragmatique et théorique a révélé que les diverses activités informatiques d'enseignement-apprentissage (AIEA) pratiquées (apprenticiel, imagiciel, exerciseur, didacticiel, praticiel), en utilisant les apports spécifiques de l'informatique (concrétisation, expérimentation intensifiée, individualisation, interaction, motivation), ont apporté des situations instrumentées nouvelles de transposition interne offrant des champs conceptuels féconds qui sous l'effet de schèmes opératoires sont capables d'améliorer l'enseignement-apprentissage des notions et méthodes mathématiques. Un résultat qui dépend de la qualité de ses composantes praxéologiques (intégration, pertinence, performance, supériorité, scénario, mise en scène, durée) et du respect de règles pratiques qui déterminent conjointement les valeurs éducologiques de l'AIEA (propre, efficace et d'usage, professionnelle et institutionnelle) susceptibles de donner un meilleur rendement et une plus grande productivité à l'enseignement des mathématiques.
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Pierre, Denis. "Formulation et maintenance d'une théorie hypothétique par un agent apprenant." Montpellier 2, 1997. http://www.theses.fr/1997MON20082.

Повний текст джерела
Анотація:
Nous nous interessons a l'apprentissage a partir d'exemples et a la resolution de probleme dans un univers evolutif represente par une base de connaissances incomplete. Nous formalisons un cadre de representation de connaissances susceptible d'etre elabore et critique par des humains comme par des machines. Cette representation des connaissances est appelee theorie semi-empirique car cette forme de theorie n'est pas completement axiomatique. Nous donnons les elements d'une formalisation d'un systeme appele schema mental, modelisant l'augmentation de la connaissance durant le processus d'apprentissage, a partir des definitions generales d'un langage et d'un modele de gestion de croyances. Enfin, nous gerons l'aspect dynamique du processus d'acquisition de connaissances a travers des mecanismes de raisonnement, la production de preuves, et l'emergence d'un noyau stable de connaissances. Ce formalisme est applique a l'etude de l'evolution de zones geographiques d'apres plusieurs releves temporels.
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Tlig, Ghassen. "Programmation mathématique en tomographie discrète." Electronic Thesis or Diss., Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0886.

Повний текст джерела
Анотація:
La tomographie est un ensemble de techniques visant à reconstruirel’intérieur d’un objet sans toucher l’objet lui même comme dans le casd’un scanner. Les principes théoriques de la tomographie ont été énoncéspar Radon en 1917. On peut assimiler l’objet à reconstruire à une image,matrice, etc.Le problème de reconstruction tomographique consiste à estimer l’objet àpartir d’un ensemble de projections obtenues par mesures expérimentalesautour de l’objet à reconstruire. La tomographie discrète étudie le cas où lenombre de projections est limité et l’objet est défini de façon discrète. Leschamps d’applications de la tomographie discrète sont nombreux et variés.Citons par exemple les applications de type non destructif comme l’imageriemédicale. Il existe d’autres applications de la tomographie discrète, commeles problèmes d’emplois du temps.La tomographie discrète peut être considérée comme un problème d’optimisationcombinatoire car le domaine de reconstruction est discret et le nombrede projections est fini. La programmation mathématique en nombres entiersconstitue un outil pour traiter les problèmes d’optimisation combinatoire.L’objectif de cette thèse est d’étudier et d’utiliser les techniques d’optimisationcombinatoire pour résoudre les problèmes de tomographie
The tomographic imaging problem deals with reconstructing an objectfrom a data called a projections and collected by illuminating the objectfrom many different directions. A projection means the information derivedfrom the transmitted energies, when an object is illuminated from a particularangle. The solution to the problem of how to reconstruct an object fromits projections dates to 1917 by Radon. The tomographic reconstructingis applicable in many interesting contexts such as nondestructive testing,image processing, electron microscopy, data security, industrial tomographyand material sciences.Discete tomography (DT) deals with the reconstruction of discret objectfrom limited number of projections. The projections are the sums along fewangles of the object to be reconstruct. One of the main problems in DTis the reconstruction of binary matrices from two projections. In general,the reconstruction of binary matrices from a small number of projections isundetermined and the number of solutions can be very large. Moreover, theprojections data and the prior knowledge about the object to reconstructare not sufficient to determine a unique solution. So DT is usually reducedto an optimization problem to select the best solution in a certain sense.In this thesis, we deal with the tomographic reconstruction of binaryand colored images. In particular, research objectives are to derive thecombinatorial optimization techniques in discrete tomography problems
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Cervelle, Julien. "Complexité structurelle et algorithmique des pavages et des automates cellulaires." Aix-Marseille 1, 2002. https://hal.archives-ouvertes.fr/tel-01208375.

Повний текст джерела
Анотація:
Ce travail de thèse étudie la complexité des pavages et des automates cellulaires. L'analyse débute par des considérations structurelles : la quasipériodicité des pavages. A tout ensemble de tuiles qui pave le plan, on associe une fonction de quasipériodicité qui quantifie sa complexité. Tout d'abord, on montre que toute fonction "raisonnable" peut être capturée par un ensemble de tuiles et qu'il existe des pavages dont la fonction de quasipériodicité croît plus rapidement que n'importe quelle fonction récursive. Ensuite, on démontre un théorème de Rice pour les pavages : l'ensemble des ensembles de tuiles qui admettent les mêmes pavages qu'un autre fixé est indécidable et récursivement énumérable. Enfin, on transpose notre résultat dans le contexte des automates cellulaires. La seconde partie de notre travail concerne l'étude des automates cellulaires sous l'angle des systèmes dynamiques, et plus particulièrement des automates chaotiques. Les définitions usuelles classifiant les automates chaotiques ne sont pas satisfaisantes. Pour palier ce problème, on utilise deux nouvelles topologies. La première est dite de Besicovitch, et permet de supprimer la prédominance du motif central lors de l'étude de l'évolution de l'automate. On apporte plusieurs résultats, les premiers indiquant que notre nouvel espace de travail est acceptable à l'étude des automates cellulaires, en tant que systèmes dynamiques ; les seconds montrent que la notion de chaos subsiste, grâce à la définition de sensibilité aux conditions initiales, mais que les classes plus chaotiques sont vides. La seconde topologie employée est définie à l'aide de la complexité algorithmique. Le but de cette approche est d'avoir une distance qui traduit la facilité à calculer un élément à l'aide de l'autre. Nos résultats complètent les précédents. Ils attestent de manière formelle que les automates cellulaires ne peuvent pas modifier continûment l'information contenue dans une configuration, et surtout qu'ils sont incapables d'en créer
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Bessant, Brigitte. "Contributions aux techniques de révision de croyances en intelligence artificielle : aspects sémantiques et calculatoires." Artois, 1999. http://www.theses.fr/1999ARTO0402.

Повний текст джерела
Анотація:
Cette thèse se situe dans le cadre de la modélisation et de la simulation des raisonnements de sens commun, un des domaines majeurs de l'intelligence artificielle. Certaines formes de raisonnement de la vie quotidienne ont une propriété dite de non-monotonie. Les conclusions jusqu'ici inférées peuvent être remises en cause par l'ajout de nouvelles prémisses. Les logiques non monotones et la théorie du changement d'état cognitif forment la base de nos travaux de recherche. Dans la première partie, nous apportons notre contribution à l'étude des relations que l'on peut établir entre les inférences abductive et inductive par une caractérisation unificatrice. Nous dégageons quelques principales caractéristiques de ces deux formes de raisonnement. Dans la deuxième partie, nous étudions les différences qui existent entre les notions proches de révision et de mise a jour. Puis nous décrivons la révision itérée avec sémantique des distances qui constitue le cadre de notre approche de la révision au niveau sémantique. Nous caractérisons une fonction dite de degré de confiance et nous montrons un théorème de représentation de cette fonction par une distance. Ce travail poursuit un autre objectif qui vise à relier l'abduction et la révision avec sémantique des distances. Dans la troisième partie, nous adoptons un point de vue pratique vis-à-vis du problème de la révision itérée de croyances. Nous proposons un nouvel algorithme de révision efficace fondé sur des techniques de recherche locale. L'originalité de cette stratégie de révision se situe principalement au niveau de deux points qui sont la coopération d'une logique non monotone et d'une technique de révision de croyances ainsi que l'affaiblissement des croyances au lieu de leur destruction pour le rétablissement de la cohérence. L'efficacité de cet algorithme est très compétitive sur de grandes bases de croyances propositionnelles. Enfin, notre dernière contribution se situe dans une approche originale pour réviser des bases de croyances stratifiées soumises a un pré-ordre de préférence.
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Oliveira, Castro Herrero Pablo de. "Expression et optimisation des réorganisations de données dans du parallélisme de flots." Versailles-St Quentin en Yvelines, 2010. https://tel.archives-ouvertes.fr/tel-00580170.

Повний текст джерела
Анотація:
Pour permettre une plus grande capacité de calcul, les concepteurs de systèmes embarqués se tournent aujourd'hui vers les multicœurs. Malheureusement, ces systèmes sont difficiles à programmer. Un des problèmes durs est l'expression et l'optimisation des réorganisations de données. Dans cette thèse nous souhaitons proposer une chaîne de compilation qui: 1) utilise une syntaxe simple et haut-niveau pour exprimer le découpage et la réorganisation des données d'un programme parallèle; 2) garantisse une exécution déterministe du programme (critique dans le cadre des systèmes embarqués); 3) optimise et adapte les programmes aux contraintes de l'architecture. Pour répondre au point 1) nous proposons un langage haut-niveau, SLICES, qui décrit les réorganisation de données à travers des découpages multidimensionnels. Pour répondre au point 2) nous montrons qu'il est possible de compiler SLICES vers un langage de flots de données, SJD, qui s'inscrit dans le modèle Cyclostatic Data-Flow et donc admet une exécution déterministe. Pour répondre au point 3) nous définissons un ensemble de transformations qui préservent la sémantique des programmes SJD. Nous montrons qu'il existe un sous-ensemble de ces transformations qui génère un espace de programmes équivalents fini. Nous proposons une heuristique pour explorer cet espace de manière à choisir la variante la plus adaptée à notre architecture. Enfin nous évaluons cette méthode sur deux problèmes classiques: la réduction de la mémoire consommée et la réduction du coût des communications d'une application parallèle
Embedded systems designers are moving to multi-cores to increase the performance of their applications. Yet multi-core systems are difficult to program. One hard problem is expressing and optimizing data reorganizations. In this thesis we would like to propose a compilation chain that: 1) uses a simple high-level syntax to express the data reorganization in a parallel application; 2) ensures the deterministic execution of the program (critical in an embedded context); 3) optimizes and adapts the programs to the target's constraints. To address point 1) we propose a high-level language, SLICES, describing data reorganizations through multidimensional slicings. To address point 2) we show that it is possible to compile SLICES to a data-flow language, SJD, that is built upon the Cyclostatic Data-Flow formalism and therefore ensures determinism. To address point 3) we define a set of transformations that preserve the semantics of SJD programs. We show that a subset of these transformations generates a finite space of equivalent programs. We show that this space can be efficiently explored with an heuristic to select the program variant more fit to the target's constraints. Finally we evaluate this method on two classic problems: reducing memory and reducing communication costs in a parallel application
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Aline, Michel. "Evaluation et optimisation de performances en délai en technologie CMOS submicronique." Montpellier 2, 2001. http://www.theses.fr/2001MON20075.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Kenmei, Youta Bénédicte Ramelie. "Génération de programmes modèles pour la représentation et l'analyse de profils d'exécution : Le modèle périodique-linéaire." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/KENMEI_YOUTA_Benedicte_Ramelie_2006.pdf.

Повний текст джерела
Анотація:
Cette thèse présente une nouvelle technique de représentation et d'analyse de traces d'exécution de programmes. Après une étude de quelques méthodes générales d'analyse de données, l'accent est mis sur une nouvelle modélisation qui consiste à exprimer le comportement à l'exécution d'un programme par un autre programme. Le programme qui exprime le comportement est constitué d'une séquence de nids de boucles dans lesquelles les fonctions de niveau les plus internes expriment les valeurs de la trace d'entrée à partir des indices de boucles. Chaque séquence de nids de boucles correspond à une définition particulière d'une phase de programme, c'est à dire un ensemble d'intervalles dépendants les uns des autres, et ces intervalles sont identifiés grâce à une méthode d'interpolation périodique et linéaire. A partir de cette représentation, on montre qu'on est en mesure d'effectuer un assez grand nombre d'analyses et d'optimisations, en s'aidant notamment des outils comme le modèle polyédrique d'analyse statique. Au final, on vérifie bien que les informations obtenues suite à notre modélisation et à l'analyse statique des nids de boucles résultants sont plus précises, mieux adaptées, et plus exploitables qu'avec des méthodes générales d'analyse de données
This work presents a novel approach for program execution traces analysis and modeling. After a short introduction where it is shown that general methods for data analysis are not well-adapted to understand the behavior of programs, we focus on the design of our model, called the Periodic Linear Model. It is based on the representation of a program behavior by another program. The program that models the behavior of the first one is made of sequences of nested loops, in which the functions of the innermost level compute the values of the input program trace from the loop indices. Each sequence of nested loops correspond to a particular definition of a program phase, that is a set of linearly linked intervals; these intervals are identifed through our periodic linear interpolation method. From this representation, we show that many analysis ans optimizations are possible in conjunction with some static analysis methods like the polytope model, and also that the information resulting from our model are more precise, adapted and exploitable than those obtained by general data analysis methods
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Leroy, Bertrand. "Modèles déformables et modèles de déformation appliqués à la reconnaissance de visage." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090015.

Повний текст джерела
Анотація:
Cette thèse présente un ensemble de méthodes de traitement d'images s'intégrant dans un processus de reconnaissance de visage selon une approche géométrique. La localisation des éléments caractéristiques du visage est effectuée en utilisant des opérateurs de morphologie mathématique ainsi que l'information spatio-temporelle. Le modèle de contour actif propose pour l'extraction des éléments du visage est un modèle déformable paramétrique décrit dans une base de sinusoïdes. Deux méthodes d'identification sont présentées. La première est une extension de l'analyse en composantes principales à des données de type intervalles. Elle permet d'obtenir une représentation discriminante des visages tout en tenant compte de la mobilité de certaines caractéristiques du visage. La seconde est une méthode d'identification par mesure de déformation. Elle permet de mesurer la ressemblance entre deux visages en calculant le cout de la déformation devant être appliquée à une image de visage afin de la rendre superposable avec l'autre image
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії