To see the other types of publications on this topic, follow the link: Production automatique.

Dissertations / Theses on the topic 'Production automatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Production automatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Esnault, Noémie. "Production automatique d'interfaces graphiques 3D pour le Web." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00574772.

Full text
Abstract:
Le Web 3D atteint actuellement un nouveau stade de maturité grâce à la convergence de nouvelles technologies et l'émergence de nouveaux standards permettant l'exploitation du matériel graphique depuis les navigateurs Web. Malgré l'émergence de ces technologies, nous pouvons constater une faible pénétration des contenus 3D sur le Web, due entre autre au manque d'outils de création de haut niveau facilitant la production d'interfaces graphiques 3D pour le Web. Afin de palier ce manque, nous proposons un formalisme basé sur les technologies Web permettant de définir des métaphores complètes, attractives et efficientes pour la visualisation de grands ensembles de données, ainsi que la génération des interfaces graphiques 3D correspondantes. Ce formalisme doit être flexible en termes d'extensibilité, de modularité, de généricité en ce qui concerne les formats de données en entrée et en sortie du système, ainsi qu'en terme de gamme d'interfaces graphiques 3D pouvant être définies par le concepteur d'une interface Web. Le pipeline de création que nous proposons permet la description de métaphores de visualisation d'information prenant en compte à la fois la structuration des données (la façon dont l'utilisateur explore et accède aux données), et la présentation (la géométrie et la présentation des données) et les interactions utilisateur. Les interfaces générées peuvent être de complexité variable allant des interfaces graphiques 3D immersives à l'intérieur desquelles l'utilisateur final est représenté par un avatar et peut interagir avec d'autres utilisateurs, à des interfaces graphiques 3D très simples.
APA, Harvard, Vancouver, ISO, and other styles
2

Khalfaoui, Souhaiel. "Production automatique de modèles tridimensionnels par numérisation 3D." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00841916.

Full text
Abstract:
La numérisation 3D telle que pratiquée aujourd'hui repose essentiellement sur les connaissances de l'opérateur qui la réalise. La qualité des résultats reste très sensible à la procédure utilisée et par conséquent aux compétences de l'opérateur. Ainsi, la numérisation manuelle est très coûteuse en ressources humaines et matérielles et son résultat dépend fortement du niveau de technicité de l'opérateur. Les solutions de numérisation les plus avancées en milieu industriel sont basées sur une approche d'apprentissage nécessitant une adaptation manuelle pour chaque pièce. Ces systèmes sont donc semi-automatiques compte tenu de l'importance de la contribution humaine pour la planification des vues.Mon projet de thèse se focalise sur la définition d'un procédé de numérisation 3D automatique et intelligente. Ce procédé est présenté sous forme d'une séquence de processus qui sont la planification de vues, la planification de trajectoires, l'acquisition et les post-traitements des données acquises. L'originalité de notre démarche de numérisation est qu'elle est générique parce qu'elle n'est pas liée aux outils et méthodes utilisés pour la réalisation des tâches liées à chaque processus. Nous avons également développé trois méthodes de planification de vues pour la numérisation d'objets sans connaissance a priori de leurs formes. Ces méthodes garantissent une indépendance des résultats par rapport au savoir-faire de l'opérateur. L'originalité de ces approches est qu'elles sont applicables à tous types de scanners. Nous avons implanté ces méthodes sur une cellule de numérisation robotisée. Nos approches assurent une reconstruction progressive et intelligente d'un large panel d'objets de différentes classes de complexité en déplaçant efficacement le scanner
APA, Harvard, Vancouver, ISO, and other styles
3

Candille, Laurence. "Modèles de production et reconnaissance automatique de la parole." Avignon, 1996. http://www.theses.fr/1996AVIG0115.

Full text
Abstract:
Les travaux que nous présentons s'inscrivent dans le cadre de l'utilisation de modèles articulatoires pour la reconnaissance automatique de la parole. Une telle méthodologie, encore peu expérimentée, est toutefois potentiellement très intéressante pour représenter de manière concise les phénomènes de coarticulation des sons en parole continue. Nos recherches permettent de répondre partiellement aux difficiles problèmes soulevés par son implémentation. Nous avons choisi pour conduire nos expériences deux modèles de conception très différente : le modèle acoustique à régions distinctives (drm) et le modèle statistique de Maeda. La première phase importante de nos recherches a consisté à ajuster optimalement les configurations des modèles caractérisant les sons vocaliques du français de manière à minimiser les distances acoustiques aux phonèmes produits par un locuteur. La deuxième étape de nos travaux a permis de doter le modèle de Maeda d'une stratégie de contrôle de ses paramètres de commande. Enfin, nous avons utilisé les deux modèles pour une tâche d'identification de diphones vocaliques. Pour la recherche des configurations de référence optimalement adaptées au locuteur, plusieurs techniques ont été employées : modifications de la longueur des modèles, déplacement de l'axe de symétrie, transformation géometrique du modèle de Maeda en fonction de la structure du conduit vocal du locuteur (obtenue par radiographies). Ces modifications apportées à la composante statique des modèles ont permis d'obtenir des espaces acoustiques très proches entre les productions des modèles et les réalisations des locuteurs. A l'encontre du modeèe drm - qui dispose de plusieurs stratégies de commande des paramètres - le modèle de Maeda devait être doté d'un moyen de contrôler les mouvements des articulateurs pour passer d'une forme du conduit vocal à une autre. Pour cela nous avons effectué des mesures des trajectoires articulatoires pour un locuteur prononcant des logatomes vocaliques et quelques courtes phrases. L'acquisition de ces données a été réalisée au moyen d'un système électromagnétique (movetrack) permettant de suivre l'évolution de capteurs disposés sur les articulateurs (lèvres, langue, machoire). Les trajectoires naturelles sont modélisées au moyen d'un ensemble de fonctions sigmoïdales utilisées pour piloter dynamiquement le modèle. Cette représentation a le mérite de suivre précisement l'évolution des mouvements des articulateurs du locuteur et d'en quantifier correctement les caractéristiques principales. Par ailleurs cette étude a révélé d'intéressants résultats sur la désynchronisation des différents articulateurs lors de la production des séquences phonémiques. Les deux modèles, adaptés aux caractéristiques des locuteurs, montrent des capacités encourageantes pour la reconnaissance automatique de diphones vocaliques. Il conviendrait toutefois d'étendre ces expériences à l'identification de séquences de sons plus complexes incluant des consonnes
APA, Harvard, Vancouver, ISO, and other styles
4

Boitard, Laurent. "Contribution à l'intégration d'outils de génie automatique autour d'un système d'information unifié : prototypage d'un atelier intégré de génie automatique." Nancy 1, 1998. http://www.theses.fr/1998NAN10094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Nicolas, Lionel. "Efficient production of linguistic resources : the Victoria project." Nice, 2010. http://www.theses.fr/2010NICE4114.

Full text
Abstract:
L’efficacité de la grande majorité des outils utilisés pour le Traitement Automatique des Langues Naturelles (TALN) dépend directement ou indirectement des ressources linguistiques informatisées sur lesquels ils reposent. Pour des langues internationalement employées telles que le français ou l’espagnol, bien des ressources de référence sont encore dans un état précaire de développement. Pour d’autres langues ayant une communauté moins importante, ces ressources sont souvent inexistantes. Cette situation est la conséquence directe des ambigüités et des irrégularités des langues naturelles. Ces dernières rendent leur formalisation complexe, leur description manuelle fastidieuse et leur acquisition automatisée difficile. De nos jours, pour les aspects linguistiques ayant des formalismes de description consensuels, la principale limitation à la création des ressources linguistiques est le coût humain prohibitif induit par leur création et amélioration manuelle. Comme le formalise la loi de Zipf, améliorer la qualité et la couverture d’une ressource linguistique devient toujours plus laborieux lorsque l’on compara les efforts investis aux améliorations obtenues. La difficulté est donc moins de savoir comment décrire l’aspect linguistique d’une langue que d’en réaliser une description dont la couverture et la qualité répondent aux besoins d’applications performantes. Construire de telles ressources requiert donc des années d’efforts constants débouchant trop souvent sur des résultats d’une qualité relative et d’une visibilité limitée. L’acquisition et la correction rapides et efficaces de ressources linguistiques sont donc des problèmes peu résolus et d’une importante capitale pour les développement dans le domaine du TALN. Dans ce contexte, mes recherches ont pour but premier de faciliter la production de ressources linguistiques symboliques ayant trait à l’analyse syntaxique. Elles s’inscrivent dans un projet, appelé Victoria, dont l’objectif est de développer un ensemble de techniques, d’outils et de stratégies pour l’acquisition et la correction de règles morphologiques, de lexiques morphosyntaxiques et de grammaires lexicalisées. L’application pratique de ces développements nous a permis de créer et/ou d’améliorer des ressources linguistiques pour le français, l’espagnol et le galicien. Plus particulièrement, mes efforts se sont concentrés sur : des stratégies pratiques pour minimiser les efforts nécessaires à la création et l’amélioration de ressources linguistiques ; l’acquisition automatique des règles morphologiques d’une langue à morphologie concaténative ; la correction semi-automatique de lexiques morpho-syntaxiques à large couverture.
APA, Harvard, Vancouver, ISO, and other styles
6

Adam, Mickaël. "Génération automatique d'un observateur réalisé par simulation d'un système de production." Ecole centrale de Nantes, 2013. http://www.theses.fr/2013ECDN0001.

Full text
Abstract:
Dans un contexte concurrentiel avec des produits à durée de vie courte et un besoin de personnalisation croissant, la flexibilité des installations de production permet d’assurer une compétitivité à l’entreprise. Afin de gérer ces systèmes de production, des outils permettant auxpreneurs de décision de les aider ont fait petit à petit leurs apparitions. Ces outils, les systèmes d’aide à la décision (SAD) au niveau opérationnel, suivent la mêmelogique de complexité croissante du système pour lequel ils sontutilisés. Pour pouvoir remplir leur rôle, les SAD ont besoin de données venant du système de production afin de connaitre l’état de ce système et rendre une décision adéquate. À cause de la complexité des systèmes, l’information nécessaire aux SAD n’est plus aussi facilement identifiable au niveau du système. Ainsi un problème d’implémentation et d’intégration de ces SAD commence à apparaitre. Cardin a proposé l’utilisation de l’observateur afin de résoudre ce problème d’intégration des SAD, cependant cette solution souffre d’un problème de complexité de conception. Ces travaux tentent ainsi de proposer une approche afin de permettre de simplifier le processus de conception de l’observateur. Pour cela le premier chapitre présente le contexte de nos travaux et le pilotage d’un système de production. Dans cette optique, la structure du pilotage, les approches de décision ainsi que les SAD seront abordés. Le deuxième chapitre portera sur la problématique d’alimentation en données des SAD et formalisera les différentes approches rencontrées dans la littérature. Le troisième chapitre étudiera la bibliographie portant sur la génération automatique de simulation et de commande. Le quatrième chapitre portera sur notre proposition d’approche de génération automatique de l’observateur, dans un premier temps de manière générique puis adaptée au cas des systèmes transitiques. Enfin le dernier chapitre validera l’approche à travers son déroulement dans un cas concret d’utilisation
In a competitive environment with short-life productsand a growing need for customization, the level of flexibility added to production facilities is a key factor in ensuring business competitiveness. In order to manage such production systems, certain tools helping the decision making process have been gradually coming into sight. These tools, such as the Decision Support Systems (DSS) atthe operational level, follow the same logic of increasing complexity of the system for which they are used. To accomplish their role, DSS need data from the production system in order to know the state of the system and make a proper decision. Due to these increased complexity in today’s systems, the necessary information for the DSS is no longer as easily identified as before. Thus theproblems of implementation and integration of DSS begin to appear. Cardin has proposed the use of the observer to solve the integration problem of DSS, however, this solution suffers of a design complexity problem. These studies try therefore to propose an approach to simplify the process of designing the observer. For this reason, the first chapter presents the context control of production systems addressing control structures, approaches on decision making and DSS. The second chapter focuses on the issue of DSS’s data collection and formalizes different approaches found in literature. The third chapter will review the literature on automatic generation of both; control and simulation. The fourthchapter focuses on the proposed approach for the automatic generation of the observer, first in a generic manner then adapted to conveying systems. The last chapter validates the approach through its performance in an actual utilization case
APA, Harvard, Vancouver, ISO, and other styles
7

Gendreau, Dominique. "Génération automatique des procédures de pilotage d'une cellule flexible de production." Châtenay-Malabry, Ecole centrale de Paris, 1991. http://www.theses.fr/1991ECAP0207.

Full text
Abstract:
La performance des systèmes automatisés de production réside dans leur exploitation optimale, et en particulier dans le choix de nombreuses possibilités offertes pour l'exécution de la production. La conception de la conduite apparait donc comme une phase essentielle dans la conception de la commande de tels systèmes. Notre étude porte sur les cellules flexibles d'usinage pour lesquels nous envisageons une optimisation dans les cycles d'exécution, applicable en temps réel et avec des gains de temps espérés qui vont de la minute à plusieurs heures. Cette préoccupation est celle des entreprises de sous-traitance pour lesquelles les séries de pièces sont petites et les temps de réponse doivent être courts. D’autre part, le programme de production de la cellule est généralement élaboré à la conception du système et donc fige, ce qui ne permet pas de réagir de manière rapide et efficace aux perturbations qui surviennent pendant la production. Enfin, l'aspect générique de la conception de la commande de tels systèmes n'est jamais considéré. Le cas par cas est un état de fait hélas trop souvent constaté. C’est dans ce cadre, constitue par un besoin triple de flexibilité-réactivité-généricité, que se situent nos travaux, et nous nous intéressons plus précisément au module de pilotage, élément clé du système de conduite, puisque décideur de la meilleure stratégie d'exécution de la production applicable sur la cellule
APA, Harvard, Vancouver, ISO, and other styles
8

Durieux, Thomas. "From runtime failures to patches : study of patch generation in production." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I037/document.

Full text
Abstract:
Dans le cadre de la gestion du cycle de vie d’une application, la création de correctifs de bugs est une des tâches les plus importantes. Or celle-ci prend aussi le plus de temps, non seulement parce qu'il est difficile de créer un bon correctif, mais également parce qu'elle nécessite des interventions humaines. Un utilisateur doit en effet signaler le bug et le développeur doit le reproduire et le corriger, processus long et fastidieux. Il existe des techniques qui automatisent cette tâche mais elles exigent toujours l’intervention humaine à savoir qu'un développeur crée un test reproduisant le bug, exigence qui réduit considérablement leur applicabilité. Dans le cadre de cette thèse, nous proposons une nouvelle approche qui supprime cette exigence en créant de nouvelles techniques de génération de correctifs. Notre approche repose sur l'idée de rapprocher le plus possible la génération de correctifs de l'environnement de production. En effet c’est celui-ci qui contient toutes les données et toutes les interactions humaines qui mènent aux bugs. Au cours de cette thèse, nous présentons comment exploiter ces données pour détecter les bugs, comment générer les correctifs et comment les valider, le tout sans l'intervention d'un développeur. Nous évaluons notre approche sur sept jeux différents de correctifs réels provenant de projets open-sources en veillant, entre autres, à être particulièrement attentifs au nombre de correctifs générés, à leur validité ainsi qu’au temps requis pour leur génération. Ces évaluations démontrent l'applicabilité et la faisabilité de notre approche dans la génération de correctifs en production sans l'intervention d'un développeur
Patch creation is one of the most important actions in the life cycle of an application. Creating patches is a really time-consuming task. Not only because it is difficult to create a good and valid patch, but also because it requires the intervention of humans. Indeed, a user must report the bug and a developer must reproduce it and fix it, which takes a lot of time. To address this problem, techniques that automate this task have been created but those techniques still require a developer to create a test that reproduces the bug. This requirement drastically reduces the applicability of the approach since it still relies on the human. This thesis proposes new patch generation techniques that remove the human intervention for the generation of patches. Our idea is to put as close as possible the generation of patches to the production environment. We adopt this approach because the production environment contains all the data and human interactions that lead to the bug. During this thesis, we present how to exploit this data to detect bugs, generate and validate patches without the intervention of developers. We evaluate this approach on seven different benchmarks of real bugs collected from open-source projects. During the evaluation, we are particularly attentive to the number of generated patches, the correctness and the readability of the generated patches and the time required for generating them. Our evaluation shows the applicability and feasibility of our approach to generate patches in the production environment without the intervention of a developer
APA, Harvard, Vancouver, ISO, and other styles
9

Temani, Moncef. "Contribution à la modélisation des processus d'assemblage : élaboration automatique des gammes." Lyon 1, 1985. http://www.theses.fr/1985LYO19003.

Full text
Abstract:
Nous nous proposons de décrire un système d’élaboration automatique de gammes. Le système repose sur la définition d’une base de données permettant de décrire globalement le processus de fabrication, et de conditionner la réalisation des opérations ainsi que le choix des moyens en fonction des spécifiques de la variante à réaliser. Ce système pern1et d’élaborer automatiquement la gamme de montage d’une variante spécifique à réaliser. - de la description du processus de fabrication mémorisé dans la structure de données, - de la définition de la nomenclature élaborée par le bureau d’étude pour la nouvelle variante considérée, de la définition des traitements spécifiques associés à ce nouveau produit.
APA, Harvard, Vancouver, ISO, and other styles
10

Mathieu, Bruno. "Modèles de production de parole et reconnaissance à partir d'automates." Nancy 1, 1999. http://www.theses.fr/1999NAN10300.

Full text
Abstract:
L'objet de cette thèse est l'étude de la reconnaissance automatique de parole. Ce document débute avec la description des traitements acoustiques les plus répandus en vue de reconnaître la parole. Nous décrivons ensuite les diverses architectures qui ont été utilisées : comparaison dynamique de formes acoustiques, systèmes experts, réseaux neuro-mimétiques et modèles de Markov. Puis ce document se divise en deux parties. Dans une première expérience, nous nous sommes intéressés à la reconnaissance de mots. Pour cela, nous utilisons des automates qui modélisent le vocabulaire. Celui-ci comporte les dix chiffres anglo-saxons, dont deux prononciations différentes pour le zéro. Le corpus de parole TiDigits a été utilisé par d'autres laboratoires ce qui nous permet de comparer nos résultats. La première étape est consacrée à la reconnaissance de mots isolés. Puis nous présentons une méthode de segmentation de séquences de chiffres. La fin de ce chapitre est consacrée à la reconnaissance de mots enchaînés et à une discussion sur les mérites et les faiblesses de notre approche. La deuxième partie traite de l'utilisation d'un modèle de production qui pourrait être utilisé pour le reconnaissance de la parole. Nous commençons par présenter les équations acoustiques régissant l'écoulement de l'air dans le conduit vocal et divers modèles articulatoires. Ensuite nous justifions le choix du modèle articulatoire de Maeda. Nous décrivons comment nous avons adapté le modèle à un locuteur masculin. Puis nous présentons la méthode variationnelle utilisée pour retrouver les trajectoires des articulateurs en fonction de la parole prononcée. Une dernière section présente les logiciels réalisés. En conclusion, nous résumons les résultats obtenus et donnons quelques perspectives en vue de reconnaître la parole continue quel que soit le locuteur
The framework of this thesis is speaker-independent automatic speech recognition. This document begins with a short survey of speech signal processing applied to speech recognition. Then, we describe several common architectures: dynamic time warping of acoustic shapes, artificial intelligence, neural networks and hidden Markov models. This document is made of two main parts. The first part is devoted to the recognition of words. We are using finite state automata for modeling the eleven American spoken digits. As the speech database TiDigits has been used by other teams we can compare our results against thoose obtained with other approaches. The first step is concerned with isolated word recognition. Then, we describe how sentences of the database have been segmented. Last sections of this part describe continuous speech recognition of word sequences, as well as a discussion about strong and weak points of our approach. The second part treats of the use of production models for speech recognition. We begin with a description of the acoustic equations which drive the air flow inside the vocal tract and we present several articulatory models. Then, we justify the choice of Maeda's model. We describe the adaptation of this model to a male speaker. Next, we describe the variational method used for recovering articulatory trajectories from the speech. Finally, the software we built, is described. In the conclusion, we give the results obtained and we exhibit sorne perspectives for future work towards a better speaker indepedent continuous speech recognition system
APA, Harvard, Vancouver, ISO, and other styles
11

Nadif, Abdellah. "Contribution à la classification automatique de données de production en technologie de groupe." Metz, 1987. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1987/Nadif.Abdellah.SMZ8716.pdf.

Full text
Abstract:
La technologie de groupe se définit comme un concept d'analyse et un outil de rationalisation de la production. Le système de production est considéré comme un processus complexe tenant compte de très nombreuses variables de natures diverses, prenant des valeurs très différentes et interagissant de manière multiples. L'observation de ce système sur un horizon déterminé oblige à prendre en compte un ensemble important de données, dont la structuration dépasse les possibilités humaines. La technologie de groupe consiste à regrouper les données techniques et économiques en familles homogènes (classification) afin d'optimiser les flux de matières et faciliter la mise au point de solutions utilisant le savoir-faire de l'entreprise en tirant profit de l'analogie au niveau des formes, des dimensions, des devis,. . . Et des processus de fabrication. L'utilisation des systèmes de classification actuellement existants en technologie de groupe n'est pas satisfaisante. Elle nécessite beaucoup de temps et de clairvoyance de l'utilisateur, sans pour autant garantir un résultat objectif. En dehors de ces systèmes, l'analyse de données propose un grand nombre d'algorithmes, parmi lesquels l'industriel n'a pas les moyens de choisir. La présente étude tente de clarifier cette situation et propose une méthodologie dans le but de permettre une utilisation rationnelle des méthodes d'analyse des données. Cette méthodologie a donné lieu à l'élaboration du logiciel CLAUDIA (classification et classement automatique de données industrielles analytiques). Une application industrielle de ce logiciel à des données de production dans le domaine de l'industrie mécanique a été développée. Des familles de pièces satisfaisantes ont ainsi pu être déterminées à l'aide du logiciel CLAUDIA. Les principales difficultés auxquelles se heurtaient les systèmes de classification traditionnels ont pu être aplanies
Group technology can be defined as a concept of analysis a tool for rationalizing production. The production system is considered as a complex process, depending on numerous variables of various nature, taking very different values and interacting on multiple ways. For the observation of this system on a given horizon, it is necessary to take into account a large set of data, the arrangement of which is beyond human possibilities. Group technology consists in clustering technical and economical data into homogenous families, in order to optimize the flow of materials and to develop solutions using the know-haw of companies and using analogies relative to shapes, dimensions, estimates,. . . , and manufacturing processes. Clustering systems available nowadays in group technology are not satisfactory, as they request much time and perspicacity of the users, without insuring an objective result of analysis. Beside these systems, data analysis proposes numerious algorithms from which it is difficult for industrials to choose. The present study is an attempt to clarify this situation and proposes a methodology in order to attain to rational use of data analysis methods. This methodology has been applied to the development of a program called CLAUDIA (cluster analysis and automatic classing of industrial analytical data). An industrial application of this program to production data in the field of manufacturing has been developed. Satisfactory parts families have been obtained. The main difficulties against which traditional clustering systems came up have been smoothed away
APA, Harvard, Vancouver, ISO, and other styles
12

Nadif, Abdellah. "Contribution à la classification automatique de données de production en technologie de groupe." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37608319j.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Nadif, Abdellah Mutel Bernard. "CONTRIBUTION A LA CLASSIFICATION AUTOMATIQUE DE DONNEES DE PRODUCTION EN TECHNOLOGIE DE GROUPE /." [S.l.] : [s.n.], 1987. ftp://ftp.scd.univ-metz.fr/pub/Theses/1987/Nadif.Abdellah.SMZ8716.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Verdebout, Eric. "Pilotage algorithmique du changement de campagne de production dans une installation flexible d'assemblage automatique /." [S.l.] : [s.n.], 1992. http://library.epfl.ch/theses/?nr=1013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Panetto, Hervé. "Une contribution au Génie Automatique : le prototypage des machines et systèmes automatisés de production." Phd thesis, Université Henri Poincaré - Nancy I, 1991. http://tel.archives-ouvertes.fr/tel-00562037.

Full text
Abstract:
L'émergence du Génie Automatique est la conséquence de besoins en méthodes et outils adaptés aux métiers de l'Automatisation. La mise en œuvre des principes largement éprouvés par le Génie Logiciel tels que structuration, modularité, réutilisation, prototypage des applications contribue ainsi à l'évolution du Génie Automatique et à l'amélioration de la qualité de la conception. SPEX, outil de conception pour le Génie Automatique, offre ces possibilités mais nécessite, pour assurer une cohérence globale du processus de développement, de pouvoir s'intégrer, ou tout du moins s'interconnecter, avec des outils assurant les phases amont (spécification) et aval (codage et tests hors site) de l'application. A terme, la définition d'un Atelier de Génie Automatique devrait centraliser l'ensemble des informations dans une base de données ou d'objets commune à l'ensemble des outils pour permettre une mémorisation du savoir-faire entreprise.
APA, Harvard, Vancouver, ISO, and other styles
16

Canalda, Philippe. "Contribution a la production automatique de selecteurs d'instructions optimisants fondes sur la reecriture d'arbres." Orléans, 1997. http://www.theses.fr/1997ORLE2073.

Full text
Abstract:
La production automatique de generateur de code optimisant (gdco) est un des problemes majeurs dans les plates-formes de r&d des compilateurs modernes en raison de l'evolution rapide des processeurs et de l'introduction de parallelisme a grain fin entre instructions. Le systeme pagode produit un gdco a partir d'une specification appelee deriveur, du jeu d'instructions de mono-processeur cisc ou risc. Ce gdco a pour fonction de produire du code machine de bas niveau (lir) a partir d'un langage intermediaire (pmir) produit par le front-end du compilateur. Il se compose typiquement de trois taches independantes qui sont le selecteur d'instruction (si), l'allocateur de registres et le reordonnanceur de code. Nous nous sommes principalement interesses a la partie generation de si optimisant (sio) et efficace, a partir de regles de reecritures (r = g d, ou g , pmir et d , lir) issues de l'inversion des types de donnees abstraites du deriveur. A chaque type de regle d'un systeme hierarchique (i. E. Mode d'acces standard ou d'interfacage, instruction, etc. ), nous associons plusieurs couts (i. E. Nombre de cycles d'horloge, quantite d'espace memoire consomme,). Par application iteree de ces regles, nous constituons une derivation qui reecrit un terme t de profondeur finie en une sequence d'instructions assembleur. Actuellement un si est parfois efficace. Il ne calcule qu'une seule derivation. Il ne peut produire de solution optimale que pour une architecture sequentielle. Il n'existe donc pas de sio efficace. Notre but a ete d'etudier une approche rigoureuse a la production automatique de sio efficace, de la formaliser, de l'implanter dans pagode, d'integrer cette realisation a la plate-forme de compilation cosy dans le cadre du projet esprit compare, et enfin de valider l'ensemble. Nous avons d'abord re-formule des meta-regles de reecriture, qui preservent la semantique de t et qui sont independantes de toute instance de la specification du deriveur. Cela nous a revele qu'un parcours ascendant de t peut suffire a calculer toutes les derivations succes conduisant a produire du code assembleur correct. Nous avons concretise cela d'abord en realisant une fonction d'inversion ##1 de deriveur a (qui elabore, durant la phase statique de generation du gdco, un automate avec contraintes a(a) qui calcule en une passe ascendante toutes les derivations succes de t) et en realisant un sio (qui est fonde sur un algorithme de programmation dynamique guide par le a(a), par une analyse dynamique de cout et un critere de terminaison) qui produit, de maniere operationnelle, un ensemble de sequences de code correctes pour t. Nous avons ensuite formalise le systeme de reecriture srat une-passe correspondant. Nous avons identifie la propriete pup sur le srat a partir de laquelle nous avons deduit et justifie l'implantation du sio efficace recherche.
APA, Harvard, Vancouver, ISO, and other styles
17

Brely, Julien. "Commande multivariable de filière de production de fibres de verre." Grenoble INPG, 2003. http://www.theses.fr/2003INPG0146.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Thomas, Thierry. "Contribution à l'inspection automatique dans l'industrie textile." Toulouse, INPT, 1994. http://www.theses.fr/1994INPT087H.

Full text
Abstract:
Ce document presente une etude concernant l'automatisation de l'inspection des tissus realisee actuellement par un operateur humain dans le cadre du visitage. Le travail effectue concerne l'amelioration d'une methode de detection existante, basee sur la mise en evidence de la rupture de periodicite du tissu lors de l'apparition d'un defaut. Le chapitre i presente le principe du controle de qualite dans l'industrie textile, la description d'un systeme automatique de detection de defauts et un bref etat de l'art des systemes commercialises et a l'etude. Le chapitre ii developpe la notion de modele simplifie du tissu, et detaille les differentes etapes de la methode de detection (filtrage, decoupage de l'image en blocs et analyse geometriques). Le chapitre iii presente le systeme et le logiciel developpe, ainsi que les resultats experimentaux obtenus. Dans la conclusion, un bilan sur les resultats de la detection est expose et des perspectives pour une continuation de l'etude sont enoncees
APA, Harvard, Vancouver, ISO, and other styles
19

Dhaenens, Clarisse. "Optimisation d'un réseau de production et de distribution." Grenoble INPG, 1998. http://tel.archives-ouvertes.fr/tel-00004887.

Full text
Abstract:
Le travail présenté dans cette thèse, issu d'une problématique industrielle réelle, traite de la coordination entre la production et la distribution, dans un environnement multisite, multiproduit et multipériode. Après une présentation de la problématique industrielle, la première partie du mémoire s'intéresse essentiellement à l'organe de production et étudie des problèmes d'ordonnancement de machines parallèles. Dans cette partie, nous introduisons tout d'abord les problèmes d'ordonnancement, puis nous présentons un état de l'art concernant l'ordonnancement de machines parallèles. Enfin, nous proposons des méthodes de résolution pour des problèmes d'ordonnancement de machines parallèles non liées avec temps de changement dépendant de la séquence entre les produits. La deuxième partie du mémoire s'intéresse à une prise en compte plus globale de l'ensemble de la division industrielle et en particulier aux aspects multisites et aux problèmes liés à la coordination. Après une revue des travaux récents dans ce domaine, nous proposons une décomposition spatiale permettant de diviser le problème global en plusieurs problèmes plus petits et d'utiliser ainsi des méthodes plus performantes pour résoudre chacun d'entre eux. Enfin, le dernier chapitre détaille l'étude d'un problème réel et donne les performances et les limites du modèle proposé pour sa résolution
APA, Harvard, Vancouver, ISO, and other styles
20

Raggio, Ignacio. "Impact du mode d'utilisation d'un distributeur automatique de fourrages sur la production de lait fourrager." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape2/PQDD_0020/MQ49044.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Tixador, Jean-Marc. "Une contribution au génie automatique : La spécification exécutable des machines et systèmes automatisés de production." Nancy 1, 1989. http://www.theses.fr/1989NAN10369.

Full text
Abstract:
On décrit l'environnement SPEX pour la spécification exécutable des machines et systèmes automatisés de production, associant analyse descendante avec IDEF-0 et synthèse ascendante à partir de composants réutilisables, à l'aide du Grafcet
APA, Harvard, Vancouver, ISO, and other styles
22

Chevelu, Jonathan. "Production de paraphrases pour les systèmes vocaux humain-machine." Phd thesis, Université de Caen, 2011. http://tel.archives-ouvertes.fr/tel-00603750.

Full text
Abstract:
Cette thèse s'intéresse au lien entre ce qui est prononcé et le système vocal humaine-machine qui le prononce. Plutôt que de proposer des systèmes capables de tout vocaliser, nous envisageons le message comme une variable qui peut être modifiée. L'élément primordial d'un message est son sens. Il est donc possible de changer les mots utilisés si cela conserve le sens du message et améliore les systèmes vocaux. Cette modification s'appelle " production de paraphrases ". Dans cette thèse, nous proposons une étude de la production statistique de paraphrases pour les systèmes vocaux humain-machine. Pour ce faire, nous présentons la conception d'un système de référence et d'une plateforme d'évaluation en ligne. Nous mettons en lumière les différentes limites de l'approche classique et nous proposons un autre modèle fondé sur l'application de règles de transformation. Nous montrons qu'il est nécessaire de prendre en compte l'utilisation souhaitée des paraphrases lors de leur production et de leurs évaluations, pas uniquement du critère de conservation du sens. Enfin, nous proposons et étudions un nouvel algorithme pour produire des paraphrases, fondé sur l'échantillonnage de Monte- Carlo et l'apprentissage par renforcement. Cet algorithme permet de s'affranchir des contraintes habituelles de l'algorithme de Viterbi et donc de proposer librement de nouveaux modèles pour la paraphrase.
APA, Harvard, Vancouver, ISO, and other styles
23

Nogier, Jean-François. "Un système de production de langage fondé sur le modèles des graphes conceptuels." Paris 7, 1990. http://www.theses.fr/1990PA077157.

Full text
Abstract:
Cette thèse porte sur la conception d'une architecture de production de langage, c'est-à-dire la mise en oeuvre informatique de la traduction des idées en mots (comment le dire ?). L'accent a été mis sur deux aspects du problème : le choix des mots et la linéarisation en phrase des représentations syntaxiques intermédiaires. Le modèle de représentation des connaissances : les graphes conceptuels, est unique tout au long du processus. En effet, il permet de modéliser à la fois la structure manipulée par le programme (aux stades conceptuels et syntaxiques) et les connaissances déclaratives nécessaires (définitions sémantiques des mots, propriétés syntaxiques. . . ). Le système sélectionne simultanément les mots et les structures syntaxiques. Bénéficiant d'une même modélisation pour la signification d'un mot ou d'une phrase (le graphe conceptuel), un mot est choisi parce qu'il y a recouvrement en son graphe conceptuel (définition sémantique du mot) et le graphe conceptuel initial représentant la sémantique de la phrase à engendrer. Plusieurs mots peuvent être candidats. Le système peut revenir sur ses choix, sélectionner un des autres mots possibles et ainsi paraphraser (paraphrase sémantique) la phrase précédente. La génération de paraphrases se fait donc automatiquement par retour en arrière. Le graphe syntaxique obtenu après le choix des mots et une représentation syntaxique de la phrase à engendrer. Il est transmis au composant syntaxique. La linéarisation en phrase suit trois étapes : 1) Construction progressive de l'arbre syntaxique ; 2) Transformations de l'arbre ; 3) Déclinaison. Chaque étape de la linéarisation tient compte des propriétés syntaxiques des mots en présence. A ce stade, il est également possible d'obtenir des paraphrases par retour en arrière
APA, Harvard, Vancouver, ISO, and other styles
24

Mischler, Catherine. "Les concepts et les outils de la différentiation automatique appliqués aux simulateurs de procédés." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT039G.

Full text
Abstract:
La differentiation automatique (da), developpee dans le cadre du calcul formel, regroupe l'ensemble des methodes permettant d'obtenir un programme informatique calculant les derivees d'une fonction, elle-meme representee par un programme. L'enjeu de ces travaux est de definir avec precision les besoins en derivees, et de proposer des strategies de da, afin d'adapter un differentiateur automatique au domaine du genie des procedes. Les methodes mises en uvre dans les simulateurs commerciaux pour simuler (en regime permanent ou dynamique), concevoir ou optimiser un procede, et qui necessitent des derivees, ont ete recensees. Trois grandes classes de programmes ont ete degagees, respectivement associees aux proprietes thermodynamiques, aux operations unitaires (modules), et aux reseaux d'unites (sequence de modules). Sur la base du simulateur prosim, les algorithmes de da et, lorsque c'etait possible, le differentiateur odyssee ont ete testes sur des codes fortran, representatifs de chaque classe. Les tests montrent que, en thermodynamique, il faut differentier les proprietes scalaires en mode inverse et les proprietes vectorielles en mode direct. Des solutions pour pallier aux problemes specifiques des programmes des simulateurs sont proposees. Elles rendent les programmes generes par da aussi rapides que ceux generes a la main a partir des derivees analytiques. Notamment, une procedure pour le traitement des fonctions implicites et une representation adaptee des vecteurs et des matrices permettent la da des modules. De plus, pour l'utilisation de la methode de newton-raphson niveau procede, le jacobien est obtenu par propagation directe des derivees dans la sequence de modules. Les resultats prouvent qu'il est possible de developper un differentiateur adapte aux besoins du genie des procedes et qu'un tel outil devrait permettre d'une part un gain en travail humain pour la maintenance, le developpement et la qualite des codes, et d'autre part l'utilisation de methodes numeriques fiables et efficaces tant en simulation qu'en optimisation
APA, Harvard, Vancouver, ISO, and other styles
25

Simon, François. "Evaluation de la performabilité des systèmes de production et des systèmes temps réel par réseaux de Petri stochastiques géneralisé." Mulhouse, 1996. http://www.theses.fr/1996MULH0456.

Full text
Abstract:
Cette thèse décrit les travaux réalisés dans le domaine de la modélisation et de l'évaluation de la performabilité (performance-disponibilité) de systèmes informatiques temps réel et des systèmes de production à l'aide de modèles bases sur les réseaux de Petri stochastiques généralisés (rdpsg). Le modèle du système est décomposé en deux sous-systèmes, l'un décrivant le comportement vis-à-vis des fautes et des réparations (modèle de structure), l'autre modélisant l'aspect performance et les caractéristiques temps réel. Nous montrons la génération automatique du modèle de structure qui donne les multiples cas de défaillances pour lesquels nous proposons une méthode pour réduire le nombre de vérification du critère d'opportunité (probabilité de respect de la contrainte temporelle spécifiée). L'analyse se concentre en premier sur les configurations de fonctionnement dégradées. Cette étape du processus de modélisation est appelée vérification intra configuration. Ensuite, la vérification inter configurations concerne les passages entre les configurations qui sont classées par type d'éléments défaillants. La méthode est illustrée sur trois exemples ayant fait l'objet de publications. Le premier système est un atelier flexible de production de tambour d'impression ayant une structure à tolérance de fautes avec machines redondantes et fonctionnant en parallèle. Le deuxième est un système de production de portière à structure série qui est analysé par modèles équivalents. Le troisième système à base de transputers présente des caractéristiques temps réel pour lequel l'aspect répartition de taches est approfondi.
APA, Harvard, Vancouver, ISO, and other styles
26

Ruskoné, Renaud. "Extraction automatique du réseau routier par interprétation locale du contexte : application à la production de données cartographiques." Marne-la-Vallée, 1996. http://www.theses.fr/1996MARN0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Lamorelle, Théo. "Contribution à la conception et la production automatique en électronique de puissance via les réseaux de convertisseurs." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT033.

Full text
Abstract:
Ce travail présente une méthode de conception et fabrication automatique de convertisseurs de puissance qui consiste à concevoir des « Power Converter Arrays » (PCA) en assemblant des cellules standards: l’ensemble est dénommé «filière technologique». La démarche s’inspire du principe de filière technologique (connue en microélectronique) mais aussi de l’approche PEBB (Power Electronic Building Blocs) et des convertisseurs multicellulaires. Chaque cellule de la partie conversion de puissance du PCA se traduit par un convertisseur de puissance dit « standard » (Conversion Standard Cell -CSC) puis ellessont connectées en série et/ou parallèle en entrée comme en sortie.Dans l’optique de développer une filière technologique de puissance, ce travail présente les investigations et les conclusions faites dans les différents domaines liés à la conception et fabrication de celle-ci. Ainsi, cette thèse s’intéresse à des convertisseurs de puissance DC-DC avec option d’isolation dans le domaine industriel. Un travail fait sous deux angles: la structuration de la conception fabrication et la confrontation du concept de PCA à l’industrialisation. Concernant la structuration, cet écrit analyse la méthodologie de conception fabrication choisie mais aussi le valide via différents moyens comme la vérification par un code dédié et du prototypage. Concernant l’industrialisation, des prototypes de PCA permettent de valider les conclusions théoriques faites
This work presents a method for the automatic design and manufacture of power converters which consists in designing "Power Converter Arrays" (PCA) by assembling standard cells: the whole is called "Technological Platform". The approach is based on the principle of the technology channel (known in microelectronics) but also on the PEBB (Power Electronic Building Blocks) approach and multicellconverters. The power conversion stage is composed of "standard" power converter (Conversion Standard Cell -CSC) and areconnected in series and/or parallel at the input and output.In the perspective ofdeveloping a power technology sector, this work presents the investigations and conclusions made in the various fields related to the design and manufacture of this sector. Thus, this thesis focuses on DC-DC power converters with insulation option in the industrial field. The work is carried outfrom two angles: the structuring of the manufacturing design and the confrontation of the PCA concept with industrialization. Concerning the structuring, this thesisanalyzes the chosen design and manufacturing methodology but also validates it through different means such as verification by a dedicated code and prototyping. Concerning industrialization, prototypes of PCAs allow to validate the theoretical conclusions made
APA, Harvard, Vancouver, ISO, and other styles
28

Gaffet, Alexandre. "Machine learning approaches for automotive production process diagnosis." Electronic Thesis or Diss., Toulouse, INSA, 2023. http://www.theses.fr/2023ISAT0060.

Full text
Abstract:
Les avancées technologiques ont permis l’arrivée dans de nombreuses entreprises de nouvelles méthodes de collecte et de stockage d’un grand nombre de données, notamment au travers du cloud computing. Ce grand volume de données est appelé Big Data. La collecte de ces données est considérée par certains comme un nouvel "or noir". Ce volume de données est également lié à l’essor de la quatrième révolution industrielle : Industrie 4.0., qui s’appuie sur les données et la digitalisation des entreprises pour réorganiser les processus de production.Les données collectées en industrie peuvent transporter des informations diverses comme des informations de matières de fabrication, des états de processus de fabrication, des informations de maintenance ou des résultats de tests d’équipements d’inspection. Une façon d’apporter de la valeur aux données consiste à déterminer l’état de santé des systèmes liés à ces dernières grâce à des méthodes d’intelligence artificielle, de machine learning ou de data mining. Cette thèse se concentre sur la maintenance conditionnelle (CBM), conditionnée par l’état de santé du matériel. La tâche de diagnostic en ligne, qui consiste à détecter les fautes et fournir leurs causes, s’intègre dans ce processus et permet d’améliorer significativement l’efficacité de la ligne de production en augmentant la qualité des produits et en réduisant les temps d’arrêt des équipements de production.L’automobile est un des domaines où ces méthodes de diagnostic peuvent apporter une grande valeur due à la complexité croissante des véhicules et donc des chaines de production à mettre en place pour les fabriquer. C’est dans ce contexte que s’est effectuée cette thèse en collaboration entre Vitesco Technologies, un fournisseur mondial de groupes motopropulseurs de véhicules et le LAAS (Laboratoire d'Analyse et d'Architecture des Systèmes), un laboratoire du CNRS (Centre National de la Recherche Scientifique).Cette thèse propose dans un premier temps une méthode de gestion de santé basée uniquement sur les données dans un cadre univarié, adapté aux contraintes industrielles imposées par l’équipement de test spécifique de la ligne de production SMT (Surface Mount Technology). Elle répond aux contraintes du cas d’étude : un très grand nombre de données, non étiquetées, et sur lesquelles il n’est pas possible d’extraire des séries temporelles cohérentes. La méthode est basée sur une étape de clustering utilisant les mélanges de gaussiennes (GMM) et la capabilité comme indicateur de santé. Les résultats montrent que la méthode permet de mieux détecter les cas critiques et ainsi d’améliorer les décisions de maintenance, notamment pour des fautes liées à l’équipement et aux lots de produits.Une étape de détection d’anomalie additionnelle en amont de la méthode, utilisant la théorie des valeurs extrêmes (EVT), et une étape d’isolation réalisée en fin de process permettent d’améliorer les performances de la méthode et de confirmer son applicabilité sur un cas réel.Une méthode de décomposition basée sur le clustering spectral est ensuite proposée pour gérer les données dans un cadre multivarié. L’idée est de regrouper en blocs des données similaires, puis d’appliquer par bloc une méthode de détection de fautes. Cette partie est appliquée au processus de contrôle de production chimique issue du Tennessee Eastman et au processus de test de la ligne SMT. L’application montre une amélioration des performances de détection de faute en combinant l’utilisation des blocs avec la méthode de détection d’anomalies Local Outlier Factor (LOF)
Technological advances have enabled the adoption of new methods for collecting and storing large amounts of data in many companies through cloud computing. This large volume of data is referred to as Big Data. Some view the collection of this data as a new form of "black gold". The rise of Big Data is also linked to the fourth industrial revolution, known as Industry 4.0, which involves the digitalization of companies and the use of data to reorganize production processes.Data collected in industry can contain various types of information, such as information about manufacturing materials, state of manufacturing processes, maintenance information, or test results for inspection equipment. One way to derive value from this data is to use artificial intelligence, machine learning, or data mining methods to determine the health state of the systems it is linked to. This thesis focuses on Condition-Based Maintenance (CBM), which is based on the health state of equipment. The online diagnosis task, which involves detecting faults and identifying their causes, is integrated into this process and can significantly improve the efficiency of the production line by increasing product quality and reducing downtime of production equipment.Diagnosis methods can be particularly valuable in the automotive industry, due to the increasing complexity of vehicles and the corresponding complexity of the production lines required to manufacture them. This thesis was conducted in collaboration between Vitesco Technologies, a global supplier of vehicle powertrains, and the LAAS (Laboratory of Analysis and Architecture of Systems), a laboratory of the CNRS (National Center for Scientific Research).This thesis first presents a data-based health management method in a univariate framework, tailored to the industrial constraints of the specific test equipment used in the SMT (Surface Mount Technology) production line. It addresses the constraints of the case study, which includes a very large number of unlabeled data, from which it is difficult to extract coherent time series. The method is based on clustering using Gaussian mixtures (GMM) and the capability as a health indicator. The results show that the method is effective at detecting critical cases and improving maintenance decisions for faults related to equipment and product batches.To further improve the performance of the method and confirm its applicability in an online real-world scenario, an additional anomaly detection step using Extreme Value Theory (EVT) is applied upstream of the method, and an isolation step is carried out at the end of the process.A decomposition method based on spectral clustering is then proposed for managing data in a multivariate framework. The approach involves grouping similar data into blocks and applying a fault detection method to each block. This method is applied to a chemical production control process from Tennessee Eastman and a SMT line test process. The results show that combining the use of blocks with the Local Outlier Factor (LOF) anomaly detection method leads to improved fault detection performance.This thesis also suggests using information from other equipment to improve the quality defect detection and test process automation with supervised learning methods
APA, Harvard, Vancouver, ISO, and other styles
29

Aguilar, Louche Nathalie. "La production automatique et délibérée des inférences de la conséquence des événements et des actions : expérimentations et simulations." Université de Provence. Faculté des lettres et sciences humaines (1969-2011), 1999. http://www.theses.fr/1999AIX10047.

Full text
Abstract:
Cette these est consacree a l'etude de la production automatique des inferences prospectives de la consequence fortement probable des evenements et des actions lors de la lecture. Schematiquement, selon les principales theories de la comprehension de texte, top down ou bottom up, ces inferences sont concues, soit comme la production d'une proposition nouvelle en memoire, soit comme la recuperation automatique d'une information en memoire associee a l'information explicitement presentee. Dans le but de tester ces hypotheses, huit experiences, dont quatre de decision lexicale, ont ete realisees et les resultats obtenus ont ete simules a l'aide du modele construction-integration (kintsch, 1988). Les deux premieres experimentations avaient pour but d'analyser les aspects temporels de la production automatique de ces inferences en precisant la duree minimale de traitement necessaire a leur production ainsi que la duree pendant laquelle elles restent activees. La manipulation de la duree de presentation pvsr et de la duree de l'isi permettent de conclure qu'une duree minimale de 250 ms de traitement est necessaire a la recuperation de l'information en memoire et que sa desactivation commence apres un delai de 50 ms. Les analyses a posteriori de ces resultats ont confirme la necessite d'etudier l'influence du degre d'association amorce-cible quand le degre d'association entre les mots de contenu, l'amorce et la cible est maintenu constant. Aussi, nous avons realise deux autres experiences dans lesquelles nous avons manipule le degre d'association amorce-cible et la nature de la modification decrite, intentionnelle ou pas. L'ensemble des resultats experimentaux obtenus ainsi que les simulations realisees est compatible avec l'hypothese selon laquelle l'inference de la consequence fortement probable d'une action ou d'un evenement consiste dans la recuperation en memoire d'une information semantique fortement associee a l'information explicitement presentee.
APA, Harvard, Vancouver, ISO, and other styles
30

Cosson, Marjorie. "Stabilité du réseau électrique de distribution. Analyse du point de vue automatique d'un système complexe." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC065/document.

Full text
Abstract:
Pour maintenir la tension dans des bornes admissibles, des régulations locales de puissance réactive (Q) en fonction de la tension (U) sont envisagées sur les réseaux de distribution. Ces travaux étudient l’impact de ces régulations sur la stabilité des réseaux de distribution accueillant de la production. Une étude empirique confirme le risque d’instabilité de la tension et souligne le lien avec les paramètres de la régulation. Pour aider les gestionnaires à les choisir, trois méthodes d’étude de la stabilité sont proposées. Tout d’abord, une méthode formelle fondée sur les notions d’abstraction discrète et de bisimulation est développée. Elle offre une grande précision au prix d’un effort de calcul important. Pour contournercette difficulté, un critère analytique portant sur le temps de réponse des régulations Q(U) est formulé. Ensuite, un critère valable dans tous les cas est proposé pour les codes de réseaux. Enfin, l’extension desméthodes à des cas plus complexes est discutée
To maintain the voltage within specified limits, local control laws of distributed generators (DGs) reactive power (Q) with respect to their voltage (U) have been considered. This work studies the impact of Q(U) control laws on distribution feeders’voltage stability. An empirical study confirms the risk of voltage instability and highlights its dependence on control law parameters. To help distribution grid operators to choose these parameters, three methods assessing stability are formulated.First, a formal method based on discrete abstraction and bisimulation calculation is developed. The proposed approach yields precise results but with a high computational load. Then, to overcome this issue, an analytical criterion adapting Q(U) control laws response time with respect to grid parameters is formulated. Finally, a general criterion, valid in any cases, is established in order to be included in the grid codes. To conclude this work, extension to more complex cases is discussed
APA, Harvard, Vancouver, ISO, and other styles
31

Nachouki, Mirna. "L'acquisition de connaissances dans les systèmes dynamiques : production et utilisation dans le cadre de l'atelier de génie didacticiel intégré." Toulouse 3, 1995. http://www.theses.fr/1995TOU30001.

Full text
Abstract:
Pour personnaliser l'enseignement, les systemes d'environnement interactif d'apprentissage avec l'ordinateur doivent pouvoir imiter le comportement de l'enseignant qui exerce son activite dans le monde reel. Ainsi, durant leur utilisation, ils doivent acquerir des connaissances et revetir un aspect evolutif et dynamique. Dans le but de garantir l'evolutivite des connaissances, nous soulignons que le processus d'acquisition doit, dans un systeme dynamique, etre complete par un mecanisme d'evaluation des connaissances. Aussi, nous definissons un cycle de vie du processus d'acquisition au cours duquel les connaissances sont raffinees de maniere progressive avant d'etre integrees dans la representation la plus adequate. Nous decrivons alors une representation permettant de formaliser differentes methodes d'acquisition respectant le cycle de vie propose. Pour supporter ce processus, nous proposons une architecture basee sur trois modeles. Le premier est constitue des connaissances necessaires au fonctionnement du systeme. Le second s'articule autour d'une base de taches representant la globalite des operations conceptuelles impliquees dans une methode d'acquisition de connaissances. Pour realiser une tache dans un contexte bien particulier, des agents (concept issu de l'intelligence artificielle distribuee) ont ete formalises. Chacun d'eux represente une methode possible de resolution de cette tache. Le troisieme modele est constitue des metaconnaissances qui assurent le pilotage et le controle des deux autres modeles, grace aux differentes methodes d'acquisition. Nos travaux constituent un pas supplementaire vers le developpement des systemes d'apprentissage reellement dynamiques, donc plus reactifs et mieux adaptes a chaque situation d'enseignement
APA, Harvard, Vancouver, ISO, and other styles
32

Barbier, Magali. "Modélisation et conduite des systèmes de production d'assemblage." Toulouse, ENSAE, 1990. http://www.theses.fr/1990ESAE0004.

Full text
Abstract:
Ce mémoire de thèse propose une méthodologie pour tenter de résoudre les problèmes de pilotage dans les systèmes flexibles de production effectuant des opérations d'assemblage. Pour représenter tout système, l'auteur propose d'abord une modélisation suivant la hiérarchie atelier-cellule-poste dans laquelle il redéfinit la notion de cellule en fonction des contraintes d'assemblage. Le pilotage est une gestion à court terme dont le problème principal dans le cas de l'assemblage est d'assurer l'arrivée des pièces à temps et en même temps sur les postes. Le but de la conduite à temps est de respecter les dates au plus tard des ordres de fabrication des produits à réaliser dans le système : la fonction lancement détermine les dates de lancement des pièces brutes et la fonction affectation des priorites permet de controler le retard de chacun des ordres. Le but de la conduite en meme temps est de respecter les rendez-vous des pieces sur les plots d'assemblage: on gere donc les stocks situes en amont de ces rendez-vous pour eviter les blocages et limiter les attentes sur ces plots. Cette conduite se décompose suivant la hiérarchie de la modélisation en trois problèmes : le choix de la destination suivante pour une pièce, l'autorisation de départ de la pièce vers la destination et le choix du ou des prochaines pieces pour un plot se liberant. L'auteur decrit ensuite le logiciel de simulation aspa (analyse des systemes de production d'assemblage) mis au point pour valider la modelisation et pour tester les politiques de gestion. On recherche les politiques les plus adaptées dans l'étude de deux applications industrielles : un atelier possedant une boucle centrale et une cellule constituée de convoyeurs en ligne. La conclusion met en valeur l'intérêt du logiciel de simulation développé et de l'approche générale qui permet de modéliser et de piloter tout système de production d'assemblage.
APA, Harvard, Vancouver, ISO, and other styles
33

Chakkingal, Anoop. "Réglage de la sélectivité de la synthèse Fischer-Tropsch : aperçu de la modélisation microcinétique et de l'apprentissage automatique." Electronic Thesis or Diss., Centrale Lille Institut, 2022. http://www.theses.fr/2022CLIL0015.

Full text
Abstract:
En vue de promouvoir l’économie circulaire, de nombreux procédés chimiques sont actuellement réexaminés afin de développer des variantes plus durables. Cela a mené à une forte augmentation de production au cours des 60 dernières années, entraînant une production totale de 367 millions de tonnes en 2020.La méthodologie a ensuite été généralisée à l’aide d’apprentissage automatique non supervisé, ce qui a permis de dépasser les trois dimensions et de réduire le besoin d’intervention humaine. L’espace des descripteurs généré à partir de données microcinétiques (catalyseurs virtuels) est exploré en utilisant la méthode systématique du regroupement (clustering) et du classement (labelling) non supervisés. L’espace de la performance du catalyseur est regroupé en clusters et le nombre minimale de clusters est identifié. Chaque catalyseur virtuel (représenté par une certaine combinaison de descripteurs) est identifié du point de vue du cluster auquel il appartient. Il est ainsi possible d’obtenir l’étendue des valeurs des descripteurs dans le cluster ayant le meilleur rendement d’alcènes légers. Il est observé que les valeurs obtenues sont conformes à celles du catalyseur virtuel optimal identifié dans l’inspection visuelle précédente. On peut donc conclure qu’une méthode combinant la microcinétique et l’apprentissage automatique a été présentée pour le développement des catalyseurs et pour l’investigation détaillée de leurs propriétés, tout en diminuant le besoin d’intervention humaine.Finalement, la méthode d’apprentissage automatique a été étendue dans l’intention de pouvoir réaliser des prédictions de plusieurs sélectivités en se concentrant sur la production des alcènes légers à différentes conditions opérationnelles. Afin d’atteindre cet objectif, 4 modèles d’apprentissage automatique alternatifs ont été employés, i.e. la méthode lasso (lasso regression), la méthode des k plus proches voisins (k nearest neighbor regression ou KNN), la méthode de la machine à vecteurs de support (support vector machine regression ou SVR) et le réseau de neurones artificiels (Artificial Neural Network ou ANN). Les capacités de ces techniques sont évaluées par rapport à la reproduction du comportement linéaire de la conversion et la sélectivité en fonction des variables du procédé comme cela a été simulé par le modèle SEMK. Il est constaté que les modèles à base d’un réseau de neurones artificiels correspondent le plus aux résultats de référence du modèle SEMK. Une analyse supplémentaire utilisant la technique d’interprétation de la valeur SHAP a été appliquée aux modèles à base d’un réseau de neurones artificiels ayant la meilleure performance, en vue de mieux expliquer le fonctionnement des modèles.L’ensemble de l’étude a rapporté des connaissances essentielles, telles que les descripteurs de catalyseur optimales : les enthalpies de chimisorption atomique de l’hydrogène (QH ≈ 234 kJ/mol), du carbone (QC ≈ 622 kJ/mol) et de l’oxygène (QO ≈ 575 kJ/mol), pour la conception de catalyseurs ayant une sélectivité en alcènes légers élevée en utilisant un modèle SEMK mécaniste. De plus, l’étendue des conditions opérationnelles menant à la meilleure sélectivité en alcènes légers a été déterminée en adoptant plusieurs stratégies de modélisation (le concept des SEMK et l’apprentissage automatique). Il a été constaté que les effets de la température (580-620K) et la pression (1-2 bar) étaient les plus importants. Ensuite, une investigation est réalisée dans le but d’évaluer à quel point les résultats des modèles d’apprentissage automatique correspondent à ceux du modèle SEMK. Par exemple, une analyse préliminaire a pu être réalisée en utilisant un modèle d’apprentissage automatique pour l’analyse des données obtenues à l’aide d’expérimentation à haut débit. Ensuite, le modèle mécaniste a permis d’acquérir une compréhension chimique approfondie
Striving towards a circular economy has led to the re-investigation of many existing processes, with the target of developing more sustainable variants. In our present economy, plastics form an important and omnipresent material affecting our daily lives. They are inexpensive, durable, corrosion resistant, and light weight leading to their use in a wide variety of applications.Within the plastic chemical recycling scheme, Fischer-Tropsch synthesis (FTS) could play a key role as the syngas feedstock that is converted in it, can be generated via the gasification of the considered plastics. This syngas is then chemo-catalytically converted into hydrocarbons such as paraffins and light olefins. Typical FTS catalysts are based on supported cobalt or iron species.Among the mechanistic kinetic models, the comprehensive variant based on the Single Event MicroKinetics (SEMK) concept has been widely applied in the field of oligomerization, autoxidative curing, etc. and has proven to be a versatile tool to simulate Fischer-Tropsch synthesis. However, developing mechanistic models for every chemical engineering challenge is not always feasible due to their complexity and the in-depth knowledge required to build such models.A detailed evaluation on the potential of using machine learning approaches to match the performance of results obtained using the Single-Event MicroKinetic model was carried out. Initially, the focus was on a single dominant output scenario (methane selective catalyst). The current work thus shows that more widely applied techniques in data science can now be applied for systematic analysis and interpretation of kinetic data. Similar analysis using experimental data can also help experimenters in their preliminary analysis, to detect hidden trends in the data, and thus to identify importance features. After gaining confidence on the investigated interpretation techniques, for the FTS reaction with single dominant output, a similar investigation on the potential of iron based catalysts with enhanced light olefin selectivity is carried out next
APA, Harvard, Vancouver, ISO, and other styles
34

Bernard, Rémy. "Dispositif de mesure automatique du remplissage de bouteilles en défilement par caméra et processeur de vision." Nancy 1, 1988. http://www.theses.fr/1988NAN10001.

Full text
Abstract:
Mise au point, à partir d'un prototype de numérisation et de traitement d'images, d'un capteur spécifique de vision réalisant le contrôle automatique du remplissage de bouteilles de bière en défilement sur une bande transporteuse, en temps réel
APA, Harvard, Vancouver, ISO, and other styles
35

Sfalcin, Alain. "Contribution d'une approche sémiotique à la réutilisation des composants de commande des machines et systèmes automatisés de production." Nancy 1, 1992. http://www.theses.fr/1992NAN10128.

Full text
Abstract:
Ces travaux s'inscrivent dans le cadre d'une collaboration entre le centre de recherche en automatique de Nancy (CRAN), un constructeur d'automates programmables industriels (télémécanique) et les services méthodes centrales automatismes d'un constructeur automobiles (automobiles Peugeot) et font l'objet d'un contrat cifre. L'objectif est d'assurer l'adéquation de l'offre au besoin en composants d'automatisation réutilisables, en spécifiant d'une part les objets fonctionnels caractéristiques d'un processus manufacturier par une démarche participative avec les utilisateurs et, d'autre part les outils favorisant la description de tels blocs fonctionnels par une action concertée avec le constructeur. La recherche de méthodes capables d'identifier de tels composants ainsi que de procédures de mise en œuvre, parce qu'elles ne peuvent ignorer l'aspect intégration implique que la conception se tourne vers des approches systemes souvent pluridisciplinaires. Cette démarche typique du génie automatique exige une gamme de connaissances dépassant le cadre courant d'une seule discipline telle que l'automatique. Des études exploratoires dans le cadre de cette thèse, menées dans le domaine de la linguistique ou encore des théories de l'organisation montrent l'intérêt d'un décloisonnement de nos disciplines et de leur ouverture à des recherches autres que techniques ou technologiques, en particulier, aux sciences humaines
APA, Harvard, Vancouver, ISO, and other styles
36

Costa, João Lino. "Méthodologie pour une amélioration de la qualité de production au Portugal." Chambéry, 2000. http://www.theses.fr/2000CHAMS004.

Full text
Abstract:
La maitrise du processus de réalisation d'un bâtiment constitue un enjeu majeur pour assurer des gains de qualité, de productivité, et de profit. Nous proposons de mettre en place une méthodologie pour améliorer la qualité et pour éliminer ou réduirai certaines défaillances les plus fréquentes ou avec couts de réparation les plus élevés. Cette méthodologie s'appuie sur l'identification de ces défaillances au cours de chantiers pilotes et sur l'élaboration de procédures adéquates pour chaque type de défaillance. Tous ces résultats ont été organisés en un outil de gestion supporté par Microsoft Access. Ces moyens informatiques constituent un outil nouveau qui, lorsqu'il est utilisé de manière intégrée et interactive dans l'opération (entreprise-préparation / chantier) apporte des profits considérables. L'analyse du suivi de chantier permet de mettre immédiatement en évidence les tâches les plus sensibles à traiter et fournit des indications précises de la voie d'amélioration à partir de l'identification des causes des défaillances. Elle fournit en définitive le nombre des défaillances et les couts de réparation pendant la réalisation et pendant la période de garantie (5 années). Ces informations sont classées selon la phase du processus (programme, projet, préparation, exécution), la phase d'ouvrage (exécution, pré-réception et garantie) et les parties d'ouvrage (fondations, structure et maçonnerie, réseaux, finition/maçonnerie, finition/charpente, enveloppe et divers) ou les défaillances surviennent
APA, Harvard, Vancouver, ISO, and other styles
37

Denoual, Etienne. "Méthodes en caractères pour le traitement automatique des langues." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00107056.

Full text
Abstract:
Le traitement automatique des langues fondé sur les données a récemment assimilé de nombreuses techniques et perspectives héritées du domaine de la reconnaissance de parole. Parmi celles-ci, les méthodes qui utilisent le mot comme unité de traitement sont difficilement transposables aux systèmes d'écriture sans séparateur orthographique, et ne sont donc pas multilingues.
Le présent travail promeut l'utilisation de méthodes travaillant au niveau du signal de l'écrit: le caractère, unité immédiatement accessible dans toute langue informatisée, permet de se passer de segmentation en mots, étape actuellement incontournable pour des langues comme le chinois ou le japonais.

Dans un premier temps, nous transposons et appliquons en caractères une méthode bien établie d'évaluation objective de la traduction automatique, BLEU.
Les résultats encourageants nous permettent dans un deuxième temps d'aborder d'autres tâches de traitement des données linguistiques. Tout d'abord, le filtrage de la grammaticalité; ensuite, la caractérisation de la similarité et de l'homogénéité des ressources linguistiques. Dans toutes ces tâches, le traitement en caractères obtient des résultats acceptables, et comparables à ceux obtenus en mots.
Dans un troisième temps, nous abordons des tâches de production de données linguistiques: le calcul analogique sur les chaines de caractères permet la production de paraphrases aussi bien que la traduction automatique.
Ce travail montre qu'on peut construire un système complet de traduction automatique ne nécessitant pas de segmentation, a fortiori pour traiter des langues sans séparateur orthographique.
APA, Harvard, Vancouver, ISO, and other styles
38

Mboup, Alioune Badara. "Commande d'un système de production d'énergie électrique multi-sources : application aux sites isolés." Le Havre, 2011. http://www.theses.fr/2011LEHA0022.

Full text
Abstract:
Ces travaux de thèse concernent l’intégration sur un bus continu et la commande des sources d'énergies renouvelables pour les systèmes de production et de stockage d'énergie électrique. Le système hybride étudié est constitué d'un générateur diesel, d'une éolienne, de panneaux photovoltaïques, et d'un banc de batteries acide-plomb le tout alimentant une charge donnée. Ces sources sont interfacées par des convertisseurs d'électronique de puissance afin de maintenir la tension du bus à une valeur de référence pour une alimentation correcte de la charge. Dans cette étude, nous avons modélisé le système multi-sources avec une représentation d’état hybride non linéaire qui utilise des variables discrètes et des variables continues. Les variables discrètes représentent les contacts de couplage permettant la connexion des convertisseurs statiques sur le bus continu. Les variables continues représentent les tensions et courants nécessaires pour satisfaire la charge. Nous avons ensuite développé une stratégie de commande hiérarchisée qui consiste à réguler la tension de bus, à adapter les taux de puissance extraits des sources et à coupler ou découpler les convertisseurs associés aux sources selon des critères de disponibilité énergétique. Les lois de commande du couplage des convertisseurs et de gestion du transfert de l'énergie sont élaborées à partir des caractéristiques de fonctionnement des convertisseurs et en particulier des variations du rapport cyclique de commande. Le rapport cyclique est un indicateur de corrélation entre la source et la charge et ses variations dépendent de la puissance extraite au niveau des sources. Nous avons montré qu’il constituait une variable de décision prioritaire dans l’optimisation énergétique des systèmes multi-sources et que son exploitation permet de réduire l’instrumentation nécessaire au fonctionnement de l’installation. A l’issue du travail, nous avons réalisé les convertisseurs d'électronique de puissance avec leurs dispositifs d'acquisition et de commande et nous avons pu valider notre approche avec des résultats expérimentaux qui mettent en évidence l'efficacité de la stratégie proposée pour la gestion de l'énergie
This thesis concerning integration and control of renewable energy sources in systems of power generation and energy storage. The hybrid system studied consists of a wind generator, a diesel generator, photovoltaic panels and lead acid batteries for supplying continuous loads. All these sources are interfaced with the power electronics in aims to maintain the DC bus voltage to a reference value for supplying correctly the load demand. In this study we have done the model of the multisource system by using a hybrid nonlinear state space representation that uses discrete and continuous variables. Discrete variables are the contacts used to connect power converters on the DC bus. Continuous variables represent voltage and current to satisfy the load. We then developed a hierarchical control strategy which is used to regulate the voltage of the DC bus, to adjust the power rate extracted from the sources and to connect or disconnect the converter associated with sources according to criteria of energy availability. The control laws of power converters and the energy transfer management methods are developed from a study of the technological characteristics of different components of the system on one hand and information of the duty cycle value on the other. The duty cycle is a correlation measure between the source and the load. Its variations depend on the power extracted of the source. We showed that it was a priority decision variable in optimization energy of multi-source systems and operations can reduce the necessary instrumentation to control the installation. Following the methodological work, we are realized the power electronic converters and the acquiring system (and measuring). We are also validated our approach with experimental results that show the effectiveness of the strategy proposed for the energy management and the control of power converters
APA, Harvard, Vancouver, ISO, and other styles
39

Cubadda, Christophe, and Marie-Dominique Mousseigne. "Variantes de l'algorithmes de sl-résolution avec retenue d'informations : démonstration de l'équivalence entre sl-résolution et production et démonstration de la validité de la variante des impasses et de la variante de remontée d'impasses." Aix-Marseille 2, 1988. http://www.theses.fr/1988AIX22063.

Full text
Abstract:
En depit des nombreuses strategies ameliorant l'algorithme de sl resolution, beaucoup d'informations redondantes et inutiles etaient generees, notamment lors d'echec d'effacement de litteraux. Un algorithme, appele slri, est propose. Il tient compte de ces informations. Il est demontre que l'arbre de recherche de cet algorithme est inclus dans l'arbre de recherche de la sl resolution
APA, Harvard, Vancouver, ISO, and other styles
40

Yan, Yongfeng Peccoud François. "Vers une ingénierie de la production de linguiciels spécification et réalisation d'un prototype de poste de travail linguistique pour la spécification de correspondances structurales /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00325682.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Damas, Luc. "Étude théorique et pratique de la production d'effets d'amorçage de la mémoire : application à l'assistance à la remémoration chez l'utilisateur d'un système informatique pour une tâche d'apprentissage." Lyon 1, 2003. http://www.theses.fr/2003LYO10226.

Full text
Abstract:
Les utilisateurs semblent utiliser l'outil informatique comme un prolongement de leur propre mémoire. Nous voulons vérifier s'il est possible de capter ce status d'extension dans un but d'assistance. Une pluridisciplinarité s'impose alors par l'introduction de la modélisation du fonctionnement cognitif des utilisateurs : nous avons modélisé l'utilisateur sous la forme d'un alter-ego ayant un comportement mnésique similaire à celui de l'utilisateur. Un souci majeur a été de valider le principe de base de l'alter-ego. Nous obtenons en simulation des comportements similaires aux comportements humains. Nous avons conçu une expérimentation mettant en oeuvre un assistant à la remémoration basé sur l'utilisation d'un alter-ego mnésique de l'apprenant. Nous avons mis en évidence que le comportement du simulateur de mémoire est corrélé au comportement du sujet et que l'assistance à la remémoration basée sur ce type d'assistance est efficace
APA, Harvard, Vancouver, ISO, and other styles
42

Gouyon, David Morel Gérard. "Contrôle par le produit des systèmes d'exécution de la production : apport des techniques de synthèse." (S.l.) : (s.n.), 2004. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2004_0194_GOUYON.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Faraj, Kenza. "Etude chronologique multidimensionnelle par l'analyse des correspondances et la classification automatique : cas de la production des céréales et des oléagineux de l'Argentine." Paris 6, 1986. http://www.theses.fr/1986PA066366.

Full text
Abstract:
Le sujet de ma thèse porte sur l'évolution et la répartition géographique de la production argentine des céréales et oléagineux, pendant la période 1974-1983. Partant d'un tableau ternaire de données diachroniques, l'analyse factorielle des correspondances conduit à conclure que les variations temporelles des régions (variance inter-régions). Sachant que la production est le produit de la surface par le rendement, on étudie ainsi la sensibilité des différents produits aux contraintes du climat et de la conjoncture des surfaces cultivées.
APA, Harvard, Vancouver, ISO, and other styles
44

Faraj, Kenza. "Etude chronologique multidimensionnelle par l'analyse des correspondances et la classification automatique cas de la production des céréales et des oléagineux de l'Argentine." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb375975097.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Delaye, Adrien. "Méta-modèles de positionnement spatial pour la reconnaissance de tracé manuscrits." Rennes, INSA, 2011. https://tel.archives-ouvertes.fr/tel-00651446.

Full text
Abstract:
Nous introduisons les meta-modeles spatiaux pour la representation generique de relations spatiales entre objets manuscrits. Ces modeles peuvent etre appris a partir de donnees et offrent une precision accrue en prenant en compte les formes des objets. Leur definition floue permet la gestion de l’imprecision et offre une description conforme a l’intuition. Un meta-modele a un pouvoir de prediction qui permet de decrire la relation modelisee dans l’image, par rapport a un objet de reference. Cette capacite rend possible la visualisation des modeles et constitue un outil pour segmenter les traces en fonction de leur contexte. Nous proposons une representation des symboles manuscrits structures reposant uniquement la description fine de leur information spatiale par ces modeles. La segmentation des traces en primitives est guidee par la capacite de prediction des modeles. Les resultats confirment l'importance de l'information spatiale et valident la qualite de la modelisation proposee
Spatial meta-models are introduced for a generic description of spatial relations between handwritten objetcs. The models are trainable from data and offer an increased precision thanks to the consideration of objetcs shapes. The fuzzy definition allows to deal with imprecision and provides an intuitive modeling. Meta-models have a predictive ability which enables the description of the modeled relation in the image space, relatively to a reference object. It allows the model visualization and provide a tool for context-driven object segmentation. We proporse a resentation of structured handwritten symbols based only on the description of their spatial information with meta-models. Segmentation of objetcs into primitives is driven by the models prediction ability. Results confirme the importance of spatial information and validate the quality of the proposed models
APA, Harvard, Vancouver, ISO, and other styles
46

Hernandez, De Leon Hector Ricardo. "Supervision et diagnostic des procédés de production d'eau potable." Phd thesis, INSA de Toulouse, 2006. http://tel.archives-ouvertes.fr/tel-00136157.

Full text
Abstract:
L'objectif des ces travaux est le Développement d'un outil de supervision/diagnostic d'une station de production d'eau potable dans son ensemble. Avant de s'intéresser à la station dans son ensemble, il est apparu que l'unité de coagulation-floculation était une étape clé dans la production de l'eau potable. La première partie de la thèse a donc consisté à développer un capteur logiciel permettant de prédire en ligne la dose de coagulant, sur la base des caractéristiques mesurées de l'eau brute, à l'aide de réseaux de neurones. La deuxième partie de la thèse qui présente un aspect plus novateur réside dans l'utilisation de cette information dans une structure de diagnostic de l'ensemble de la station de traitement. A partir des mesures en ligne classiquement effectuées, un outil de supervision et de diagnostic de la station de production d'eau potable dans son ensemble a été développé. Il est basé sur l'application d'une technique de classification et sur l'interprétation des informations obtenues sur tout l'ensemble du procédé de production avec comme finalité l'identification des défaillances et une aide à la maintenance prédictive/préventive des différentes unités de la station. Une technique basée sur l'entropie floue et la définition d'un indice de validation a été développée pour permettre de valider ou non une transition entre états fonctionnels (c'est-à-dire entre classes) permettant ainsi d'éliminer les classes mal conditionnées ou encore les fausses alarmes. Ces travaux de recherche ont été réalisés en collaboration avec la station de production d'eau potable SMAPA de la ville de Tuxtla Gutiérrez, de Chiapas, au Mexique.
APA, Harvard, Vancouver, ISO, and other styles
47

Mouchard, Jean-Sébastien. "Proposition d'une approche méthodique pour la conception des systèmes automatisés de production : application aux systèmes transitiques." Lorient, 2002. http://www.theses.fr/2002LORIS014.

Full text
Abstract:
Le travail présenté dans ce mémoire s'intéresse à la conception des systèmes transitiques, un sous-ensemble particulier des systèmes manufacturiers dans lesquels le temps de transport du produit d'un lieu de transformation à un autre devient un enjeu majeur de la productivité. Ces systèmes sont constitués de convoyeurs motorisés ou non, de vérins pneumatiques, de chariots filoguidés, etc. . . Nous introduisons une démarche proche des préoccupations industrielles. Notre proposition s'appuie sur des éléments paramétrables, réutilisables et modulaires appelés composants. Ces composants incluent différents modèles appelés "vues", regroupant la partie opérative, la commande, l'animation graphique, la surveillance / supervision et les contraintes associées à l'utilisation des fonctionnalités du composant. La vue partie opérative est un modèle très fin des interactions mécaniques, électriques et pneumatiques du système. La vue commande inclue des commandes bas niveau écrites dans un des langages de l'automatisme comme le grafcet. La vue contrainte présente une vision fonctionnelle du composant ainsi que les conditions nécessaires pour que ces fonctions existent dans l'instance qui est faite du composant. Les composants peuvent être agrégés entre eux pour obtenir des composants plus complexes jusqu'à obtenir un composant décrivant l'ensemble de notre système et incluant dans ses cinq vues, les modèles de notre système. Nous testons et vérifions le système obtenu par vérification du respect des contraintes d'utilisation et de son paramétrage ainsi que par simulation conjointe de la partie opérative et de la commande. De notre modèle est ensuite extrait les éléments qui seront implantés sur site, en particulier pour la commande et la supervision de notre système. Un exemple complet autour d'une application industrielle permet d'illustrer la démarche et montre l'intérêt d'une telle approche
APA, Harvard, Vancouver, ISO, and other styles
48

Delgrange, Nathalie. "Modelisation par reseaux de neurones et conduite d'un pilote d'ultrafiltration pour la production d'eau potable." Toulouse, INSA, 2000. http://www.theses.fr/2000ISAT0045.

Full text
Abstract:
Cette etude concerne la conception et la mise au point de reseaux de neurones, pour modeliser, simuler et conduire une installation pilote de production d'eau potable par ultrafiltration. Les donnees experimentales ont ete recueillies en grand nombre, lors d'une phase d'experimentation avec un pilote fonctionnant sur eau de seine. L'analyse de ces donnees, par differentes techniques statistiques, a permis d'identifier des correlations d'un certain nombre de parametres de qualite d'eau et de conditions operatoires avec les performances du procede. L'elaboration de modeles, combinant un modele de connaissance et des reseaux de neurones, a conduit a la prediction de l'evolution de la pression transmembranaire a l'echelle d'un cycle, puis a l'echelle de plusieurs cycles. De plus, une etude de sensibilite a permis d'identifier les parametres impliques dans le colmatage reversible, a court terme, et irreversible, a long terme. Le modele qui decrit la formation de colmatage a long terme a ete utilise pour simuler le procede. Une strategie de conduite du procede a ete proposee, dont l'objectif est de determiner les conditions operatoires, en fonction de la qualite de l'eau brute, pour lesquelles le pilote peut fonctionner sans colmatage irreversible. Le modele par reseaux de neurones est utilise pour predire ce colmatage. L'application de cette strategie a permis de faire fonctionner le pilote plusieurs mois sans colmatage significatif et en ameliorant la productivite du procede
This study concerns the development of neural networks to model, simulate and control an ultrafiltration pilot plant for drinking water production. Numerous experimental data were obtained, with a plant filtering Seine river water. Experimental data analysis, performed with different statistical techniques, allowed to identify correlation between some operating conditions, water quality parameters and the pilot performances. Several models were built, combining a knowledge model and neural networks, in order to predict the time-variation of transmembrane pressure during a filtration cycle, then several cycles. Moreover, a sensibility study allowed to identify the main parameters involved in reversible and irreversible fouling. The model that describes long scale fouling formation was used to simulate the process. A strategy was proposed to control the pilot plant, in order to determine the appropriate operating conditions, as a function of the raw water quality, that allows to prevent irreversible fouling formation. The neural network model is then used to predict fouling quantification. The application of this strategy allowed to operate several months without significant fouling and with an increase of the plant productivity
APA, Harvard, Vancouver, ISO, and other styles
49

Firmin, Christian. "Optimisation des réseaux de neurones à fonctions radiales de base par critères informationnels : application à la détection de défauts en production de bouteilles." Lille 1, 1997. http://www.theses.fr/1997LIL10048.

Full text
Abstract:
Cette étude porte sur les réseaux de neurones à fonctions radiales de base pour la classification automatique. Ces réseaux sont attractifs grâce à leurs structures étroitement liées aux approches statistiques de classification. Dans un premier temps, nous présentons les méthodes métriques et probabilistes pour la classification non supervisée. Ces approches sont vues sous un aspect stochastique adapté à l'apprentissage des réseaux de neurones. Nous mettons en évidence les avantages et inconvénients de ces deux types d'approche pour proposer un algorithme d'apprentissage robuste et rapide. Dans la deuxième partie nous utilisons des critères informationnels en vue de limiter la complexité d'un réseau de neurones à fonctions radiales de base. Nous développons, également, un réseau à architecture évolutive qui permet de s'affranchir de la connaissance a priori du nombre et de la forme des classes présentes dans l'ensemble d'observations. La classification des observations est obtenue par segmentation itérative de la fonction de densité de probabilité estimée par le réseau. La dernière partie de ce mémoire est consacrée à la conception d'un système de détection automatique de défauts sur des bouteilles en verre. Nous présentons la démarche adoptée qui inclut l'extraction et la sélection d'attributs caractéristiques ainsi que la conception d'un réseau de neurones avec options de rejets.
APA, Harvard, Vancouver, ISO, and other styles
50

Pannequin, Rémi Morel Gérard Thomas André. "Proposition d'un environnement de modélisation et de test d'architectures de pilotage par le produit de systèmes de production." [S.l.] : [s.n.], 2007. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2007_0122_PANNEQUIN.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography