Dissertations / Theses on the topic 'Optimisation dirigée par les données'

To see the other types of publications on this topic, follow the link: Optimisation dirigée par les données.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Optimisation dirigée par les données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bouarar, Selma. "Vers une conception logique et physique des bases de données avancées dirigée par la variabilité." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2016. http://www.theses.fr/2016ESMA0024/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le processus de conception des BD ne cesse d'augmenter en complexité et d'exiger plus de temps et de ressources afin de contenir la diversité des applications BD. Rappelons qu’il se base essentiellement sur le talent et les connaissances des concepteurs. Ces bases s'avèrent de plus en plus insuffisantes face à la croissante diversité de choix de conception, en soulevant le problème de la fiabilité et de l'exhaustivité de cette connaissance. Ce problème est bien connu sous le nom de la gestion de la variabilité en génie logiciel. S’il existe quelques travaux de gestion de variabilité portant sur les phases physique et conceptuelle, peu se sont intéressés à la phase logique. De plus, ces travaux abordent les phases de conception de manière séparée, ignorant ainsi les différentes interdépendances.Dans cette thèse, nous présentons d'abord la démarche à suivre afin d'adopter la technique des lignes de produits et ce sur l'ensemble du processus de conception afin de (i) considérer les interdépendances entre les phases, (ii) offrir une vision globale au concepteur, et (iii) augmenter l'automatisation. Vu l'étendue de la question, nous procédons par étapes dans la réalisation de cette vision, en consacrant cette thèse à l'étude d'un cas choisi de façon à montrer : (i) l'importance de la variabilité de la conception logique, (ii) comment la gérer en offrant aux concepteurs l'exhaustivité des choix, et la fiabilité de la sélection, (iii) son impact sur la conception physique (gestion multiphase),(iv) l'évaluation de la conception logique, et de l'impact de la variabilité logique sur la conception physique (sélection des vues matérialisées) en termes des besoins non fonctionnel(s) :temps d'exécution, consommation d'énergie voire l'espace de stockage
The evolution of computer technology has strongly impacted the database design process which is henceforth requiring more time and resources to encompass the diversity of DB applications.Note that designers rely on their talent and knowledge, which have proven insufficient to face the increasing diversity of design choices, raising the problem of the reliability and completeness of this knowledge. This problem is well known as variability management in software engineering. While there exist some works on managing variability of physical and conceptual phases, very few have focused on logical design. Moreover, these works focus on design phases separately, thus ignore the different interdependencies. In this thesis, we first present a methodology to manage the variability of the whole DB design process using the technique of software product lines, so that (i)interdependencies between design phases can be considered, (ii) a holistic vision is provided to the designer and (iii) process automation is increased. Given the scope of the study, we proceed step-bystepin implementing this vision, by studying a case that shows: (i) the importance of logical design variability (iii) its impact on physical design (multi-phase management), (iv) the evaluation of logical design, and the impact of logical variability on the physical design (materialized view selection) in terms of non-functional requirements: execution time, energy consumption and storage space
2

Djilani, Zouhir. "Donner une autre vie à vos besoins fonctionnels : une approche dirigée par l'entreposage et l'analyse en ligne." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0012/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les besoins fonctionnels et non fonctionnels représentent la première brique pour la conception de toute application, logiciel, système, etc. L'ensemble des traitements associés aux besoins est établi dans le cadre de l'ingénierie des Besoins (IB). Le processus de l'IB comporte plusieurs étapes consistant à découvrir, analyser, valider et faire évoluer l'ensemble des besoins relatifs aux fonctionnalités du système. La maturité de la communauté de l'IB lui a permis d'établir un cycle de vie bien déterminé pour le processus de besoins qui comprend les phases suivantes :l'élicitation, la modélisation, la spécification, la validation et la gestion des besoins. Une fois ces besoins validés, ils sont archivés ou stockés dans des référentiels ou des dépôts au sein des entreprises. Avec l'archivage continu des besoins, ces entreprises disposent d'une mine d'informations qu'il faudra analyser afin de reproduire les expériences cumulées et le savoir-faire acquis en réutilisant et en exploitant ces besoins pour des nouveaux projets. Proposer à ces entreprises un entrepôt dans lequel l'ensemble de besoins est stocké représente une excellente opportunité pour les analyser à des fins décisionnelles et les fouiller pour reproduire des anciennes expériences. Récemment, la communauté des processus (BPM) a émis le même besoin pour les processus. Dans cette thèse, nous souhaitons exploiter le succès des entrepôts de données pour le reproduire sur les besoins fonctionnels. Les problèmes rencontrés lors de la conception des entrepôts de données se retrouvent presque à l'identique dans le cas des besoins fonctionnels.Ces derniers sont souvent hétérogènes, surtout dans le cas d'entreprises de grande taille comme Airbus, où chaque partenaire a la liberté d'utiliser ses propres vocabulaire et formalisme pour décrire ses besoins. Pour réduire cette hétérogénéité, l'appel aux ontologies est nécessaire. Afin d'assurer l'autonomie de chaque source, nous supposons que chaque source a sa propre ontologie.Cela nécessite des efforts de matching entre les ontologies afin d'assurer l' intégration des besoins fonctionnels. Une particularité importante liée à l'entreposage de besoins réside dans le fait que ces derniers sont souvent exprimés à l'aide des formalismes semi-formels comme les use cases d'UML avec une partie textuelle importante. Afin de nous rapprocher le plus possible de ce que nous avons fait dans le cadre de l'entreposage de données, nous proposons un modèle pivot permettant de factoriser trois semi-formalismes répandus utilisés par les sources de besoins avec une description précise de ces derniers. Ce modèle pivot permettra de définir le modèle multidimensionnel del' entrepôt de besoins, qui sera ensuite alimenté par les besoins des sources en utilisant un algorithme ETL (Extract, Transform, Load). À l'aide des mécanismes de raisonnement offerts par les ontologies et des métriques de matching, nous avons nettoyé notre entrepôt de besoins. Une fois l'entrepôt déployé, il est exploité par des outils d'analyse OLAP.Notre méthodologie est supportée par un outil couvrant l'ensemble des phases de conception et d'exploitation d'un entrepôt de besoins
Functiona] and non-functional requirements represent the first step for the design of any application, software, system, etc. Ail the issues associated to requirements are analyzed in the Requirements Engineering (RE) field. The RE process consists of several steps consisting of discovering, analyzing, validating and evolving the requirements related to the functionalities of the system. The RE community proposed a well-defined life-cycle for the requirements process that includes the following phases: elicitation, modeling, specification, validation and management. Once the requirements are validated, they are archived or stored in repositories in companies. With the continuous storage of requirements, companies accumulate an important amount of requirements information that needs to be analyzed in order to reproduce the previous experiences and the know-how acquired by reusing and exploiting these requirements for new projects. Proposing to these companies a warehouse in which all requirements are stored represents an excellent opportunity to analyze them for decision-making purposes. Recently, the Business Process Management Community (BPM) emitted the same needs for processes. In this thesis, we want to exploit the success of data warehouses and to replicate it for functional requirements. The issues encountered in the design of data warehouses are almost identical in the case of functional requirements. Requirements are often heterogeneous, especially in the case of large companies such Airbus, where each panner bas the freedom to use its own vocabulary and formalism to describe the requirements. To reduce this heterogeneity, using ontologies is necessary. In order to ensure the autonomy of each partner, we assume that each source bas its own ontology. This requires matching efforts between ontologies to ensure the integration of functional requirements. An important feature related to the storage of requirements is that they are often expressed using semi-forma! formalisms such as use cases of UML with an important textual part. In order to get as close as possible to our contributions in data warehousing,we proposed a pivot model factorizing three well-known semi-formalisms. This pivot model is used to define the multidimensional model of the requirements warehouse, which is then alimented by the sources requirements using an ETL algorithm (Extract,Transform, Load).Using reasoning mechanisms otfered by ontologies and matching metrics, we cleaned up our requirements warehouse. Once the warehouse is deployed, it is exploited using OLAP analysis tools. Our methodology is supported by a tool covering all design phases of the requirements warehouse
3

Loger, Benoit. "Modèles d’optimisation basés sur les données pour la planification des opérations dans les Supply Chain industrielles." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2023. http://www.theses.fr/2023IMTA0389.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face à la complexité croissante des chaînes logistiques, l’utilisation d’outils d’aide à la décision automatisés devient nécessaire pour appréhender les multiples sources d’incertitude susceptibles de les impacter tout en garantissant un niveau de performance élevé. Pour répondre à ces objectif, les managers ont de plus en plus recours à des approches capables d’améliorer la résilience des chaînes logistiques en proposant des solutions robustes face aux aléas, pour garantir à la fois la qualité de service et la maîtrise des coûts liés à la production, au stockage et au transport de biens. Alors que la collecte et l’analyse des données occupe une place croissante dans la stratégie des entreprises, la bonne exploitation de ces informations afin de caractériser plus précisément ces incertitudes et leur impact sur les opérations devient un enjeu majeur pour optimiser les systèmes de production et de distribution modernes. Cette thèse se positionne au cœur de ces nouveaux défis en développant différentes méthodes d’optimisation mathématiques reposant sur l’utilisation de données historiques, dans le but de proposer des solutions robustes à plusieurs problèmes d’approvisionnement et de planification de production. Des expérimentations numériques sur des applications de natures diverses permettent de comparer ces nouvelles techniques à plusieurs autres approches classiques de la littérature pour valider leur pertinence en pratique. Les résultats obtenus démontrent l’intérêt de ces contributions, qui offrent des performances moyennes comparables tout en réduisant leur variabilité en contexte incertain. En particulier, les solutions restent satisfaisantes lorsqu’elles sont confrontées à des scenarios extrêmes, dont la probabilité d’apparition est faible. Enfin, les temps de résolution des procédures développées restent compétitifs et laissent envisager la possibilité d’une mise en œuvre sur des cas d’application à l’échelle industrielle
With the increasing complexity of supply chains, automated decision-support tools become necessary in order to apprehend the multiple sources of uncertainty that may impact them, while maintaining a high level of performance. To meet these objectives, managers rely more and more on approaches capable of improving the resilience of supply chains by proposing robust solutions that remain valid despite uncertainty, to guarantee both a quality of service and a control of the costs induced by the production, storage and transportation of goods. As data collection and analysis become central to define the strategy of companies, a proper usage of this information to characterize more precisely these uncertainties and their impact on operations is becoming a major challenge for optimizing modern production and distribution systems. This thesis addresses these new challenges by developing different mathematical optimization methods based on historical data, with the aim of proposing robust solutions to several supply and production planning problems. To validate the practical relevance of these new techniques, numerical experiments on various applications compare them with several other classical approachesfrom the literature. The results obtained demonstrate the value of these contributions, which offer comparable average performance while reducing their variability in an uncertain context. In particular, the solutions remain satisfactory when confronted with extreme scenarios, whose probability of occurrence is low. Finally, the computational time of the procedures developed remain competitive, making them suitable for industrial-scale applications
4

Ikken, Sonia. "Efficient placement design and storage cost saving for big data workflow in cloud datacenters." Thesis, Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les workflows sont des systèmes typiques traitant le big data. Ces systèmes sont déployés sur des sites géo-distribués pour exploiter des infrastructures cloud existantes et réaliser des expériences à grande échelle. Les données générées par de telles expériences sont considérables et stockées à plusieurs endroits pour être réutilisées. En effet, les systèmes workflow sont composés de tâches collaboratives, présentant de nouveaux besoins en terme de dépendance et d'échange de données intermédiaires pour leur traitement. Cela entraîne de nouveaux problèmes lors de la sélection de données distribuées et de ressources de stockage, de sorte que l'exécution des tâches ou du job s'effectue à temps et que l'utilisation des ressources soit rentable. Par conséquent, cette thèse aborde le problème de gestion des données hébergées dans des centres de données cloud en considérant les exigences des systèmes workflow qui les génèrent. Pour ce faire, le premier problème abordé dans cette thèse traite le comportement d'accès aux données intermédiaires des tâches qui sont exécutées dans un cluster MapReduce-Hadoop. Cette approche développe et explore le modèle de Markov qui utilise la localisation spatiale des blocs et analyse la séquentialité des fichiers spill à travers un modèle de prédiction. Deuxièmement, cette thèse traite le problème de placement de données intermédiaire dans un stockage cloud fédéré en minimisant le coût de stockage. A travers les mécanismes de fédération, nous proposons un algorithme exacte ILP afin d’assister plusieurs centres de données cloud hébergeant les données de dépendances en considérant chaque paire de fichiers. Enfin, un problème plus générique est abordé impliquant deux variantes du problème de placement lié aux dépendances divisibles et entières. L'objectif principal est de minimiser le coût opérationnel en fonction des besoins de dépendances inter et intra-job
The typical cloud big data systems are the workflow-based including MapReduce which has emerged as the paradigm of choice for developing large scale data intensive applications. Data generated by such systems are huge, valuable and stored at multiple geographical locations for reuse. Indeed, workflow systems, composed of jobs using collaborative task-based models, present new dependency and intermediate data exchange needs. This gives rise to new issues when selecting distributed data and storage resources so that the execution of tasks or job is on time, and resource usage-cost-efficient. Furthermore, the performance of the tasks processing is governed by the efficiency of the intermediate data management. In this thesis we tackle the problem of intermediate data management in cloud multi-datacenters by considering the requirements of the workflow applications generating them. For this aim, we design and develop models and algorithms for big data placement problem in the underlying geo-distributed cloud infrastructure so that the data management cost of these applications is minimized. The first addressed problem is the study of the intermediate data access behavior of tasks running in MapReduce-Hadoop cluster. Our approach develops and explores Markov model that uses spatial locality of intermediate data blocks and analyzes spill file sequentiality through a prediction algorithm. Secondly, this thesis deals with storage cost minimization of intermediate data placement in federated cloud storage. Through a federation mechanism, we propose an exact ILP algorithm to assist multiple cloud datacenters hosting the generated intermediate data dependencies of pair of files. The proposed algorithm takes into account scientific user requirements, data dependency and data size. Finally, a more generic problem is addressed in this thesis that involve two variants of the placement problem: splittable and unsplittable intermediate data dependencies. The main goal is to minimize the operational data cost according to inter and intra-job dependencies
5

Ikken, Sonia. "Efficient placement design and storage cost saving for big data workflow in cloud datacenters." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les workflows sont des systèmes typiques traitant le big data. Ces systèmes sont déployés sur des sites géo-distribués pour exploiter des infrastructures cloud existantes et réaliser des expériences à grande échelle. Les données générées par de telles expériences sont considérables et stockées à plusieurs endroits pour être réutilisées. En effet, les systèmes workflow sont composés de tâches collaboratives, présentant de nouveaux besoins en terme de dépendance et d'échange de données intermédiaires pour leur traitement. Cela entraîne de nouveaux problèmes lors de la sélection de données distribuées et de ressources de stockage, de sorte que l'exécution des tâches ou du job s'effectue à temps et que l'utilisation des ressources soit rentable. Par conséquent, cette thèse aborde le problème de gestion des données hébergées dans des centres de données cloud en considérant les exigences des systèmes workflow qui les génèrent. Pour ce faire, le premier problème abordé dans cette thèse traite le comportement d'accès aux données intermédiaires des tâches qui sont exécutées dans un cluster MapReduce-Hadoop. Cette approche développe et explore le modèle de Markov qui utilise la localisation spatiale des blocs et analyse la séquentialité des fichiers spill à travers un modèle de prédiction. Deuxièmement, cette thèse traite le problème de placement de données intermédiaire dans un stockage cloud fédéré en minimisant le coût de stockage. A travers les mécanismes de fédération, nous proposons un algorithme exacte ILP afin d’assister plusieurs centres de données cloud hébergeant les données de dépendances en considérant chaque paire de fichiers. Enfin, un problème plus générique est abordé impliquant deux variantes du problème de placement lié aux dépendances divisibles et entières. L'objectif principal est de minimiser le coût opérationnel en fonction des besoins de dépendances inter et intra-job
The typical cloud big data systems are the workflow-based including MapReduce which has emerged as the paradigm of choice for developing large scale data intensive applications. Data generated by such systems are huge, valuable and stored at multiple geographical locations for reuse. Indeed, workflow systems, composed of jobs using collaborative task-based models, present new dependency and intermediate data exchange needs. This gives rise to new issues when selecting distributed data and storage resources so that the execution of tasks or job is on time, and resource usage-cost-efficient. Furthermore, the performance of the tasks processing is governed by the efficiency of the intermediate data management. In this thesis we tackle the problem of intermediate data management in cloud multi-datacenters by considering the requirements of the workflow applications generating them. For this aim, we design and develop models and algorithms for big data placement problem in the underlying geo-distributed cloud infrastructure so that the data management cost of these applications is minimized. The first addressed problem is the study of the intermediate data access behavior of tasks running in MapReduce-Hadoop cluster. Our approach develops and explores Markov model that uses spatial locality of intermediate data blocks and analyzes spill file sequentiality through a prediction algorithm. Secondly, this thesis deals with storage cost minimization of intermediate data placement in federated cloud storage. Through a federation mechanism, we propose an exact ILP algorithm to assist multiple cloud datacenters hosting the generated intermediate data dependencies of pair of files. The proposed algorithm takes into account scientific user requirements, data dependency and data size. Finally, a more generic problem is addressed in this thesis that involve two variants of the placement problem: splittable and unsplittable intermediate data dependencies. The main goal is to minimize the operational data cost according to inter and intra-job dependencies
6

Atigui, Faten. "Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données." Thesis, Toulouse 1, 2013. http://www.theses.fr/2013TOU10044/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED
Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction
7

Mahéo, Yves. "Environnements pour la compilation dirigée par les données : supports d'exécution et expérimentations." Phd thesis, Université Rennes 1, 1995. http://tel.archives-ouvertes.fr/tel-00497580.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La difficulté de programmation des architectures parallèles à mémoire distribuée est un obstacle à l'exploitation de leur puissance de calcul potentielle. Parmi les différentes approches proposées pour pallier à cette difficulté, celle de la compilation dirigée par les données semble prometteuse, notamment dans le domaine du calcul scientifique. Le programme source, exprimé par exemple en HPF, est un programme séquentiel impératif dans lequel il est précisé comment sont réparties les données sur les processeurs ; le compilateur dérive un code parallèle en distribuant le contrôle d'après la distribution des données. La mise en oeuvre de cette approche nécessite le développement d'environnements complets. Cette thèse présente le travail réalisé dans le cadre d'un environnement de ce type : l'environnement Pandore. Nous nous sommes intéressés à la conception et la réalisation d'un exécutif portable et efficace qui doit être associé au compilateur ainsi qu'à l'évaluation des performances des programmes générés. Après avoir situé l'approche de la compilation par distribution de données dansle contexte plus large de la programmation des machines parallèles à mémoire distribuée, nous définissons des opérations de haut niveau qui permettent la description des schémas de compilation et la prise en compte des optimisations. Deux types de machines cibles sont considérés, d'une part des machines à messages et d'autre part des machines disposant d'un mécanisme de mémoire virtuelle partagée. Les points clés de la mise en oeuvre des opérations dans le compilateur et l'exécutif sont abordés. Nous insistons plus particulièrement sur la gestion des données distribuées et sur les optimisations des communications à l'exécution. Une mise en oeuvre réalisée dans l'environnement Pandore est ensuite détaillée. L'évaluation des performances des programmes est également étudiée, dans un premier temps par une série d'expérimentations sur plusieurs applications et dans un deuxième temps par la définition d'outils de mesure et de visualisation adaptés à la compilation par distribution de données.
8

Maheo, Yves. "Environnement pour la compilation dirigée par les données : supports d'exécution et expérimentations." Rennes 1, 1995. http://www.theses.fr/1995REN10059.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La difficulte de programmation des architectures paralleles a memoire distribuee est un obstacle a l'exploitation de leur puissance de calcul potentielle. Parmi les differentes approches proposees pour pallier cette difficulte, celle de la compilation dirigee par les donnees semble prometteuse, notamment dans le domaine du calcul scientifique. Le programme source, exprime par exemple en hpf, est un programme sequentiel imperatif dans lequel il est precise comment sont reparties les donnees sur les processeurs ; le compilateur derive un code parallele en distribuant le controle d'apres la distribution des donnees. La mise en uvre de cette approche necessite le developpement d'environnements complets. Cette these presente le travail realise dans le cadre d'un environnement de ce type: l'environnement pandore. Nous nous sommes interesses a la conception et la realisation d'un executif portable et efficace qui doit etre associe au compilateur ainsi qu'a l'evaluation des performances des programmes generes. Apres avoir situe l'approche de la compilation par distribution de donnees dans le contexte plus large de la programmation des machines paralleles a memoire distribuee, nous definissons des operations de haut niveau qui permettent la description des schemas de compilation et la prise en compte des optimisations. Deux types de machines cibles sont consideres, d'une part des machines a messages et d'autre part des machines disposant d'un mecanisme de memoire virtuelle partagee. Les points cles de la mise en uvre des operations dans le compilateur et l'executif sont abordes. Nous insistons plus particulierement sur la gestion des donnees distribuees et sur les optimisations des communications a l'execution. Une mise en uvre realisee dans l'environnement pandore est ensuite detaillee. L'evaluation des performances des programmes est egalement etudiee, dans un premier temps par une serie d'experimentations sur plusieurs applications et dans un deuxieme temps par la definition d'outils de mesure et de visualisation adaptes a la compilation par distribution de donnees
9

Beneyton, Thomas. "Évolution dirigée et biopile enzymatique : étude de la laccase CotA et optimisation par évolution dirigée en microfluidique digitale." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/BENEYTON_Thomas_2011.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les biopiles enzymatiques ont vu le jour pour développer des sources miniatures d’électricité renouvelable. Cette technologie naissante est cependant encore limitée en termes de puissance ou de durée de vie. Bien qu’encore peu employée, une stratégie pour améliorer ces performances consiste à optimiser les propriétés catalytiques ou de stabilité des enzymes. Ces travaux de doctorat décrivent le développement d’une plateforme de microfluidique digitale permettant l’évolution dirigée de la laccase CotA de Bacillus subtilis pour une utilisation dans une biopile enzymatique. Ces travaux démontrent la possibilité d’utiliser une enzyme extrêmophile au sein d’une biopile enzymatique. L’efficacité de CotA en tant que biocatalyseur de la réduction de l’O2 a été évaluée pour la première fois en développant des biocathodes ou des biopiles Glucose/O2 complètes. Une plateforme microfluidique modèle de criblage à très haut débit applicable à l’évolution dirigée de la laccase CotA a également été mise au point et validée. La plateforme permet l’encapsulation de cellules E. Coli exprimant la protéine dans des microgouttelettes aqueuses de quelques picolitres, l’incubation des microgouttelettes, l’ajout du substrat par picoinjection puis la détection et le tri de l’activité enzymatique de CotA à très haut débit (1 million de clones en seulement 4 heures). La plateforme est directement applicable au criblage de banques de mutants et les variants optimisés sélectionnés devraient mener à la création d’une nouvelle génération de biopiles plus efficaces. Cette plateforme universelle de criblage constitue un outil à la fois versatile et puissant pour l’évolution dirigée des protéines
Enzymatic biofuel cells have been recently developed to create miniature renewable electricity sources. However, this new technology is still limited in terms of power and lifetime compared to classical fuel cells. Although it has been rarely used yet, one strategy to improve these performances is to optimize the catalytic and stability properties of the enzymes. This PhD work describes the development of a droplet-based microfluidic platform for thr directed evolution of CotA laccase from Bacillus subtilis for enzymatic biofuel cells application. This work demonstrates the possibility of using an extremophilic enzyme inside an enzymatique biofuel cell. The efficiency of CotA as a biocatalyst for O2 reduction has been evaluated for the first time developing biocathodes or complete Glucose/O2 biofuel cells. A droplet-based microfluidic high-throughput screening platform for CotA directed evolution has also been developed and validated. This platform allows the encapsulation of E. Coli cells expressing the protein in aqueous droplets of few picoliters, the incubation of droplets, the addition of the substrate using picoinjection and then the detection and the sorting of CotA enzymatic activity using very high-throughput (1 million clones in only 4 hours). The platform can be directly used for the screening of mutant libraries. Optimized selected mutants would lead to the creation of a new and more efficient generation of enzymatic biofuel cells. This universal droplet-based microfluidic screening platform is a very powerful tool for directed evolution of proteins
10

Ait, Brahim Amal. "Approche dirigée par les modèles pour l'implantation de bases de données massives sur des SGBD NoSQL." Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La transformation digitale des entreprises et plus largement celle de la société, entraine une évolution des bases de données (BD) relationnelles vers les BD massives. Dans les systèmes informatiques décisionnels actuels, les décideurs doivent pouvoir constituer des bases de données, les réorganiser puis en extraire l’information pertinente pour la prise de décision. Ces systèmes sont donc naturellement impactés par cette évolution où les données sont généralement stockées sur des systèmes NoSQL capables de gérer le volume, la variété et la vélocité. Nos travaux s’inscrivent dans cette mutation ; ils concernent plus particulièrement les mécanismes d’implantation d’une BD massive sur un SGBDNoSQL. Le point de départ du processus d’implantation est constitué d’un modèle contenant la description conceptuelle des données et des contraintes d’intégrité associées.Peu de travaux ont apporté des solutions automatiques complètes portant à la fois sur les structures de données et les contraintes d’intégrité. L’objectif de cette thèse est de proposer une démarche générale qui guide et facilite la tâche de transformation d’un modèle conceptuel en un modèle d’implantation NoSQL. Pour ceci, nous utilisons l’architecture MDA qui est une norme du consortium OMG pour le développement dirigé par les modèles.A partir d'un modèle conceptuel exprimé à l'aide du formalisme UML, notre démarche MDA applique deux processus unifiés pour générer un modèle d’implantation sur une plateforme NoSQL choisie par l’utilisateur : - Le processus de transformation d’un DCL, - Le processus de transformation des contraintes associées, Nos deux processus s’appuient sur :- Trois niveaux de modélisation : conceptuel, logique et physique, où le modèle logique correspond à une représentation générique compatible avec les quatre types de SGBD NoSQL : colonnes, documents, graphes et clé-valeur, - Des métamodèles permettant de vérifier la validité des modèles à chaque niveau, - Des normes de l’OMG pour formaliser l’entrée du processus et l’ensemble des règles de transformation. Afin de vérifier la faisabilité de notre solution, nous avons développé un prototype composé de deux modules. Le premier applique un ensemble de règles de transformation sur un modèle conceptuel et restitue un modèle NoSQL associé à un ensemble de directives d’assistance. Le second module complète le premier en intégrant les contraintes qui ne sont pas prises en compte dans le modèle physique généré. Nous avons montré également la pertinence de nos propositions grâce à une évaluation réalisée par des ingénieurs d’une société spécialisée dans le décisionnel
Le résumé en anglais n'a pas été communiqué par l'auteur
11

Rahmoun, Smail. "Optimisation multi-objectifs d'architectures par composition de transformation de modèles." Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons dans cette thèse une nouvelle approche pour l'exploration d’espaces de conception. Plus précisément, nous utilisons la composition de transformations de modèles pour automatiser la production d'alternatives architecturales, et les algorithmes génétiques pour explorer et identifier des alternatives architecturales quasi-optimales. Les transformations de modèles sont des solutions réutilisables et peuvent être intégrées dans des algorithmes génétiques et ainsi être combinées avec des opérateurs génétiques tels que la mutation et le croisement. Grâce à cela, nous pouvons utiliser (ou réutiliser) différentes transformations de modèles implémentant différents patrons de conception sans pour autant modifier l’environnement d’optimisation. En plus de cela, les transformations de modèles peuvent être validées (par rapport aux contraintes structurelles) en amont et ainsi rejeter avant l’exploration les transformations générant des alternatives architecturales incorrectes. Enfin, les transformations de modèles peuvent être chainées entre elles afin de faciliter leur maintenance, leur réutilisabilité et ainsi concevoir des modèles plus détaillés et plus complexes se rapprochant des systèmes industrielles. A noter que l’exploration de chaines de transformations de modèles a été intégrée dans l’environnement d’optimisation
In this thesis, we propose a new exploration approach to tackle design space exploration problems involving multiple conflicting non functional properties. More precisely, we propose the use of model transformation compositions to automate the production of architectural alternatives, and multiple-objective evolutionary algorithms to identify near-optimal architectural alternatives. Model transformations alternatives are mapped into evolutionary algorithms and combined with genetic operators such as mutation and crossover. Taking advantage of this contribution, we can (re)-use different model transformations, and thus solve different multiple-objective optimization problems. In addition to that, model transformations can be chained together in order to ease their maintainability and re-usability, and thus conceive more detailed and complex systems
12

Martinez, Medina Lourdes. "Optimisation des requêtes distribuées par apprentissage." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de gestion de données distribuées deviennent de plus en plus complexes. Ils interagissent avec des réseaux de dispositifs fixes et/ou mobiles, tels que des smartphones ou des tablettes, dispositifs hétérogènes, autonomes et possédant des limitations physiques. Ces dispositifs exécutent des applications permettant l'interaction des usagers (i.e. jeux virtuels, réseaux sociaux). Ces applications produisent et consomment des données à tout moment voire même en continu. Les caractéristiques de ces systèmes ajoutent des dimensions au problème de l'optimisation de requêtes, telles que la variabilité des objectifs d'optimisation, l'absence d'information sur les données (métadonnées) ou le manque d'une vision globale du système. Les techniques traditionnelles d'optimisation des requêtes n'abordent pas (ou très peu) les systèmes autonomes. Elles se basent sur les métadonnées et font des hypothèses très fortes sur le comportement du système. En plus, la majorité de ces techniques d'optimisation ciblent uniquement l'optimisation du temps d'exécution. La difficulté d'évaluation des requêtes dans les applications modernes incite à revisiter les techniques traditionnelles d'optimisation. Cette thèse fait face aux défis décris précédemment par l'adaptation du paradigme du Raisonnement à partir de cas (CBR pour Case-Based Reasoning) au problème de l'optimisation des requêtes. Cette adaptation, associée à une exploration pseudo-aléatoire de l'espace de solutions fournit un moyen pour optimiser des requêtes dans les contextes possédant très peu voire aucune information sur les données. Cette approche se concentre sur l'optimisation de requêtes en utilisant les cas générés précédemment dans l'évaluation de requêtes similaires. Un cas de requête et composé par : (i) la requête (le problème), (ii) le plan d'exécution (la solution) et (iii) les mesures de ressources utilisés par l'exécution du plan (l'évaluation de la solution). Cette thèse aborde également la façon que le processus CBR interagit avec le processus de génération de plan d'exécution de la requête qui doit permettre d'explorer l'espace des solutions. Ce processus utilise les heuristiques classiques et prennent des décisions de façon aléatoire lorsque les métadonnées viennent à manquer (e.g. pour l'ordre des jointures, la sélection des algorithmes, voire même le choix des protocoles d'acheminement de messages). Ce processus exploite également le CBR pour générer des plans pour des sous-requêtes, accélérant ainsi l'apprentissage de nouveaux cas. Les propositions de cette thèse ont été validées à l'aide du prototype CoBRA développé dans le contexte du projet UBIQUEST
Distributed data systems are becoming increasingly complex. They interconnect devices (e.g. smartphones, tablets, etc.) that are heterogeneous, autonomous, either static or mobile, and with physical limitations. Such devices run applications (e.g. virtual games, social networks, etc.) for the online interaction of users producing / consuming data on demand or continuously. The characteristics of these systems add new dimensions to the query optimization problem, such as multi-optimization criteria, scarce information on data, lack of global system view, among others. Traditional query optimization techniques focus on semi (or not at all) autonomous systems. They rely on information about data and make strong assumptions about the system behavior. Moreover, most of these techniques are centered on the optimization of execution time only. The difficulty for evaluating queries efficiently on nowadays applications motivates this work to revisit traditional query optimization techniques. This thesis faces these challenges by adapting the Case Based Reasoning (CBR) paradigm to query processing, providing a way to optimize queries when there is no prior knowledge of data. It focuses on optimizing queries using cases generated from the evaluation of similar past queries. A query case comprises: (i) the query, (ii) the query plan and (iii) the measures (computational resources consumed) of the query plan. The thesis also concerns the way the CBR process interacts with the query plan generation process. This process uses classical heuristics and makes decisions randomly (e.g. when there are no statistics for join ordering and selection of algorithms, routing protocols). It also (re)uses cases (existing query plans) for similar queries parts, improving the query optimization, and therefore evaluation efficiency. The propositions of this thesis have been validated within the CoBRa optimizer developed in the context of the UBIQUEST project
13

Bradai, Benazouz. "Optimisation des Lois de Commande d’Éclairage Automobile par Fusion de Données." Mulhouse, 2007. http://www.theses.fr/2007MULH0863.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conduite nocturne avec un système d’éclairage conventionnel n’est pas suffisamment sécurisante. En effet, si l’on roule beaucoup moins de nuit, plus de la moitié des accidents de la route arrivent pendant cette période. Dans le but de réduire ces accidents du trafic nocturne, le projet européen « Adaptive Front lighting System » (AFS) a été initié. L’objectif pour les constructeurs et équipementiers automobiles est d’aboutir en 2008 à un changement de réglementation de l’éclairage automobile. Pour cela, ils explorent les différents modes de réalisation possible de nouvelles fonctions d’éclairage basées sur la déformation du faisceau lumineux, et étudient la pertinence, l’efficacité par rapport à la situation de conduite, mais aussi les dangers associés à l’utilisation, pour ces fonctions, d’éclairage, d’informations issues du véhicule ou de l’environnement. Depuis 2003, des véhicules proposent d’orienter l’éclairage en virage, cette solution, ne tenant compte que des actions du conducteur sur le volant, permet d’améliorer la visibilité en orientant le faisceau vers l’intérieur du virage. Cependant, le profil de route (intersections, courbure, etc. ) n’étant pas toujours connu du conducteur, les performances liées à cette solution sont dès lors limitées. Or les systèmes embarqués de navigation, d’une part peuvent apporter des informations primordiales sur cette forme, et d’autre part disposent d’informations contextuelles (ouvrages d’art, nature de la route, rayon de virage, limitations de vitesse en vigueur…). Le sujet de cette thèse a pour objectif d’optimiser les lois de commande des systèmes d’éclairage en s’appuyant sur la fusion des informations issues des systèmes de navigation avec celles des capteurs embarqués dans le véhicule (caméras, …), tout en sachant jusqu’à quel point les systèmes actuels et futurs peuvent répondre à ces attentes de manière efficace et fiable. Ainsi, cette fusion des informations, appliquée ici à la prise de décision, permet de définir les situations et les contextes de conduite de l’environnement d’évolution du véhicule (autoroute, ville, etc. ) et de choisir la loi appropriée parmi les différentes lois de commande d’éclairage développées pour répondre aux fonctionnalités recherchées (code autoroute, code ville, code virage). Cette démarche permet de choisir en temps réel, et par anticipation, entre ces différentes lois de commande. Elle permet, par conséquent, l’amélioration de la robustesse du système d’éclairage. Deux points sont à l’origine de cette amélioration. Premièrement, à partir du système de navigation, nous avons développé un capteur virtuel d’horizon glissant événementiel permettant la détermination précise des différentes situations de conduite en utilisant un automate d’états finis. Il permet ainsi de pallier aux problèmes de la nature ponctuelle des informations du système de navigation. Deuxièmement, nous avons développé un capteur virtuel générique de détermination des situations de conduite basé sur la théorie des croyances en utilisant un système de navigation et la vision. Ce capteur combine les confiances en provenance des deux sources pour mieux distinguer les différentes situations et les différents contextes de conduite et de pallier aux problèmes des deux sources prises indépendamment. Il permet également de construire une confiance du système de navigation. Ce capteur générique est généralisable à des systèmes d’aide à la conduite (ADAS) autre que l’éclairage. Ceci a été montré en l’appliquant à un système de détection des limitations de vitesses réglementaires SLS (Speed Limit Support). Les deux capteurs virtuels développés ont été appliqués à l’optimisation de l’éclairage AFS et au système SLS. Ces deux systèmes ont été implémentés sur un véhicule de démonstration et ils sont actuellement opérationnels. Ils ont été évalués par différents types de conducteur allant des non experts aux experts de l’éclairage et des systèmes d’aide à la conduite (ADAS). Ils ont été également montrés auprès des constructeurs automobiles (PSA, Audi, Renault, Honda, etc. ) et au cours de différents « techdays » et ils ont prouvé leur fiabilité lors des démonstrations sur routes ouvertes avec des différentes situations et différents contextes de conduite
Night-time driving with conventional headlamps is particularly unsafe. Indeed, if one drives much less at night, more than half of the driving fatalities occur during this period. To reduce these figures, several automotive manufacturers and suppliers participated to the European project “Adaptive Front lighting System” (AFS). This project has the aim to define new lightings functions based on a beam adaptation to the driving situation. And, it has to end in 2008 with a change of regulation of the automotive lighting allowing so realisation of all new AFS functions. For that, they explore the possible realisation of such new lighting functions, and study the relevance, the efficiency according to the driving situation, but also the dangers associated with the use, for these lighting functions, of information from the vehicle or from the environment. Since 2003, some vehicles are equipped by bending lights, taking account only of actions of the driver on the steering wheel. These solutions make it possible to improve the visibility by directing the beam towards the interior of the bend. However, the road profile (intersections, bends, etc) not being always known for the driver, the performances related to these solutions are consequently limited. However the embedded navigation systems, on the one hand can contain information on this road profile, and on the other hand have contextual information (engineering works, road type, curve radius, speed limits …). The topic of this thesis aims to optimize lighting control laws based on fusion of navigation systems information with those of vehicle embedded sensors (cameras,…), with consideration of their efficiency and reliability. Thus, this information fusion, applied here to the decision-making, makes it possible to define driving situations and contexts of the vehicle evolution environment (motorway, city, etc) and to choose the appropriate law among the various of developed lighting control laws (code motorway lighting, town lighting, bending light). This approach makes it possible to choose in real time, and by anticipation, between these various lighting control laws. It allows, consequently, the improvement of the robustness of the lighting system. Two points are at the origin of this improvement. Firstly, using the navigation system information, we developed a virtual sensor of event-based electronic horizon analysis allowing an accurate determination of various driving situations. It uses a finite state machine. It thus makes it possible to mitigate the problems of the ponctual nature of the navigation system information. Secondly, we developed a generic virtual sensor of driving situations determination based on the evidence theory of using a navigation system and the vision. This sensor combines confidences coming from the two sources for better distinguishing between the various driving situations and contexts and to mitigate the problems of the two sources taken independently. It also allows building a confidence of the navigation system using some of their criteria. This generic sensor is generalizable with other assistance systems (ADAS) that lighting one. This was shown by applying it to a speed limit detection system SLS (Speed Limit Support). The two developed virtual sensors were applied to the optimization of lighting system (AFS) and for the SLS system. These two systems were implemented on an experimental vehicle (demonstration vehicle) and they are currently operational. They were evaluated by various types of driver going from non experts to experts. They were also shown to car manufacturers (PSA, Audi, Renault, Honda, etc. ) and during different techdays. They proved their reliability during these demonstrations on open roads with various driving situations and contexts
14

Rahmoun, Smail. "Optimisation multi-objectifs d'architectures par composition de transformation de modèles." Thesis, Paris, ENST, 2017. http://www.theses.fr/2017ENST0004/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons dans cette thèse une nouvelle approche pour l'exploration d’espaces de conception. Plus précisément, nous utilisons la composition de transformations de modèles pour automatiser la production d'alternatives architecturales, et les algorithmes génétiques pour explorer et identifier des alternatives architecturales quasi-optimales. Les transformations de modèles sont des solutions réutilisables et peuvent être intégrées dans des algorithmes génétiques et ainsi être combinées avec des opérateurs génétiques tels que la mutation et le croisement. Grâce à cela, nous pouvons utiliser (ou réutiliser) différentes transformations de modèles implémentant différents patrons de conception sans pour autant modifier l’environnement d’optimisation. En plus de cela, les transformations de modèles peuvent être validées (par rapport aux contraintes structurelles) en amont et ainsi rejeter avant l’exploration les transformations générant des alternatives architecturales incorrectes. Enfin, les transformations de modèles peuvent être chainées entre elles afin de faciliter leur maintenance, leur réutilisabilité et ainsi concevoir des modèles plus détaillés et plus complexes se rapprochant des systèmes industrielles. A noter que l’exploration de chaines de transformations de modèles a été intégrée dans l’environnement d’optimisation
In this thesis, we propose a new exploration approach to tackle design space exploration problems involving multiple conflicting non functional properties. More precisely, we propose the use of model transformation compositions to automate the production of architectural alternatives, and multiple-objective evolutionary algorithms to identify near-optimal architectural alternatives. Model transformations alternatives are mapped into evolutionary algorithms and combined with genetic operators such as mutation and crossover. Taking advantage of this contribution, we can (re)-use different model transformations, and thus solve different multiple-objective optimization problems. In addition to that, model transformations can be chained together in order to ease their maintainability and re-usability, and thus conceive more detailed and complex systems
15

Fankam, Nguemkam Chimène. "OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques." Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. https://tel.archives-ouvertes.fr/tel-00452533.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc. ) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc. ) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web
The need to represent the semantics of data in various scientific fields (medicine, geography, engineering, etc…) has resulted in the definition of data referring to ontologies, also called ontology-based data. With the proliferation of domain ontologies, and the increasing volume of data to handle, has emerge the need to define systems capable of managing large size of ontology-based data. Such systems are called Ontology Based DataBase (OBDB) Management Systems. The main limitations of existing OBDB systems are (1) their rigidity, (2) lack of support for non standard data (spatial, temporal, etc…) and (3) their lack of effectiveness to manage large size data. In this thesis, we propose a new OBDB called OntoDB2, allowing (1) the support of ontologies based on different ontology models, (2) the extension of its model to meet specific applications requirements, and (3) an original management of ontology-based data facilitating scalability. Onto DB2 is based on the existence of a kernel ontology, and model-based techniques to enable a flexible extension of this kernel. We propose to represent only canonical data by transforming, under certain conditions, any given non-canonical data to its canonical representation. We propose to use the ontology query language to (1) to access non-canonical data thereby transform and, (2) index and pre-calculate the reasoning operations by using the mechanisms of the underlying DBMS
16

Mahboubi, Hadj. "Optimisation de la performance des entrepôts de données XML par fragmentation et répartition." Phd thesis, Université Lumière - Lyon II, 2008. http://tel.archives-ouvertes.fr/tel-00350301.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les entrepôts de données XML forment une base intéressante pour les applications décisionnelles qui exploitent des données hétérogènes et provenant de sources multiples. Cependant, les Systèmes de Gestion de Bases de Données (SGBD) natifs XML actuels présentent des limites en termes de volume de données gérable, d'une part, et de performance des requêtes d'interrogation complexes, d'autre part. Il apparaît donc nécessaire de concevoir des méthodes pour optimiser ces performances.

Pour atteindre cet objectif, nous proposons dans ce mémoire de pallier conjointement ces limitations par fragmentation puis par répartition sur une grille de données. Pour cela, nous nous sommes intéressés dans un premier temps à la fragmentation des entrepôts des données XML et nous avons proposé des méthodes qui sont à notre connaissance les premières contributions dans ce domaine. Ces méthodes exploitent une charge de requêtes XQuery pour déduire un schéma de fragmentation horizontale dérivée.

Nous avons tout d'abord proposé l'adaptation des techniques les plus efficaces du domaine relationnel aux entrepôts de données XML, puis une méthode de fragmentation originale basée sur la technique de classification k-means. Cette dernière nous a permis de contrôler le nombre de fragments. Nous avons finalement proposé une approche de répartition d'un entrepôt de données XML sur une grille. Ces propositions nous ont amené à proposer un modèle de référence pour les entrepôts de données XML qui unifie et étend les modèles existants dans la littérature.

Nous avons finalement choisi de valider nos méthodes de manière expérimentale. Pour cela, nous avons conçu et développé un banc d'essais pour les entrepôts de données XML : XWeB. Les résultats expérimentaux que nous avons obtenus montrent que nous avons atteint notre objectif de maîtriser le volume de données XML et le temps de traitement de requêtes décisionnelles complexes. Ils montrent également que notre méthode de fragmentation basée sur les k-means fournit un gain de performance plus élevé que celui obtenu par les méthodes de fragmentation horizontale dérivée classiques, à la fois en terme de gain de performance et de surcharge des algorithmes.
17

Lu, Yanping. "Optimisation par essaim de particules application au clustering des données de grandes dimensions." Thèse, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/5112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Clustering high-dimensional data is an important but difficult task in various data mining applications. A fundamental starting point for data mining is the assumption that a data object, such as text document, can be represented as a high-dimensional feature vector. Traditional clustering algorithms struggle with high-dimensional data because the quality of results deteriorates due to the curse of dimensionality. As the number of features increases, data becomes very sparse and distance measures in the whole feature space become meaningless. Usually, in a high-dimensional data set, some features may be irrelevant or redundant for clusters and different sets of features may be relevant for different clusters. Thus, clusters can often be found in different feature subsets rather than the whole feature space. Clustering for such data sets is called subspace clustering or projected clustering, aimed at finding clusters from different feature subspaces. On the other hand, the performance of many subspace/projected clustering algorithms drops quickly with the size of the subspaces in which the clusters are found. Also, many of them require domain knowledge provided by the user to help select and tune their settings, like the maximum distance between dimensional values, the threshold of input parameters and the minimum density, which are difficult to set. Developing effective particle swarm optimization (PSO) for clustering high-dimensional data is the main focus of this thesis. First, in order to improve the performance of the conventional PSO algorithm, we analyze the main causes of the premature convergence and propose a novel PSO algorithm, call InformPSO, based on principles of adaptive diffusion and hybrid mutation. Inspired by the physics of information diffusion, we design a function to achieve a better particle diversity, by taking into account their distribution and the number of evolutionary generations and by adjusting their"social cognitive" abilities. Based on genetic self-organization and chaos evolution, we build clonal selection into InformPSO to implement local evolution of the best particle candidate, gBest, and make use of a Logistic sequence to control the random drift of gBest. These techniques greatly contribute to breaking away from local optima. The global convergence of the algorithm is proved using the theorem of Markov chain. Experiments on optimization of unimodal and multimodal benchmark functions show that, comparing with some other PSO variants, InformPSO converges faster, results in better optima, is more robust, and prevents more effectively the premature convergence. Then, special treatments of objective functions and encoding schemes are proposed to tailor PSO for two problems commonly encountered in studies related to high-dimensional data clustering. The first problem is the variable weighting problem in soft projected clustering with known the number of clusters k . With presetting the number of clusters k, the problem aims at finding a set of variable weights for each cluster and is formulated as a nonlinear continuous optimization problem subjected to bound. constraints. A new algorithm, called PSOVW, is proposed to achieve optimal variable weights for clusters. In PSOVW, we design a suitable k -means objective weighting function, in which a change of variable weights is exponentially reflected. We also transform the original constrained variable weighting problem into a problem with bound constraints, using a non-normalized representation of variable weights, and we utilize a particle swarm optimizer to minimize the objective function in order to obtain global optima to the variable weighting problem in clustering. Our experimental results on both synthetic and real data show that the proposed algorithm greatly improves cluster quality. In addition, the results of the new algorithm are much less dependent on the initial cluster centroids. The latter problem aims at automatically determining the number of clusters k as well as identifying clusters. Also, it is formulated as a nonlinear optimization problem with bound constraints. For the problem of automatical determination of k , which is troublesome to most clustering algorithms, a PSO algorithm called autoPSO is proposed. A special coding of particles is introduced into autoPSO to represent partitions with different numbers of clusters in the same population. The DB index is employed as the objective function to measure the quality of partitions with similar or different numbers of clusters. autoPSO is carried out on both synthetic high-dimensional datasets and handcrafted low-dimensional datasets and its performance is compared to other selected clustering techniques. Experimental results indicate that the promising potential pertaining to autoPSO applicability to clustering high-dimensional data without the preset number of clusters k.
18

Menet, Ludovic. "Formalisation d'une approche d'Ingénierie Dirigée par les Modèles appliquée au domaine de la gestion des données de référence." Paris 8, 2010. http://www.theses.fr/2010PA083184.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre travail de recherche s'inscrit dans la problématique de la définition de modèles de données dans le cadre de la Gestion des données de Référence ou Master Data Management. En effet, l'Ingénierie Dirigée par les Modèles (IDM) est un thème en pleine expansion aussi bien dans le monde académique que dans le monde industriel. Elle apporte un changement important dans la conception des applications en prenant en compte la pérennité des savoir-faire, des gains de productivité et en tirant profit des avantages des plateformes sans souffrir d'effets secondaires. L'architecture IDM se base sur la transformation de modèle pour aboutir à une solution technique sur une plateforme de notre choix à partir de modèles métier indépendants de toute plateforme. Dans cette thèse une démarche conceptuelle et expérimentale de l'approche IDM est appliquée à la définition de modèles de données pivot qui sont la base de la Gestion des Données de Référence ou Master Data Management (MDM). Ainsi utilisons nous UML (Unified Modeling Language), comme formalisme pour décrire les aspects indépendants de la plateforme (modèle métier), et nous proposons un métamodèle, sous la forme d’un profil UML, pour décrire les aspects dépendants de la plateforme MDM. Ensuite, nous présentons notre démarche pour passer d'un modèle métier vers un modèle de plateforme pour pouvoir générer le modèle pivot physique. Les apports de cette thèse sont : l'étude d’une approche IDM dans le contexte du MDM, la définition de transformations d’UML vers un modèle MDM (basé sur une structure XML Schema), d'autre part nous apportons un aspect inédit à l’IDM appliquée au MDM à savoir la définition d’une méthode de validation incrémentale de modèles permettant d’optimiser les phases de validation lors de la conception de modèles
Our research work is in line with the problematic of data models definition in the framework of Master Data Management. Indeed, Model Driven Engineering (MDE) is a theme in great expansion in the academic world as well as in the industrial world. It brings an important change in the conception of applications taking in account the durability of savoir-faire and of gains of productivity, and taking profits of platforms advantages without suffering of secondary effects. The MDE architecture is based on the transformation of models to come to a technical solution on a chosen platform from independent business models of any platform. In this thesis, a conceptual and technical thought process of the MDE approach is applied to the definition of pivot data models, which are the base of Master Data Management (MDM). Thus, we use Unified Modeling Language (UML) as formalism to describe the independent aspects of the platform (business model), and we propose a meta-model, in the form of an UML profile, to describe the dependent aspects of the MDM platform. Then, we present our approach to move from a business model to a platform model to be able to generate the physical pivot model. The inputs of the thesis are : the study of a MDE approach in the MDM context, the definition of UML transformations towards a MDM model (based on a XML Schema structure), besides we bring a new aspect to MDE applied to MDM, that is to say the definition of a method for incremental model validation allowing the optimization of validation stages during model conception
19

Dupuis, Sophie. "Optimisation automatique des chemins de données arithmétiques par l’utilisation des systèmes de numération redondants." Paris 6, 2009. http://www.theses.fr/2009PA066131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente l'optimisation des chemins de données arithmétiques par l’intégration automatique de l’arithmétique redondante dans le flot de conception VLSI, de façon à le rendre plus accessible. Les travaux effectués se découpent en 2 phases. La 1ère a pour objectif d’incorporer les opérateurs redondants et le savoir-faire lié à leur usage dans la synthèse bas niveau. Les bonnes performances intrinsèques de ces opérateurs montrent l’intérêt de celle approche. Trois algorithmes d’optimisation sont proposés, basés sur la redéfinition des enchaînements entre opérateurs. La 2nde est consacrée à la mise en place de l’environnement de conception dans lequel seront utilisés ces algorithmes. Il répond aux besoins liés à l’arithmétique et fournit un langage de description de circuits avec un haut niveau d’abstraction. Ces algorithmes ont été appliqués sur des circuits arithmétiques. Les résultats confirment que l'intégration de l'arithmétique redondante améliore nettement les performances
20

Pianelo, Laurent. "Modélisation géologique contrainte par les données sismiques et dynamiques." Aix-Marseille 1, 2001. http://www.theses.fr/2001AIX11042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les procédures d'inversion sont utilisées en géosciences afin d'améliorer les modèles géologiques. En réservoir, l"'History Matching" permet de modifier les paramètres pétrophysiques des simulateurs d'écoulements afin que les résultats numériques calent avec les données observées. De la même façon, les paramètres sismiques sont modifiés pour retrouver numériquement les acquisitions sismiques. Malheureusement, il est bien connu que ces problèmes inverses sont mal contraints. L'idée de ce travail original est de modifier simultanément la perméabilité et l'impédance acoustique du réservoir, pour une amélioration du modèle géologique. Pour y parvenir, les paramètres sont liés en utilisant soit des mesures de carottes, soit les relations classiques de Wyllie (porosité - impédance) et de Carman - Kozeny (porosité - perméabilité). De fait, les données de production sont utilisées pour contraindre le calage de la sismique, et les observations sismiques vont améliorer l'inversion de la perméabilité. Ce travail a consisté à programmer des prototypes numériques d'un simulateur d'écoulements en 3D ainsi que d'un simulateur d'acquisition sismique 3D. Puis, à développer mathématiquement et à implémenter une boucle d'inversion couplée. Nous avons ainsi pu tester notre théorie sur des cas 3D réalistes. La comparaison entre l'inversion couplée et les inversions des données de production seules et des observations sismiques seules démontre l'efficacité de notre méthode. Nous réduisons drastiquement le nombre de solutions possibles. De plus, l'augmentation des informations amène une amélioration nette des modèles obtenus, particulièrement dans la localisation spatiale des contrastes en perméabilité. L'amélioration est significative, à la fois sur la distribution des deux paramètres, mais aussi quand à la vitesse de l'opération. Ce travail breveté est un pas important dans la voie de l'intégration de données et de compétences et conduit à une meilleure caractérisation des réservoirs.
21

Pierrillas, Philippe. "Optimisation du développement clinique de nouveaux anticancéreux par modélisation de données pharmacocinétiques et pharmacodynamiques précliniques." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1047.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’amélioration du développement du médicament est un véritable défi et ceci encore plus dans le domaine de l’oncologie dans lequel le besoin d’avoir de nouvelles alternatives thérapeutiques est primordial. De plus, on note que le taux d’approbation des nouveaux anticancéreux après leur entrée en phase 1 fait partie des plus bas taux de toutes les aires thérapeutiques. De ce fait, ce processus doit être amélioré et l’utilisation de nouvelles approches faisant le lien entre développement préclinique et clinique par anticipation des propriétés pharmacocinétiques et d’efficacité pourrait être une perspective intéressante.L’objectif de ce travail est l’élaboration de stratégies basées sur la modélisation mathématique de données précliniques in vivo et in vitro afin d’anticiper le comportement chez l’homme d’un nouvel inhibiteur de bcl-2 développé par les Laboratoires Servier pour soutenir le développement clinique. Ce projet a été mené suivant différentes étapes :Premièrement, un modèle semi-mécanistique décrivant le mode d’action de la molécule a été établi chez la souris.Une stratégie d’extrapolation inter-espèces des caractéristiques PK utilisant la modélisation PBPK a été effectuée afin d’anticiper les profils temps-concentration chez l’homme.Des stratégies d’extrapolation de la partie PD basées sur différentes hypothèses ont été proposées pour prédire une efficacité chez l’homme et des doses à tester lors de l’étude clinique.Les prédictions obtenues ont ainsi été comparées aux résultats cliniques issus de la première étude réalisée chez l’homme confirmant le caractère utile de telles approches et la supériorité des stratégies bâties à l’aide de concepts semi-mécanistiques par rapport aux approches plus empiriques.Ce projet souligne donc le grand intérêt d’élaborer des approches translationnelles inter-espèces durant le développement du médicament et pourrait favoriser leur utilisation afin d’accélérer le développement de nouvelles entités, diminuant ainsi les risques d’échecs ainsi que les coûts financiers
Improvement of drug development is a very challenging question and even more in the field of oncology wherein the need for new medicines is crucial. In addition, the rate of approval for anticancer drugs after entry in phase I clinical trial was reported as one of the lowest of all therapeutic areas. Thereby, this process has to be improved, and the use of new approaches fulfilling the gap between preclinical and clinical settings by anticipating human pharmacokinetics and efficacy could be an interesting solution.The work is focused on the building of strategies based on mathematical modeling of in vivo and in vitro preclinical data to anticipate the behavior of a new bcl-2 inhibitor developed by Servier laboratories in human to support clinical development. This project was elaborated following different steps:Firstly, a semi-mechanistic relationship was established in mice to describe the mechanism of action of the compound.PK extrapolation strategy using PBPK modeling was performed to anticipate human concentration-time profiles.PD extrapolation strategies based on different assumptions were proposed to predict human efficacy and doses to be tested in clinical trial.Predictions obtained were consequently compared to clinical results from a First in Human study confirming the usefulness of such approaches and the superiority of mechanism-based strategies compared to more empirical approaches.Therefore, this project highlights the large interest of elaborating interspecies translational approaches during drug development and could promote their use to accelerate new entities development, decreasing the risks of failure and financial costs
22

Ghilardi, Jean-Pierre. "Optimisation de la représentation de graphes par approche hybride déterministe et stochastique." Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX30032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine de la bibliométrie il est courant d'avoir à retraiter des corpus d'informations importants difficiles à interpréter par lecture directe. Des outils, intégrant des traitements mathématiques complexes, ont été développés pour traiter l'information massive structurée et en extraire l'information pertinente susceptible d'alimenter les processus de prise de décision. Le Centre de Recherche Rétrospective de Marseille s'est depuis de nombreuses années spécialisé en traitement de l'information et a développé des outils informatiques basés sur la représentation graphique de relations reliant des entités : les graphes de paires. S'inscrivant dans cette démarche, ce travail de recherche a permis de définir des traitements innovants s'appuyant sur la théorie des graphes, les algorithmes de recuit simulé et les algorithmes génétiques qui permettent d'aboutir à une expression géométrique organisée des graphes de paire et ainsi d'en faciliter l'exploitation par le plus grand nombre
In bibliometrie scope, we frequently have to compute database which constitute a quantitive information corpus, difficult to interpret by direct reading. That's the reason why some tools with complex mathematic treatments have been created, this is how structured data bank can be processing to obtain relevant information available for decision makers. The Centre de Recherche Rétrospective de Marseille is specialized in information processing for a long time. Automatic tools based on geometrical representation of relationship between entities have been developed. During this research, an innovant data processing implemented to automatically produce an organized representation of graph easily understandable have been defined. The treatment chain is based on two different approach, a determinist approach issuing from graph theory and a stochastic approach composed of simulated annealing algorithm and genetic algorithm, which allow to make easier graph reading
23

Oudart, David. "Application de l'ingénierie dirigée par les modèles à la conception de Smart Grids : approche par cosimulation avec FMI." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAS002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les Smart Grids sont des systèmes cyberphysiques qui interfacent les réseaux électriques avec les technologies de l'information et de la communication afin de les surveiller, d'automatiser la prise de décision et d'équilibrer la production avec la consommation. Nous souhaitons utiliser la simulation pour évaluer et comparer facilement plusieurs solutions avant un déploiement dans un environnement réel. L'objectif de cette thèse est ainsi de proposer des outils et méthodes pour modéliser et simuler un Smart Grid dans un contexte industriel. Nous avons identifié deux problématiques principales : Comment combiner les modèles hétérogènes d'un Smart Grid pour le simuler ? Comment assurer la cohérence entre les modèles produits par différents intervenants lors de la conception d'un Smart Grid ? Pour répondre à ces problématiques, nous proposons une approche de cosimulation, en utilisant la norme Functional Mockup Interface (FMI). Nos deux premières contributions sont la proposition d'une méthode pour permettre l'échange de signaux discrets entre plusieurs FMUs, et d'une extension du logiciel de simulation de télécommunications OMNeT++ implémentant cette méthode, appelée fmi4omnetpp. Une troisième contribution est la réalisation de l'environnement outillé Smart Grid Simulation Framework, qui automatise un certain nombre de tâches répétitives afin d'assurer la cohérence entre différents modèles de simulation. Enfin, une quatrième contribution est la formalisation de la démarche itérative de conception dans laquelle s'inscrit la cosimulation d'un Smart Grid, et la façon d'y intégrer notre environnement Smart Grid Simulation Framework. Pour cela, nous explicitons les différentes étapes de la démarche et le rôle des acteurs de la conception, puis nous présentons son application sur un cas d'étude réel pour lequel nous utilisons Smart Grid Simulation Framework
Smart Grids are cyber-physical systems that interface power grids with information and communication technologies to monitor them, automate decision making and balance production with consumption. We want to use simulation to easily evaluate and compare several solutions before deployment in a real environment. The objective of this thesis is thus to propose tools and methods to model and simulate a Smart Grid in an industrial context. We have identified two main issues: How to combine heterogeneous models of a Smart Grid to simulate it ? How to ensure consistency between the models produced by different stakeholders during the design of a Smart Grid ? To address these issues, we propose a cosimulation approach, using the Functional Mockup Interface (FMI) standard. Our first two contributions are the proposal of a method to allow the exchange of discrete signals between several FMUs, and an extension of the OMNeT++ telecommunications simulation software implementing this method, called fmi4omnetpp. A third contribution is the development of the Smart Grid Simulation Framework tooled environment, which automates a number of repetitive tasks in order to ensure consistency between different simulation models. Finally, a fourth contribution is the formalization of an iterative design approach for the cosimulation of a Smart Grid, and how to integrate our Smart Grid Simulation Framework into it. To do so, we explain the different steps of the approach and the role of the actors involved in the design process, then we present its application to a real case study for which we use our Smart Grid Simulation Framework
24

Brottier, Erwan. "Acquisition et analyse des exigences pour le développement logiciel : une approche dirigée par les modèles." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00512174.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous intéressons à la définition d'une plate-forme industrielle favorisant une meilleure intégration des techniques de vérification et de validation des exigences au sein des processus de développement. Cette plate-forme, appelée R2A (pour Requirements To Analysis) est entièrement construite à l'aide de technologies issues de l'ingénierie dirigée par les modèles. Le cœur de la plate-forme est un processus de composition de modèles à deux niveaux de modélisation. Au niveau instance, il produit une spécification globale des exigences à partir d'une collection de spécifications d'exigences partielles, hétérogènes et potentiellement incohérentes. Au niveau de la conception de la plate-forme (niveau meta), il produit le formalisme interne de la plate-forme (types d'information pouvant être capturée et fonctionnalités supportées) à partir de composants de conception embarquant des sémantiques opérationnelles, de composition et de déploiement. Ce processus favorise l'adaptabilité de la plate-forme à des contextes industriels variés. L'obtention d'une spécification globale des exigences (i) autorise l'application des techniques modernes de vérification et de validation pour la détection d'incohérences et (ii) favorise une approche de développement dirigée par les modèles (MDD) dès les premières étapes du développement logiciel (synchronisation exigences et artefacts de développement aval). Dans sa version actuelle, la plate-forme est spécialisée pour le contexte industriel de France Télécom. Elle supporte quatre langages de description des exigences : les diagrammes d'activité et de classes UML, un langage naturel contraint (le RDL, pour Requirements Description Language) et son formalisme interne (le RM, pour Requirements Metamodel). Les fonctionnalités principales sont (i) la génération d'objectifs de test système, (ii) la production d'une première spécification d'analyse et (iii) la vérification de la cohérence des exigences.
25

Ahmed, Ahmed. "Utilisation de l'ingénierie dirigée par les modèles pour l'agrégation continue de données hétérogènes : application à la supervision de réseaux de gaz." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0049/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant les dix dernières années, l'infrastructure informatique et l'infrastructure industrielle ont évolué de manière à passer de systèmes monolithiques à des systèmes hétérogènes, autonomes et largement distribués. Tous les systèmes ne peuvent pas coexister de manière isolée et exigent que leurs données soient partagées de manière à accroître la productivité de l'entreprise. En fait, nous progressons vers des systèmes complexes plus vastes où des millions des systèmes doivent être intégrés. Ainsi, l'exigence d'une solution d'interopérabilité peu coûteuse et rapide devient un besoin essentiel. Aujourd'hui, les solutions imposent les normes ou les middlewares pour gérer cette problématique. Cependant, ces solutions ne sont pas suffisantes et nécessitent souvent des développements ad-hoc spécifiques. Ainsi, ce travail propose l'étude et le développement d'une architecture d'interopérabilité générique, modulaire, agnostique et extensible basée sur des principes de l'architecture dirigée par les modèles et les concepts de la séparation de préoccupations. Il vise à promouvoir l'interopérabilité et l'échange de données entre les systèmes hétérogènes en temps réels sans obliger les systèmes à se conformer à des normes ou technologies spécifiques. La proposition s'applique à des cas d'usages industriels dans le contexte de réseau de distribution de gaz français. La validation théorique et empirique de notre proposition corrobore note hypothèses que l'interopérabilité entre les systèmes hétérogènes peut être atteinte en utilisant les concepts de la séparation de préoccupations et de l'ingénierie dirigée par les modèles et que le coût et le temps pour promouvoir l'interopérabilité est réduit en favorisant les caractéristiques de la réutilisabilité et de l'extensibilité
Over the last decade, the information technology and industrial infrastructures have evolved from containing monolithic systems to heterogeneous, autonomous, and widely distributed systems. Most systems cannot coexist while completely isolated and need to share their data in order to increase business productivity. In fact, we are moving towards larger complex systems where millions of systems and applications need to be integrated. Thus, the requirement of an inexpensive and fast interoperability solution becomes an essential need. The existing solutions today impose standards or middleware to handle this issue. However, these solutions are not sufficient and often require specific ad-hoc developments. Thus, this work proposes the study and the development of a generic, modular, agnostic and extensible interoperability architecture based on modeling principles and software engineering aspects. It aims to promote interoperability and data exchange between heterogeneous systems in real time without requiring systems to comply with specific standards or technologies. The industrial use cases for this work takes place in the context of the French gas distribution network. The theoretical and empirical validation of our proposal corroborates assumptions that the interoperability between heterogeneous systems can be achieved by using the aspects of separation of concerns and model-driven engineering. The cost and time to promote the interoperability are also reduced by promoting the characteristics of re-usability and extensibility
26

Menou, Edern. "Conception d’alliages par optimisation combinatoire multiobjectifs : thermodynamique prédictive, fouille de données, algorithmes génétiques et analyse décisionnelle." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4011/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail a pour objet le développement d’un système combinant un algorithme génétique d’optimisation multiobjectifs avec des outils de thermodynamique prédictive de type calphad (calcul des diagrammes de phases) et de fouille de données permettant l’estimation des propriétés thermochimiques et thermomécaniques d’alliages multicomposants. L’intégration de ces techniques permet l’optimisation quasi-autonome de la composition d’alliages complexes vis-à-vis de plusieurs critères antagonistes telles les résistances mécaniques et chimiques, la stabilité microstructurelle à haute température et le coût. La méthode est complétée d’une technique d’analyse décisionnelle multicritères pour assister la sélection d’alliages. L’approche est illustrée par l’optimisation de la chimie de deux familles d’alliages multicomposants. Le premier cas d’étude porte sur les superalliages à base de nickel polycristallins corroyés renforcés par précipitation de la phase 0 destinés à la fabrication de disques de turbines dans l’aéronautique ou de tuyauteries de centrales thermiques. L’optimisation résulte en la conception d’alliages moins onéreux et prédits plus résistants que l’Inconel 740H et le Haynes 282, deux superalliages de dernière génération. Le second cas d’étude concerne les alliages dits « à forte entropie » dont la métallurgie singulière est emblématique des problèmes combinatoires. À l’issue de l’optimisation, quelques alliages à forte entropie ont été sélectionnés et fabriqués ; leur caractérisation expérimentale préliminaire met en évidence des propriétés attrayantes tel un ratio dureté sur masse volumique inédit
The present work revolves around the development of an integrated system combining a multi-objective genetic algorithm with calphad-type computational thermodynamics (calculations of phase diagrams) and data mining techniques enabling the estimation of thermochemical and thermomechanical properties of multicomponent alloys. This integration allows the quasiautonomous chemistry optimisation of complex alloys against antagonistic criteria such as mechanical and chemical resistance, high-temperature microstructural stability, and cost. Further alloy selection capability is provided by a multi-criteria decision analysis technique. The proposed design methodology is illustrated on two multicomponent alloy families. The first case study relates to the design of wrought, polycrystalline 0-hardened nickel-base superalloys intended for aerospace turbine disks or tubing applications in the energy industry. The optimisation leads to the discovery of novel superalloys featuring lower costs and higher predicted strength than Inconel 740H and Haynes 282, two state-of-the-art superalloys. The second case study concerns the so-called “high-entropy alloys” whose singular metallurgy embodies typical combinatorial issues. Following the optimisation, several high-entropy alloys are produced; preliminary experimental characterisation highlights attractive properties such as an unprecedented hardness to density ratio
27

Dehainsala, Hondjack. "Explicitation de la sémantique dans les bases de données : base de données à base ontologique et le modèle OntoDB." Poitiers, 2007. http://www.theses.fr/2007POIT2270.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une base de données à base ontologique (BDBO) est une base de données qui permet de représenter à la fois des données et l’ontologie qui en définit le sens. On propose dans cette thèse un modèle d’architecture de BDBO, appelé OntoDB, qui présente deux caractéristiques originales. D’une part, comme dans les bases de données usuelles, chaque entité est associée à un schéma logique qui définit la structure commune de toutes ses instances. Notre approche permet donc d’ajouter, a posteriori, une ontologie à une base de données existante pour indexer sémantiquement son contenu. D’autre part, le méta-modèle (réflexif) du modèle d’ontologie est lui-même représenté. Cela permet de supporter les évolutions du modèle d’ontologie. OntoDB a été validé par un prototype. Le prototype a fait l’objet d’une évaluation de performance qui a montré que l’approche proposée permettrait de gérer des données de grande taille et supporter beaucoup mieux le passage à l'échelle que les approches existantes
An Ontology–Based DataBase (OBDB) is a database which allows to store both data and ontologies that define data meaning. In this thesis, we propose a new architecture model for OBDB, called OntoDB. This model has two main original features. First, like usual databases, each stored entity is associated with a logical schema which define the structure of all its instances. Thus, our approach provides for adding ontology to existing database for semantic indexation of its content. Second, meta-model of the ontology model is also represented in the same database. This allows to support change and evolution of ontology models. The OntoDB model has been validated by a prototype. Performance evaluation of this prototype has been done and has shown that our approach allows to manage very large data and supports scalability much better than the previously proposed approaches
28

Shahzad, Muhammad Atif. "Une approche hybride de simulation-optimisation basée sur la fouille de données pour les problèmes d'ordonnancement." Nantes, 2011. http://archive.bu.univ-nantes.fr/pollux/show.action?id=53c8638a-977a-4b85-8c12-6dc88d92f372.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème d'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l’ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d’obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en oeuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs
A data mining based approach to discover previously unknown priority dispatching rules for job shop scheduling problem is presented. This approach is based upon seeking the knowledge that is assumed to be embedded in the efficient solutions provided by the optimization module built using tabu search. The objective is to discover the scheduling concepts using data mining and hence to obtain a set of rules capable of approximating the efficient solutions for a job shop scheduling problem (JSSP). A data mining based scheduling framework is presented and implemented for a job shop problem with maximum lateness and mean tardiness as the scheduling objectives. The results obtained are very promising
29

Hnayno, Mohamad. "Optimisation des performances énergétiques des centres de données : du composant au bâtiment." Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les centres de données consomment de grandes quantités d'énergie électrique pour alimenter leurs équipements informatiques, leurs systèmes de refroidissement et leur infrastructure. Cette forte consommation d'énergie contribue à la demande globale sur le réseau électrique et à l'émission de gaz à effet de serre. En optimisant les performances énergétiques, les centres de données peuvent réduire leurs factures d'électricité, leurs coûts d'exploitation globaux et leur impact sur l'environnement. L'adoption de nouvelles solutions de refroidissement, telles que le refroidissement par liquide et le refroidissement indirect par évaporation, offre une plus grande efficacité énergétique et peut réduire de manière significative la consommation d'énergie liée au refroidissement dans les centres de données.Dans ce travail, deux études expérimentales ont été menées sur de nouvelles topologies de refroidissement pour les baies informatiques. Dans la première topologie, le système de refroidissement des baies est basé sur une combinaison de refroidissement à couplage étroit et de refroidissement direct des puces. Cinq racks avec des serveurs opérationnels ont été testés. Deux différences de température (15 K et 20 K) ont été validées pour tous les racks informatiques. L'impact de ces profils de différence de température sur les performances du centre de données a été analysé en utilisant trois systèmes de rejet de chaleur dans quatre conditions climatiques pour un centre de données de 600 kW. L'impact du profil de température de l'eau sur l'efficacité de l'utilisation partielle de l'énergie et de l'eau du centre de données a été analysé pour optimiser le système de refroidissement indirect équipé d'un système de refroidissement par évaporation à travers deux approches : la différence de température des baies et l'augmentation de la température d'entrée de l'eau dans le centre de données. Dans la seconde topologie, une étude expérimentale menée sur une nouvelle technique de refroidissement liquide d'immersion monophasé a été développée. Le dispositif expérimental a testé l'impact de trois fluides diélectriques, l'effet de la configuration du circuit d'eau et la puissance/le profil du serveur. Les résultats suggèrent que la demande de refroidissement du système dépend de la viscosité du fluide. Lorsque la viscosité passe de 4,6 à 9,8 mPa.s, la performance de refroidissement diminue d'environ 6 %. En outre, tous les profils de serveurs informatiques ont été validés à différentes températures d'entrée d'eau jusqu'à 45°C et à différents débits. La performance énergétique de cette technique et de la technique précédente a été comparée. Cette technique a permis de réduire la consommation d'électricité en courant continu d'au moins 20,7 % par rapport au système de refroidissement par liquide. Les performances de refroidissement des systèmes à refroidissement par air et par liquide et de la solution proposée ont été comparées au niveau du serveur. En utilisant la solution proposée, l'énergie consommée par serveur a été réduite d'au moins 20 % par rapport au système de refroidissement par air et de 7 % par rapport au système de refroidissement par liquide.En outre, une nouvelle technologie de refroidissement par liquide a été mise au point pour les unités UPS de 600 kW. Cinq essais thermo hydrauliques ont été réalisés dans différentes conditions thermiques. Un profil de différence de température de 20 K a été validé avec un fonctionnement sûr pour tous les équipements électroniques de l'onduleur, résultant en une efficacité thermique de 82,27 %. L'impact de la diminution du débit d'eau et de l'augmentation des températures de l'eau et de l'air dans la pièce a également été analysé. Une diminution des températures d'entrée de l'eau et de l'air de 41°C à 32°C et de 47°C à 40°C respectivement augmente l'efficacité thermique de 8,64 %
Data centers consume vast amounts of electrical energy to power their IT equipment, cooling systems, and supporting infrastructure. This high energy consumption contributes to the overall demand on the electrical grid and release of greenhouse gas emissions. By optimizing energy performance, data centers can reduce their electricity bills, overall operating costs and their environmental impact. This includes implementing energy-efficient technologies, improving cooling systems, and adopting efficient power management practices. Adopting new cooling solutions, such as liquid cooling and indirect evaporative cooling, offer higher energy efficiency and can significantly reduce the cooling-related energy consumption in data centres.In this work, two experimental investigations on a new cooling topologies for information technology racks are conducted. In the first topology, the rack-cooling system is based on a combination of close-coupled cooling and direct-to-chip cooling. Five racks with operational servers were tested. Two temperature difference (15 K and 20 K) was validated for all the IT racks. The impact of these temperature difference profiles on the data-centre performance was analysed using three heat rejection systems under four climatic conditions for a data centre of 600 kW. The impact of the water temperature profile on the partial power usage effectiveness and water usage effectiveness of data centre was analysed to optimise the indirect free cooling system equipped with an evaporative cooling system through two approaches: rack temperature difference and by increasing the water inlet temperature of the data centre. In the second topology, an experimental investigation conducted on a new single-phase immersion/liquid-cooling technique is developed. The experimental setup tested the impact of three dielectric fluids, the effect of the water circuit configuration, and the server power/profile. Results suggest that the system cooling demand depends on the fluid’s viscosity. As the viscosity increased from 4.6 to 9.8 mPa.s, the cooling performance decreased by approximately 6 %. Moreover, all the IT server profiles were validated at various water inlet temperatures up to 45°C and flow rates. The energy performance of this technique and the previous technique was compared. This technique showed a reduction in the DC electrical power consumption by at least 20.7 % compared to the liquid-cooling system. The cooling performance of the air- and liquid-cooled systems and the proposed solution was compared computationally at the server level. When using the proposed solution, the energy consumed per server was reduced by at least 20 % compared with the air-cooling system and 7 % compared with liquid-cooling system.In addition, a new liquid cooling technology for 600 kW Uninterruptible Power Supply (UPS) units. This cooling architecture gives more opportunities to use free cooling as a main and unique cooling system for optimal data centres (DCs). Five thermal hydraulic tests are conducted with different thermal conditions. A 20 K temperature difference profile was validated with a safe operation for all UPS electronic equipment resulting with a thermal efficiency of 82.27 %. The impact of decreasing water flow rate and increasing water and air room temperatures was also analysed. A decrease in inlet water and air temperatures from 41°C to 32°C and from 47°C to 40°C respectively increases the thermal efficiency by 8.64 %. Furthermore, an energy performance analysis comparison is made between air cooled and water cooled UPS units on both UPS and infrastructure levels
30

Troudi, Molka. "Optimisation du paramètre de lissage pour l'estimateur à noyau par des algorithmes itératifs : application à des données réelles." Télécom Bretagne, 2009. http://www.theses.fr/2009TELB0088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'estimation des densités de probabilité par la méthode du noyau requiert une estimation fiable du paramètre de lissage. Nous proposons dans ce mémoire une méthode plug-in plus rapide que la méthode plug-in usuelle. L'Ecart Quadratique Moyen Intégré dépend directement d'une entité fonction de la dérivée seconde de la densité de probabilité à estimer. Son estimation analytique permet de réduire la complexité de l'algorithme plug-in usuel. Les performances des deux algorithmes sont comparées par estimation de variables aléatoires simulées connues par la difficulté de leur estimation. Ces algorithmes sont appliqués à l'estimation du taux d'erreur en communication numérique avec pour objectif de réduire les temps de calculs nécessaires à une estimation fiable. Ils sont également appliqués en génétique des populations afin de mieux estimer la neutralité de populations berbères de Tunisie.
31

Ait, Oubelli Lynda. "Transformations sémantiques pour l'évolution des modèles de données." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lors du développement d’un système complexe, les modèles de données sont la clé d’un processus d’ingénierie réussi : ils contiennent et organisent toutes les informations manipulées par les différentes fonctions impliquées dans la conception du système. Le fait que les modèles de données évoluent tout au long de la conception soulève des problèmes de maintenance des données déjà produites. Notre travail aborde la problématique de l’évolution des modèles de données dans un environnement d’ingénierie dirigée par les modèles (IDM). Nous nous concentrons sur la minimisation de l’impact de l’évolution du modèle de données sur le processus de développement du système dans le domaine spécifique de l’ingénierie spatiale. Dans l’industrie spatiale, l’ingénierie dirigée par les modèles (IDM) est un domaine clé pour modéliser les échanges de données avec les satellites. Lors de la préparation d’une mission spatiale, les modèles de données doivent être comparés d’une version à l’autre. Ainsi, en raison de la croissance des changements en terme de type et de nombre, il devient difficile de les suivre. De nouvelles méthodes et techniques pour comprendre et représenter les différences et les points communs entre les différentes versions du modèle sont indispensables. Des recherches récentes traitent le processus d’évolution entre les deux couches architecturales (M2 / M1) de l’IDM. Dans cette thèse, nous avons exploré l’utilisation des couches (M1 / M0) de la même architecture afin de définir un ensemble d’opérateurs complexes et leur composition qui encapsulent à la fois l’évolution du modèle de données et la migration des données. L’utilisation de ces opérateurs améliore la qualité des résultats lors de la migration des données, en assurant la conservation complète de l’information contenue dans les données. Dans la première partie de cette thèse, nous sommes concentrés sur la façon de gérer les différences structurelles au cours du processus d’évolution. L’approche proposée repose sur la détection des différences et la construction d’opérateurs d’évolution. Après, nous avons étudié les performances de l’approche à base des modèles (MBD) sur deux missions spatiales, nommées PHARAO et MICROSCOPE. Ensuite, nous avons présenté une approche observationnelle sémantique pour traiter l’évolution des modèles de données au niveau M1. L’intérêt principal de l’approche proposée est la transposition du problème d’accessibilité de l’information dans un modèle de données, en un problème de chemin dans un graphe orienté et étiqueté. L’approche s’est révélée capable de capturer toutes les évolutions d’un modèle de données dans une liste d’opérateurs logique au lieu d’une liste non exhaustive d’opérateurs d’évolution. Elle est générique car peu importe le type de modèle de données en entrée, si le modèle de données est interprété correctement en ldg puis en le projette sur chaque concept, nous obtenons un ensemble de lts, on peut vérifier la conservation de l’information
When developing a complex system, data models are the key to a successful engineering process because they contain and organize all the information manipulated by the different functions involved in system design. The fact that the data models evolve throughout the design raises problems of maintenance of the data already produced. Our work addresses the issue of evolving data models in a model-driven engineering environment (IDM). We focus on minimizing the impact of the evolution of the data model on the system development process in the specific area of space engineering. In the space industry, model-driven engineering (MDI) is a key area for modeling data exchange with satellites. When preparing a space mission, the associated data models are often updated and must be compared from one version to another. Thus, because of the growth of the changes, it becomes difficult to follow them. New methods and techniques to understand and represent the differences and commonalities between different versions of the model are essential. Recent research deals with the evolution process between the two architectural layers (M2 / M1) of the IDM. In this thesis, we have explored the use of the (M1 / M0) layers of the same architecture to define a set of complex operators and their composition that encapsulate both the evolution of the data model and the data migration. The use of these operators improves the quality of results when migrating data, ensuring the complete preservation of the information contained in the data. In the first part of this thesis, we focused on how to deal with structural differences during the evolution process. The proposed approach is based on the detection of differences and the construction of evolution operators. Then, we studied the performance of the model-based approach (MBD) on two space missions, named PHARAO and MICROSCOPE. Then, we presented a semantic observational approach to deal with the evolution of data models at M1 level. The main interest of the proposed approach is the transposition of the problem of accessibility of the information in a data model, into a problem of path in a labeled directed graph. The approach proved to be able to capture all the evolutions of a data model in a logical operator list instead of a non-exhaustive list of evolution operators. It is generic because, regardless of the type of input data model, if the data model is correctly interpreted to ldg and then project it onto a set of lts, we can check the conservation of the information
32

Vo, Xuan Thanh. "Apprentissage avec la parcimonie et sur des données incertaines par la programmation DC et DCA." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0193.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes d'apprentissage avec la parcimonie et/ou avec l'incertitude des données. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithms) étant reconnues comme des outils puissants d'optimisation. La thèse se compose de deux parties : La première partie concerne la parcimonie tandis que la deuxième partie traite l'incertitude des données. Dans la première partie, une étude approfondie pour la minimisation de la norme zéro a été réalisée tant sur le plan théorique qu'algorithmique. Nous considérons une approximation DC commune de la norme zéro et développons quatre algorithmes basées sur la programmation DC et DCA pour résoudre le problème approché. Nous prouvons que nos algorithmes couvrent tous les algorithmes standards existants dans le domaine. Ensuite, nous étudions le problème de la factorisation en matrices non-négatives (NMF) et fournissons des algorithmes appropriés basés sur la programmation DC et DCA. Nous étudions également le problème de NMF parcimonieuse. Poursuivant cette étude, nous étudions le problème d'apprentissage de dictionnaire où la représentation parcimonieuse joue un rôle crucial. Dans la deuxième partie, nous exploitons la technique d'optimisation robuste pour traiter l'incertitude des données pour les deux problèmes importants dans l'apprentissage : la sélection de variables dans SVM (Support Vector Machines) et le clustering. Différents modèles d'incertitude sont étudiés. Les algorithmes basés sur DCA sont développés pour résoudre ces problèmes
In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in sparsity and robust optimization for data uncertainty. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are well-known as powerful tools in optimization. This thesis is composed of two parts: the first part concerns with sparsity while the second part deals with uncertainty. In the first part, a unified DC approximation approach to optimization problem involving the zero-norm in objective is thoroughly studied on both theoretical and computational aspects. We consider a common DC approximation of zero-norm that includes all standard sparse inducing penalty functions, and develop general DCA schemes that cover all standard algorithms in the field. Next, the thesis turns to the nonnegative matrix factorization (NMF) problem. We investigate the structure of the considered problem and provide appropriate DCA based algorithms. To enhance the performance of NMF, the sparse NMF formulations are proposed. Continuing this topic, we study the dictionary learning problem where sparse representation plays a crucial role. In the second part, we exploit robust optimization technique to deal with data uncertainty for two important problems in machine learning: feature selection in linear Support Vector Machines and clustering. In this context, individual data point is uncertain but varies in a bounded uncertainty set. Different models (box/spherical/ellipsoidal) related to uncertain data are studied. DCA based algorithms are developed to solve the robust problems
33

Moalla, Néjib. "Amélioration de la qualité des données du produit dans le contexte du cycle de vie d’un vaccin : une approche d’interopérabilité dirigée par les modèles." Lyon 2, 2007. http://theses.univ-lyon2.fr/sdx/theses/lyon2/2007/moalla_n.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la quête de l'excellence industrielle, la qualité des données est un des piliers essentiels à prendre en considération dans toute approche d'amélioration ou d'optimisation. Ainsi, la qualité des données est un besoin primordial pour s'assurer que le produit répond aux besoins du client. Dans l'industrie pharmaceutique et plus particulièrement, dans l'industrie des vaccins, la définition du produit est très complexe vu sa structure moléculaire. La qualité des données s'avère une priorité face à la multitude des définitions du produit (biologique, pharmaceutique, industrielle, etc. ) et surtout face à l'ensemble des restrictions et des recommandations réglementaires imposées par les autorités de santés clientes. Dans ce contexte, et devant la multitude des métiers et des systèmes d'information supports, le besoin d'assurer l'interopérabilité entre ces systèmes hétérogènes permettra de prendre en considération les spécifications des différents métiers lors des échanges de données. Le déploiement d'une architecture dirigée par les modèles permettra de transformer une description fonctionnelle des différents processus vers des modèles de données exprimés dans différentes plateformes. Dans le périmètre logistique de l'industrie des vaccins, nous nous intéressons à assurer la qualité de quelques données critiques dans notre ERP par le déploiement des concepts d'nteropérabilité dirigée par les modèles. La définition de niveaux de référentiels nous permettra de structurer les modèles ainsi générés pour les partager avec l'ensemble des acteurs de notre périmètre logistique. A long terme, notre approche vise à réduire le coût du produit
To reach the industrial excellence, data quality is one of the essential pillars to handle in any improvement or optimization approach. Thus, data quality is a paramount need to ensure that the product meets the customer requirements. In the drug company and more particularly, in the vaccine industry, the definition of vaccine product is very complex considering its molecular structure. Data quality proves to be a priority according to many product definitions (biological, pharmaceutical, industrial, etc) and especially face to a lot of restrictions and regulatory recommendations imposed by customers as health authorities. In this context, and in front of the multitude of business activities supported by disconnected information systems, the need to ensure interoperability between these heterogeneous systems will make it possible to handle the specifications of various business scope during the exchanges of information. The deployment of model driven architecture will enable to transform a functional description of processes towards data models expressed in various platforms. In the logistic perimeter of the vaccines industry, we are interested to ensure the quality of some critical data in our ERP by the deployment of the concepts of model driven interoperability. The definition of various levels of reference frames will enable us to structure the models thus generated to share them with logistic perimeter actors. In the long run, our approach aims at reducing the cost of the product
34

Fawaz, Yaser. "Composition et exécution contextualisées de services pour des environnements pervasifs : une approche dirigée par les données : "application à l'adaptation et au transfert de contenus"." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0037/these.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The infrastructure-less pervasive computing environments such as mobile ad-hoc networks (MANETs) raise challenging research issues about the execution of data-driven applications. (a data driven application is represented as a task-flow to be applied on input data in order to satisfy the users needs) In this thesis, we propose a novel middleware called ConAMi (Context-Aware service composition and execution Middleware) that allows devices in a MANET to collaborate with each other in order to efficiently and reliably execute data-driven applications such as content adaptation. The principal challenge addressed in this thesis is determining the optimal service composition plan (also called the optimal composite service) since several service compositions can provide the same functionality to execute a given task-flow. This challenge is tackled by developing an algorithm that arranges services in a tree called a service composition tree. The main criterion considered to optimize the service composition plan is the global execution time, which consists of the data transfer time, and the service execution time. Execution of a task-flow can fail easily due to the mobility of devices in MANETs. To ensure a reliable execution of the task-flow, the time-to-leave (TTL) of a service is considered in our service composition algorithm. Nevertheless, the TTL can not give a guarantee of not occurring of faults since it is based on an estimation. Moreover, a task-flow execution may also fail due to other kinds of faults. As a consequence, the ConAMi middleware includes novel mechanisms for fault detection and recovery. We have developed a prototype to implement the ConAMi middleware and to evaluate its performance. The results of the experiments show that the ConAMi middleware has good performance. ConAMi ensures efficiency, reliability, and devices load balancing
Des environnements informatiques pervasifs sans infrastructure tels que les réseaux mobiles spontanés (MANETs) soulève de nouveaux défis quant à l’exécution d’applications dirigées par les données. Dans cette thèse, nous proposons un nouveau middleware appelé ConAMi (Context-Aware service composition and execution Middleware) qui permet aux dispositifs dans un MANET de collaborer les uns avec les autres afin d'exécuter des applications dirigées par les données d’une manière efficace et fiable. Le défi principal abordé dans cette thèse est la détermination de la composition optimale de services car plusieurs compositions de services peuvent offrir la même fonctionnalité pour exécuter un flux de tâches. Ce défi est abordé via le développement d’un algorithme qui organise les services dans ce que nous appelons un arbre de composition de services. Le principal critère considéré pour déterminer la composition optimale de services est le temps d'exécution global qui comprend le temps de transfert de données et le temps d'exécution des services. L’exécution du flux de tâches peut échouer facilement en raison de la mobilité des dispositifs impliqués dans les MANETs. Pour assurer une exécution fiable du flux de tâches, le "Time-To-Leave" (TTL) du service est considéré lors de la détermination de la composition optimale de services. Néanmoins, le TTL ne peut pas donner une garantie d’absence d’erreurs car il est fondé sur une estimation. En outre, l’exécution du flux de tâches peut aussi échouer en raison d'autres types d’erreurs. En conséquence, le middleware ConAMi inclut des mécanismes originaux de détection et de récupération d’erreurs. Nous avons développé un prototype pour mettre en œuvre le middleware ConAMi et évaluer ses performances. Les résultats des expériences montrent que le middleware ConAMi a de meilleures performances que les approches similaires. ConAMi garantit l'efficacité, la fiabilité et l'équilibrage de la charge des dispositifs
35

Terret, Catherine. "Optimisation de la chimiothérapie du cancer colorectal métastatique par 5-FU et CPT-11 : données de pharmacocinétique, de chimiosensibilité." Toulouse 3, 2000. http://www.theses.fr/2000TOU30166.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Chen, Xiao. "Contrôle et optimisation de la perception humaine sur les vêtements virtuels par évaluation sensorielle et apprentissage de données expérimentales." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10019/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un contexte économique où les concurrences internationales sont exacerbées, la customisation, ou personnalisation de masse des produits devient aujourd’hui une stratégie très importante des entreprises pour améliorer la valeur perçue de leurs produits. Cependant, les expériences des plateformes de customisations actuelles en ligne ne sont pas pleinement satisfaisantes car les choix personnalisés sont essentiellement limitées à des couleurs et à des motifs. Les dimensions sensorielles des produits, incluant en particulier l’apparence et le toucher des matières tout autant que le bien-aller du vêtement sont rarement proposés.Dans le cadre de ma thèse doctorale, nous avons proposé une plateforme de co-création, permettant aux commerçants, aux créateurs et aux clients d’acquérir conjointement une nouvelle expérience sur le développement de vêtements personnalisés à la valeur ajoutée plus élevée sans entraîner de surcoûts industriels. La construction de cette plateforme consiste en plusieurs parties. Tout à bord, nous avons sélectionné, par une expérience sensorielle, un logiciel de CAO en confection 3D bien adapté en termes de la qualité de rendu du vêtement virtuel. Ensuite, nous avons proposé un plan d’expérience sensorielle par utilisation d’une nouvelle méthode d’apprentissage actif proposée afin d’acquérir, sans mesures physiques, les paramètres techniques de l’étoffe dans un délai très court. Cette méthode est efficace, rapide, facile à réaliser et notamment très significative pour des transactions des textiles en ligne. Puis nous avons caractérisé quantitativement la perception du vêtement virtuel par des notes numériques sur un ensemble de descripteurs sensoriels normalisés. Ces derniers concernent l’apparence et le toucher de la matière, ainsi que le fit du vêtement. Les données sensorielles ont été obtenues respectivement dans deux autres expériences sensorielles. Par apprentissage de ces données, nous avons établi deux modèles. Le premier permet de caractériser la relation entre la perception sur l’apparence et le toucher du matériau virtuel et les paramètres techniques correspondants, constituant une entrée du logiciel de CAO en confection. Le deuxième modèle permet de caractériser la relation entre la perception du fit du vêtement virtuel et les paramètres des patrons. A l'aide des deux modèles précédents, les créateurs et consommateurs peuvent ajuster les éléments initiaux de conception pour les matières et les patrons du vêtement selon leurs attentes au niveau du sensoriel
Under the exacerbated worldwide competition, the mass customization or personalization of products is now becoming an important strategy for companies to enhance the perceived value of their products. However, the current online customization experiences are not fully satisfying for consumers because the choices are mostly limited to colors and motifs. The sensory fields of products, particularly the material’s appearance and hand as well as the garment fit are barely concerned.In my PhD research project, we have proposed a new collaborative design platform. It permits merchants, designers and consumers to have a new experience during the development of highly valued personalized garments without extra industrial costs. The construction of this platform consists of several parts. At first, we have selected, through a sensory experiment, an appropriate 3D garment CAD software in terms of rending quality. Then we have proposed an active leaning-based experimental design in order to find the most appropriate values of the fabric technical parameters permitting to minimize the overall perceptual difference between real and virtual fabrics in static and dynamic scenarios. Afterwards, we have quantitatively characterized the human perception on virtual garment by using a number of normalized sensory descriptors. These descriptors involve not only the appearance and the hand of the fabric but also the garment fit. The corresponding sensory data have been collected through two sensory experiments respectively. By learning from the experimental data, two models have been established. The first model permits to characterize the relationship between the appearance and hand perception of virtual fabrics and corresponding technical parameters that constitute the inputs of the 3D garment CAD software. The second model concerns the relationship between virtual garment fit perception and the pattern design parameters. These two models constitute the main components of the collaborative design platform. Using this platform, we have realized a number of garments meeting consumer’s personalized perceptual requirements
37

Azzabi, Zouraq Brahim. "Optimisation du procédé de contrôle non destructif par thermographie inductive pour des applications du domaine nucléaire." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4023/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse traitent d’une technique de contrôle non destructif (CND) novatrice et de son adaptation au domaine du nucléaire civil. L’outil numérique est utilisé à cette fin. Une présentation exhaustive des modèles numériques adaptés à la problématique est tout d’abord faite. Ces outils sont par la suite implémentés et leurs performances comparées. Ceci a permis de mettre en place un outil numérique rapide et capable de prendre en comptes différentes contraintes de modélisation. Il s’agit plus essentiellement de la prise en compte du circuit, d’alimentation du système de chauffe, de la modélisation des régions à effet de peau prononcé, ainsi que la modélisation des défauts fins. Ceci est suivi par une validation expérimentale des performances numériques. L’outil implémenté est validé et exploité dans le cadre d’une démarche d’évaluation de fiabilité basé sur une approche MAPOD. Dans ce cadre tout un système de tirage de données d’entrée et de gestion de données de sortie est établi. Le fruit de ceci est un outil logiciel fiable et rapide dédié à l’évaluation de la sensibilité de la technique thermo-inductive
The work of this thesis deals with an innovative non-destructive testing (NDT) technique and its adaptation to the civil nuclear field. The numerical tool is used for this purpose. An exhaustive presentation of numerical models adapted to our problematic is made at first. These tools are then implemented and their performance compared. This made it possible to set up a fast digital tool capable of taking into account different modeling constraints such as circuit coupling, modeling of pronounced skineffect regions, as well as modeling of thin defects. This was followed by an experimental validation of the performances. Once the tool implemented and validated, it was exploited as part of a reliability assessment approach based on a MAPOD approach. In this context, an entire system for drawing input data and managing output data will be established. The result of this is a reliable and fast software tool dedicated to the evaluation of the sensibility of the thermoinductive technique
38

Hodique, Yann. "Sûreté et optimisation par les systèmes de types en contexte ouvert et contraint." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-15.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La généralisation des équipements électroniques embarqués provoque des besoins croissants d'adaptabilité en ce qui concerne les systèmes logiciels qui doivent y être déployés. Par ailleurs, les faibles ressources dont les équipements disposent, ainsi que leur propension à se trouver en milieu non sécurisé, imposent des contraintes de performance et de fiabilité à ces mêmes systèmes. Le cadre de cette thèse est l'étude de la conception et de l'exploitation de systèmes de types afin d'adapter au mieux les systèmes logiciels à ces différentes contraintes. À travers la définition de systèmes de types adaptés, nous intervenons dans la chaîne de production logicielle de façon à faciliter le respect des contraintes spécifiques du domaine embarqué. Les contributions scientifiques de ce travail trouvent leur place dans deux périodes particulières du cycle de vie du logiciel. La première période est celle de la conception, durant laquelle nous proposons l'emploi d'un système de types présentant la propriété d'être suffisamment souple pour permettre l'expression de concepts de haut niveau sans crainte d'une dégradation de performance. La seconde période est celle du déploiement qui, par sa nature « définitive », nous permet d'avoir recours au calcul de types plus spécifiquement orientés vers l'interprétation spécialisée des programmes, à des fins d'optimisation notamment.
39

Vo, Xuan Thanh. "Apprentissage avec la parcimonie et sur des données incertaines par la programmation DC et DCA." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0193/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes d'apprentissage avec la parcimonie et/ou avec l'incertitude des données. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithms) étant reconnues comme des outils puissants d'optimisation. La thèse se compose de deux parties : La première partie concerne la parcimonie tandis que la deuxième partie traite l'incertitude des données. Dans la première partie, une étude approfondie pour la minimisation de la norme zéro a été réalisée tant sur le plan théorique qu'algorithmique. Nous considérons une approximation DC commune de la norme zéro et développons quatre algorithmes basées sur la programmation DC et DCA pour résoudre le problème approché. Nous prouvons que nos algorithmes couvrent tous les algorithmes standards existants dans le domaine. Ensuite, nous étudions le problème de la factorisation en matrices non-négatives (NMF) et fournissons des algorithmes appropriés basés sur la programmation DC et DCA. Nous étudions également le problème de NMF parcimonieuse. Poursuivant cette étude, nous étudions le problème d'apprentissage de dictionnaire où la représentation parcimonieuse joue un rôle crucial. Dans la deuxième partie, nous exploitons la technique d'optimisation robuste pour traiter l'incertitude des données pour les deux problèmes importants dans l'apprentissage : la sélection de variables dans SVM (Support Vector Machines) et le clustering. Différents modèles d'incertitude sont étudiés. Les algorithmes basés sur DCA sont développés pour résoudre ces problèmes
In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in sparsity and robust optimization for data uncertainty. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are well-known as powerful tools in optimization. This thesis is composed of two parts: the first part concerns with sparsity while the second part deals with uncertainty. In the first part, a unified DC approximation approach to optimization problem involving the zero-norm in objective is thoroughly studied on both theoretical and computational aspects. We consider a common DC approximation of zero-norm that includes all standard sparse inducing penalty functions, and develop general DCA schemes that cover all standard algorithms in the field. Next, the thesis turns to the nonnegative matrix factorization (NMF) problem. We investigate the structure of the considered problem and provide appropriate DCA based algorithms. To enhance the performance of NMF, the sparse NMF formulations are proposed. Continuing this topic, we study the dictionary learning problem where sparse representation plays a crucial role. In the second part, we exploit robust optimization technique to deal with data uncertainty for two important problems in machine learning: feature selection in linear Support Vector Machines and clustering. In this context, individual data point is uncertain but varies in a bounded uncertainty set. Different models (box/spherical/ellipsoidal) related to uncertain data are studied. DCA based algorithms are developed to solve the robust problems
40

Nemer, Fadia. "Optimisation de l'estimation du WCET par analyse inter-tâche du cache d'intructions." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/188/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le concepteur d'un système temps réel strict doit être capable de prouver que les limites temporelles ne sont jamais dépassées quelle que soit la situation. Cette vérification fait appel à la théorie de l'ordonnancement. Elle requiert une connaissance du pire comportement temporel du système. Il est donc nécessaire de connaître les pires instants d'arrivées et les temps d'exécution dans le pire des cas (WCET) des tâches. Le WCET d'un programme peut être estimé en mesurant son temps d'exécution dans un environnement de test ou par analyse statique du code. Les analyses statiques ont l'avantage d'être sûres mais fournissent des estimations parfois pessimistes. Ces méthodes calculent le WCET d'une tâche isolée, ainsi elles ignorent plusieurs facteurs des systèmes temps-réel multi-tâches, essentiellement l'enchaînement des tâches. Nous proposons une approche, qui s'applique aux systèmes temps-réel stricts, multitâches. Cette méthode étudie le comportement d'un ordonnancement statique des tâches d'une application temps-réel mono-processeur, pour analyser le comportement inter- et intra-tâche de la mémoire cache. Le but est de remplacer les hypothèses conservatrices qui supposent un état vide ou indéfini du cache par un état bien défini avant l'exécution de chaque tâche de l'ordonnancement. Ainsi nous améliorerons la précision de l'estimation du WCET de ces tâches en utilisant la trace de l'exécution d’autres tâches dans le cache. Nous proposons aussi un benchmark, PapaBench, décrivant une application temps-réel complète. Il a été conçu pour constituer une base pour les expérimentations de calcul de WCET mais il peut être aussi utile pour les analyses d'ordonnancement
The main characteristic of hard real-time systems is that they must guarantee a correct timing behaviour. Schedulability analysis methods are commonly used in hard real-time systems to check whether or not all tasks deadlines will be met. Most of them rely on the knowledge of an upper bound on the computation time of every task, named WCET (Worst-Case Execution Time). The WCET of a program can be computed by simulation or by performing a static analysis. Dynamic analyses give the actual WCET of a program if we can simulate all possible combinations of input data values and initial system states. Which is clearly impractical due to the exponentially number of simulations required. As a result, we compute an estimate of the actual WCET by performing a static analysis of the program despite of the pessimism generated by the approximations. Most of these analyses are performed at the task so they don't take advantage from the features of the multi-tasking real-time systems such as the tasks' chaining that affects straightforwardly the accuracy of the WCET estimation. We propose an approach that studies the instruction cache behavior of a static tasks scheduling for a single processor multi-tasking real-time application assuming that no preemption is allowed between and inside the tasks. The main goal consists of replacing the conservative approximations that consider an empty or undefined cache state before the task execution, by an abstract cache state. The WCET estimation is thus improved. We also present a free real-time benchmark, PapaBench. This benchmark is designed to be valuable for experimental works in WCET computation and may be also useful for scheduling analysis
41

Varin, Thibault. "Développement, évaluation et utilisation de méthodes de fouille de données (classifications, pharmacophores, motifs émergents et modéles par homologie de séquence) pour le screening virtuel : application aux ligands 5-HT." Caen, 2009. http://www.theses.fr/2009CAEN4056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre laboratoire a développé depuis de nombreuses années une chimiothèque sérotoninergique (programme ATBI). Celle-ci contient plus de 1500 composés testés vis-à-vis des récepteurs découverts le plus récemment : 5-HT4R, 5-HT5R, 5-HT6R and 5-HT7R. Nous rapportons ici plusieurs travaux réalisés dans le contexte de l’analyse des échantillons ATBI. Après une brève introduction, nous développons les aspects les plus importants du système sérotoninergique et plus spécialement des récepteurs 5-HT6R (chapitre II). Dans le chapitre III, nous traitons de l’évaluation et la détermination de protocoles de classification (clustering) optimaux. Nous n’avons pas réussi à obtenir une classification correcte pour deux de nos échantillons (5-HT6 et 5-HT7). Afin d’en comprendre la raison, nous avons développé une nouvelle méthode d’extraction de pharmacophore topologique 2D en utilisant les motifs émergents (chapitre IV) et nous avons construit des modèles par homologie de séquence afin d’étudier les modes de liaison des ligands 5-HT6 et 5-HT7 (chapitre V). Enfin, nous montrons comment un acide aminé (F7. 38) peut expliquer la sélectivité interespèces (humain/rat) de ligands 5-HT7Rs en se basant sur la modélisation par homologie de séquence et une étude de mutagénèse dirigée (chapitre V)
Our laboratory has developed from many years a serotoninergic chemolibrary (ATBI program). This chemolibrary contains more than 1500 compounds tested toward the most recently discovered receptors: 5-HT4R, 5-HT5R, 5-HT6R and 5-HT7R. We report here several works carried out in the context of ATBI datasets analysis. After a brief introduction we develop the most important biological aspect of serotoninergic system (chapter II). In chapter III, we deal with evaluation and determination of optimal clustering protocols in relation with our internal chemolibrary. Because a good clustering classification for two of our ATBI datasets is really an issue (5-HT6 and 5-HT7) and in order to understand the reasons, we have developed a new method to extract 2D topological pharmacophores using emerging patterns (chapter IV) and built homology models to study binding mode of 5-HT6 ligands (chapter V). Finally we show how a single amino acid (F7. 38) can explain interspecies (human/rat) selectivity ligands of 5-HT7Rs using homology modelling and site-directed mutagenesis (chapter V)
42

Le, Beux Sébastien. "Un flot de conception pour applications de traitement du signal systématique implémentées sur FPGA à base d'Ingénierie Dirigée par les Modèles." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2007. http://tel.archives-ouvertes.fr/tel-00322195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous proposons un flot de conception pour le développement d'applications de traitement du signal systématique implémentées sur FPGA. Nous utilisons une approche Ingénierie Dirigée par les Modèles (IDM) pour la mise en oeuvre de ce flot de conception, dont la spécification des applications est décrite en UML. La première contribution de cette thèse réside dans la création d'un métamodèle isolant les concepts utilisés au niveau RTL. Ces concepts sont extraits d'implémentations matérielles dédiées de tâches à fort parallélisme de données. Par ailleurs, ce métamodèle considère la technologie d'implémentation FPGA et propose différents niveaux d'abstractions d'un même FPGA. Ces multiples niveaux d'abstractions permettent un raffinement des implémentations matérielles.

La seconde contribution est le développement d'un flot de compilation permettant la transformation d'une application modélisée à haut niveau d'abstraction (UML) vers un modèle RTL. En fonction des contraintes de surfaces disponibles (technologie FPGA), le flot de conception optimise le déroulement des boucles et le placement des tâches. Le code VHDL produit est directement simulable et synthétisable sur FPGA. À partir d'applications modélisées en UML, nous produisons automatiquement un code VHDL.

Le flot de conception proposé a été utilisé avec succès dans le cadre de sécurité automobile ; un algorithme de détection d'obstacles a été automatiquement généré depuis sa spécification UML.
43

Labatut, Patrick. "Partition de complexes guidés par les données pour la reconstruction de surface." Phd thesis, Université Paris-Diderot - Paris VII, 2009. http://tel.archives-ouvertes.fr/tel-00844020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse introduit une nouvelle approche pour la reconstruction de surface à partir d'acquisitions de nuages de points. Cette approche construit un complexe cellulaire à partir du nuage de points puis formule la reconstruction comme un problème d'étiquetage binaire des cellules de ce complexe sous un ensemble de contraintes de visibilité. La résolution du problème se ramène alors au calcul d'une coupe minimale s-t permettant d'obtenir efficacement une surface optimale d'après ces contraintes. Dans la première partie de cette thèse, l'approche est utilisée pour la reconstruction générique de surface. Une première application aboutit à un algorithme très robuste de reconstruction de surface à partir de nuages denses issus d'acquisitions laser. Une seconde application utilise une variante de cet algorithme au sein d'une chaîne de photo-modélisation en combinaison avec un raffinement variationnel photométrique. La chaîne complète est adaptée à la reconstruction de scènes de grande échelle et obtient d'excellents résultats en terme de complétude et de précision des reconstructions. La seconde partie de cette thèse considère le problème de la reconstruction directe de modèles géométriques simples à partir de nuages de points. Un algorithme robuste est proposé pour décomposer hiérarchiquement des nuages de points denses en formes issues d'un ensemble restreint de classes de formes. Lorsque que cet ensemble de classes est réduit aux plans seulement, la reconstruction de modèles de très faible complexité est possible. Une extension à d'autres classes de formes échange cet avantage contre la gestion de nuages de points plus difficiles.
44

Haddon, Antoine. "Mathematical Modeling and Optimization for Biogas Production." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS047.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La digestion anaérobique est un processus biologique au cours duquel des micro-organismes décomposent de la matière organique pour produire du biogaz (dioxyde de carbone et methane) qui peut être utilisé comme source d'énergie renouvelable. Cette thèse porte sur l'élaboration de stratégies de contrôle et la conception de bioréacteurs qui maximisent la production de biogaz.La première partie se concentre sur le problème de contrôle optimal de la maximisation de la production de biogaz dans un chemostat avec un modèle à une réaction, en contrôlant le taux de dilution. Pour le problème à horizon fini, nous étudions des commandes type feedback, similaires à ceux utilisés en pratique et consistant à conduire le réacteur vers un niveau de substrat donné et à le maintenir à ce niveau. Notre approche repose sur une estimation de la fonction de valeur inconnue en considérant différentes fonctions de coût pour lesquelles la solution optimale admet un feedback optimal explicite et autonome. En particulier, cette technique fournit une estimation de la sous-optimalité des régulateurs étudiés pour une large classe de fonctions de croissance dépendant du substrat et de la biomasse. À l'aide de simulations numériques, on montre que le choix du meilleur feedback dépend de l'horizon de temps et de la condition initiale.Ensuite, nous examinons le problème sur un horizon infini, pour les coûts moyen et actualisé. On montre que lorsque le taux d'actualisation tends vers à 0, la fonction de valeur du problème actualisé converge vers la fonction de valeur pour le coût moyen. On identifie un ensemble de solutions optimales pour le problème de limite et avec coût moyen comme étant les contrôles qui conduisent le système vers un état qui maximise le débit de biogaz sur un ensemble invariant.Nous revenons ensuite au problème sur à horizon fini fixe et avec le Principe du Maximum de Pontryagin, on montre que le contrôle optimal à une structure bang arc singulier. On construit une famille de contrôles extremal qui dépendent de la valeur constante du Hamiltonien. En utilisant l'équation de Hamilton-Jacobi-Bellman, on identifie le contrôle optimal comme étant celui associé à la valeur du Hamiltonien qui satisfait une équation de point fixe. On propose ensuite un algorithme pour calculer la commande optimale en résolvant cette équation de point fixe. On illustre enfin cette méthode avec les deux principales types de fonctions de croissance de Monod et Haldane.Dans la deuxième partie, on modélise et on étudie l'impact de l'hétérogénéité du milieu réactionnel sur la production de biogaz. Pour cela, on introduit un modèle de bioréacteur pilote qui décrit les caractéristiques spatiales. Ce modèle tire parti de la géométrie du réacteur pour réduire la dimension spatiale de la section contenant un lit fixe et, dans les autres sections, on considère les équations 3D de Navier-Stokes en régime permanent pour la dynamique des fluides. Pour représenter l'activité biologique, on utilise un modèle à deux réactions et pour les substrats, des équations advection-diffusion-réaction. On considère seulement les biomasses qui sont attachées au lit fixe et on modélise leur croissance avec une fonction densité dépendante. On montre que ce modèle peut reproduire le gradient spatial de données expérimentales et permet de mieux comprendre la dynamique interne du réacteur. En particulier, les simulations numériques indiquent qu'en mélangeant moins, le réacteur est plus efficace, élimine plus de matières organiques et produit plus de biogaz
Anaerobic digestion is a biological process in which organic compounds are degraded by different microbial populations into biogas (carbon dioxyde and methane), which can be used as a renewable energy source. This thesis works towards developing control strategies and bioreactor designs that maximize biogas production.The first part focuses on the optimal control problem of maximizing biogas production in a chemostat in several directions. We consider the single reaction model and the dilution rate is the controlled variable.For the finite horizon problem, we study feedback controllers similar to those used in practice and consisting in driving the reactor towards a given substrate level and maintaining it there. Our approach relies on establishing bounds of the unknown value function by considering different rewards for which the optimal solution has an explicit optimal feedback that is time-independent. In particular, this technique provides explicit bounds on the sub-optimality of the studied controllers for a broad class of substrate and biomass dependent growth rate functions. With numerical simulations, we show that the choice of the best feedback depends on the time horizon and initial condition.Next, we consider the problem over an infinite horizon, for averaged and discounted rewards. We show that, when the discount rate goes to 0, the value function of the discounted problem converges and that the limit is equal to the value function for the averaged reward. We identify a set of optimal solutions for the limit and averaged problems as the controls that drive the system towards a state that maximizes the biogas flow rate on an special invariant set.We then return to the problem over a fixed finite horizon and with the Pontryagin Maximum Principle, we show that the optimal control has a bang singular arc structure. We construct a one parameter family of extremal controls that depend on the constant value of the Hamiltonian. Using the Hamilton-Jacobi-Bellman equation, we identify the optimal control as the extremal associated with the value of the Hamiltonian which satisfies a fixed point equation. We then propose a numerical algorithm to compute the optimal control by solving this fixed point equation. We illustrate this method with the two major types of growth functions of Monod and Haldane.In the second part, we investigate the impact of mixing the reacting medium on biogas production. For this we introduce a model of a pilot scale upflow fixed bed bioreactor that offers a representation of spatial features. This model takes advantage of reactor geometry to reduce the spatial dimension of the section containing the fixed bed and in other sections, we consider the 3D steady-state Navier-Stokes equations for the fluid dynamics. To represent the biological activity, we use a 2 step model and for the substrates, advection-diffusion-reaction equations. We only consider the biomasses that are attached in the fixed bed section and we model their growth with a density dependent function. We show that this model can reproduce the spatial gradient of experimental data and helps to better understand the internal dynamics of the reactor. In particular, numerical simulations indicate that with less mixing, the reactor is more efficient, removing more organic matter and producing more biogas
45

Jaisson, Pascal. "Systèmes complexes gouvernés par des flux : schémas de volumes finis hybrides et optimisation numérique." Phd thesis, Ecole Centrale Paris, 2006. http://tel.archives-ouvertes.fr/tel-00468203.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse concerne la modélisation par des EDP et la résolution numérique de problèmes d'optimisation pour les flux d'information et pour le trafic routier. Nous proposons un nouveau type de schémas hybrides. En premier, nous nous intéressons à l'optimisation des temps de service nécessaires à un serveur informatique pour traiter un ou plusieurs types de requêtes, afin de satisfaire une qualité de service imposée. La modélisation choisie fait intervenir un système de lois de conservation proposé par De Vuyst. Les particules sont les requêtes et la variable d'espace représente le taux d'avancement dans le traitement de la requête. Nous exhibons alors les équations différentielles ordinaires permettant de calculer les temps de service. Cela nous permet d'optimiser l'allocation des ressources du serveur suivant le type de requêtes. Nous présentons deux exemples de simulation numérique. Ensuite, nous considérons un problème d'optimisation en trafic routier faisant intervenir le modèle "fluide" aux EDP du second ordre de Aw-Rascle. Les particules sont les véhicules. A partir de données observées, en quantité limitée, sur une portion de route [0;L] et sur un intervalle de temps [0;T], nous voulons prévoir les conditions de circulation après le temps T. Il faut connaître précisément les conditions aux temps T pour les utiliser dans le système de Aw-Rascle comme nouvelles conditions initiales. Nous calculons cette condition initiale en retrouvant par un algorithme d'optimisation la solution de Aw-Rascle qui minimise l'erreur entre les valeurs de cette solution et les données observées. Il s'agit d'un problème d'assimilation de données, que nous résolvons par une méthode adjointe. Deux stratégies distinctes sont possibles : nous prenons comme variables d'optimisation les conditions initiales et les conditions aux bords du domaine [0;L]x [0;T] ou alors nous prenons uniquement comme variables d'optimisation les conditions initiales sur une section plus grande [-L';L]. Nous explorons ces deux stratégies. Enfin, nous nous intéressons aux schémas numériques permettant de trouver les solutions des systèmes de lois de conservation tels que les deux systèmes précédents. Nous présentons alors un nouveau type de schémas hybrides à un paramètre qui permet d'obtenir la propriété TVD et d'être du second ordre en espace et en temps. Le paramètre permet d'interpoler les schémas de Lax-Wendroff et de Lax-Friedrichs. Après cette première phase prédictrice, il est possible de corriger ce paramètre dans les cellules où il y a production d'entropie numérique. Nous obtenons ainsi un schéma qui permet de capturer la solution physique.
46

Belghiti, Moulay Tayeb. "Modélisation et techniques d'optimisation en bio-informatique et fouille de données." Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est particulièrement destinée à traiter deux types de problèmes : clustering et l'alignement multiple de séquence. Notre objectif est de résoudre de manière satisfaisante ces problèmes globaux et de tester l'approche de la Programmation DC et DCA sur des jeux de données réelles. La thèse comporte trois parties : la première partie est consacrée aux nouvelles approches de l'optimisation non convexe. Nous y présentons une étude en profondeur de l'algorithme qui est utilisé dans cette thèse, à savoir la programmation DC et l'algorithme DC (DCA). Dans la deuxième partie, nous allons modéliser le problème clustering en trois sous-problèmes non convexes. Les deux premiers sous-problèmes se distinguent par rapport au choix de la norme utilisée, (clustering via les normes 1 et 2). Le troisième sous-problème utilise la méthode du noyau, (clustering via la méthode du noyau). La troisième partie sera consacrée à la bio-informatique. On va se focaliser sur la modélisation et la résolution de deux sous-problèmes : l'alignement multiple de séquence et l'alignement de séquence d'ARN par structure. Tous les chapitres excepté le premier se terminent par des tests numériques
This Ph.D. thesis is particularly intended to treat two types of problems : clustering and the multiple alignment of sequence. Our objective is to solve efficiently these global problems and to test DC Programming approach and DCA on real datasets. The thesis is divided into three parts : the first part is devoted to the new approaches of nonconvex optimization-global optimization. We present it a study in depth of the algorithm which is used in this thesis, namely the programming DC and the algorithm DC ( DCA). In the second part, we will model the problem clustering in three nonconvex subproblems. The first two subproblems are distinguished compared to the choice from the norm used, (clustering via norm 1 and 2). The third subproblem uses the method of the kernel, (clustering via the method of the kernel). The third part will be devoted to bioinformatics, one goes this focused on the modeling and the resolution of two subproblems : the multiple alignment of sequence and the alignment of sequence of RNA. All the chapters except the first end in numerical tests
47

Glitia, Calin. "Optimisation des applications de traitement systématique intensives sur Systems-on-Chip." Electronic Thesis or Diss., Lille 1, 2009. http://www.theses.fr/2009LIL10070.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les applications de traitement intensif de signal apparaissent dans de nombreux domaines d'applications tels que multimédia ou systèmes de détection. Ces applications gèrent les structures de données multidimensionnelles (principalement des tableaux) pour traiter les différentes dimensions des données (espace, temps, fréquence). Un langage de spécification permettant l'utilisation directe de ces différentes dimensions avec un haut niveau d'abstraction est une des clés de la manipulation de la complexité de ces applications et permet de bénéficier de leur parallélisme potentiel. Le langage de spécification Array-OL est conçu pour faire exactement cela. Dans cette thèse, nous introduisons une extension d'Array-OL pour exprimer des dépendances cycliques par des dépendances interrépétitions uniformes. Nous montrons que ce langage de spécification est capable d'exprimer les principaux motifs de calcul du domaine de traitement de signal intensif. Nous discutons aussi de la modélisation répétitive des applications parallèles, des architectures répétitives et les placements uniformes des premières sur les secondes, en utilisant les concepts Array-OL intégrés dans le profil UML MARTE (Modeling and Analysis of Real-time and Embedded systems). Des transformations de haut niveau data-parallèles sont disponibles pour adapter l'application à l'exécution, ce qui permet de choisir la granularité des flots et une simple expression du placement en étiquetant chaque répétition par son mode d'exécution: data parallèle ou séquentiel. L'ensemble des transformations a été revu, étendu et implémenté dans le cadre de l'environnement de comodélisation pour les systèmes embarqués, Gaspard2. Avec l'introduction des dépendances uniformes, notre intérêt s'est tourné aussi sur l'interaction entre ces dépendances et les transformations de haut niveau. C'est essentiel, afin de permettre l'utilisation des outils de refactoring sur les modèles avec dépendances uniformes. En utilisant les outils de refactoring de haut niveau, des stratégies et des heuristiques peuvent être conçues pour aider à l'exploration de l'espace de conception. Nous proposons une stratégie qui permet de trouver de bons compromis entre l'usage de stockage et de ressources de calcul, et dans l'exploitation de parallélisme (à la fois de tâches et de données), stratégie illustrée sur une application industrielle radar
Intensive signal processing applications appear in many application domains such as video processing or detection systems. These applications handle multidimensional data structures (mainly arrays) to deal with the various dimensions of the data (space, time, frequency). A specification language allowing the direct manipulation of these different dimensions with a high level of abstraction is a key to handling the complexity of these applications and to benefit from their massive potential parallelism. The Array-OL specification language is designed to do just that. In this thesis, we introduce an extension of Array-OL to express cycle dependences by the way of uniform inter-repetition dependences. We show that this specification language is able to express the main patterns of computation of the intensive signal processing domain. We discuss also the repetitive modeling of parallel applications, repetitive architectures and uniform mappings of the former to the latter, using the Array-OL concepts integrated into the Modeling and Analysis of Real-time and Embedded systems (MARTE) UML profile. High-level data-parallel transformations are available to adapt the application to the execution, allowing to choose the granularity of the flows and a simple expression of the mapping by tagging each repetition by its execution mode: data-parallel or sequential. The whole set of transformations was reviewed, extended and implemented as a part of the Gaspard2 co-design environment for embedded systems. With the introduction of the uniform dependences into the specification, our interest turns also on the interaction between these dependences and the high-level transformations. This is essential in order to enable the usage of the refactoring tools on the models with uniform dependences. Based on the high-level refactoring tools, strategies and heuristics can be designed to help explore the design space. We propose a strategy that allows to find good trade-offs in the usage of storage and computation resources, and in the parallelism (both task and data parallelism) exploitation, strategy illustrated on an industrial radar application
48

Dine, Abdelhamid. "Localisation et cartographie simultanées par optimisation de graphe sur architectures hétérogènes pour l’embarqué." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS303/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La localisation et cartographie simultanées connue, communément, sous le nom de SLAM (Simultaneous Localization And Mapping) est un processus qui permet à un robot explorant un environnement inconnu de reconstruire une carte de celui-ci tout en se localisant, en même temps, sur cette carte. Dans ce travail de thèse, nous nous intéressons au SLAM par optimisation de graphe. Celui-ci utilise un graphe pour représenter et résoudre le problème de SLAM. Une optimisation de graphe consiste à trouver une configuration de graphe (trajectoire et carte) qui correspond le mieux aux contraintes introduites par les mesures capteurs. L'optimisation de graphe présente une forte complexité algorithmique et requiert des ressources de calcul et de mémoire importantes, particulièrement si l'on veut explorer de larges zones. Cela limite l'utilisation de cette méthode dans des systèmes embarqués temps-réel. Les travaux de cette thèse contribuent à l'atténuation de la complexité de calcul du SLAM par optimisation de graphe. Notre approche s’appuie sur deux axes complémentaires : la représentation mémoire des données et l’implantation sur architectures hétérogènes embarquées. Dans le premier axe, nous proposons une structure de données incrémentale pour représenter puis optimiser efficacement le graphe. Dans le second axe, nous explorons l'utilisation des architectures hétérogènes récentes pour accélérer le SLAM par optimisation de graphe. Nous proposons, donc, un modèle d’implantation adéquat aux applications embarquées en mettant en évidence les avantages et les inconvénients des architectures évaluées, à savoir SoCs basés GPU et FPGA
Simultaneous Localization And Mapping is the process that allows a robot to build a map of an unknown environment while at the same time it determines the robot position on this map.In this work, we are interested in graph-based SLAM method. This method uses a graph to represent and solve the SLAM problem. A graph optimization consists in finding a graph configuration (trajectory and map) that better matches the constraints introduced by the sensors measurements. Graph optimization is characterized by a high computational complexity that requires high computational and memory resources, particularly to explore large areas. This limits the use of graph-based SLAM in real-time embedded systems. This thesis contributes to the reduction of the graph-based computational complexity. Our approach is based on two complementary axes: data representation in memory and implementation on embedded heterogeneous architectures. In the first axis, we propose an incremental data structure to efficiently represent and then optimize the graph. In the second axis, we explore the use of the recent heterogeneous architectures to speed up graph-based SLAM. We propose an efficient implementation model for embedded applications. We highlight the advantages and disadvantages of the evaluated architectures, namely GPU-based and FPGA-based System-On-Chips
49

Gilardet, Mathieu. "Étude d'algorithmes de restauration d'images sismiques par optimisation de forme non linéaire et application à la reconstruction sédimentaire." Phd thesis, Université de Pau et des Pays de l'Adour, 2013. http://tel.archives-ouvertes.fr/tel-00952964.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentons une nouvelle méthode pour la restauration d'images sismiques. Quand on l'observe, une image sismique est le résultat d'un système de dépôt initial qui a été transformé par un ensemble de déformations géologiques successives (flexions, glissement de la faille, etc) qui se sont produites sur une grande période de temps. L'objectif de la restauration sismique consiste à inverser les déformations pour fournir une image résultante qui représente le système de dépôt géologique tel qu'il était dans un état antérieur. Classiquement, ce procédé permet de tester la cohérence des hypothèses d'interprétations formulées par les géophysiciens sur les images initiales. Dans notre contribution, nous fournissons un outil qui permet de générer rapidement des images restaurées et qui aide donc les géophysiciens à reconnaître et identifier les caractéristiques géologiques qui peuvent être très fortement modifiées et donc difficilement identifiables dans l'image observée d'origine. Cette application permet alors d'assister ces géophysiciens pour la formulation d'hypothèses d'interprétation des images sismiques. L'approche que nous introduisons est basée sur un processus de minimisation qui exprime les déformations géologiques en termes de contraintes géométriques. Nous utilisons une approche itérative de Gauss-Newton qui converge rapidement pour résoudre le système. Dans une deuxième partie de notre travail nous montrons différents résultats obtenus dans des cas concrets afin d'illustrer le processus de restauration d'image sismique sur des données réelles et de montrer comment la version restaurée peut être utilisée dans un cadre d'interprétation géologique.
50

Mosnier, David. "Optimisation robuste multi-critères des pneumatiques en préconception." Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2011. http://www.theses.fr/2011ECDL0028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons dans ce mémoire une démarche complète de pré-conception en mécanique que nous avons appliquée au choix dimensionnel des pneumatiques. Ce travail s'inscrit dans un contexte industriel qui connaît de fortes évolutions des cahiers des charges avec l'apparition de contraintes environnementales fortes. En parallèle, les industriels cherchent à raccourcir les phases de pré-conception. La démarche d'optimisation que nous présentons ici permet de répondre à une grande diversité de cahier des charges tout en permettant d'atteindre des solutions dans des délais très courts. Une étude de pré-conception des suspensions d'un véhicule nous a permis de décrire chacune des étapes constitutives de la démarche de pré-conception proposée. Cette démarche fait appel à un algorithme génétique afin de pouvoir traiter le problème d'optimisation multi-objectifs. Les temps de calculs nécessaires à l'évaluation des solutions a pu être réduit grâce à l'utilisation une méthode de Krigeage. Un algorithme de partition des solutions optimales obtenues a ensuite été introduit, à partir d'un algorithme de cartes auto-adaptatives, afin de proposer une synthèse organisée des solutions au concepteur. Enfin, nous avons introduit la possibilité de traiter des incertitudes au sein du processus d'optimisation à l'aide d'une adjonction de contraintes au problème d'optimisation multi-objectifs. Nous avons alors employé cette méthode au problème du choix dimensionnel des pneumatiques pour un véhicule. Nous avons pour cela décrit le problème en présentant les variables de conceptions considérées ainsi que les performances à traiter, avec les modèles associés permettant les calculs des indicateurs à optimiser. Le recours à des techniques de métamodélisation a permis de raccourcir les temps d'évaluation et par conséquent le temps nécessaire à l'obtention de solutions. L'étape suivante de partitionnement automatique des solutions permet une synthèse des solutions par typages qui peut conduire à une prise de décision du concepteur. Une optimisation sous contraintes peut également être menée ensuite afin de raffiner le choix du concepteur. L'outil développé a démontré pouvoir traiter de manière générique une grande diversité de problèmes, ayant chacun un cahier des charges spécifique. Nous avons également pu compléter cette' étude par le traitement d'un cas d'optimisation considérant des incertitudes sur les variables de. conception. Nous avons pu valider la démarche en la déployant sur plusieurs cas de choix dimensionnel de véhicules. Nous avons ainsi pu travailler sur un cas de rétro-engineering puis nous nous sommes intéressés à des scenarii d'évolutions potentielles des véhicules. Nous avons ainsi p étudier et proposer de nouvelles montes pneumatiques pour des véhicules de types électriques hybrides ou allégés, qui devraient apparaître sur le marché au cours de la prochaine décennie
A global framework has been introduced in or der to deal with pre-design steps. The proposed workflow has been applied on the design of tire dimensions to fit new vehicles specifications. Indeed, industrial design lead time has been progressively reduced in order to bring new products faster to market. Nevertheless, environmental regulations become more and more stringent and the importance given to energetic efficiency during new products design phases increase From day to day. Therefore, design pro cess has to be reconsidered in order to be able to design quickly products which have to fulfil new specifications compared to their former version. The proposed framework uses a genetic algorithm in order to solve multi-objective optimisation problems. Since model calls are computationally expensive, it has been necessary to use surrogate modelling in order to fast en objective evaluations. Then data mining tools using self organizing maps have been deployed in order to cluster solutions. It allows providing the designer a limited number of typing, which are easier to behold. Eventually, uncertainties have been considered during optimization thanks to constraints addition. The proposed framework has been employed on tire dimensions optimization while designing a new vehicle. Therefore design parameters as well as objective functions that have to be taken into account have been introduced before developing corresponding models. Furthermore surrogate modelling is integrated in the optimization pro cess in order to accelerate objective functions evaluations while keeping a good accuracy. The automatic clustering workflow is then a real design support tool. A last step of constrained optimization can be fulfilled so as to refine the proposed solutions. Numerous problems with diverse specifications have been solved with the multi-criteria optimization framework presented. It has been shown that this framework is also able to deal with uncertainties and ensures limited influence on optimal solutions performances. Several examples have been treated as a validation. lndeed, tire dimensions designs have been conducted for several specifications which belonged to different vehicles with diverse properties. Indeed tire dimensions have been proposed for a vintage vehicle as well as electric, hybrid or down-sized vehicles, which would emerge in the upcoming decade

To the bibliography