Дисертації з теми "Produit de données"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Produit de données.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Produit de données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Diallo, Thierno M. L. "Approche de diagnostic des défauts d’un produit par intégration des données de traçabilité unitaire produit/process et des connaissances expertes." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10345.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thèse, menés dans le cadre du projet FUI Traçaverre, visent à optimiser le rappel pour un processus qui n'est pas de type batch avec une traçabilité unitaire des articles produits. L'objectif étant de minimiser le nombre d'articles rappelés tout en s'assurant que tous les articles avec défaut sont rappelés. Pour cela, nous avons proposé un processus de rappel efficient qui intègre, d'une part, les possibilités offertes par la traçabilité unitaire et, d'autre part, utilise une fonction de diagnostic devenue indispensable avant le rappel effectif des produits. Dans le cas des systèmes industriels complexes pour lesquels l'expertise humaine est insuffisante et dont nous n'avons pas de modèle physique, la traçabilité unitaire offre une possibilité pour mieux comprendre et analyser le procédé de fabrication par une reconstitution de la vie du produit à travers les données de traçabilité. Le couplage des données de traçabilité unitaire produit/process représente une source potentielle de connaissance à mettre en oeuvre et à exploiter. Ces travaux de thèse proposent un modèle de données pour le couplage de ces données. Ce modèle de données est basé sur deux standards, l'un dédié à la production et l'autre portant sur la traçabilité. Après l'identification et l'intégration des données nécessaires, nous avons développé une fonction de diagnostic à base de données. La construction de cette fonction diagnostic a été réalisée par apprentissage et comprend l'intégration des connaissances sur le système pour réduire la complexité de l'algorithme d'apprentissage. Dans le processus de rappel proposé, lorsque l'équipement à l'origine du défaut nécessitant le rappel est identifié, l'état de santé de cet équipement au voisinage de l'instant de fabrication du produit contrôlé défectueux est évalué afin d'identifier les autres produits susceptibles de présenter le même défaut. L'approche globale proposée est appliquée à deux études de cas. La première étude a concerné l'industrie verrière. Le second cas d'application a porté sur le process benchmark Tennessee Eastman
This thesis, which is part of the Traçaverre Project, aims to optimize the recall when the production process is not batch type with a unit traceability of produced items. The objective is to minimize the number of recalled items while ensuring that all items with defect are recalled. We propose an efficient recall procedure that incorporates possibilities offered by the unitary traceability and uses a diagnostic function. For complex industrial systems for which human expertise is not sufficient and for which we do not have a physical model, the unitary traceability provides opportunities to better understand and analyse the manufacturing process by a re-enactment of the life of the product through the traceability data. The integration of product and process unitary traceability data represents a potential source of knowledge to be implemented and operate. This thesis propose a data model for the coupling of these data. This data model is based on two standards, one dedicated to the production and the other dealing with the traceability. We developed a diagnostic function based on data after having identified and integrated the necessary data. The construction of this diagnosis function was performed by a learning approach and comprises the integration of knowledge on the system to reduce the complexity of the learning algorithm. In the proposed recall procedure, when the equipment causing the fault is identified, the health status of this equipment in the neighbourhood of the manufacturing time of the defective product is evaluated in order to identify other products likely to present the same defect. The global proposed approach was applied to two case studies. The first study focuses on the glass industry. The second case of application deals with the benchmark Tennessee Eastman process
2

Shariat, Ghodous Parisa. "Modélisation intégrée de données de produit et de processus de conception." Lyon 1, 1996. http://www.theses.fr/1996LYO10208.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de recherche présenté dans ce mémoire, traite de la problématique de développement d'un produit dans un environnement d'ingénierie moderne. L'échange et le partage de données dans un tel environnement jouent un rôle important dans l'amélioration de la qualité de produit et de la productivité. L'essentiel de notre travail, porte sur la représentation générique des connaissances liées au développement d'un produit. Dans le domaine de représentation de données de produit, les recherches récentes ont abouti à la norme internationale pour la représentation interpretable par l'ordinateur des informations de produit et leurs échanges, nommée STEP (STandard for Exchange of Product data models). Mais afin de faciliter l'intégration des systèmes XAO (CAO, CFAO,. . . ) et pour avoir un support suffisant pour les activités de gestion et d'ingénierie dans les systèmes CIM (Computer Integrated Manufacturing), il n'est pas suffisant de représenter uniquement les données entre les processus mais il est aussi nécessaire de représenter les processus. Ce travail a pour objet l'étude d'une approche pour la modélisation simultanée de produit et de ses processus de développement. Cette approche fournit un cadre pour représenter les données de produit et les données de processus en utilisant la méthodologie et les modèles de données de STEP. Pour faciliter la modélisation normalisée de données de produit et de processus, un prototype de système de générateur de modèles de données STEP (SMGS) a été développé. Dans ce système, en utilisant la norme STEP comme ressource de base, nous avons essayé de résoudre les problèmes de transformation des différents points de vue des experts de modélisation de données de produit et ses processus. L'applicabilité de ce modèle est verifiée par des exemples d'application pris dans les domaines de la cinématique, de la modélisation géométrique et de la trajectoire d'outil
3

Bevilacqua, Elsa. "Etude chimique et minéralogique des peintures : analyse sur poudre par méthodes X, traitement de données." Lille 1, 1989. http://www.theses.fr/1989LIL10155.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nos travaux consistent à développer l'étude chimique et minéralogique de peintures blanches grand public à base d'oxyde de titane. La méthodologie proposée assure d'une part l'identification et la quantification des minéraux et d'autre part l'analyse quantitative des majeurs, la mise en évidence et le dosage d'éléments traceurs. Les travaux relatifs à la minéralogie permettent la mise en évidence des potentialités respectives de méthodes thermiques et de la diffraction des rayons x pour la caractérisation des charges et pigments rencontrés. L'exploitation selon la méthode de MATRIX-FLUSHING est adaptée à la quantification des différentes phases minéralogiques en présence. L'étude chimique des oxydes majeurs: ZnO, TiO2, CaO, K2O, SiO2, Al2O3 et MgO est réalisée par spectrométrie de fluorescence x avec l'application de la méthode des poudres. Le modèle de correction des effets de matrice développé, qui prend en compte la variation des coefficients d'influence avec la composition, rend possible l'analyse sur des larges gammes de concentrations que la grande variété des peintures impose de couvrir. Nos résultats démontrent que la méthode des poudres, très souvent délaissée au profit de la technique des perles, répond de manière satisfaisante avec l'avantage indiscutable de la simplification de la préparation des échantillons. La transposition des méthodes de H. BOURGAULT et des FONDS ETALONS solutionne le dosage des éléments traceurs: Nb, Zr, Sr, Rb et Zn par fluorescence x. La seconde méthode, en s'appuyant sur la mesure de la raie diffusée Compton, présente l'avantage de supprimer l'impératif de la connaissance des concentrations des majeurs. L'applicabilité générale de la méthodologie est confirmée par l'étude de peintures européennes, de provenances, de nature et d'applications différentes
4

Benson, Marie Anne. "Pouvoir prédictif des données d'enquête sur la confiance." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69497.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les données d’enquête sur la confiance sont des séries chronologiques recensant les réponses à des questions visant à mesurer la confiance et les anticipations des agents économiques à propos de l’activité économique future. La richesse de ces données ainsi que leur disponibilité en temps réel suscitent l’intérêt de nombreux prévisionnistes, qui y voient un moyen d’améliorer leurs prévisions classiques. Dans ce mémoire, j’évalue le pouvoir prédictif des données d’enquête sur la confiance pour l’évolution future du PIB, tout en comparant notamment la performance prévisionnelle des indices de confiance produits par le Conférence Board of Canada aux indicateurs que je construis par l’analyse en composantes principales. À partir de trois modèles linéaires, j’analyse une expérience de prévision hors échantillon, de type « rolling windows », sur un échantillon couvrant la période 1980 à 2019. Les résultats démontrent que l’analyse en composantes principales fournissent des indicateurs plus performants que les indices de confiance du Conference Board. Cependant, les résultats de l’étude ne permettent pas d’affirmer clairement que la confiance améliore la prévision une fois que le taux de croissance retardé du PIB est incorporé.
Confidence survey data are time series containting the responses to questions aiming to measure confidence and expectations of economic agents about future economic activity. The richness of these data and their availability in real time attracts the interest of many forecasters who see it as a way to improve their traditional forecasts. In this thesis, I assess the predictive power of survey data for the future evolution of Canadian GDP, while comparing the forecasting performance of the Conference Board of Canada own confidence indices to the indicators I construct using principal component analysis. Using three simple linear models, I carry out an out-of-sample forecasting experiment with rolling windows on the period 1980 to 2019. The results show that principal component analysis provides better-performing indicators than the indices produced by the Conference Board. However, the results of the study cannot show that clear that confidence improves forecasting unambiguently once the lagged growth rate of GDP is added to the analysis.
5

Herve, Baptiste. "Conception de service dans les entreprises orientées produit sur la base des systèmes de valorisation de données." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0026/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un paysage industriel de plus en plus tourné vers le numérique, les opportunités des entreprises ne manquent pas pour innover et répondre à une demande jusqu’alors inaccessible. C’est dans ce cadre que l’internet des objets apparait comme un élan technologique a fort potentiel. Ce levier d’innovation, basé sur la valorisation de flux de données, sont par nature intangible et c’est pourquoi nous les considérons ici comme des services. Cependant, les concepteurs doivent faire face ici à un univers complexe où de nombreux domaines d’expertise et de connaissance sont engagés. C’est pourquoi nous proposons dans cette thèse un modèle méthodologique de conception mettant en scène le service, l’expertise métier et les technologies de découverte de connaissance de manière optimisé pour concevoir à l’internet des objets. Ce modèle de conception a été éprouvé chez e.l.m. leblanc, entreprise du groupe Bosch, dans le développement d’un appareil de chauffage connecté et de ses services
In a more and more numeric oriented industrial landscape, the business opportunities for companies to innovate and answer needs inaccessible yep are increasing. In this framework, the internet of things appears as a high potential technology. This innovation lever, where the value-creation is principally based on the data, is not tangible by nature and this is the reason why we conceder it as a service in this thesis. However, the designer has to face a complex universe where a high number expertise and knowledge are engaged. This is the reason why we propose in this thesis a design methodology model organizing the service, the domain knowledge and the data discovery technologies in an optimized process to design the internet of things. This model has been experienced at e.l.m. leblanc, company of the Bosch group, in the development of a connected boiler and its services
6

Herve, Baptiste. "Conception de service dans les entreprises orientées produit sur la base des systèmes de valorisation de données." Electronic Thesis or Diss., Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un paysage industriel de plus en plus tourné vers le numérique, les opportunités des entreprises ne manquent pas pour innover et répondre à une demande jusqu’alors inaccessible. C’est dans ce cadre que l’internet des objets apparait comme un élan technologique a fort potentiel. Ce levier d’innovation, basé sur la valorisation de flux de données, sont par nature intangible et c’est pourquoi nous les considérons ici comme des services. Cependant, les concepteurs doivent faire face ici à un univers complexe où de nombreux domaines d’expertise et de connaissance sont engagés. C’est pourquoi nous proposons dans cette thèse un modèle méthodologique de conception mettant en scène le service, l’expertise métier et les technologies de découverte de connaissance de manière optimisé pour concevoir à l’internet des objets. Ce modèle de conception a été éprouvé chez e.l.m. leblanc, entreprise du groupe Bosch, dans le développement d’un appareil de chauffage connecté et de ses services
In a more and more numeric oriented industrial landscape, the business opportunities for companies to innovate and answer needs inaccessible yep are increasing. In this framework, the internet of things appears as a high potential technology. This innovation lever, where the value-creation is principally based on the data, is not tangible by nature and this is the reason why we conceder it as a service in this thesis. However, the designer has to face a complex universe where a high number expertise and knowledge are engaged. This is the reason why we propose in this thesis a design methodology model organizing the service, the domain knowledge and the data discovery technologies in an optimized process to design the internet of things. This model has been experienced at e.l.m. leblanc, company of the Bosch group, in the development of a connected boiler and its services
7

Juillard, Hélène. "Méthodes d'estimation et d'estimation de variance pour une enquête longitudinale : application aux données de l'Etude Longitudinale Française depuis l'Enfance (Elfe)." Thesis, Toulouse 1, 2016. http://www.theses.fr/2016TOU10026/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce document, on suppose que l’aléa provient du tirage de l’échantillon (inférence basée sur le plan de sondage). Chaque échantillonnage conduit à une variance dite d’échantillonnage. Après déroulement d’une enquête, l’estimation de cette variance va servir de mesure de précision (ou d’incertitude) pour les estimateurs des paramètres étudiés. La cohorte Elfe, démarrée en 2011, comprend plus de 18 000 enfants dont les parents ont donné leur consentement à l’inclusion. Dans chacune des maternités sélectionnées, les nourrissons de la population d’inférence nés durant quatre périodes spécifiques représentant chacune des quatre saisons de l’année 2011 ont été sélectionnés. Elfe est la première étude longitudinale de ce type en France, suivant les enfants de leur naissance à l’âge adulte. Elle aborde les multiples aspects de la vie de l’enfant sous l’angle des sciences sociales, de la santé et de la santé-environnement. La cohorte Elfe a été sélectionnée selon un plan de sondage non standard appelé échantillonnage produit, avec les sélections indépendantes d’un échantillon de maternités et d’un échantillon de jours. Le suivi de l’enfant commence dès ses premiers jours, à la maternité. Ensuite, lorsque les enfants fêtent leurs deux mois, les parents sont contactés pour un premier entretien téléphonique, puis au premier anniversaire des enfants, à leurs deux ans, 3 ans et demi et cinq ans et demi. L’enquête est longitudinale. Le premier chapitre de cette thèse introduit des notions relatives à la théorie des sondages et présente l’enquête Elfe (Etude Longitudinale Française depuis l’Enfance) ; ses données serviront d’illustration aux résultats théoriques issus de cette thèse. Le deuxième chapitre porte sur le plan produit et propose dans un cadre théorique général des estimateurs sans biais et des estimateurs simplifiés de variance pour traiter ce plan. Il est aussi montré que ce plan est en général moins efficace que celui classique à deux degrés d’échantillonnage. Le chapitre trois est en continuité avec le précédent : pour le plan produit, cinq estimateurs sans biais de type Yates-Grundy sont proposés à partir de cinq différentes décompositions possibles de la variance. Le chapitre quatre est un article permettant au lecteur de différencier le plan produit du plan à deux degrés, et de mettre en pratique les étapes d’échantillonnage et d’estimation sous les logiciels R, SAS et Stata. Le chapitre cinq est lui, consacré à la variance et l’estimation de la variance pour une enquête de type cohorte avec processus de non-réponse monotone. Le chapitre six est un rapport méthodologique pour les utilisateurs où l’estimation de la variance appropriée au plan Elfe est expliquée et mise en œuvre avec les logiciels R, SAS et Stata. Tous les résultats des études par simulation présentés dans ce document sont reproductibles, les codes étant proposés en annexe
In this document, we are interested in estimation under a design-based framework, where the randomness arises from the sample selection. Each sampling leads to a sampling variance. After the survey, the estimation of this variance will serve as a measure of precision (or uncertainty) for the estimators of the parameters under study. The 2011 ELFE cohort comprises more than 18,000 children whose parents consented to their inclusion. In each of the selected maternity units, targeted babies born during four specific periods representing each of the four seasons in 2011 were selected. ELFE is the first longitudinal study of its kind in France, tracking children from birth to adulthood. It will examine every aspect of these children’s lives from the perspectives of health, social sciences and environmental health. The ELFE cohort was selected through a non-standard sampling design that is called cross-classified sampling, with independent selections of the sample of maternity units and of the sample of days. In this work, we propose unbiased variance estimators to handle this type of sampling designs, and we derive specific variance estimators adapted to the ELFE case. Tracking of the babies starts when they are just a few days old and still at the maternity unit. When the children reach the age of two months, the parents are contacted for the first telephone interview. When the children are one year old, and again when they reach the ages of two, three and a half years and five and a half years, their parents will once more be contacted by telephone. The survey is longitudinal.The first chapter of this thesis introduces concepts related to the theory of survey design and presents the survey ELFE (French Longitudinal Study from Childhood); its data will be used as illustration for the theoretical results derived in this thesis. The second chapter focuses on the cross-classified design and provides unbiased estimators and simplified variance estimators to treat this design in a general theoretical framework. It is also shown that this design is generally less efficient than the conventional two-stage sampling design. Chapter three is in continuity with the previous one : for the cross-classified sampling design, five unbiased Yates-Grundy like variance estimators are available from five different possible decomposition of the variance. Chapter four is an article allowing the reader to make the difference between the cross-classified sampling design and the two-stage sampling design, and to implement the steps of sampling and estimation under the softwares R, SAS and Stata. Chapter five is devoted to variance computation and variance estimation for a cohort survey with monotone non-response. Chapter six is a methodological report to users in which the appropriate variance estimation for the ELFE design is explained and implemented with softwares R, SAS and Stata. All the results of simulation studies presented in this document are reproducible, the codes being proposed in the annex
8

Kubler, Sylvain. "Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit." Phd thesis, Université Henri Poincaré - Nancy I, 2012. http://tel.archives-ouvertes.fr/tel-00759600.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse est la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir le produit et la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinsèquement et intégralement communicant. Le cadre de dissémination des informations offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer par l'avenir concernant le concept de matière communicante.
9

Tursi, Angela. "Ontology-based approach for product-driven interoperability of enterprise production systems." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10086/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'interopérabilité des applications est devenue le leitmotiv des développeurs et concepteurs en ingénierie système. La plupart des approches pour l'interopérabilité existant dans l'entreprise ont pour objectif principal l'ajustement et l'adaptation des types et structures de données nécessaire à la mise en œuvre de collaboration entre entreprises. Dans le domaine des entreprises manufacturières, le produit est une composante centrale. Des travaux scientifiques proposent des solutions pour la prise en compte des systèmes d'information issus des produits, tout au long de leur cycle de vie. Mais ces informations sont souvent non corrélées. La gestion des données de produit (PDM) est couramment mise en œuvre pour gérer toute l'information relative aux produits durant tout leur cycle de vie. Cependant, ces modèles sont généralement des "îlots" indépendants ne tenant pas compte de la problématique d'interopérabilité des applications supportant ces modèles. L'objectif de cette thèse est d'étudier cette problématique d'interopérabilité appliquée aux applications utilisées dans l'entreprise manufacturière et de définir un modèle ontologique de la connaissance des entreprises relatives aux produits qu'elles fabriquent, sur la base de leurs données techniques. Le résultat de ce travail de recherche concerne la formalisation d'une méthodologie d'identification des informations de gestion techniques des produits, sous la forme d'une ontologie, pour l'interopérabilité des applications d'entreprises manufacturières, sur la base des standards existants tels que l'ISO 10303 et l'IEC 62264
In recent years, the enterprise applications interoperability has become the leitmotiv of developers and designers in systems engineering. Most approaches to interoperability in the company have the primary objective of adjustment and adaptation of types and data structures necessary for the implementation of collaboration between companies. In the field of manufacturing, the product is a central component. Scientific works propose solutions taking into account information systems derived from products technical data throughout their life cycle. But this information is often uncorrelated. The management of product data (PDM) is commonly implemented to manage all information concerning products throughout their life cycle. The modelling of management and manufacturing processes is widely applied to both physical products and services. However, these models are generally independent “islands” ignoring the problem of interoperability between applications that support these models. The objective of this thesis is to study the problem of interoperability applied to applications used in the manufacturing environment and to define a model of the ontological knowledge of enterprises related to the products they manufacture, based on technical data, ensuring the interoperability of enterprise systems. The outcome of this research concerns the formalization of a methodology for identifying a product-centric information system in the form of an ontology, for the interoperability of applications in manufacturing companies, based on existing standard such as ISO 10303 and IEC 62264
10

Kubler, Sylvain. "Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0130.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse consiste en la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir le produit et la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinséquement et intégralement "communicant". Le cadre de dissémination des informations proposé offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer à l'avenir concernant le concept de "matière communicante"
Over the last decade, communities involved with intelligent-manufacturing systems (IMS - Intelligent Manufacturing Systems, HMS - Holonic Manufacturing System) have demonstrated that systems that integrate intelligent products can be more efficient, flexible and adaptable. Intelligent products may prove to be beneficial economically, to deal with product traceability and information sharing along the product lifecycle. Nevertheless, there are still some open questions such as the specification of what information should be gathered, stored and distributed and how it should be managed during the lifecycle of the product. The contribution of this thesis is to define a process for disseminating information related to the product over its lifecycle. This process is combined with a new paradigm, which changes drastically the way we view the material. This concept aims to give the ability for the material to be intrinsically and wholly "communicating". The data dissemination process allow users to store context-sensitive information on communicating product. In addition to the data dissemination process, this thesis gives insight into the technological and scientific research fields inherent to the concept of "communicating material", which remain to be explored
11

Minel, Stépahnie. "Démarche de conception collaborative et proposition d'outils de transfert de données métier : application à un produit mécanique "le siège d'automobile"." Paris, ENSAM, 2003. http://www.theses.fr/2003ENAM0030.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Ahmed-Nacer, Mohamed. "Un modèle de gestion et d'évolution de schéma pour les bases de données de génie logiciel." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0067.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
"la 4e de couverture indique : Dans cette thèse, nous nous intéressons à l'évolution des schémas pour les bases de données de génie logiciel
Nous faisons d'abord le point des travaux concernant l'évolution de schémas et l’évolution des modèles de procédés logiciels ; nous définissons des critères d'évolution et nous montrons que les principales approches ne satisfont pas les besoins en génie logiciel
Nous présentons ensuite notre modèle : celui-ci permet l'existence simultanée de plusieurs points de vues de la base d'objets, la composition de schémas et enfin, l'expression de politiques différentes d'évolution de ces schémas ; chaque application pouvant définir la politique d’évolution souhaitée<
La gestion des points de vue se fonde sur le versionnement de la métabase. Le maintien de la cohérence de la base d'objets et du système global de gestion et d'évolution de schémas est assuré par l'expression de contraintes au niveau de cette métabase. La composition des schémas utilise une technique de configurations de logiciels appliqués aux types et la définition de politique d’évolution utilise les capacités de la base active du système Adèle"
13

Mony, Charles. "Un modèle d'intégration des fonctions conception-fabrication dans l'ingénierie de produit : définition d'un système mécanique en base de données objet." Châtenay-Malabry, Ecole centrale de Paris, 1992. http://www.theses.fr/1992ECAP0232.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cycle de vie du produit, la phase d'ingénierie permet de passer des spécifications fonctionnelles au produit conçu puis industrialisé. L'évolution des marchés entraîne aussi bien une diversification des produits qu'une réduction de la durée de cette phase d'ingénierie. Dans ce cadre, la mise en place d'un modèle de produit, capable de fédérer l'ensemble des fonctions concernées, parait alors stratégique en vue d'assurer une continuité des flux d'informations produit et une bonne réactivité de l'entreprise. Le Modèle Intégré de Définition de SYstème Mécanique (MIDSYM), présenté ici, permet de représenter, de manière homogène et cohérente, l'ensemble des informations (structurelles, fonctionnelles, géométriques et technologiques) contenues dans l'actuel « dossier de définition de produit ». La description de ce modèle s'appuie sur le concept d'entités (features) grâce à une approche fonctionnelle. L'utilisation du Système de Gestion de Base de Données Objet a permis son implémentation et son intégration avec des applications CAO et FAO existantes.
14

Briard, Tristan. "Des données captées aux créations de valeurs : Proposition d’une méthode outillée pour structurer la conception amont des produits intelligents et connectés." Electronic Thesis or Diss., Paris, HESAM, 2023. http://www.theses.fr/2023HESAE095.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les récentes avancées des technologies de l’information et de la communication ainsi que celles des sciences des données ont permis le développement des produits intelligents et connectés. Ils sont dotés de capacités nouvelles et créatrices de valeurs à la fois pour l’utilisateur et le fabricant. Ces évolutions induisent un important changement de paradigme. Pour intégrer pleinement les potentiels des produits intelligents et connectés, les industriels doivent adopter de nouveaux processus, en particulier lors de leurs conceptions. En effet, les choix des données pouvant être captées par le produit lors de sa conception définissent les créations de valeurs potentielles pour le reste de son cycle de vie. L’objectif de ces travaux de thèse est donc de formaliser une structure méthodologique pour guider les concepteurs dans l’intégration des créations de valeurs basées sur les données captées. Afin de proposer une méthode pertinente et efficace, une exploration des enjeux relatifs à la conception et aux données captées est d’abord réalisée. Sur la base des enjeux identifiés, une méthode est ensuite construite. Elle est structurée en deux phases chacune soutenue par un outil dédié. La première phase est une phase de créativité permettant de générer systématiquement des potentielles créations de valeurs basées sur les données captées. La seconde est une phase de prise de décision permettant de classer systématiquement, sur des critères de soutenabilité, les créations de valeurs précédemment générées. Plusieurs expérimentations ont permis de valider la pertinence et l’efficacité de la proposition méthodologique. Au travers de la méthode et de ses outils, ces travaux de thèse participent à la recherche scientifique et industrielle accompagnant le changement de paradigme induit par les technologies du numérique dans la conception de produit
Recent advances in information and communication technologies and data science have led to the development of smart connected products. These products have new capabilities that create value for both the user and the manufacturer. These developments are leading to a major paradigm shift. To take full advantage of the potential of smart connected products, manufacturers need to adopt new processes, especially in the design phase. Indeed, the choice of data that can be captured by the product at the design stage defines the potential value creation for the rest of its life cycle. The aim of this thesis is therefore to formalise a methodological structure to guide designers in the integration of value creation based on captured data. In order to propose a relevant and effective method, we first explore the challenges related to design and captured data. Based on the challenges identified, a method is then constructed. It is structured in two phases, each supported by a dedicated tool. The first phase is a creativity phase that systematically generates potential value creation based on captured data. The second phase is a decision-making phase in which the previously generated value creations are systematically ranked according to sustainability criteria. Experiments have validated the relevance and effectiveness of the proposed methodology. Through the method and its tools, this thesis work contributes to scientific and industrial research supporting the paradigm shift brought by digital technologies in product design
15

Chambolle, Frédéric. "Un modèle produit piloté par les processus d'élaboration : application au secteur automobile dans l'environnement STEP." Châtenay-Malabry, Ecole centrale de Paris, 1999. http://www.theses.fr/1999ECAP0623.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un contexte de forte concurrence, l'industrie automobile doit réduire ses couts et délais de conception et réalisation de produits. Pour ce faire, des coopérations avec des partenaires extérieurs et une intégration des métiers et des applications doivent être réalisées. Cela nécessite l'introduction du travail en ingénierie concourante, en entreprise entendue, le développement de la maquette numérique et des systèmes de gestion de données techniques, pour lesquels l'étude d'un modèle de produit fédérateur et intégrateur des données de l'entreprise adéquat est ici menée, la communication entre les systèmes internes, ceux des partenaires et les progiciels devant être assurée. Ce travail de thèse propose un modèle de produit automobile basé sur le protocole d'application 214 (AP214) de la norme internationale STEP. Une méthodologie d'analyse a été développée pour permettre la prise en compte des informations pré-existant dans l'entreprise telles que les processus et données manipulées. Sur la base de ce modèle produit, différentes fonctionnalités d'exploitation des données qui y ont été instanciées ont été développées. Ce sont des fonctionnalités de navigation exploitant les liens établis entre les éléments majeurs du modèle, de renseignement consistant en une extraction des données fournissant des informations complémentaires sur le produit (personnes, services, poids, matériau, documents, ), et avancées qui exploitent le modèle en profondeur pour, par exemple, extraire la nomenclature d'un véhicule. Une première mise en application est présentée au travers de la plateforme MicroSTEP 214 qui est l'implémentation au sein d'un SGBD du modèle produit proposé et des fonctionnalités associées. Un jeu de données industrielles a été utilise pour la validation du modèle et de ses fonctionnalités. Une seconde mise en application concerne l'application de la méthodologie proposée dans un scenario d'échange en co-conception. Celui-ci a pour objectif de valider les aptitudes du protocole d'application 203 (AP203) de la norme STEP à répondre aux besoins de l'industrie automobile. Une plateforme d'échange opérationnelle a été réalisée sur la base du sous-modèle AP203 retenu pour ces échanges.
16

Lefebvre, Valérie. "Risque chimique dans les laboratoires de biologie moléculaire : de l'approche théorique aux données de l'observation." Bordeaux 2, 1999. http://www.theses.fr/1999BOR23070.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Corbière, François de. "L'amélioration de la qualité des données par l'électronisation des échanges à l'épreuve des fiches produit dans le secteur de la grande distribution." Nantes, 2008. http://www.theses.fr/2008NANT4020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre recherche interroge l’influence de l’organisation de l’électronisation des échanges sur l’amélioration de la qualité des données de la fiche produit. La fiche produit est définie comme un ensemble de données décrivant le produit, données qui servent au référencement des produits des industriels par les distributeurs. L’organisation de l’électronisation, dans une perspective processuelle, se réfère aux systèmes d’émission des données, aux systèmes de réception des données et à l’interconnexion entre ces systèmes d’information. Une recherche qualitative fondée sur une approche comparative d’études de cas est menée auprès des distributeurs français et d’industriels. Nous montrons alors que la perception de l’amélioration de différentes dimensions de la qualité des données est dépendante de plusieurs éléments : les architectures mises en place par les organisations et les structures de leurs interconnexions, le degré d’automatisation du processus d’échange et la standardisation des échanges. Notre principale contribution théorique est de mettre en évidence que cet ensemble d’éléments constitutifs de l’électronisation des échanges peut être conceptualisé à travers l’interdépendance entre organisations, définie selon trois niveaux : technique, informationnel et organisationnel. Dans chacun de ces niveaux d’interdépendance, nous construisons un continuum entre deux extrêmes que sont interdépendance dyadique et interdépendance sectorielle. L’interdépendance dyadique renvoie à un ensemble d’interdépendances séquentielles entre deux participants. L’interdépendance sectorielle se réfère à une interdépendance en pool pour l’ensemble des participants
Our research question is concerned with the influence of electronic exchanges organizations on data quality improvement. Product information is a set of data that identify and describe a product of a manufacturer. Electronic exchanges organizations deal with the sending information systems, the receiving information systems and their interconnection. A case study based qualitative research is conducted to understand how electronic exchanges organizations are perceived to participate to data quality improvement from manufacturers’ and retailers’ points of view. Our results show that sending, receiving and interconnected architectures, exchanges automation and exchanges standardization all influence the perceived improvement of some data quality dimensions. In a processing view of exchanges, our main theoretical contribution is to show that this set of factors can all be conceptualized with interdependence. We define interdependence through three levels: technical, informational and organizational. In each of these levels, we propose that interdependence types can be positioned between two extremes that are dyadic interdependence and sector interdependence. Dyadic interdependence refers to multiple sequential interdependencies between two firms. Sector interdependence refers to a pool interdependency between all the firms
18

Diop, Mamadou. "Décomposition booléenne des tableaux multi-dimensionnels de données binaires : une approche par modèle de mélange post non-linéaire." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0222/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde le problème de la décomposition booléenne des tableaux multidimensionnels de données binaires par modèle de mélange post non-linéaire. Dans la première partie, nous introduisons une nouvelle approche pour la factorisation booléenne en matrices binaires (FBMB) fondée sur un modèle de mélange post non-linéaire. Contrairement aux autres méthodes de factorisation de matrices binaires existantes, fondées sur le produit matriciel classique, le modèle proposé est équivalent au modèle booléen de factorisation matricielle lorsque les entrées des facteurs sont exactement binaires et donne des résultats plus interprétables dans le cas de sources binaires corrélées, et des rangs d'approximation matricielle plus faibles. Une condition nécessaire et suffisante d'unicité pour la FBMB est également fournie. Deux algorithmes s'appuyant sur une mise à jour multiplicative sont proposés et illustrés dans des simulations numériques ainsi que sur un jeu de données réelles. La généralisation de cette approche au cas de tableaux multidimensionnels (tenseurs) binaires conduit à la factorisation booléenne de tenseurs binaires (FBTB). La démonstration de la condition nécessaire et suffisante d’unicité de la décomposition booléenne de tenseurs binaires repose sur la notion d'indépendance booléenne d'une famille de vecteurs. L'algorithme multiplicatif fondé sur le modèle de mélange post non-linéaire est étendu au cas multidimensionnel. Nous proposons également un nouvel algorithme, plus efficace, s'appuyant sur une stratégie de type AO-ADMM (Alternating Optimization -ADMM). Ces algorithmes sont comparés à ceux de l'état de l'art sur des données simulées et sur un jeu de données réelles
This work is dedicated to the study of boolean decompositions of binary multidimensional arrays using a post nonlinear mixture model. In the first part, we introduce a new approach for the boolean factorization of binary matrices (BFBM) based on a post nonlinear mixture model. Unlike the existing binary matrix factorization methods, the proposed method is equivalent to the boolean factorization model when the matrices are strictly binary and give thus more interpretable results in the case of correlated sources and lower rank matrix approximations compared to other state-of-the-art algorithms. A necessary and suffi-cient condition for the uniqueness of the BFBM is also provided. Two algorithms based on multiplicative update rules are proposed and tested in numerical simulations, as well as on a real dataset. The gener-alization of this approach to the case of binary multidimensional arrays (tensors) leads to the boolean factorisation of binary tensors (BFBT). The proof of the necessary and sufficient condition for the boolean decomposition of binary tensors is based on a notion of boolean independence of binary vectors. The multiplicative algorithm based on the post nonlinear mixture model is extended to the multidimensional case. We also propose a new algorithm based on an AO-ADMM (Alternating Optimization-ADMM) strategy. These algorithms are compared to state-of-the-art algorithms on simulated and on real data
19

El, Amraoui Yassine. "Faciliter l'inclusion humaine dans le processus de science des données : de la capture des exigences métier à la conception d'un workflow d'apprentissage automatique opérationnel." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le processus de création de flux de travail en science des données, notamment pour résoudre des problèmes d'apprentissage automatique, repose souvent sur des essais et erreurs, manquant de structure et de partage de connaissances entre les data scientistes. Cela entraîne une variabilité dans les tentatives et une interprétation subjective des cas d'utilisation. Afin d'améliorer ce processus dans le cadre de la détection d'anomalies sur les séries temporelles, notre travail propose trois contributions principales :Contribution 1 : Intégration des données, des exigences métiers et des composants de la solution dans la conception du flux de travail d'apprentissage automatique.Alors que les approches automatiques se concentrent sur les données, notre approche prend en compte les dépendances entre les données, les exigences métier et les composants de la solution.Cette approche holistique assure une compréhension plus complète du problème et guide le développement de solutions appropriées. Contribution 2 : Personnalisation des flux de travail pour des solutions sur mesure en tirant parti de configurations partielles et modulaires. Notre approche vise à aider les data scientists à personnaliser les flux de travail pour leurs problèmes spécifiques.Nous y parvenons en employant divers modèles de variabilité et un système de contraintes.Cette approche permet d'intégrer les données, les exigences métier et les composants de la solution dans le processus de conception des flux de travail.En outre, nous avons montré que les utilisateurs peuvent accéder à des expériences antérieures basées sur les paramètres du problème ou en créer de nouvelles.Contribution 3 : Amélioration de la connaissance des lignes de produits logiciels par l'exploitation de nouveaux produits.Nous avons proposé une approche pratique de la construction d'une ligne de produit logiciel (LPL) comme première étape vers la conception de solutions génériques pour détecter les anomalies dans les séries temporelles tout en capturant de nouvelles connaissances et en capitalisant sur celles qui existent déjà lorsqu'il s'agit de nouvelles expériences ou de nouveaux cas d'utilisation. L'incrémentalité dans l'acquisition de connaissances et l'instabilité du domaine sont soutenues par la LPL à travers sa structuration et l'exploitation de configurations partielles associées à des cas d'utilisation antérieurs.À notre connaissance, il s'agit du premier cas d'application du paradigme LPL dans un tel contexte et avec un objectif d'acquisition de connaissances.En capturant les pratiques dans des descriptions partielles des problèmes et des descriptions des solutions mises en œuvre, nous obtenons les abstractions nécessaires pour raisonner sur les ensembles de données, les solutions et les exigences métier.Le LPL est ensuite utilisé pour produire de nouvelles solutions, les comparer aux solutions antérieures et identifier les connaissances qui n'étaient pas explicites.L'abstraction croissante soutenue par le SPL apporte également d'autres avantages.En ce qui concerne le partage des connaissances, nous avons observé un changement dans l'approche de la création de flux de travail de ML, en se concentrant sur l'analyse des problèmes avant de rechercher des applications similaires
When data scientists need to create machine learning workflows to solve a problem, they first understand the business needs, analyze the data, and then experiment to find a solution. They judge the success of each attempt using metrics like accuracy, recall, and F-score. If these metrics meet expectations on the test data, it's a success; otherwise, it's considered a failure. However, they often don't pinpoint why a workflow fails before trying a new one. This trial-and-error process can involve many attempts because it's not guided and relies on the preferences and knowledge of the data scientist.This intuitive method leads to varying trial counts among data scientists. Also, evaluating solutions on a test set doesn't guarantee performance on real-world data. So, when models are deployed, additional monitoring is needed. If a workflow performs poorly, the whole process might need restarting with adjustments based on new data.Furthermore, each data scientist learns from their own experiences without sharing knowledge. This lack of collaboration can lead to repeated mistakes and oversights. Additionally, the interpretation of similarity between use cases can vary among practitioners, making the process even more subjective. Overall, the process lacks structure and heavily depends on the individual knowledge and decisions of the data scientists involved.In this work, we present how to mutualize data science knowledge related to anomaly detection in time series to help data scientists generate machine learning workflows by guiding them along the phases of the process .To this aim, we have proposed three main contributions to this problem:Contribution 1: Integrating Data, Business Requirements, and Solution Components in ML Workflow design.While automatic approaches focus on data, our approach considers the dependencies between the data, the business requirements, and the solution components. This holistic approach ensures a more comprehensive understanding of the problem and guides the development of appropriate solutions.Contribution 2: Customizing Workflows for Tailored Solutions by Leveraging Partial and Modular Configurations. Our approach aims to assist data scientists in customizing workflows for their specific problems. We achieve this by employing various variability models and a constraint system. This setup enables users to receive feedback based on their data and business requirements, possibly only partially identified.Additionally, we showed that users can access previous experiments based on problem settings or create entirely new ones.Contribution 3: Enhancing Software Product Lines Knowledge through New Product Exploitation.We have proposed a practice-driven approach to building an SPL as a first step toward allowing the design of generic solutions to detect anomalies in time series while capturing new knowledge and capitalizing on the existing one when dealing with new experiments or use cases.The incrementality in the acquisition of knowledge and the instability of the domain are supported by the SPL through its structuring and the exploitation of partial configurations associated with past use cases.As far as we know, this is the first case of application of the SPL paradigm in such a context and with a knowledge acquisition objective.By capturing practices in partial descriptions of the problems and descriptions of the solutions implemented, we obtain the abstractions to reason about datasets, solutions, and business requirements.The SPL is then used to produce new solutions, compare them to past solutions, and identify knowledge that was not explicit.The growing abstraction supported by the SPL also brings other benefits.In knowledge sharing, we have observed a shift in the approach to creating ML workflows, focusing on analyzing problems before looking for similar applications
20

Moalla, Néjib. "Amélioration de la qualité des données du produit dans le contexte du cycle de vie d’un vaccin : une approche d’interopérabilité dirigée par les modèles." Lyon 2, 2007. http://theses.univ-lyon2.fr/sdx/theses/lyon2/2007/moalla_n.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la quête de l'excellence industrielle, la qualité des données est un des piliers essentiels à prendre en considération dans toute approche d'amélioration ou d'optimisation. Ainsi, la qualité des données est un besoin primordial pour s'assurer que le produit répond aux besoins du client. Dans l'industrie pharmaceutique et plus particulièrement, dans l'industrie des vaccins, la définition du produit est très complexe vu sa structure moléculaire. La qualité des données s'avère une priorité face à la multitude des définitions du produit (biologique, pharmaceutique, industrielle, etc. ) et surtout face à l'ensemble des restrictions et des recommandations réglementaires imposées par les autorités de santés clientes. Dans ce contexte, et devant la multitude des métiers et des systèmes d'information supports, le besoin d'assurer l'interopérabilité entre ces systèmes hétérogènes permettra de prendre en considération les spécifications des différents métiers lors des échanges de données. Le déploiement d'une architecture dirigée par les modèles permettra de transformer une description fonctionnelle des différents processus vers des modèles de données exprimés dans différentes plateformes. Dans le périmètre logistique de l'industrie des vaccins, nous nous intéressons à assurer la qualité de quelques données critiques dans notre ERP par le déploiement des concepts d'nteropérabilité dirigée par les modèles. La définition de niveaux de référentiels nous permettra de structurer les modèles ainsi générés pour les partager avec l'ensemble des acteurs de notre périmètre logistique. A long terme, notre approche vise à réduire le coût du produit
To reach the industrial excellence, data quality is one of the essential pillars to handle in any improvement or optimization approach. Thus, data quality is a paramount need to ensure that the product meets the customer requirements. In the drug company and more particularly, in the vaccine industry, the definition of vaccine product is very complex considering its molecular structure. Data quality proves to be a priority according to many product definitions (biological, pharmaceutical, industrial, etc) and especially face to a lot of restrictions and regulatory recommendations imposed by customers as health authorities. In this context, and in front of the multitude of business activities supported by disconnected information systems, the need to ensure interoperability between these heterogeneous systems will make it possible to handle the specifications of various business scope during the exchanges of information. The deployment of model driven architecture will enable to transform a functional description of processes towards data models expressed in various platforms. In the logistic perimeter of the vaccines industry, we are interested to ensure the quality of some critical data in our ERP by the deployment of the concepts of model driven interoperability. The definition of various levels of reference frames will enable us to structure the models thus generated to share them with logistic perimeter actors. In the long run, our approach aims at reducing the cost of the product
21

Durupt, Alexandre. "Définition d'un processus de rétro-conception de produit par intégration des connaissances de son style de vie." Troyes, 2010. http://www.theses.fr/2010TROY0009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la rétro-conception (RC) d’un objet mécanique. Cette activité consiste, à partir d’un objet et du nuage de points issu de sa numérisation, à générer un modèle CAO de cet objet. L’état de l’art sur la reconnaissance de formes dans un nuage de points propose des approches qui permettent d’obtenir un modèle CAO quasi inexploitable (paramétrage géométriques et non métier) pour une activité de re-conception. Cette thèse définit une méthodologie de RC visant à fournir un modèle CAO paramétré incluant les vues métier comme la fabrication et les aspects fonctionnels. Ainsi, l’activité de reconception pourra être accélérée car les vues métier, autrement dit, les intentions de conception, auront été mises en lumière. En conception de produit, des solutions telles que les systèmes d’information technique visant à assurer la gestion des vues métier (connaissances sur le produit) existent. Cette thèse propose d’adapter cette solution à la RC. Une méthode nommée Knowledge Based Reverse Engineering a été créée. Elle permet d’analyser l’objet mécanique selon des vues métier. Ces vues sont incarnées par des entités géométriques dont les paramètres métier sont extraits du nuage de points. En sortie, une CAO paramétrée incluant les vues métier (fonctionnelle, fabrication etc. ) peut être créée. Ce travail est validé par des exemples industriels et implémenté dans un démonstrateur : KBRE system
This thesis concerns the reverse engineering (RE) of a mechanical object. This activity consists in generating a CAD model of this object from the 3D points cloud from its digitalisation. The state of the art on the geometrical recognition in a point cloud suggests approaches which allow obtaining an almost unusable CAD model (geometrical parameters with not design intents) for a redesign activity. This thesis defines a methodology of RE that provides a parameterised CAD model that includes design intents such as the manufacturing and the functional aspects. So, an activity of redesign can be accelerated because the design intents will have been brought to light. In design product domain, solutions like Knowledge Based Engineering ensure the de-sign intents management. This thesis suggests adapting these solutions to RE. A method called Knowledge Based Reverse Engineering was created. It allows analysing the mechanical object according to the design intents. These design intents are embodied by geometrical features. Their parameters are extracted from the 3D points cloud. A CAD model including design intents (manufacturing, functional requirements) can be created. This work is illustrated by industrial examples and implemented in a viewer called KBRE sys-tem
22

Roumiguie, Antoine. "Développement et validation d’un indice de production des prairies basé sur l’utilisation de séries temporelles de données satellitaires : application à un produit d’assurance en France." Thesis, Toulouse, INPT, 2016. http://www.theses.fr/2016INPT0030/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une assurance indicielle est proposée en réponse à l'augmentation des sécheresses impactant les prairies. Elle se base sur un indice de production fourragère (IPF) obtenu à partir d'images satellitaires de moyenne résolution spatiale pour estimer l'impact de l'aléa dans une zone géographique définie. Le principal enjeu lié à la mise en place d'une telle assurance réside dans la bonne estimation des pertes subies. Les travaux de thèse s’articulent autour de deux objectifs : la validation de l'IPF et la proposition d'amélioration de cet indice. Un protocole de validation est construit pour limiter les problèmes liés à l'utilisation de produit de moyenne résolution et au changement d’échelle. L'IPF, confronté à des données de référence de différentes natures, montre de bonnes performances : des mesures de production in situ (R² = 0,81; R² = 0,71), des images satellitaires haute résolution spatiale (R² = 0,78 - 0,84) et des données issues de modélisation (R² = 0,68). Les travaux permettent également d'identifier des pistes d'amélioration pour la chaîne de traitement de l'IPF. Un nouvel indice, basé sur une modélisation semiempirique combinant les données satellitaires avec des données exogènes relatives aux conditions climatiques et à la phénologie des prairies, permet d'améliorer la précision des estimations de production de 18,6 %. L’ensemble des résultats obtenus ouvrent de nombreuses perspectives de recherche sur le développement de l'IPF et ses potentiels d'application dans le domaine assurantiel
An index-based insurance is provided in response to the increasing number of droughts impacting grasslands. It is based on a forage production index (FPI) retrieved from medium resolution remote sensing images to estimate the impact of hazard in a specific geographical area. The main issue related to the development of such an insurance is to obtain an accurate estimation of losses. This study focuses on two objectives: the FPI validation and the improvement of this index. A validation protocol is defined to limit problems attached to the use of medium resolution products and scaling issues in the comparisons process. FPI is validated with different data: ground measurements production (R² = 0.81; R² = 0.71), high resolution remote sensing images (R² = 0.78 - 0.84) and modelled data (R² = 0.68). This study also points out areas of improvement for the IPF chain. A new index, based on semi-empirical modeling combining remote sensing data with exogenous data referring to climatic conditions and grassland phenology, allows improving production estimation accuracy by 18.6%. Results of this study open several new research perspectives on FPI development and its potential practical application
23

Lambert, Thomas. "On the Effect of Replication of Input Files on the Efficiency and the Robustness of a Set of Computations." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0656/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec l’émergence du calcul haute-performance (HPC) et des applications Big Data, de nouvelles problématiques cruciales sont apparues. Parmi elles on trouve le problème du transfert de données, c’est-à-dire des communications entre machines, qui peut génerer des délais lors de gros calculs en plus d’avoir un impact sur la consommation énergétique. La réplication, que ce soit de tâches ou de fichiers, est un facteur qui accroît ces communications, tout en étant un outil quasi-indispensable pour améliorer le parallélisme du calcul et la résistance aux pannes. Dans cette thèse nous nous intéressons à la réplication de fichiers et à son impact sur les communications au travers de deux problèmes. Dans le premier, la multiplication de matrices en parallèle, le but est de limiter autant que possible ces réplications pour diminuer la quantité de données déplacées. Dans le second, l’ordonnancement de la phase « Map » de MapReduce, il existe une réplication initiale qu’il faut utiliser au mieux afin d’obtenir l’ordonnancement le plus rapide ou entraînant le moins de création de nouvelles copies. En plus de la réplication, nous nous intéressons aussi à la comparaison entre stratégies d’ordonnancement statiques (allocations faites en amont du calcul) et dynamiques (allocations faites pendant le calcul) sur ces deux problèmes avec pour objectif de créer des stratégies hybrides mélangeant les deux aspects. Pour le premier problème, le produit de matrices en parallèle, nous nous ramenons à un problème de partition de carré où l’équilibrage de charge est donné en entrée. Cet équilibrage donné, le but est de minimiser la somme des semi-paramètres des rectangles couvrant des zones ainsi créés. Ce problème a déjà été étudié par le passé et nous démontrons de nouveaux résultats. Nous proposons ainsi deux nouveaux algorithmes d’approximation, l’un fondé sur une stratégie récursive et l’autre sur l’usage d’une courbe fractale. Nous présentons également une modélisation alternative, fondée sur un problème similaire de partition de cube, dont nous prouvons la NP-complétude tout en fournissant deux algorithmes d’approximation. Pour finir, nous réalisons également une implémentation pratique du produit de matrices en utilisant nos stratégies d’allocation grâce à la librairie StarPU. Les résultats expérimentaux montrent une amélioration du temps de calcul ainsi qu’une diminution significative des transferts de données lorsqu’on utilise une stratégie statique d’allocation couplée à une technique de vol de tâches. Pour le second problème, l’ordonnancement de la phase « Map » de MapReduce, plusieurs copies des fichiers d’entrée sont distribuées parmi les processeurs disponibles. Le but ici est de faire en sorte que chaque tâche soit attribuée à un processeur possédant son fichier d’entrée tout en ayant le meilleur temps de calcul total. Une autre option étudiée est d’autoriser les tâches nonlocales (attribués à des processeurs ne possédant pas leurs fichiers d’entrée) mais d’en limiter le nombre. Dans cette thèse nous montrons premièrement qu’un algorithme glouton pour ce problème peut être modélisé par un processus de « balls-in-bins » avec choix, impliquant une surcharge (nombre de tâches supplémentaires par rapport à la moyenne) en O(mlogm) où m est le nombre de processeurs. Secondement, dans le cas où les tâches non-locales sont interdites, nous relions le problème à celui de l’orientation de graphes, ce qui permet d’obtenir des algorithmes optimaux et polynomiaux et l’existence d’une assignation presque parfaite avec forte probabilité. Dans le cas où les tâches non locales sont autorisées, nous proposons également des algorithmes polynomiaux et optimaux. Finalement, nous proposons un ensemble de simulations pour montrer l’efficacité de nos méthodes dans le cas de tâches faiblement hétérogènes
The increasing importance of High Performance Computing (HPC) and Big Data applications creates new issues in parallel computing. One of them is communication, the data transferred from a processor to another. Such data movements have an impact on computational time, inducing delays and increase of energy consumption. If replication, of either tasks or files, generates communication, it is also an important tool to improve resiliency and parallelism. In this thesis, we focus on the impact of the replication of input files on the overall amount of communication. For this purpose, we concentrate on two practical problems. The first one is parallel matrix multiplication. In this problem, the goal is to induce as few replications as possible in order to decrease the amount of communication. The second problem is the scheduling of the “Map” phase in the MapReduce framework. In this case, replication is an input of the problem and this time the goal is to use it in the best possible way. In addition to the replication issue, this thesis also considers the comparison between static and dynamic approaches for scheduling. For consistency, static approaches compute schedules before starting the computation while dynamic approaches compute the schedules during the computation itself. In this thesis we design hybrid strategies in order to take advantage of the pros of both. First, we relate communication-avoiding matrix multiplication with a square partitioning problem, where load-balancing is given as an input. In this problem, the goal is to split a square into zones (whose areas depend on the relative speed of resources) while minimizing the sum of their half-perimeters. We improve the existing results in the literature for this problem with two additional approximation algorithms. In addition we also propose an alternative model using a cube partitioning problem. We prove the NP-completeness of the associated decision problem and we design two approximations algorithms. Finally, we implement the algorithms for both problems in order to provide a comparison of the schedules for matrix multiplication. For this purpose, we rely on the StarPU library. Second, in the Map phase of MapReduce scheduling case, the input files are replicated and distributed among the processors. For this problem we propose two metrics. In the first one, we forbid non-local tasks (a task that is processed on a processor that does not own its input files) and under this constraint, we aim at minimizing the makespan. In the second problem, we allow non-local tasks and we aim at minimizing them while minimizing makespan. For the theoretical study, we focus on tasks with homogeneous computation times. First, we relate a greedy algorithm on the makespan metric with a “ball-into-bins” process, proving that this algorithm produces solutions with expected overhead (the difference between the number of tasks on the most loaded processor and the number of tasks in a perfect distribution) equal to O(mlogm) where m denotes the number of processors. Second, we relate this scheduling problem (with forbidden non-local tasks) to a problem of graph orientation and therefore prove, with the results from the literature, that there exists, with high probability, a near-perfect assignment (whose overhead is at most 1). In addition, there are polynomial-time optimal algorithms. For the communication metric case, we provide new algorithms based on a graph model close to matching problems in bipartite graphs. We prove that these algorithms are optimal for both communication and makespan metrics. Finally, we provide simulations based on traces from a MapReduce cluster to test our strategies with realistic settings and prove that the algorithms we propose perform very well in the case of low or medium variance of the computation times of the different tasks of a job
24

Diop, Mamadou. "Décomposition booléenne des tableaux multi-dimensionnels de données binaires : une approche par modèle de mélange post non-linéaire." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0222.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde le problème de la décomposition booléenne des tableaux multidimensionnels de données binaires par modèle de mélange post non-linéaire. Dans la première partie, nous introduisons une nouvelle approche pour la factorisation booléenne en matrices binaires (FBMB) fondée sur un modèle de mélange post non-linéaire. Contrairement aux autres méthodes de factorisation de matrices binaires existantes, fondées sur le produit matriciel classique, le modèle proposé est équivalent au modèle booléen de factorisation matricielle lorsque les entrées des facteurs sont exactement binaires et donne des résultats plus interprétables dans le cas de sources binaires corrélées, et des rangs d'approximation matricielle plus faibles. Une condition nécessaire et suffisante d'unicité pour la FBMB est également fournie. Deux algorithmes s'appuyant sur une mise à jour multiplicative sont proposés et illustrés dans des simulations numériques ainsi que sur un jeu de données réelles. La généralisation de cette approche au cas de tableaux multidimensionnels (tenseurs) binaires conduit à la factorisation booléenne de tenseurs binaires (FBTB). La démonstration de la condition nécessaire et suffisante d’unicité de la décomposition booléenne de tenseurs binaires repose sur la notion d'indépendance booléenne d'une famille de vecteurs. L'algorithme multiplicatif fondé sur le modèle de mélange post non-linéaire est étendu au cas multidimensionnel. Nous proposons également un nouvel algorithme, plus efficace, s'appuyant sur une stratégie de type AO-ADMM (Alternating Optimization -ADMM). Ces algorithmes sont comparés à ceux de l'état de l'art sur des données simulées et sur un jeu de données réelles
This work is dedicated to the study of boolean decompositions of binary multidimensional arrays using a post nonlinear mixture model. In the first part, we introduce a new approach for the boolean factorization of binary matrices (BFBM) based on a post nonlinear mixture model. Unlike the existing binary matrix factorization methods, the proposed method is equivalent to the boolean factorization model when the matrices are strictly binary and give thus more interpretable results in the case of correlated sources and lower rank matrix approximations compared to other state-of-the-art algorithms. A necessary and suffi-cient condition for the uniqueness of the BFBM is also provided. Two algorithms based on multiplicative update rules are proposed and tested in numerical simulations, as well as on a real dataset. The gener-alization of this approach to the case of binary multidimensional arrays (tensors) leads to the boolean factorisation of binary tensors (BFBT). The proof of the necessary and sufficient condition for the boolean decomposition of binary tensors is based on a notion of boolean independence of binary vectors. The multiplicative algorithm based on the post nonlinear mixture model is extended to the multidimensional case. We also propose a new algorithm based on an AO-ADMM (Alternating Optimization-ADMM) strategy. These algorithms are compared to state-of-the-art algorithms on simulated and on real data
25

Melhem, Mariam. "Développement des méthodes génériques d'analyses multi-variées pour la surveillance de la qualité du produit." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0543.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’industrie microélectronique est un domaine compétitif, confronté de manière permanente à plusieurs défis. Pour évaluer les étapes de fabrication, des tests de qualité sont appliqués. Ces tests étant discontinus, une défaillance des équipements peut causer une dégradation de la qualité du produit. Des alarmes peuvent être déclenchées pour indiquer des problèmes. D’autre part, on dispose d’une grande quantité de données des équipements obtenues à partir de capteurs. Une gestion des alarmes, une interpolation de mesures de qualité et une réduction de données équipements sont nécessaires. Il s’agit dans notre travail à développer des méthodes génériques d’analyse multi-variée permettant d’agréger toutes les informations disponibles sur les équipements pour prédire la qualité de produit en prenant en compte la qualité des différentes étapes de fabrication. En se basant sur le principe de reconnaissance de formes, nous avons proposé une approche pour prédire le nombre de produits restant à produire avant les pertes de performance liée aux spécifications clients en fonction des indices de santé des équipement. Notre approche permet aussi d'isoler les équipements responsables de dégradation. En plus, une méthodologie à base de régression régularisée est développée pour prédire la qualité du produit tout en prenant en compte les relations de corrélations et de dépendance existantes dans le processus. Un modèle pour la gestion des alarmes est construit où des indices de criticité et de similarité sont proposés. Les données alarmes sont ensuite utilisées pour prédire le rejet de produits. Une application sur des données industrielles provenant de STMicroelectronics est fournie
The microelectronics industry is a highly competitive field, constantly confronted with several challenges. To evaluate the manufacturing steps, quality tests are applied during and at the end of production. As these tests are discontinuous, a defect or failure of the equipment can cause a deterioration in the product quality and a loss in the manufacturing Yield. Alarms are setting off to indicate problems, but periodic alarms can be triggered resulting in alarm flows. On the other hand, a large quantity of data of the equipment obtained from sensors is available. Alarm management, interpolation of quality measurements and reduction of correlated equipment data are required. We aim in our work to develop generic methods of multi-variate analysis allowing to aggregate all the available information (equipment health indicators, alarms) to predict the product quality taking into account the quality of the various manufacturing steps. Based on the pattern recognition principle, data of the degradation trajectory are compared with health indices for failing equipment. The objective is to predict the remaining number of products before loss of the performance related to customer specifications, and the isolation of equipment responsible for degradation. In addition, regression- ased methods are used to predict the product quality while taking into account the existing correlation and the dependency relationships in the process. A model for the alarm management is constructed where criticality and similarity indices are proposed. Then, alarm data are used to predict the product scrap. An application to industrial data from STMicroelectronics is provided
26

Calero, Pastor Maria. "Méthode simplifiée d'évaluation de la performance énergétique utilisable en conception et alimentée par des données issues de politiques publiques de produit : application aux systèmes de chauffage de bâtiments." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI015/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La performance environnementale des produits influence largement la performance des systèmes. De plus, les systèmes présentent encore un potentiel d'économie d'énergie inexploité pour la performance environnementale globale, comparé aux produits individuels qui les composent.L'objectif de ce travail est de proposer une approche pour l'évaluation de performance énergétique de systèmes, en tenant compte d'information / de données livrées par les politiques européennes de produits (Directives Eco-conception et Étiquetage énergétique, Verdissement des marchés publics, Ecolabel Européen). L'hypothèse considérée ici est que les politiques environnementales des produits, qui ont été très utiles pour faciliter un système de notation homogène sur le marché européen des produits, peuvent également être avantageusement utilisées dans une démarche visant pour évaluer la performance énergétique des systèmes.Ce travail de recherche propose une méthode simplifiée pour soutenir la conception de systèmes de chauffage performants en utilisant les données des politiques environnentales de produits de l'Union Européenne, disponibles en phase de conception. Tout d'abord, une modélisation du système avec une approche "top-down" est utilisée pour prendre en compte les aspects système (conditions géographiques, caractéristiques du bâtiment, etc.). Deuxièmement, la performance énergétique du système est calculée à partir d'une approche "bottom-up", à partir de la performance des produits et des sous-systèmes composant le système. La méthode comporte 5 étapes divisées en deux phases principales: diagnostic du système initial et amélioration. La méthode est supportée par un outil de calcul original qui détermine les paramètres énergétiques (demande d'énergie, consommation d'énergie et rendement énergétique) au niveau du système en utilisant les données de performance telles que documentées par les politiques produits de l'Union Européenne. La méthode permet d'évaluer la performance d'un système de chauffage en définissant les systèmes les plus mauvais et les meilleurs possibles. La méthode est flexible et permet d'évaluer différentes configurations de produits et peut donc soutenir les activités de conception des systèmes de chauffage de bâtiment.La méthode est testée sur une étude de cas, la re-conception conception d'un système de chauffage existant d'une habitation dans le nord de l'Italie, incluant un système d'eau chaude sanitaire solaire et un système de chauffage des locaux. L'étude de cas démontre le potentiel d'amélioration du système de chauffage basé sur les résultats produits par la méthode, en aidant à sélectionner les produits actuellement disponibles sur le marché. En outre, sur la base de l'évaluation, plusieurs variantes de re-conception peuvent être proposées combinant différentes performances des produits qui composent les systèmes de chauffage. La thèse analyse également l'évolution des différentes approches adoptées par les politiques de produits de l'Union Européenne (approche produit, approche produit étendu et approche système). En particulier, le concept de "package" (ou produits combinés) défini dans les réglementations d'étiquetage énergétique des systèmes de chauffage est étudié en détail. L'étiquette du "package" du règlement 811/2013 est mise en œuvre dans la même étude de cas, de sorte que les résultats puissent être comparés à ceux des sections précédentes. Il est démontré que le concept de "package" peut également soutenir les décisions prises dans la phase de conception du système de chauffage, en particulier dans la sélection des composants appropriés en fonction de l'estimation de la performance du système. En outre, le chapitre 6, composé essentiellement d'un article publié dans un journal scientifique, analyse le lien entre les politiques publiques européennes relatives aux produits du bâtiment et celles liées à la performance énergétique des bâtiments: il est conclu qu'elles pourraient être mieux alignées
Environmental performances of products largely influence performances of systems. Moreover, systems have still an untapped energy-saving potential concerning environmental performances at system level rather than at the level of the individual products of which they are composed.The objective of this work is to propose an approach to deal with energy performance assessments at system level considering information/data from European product policies (Ecodesign, Energy Labels, Green Public Procurement and EU Ecolabel). The hypothesis here is that environmental product policies, that have been very useful in facilitating a homogeneous rating scheme in the EU market for individual products, can also be advantageously used in a method to assess the energy performance of systems.This research work proposes a simplified method for supporting the design of good performing heating systems using data from EU product policies, which is available during the design stage. Firstly, a system modelling with a top-down approach is used so that system aspects (geographical conditions, building characteristics, etc.) are regarded. Secondly, the system energy performance is calculated from a bottom-up approach so that, from the performance of the products and sub-systems composing the system. The method has 5 steps divided in two main phases: diagnostic of the initial system and improvement. The method is supported by an original calculation tool which determines the energy parameters (energy demand, energy losses, energy consumption and low-emission energy efficiency) at system level using performance figures from EU product policies. It helps assessing how good a heating system is by setting worst, benchmark and best possible systems. The method is flexible, and allows different product configurations to be assessed and can hence support the design activities of heating systems.The method is tested on a real case study, the re-design of existing heating systems of a dwelling in north Italy, including a solar hot water system and a space heating system. The case study demonstrates the potential of improvement of the heating systems based on the results produced by the method, by helping selecting products currently available in the market. In addition, based on the assessment, several improved design alternatives can be proposed combining different performances of the products which compose the heating systems.The dissertation also analyses the evolution of the different approaches of EU product policies (product, extended product and system). In particular, the package concept set in the energy labelling regulations of heating systems is studied in detail. The package label of Regulation 811/2013 is implemented on the same prior case study so that results can be compared with the ones of previous sections. It is shown that the package concept can also support decisions made in the building design phase especially in the choice of appropriate components based on estimation of system performances. In addition, the peer-reviewed paper analyses the link of building-related product policies with the Energy Performance of Buildings Directive, and it is concluded that they should be somehow better aligned
27

Gorand, Olivier. "Création d'une base de données informatique de toxicologie industrielle dans la centrale nucléaire du Blayais." Bordeaux 2, 1998. http://www.theses.fr/1998BOR23069.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Pinte, Sébastien. "Identification de la séquence de fixation à l'ADN et de recherche de gènes cibles du produit du gène suppresseur de tumeurs HIC1." Lille 2, 2004. http://www.theses.fr/2004LIL2S015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Hic1 (Hypermethylated In Cancer 1) est un gène localisé en 17p13. 3, une région fréquemment délétée et/ou hyperméthylée dans de nombreux cancers humain courants. La réintroduction de hic1 , par transfection stable en cellules cancéreuses, inhibe leur croissance et/ou leur viabilité en culture ; de plus, les souris hétérozygotes hic+/- développent tardivement des tumeurs spontanées contrairement aux souris sauvages. Tous ces résultats montrent que le gène hic1 est un gène suppresseur de tumeurs. Le produit du gène hic1 est un facteur de transcription de 714 acides aminés. Il possède, du côté N-terminal, un domaine BTB/POZ permettant d’homo- et hétérodimériser, de réprimer la transcription et d’interagir avec des partenaires protéiques, encore inconnus. Il possède également, au niveau de sa région centrale, un motif de recrutement du co-répreseur CtBP (C-termial Binding Protein). Il présente enfin, du côté C-terminal, cinq doigts de zinc de type Krüppel C2H2 constituant le domaine de fixation à l’ADN (DBD pour DNA Binding Domain). Dans un premier temps, nous avons déterminé la séquence concensus de fixation à l’ADN de HIC1 (HiRE pour HIC1 Response Element) par la technique de SAAB (Selection And Amplification of Bindings sites) : 5’-C/G NG C/G GGGCA C/ACC-3’. A l’aide de cette séquence, nous avons étudié les propriétés de fixation à l’ADN de HIC1. Les résultats ont montré que le domaine BTB/POZ inhibe la fixation de HIC1 sur un site HiRE unique en expérience de retard sur gel, mais permet une fixation coopérative sur une sonde contenant cinq sites HiRE concatémérisés (sonde 5HiRE). En se fixant sur cette séquence 5HiRE, la protéine HIC1 surexprimée ou endogène est capable de réprimer la transcription d’un gène rapporteur luciférase in cellulo. Dans un second temps, à l’aide des ARN totaux de cellules infectées par un adénovirus exprimant les protéines HIC1 ou GEP en contrôle, nous avons effectuer une recherche de gènes cibles de HIC1 par al technique de miccroarrays. Deux gènes cibles putatifs, snap43 et cycline D1, sont réprimés dans ces expériences d’arrays, possèdent dans leurs promoteurs respectifs des éléments de réponse putatifs à HIC1 et sont impliqués dans le contrôle de la croissance et du cycle cellulaire. La répression de ces gènes a été confirmée au niveau ARN et protéique et la fixation de HIC1 sur leurs promoteurs endogènes a été montrée par la technique de ChIP (Chromatin ImmunoPrecipitation assay). Les résultats de mon travail de thèse nous ont permis de mieux comprendre comment l’extinction de l’expression transcriptionnelle du gène hic1 dans les cancers, peut être un facteur participant à la transformation de différents types cellulaires in vivo.
29

Maleki, Elaheh. "A Systems Engineering-based semantic model to support “Product-Service System” life cycle." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0064/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les Systèmes Produit-Service (PSS) résultent d'une intégration de composants hétérogènes couvrant à la fois des aspects matériels et immatériels (mécanique, électrique,logiciel, processus, organisation, etc.). Le processus de développement d’un PSS est fortement collaboratif impliquant des acteurs métier très variés.Ce caractère interdisciplinaire nécessite des référentiels sémantiques standardisés pour gérer la multitude des points de vue métier et faciliter l’intégration de tous les composants hétérogènes dans un système unique. Ceci est encore plus complexe dans le cas des PSS personnalisables, majoritaires dans le milieu industriel. Malgré les nombreuses méthodologies dans littérature, la gestion des processus de développement du PSS reste encore limitée face à cette complexité. Dans ce contexte, l'Ingénierie des systèmes (IS) pourrait être une solution avantageuse au regard de ses qualités bien prouvé pour la modélisation et la gestion de systèmes complexes. Cette thèse vise à explorer le potentiel d'utilisation de l'Ingénierie des systèmes (IS) comme fondement conceptuel pour représenter d’une façon intégrée tous les différents points de vue métier associés au cycle de vie du PSS. Dans ce cadre, un méta-modèle de PSS est proposé et exemplifié dans des cas industriels. Un modèle ontologique est aussi présenté comme une application d’une partie des modèles pour structurer le référentiel commun de la plateforme ICP4Life
Product-service systems (PSS) result from the integration of heterogeneous components covering both tangible and intangible aspects(mechanical, electrical, software, process, organization, etc.). The process of developing PSS is highly collaborative involving a wide variety of stakeholders. This interdisciplinary nature requires standardized semantic repositories to handle the multitude of business views and facilitate the integration of all heterogeneous components into a single system. This is even more complex in the case of customizable PSS in the industrial sector. Despite the many methodologies in literature, the management of the development processes of the PSS is still limited to face this complexity. In this context, Systems Engineering (SE) could bean advantageous solution in terms of its proven qualities for the modeling and management of complex systems. This thesis aims at exploring the potentials of Systems Engineering (SE) as a conceptual foundation to represent various different business perspectives associated with the life cycle of the PSS. In this context, a meta-model for PSS is proposed and verified in industrial cases. An ontological model is also presented as an application of a part of the model to structure the common repository of the ICP4Life platform
30

Assouroko, Ibrahim. "Gestion de données et dynamiques des connaissances en ingénierie numérique : contribution à l'intégration de l'ingénierie des exigences, de la conception mécanique et de la simulation numérique." Compiègne, 2012. http://www.theses.fr/2012COMP2030.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les profonds changements observés, ces vingt dernières années dans le domaine du développement de produits, ont entraîné un changement méthodologique propre au domaine de la conception, et ont bénéficié d'un développement considérable des Technologies de l'Information et de la Communication (à l'instar des systèmes PLM pour la gestion de cycle de vie de produits), et des approches d'ingénierie collaborative pour l'amélioration du processus de développement de produits (PDP). Dans le contexte actuel, les solutions PLM du marché présentent de fortes hétérogénéités et restent centrés sur des technologies et formats propriétaires, n'offre pas suffisamment de capacités de communication et de partage entre logiciels contribuant au PDP. Cette thèse s'inscrit dans le cadre du PDP, et contribue à l'amélioration de la gestion intégrée de données (hétérogènes) de conception mécanique et de simulation numérique dans un contexte PLM. La contribution apportée se focalise sur la mise en œuvre d'une approche de dynamique des connaissances d'ingénierie basée sur une gestion des relations sémantiques du produit et s'articulant autour des points suivants : (1) une approche de structuration de données, portée par des entités de type semi-structuré avec une structuration évolutive, (2) un modèle conceptuel décrivant les concepts fondamentaux pilotant l'approche proposée, (3) une méthodologie simple pour faciliter et améliorer la gestion et réutilisation des connaissances d'ingénierie dans le projet de conception, et enfin (4) une approche de capitalisation des connaissances du produit par la gestion des relations sémantiques entre entités d'ingénierie en début de cycle de vie de produits
Over the last twenty years, the deep changes noticed in the field of product development, led to methodological change in the field of design. These changes have, in fact, benefited from the significant development of Information and Communication Technologies (ICT) (such as PLM systems dedicated to the product lifecycle management), and from collaborative engineering approaches, playing key role in the improvement of product development process (PDP). In the current PLM market, PLM solutions from different vendors still present strong heterogeneities, and remain on proprietary technologies and formats for competitiveness and profitability reasons, what does not ease communication and sharing between various ICTs contributing to the PDP. Our research work focuses on PDP, and aims to contribute to the improvement of the integrated management of mechanical design and numerical simulation data in a PLM context. The research contribution proposes an engineering knowledge capitalization solution based on a product semantic relationship management approach, organized as follows : (1) a data structuring approach driven by so called semi-structured entities with a structure able to evolve along the PDP, (2) a conceptual model describing the fundamental concepts of the proposed approach, (3) a methodology that facilitates and improves the management and reuse of engineering knowledge within design project, and (4) a knowledge capitalization approach based on the management of semantic relationships that exist or may exist between engineering entities within the product development process
31

Mokhtarian, Hossein. "Modélisation intégrée produit-process à l'aide d'une approche de métamodélisation reposant sur une représentation sous forme de graphes : Application à la fabrication additive." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI013/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fabrication additive (FA) a initié un changement de paradigme dans le secteur de la conception et de la fabrication des produits grâce à ses capacités uniques. Cependant, l'intégration des technologies de fabrication additive dans la productique traditionnelle doit permettre d'assurer une production fiable et une qualité reproductible des pièces. Dans cette optique, la modélisation et la simulation jouent un rôle essentiel pour améliorer la compréhension de la nature complexe et multi-physique des procédés de fabrication additive. De plus, l’intégration simultanée de différents modèles multi-physiques et de la prise en compte du procédé utilisé et de la pièce constituent toujours un défi pour la modélisation de ces technologies. L’objectif final de cette recherche est de développer et d’appliquer une approche de modélisation permettant une modélisation intégrée de la fabrication additive. Cette thèse analyse le processus de développement du produit et présente une méthodologie innovante intitulée ‘Dimensional Analysis Conceptual Modeling’ (DACM) pour modéliser les produits et les procédés de fabrication aux différentes étapes de conception. La méthode a été développée pour permettre la simulation de modèles multi-physiques. Elle intègre également une recherche systématique de faiblesses et de contradictions dans une première évaluation des solutions potentielles au problème. La méthodologie développée est appliquée dans plusieurs études de cas afin de présenter des modèles intégrant les processus de fabrication additive et les pièces à fabriquer. Les résultats montrent que la méthodologie DACM permet de modéliser distinctement et simultanément le produit et le processus de fabrication. Cette méthodologie permet aussi d'intégrer les modèles théoriques et expérimentaux déjà existants. Elle contribue à la conception pour la fabrication additive et aide le concepteur à anticiper les limites des procédés et de la conception plus tôt dans les premières étapes de développement du produit. En particulier, cela permet de prendre les bonnes décisions selon les différentes possibilités d'optimiser la conception des pièces et le paramétrage des machines de fabrication additive pour aboutir à la solution la plus adaptée. La méthode permet également de détecter la nécessité de reconcevoir des machines existantes en détectant les faiblesses de celles-ci. Cette thèse montre que la méthode DACM peut être potentiellement utilisée comme une approche de méta-modélisation pour la fabrication additive.Mots-clés: Fabrication Additive, Conception Pour la Fabrication Additive, Modélisation Intégrée, Développement de Produit, Dimensional Analysis Conceptual Modeling Framework
Additive manufacturing (AM) has created a paradigm shift in product design and manufacturing sector due to its unique capabilities. However, the integration of AM technologies in the mainstream production faces the challenge of ensuring reliable production and repeatable quality of parts. Toward this end, Modeling and simulation play a significant role to enhance the understanding of the complex multi-physics nature of AM processes. In addition, a central issue in modeling AM technologies is the integration of different models and concurrent consideration of the AM process and the part to be manufactured. Hence, the ultimate goal of this research is to present and apply a modeling approach to develop integrated modeling in additive manufacturing. Accordingly, the thesis oversees the product development process and presents the Dimensional Analysis Conceptual Modeling (DACM) Framework to model the product and manufacturing processes at the design stages of product development process. The Framework aims at providing simulation capabilities and systematic search for weaknesses and contradictions to the models for the early evaluation of solution variants. The developed methodology is applied in multiple case studies to present models integrating AM processes and the parts to be manufactured. This thesis results show that the proposed modeling framework is not only able to model the product and manufacturing process but also provide the capability to concurrently model product and manufacturing process, and also integrate existing theoretical and experimental models. The DACM framework contributes to the design for additive manufacturing and helps the designer to anticipate limitations of the AM process and part design earlier in the design stage. In particular, it enables the designer to make informed decisions on potential design alterations and AM machine redesign, and optimized part design or process parameter settings. DACM Framework shows potentials to be used as a metamodeling approach for additive manufacturing
32

Cortés, Morales Diego. "Large-scale Vertical Velocities in the Global Open Ocean via Linear Vorticity Balance." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS061.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
À l'échelle des bassins océaniques, les vitesses verticales présentent des valeurs nettement inférieures à celles des vitesses horizontales, imposant ainsi un défi considérable en ce qui concerne leur mesure directe dans l'océan. Par conséquent, leur évaluation nécessite une combinaison d'ensembles de données observationnelles et de considérations théoriques. Diverses méthodes ont été tentées, allant de celles qui se fondent sur la divergence du courant horizontal in situ à celles qui reposent sur des équations complexes de type oméga. Cependant, l'équilibre de Sverdrup a attiré l'attention des chercheurs, y compris la nôtre, en raison de sa description robuste et simple de la dynamique des océans. L'une de ses composantes fondamentales est l'équilibre de vorticité linéaire (LVB: βv = f ∂z w). Celle-ci introduit une dimension verticale dans l'équilibre de Sverdrup conventionnel, en établissant un lien entre le mouvement vertical et le transport méridien au-dessus de lui. Afin de progresser dans la perspective théorique de l'estimation des vitesses verticales, on analyse la validité de cet équilibre linéaire dans une simulation de modèle de circulation générale océanique (OGCM) eddy-permitting. Au départ, cette analyse est effectuée dans la région de l'océan Atlantique Nord, puis étendue à l'ensemble de l'océan mondial, en mettant l'accent sur des échelles supérieures à des échelles plus grandes que 5 degrés. L'analyse a révélé la faisabilité du calcul d'un champ de vitesse verticale robuste sous la couche de mélange en utilisant l'approche LVB pour de grandes fractions de la colonne d'eau dans les régions intérieures des gyres tropicaux et subtropicaux, ainsi que dans certaines couches de la circulation subpolaire et australe à des échelles de temps annuelles et interannuelles. Des déviations par rapport à la LVB se produisent dans les courants de la frontière occidentale, les flux tropicaux zonaux forts, les gyres subpolaires et les échelles plus petites en raison des non-linéarités, des mélanges et des contributions au bilan de vorticité induites par la bathymétrie. L'étude de la validité de la LVB dans l'océan global fournit une base relativement simple pour l'estimation des vitesses verticales à travers de la LVB intégrée indéfinie en profondeur. Grâce à l'utilisation d'un OGCM, il a été démontré que ces estimations ont la capacité de reproduire avec précision l'amplitude temporelle moyenne et de la variabilité interannuelle des vitesses verticales dans des portions substantielles de l'océan global, en comparaison avec le modèle de référence. Nous construisons ici le produit DIOLIVE (Depth-Indefinitive integrated Observation-based LInear Vorticity Estimates) dérivé des vitesses géostrophiques ARMOR3D basées sur des observations et appliquées à la LVB intégrée indéfinie en profondeur, avec les données de forçage du vent ERA5 comme conditions limites à la surface. Ce produit contient des vitesses verticales couvrant l'ensemble de la thermocline globale à une résolution horizontale de 5 degrés et 40 niveaux isopycnaux pendant la période 1993-2018.Une analyse comparative entre le produit DIOLIVE et quatre autres produits de vitesse verticale, comprenant une simulation OGCM, deux réanalyses et une reconstruction basée sur l'observation de l'équation oméga, est proposée. Diverses métriques sont utilisées pour évaluer les caractéristiques multidimensionnelles de la circulation verticale de l'océan. Le produit basé sur l'équation oméga révèle d'importantes divergences par rapport à la synchronisation et à la baroclinicité reproduites par l'ensemble de validation. Mais, dans les régions où la LVB est une hypothèse valide, le produit DIOLIVE démontre une capacité remarquable à reproduire la structure barocline de l'océan, présentant une cohérence spatiale satisfaisante et un accord notable en termes de variabilité temporelle lorsqu'il est comparé aux deux réanalyses et à la simulation OGCM
At oceanic basin scales, vertical velocities are several orders of magnitude smaller than their horizontal counterparts, rendering a formidable challenge for their direct measurement in the real ocean. Therefore, their estimations need a combination of observation-based datasets and theoretical considerations.Historically, scientists have employed various techniques to estimate vertical velocities across different scales constrained by the available observations of their time. Various approaches have been attempted, ranging from methods utilizing in situ horizontal current divergence to those based on intricate omega-type equations. However, the Sverdrup balance has captured the attention of researchers and ours due to its robust and straightforward description of ocean dynamics. One of the fundamental components of the Sverdrup balance is the linear vorticity balance (LVB: βv = f ∂z w). It introduces a novel vertical dimension to the conventional Sverdrup balance, establishing a connection between vertical movement and the meridional transport above it.In order to advance on the theoretical prospect of estimating the vertical velocities, it is primarily identified the annual and interannual timescales patterns governing the linear vorticity balance within an eddy-permitting OGCM simulation. Initially, this analysis is conducted over the North Atlantic Ocean, and subsequently expanded to encompass the entire global ocean, focusing on larger scales than 5 degrees. The analysis revealed the feasibility of computing a robust vertical velocity field beneath the mixed layer using the LVB approach across large fractions of the water column in the interior regions of tropical and subtropical gyres and within some layers of the subpolar and austral circulation. Departures from the LVB occur in the western boundary currents, strong zonal tropical flows, subpolar gyres and smaller scales due to the nonlinearities, mixing and bathymetry-driven contributions to the vorticity budget.The extensive validity of the LVB description of the global ocean provides a relatively simple foundation for estimating the vertical velocities through the indefinite depth-integrated LVB. Using an OGCM, it has demonstrated that the estimates possess the capability to accurately reproduce the time-mean amplitude and interannual variability of the vertical velocity field within substantial portions of the global ocean when compared to the reference model. Here, we build the DIOLIVE (indefinite Depth-Integrated Observation-based LInear Vorticity Estimates) product by applying the observation-based geostrophic velocities from ARMOR3D into the indefinite depth-integrated LVB formalism, with wind stress data from ERA5 serving as boundary condition at the surface. This product contains vertical velocities spanning the global ocean's thermocline at 5 degrees horizontal resolution and 40 isopycnal levels during the 1993-2018 period.A comparative analysis between the DIOLIVE product and four alternative products, including one OGCM simulation, two reanalyses and an observation-based reconstruction based on the omega equation, is conducted using various metrics assessing the vertical circulation's multidimensional features of the ocean vertical flow. The omega equation-based product displays large departures from the synchronicity and baroclinicity reproduced by the validation ensemble. However, in regions where the LVB holds as a valid assumption, the DIOLIVE product demonstrates a remarkable ability to replicate the baroclinic structure of the ocean, exhibiting satisfactory spatial consistency and notable agreement in terms of temporal variability when compared to the two reanalyses and the OGCM simulation
33

Huynh, Ngoc Tho. "A development process for building adaptative software architectures." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0026/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les logiciels adaptatifs sont une classe de logiciels qui peuvent modifier leur structure et comportement à l'exécution afin de s'adapter à des nouveaux contextes d'exécution. Le développement de logiciels adaptatifs a été un domaine de recherche très actif les dix dernières années. Plusieurs approches utilisent des techniques issues des lignes des produits afin de développer de tels logiciels. Ils proposent des outils, des frameworks, ou des langages pour construire des architectures logicielles adaptatives, mais ne guident pas les ingénieurs dans leur utilisation. De plus, ils supposent que tous les éléments spécifiés à la conception sont disponibles dans l'architecture pour l'adaptation, même s'ils ne seront jamais utilisés. Ces éléments inutiles peuvent être une cause de soucis lors du déploiement sur une cible dont l'espace mémoire est très contraint par exemple. Par ailleurs, le remplacement de composants à l'exécution reste une tâche complexe, elle doit assurer non seulement la validité de la nouvelle version, mais aussi préserver la terminaison correcte des transactions en cours. Pour faire face à ces problèmes, cette thèse propose un processus de développement de logiciels adaptatifs où les tâches, les rôles, et les artefacts associés sont explicites. En particulier, le processus vise la spécification d'informations nécessaires pour construire des architectures logicielles adaptatives. Le résultat d'un tel processus est une architecture logicielle adaptative qui contient seulement des éléments utiles pour l'adaptation. De plus, un mécanisme d'adaptation est proposé basé sur la gestion de transactions pour assurer une adaptation dynamique cohérente. Elle assure la terminaison correcte des transactions en cours. Nous proposons pour cela la notion de dépendance transactionnelle : dépendance entre des actions réalisées par des composants différents. Nous proposons la spécification de ces dépendances dans le modèle de variabilité, et de l'exploiter pour décider des fonctions de contrôle dans les composants de l'architecture, des fonctions qui assurent une adaptation cohérente à l'exécution
Adaptive software is a class of software which is able to modify its own internal structure and hence its behavior at runtime in response to changes in its operating environment. Adaptive software development has been an emerging research area of software engineering in the last decade. Many existing approaches use techniques issued from software product lines (SPLs) to develop adaptive software architectures. They propose tools, frameworks or languages to build adaptive software architectures but do not guide developers on the process of using them. Moreover, they suppose that all elements in the SPL specified are available in the architecture for adaptation. Therefore, the adaptive software architecture may embed unnecessary elements (components that will never be used) thus limiting the possible deployment targets. On the other hand, the components replacement at runtime remains a complex task since it must ensure the validity of the new version, in addition to preserving the correct completion of ongoing activities. To cope with these issues, this thesis proposes an adaptive software development process where tasks, roles, and associate artifacts are explicit. The process aims at specifying the necessary information for building adaptive software architectures. The result of such process is an adaptive software architecture that only contains necessary elements for adaptation. On the other hand, an adaptation mechanism is proposed based on transactions management for ensuring consistent dynamic adaptation. Such adaptation must guarantee the system state and ensure the correct completion of ongoing transactions. In particular, transactional dependencies are specified at design time in the variability model. Then, based on such dependencies, components in the architecture include the necessary mechanisms to manage transactions at runtime consistently
34

Cheballah, Kamal. "Aides à la gestion des données techniques des produits industriels." Ecully, Ecole centrale de Lyon, 1992. http://www.theses.fr/1992ECDL0003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail presente dans cette these se situe dans le contexte de l'approche cim (computer integrated manufacturing) qui a pour but de supporter et d'organiser l'ensemble des taches d'elaboration de produits industriels a l'aide d'outils informatiques. Nous proposons une contribution a la mise en place d'un systeme global pour la realisation concrete de quelques maillons essentiels. Le premier chapitre introduit un modele d'organisation du processus d'elaboration au niveau logique et physique. Le second chapitre introduit un outil audros (systeme d'aide a l'utilisation de documents dans un reseau d'ordinateurs) qui permet aux utilisateurs de conduire l'elaboration a un niveau strictement logique. Tous les problemes du niveau physique (localisation des donnees, organisation, transport, etc. . . ) sont pris en charge automatiquement. Le chapitre 3 presente l'outil logiciel gelabor (gestion d'elaboration de produits) qui permet de gerer la coherence entre les produits d'une base de donnees techniques. En conclusion, apres validation de la demarche proposee, nous presentons un schema plus general prenant mieux en compte l'aspect concurrentiel et cooperatif des taches d'elaboration. Cette approche est illustree par la specification de gelabor 2 organisant la cooperation d'entites independantes par l'intermediaire d'un blackboard.
35

Carbonneaux, Yves. "Conception et réalisation d'un environnement informatique sur la manipulation directe d'objets mathématiques, l'exemple de Cabri-graphes." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004882.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre travail s'intègre dans la conception et la réalisation d'un environnement informatique sur la manipulation directe d'objets mathématiques, en l'occurrence l'extension de Cabri-graphes dans le cadre du projet Cabri. Dans la première partie, nous exposons le concept d'interface de manipulation directe. Nous présentons une évolution des principes associés à la manipulation directe. Nous montrons l'importance accordée à ce mode d'interaction. Dans une deuxième partie, nous exposons des motivations associées à la mise en oeuvre d'environnements informatiques sur la théorie des graphes. Nous analysons plusieurs environnements en fonction de trois critères : la visualisation, les fonctionnalités, et le mode d'interaction. Dans une troisième partie, nous construisons un éditeur de graphes en fonction des principes de manipulation directe énoncés dans la première partie. Nous établissons les limites d'une telle interface en fonction des outils à notre disposition. Dans la quatrième partie, plus théorique, nous présentons une étude sur le produit fibré de graphes, et sur la contraction de graphes comme un outil de visualisation de graphes.
36

Ait, el mahjoub Youssef. "Performance evaluation of green IT networks." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'économie d'énergie dans les réseaux de télécommunication est un objectif majeur pour réduire la consommation globale. La part du domaine IT est déjà très élevée et tend à augmenter. En effet, de nombreuses techniques pour réduire la consommation dans d'autres industries ou services se traduit par plus de traitements informatiques et de télécommunications (l'approche ”Green by IT”) et donc par une augmentation de la consommation dans les domaines IT. Il est donc important d'un point de vue économique d'arriver à réduire la consommation énergétique par bit transmis ou calculé (l'approche ”Green IT” qui est au centre de notre approche). Dans le domaine des réseaux, l'optimisation énergétique repose principalement sur une adaptation de l'architecture et des ressources employées en fonction des flux à transporter et de la qualité de service promise. On cherche donc à adapter les ressources à la demande, ce qui se traduit par un dimensionnement dynamique et adapté à la charge. Ceci est par nature différent d'un dimensionnement au pire cas que l'on utilise généralement. Sur le plan technologique, cela nécessite que les équipements de réseaux disposent de modes ”sleep”,”deep sleep” ou ”hibernate” (terminologie variant selon les fournisseurs)mais qui sont tous associés au même concept: mettre en sommeil l'équipement pour réduire sa consommation d'énergie. Pour que le compromis performance/énergie soit pertinent, il parait important d'utiliser des formules de consommation énergétiques obtenues à partir de l'utilisation des ressources du réseau. Les méthodes que nous proposons relèvent de la théorie des réseaux de files d'attente, l'analyse des chaines de Markov (analytiquement en proposant de nouvelles formes produitet numériquement en suggérant de nouveaux algorithmes de résolution) et la théorie de la comparaison stochastique. Au niveau applicatif nous avons traité différentes problématiques: les mécanismes de DVFS avec un changement de vitesse des processeurs, la migration de tâche entre serveurs physique dans un centre de données (équilibre de charge, consolidation), les réseaux optique avec un remplissage efficace des conteneurs optiques, la distribution d'énergie intermittente dans un réseau de capteurs (et réseau LORA) notamment en proposant un nouveau modèle des réseaux à paquet d'énergie (EPNs)
Energy saving in telecommunication networks is a major objective to reduce overall consumption. The IT sector already has a very high contribution to this increase. Indeed, many techniques to reduce consumption in other industries or services results in more IT and telecommunications (the "Green by IT" approach) and therefore in an increase of consumption in IT domains. It is therefore important from an economical point of view to reduce the energy consumption per transmitted or calculated bit (the "Green IT" concept). In the networks domain, energy optimization is mainly based on an adaptation of the architecture and the resources employed according to the traffic flows to be transported and the promised quality of service. We therefore seek to adapt resources to demand, which results in a dynamic dimensioning adapted to the load. This is by nature different from the worst-case dimensioning commonly used. In terms of technology, this requires network equipment to have "sleep", "deep sleep" or "hibernate" modes (terminology varies among suppliers), but all of these modes are associated with the same concept: putting the equipment to sleep to reduce its energy consumption. For the performance/energy trade-off to be relevant, it seems important to use energy consumption formulas obtained from the network resource utilization. The approaches we propose are based on the theory of queuing networks, Markov chain analysis (analytically by proposing new product forms and numerically by suggesting new resolution algorithms) and the theory of stochastic comparison.At the application level we have addressed various issues: DVFS mechanisms with a change of processors speed, task migration between physical servers in a data center (load balancing, consolidation), optical networks with efficient filling of optical containers, intermittent power distribution in a sensor network (and LoRa network) including a new model of Energy Packet Networks (EPNs)
37

Pancrace, Claire. "Nouvelles perpectives sur les produits naturels de cyanobactéries d'eau douce et leurs clusters de gènes, apportées par l'intégration de données à haut débit." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066632.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les cyanobactéries des genres Microcystis et Planktothrix sont des micro-organismes capables de proliférer dans de nombreux plans d'eau douce. Ces proliférations sont associées à des risques pour la santé humaine et animale en raison de la production de produits naturels, parmi lesquels des toxines. Ces molécules présentent une diversité de structure chimique de d'activités biologiques d'intérêt pour l'industrie pharmaceutique et biotechnologique. Nous avons revisité le potentiel en produits naturels de Microcystis et Planktothrix. Par des approches complémentaires de biologie moléculaire, génomique et transcriptomique, nous avons caractérisé des gènes impliqués dans la synthèse de ces produits naturels ainsi qu'exploré leur évolution et la régulation de leur expression. Ces travaux ont permis de mettre à jour une distribution, des évènements évolutifs et des profils d'expression surprenants et permettent d'envisager de nouvelles applications pour les produits naturels
Microcystis and Planktothrix are cyanobacterial genus commonly proliferating in freshwater ecosystems. These blooms are associated with human and animal health threat because of synthesis of natural products and cyanotoxins. These compounds are of great chemical diversity and of interest for biotechnological and pharmaceutical applications. We revisited the natural products potential of Microcystis and Planktothrix. Combining molecular biology, genomics and transcriptomics investigations, we characterized natural products gene clusters. We studied their distribution, evolution and transcription as well. This work uncovered new distribution pattern, evolutionary events and unexpected expression patterns. These insights will allow new investigations and applications for cyanobacterial natural products
38

El, Khalkhali Imad. "Système intégré pour la modélisation, l'échange et le partage des données de produits." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0052/these.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte d'Ingénierie Simultanée et d'Entreprise Virtuelle, un grand nombre d'informations sont utilisées et manipulées. L'exploitation de ces données pose des problèmes de communication tels que l'accès, l'échange et le partage d'informations entre des sites distants et entre des systèmes hétérogènes bien souvent incompatibles. Pour y répondre le projet STEP a été introduit. L'objectif de STEP est de définir une représentation non ambigue͏̈ des données de produit, interprétable par tout système informatique, et couvrant un très vaste domaine de connaissances. Cependant les acteurs travaillant simultanément au développement d'un produit sont nombreux et de spécialités très différentes : Concepteurs, Fabricants, Clients, Marketing, etc. Les points de vue qu'ils portent sur le même produit sont également très différents. Malheureusement les modèles STEP ne permettent pas de prendre en compte cette notion de point de vue. Ainsi, le travail présenté dans cette thèse a pour objectif de mettre en place un cadre méthodologique pour la représentation des points de vue des acteurs de la conception et de la fabrication à différents niveaux d'abstraction. Une infrastructure informatique pour la modélisation, l'échange et le partage des données de produit est également proposée
In Virtual Enterprise and Concurrent Engineering environments, a wide variety of information is used. A crucial issue is the data communication and exchange between heterogeneous systems and distant sites. To solve this problem, the STEP project was introduced. The STandard for the Exchange of Product model data STEP is an evolving international standard for the representation and exchange of product data. The objective of STEP is to provide the unambiguous computer-interpretable representation of product data in all phases of the product’s lifecycle. In a collaborative product development different types of experts in different disciplines are concerned by the product (Design, Manufacturing, Marketing, Customers,. . . ). Each of these experts has his own viewpoint about the same product. STEP Models are unable to represent the expert’s viewpoints. The objective of our research work is to propose a methodology for representation and integration of different expert’s viewpoints in design and manufacturing phases. An Information Infrastructure for modelling, exchanging and sharing product data models is also proposed
39

Jansen, van rensburg Bianca. "Sécurisation des données 3D par insertion de données cachées et par chiffrement pour l'industrie de la mode." Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours des dernières décennies, les objets 3D sont devenus un élément essentiel de la vie quotidienne, tant dans le contexte privé que professionnel. Ces objets 3D sont souvent stockés sur le cloud et transférés sur des réseaux plusieurs fois au cours de leur existence, où ils sont susceptibles de faire l'objet d'attaques malveillantes. Par conséquent, des méthodes de sécurisation des objets 3D, comme le chiffrement ou l'insertion des données cachées, sont essentielles. Le chiffrement est utilisé pour protéger la confidentialité visuelle du contenu d’un objet 3D. Il est également possible d'utiliser des schémas de chiffrement sélectif, dans lesquels seulement une partie de l’objet 3D est chiffrée. L'insertion des données cachées est généralement utilisée pour protéger les droits d'auteur ou l'authenticité des objets 3D. Toutefois, lorsqu'un objet 3D est chiffré, un tiers, tel qu'un serveur, peut avoir besoin d'intégrer des données dans l'objet 3D confidentiel. Dans ce cas, les données sont cachées dans le domaine chiffré. Les objets 3D sont souvent constitués de millions de sommets, de sorte que le stockage et le partage en ligne sont coûteux. Par conséquent, la compression des objets 3D est essentielle. Dans ce travail, nous présentons trois contributions dans différents domaines de recherche.Premièrement, nous présentons notre travail sur une nouvelle méthode permettant d'obtenir un objet 3D marqué à partir d'une insertion de données cachées de haute capacité dans le domaine chiffré. Basée sur des propriétés homomorphiques du cryptosystème de Paillier, notre méthode permet d'insérer plusieurs messages secrets dans le domaine chiffré avec une haute capacité. Ces messages peuvent être extraits dans le domaine en clair après le déchiffrement de l'objet 3D. À notre connaissance, nous sommes les premiers à proposer une méthode d'insertion de données cachées dans le domaine chiffré où les données cachées de haute capacité sont conservées dans le domaine en clair après le déchiffrement de l'objet 3D. Le chiffrement et l'insertion de données cachées dans le domaine chiffré sont conformes au format et sans expansion de taille, malgré l'utilisation du cryptosystème de Paillier.Nous présentons ensuite notre travail sur une mesure d'évaluation du niveau de sécurité visuelle des objets 3D chiffrés sélectivement. Basé sur une nouvelle base de données composée d'objets 3D chiffrés sélectivement et évalués, nous proposons un modèle pour déterminer les paramètres de sécurité en fonction du niveau de sécurité souhaité. Enfin, nous détaillons notre score 3DVS qui sert à mesurer le niveau de sécurité visuelle des objets 3D chiffrés sélectivement.Nous présentons également, à notre connaissance, la première méthode permettant de déchiffrer hiérarchiquement un objet 3D chiffré en fonction d'un trousseau de clés généré. Ce trousseau se compose d'un ensemble de clés qui permettent un déchiffrement plus ou moins fort de l'objet 3D chiffré. Chaque objet 3D déchiffré hiérarchiquement a un niveau de sécurité visuelle différent, où l'objet 3D est plus ou moins accessible visuellement. Notre méthode est essentielle lorsqu'il s'agit d'empêcher des fuites des secrets commerciales au sein d'une entreprise ou par des attaquants extérieurs. Elle est également écologique et plus sécurisée que les méthodes traditionnelles de chiffrement sélectif.Enfin, nous présentons notre travail sur des méthodes conjointes de sécurité et de compression basées sur la méthode de compression d'objets 3D de Google, Draco, dans laquelle nous intégrons une étape de sécurité dans Draco, qui est en train de devenir la nouvelle norme de l'industrie. Ces étapes de sécurité sont le chiffrement, le chiffrement sélectif et le tatouage
Over the last few decades, 3D objects have become an essential part of everyday life, in both private and professional contexts. These 3D objects are often stored on the cloud and transferred over networks many times during their existence, where they are susceptible to malicious attacks. Therefore, 3D object security, such as encryption or data hiding, is essential. Encryption is used to protect the visual confidentiality of the 3D object's content. Selective encryption schemes can also be used, where part of a component, such as a part of each vertex, is encrypted. Data hiding is generally used to protect the copyright or the authenticity of the 3D object. However, when a 3D object is encrypted, a third party such as a server may need to embed data in the confidential 3D object. In this case, data hiding in the encrypted domain is performed. In many applications, 3D objects often consist of millions of vertices, and so storing and sharing them online is expensive, time consuming and not environmentally friendly. Consequently, 3D object compression is essential. In this work, we present three contributions in different research areas. First, we present our work on a new method to obtain a watermarked 3D object from high-capacity data hiding in the encrypted domain. Based on the homomorphic properties of the Paillier cryptosystem, our proposed method allows us to embed several secret messages in the encrypted domain with a high-capacity. These messages can be extracted in the plaintext domain after the 3D object decryption. To the best of our knowledge, we are the first to propose a data hiding method in the encrypted domain where the high-capacity watermark is conserved in the plaintext domain after the 3D object is decrypted. The encryption and the data hiding in the encrypted domain are format compliant and without size expansion, despite the use of the Paillier cryptosystem. Then, we present our work on an evaluation metric for the visual security level of selectively encrypted 3D objects. We present a new dataset composed of evaluated selectively encrypted 3D objects. We propose a model to determine the security parameters according to a desired security level. Finally, we detail our proposed 3DVS score which serves to measure the visual security level of selectively encrypted 3D objects. We also present a method which allows us to hierarchically decrypt an encrypted 3D object according to a generated ring of keys. This ring consists of a set of keys that allow a stronger or weaker decryption of the encrypted 3D object. Each hierarchically decrypted 3D object has a different visual security level, where the 3D object is more or less visually accessible. Our method is essential when it comes to preventing trade secrets from being leaked from within a company or by exterior attackers. It is also ecologically friendly and more secure than traditional selective encryption methods. Finally, we present our work on joint security and compression methods based on Google's 3D object compression method Draco, where we integrate a security step in Draco, which is becoming the new industry standard. These security steps are encryption, selective encryption and watermarking
40

Toque, Carole. "Pour l'identification de modèles factoriels de séries temporelles : application aux ARMA stationnaires." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001966.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est axée sur le problème de l'identification de modèles factoriels de séries temporelles et est à la rencontre des deux domaines de la Statistique, l'analyse des séries temporelles et l'analyse des données avec ses méthodes descriptives. La première étape de notre travail a pour but d'étendre à plusieurs séries temporelles discrètes, l'étude des composantes principales de Jenkins développée dans les années 70. Notre approche adapte l'analyse en composantes principales "classique" (ou ACP) aux séries temporelles en s'inspirant de la technique Singular Spectrum Analysis (ou SSA). Un principe est déduit et est appliqué au processus multidimensionnel générateur des séries. Une matrice de covariance à structure "remarquable" est construite autour de vecteurs al9;atoires décalés: elle exploite la chronologie, la stationnarité et la double dimension du processus. A l'aide de deux corollaires établis par Friedman B. dans les années 50 basés sur le produit tensoriel de matrices, et de propriétés de covariance des processus circulaires, nous approchons les éléments propres de la matrice de covariance. La forme générale des composantes principales de plusieurs séries temporelles est déduite. Dans le cas des processus "indépendants", une propriété des scores est établie et les composantes principales sont des moyennes mobiles des séries temporelles. A partir des résultats obtenus, une méthodologie est présentée permettant de construire des modèles factoriels de référence sur des ARMA vectoriels "indépendants". L'objectif est alors de projeter une nouvelle série dans un des modèles graphiques pour son identification et une première estimation de ses paramètres. Le travail s'effectue dans un cadre théorique, puis dans un cadre expérimental en simulant des échantillons de trajectoires AR(1) et MA(1) stationnaires, "indépendantes" et à coefficients symétriques. Plusieurs ACP, construites sur la matrice temporelle issue de la simulation, produisent de bonnes qualités de représentation des processus qui se regroupent ou s'opposent selon leur type en préservant la propriété des scores et la symétrie dans le comportement des valeurs propres. Mais, ces modèles factoriels reflètent avant tout la variabilité des bruits de la simulation. Directement basées sur les autocorrélations, de nouvelles ACP donnent de meilleurs résultats quels que soient les échantillons. Un premier modèle factoriel de référence est retenu pour des séries à forts coefficients. La description et la mesure d'éventuels changements structurels conduisent à introduire des oscillateurs, des fréquences et des mesures entropiques. C'est l'approche structurelle. Pour établir une possible non-linéarité entre les nombreux critères et pour augmenter la discrimination entre les séries, une analyse des correspondances multiples suivie d'une classification est élaborée sur les entropies et produit un deuxième modèle de référence avec trois classes de processus dont celle des processus à faibles coefficients. Ce travail permet également d'en déduire une méthode d'analyse de séries temporelles qui combine à la fois, l'approche par les autocorrélations et l'approche par les entropies, avec une visualisation par des méthodes factorielles. La méthode est appliquée à des trajectoires AR(2) et MA(2) simulées et fournit deux autres modèles factoriels de référence.
41

Hebert, Pierre-Alexandre. "Analyse de données sensorielles : une approche ordinale floue." Compiègne, 2004. http://www.theses.fr/2004COMP1542.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse de profils sensoriels vise à décrire la façon dont un ensemble de produits est perçu par un groupe d'individus entraînés, ou juges, selon un ensemble de descripteurs sensoriels. Les évaluations, consistant en l'attribution de notes, sont répétées. L'approche proposée doit son originalité à une modélisation ordinale floue de l'information exprimée. Dans une première étape, une relation floue de dominance faible entre produits est synthétisée par répétition. Puis une procédure d'agrégation sur les répétitions permet de résumer la perception de chaque juge. Une agrégation similaire sur les juges conduit à la synthèse d'une relation consensuelle, caractéristique du descripteur traité. Les procédures d'extraction et de fusion s'inscrivent dans le cadre de la théorie des préférences floues, de façon à faciliter l'interprétation des relations obtenues. Leur analyse mono ou multidimensionnelle est finalement conduite par un ensemble d'outils de représentation graphique
Sensory profile data aims at describing the sensory perceptions of human subjects. Such a data is composed of scores attributed by human sensory experts (or judges) in order to describe a set of products according to sensory descriptors. AlI assessments are repeated, usually three times. The thesis describes a new analysis method based on a fuzzy modelling of the scores. The first step of the method consists in extracting and encoding the relevant information of each replicate into a fuzzy weak dominance relation. Then an aggregation procedure over the replicates allows to synthesize the perception of each judge into a new fuzzy relation. Ln a similar way, a consensual relation is finally obtained for each descriptor by fusing the relations of the judges. So as to ensure the interpretation of fused relations, fuzzy preference theory is used. A set of graphical tools is then proposed for the mono and multidimensional analysis of the obtained relations
42

Lemaire, Sabrina. "Aide au choix des produits de construction sur la base de leurs performances environnementales et sanitaires." Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0011/these.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à la réalisation d'un outil d'aide au choix des produits de construction en fonction de leurs caractéristiques environnementales et sanitaires. Cet outil, destiné aux professionnels du bâtiment, est fondé sur le principe et les méthodes d'analyse multicritère. L'échelle de l'étude est celle du composant du bâtiment, afin que la comparaison soit effectuée sur la base de performances techniques similaires. L'outil réalisé utilise les données environnementales et sanitaires des produits de construction issues des FDES au format de la norme NF P01-010. Il a été appliqué au composant " mur ", ainsi qu'à la comparaison de six revêtements de sol. Les résultats obtenus montrent qu'il est possible d'aboutir à un classement des solutions constructives d'un composant. Ce classement peut dépendre des pondérations et des méthodes d'agrégation choisies. Il doit être complété par des analyses de sensibilité. L'outil présente des qualités et des défauts. Il nécessite à présent d'être testé par les acteurs du bâtiment
This thesis aims at developing a decision-aid tool that compares building products according to their environmental and health characteristics. This tool is intended for building actors. It is based on the methodology and methods of multi-criteria analysis. The scale of the study is the one of the building component in order that the comparison is achieved using the same technical functions. The developed tool uses data from the EPDs in the French standard NF P01-010 format. It was applied to the “wall” component and to the comparison of six floorings. The obtained results have shown that it is possible to produce a ranking of building options of a component. This ranking may depend on the weighting and aggregation methods used. It has also to be completed by some sensitivity analyses. The tool has some qualities and flaws. It now requires to be tested by the building actors
43

Douziech, Patricia. "Les rétinoi͏̈des : données actuelles et application des formes topiques au vieillissement cutané." Toulouse 3, 1995. http://www.theses.fr/1995TOU32069.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Godot, Xavier. "Interactions Projet/Données lors de la conception de produits multi-technologiques en contexte collaboratif." Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0024/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Du point de vue industriel, la conception de produit a pour finalité de répondreaux besoins de développement d’une entreprise. Elle fait appel à de nombreusesconnaissances et compétences différentes qui doivent concourir à un unique but : décrire unproduit qui répond aux besoins du marché visé par l’entreprise. Il existe donc de fortesinteractions entre l’entreprise, son marché et l’activité de conception. Par conséquent, toutprojet de développement doit tenir compte des caractéristiques et des contraintes de chacun deces trois éléments. L’objectif de cette thèse est donc de proposer un cadre méthodologiquegénérique permettant de construire et de piloter des projets de conception de produits enfonction des objectifs de développement d’une entreprise, mais également de ses ressourcestant humaines que matérielles ou financières. Pour atteindre cet objectif, il est indispensabled’intégrer plusieurs facteurs importants. Certains sont d’ordre technique (l’innovation, lacomplexité croissante des produits multi-technologiques, l’hétérogénéité des donnéesnumériques…) et d’autres d’ordre économique ou financier (un contexte concurrentiel trèsdifficile, des financements de projets de développement limités et incertains…). La prise encompte de ces multiples paramètres hétérogènes nécessite une approche systémique. Ainsi,une démarche en deux temps a été élaborée. L’ensemble des objets concernant les objectifsde développement de l’entreprise, son marché et l’activité de conception a tout d’abord étéidentifié et formalisé au sein d’un même diagramme de concepts. Celui-ci a ensuite permisd’identifier les interactions entre ces objets et d’en déduire les mécanismes de fonctionnement.Ces premiers résultats ont finalement été traduits sous la forme d’un processus générique quiconstitue la proposition de cette thèse. Plusieurs exemples issus des PME du secteur de lamécanique sont traités afin d’éprouver la validité de cette solution
As an industrial point of view, product design activity answer to firmsdevelopment needs. This activity requires a lot of heterogeneous knowledge and skills, whichhave to converge towards a common goal: describe a product meeting the market needs.Consequently, there are many interactions between the firm, its market and the design activity.Therefore, a development project must take into account specifications and constraints of eachelement. The goal of this PhD is to define a generic methodological framework allowing to builtand control a product design project depending on the firm development goals and its ownresources. For this, it is important to include many technical factors (such innovation, multitechnologicalproducts and numerical data specificities) but also economical and financialfactors (as the difficult competitive environment or limited financial resources). All theseheterogeneous parameters involve a global approach of the problem. That is why a two-stageresearch approach is applied to build this framework. In the first stage, a conceptual diagram isdesigned using items coming from the company goals, its market and design activity.Interactions and behavior of all these items are deduced from this conceptual diagram. Theseresults are formalized through a generic process. This last one is finally applied to severalexamples from SME working in the mechanical field
45

Grenet, Ingrid. "De l’utilisation des données publiques pour la prédiction de la toxicité des produits chimiques." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4050.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’évaluation de la sécurité des composés chimiques repose principalement sur les résultats des études in vivo, réalisées sur des animaux de laboratoire. Cependant, ces études sont coûteuses en terme de temps, d'argent et d'utilisation d'animaux, ce qui les rend inadaptées à l'évaluation de milliers de composés. Afin de prédire rapidement la toxicité potentielle des composés et de les prioriser pour de futures études, des solutions alternatives sont actuellement envisagées telles que les essais in vitro et les modèles prédictifs d'apprentissage automatique. L’objectif de cette thèse est d’évaluer comment les données publiques de ToxCast et ToxRefDB peuvent permettre de construire de tels modèles afin de prédire les effets in vivo induits par les composés, uniquement à partir de leur structure chimique. A cette fin, et après pré-traitement des données, nous nous focalisons d’abord sur la prédiction de la bioactivité in vitro à partir de la structure chimique puis sur la prédiction des effets in vivo à partir des données de bio-activité in vitro. Pour la prédiction de la bio-activité in vitro, nous construisons et testons différents modèles de machine learning dont les descripteurs reflètent la structure chimique des composés. Puisque les données d'apprentissage sont fortement déséquilibrées en faveur des composés non toxiques, nous testons une technique d'augmentation de données et montrons qu’elle améliore les performances des modèles. Aussi, par une étude à grande échelle sur des centaines de tests in vitro de ToxCast, nous montrons que la méthode ensembliste "stacked generalization" mène à des modèles fiables sur leur domaine d'applicabilité. Pour la prédiction des effets in vivo, nous évaluons le lien entre les résultats des essais in vitro ciblant des voies connues pour induire des effets endocriniens et les effets in vivo observés dans les organes endocriniens lors d'études long terme. Nous montrons que, de manière inattendue, ces essais ne sont pas prédictifs des effets in vivo, ce qui soulève la question essentielle de la pertinence des essais in vitro. Nous faisons alors l’hypothèse que le choix d’essais capables de prédire les effets in vivo devrait reposer sur l’utilisation d'informations complémentaires comme, en particulier, les données mécanistiques
Currently, chemical safety assessment mostly relies on results obtained in in vivo studies performed in laboratory animals. However, these studies are costly in term of time, money and animals used and therefore not adapted for the evaluation of thousands of compounds. In order to rapidly screen compounds for their potential toxicity and prioritize them for further testing, alternative solutions are envisioned such as in vitro assays and computational predictive models. The objective of this thesis is to evaluate how the public data from ToxCast and ToxRefDB can allow the construction of this type of models in order to predict in vivo effects induced by compounds, only based on their chemical structure. To do so, after data pre-processing, we first focus on the prediction of in vitro bioactivity from chemical structure and then on the prediction of in vivo effects from in vitro bioactivity data. For the in vitro bioactivity prediction, we build and test various models based on compounds’ chemical structure descriptors. Since learning data are highly imbalanced in favor of non-toxic compounds, we test a data augmentation technique and show that it improves models’ performances. We also perform a largescale study to predict hundreds of in vitro assays from ToxCast and show that the stacked generalization ensemble method leads to reliable models when used on their applicability domain. For the in vivo effects prediction, we evaluate the link between results from in vitro assays targeting pathways known to induce endocrine effects and in vivo effects observed in endocrine organs during longterm studies. We highlight that, unexpectedly, these assays are not predictive of the in vivo effects, which raises the crucial question of the relevance of in vitro assays. We thus hypothesize that the selection of assays able to predict in vivo effects should be based on complementary information such as, in particular, mechanistic data
46

Helbert, William. "Données sur la structure du grain d'amidon et des produits de recristallisation de l'amylose." Université Joseph Fourier (Grenoble ; 1971-2015), 1994. http://www.theses.fr/1994GRE10116.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des etudes structurales et ultrastructurales ont ete entreprises sur d'une part des grains d'amidon et d'autre part des complexes cristallins d'amylose obtenus par recristallisation a partir de solutions. Ces etudes ont necessite le developpement d'une methodologie de microscopie electronique appliquee aux biopolymeres hydrates et sensibles aux radiations electroniques. L'ultrastructure cristalline des grains d'amidon a ete abordee par la mise au point d'une technique d'observation d'ultracoupes de grains apres erosion de la resine d'inclusion. Cette methode permet en particulier une analyse des echantillons par imagerie et diffraction des electrons. L'analyse de l'architecture cristalline des spherocristaux d'amylose de type a et de type b a revele que ces objets se distinguaient par leur mode de croissance. Leurs textures sont tres differentes, ce qui peut expliquer entre autres leur difference de susceptibilite vis a vis de l'hydrolyse enzymatique. Des monocristaux d'amylose v ont ete prepares en precipitant des solutions aqueuses d'amylose par addition de non solvants. Dans ces monocristaux qui ont ete etudies par microscopie et diffraction electronique, on montre que les chaines d'amylose adoptent des conformations helicoidales a 6 ou 8 residus par tour d'helices. Les monocristaux obtenus se regroupent en quatre famille dont trois correspondent a des helices d'amylose d'ordre 6 et a une des helices d'ordre 8. Certains de ces monocristaux sont susceptibles de cristalliser sur la cellulose pour former des structures du type shish-kebab qui ont ete caracterisees
47

Bahloul, Khaled. "Optimisation combinée des coûts de transport et de stockage dans un réseau logistique dyadique, multi-produits avec demande probabiliste." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00695275.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette thèse est de proposer des méthodes de gestion des approvisionnements adaptées à des contextes particuliers afin de minimiser les coûts logistiques engendrés dans un réseau logistique multi produits, multi niveaux confronté à une demande probabiliste. Au cours de cette thèse, nous nous sommes attachés à : - Proposer des méthodes de gestion des stocks et du transport pour des familles de produits dans différents contextes : o Une première politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande aléatoire et répétitive. Cette politique est définie par un niveau de commande et par un niveau de ré-complètement de stock pour chaque produit et une période de réapprovisionnement. Dès qu'un produit atteint le niveau de commande, un réapprovisionnement de tous les produits de la famille est déclenché. o Une deuxième politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande très aléatoire et ponctuelle. Cette politique est basée sur les ruptures de stock. A chaque rupture d'un produit présent dans le stock il y a déclenchement d'un réapprovisionnement de tous les produits de la famille. - Proposer une méthode de classification multicritères afin de constituer des groupes de produits relevant d'une politique donnée, chaque classe ou famille regroupant des produits réagissant identiquement. Cette classification des produits en familles homogènes permet d'identifier les caractéristiques déterminantes dans le choix des méthodes de gestion de stock et de transport. - Analyser et comparer les performances de ces deux politiques d'approvisionnement par rapport à des politiques de référence, ainsi que leur sensibilité au regard de quelques paramètres discriminants : variabilité de la demande ; coût des produits ; coût des commandes urgentes...
48

Trouvilliez, Benoît. "Similarités de données textuelles pour l'apprentissage de textes courts d'opinions et la recherche de produits." Thesis, Artois, 2013. http://www.theses.fr/2013ARTO0403/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur l'établissement de similarités de données textuelles dans le domaine de la gestion de la relation client. Elle se décline en deux parties : - l'analyse automatique de messages courts en réponse à des questionnaires de satisfaction ; - la recherche de produits à partir de l'énonciation de critères au sein d'une conversation écrite mettant en jeu un humain et un programme agent. La première partie a pour objectif la production d'informations statistiques structurées extraites des réponses aux questions. Les idées exprimées dans les réponses sont identifiées, organisées selon une taxonomie et quantifiées. La seconde partie vise à transcrire les critères de recherche de produits en requêtes compréhensibles par un système de gestion de bases de données. Les critères étudiés vont de critères relativement simples comme la matière du produit jusqu'à des critères plus complexes comme le prix ou la couleur. Les deux parties se rejoignent sur la problématique d'établissement de similarités entre données textuelles par des techniques de TAL. Les principales difficultés à surmonter sont liées aux caractéristiques des textes, rédigés en langage naturel, courts, et comportant fréquemment des fautes d'orthographe ou des négations. L'établissement de similarités sémantiques entre mots (synonymie, antonymie, etc) et l'établissement de relations syntaxiques entre syntagmes (conjonction, opposition, etc) sont également des problématiques abordées. Nous étudions également dans cette thèse des méthodes de regroupements et de classification automatique de textes afin d'analyser les réponses aux questionnaires de satisfaction
This Ph.D. thesis is about the establishment of textual data similarities in the client relation domain. Two subjects are mainly considered : - the automatic analysis of short messages in response of satisfaction surveys ; - the search of products given same criteria expressed in natural language by a human through a conversation with a program. The first subject concerns the statistical informations from the surveys answers. The ideas recognized in the answers are identified, organized according to a taxonomy and quantified. The second subject concerns the transcription of some criteria over products into queries to be interpreted by a database management system. The number of criteria under consideration is wide, from simplest criteria like material or brand, until most complex criteria like color or price. The two subjects meet on the problem of establishing textual data similarities thanks to NLP techniques. The main difficulties come from the fact that the texts to be processed, written in natural language, are short ones and with lots of spell checking errors and negations. Establishment of semantic similarities between words (synonymy, antonymy, ...) and syntactic relations between syntagms (conjunction, opposition, ...) are other issues considered in our work. We also study in this Ph. D. thesis automatic clustering and classification methods in order to analyse answers to satisfaction surveys
49

Fadhuile-Crépy, Adelaïde. "Concurrence et différenciation des produits sur le marché des pesticides : une analyse empirique sur données françaises." Thesis, Paris 2, 2014. http://www.theses.fr/2014PA020005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En 2008, à l’issue du « Grenelle de l’Environnement » la France prend l’engagement de réduire de 50% les usages en pesticides des agriculteurs à niveaux de production inchangés. Comment y parvenir ? Un tel objectif est-il réalisable ? Cette thèse apporte des éléments de réponses grâce à l’étude de la demande en pesticides des agriculteurs et à son interaction avec l’offre de produits des firmes. L’exploitation de données individuelles permet d’analyser les déterminants des usages des agriculteurs liés aux caractéristiques des produits phytosanitaires. Le premier chapitre estime un système de demande en supposant que les produits sont homogènes au sein des grandes catégories de traitements. Il montre que la demande est peu sensible aux prix des produits à un niveau global. Il met en évidence que seule une taxe ad valorem très élevée permettrait d’atteindre l’objectif du "Grenelle de l’Environnement" , ce qui amputerait significativement les revenus des agriculteurs. Afin d’envisager une solution alternative, la suite de la thèse étudie une action simultanée sur l’offre et sur la demande. Il est préalablement nécessaire de construire un indice des prix qui intègre les spécificités techniques et réglementaires de ces produits. Cela fait l’ objet du second chapitre. Le prix ajusté est utilisé dans le troisième chapitre qui s’intéresse à l’équilibre du marché . La prise en compte de la structure de la concurrence rend possible l’identification des différentes sources de marges des firmes. L’analyse des changements de marges avant et après la modification de la procédure d’homologation des produits souligne une augmentation des marges des firmes après renforcement des exigences environnementales des caractéristiques des produits
Following the “Grenelle de l’Environnement” the French government takes the commitment to reduce by 50% pesticide use while maintaining current production levels. How can we reach this objective? Is this target sustainable ? This thesis analyzes the demand of farmers and its interaction with firms supply. A desagregated dataset is constructed to analyze the determinants of farmers’ practices related to the characteristics of products and firms that market them. The first chapter estimates a demand system assuming homogeneous products within categories of pesticides. It confirms that the demand is not sensitive to the prices at an aggregated level. It shows that only a very high ad valorem tax would achieve the objective of the ”Grenelle de l’Environnement”. However, this measure would significantly reduce farmers' income. Alternatively, the thesis retains simultaneous action on both the supply and the demand. First, a price index is constructed in the second chapter. It introduces the technical and regulatory specificities of these products by exploiting the panel structure of the price series. Second, the adjusted price computed indexis used in the third chapter which retains structural econometrics framework to analyze the market equilibrium. Taking into account the structure of competition we compute the margins of firms which are generated by different competition conduct. These results are used to evaluate the effect of the modification of the homologation process on margins. We find that important source of margin was generated by this regulation which sustain innovation
50

SIMON, BIZOU CATHERINE, and MICHEL BIZOU. "Mise en place d'une banque de donnees telematique sur la toxicite des produits domestiques : etude statistique et analytique des intoxications domestiques en 1987 en region midi-pyrenees." Toulouse 3, 1988. http://www.theses.fr/1988TOU31345.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії