Дисертації з теми "Amélioration de la qualité du mélange"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Amélioration de la qualité du mélange.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Amélioration de la qualité du mélange".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Yahiat, Feriel. "Analyse des mécanismes d’intensification du mélange et des transferts thermiques par combinaison de méthodes passives dans des écoulements internes tubulaires : application aux réacteurs chimiques continus et aux capteurs solaires." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Lille Douai, 2023. http://www.theses.fr/2023MTLD0005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’efficacité énergétique des composants et systèmes thermiques, l’amélioration et le développement de nouvelles technologies sont des enjeux majeurs aujourd’hui. Dans ce contexte général, les travaux de cette thèse s’inscrivent dans une perspective d’amélioration des performances thermiques et de mélange d’échangeurs-réacteurs multifonctionnels qui, plus que jamais, sont des composants clés. Pour atteindre cet objectif, une technique d'intensification passive a été explorée. Elle implique l'application de deux types de macro-déformations pariétales sur les parois d'un tube annulaire en écoulement laminaire. L’étude s’est tout d'abord concentrée sur la caractérisation des écoulements secondaires créés par chacune des déformations appliquées séparément sur l’intensification des transferts. Ensuite, une combinaison de déformations radiales successives et alternées sur la paroi externe, associées à une géométrie engendrant un mouvement de swirl sur la paroi interne a permis d'augmenter significativement le mélange, grâce à l'apparition d'advection chaotique dans l'écoulement. La compréhension des mécanismes physiques mis en jeux s’est appuyée sur une analyse numérique des champs locaux thermiques et hydrauliques, sur l’identification des structures tourbillonnaires, sur les sections de Poincaré, ainsi que sur la détermination des performances thermo-hydrauliques et de mélange au niveau global et local. Une évaluation expérimentale du comportement hydraulique a été aussi effectuée par le biais de la méthode de distribution des temps de séjour, ce qui a permis de valider en partie le modèle numérique choisi dans cette étude. Enfin, la dernière partie de l'étude a été consacrée à l'application des concepts d'intensification étudiés au cas d'un capteur solaire thermique à concentration
The energy efficiency of thermal components and systems, as well as the improvement and development of new technologies, are major challenges today. In this general context, the work of this thesis is aimed at improving the thermal performance and mixing of multifunctional heat exchanger-reactors, which are more than ever key components. To achieve this goal, a passive intensification technique has been explored, involving the application of two types of macro-wall deformations on the walls of a laminar flow annular tube. The study initially focused on characterizing the secondary flows created by each of the deformations applied separately in order to enhance heat transfer.Subsequently, a combination of successive and alternating radial deformations on the outer wall, coupled with a geometry that induces swirl motion on the inner wall, significantly increased mixing by promoting chaotic advection within the flow. The understanding of the underlying physical mechanisms relied on numerical analysis of local thermal and hydraulic fields, identification of vortical structures, Poincaré sections, as well as the determination of thermo-hydraulic and mixing performance at both global and local levels. An experimental evaluation of hydraulic behavior was also conducted using the residence time distribution method, partially validating the chosen numerical model in this study. Finally, the last part of the study was dedicated to the application of the intensification concepts studied to the case of a concentrated solar thermal collector
2

Cherifi, Daikha. "Amélioration et évaluation de la qualité des images." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de cette thèse nous nous sommes intéressés à l’amélioration de la qualité visuelle des images, en rehaussant le contraste des images. Nous avons proposé, tout d’abord, une méthode de rehaussement simple et efficace s’inspirant du système visuel humain. Cette méthode est efficace,quand elle est appliquée aux images naturelles en couleur, ou monochromes. La méthode proposée est ensuite améliorée pour pouvoir rehausser d’autre type d’image comme les images médicale, telles que les images de rétine et l’endoscopie. Par la suite, nous nous sommes aussi intéressés aux rehaussements des images médicales et en particulier aux images de mammographie et nous avons donc proposé une méthode de rehaussement de contraste qui leur est spécifiquement dédiée. Au final,nous nous sommes intéressés à l’évaluation des méthodes de rehaussement proposées et aux différentes approches existantes dans la littérature. La méthode d’évaluation proposée s’appuie sur l’analyse radiale et angulaire du spectre d’énergie de Fourier. La validation de notre méthode de rehaussement de contraste a été faite en utilisant des échantillons d’images de 2 bases et en utilisant un test subjectif pour la comparer à d’autres méthodes de rehaussement. La note subjective finale de MOS, obtenue par la moyenne des notes des observateurs, montre la fiabilité de notre méthode de rehaussement de contraste et son intérêt par comparaison aux autres méthodes classiques
The aim of this thesis is to propose new methods for image enhancement based on oriented and multi-scale transforms using some perceptual criteria. The first part of the thesis is devoted to the development of a simple and efficient contrast enhancement method inspired from the human visual system. This method is evaluated on a set of natural color and monochrome images. The obtained results are evaluated subjectively and by using objective measures based on energy spectrum analysis and perceptual criteria. The enhancement technique is also extended to some medical images, such as mammography and endoscopy images. A special contrast enhancement method adapted to mammography is then proposed. It is based on a segmentation process using a priori information on the mammography images. The last part of the thesis is devoted to image enhancement evaluation. A critical literature survey of image enhancement evaluation methods is provided. The evaluation method proposed in this thesis is based on the radial and angular analysis of the Fourier powerspectrum. Another perceptual approach is proposed to evaluate the output. This method is based on the analysis of the visibility map computed by using a pyramidal contrast. The evaluation is performed on some samples taken from two databases. Both subjective and objective evaluations demonstrate the efficiency of the proposed image enhancement methods
3

Joucla, Emmanuel. "Amélioration de l'efficacité des actions correctives d'un système qualité." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour ameliorer l'efficacite des actions correctives d'un systeme qualite, nous proposons dans cette these une demarche analytique en cinq etapes. Deux actions correctives industrielles sont presentees en detail puis un etat de l'art et des pratiques industrielles est realise. La demarche aborde les actions correctives sous l'ensemble de leurs aspects (techniques, organisationnels, humains) et a pour objectif d'identifier et d'eliminer les causes d'inefficacite des actions correctives. La demarche debute par l'identification des parametres de l'inefficacite et la mise en evidence des relations logiques d'influence entre ces parametres. On montre ainsi que les parametres de l'inefficacite sont organises en fonction de l'influence qu'ils exercent et subissent. Un diagnostic est ensuite effectue sur un echantillon de cent actions correctives. Il met en evidence les deficiences a l'origine de l'inefficacite de ces actions dans l'entreprise. Des solutions pour remedier a ces deficiences sont ensuite selectionnees et mises en uvre. La demarche s'acheve par la verification des resultats obtenus. A partir de la verification, un nouveau cycle est envisageable. Les resultats de l'application de la demarche a renault automation comau castres sont presentes.
4

Tran, Kim Phuc. "Surveillance de procédés de type mélange." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4047/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans tous les secteurs industriels, la Maîtrise Statistique des Procédés (MSP) est une méthode de suivi de la production basée sur les statistiques. Parmi les outils de la MSP, les cartes de contrôle sont des outils très utiles pour la détection et l’élimination des causes assignables modifiant le processus. Il existe des processus de production où plusieurs composants doivent être mélangés ensemble pour obtenir une composition de produit. Dans ce cas, il est nécessaire de surveiller des ratios de variables qualité lorsque les professionnels de qualité sont principalement intéressés à la comparaison relative de la même propriété pour les deux composants. Dans cette thèse, nous avons essayé de proposer systématiquement de nouvelles cartes de contrôle pour le ratio et pour des données de type composition qui n’ont pas encore été traitées jusqu’à présent dans la littérature. Des cartes de contrôle avec règles supplémentaires, des cartes EWMA, des cartes CUSUM et une carte de contrôle de type Shewhart en prenant en compte les erreurs de mesure sont proposées pour le ratio. De plus, une carte de type MEWMA pour surveiller des données de type composition est aussi proposée. Les performances de chacune des cartes de contrôle ont été évaluées et les paramètres optimaux ont été systématiquement calculés. Une validation empirique des résultats a été élaborée dans des processus industriels existants
In industry, Statistical Process Control (SPC) is a set of statistical techniques to monitor, control and improve a process. Among SPC tools, control charts are very useful tools for the detection and the elimination of assignable causes shifting the process. There exist manufacturing environments where several components have to be mixed together to obtain a product composition. In this case, it is necessary to monitor ratios of quality variables when quality practitioners are interested in the relative comparison of the same property for two components. In this thesis, we have tried to systematically propose new control charts for the ratio and for compositional data that have not yet been proposed so far in the literature. Run rules control charts, EWMA control charts, CUSUM control charts and a Shewhart control chart in the presence of measurement error have been proposed for monitoring the ratio. Furthermore, a MEWMA control chart to monitor compositional data has also been proposed. The performance of each control chart has been evaluated and the optimal parameters have systematically been computed. An empirical validation of the results has been developed for real industrial processes
5

Kompany, Elaheh. "Un nouveau procédé de déshydratation de fruits et légumes : amélioration de la qualité du produit fini." Compiègne, 1990. http://www.theses.fr/1990COMPD278.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est relative a la mise au point d'un nouveau procede de déshydratation des fruits et légumes et notamment de la carotte; l'objectif étant d'obtenir des produits à réhydratation instantanée, ayant un potentiel qualité le plus proche possible du produit frais. Le principe d'un nouveau procédé combinant un prétraitement physique (congélation) et un séchage sous vide est présente. Les effets des paramètres de congélation et de séchage sous vide sont étudiés, et des conditions optimales de déshydratation sont proposées, en cherchant principalement à optimiser la vitesse et la capacité de réhydratation des produits déshydratés. L'étude concerne quelques fruits et légumes (carotte, haricots verts, champignons, petits pois, pomme, poire, fraise, banane). Après cette étude, seront présentées des courbes de déshydratation des morceaux de carottes dans différentes conditions expérimentales. Le mécanisme de transfert de l'eau durant la déshydratation est discuté et un modèle de séchage est proposé en tenant compte de la variation de volume du produit. Ce modèle est basé sur un mécanisme diffusionnel à coefficient de diffusion variable.
6

Tremillon, Nicolas. "Amélioration de la secrétion hétérologue chez lactococcus lactis." Paris 11, 2009. http://www.theses.fr/2009PA112315.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La bactérie lactique Lactococcus lactis est un hôte intéressant pour produire, sécréter et purifier des protéines hétérologues. L’INRA a construit un système d’expression et une souche hôte mutée dans l'unique protéase extracellulaire HtrA et où les protéines exportées sont stables, d’où un meilleur rendement et un avantage concurrentiel. Le système de production INRA est développé en partenariat avec GTP Technology dans le cadre de ma thèse CIFRE. Pour améliorer la souche hôte, j’ai recherché des leviers susceptibles de compenser les fonctions de HtrA, résistance au stress thermique et contrôle qualité des protéines exportées. J’ai sélectionné un suppresseur en multicopie de la thermo-sensibilité du mutant htrA : de fonction inconnue, son effet sur la production de protéines doit être testé. J’ai aussi caractérisé un facteur de repliement de surface, une PPIase, qui n’a pas d’effet sur les protéines testées, et qui aurait un rôle de ménage constitutif. Enfin, j’ai étudié une protéine induite dans le mutant htrA en conditions normales: c’est une protéine de stress de paroi, induite dans la souche sauvage par des antibiotiques qui ciblent la biosynthèse du peptidoglycane, et essentielle à la survie à la bacitracine. Ainsi, l’absence de HtrA perturbe non seulement les protéines d’enveloppe mais aussi la paroi. L’étude de cette nouvelle fonction de HtrA et du rôle de la protéine induite dans la survie va être poursuivie. Parallèlement, j’ai aussi développé l’utilisation du système INRA chez GTP-Technology. J’ai mis au point la production d’une nucléase utile en biologie moléculaire pour clarifier des extraits bactériens, avec un rendement de 200mg/L en mini-fermenteurs
The lactic acid bacterium Lactococcus lactis is an interesting host to produce, secrete and purify heterologous proteins. INRA built up an expression system and a host strain inactivated for the unique extracellular HtrA protease and in which exported proteins are stable, leading to a better yield and a competitive advantage. INRA system development in partnership with GTP Technology is the objective of my PhD thesis (CIFRE fellowship). To improve the host strain, positive factors able to compensate for HtrA functions: heat shock resistance and the quality control of exported proteins, were looked for. A multicopy suppressor of htrA mutant thermosensitivity was selected: its function is unknown and its effect on heterologous protein production has to be tested. An exported folding factor, a PPIase, was also caracterized, but it had no effect on the proteins that have been tested, suggesting a constitutive housekeeping function. At last, a protein induced in htrA mutant under normal conditions was studied. It is a cell wall stress protein, both induced in the wild type strain by several antibiotics targeting peptidoglycan biosynthesis and essential for cell viability when cells are exposed to bacitracin. Thus, the absence of HtrA not only disturbs envelope proteins, but also the cell wall. This new HtrA function and of the role of the induced protein on cell survival will be further studied. In parallel, the use of the INRA expression system at GTP Technology was also developed. The conditions for the production of a nuclease useful in molecular biology to clarify cell extracts were optimised, and a protein yield of about 200mg/L in mini-fermentors could be reached
7

Costa, João Lino. "Méthodologie pour une amélioration de la qualité de production au Portugal." Chambéry, 2000. http://www.theses.fr/2000CHAMS004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La maitrise du processus de réalisation d'un bâtiment constitue un enjeu majeur pour assurer des gains de qualité, de productivité, et de profit. Nous proposons de mettre en place une méthodologie pour améliorer la qualité et pour éliminer ou réduirai certaines défaillances les plus fréquentes ou avec couts de réparation les plus élevés. Cette méthodologie s'appuie sur l'identification de ces défaillances au cours de chantiers pilotes et sur l'élaboration de procédures adéquates pour chaque type de défaillance. Tous ces résultats ont été organisés en un outil de gestion supporté par Microsoft Access. Ces moyens informatiques constituent un outil nouveau qui, lorsqu'il est utilisé de manière intégrée et interactive dans l'opération (entreprise-préparation / chantier) apporte des profits considérables. L'analyse du suivi de chantier permet de mettre immédiatement en évidence les tâches les plus sensibles à traiter et fournit des indications précises de la voie d'amélioration à partir de l'identification des causes des défaillances. Elle fournit en définitive le nombre des défaillances et les couts de réparation pendant la réalisation et pendant la période de garantie (5 années). Ces informations sont classées selon la phase du processus (programme, projet, préparation, exécution), la phase d'ouvrage (exécution, pré-réception et garantie) et les parties d'ouvrage (fondations, structure et maçonnerie, réseaux, finition/maçonnerie, finition/charpente, enveloppe et divers) ou les défaillances surviennent
8

Zhu, Shupeng. "Modélisation du mélange des particules dans l’atmosphère." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1156/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente un nouveau modèle SCRAM (Size and Composition Resolved Aerosol Model) pour simuler la dynamique des particules dans l'atmosphère (nucléation, coagulation, condensation / évaporation) en prenant en compte leur état de mélange, et elle évalue la performance de SCRAM dans des simulations 3D de qualité de l'air. Le travail peut être divisé en quatre parties. Premièrement, la notion de mélange externe est introduite, ainsi que la modélisation de la dynamique des aérosols. Ensuite, le développement du modèle SCRAM est présenté avec des tests de validation. Dans SCRAM, pour définir les compositions, on discrétise d'abord en sections les fractions massiques des composés chimiques des particules ou d'ensembles de composés chimiques. Les compositions des particules sont ensuite définies par les combinaisons des sections de fractions massiques. Les trois processus principaux impliqués dans la dynamique des aérosols (la coagulation, la condensation / évaporation et la nucléation) sont inclus dans SCRAM. SCRAM est validé par comparaison avec des simulations « académiques » publiées dans la littérature de coagulation et condensation/évaporation pour des particules en mélange interne. L'impact de l'hypothèse de mélange externe pour ces simulations est notamment étudié. L'impact du degré de mélange sur les concentrations de particules est ensuite étudié dans une simulation 0-D en utilisant des données représentatives d'un site trafic en Ile de France. L'influence relative sur l'état de mélange des différents processus influençant la dynamique des particules (condensation / évaporation, coagulation) et de l'algorithme utilisé pour modéliser la condensation / évaporation (hypothèse d'équilibre entre les phases gazeuse et particulaire, ou bien modélisation dynamique des échanges gaz/particules) est étudiée. Ensuite, SCRAM est intégré dans la plate-forme de qualité de l'air Polyphemus et utilisé pour effectuer des simulations sur l'Ile de France pendant l'été 2009. Une évaluation par comparaison à des observations a montré que SCRAM donne des résultats satisfaisants pour les concentrations de PM2.5/PM10 et l'épaisseur optique des aérosols. Le modèle est utilisé pour analyser l'état de mélange des particules, ainsi que l'impact des différentes hypothèses de mélange (mélange interne MI ou mélange externe ME) sur la formation des particules et leurs propriétés. Enfin, deux simulations, une avec l'hypothèse de MI et une autre avec l'hypothèse de ME, sont effectuées entre le 15 janvier et le 11 février 2010, pendant la campagne hiver MEGAPOLI (Megacities : Emissions, urban, regional and Global Atmospheric POLlution and climate effects, and Integrated tools for assessment and mitigation) durant laquelle les compositions des particules individuelles ont été mesurées. Les concentrations simulées de composés chimiques (concentration massique totale de différents composés) et les concentrations des classes de particules individuelles (une classe est définie par sa taille et sa composition chimique) sont comparées avec les observations à un site urbain parisien. Un indicateur de la diversité des particules et de l'état de mélange est calculé à partir des simulations et comparé à celui calculé à partir des mesures. Le modèle se compare bien aux observations avec un état de mélange moyen simulé de 69% contre 59% dans les observations, indiquant que les particules ne sont pas en mélange interne sur Paris
This thesis present a newly developed size-composition resolved aerosol model (SCRAM), which is able to simulate the dynamics of externally-mixed particles in the atmosphere, and it evaluates its performance in three-dimensional air-quality simulations. The main work is split into four parts. First, the research context of external mixing and aerosol modelling is introduced. Secondly, the development of the SCRAM box model is presented along with validation tests. Each particle composition is defined by the combination of mass-fraction sections of its chemical components or aggregates of components. The three main processes involved in aerosol dynamic (nucleation, coagulation, condensation/evaporation) are included in SCRAM. The model is first validated by comparisons with published reference solutions for coagulation and condensation/evaporation of internally-mixed particles. The particle mixing state is investigated in a 0-D simulation using data representative of air pollution at a traffic site in Paris. The relative influence on the mixing state of the different aerosol processes and of the algorithm used to model condensation/evaporation (dynamic evolution or bulk equilibrium between particles and gas) is studied. Then, SCRAM is integrated into the Polyphemus air quality platform and used to conduct simulations over Greater Paris during the summer period of 2009. This evaluation showed that SCRAM gives satisfactory results for both PM2.5/PM10 concentrations and aerosol optical depths, as assessed from comparisons to observations. Besides, the model allows us to analyze the particle mixing state, as well as the impact of the mixing state assumption made in the modelling on particle formation, aerosols optical properties, and cloud condensation nuclei activation. Finally, two simulations are conducted during the winter campaign of MEGAPOLI (Megacities : Emissions, urban, regional and Global Atmospheric POLlution and climate effects, and Integrated tools for assessment and mitigation) in January 2010 where the composition of individual particles was measured. One simulation assumes that particles are internally mixed, while the other explicitly models the mixing state with SCRAM. The simulation results of both bulk concentrations of chemical species and concentrations of individual particle classes are compared with the measurements. Then, the single particle diversity and the mixing-state index are computed using a quantification approach based on information-theoretic entropy, and they are compared to those derived from the measurements at a urban site in Paris: the simulated mixing-state index is equal to 69% against 59% from the measurements, indicating that particles are not internally mixed over Paris
9

Rolim, Pedro. "Solubilité des constituants d'un mélange de poudres et qualité des granulés obtenus." Montpellier 1, 1992. http://www.theses.fr/1992MON13508.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Gauducheau, Jean-Loup. "Amélioration du fonctionnement d'un moteur alimenté au gaz naturel en mélange pauvre par ajout d'hydrogène." Aix-Marseille 1, 1997. http://www.theses.fr/1997AIX11078.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these traite de certains aspects limitant la combustion des melanges tres pauvres de gaz naturel et d'aire dans les moteurs. Il y est propose une amelioration du fonctionnement dans ces conditions par l'ajout d'une faible quantite d'hydrogene. Les trois premieres parties presentent une simulation numerique de combustion du gaz naturel dans l'aire a haute pression. Etabli autour d'un schema cinetique complexe, ce modele etudie l'influence locale de la turbulence sur le front a travers l'etirement que ce dernier subit. Globalement fragilisee par l'etirement existant dans la chambre de combustion lorsque le melange s'appauvrit, la flamme se voit renforcee par l'ajout d'hydrogene a richesse constante. La quatrieme partie presente une premiere validation par une campagne de visualisations effectuees par un dispositif d'ombroscopie couple a une camera rapide. Les resultats presentent la dependance de la vitesse turbulente de flamme aux differents parametres moteurs tels que le regime, la richesse ou la proportion d'hydrogene introduite. Enfin, le dernier chapitre montre, par une compagne d'essais sur un moteur prototype de poids lourd alimente au gaz naturel, que l'ajout d'une faible quantite d'hydrogene accompagnee d'une baisse de la richesse permet de reduire les emissions polluantes en preservant les performances.
11

Rezkallah, Miloud. "Amélioration de la qualité d'énergie fournie au réseau autonome hybride éolien-diesel." Mémoire, École de technologie supérieure, 2010. http://espace.etsmtl.ca/286/1/REZKALLAH_Miloud.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la plupart des régions isolées, le générateur diesel est la source principale d’énergie électrique. Le prix de l’extension du réseau électrique pour ces régions s’avère difficile et coûteux. Ces régions souffrent de l’approvisionnement en combustible et de sa cherté, ce qui augmente radicalement leur l’isolement. Dans ce contexte, l’interconnexion d’une ou de plusieurs sources d’énergie renouvelables peut avoir une incidence profitable sur la production d’énergie électrique, en termes de coût et de disponibilité. Cependant, des améliorations dans la conception et le fonctionnement sont toujours nécessaires pour rendre cette technologie plus compétitive dans les régions isolées. Ainsi, le travail de recherche présenté dans ce mémoire est une contribution à l’analyse du comportement et la maitrise d’un système hybride constitué de deux sources d’énergie : un générateur diesel et une turbine éolienne. Vu, que l’énergie éolienne est une source d’énergie intermittente son addition avec l’énergie produite par le générateur diesel influe négativement sur la qualité d’énergie fournie à la charge, particulièrement la tension et la fréquence. Une charge secondaire est introduite pour garder la fréquence constante. Le régulateur de tension du GS assure le maintien de la tension du réseau constante. Une charge électrique non linéaire alimentée par le SHÉD peut aussi dégrader la qualité d’énergie. Pour y remédier, un filtre actif shunt est inséré dans le système. L’objectif premier du filtre actif shunt est de compenser les courants harmoniques générés par la charge non linéaire et de compenser l’énergie réactive consommée par cette même charge. Deux algorithmes de commande se basant sur la modélisation du filtre actif sont implantés dans l’environnement MATLAB /Sim Power System. Le premier algorithme proposé utilise une commande de type indirecte, le deuxième utilise une commande de type d-q synchrone.
12

Yerima, Borgui. "Système de rémunération et amélioration de la qualité du coton au Bénin." Montpellier, ENSA, 2005. http://www.theses.fr/2005ENSA0022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au moment où les débats sur les distorsions des prix dans le marché mondial du coton opposent les pays producteurs pauvres et riches, les premiers accusant les seconds de ne pas respecter les règles du jeu fixées au sein de l'Organisation Mondiale du Commerce, cette thèse présente les défaillances internes du Système de Rémunération du coton-graine (SR) au Bénin. Ce système intègre sept dispositifs: le contrat de production les modes d'évaluation et de classement de la qualité du coton la règle de calcul du prix du coton-graine les modalités des paiements des producteurs et des transporteurs le crédit intrant et la caution solidaire les transferts liés aux délégations des tâches et la péréquation des prix. Le SR, analysé en tant qu'instrument inefficace au regard de l'amélioration de la qualité à l'exportation du coton-fibre, à partir d'une démarche ayant consisté à identifier ses défaillances et à estimer les gains et pertes des acteurs est cependant accepté par ces derniers. Mais les grands gagnants du système sont les égreneurs et les producteurs de coton-graine de basse qualité. La théorie générale des marchés avec asymétrie d'information, ainsi que les notions de rente et recherche de rente, de collusion, de transactions collusives, de rareté et de coût de mesure ont été mobilisées pour expliquer l'utilisation du système par les acteurs. Aussi, l'analyse combine-t-elle les caractérisations et qualifications du coton aux rapports de pouvoir des acteurs, montrant de la sorte, la dimension politique du SR. Cinq principaux enseignements sont dégagés: i) les imperfections de la relation d'agence à structure imbriquée avec délégations des tâches ii) la création et le partage de rente de collusion entre un agent et son superviseur aux dépens du principal, lorsque ce dernier n'est pas en mesure de vérifier parfaitement le travail du second iii) l'inefficacité de l'évaluation de la qualité du coton-graine liée à l'inadéquation des moyens et méthodes de mesure utilisés iv) l'utilisation des défaillances du SR par les agents économiques pour augmenter leurs profits personnels à travers des transactions collusives et des captures décentralisées de quatre types de rentes: rente de qualité, de collusion, de position et de rareté dans l'ignorance de leurs pertes v) la prévalence entre les acteurs, de l'asymétrie d'information sur la qualité à l'exportation, malgré qu'il existe une interprofession. Ainsi, à l'instar des décideurs politiques intéressés par la maximisation de leur vote, les agents économiques peuvent utiliser des instruments inefficaces autant qu'ils en tirent des rentes et ne connaissent pas parfaitement les pertes qu'ils subissent. C'est la principale contribution théorique de cette thèse
While the debates on the distortions of the prices in the world market of cotton oppose the producer countries poor and rich, the first showing the second not to comply with the fixed rules within the World Trade Organization, this dissertation introduce the failures of the Remuneration System (RS) of the seed-cotton in Benin. The RS includes seven key issues: 1) the contract of production; 2) the modes of evaluating and grading the quality of the cotton; 3) the rule defining the seed cotton price; 4) the modalities of paying producers and transporters; 5) credit over inputs and the joint guarantee; 6) transfer related with task delegation; 7) the price equalization. This system is analyzed as an inefficient instrument in terms of the improvement in the quality of the cotton-fiber exported. The analysis is based on an approach that identifies the RS failures, which are accepted by the actors involved - and to estimate the actors' gains and losses. However, those who benefited the most from the RS are the cotton-ginners and the low-quality seed cotton producers. The general theory of market with asymmetric information, as well as the concepts of rent and rent-seeking, collusion and collusive transactions, scarcity, and the measurement costs, are applied in order to explain how the actors make use of this system. This analysis has also combined the characteristics of seed cotton supply and the qualifications of cotton related with the embodied power of actors, showing kind the political dimension of the RS. Five main lessons have been identified: i) agency relationship imperfections in an embedded structure with tasks delegation - ii) the creation and sharing of the collusive rent between an agent and its supervisor exduding the principal - iii) the inefficiency of the evaluation of seed cotton quality related with the unsuitable of the means and methods used - iv) the prevailing among actors, of information asymmetry over the quality of the cotton in the export markets, although there is an inter-profession - v) the use of RS failures by the economic agents in order to increase their individual profits through collusive transactions and by capturing four types of decentralized rents : a quality, collusion, positioning and scarcity rents, while ignoring their own losses. Therefore, like political decision-makers interested in the maximization of their votes, the economic agents can use inefflcient instruments when they benefit from rents of the use of those instruments and do not really know their own losses. This is the major theoretical outcome of our dissertation
13

Leroux, Julie. "Amélioration de la qualité de la pâte désencrée par oxydation au TEMPO." Thèse, Université du Québec à Trois-Rivières, 2007. http://depot-e.uqtr.ca/1170/1/030032105.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Zaidi, Houda. "Amélioration de la qualité des données : correction sémantique des anomalies inter-colonnes." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1094/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La qualité des données présente un grand enjeu au sein d'une organisation et influe énormément sur la qualité de ses services et sur sa rentabilité. La présence de données erronées engendre donc des préoccupations importantes autour de cette qualité. Ce rapport traite la problématique de l'amélioration de la qualité des données dans les grosses masses de données. Notre approche consiste à aider l'utilisateur afin de mieux comprendre les schémas des données manipulées, mais aussi définir les actions à réaliser sur celles-ci. Nous abordons plusieurs concepts tels que les anomalies des données au sein d'une même colonne, et les anomalies entre les colonnes relatives aux dépendances fonctionnelles. Nous proposons dans ce contexte plusieurs moyens de pallier ces défauts en nous intéressons à la performance des traitements ainsi opérés
Data quality represents a major challenge because the cost of anomalies can be very high especially for large databases in enterprises that need to exchange information between systems and integrate large amounts of data. Decision making using erroneous data has a bad influence on the activities of organizations. Quantity of data continues to increase as well as the risks of anomalies. The automatic correction of these anomalies is a topic that is becoming more important both in business and in the academic world. In this report, we propose an approach to better understand the semantics and the structure of the data. Our approach helps to correct automatically the intra-column anomalies and the inter-columns ones. We aim to improve the quality of data by processing the null values and the semantic dependencies between columns
15

Zaidi, Houda. "Amélioration de la qualité des données : correction sémantique des anomalies inter-colonnes." Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1094.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La qualité des données présente un grand enjeu au sein d'une organisation et influe énormément sur la qualité de ses services et sur sa rentabilité. La présence de données erronées engendre donc des préoccupations importantes autour de cette qualité. Ce rapport traite la problématique de l'amélioration de la qualité des données dans les grosses masses de données. Notre approche consiste à aider l'utilisateur afin de mieux comprendre les schémas des données manipulées, mais aussi définir les actions à réaliser sur celles-ci. Nous abordons plusieurs concepts tels que les anomalies des données au sein d'une même colonne, et les anomalies entre les colonnes relatives aux dépendances fonctionnelles. Nous proposons dans ce contexte plusieurs moyens de pallier ces défauts en nous intéressons à la performance des traitements ainsi opérés
Data quality represents a major challenge because the cost of anomalies can be very high especially for large databases in enterprises that need to exchange information between systems and integrate large amounts of data. Decision making using erroneous data has a bad influence on the activities of organizations. Quantity of data continues to increase as well as the risks of anomalies. The automatic correction of these anomalies is a topic that is becoming more important both in business and in the academic world. In this report, we propose an approach to better understand the semantics and the structure of the data. Our approach helps to correct automatically the intra-column anomalies and the inter-columns ones. We aim to improve the quality of data by processing the null values and the semantic dependencies between columns
16

Barthélémy, Charles. "Amélioration assistée de programmes par objectifs." Nancy 1, 1989. http://www.theses.fr/1989NAN10462.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'amélioration assistée de programmes concerne tous les programmes existants dont on souhaite augmenter l'une ou l'autre des qualités. L'utilisateur, dans le cadre de stratégies, définit les objectifs à atteindre essentiellement en termes de facteurs de qualité à améliorer. Le programme subit alors un certain nombre de changements d'états, le conduisant d'une version à l'autre, grace à la transformation de structures de représentations de celui-ci choisies par l'utilisateur. Ce dernier disposant d'un ensemble de fonctions d'amélioration met en œuvre des tactiques dont il peut suivre l'évolution intrinsèque ou comparative sur un arbre d'amélioration et dont il peut mesurer les effets grâce à l'élaboration de métriques "signifiantes". L'assistance à l'amélioration est décrite comme dans ALF par des règles et des contraintes. Une maquette de système d'amélioration et sa mise en œuvre pour faire du reverse-engineering ou de la traduction assistée de programmes (de COBOL vers ADA par exemple) complète la présentation de ce travail
17

Pulcini, Céline. "Evaluation et amélioration de l'utilisation des anti-infectieux en pathologie humaine." Thesis, Montpellier 1, 2010. http://www.theses.fr/2010MON1T004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La maîtrise de la résistance bactérienne passe par une amélioration de la prescription des anti-infectieux en pathologie humaine. L'objectif de ce travail était de mettre au point et d'évaluer l'impact d'une intervention destinée à améliorer la qualité de l'antibiothérapie, en ciblant en priorité les prescriptions hospitalières. Nous avons voulu utiliser des stratégies dérivées des sciences sociales et de l'industrie, notamment les techniques d'amélioration continue de la qualité, pour changer le comportement des prescripteurs. Nous avons ensuite ciblé une étape-clé de la prescription antibiotique, i.e. la réévaluation des antibiothérapies probabilistes 24-96 heures après leur initiation, que nous avons sélectionnée à l'issue d'une revue de la littérature et d'une analyse quantitative par questionnaire des perceptions, attitudes et connaissances des prescripteurs ; le questionnaire permettait également d'approcher les barrières locales à cette intervention. Puis nous avons mis au point des indicateurs de processus permettant de mesurer cette réévaluation des antibiothérapies. Enfin, nous avons étudié l'impact sur la qualité de l'antibiothérapie d'une intervention utilisant une stratégie d'audit et de retour d'information, visant à améliorer la documentation de la réévaluation des antibiothérapies par des médecins non-infectiologues dans deux services. En conclusion, les stratégies d'amélioration continue de la qualité s'avèrent utiles pour promouvoir le bon usage des anti-infectieux
Antibiotic stewardship is essential to curb bacterial resistance in humans. Our aim was to design an intervention to improve the quality of prescription of antibiotics, focusing on the inpatient setting. We used strategies derived from the social sciences and the industry, particularly continuous quality improvement techniques, to lead the doctors to change their behaviour. We focused on a key process of antibiotic prescribing, i.e. reassessment of antibiotic therapies 24-96 hours after their start ; we selected this process based on a review of the literature and on the results of a survey designed to assess the perceptions, attitudes and knowledge of the prescribers. This survey also enabled us to approach potential barriers to the intervention. We designed then a set of process measures of quality of care in the reassessment of inpatient empirical antibiotic prescriptions. Finally, we assessed the impact of an intervention designed to improve the documentation of the reassessment of inpatient empiric antibiotic prescriptions on the quality of these prescriptions ; this intervention was conducted on two wards and targeted non-infectious diseases specialists, using an audit and feedback approach. In conclusion, continuous quality improvement strategies are a valuable tool to improve antibiotic use
18

Dunand, Arnaud. "Amélioration de l'atomisation coaxiale sous pression : influence du retrait et du swirl du jet de gaz annulaire." Poitiers, 2002. http://www.theses.fr/2002POIT2312.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude porte sur l'amélioration des processus d'atomisation coaxiale en vue d'une application pour la stabilité d'une flamme cryogénique. La zone dense en liquide est étudiée au moyen d'une sonde à fibre optique et de PIV. Les vitesses et tailles des gouttes, obtenues par PDA et par imagerie, caractérisent la zone diluée. Le retrait favorise les transferts de quantité de mouvement gaz/liquide. Cependant, un effet non monotone est observé. Des interprétations, basées sur l'interaction entre les phases dans l'injecteur, ont été formulées. Le choix d'une géométrie optimale doit être guidé par les conditions d'injection et ambiantes. Un jet annulaire gazeux hélicoi͏̈dal entraîne, de par une dispersion accrue des structures liquides, une atomisation favorisée. L'apparition du phénomène de rupture de tourbillon modifie considérablement la morphologie du jet diphasique. Une atomisation complète du jet liquide et une inversion de la répartition des populations de gouttes sont alors observées
This study deals with coaxial atomization processes improvement with a view to cryogenic flame stabilization. The liquid core is investigated by means of an optical fiber probe and PIV technique. Droplet velocities and diameters, obtained by PDA and tomography, characterize the dilute spray. The recess of the liquid tube promotes Gas/Liquid momentum transfers. Nevertheless, a non-monotonic effect is observed. Interpretations, based on the Liquid/Gas interaction inside the injector, are formulated and demonstrate the gas injection velocity prevalence. Therefore, the optimal geometry must be determinate with respect to the injection and ambient conditions. Thanks to structure displacement enhancement, an helical annular gas jet leads to an improved atomization. Vortex breakdown phenomenon emergence modifies, significantly, the morphology of the jet. Actually, for this amount a swirl, completed atomization of the liquid jet and inversed droplet population take place
19

Pasquier, Bernard. "Assurance de qualité de l'aliment médicamenteux : Homogénéité de mélange aux stade pilote et industriel." Dijon, 1987. http://www.theses.fr/1987DIJOS015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'aliment médicamenteux, mélange de substances actives à doses thérapeutiques et d'un aliment pour bétail, est reconnu actuellement comme un médicament vétérinaire à part entière. Contrairement à tous les autres médicaments vétérinaires, il présente l'originalité d'être fabriqué par des industries alimentaires pour bétail. De ce fait, sa réglementation n'est qu'en partie appliquée, notamment sa fabrication n'applique pas les bonnes pratiques de fabrication et son contrôle de qualité n'existe quasiment pas.
20

Ortiz, Cayón Rodrigo. "Amélioration de la vitesse et de la qualité d'image du rendu basé image." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4004/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le rendu photo-réaliste traditionnel exige un effort manuel et des calculs intensifs pour créer des scènes et rendre des images réalistes. C'est principalement pour cette raison que la création de contenus pour l’imagerie numérique de haute qualité a été limitée aux experts et le rendu hautement réaliste nécessite encore des temps de calcul significatifs. Le rendu basé image (IBR) est une alternative qui a le potentiel de rendre les applications de création et de rendu de contenus de haute qualité accessibles aux utilisateurs occasionnels, puisqu'ils peuvent générer des images photo-réalistes de haute qualité sans subir les limitations mentionnées ci-dessus. Nous avons identifié trois limitations importantes des méthodes actuelles de rendu basé image : premièrement, chaque algorithme possède des forces et faiblesses différentes, en fonction de la qualité de la reconstruction 3D et du contenu de la scène, et un seul algorithme ne permet souvent pas d’obtenir la meilleure qualité de rendu partout dans l’image. Deuxièmement, ces algorithmes présentent de forts artefacts lors du rendu d’objets manquants ou partiellement reconstruits. Troisièmement, la plupart des méthodes souffrent encore d'artefacts visuels significatifs dans les régions de l’image où la reconstruction est de faible qualité. Dans l'ensemble, cette thèse propose plusieurs améliorations significatives du rendu basé image aussi bien en termes de vitesse de rendu que de qualité d’image. Ces nouvelles solutions sont basées sur le rendu sélectif, la substitution de modèle basé sur l'apprentissage, et la prédiction et la correction des erreurs de profondeur
Traditional photo-realistic rendering requires intensive manual and computational effort to create scenes and render realistic images. Thus, creation of content for high quality digital imagery has been limited to experts and highly realistic rendering still requires significant computational time. Image-Based Rendering (IBR) is an alternative which has the potential of making high-quality content creation and rendering applications accessible to casual users, since they can generate high quality photo-realistic imagery without the limitations mentioned above. We identified three important shortcomings of current IBR methods: First, each algorithm has different strengths and weaknesses, depending on 3D reconstruction quality and scene content and often no single algorithm offers the best image quality everywhere in the image. Second, such algorithms present strong artifacts when rendering partially reconstructed objects or missing objects. Third, most methods still result in significant visual artifacts in image regions where reconstruction is poor. Overall, this thesis addresses significant shortcomings of IBR for both speed and image quality, offering novel and effective solutions based on selective rendering, learning-based model substitution and depth error prediction and correction
21

Malle, Sidiki. "Études d’association pangénomique pour l’identification des régions génomiques influençant la qualité nutritionnelle chez le soya canadien." Doctoral thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/40192.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le soya est une source importante de protéines, d'huile, de glucides, ainsi que d'autres nutriments bénéfiques, tels que des éléments minéraux. Une fonction majeure des protéines dans la nutrition est de fournir des quantités adéquates d'acides aminés. Bien qu’ils soient essentiels pour la santé humaine et la nutrition animale, les acides aminés soufrés que sont la cystéine (Cys) et la méthionine (Met) sont souvent en concentration limitée et le déterminisme génétique de leur teneur dans la graine de soya est mal caractérisé. Un autre facteur non moins important pour la qualité nutritionnelle du soya est sa teneur en éléments minéraux, laquelle affecte les caractéristiques d'utilisation finale des fractions d'huile et de protéines ainsi que la qualité des semences (germination, vigueur des jeunes plantules). Malheureusement, très peu d’attention a été portée sur les variétés canadiennes de soya en ce qui a trait à leur teneur en acides aminés soufrés ainsi qu’en éléments minéraux. L’amélioration génétique est l’une des voies les plus efficientes et économiques pour contribuer à une alimentation saine et nutritive, laquelle apporte au consommateur la quantité de nutriments nécessaires à une bonne santé. Pour que puisse se pratiquer une sélection en faveur d’une qualité nutritionnelle accrue, il faut idéalement identifier les déterminants génétiques de la teneur en divers nutriments et développer des marqueurs facilitant cette sélection. Présentement, les analyses d’association pangénomique (GWAS en anglais) constituent l’approche la plus puissante pour déterminer l’assise génétique d’un caractère. Dans les cas les plus favorables, non seulement ces analyses permettent-elles d’identifier des régions génomiques qui contrôlent en tout ou en partie les caractères étudiés, mais elles peuvent même permettre d’identifier des gènes candidats qui jouent un rôle direct dans ce déterminisme. Dans le cadre de cette thèse, nous avons souhaité déterminer l’assise génétique de composantes clés de la valeur nutritive du soya, soit la teneur en acides aminés soufrés (Cys/Met) et en quatre éléments minéraux majeurs (Ca, K, P et S). Dans les deux cas, des analyses d’association pangénomique ont été réalisées sur une collection de 137 lignées représentatives de la diversité génétique rencontrée au sein du soya canadien à maturité hâtive. Dans le premier volet, les teneurs en Cys et en Met ont été mesurées par spectroscopie proche infrarouge (NIR) sur des graines produites dans cinq environnements au total. Des données génotypiques pour 2,2 M de polymorphismes mononucléotidiques (SNP) ont été exploitées pour réaliser une analyse d’association. Dans une première phase de découverte, nous avons réussi à identifier un total de dix régions génomiques (QTL) en nous appuyons sur les phénotypes rencontrés dans deux environnements. Afin d’assurer la fiabilité ainsi que la reproductibilité de ces QTL, nous avons validé une forte majorité de ces QTL dans trois environnements additionnels. Ces QTL, dont la plupart sont inédits, nous ont permis d’identifier deux gènes candidats fort prometteurs codant pour des protéines impliquées dans la synthèse de la cystéine. Dans le deuxième volet, les teneurs en éléments minéraux ont été mesurées chez les 137 lignées à l’aide d’un spectromètre de fluorescence à rayons X (XRF) sur des grains récoltés dans cinq environnements. Les analyses d’association ont été réalisées avec le même jeu de données génotypiques (2,2 M de SNP) que dans le volet précédant. Huit QTL significativement associés à la teneur en Ca, K, P et S ont été identifiés de manière robuste à l’aide d’au moins deux modèles statistiques différents (sur les trois employés). La reproductibilité de ces QTL dans trois environnements additionnels a fait l’objet d’une seconde analyse pour des fins de validation. Une forte reproductibilité de l’effet de ces régions génomiques sur ces phénotypes a été observée par la validation de sept QTL sur huit. Trois gènes candidats ont été identifié impliqués soit dans le transport ou l’assimilation de ces éléments minéraux. Par rapport aux études précédentes, la forte densité de marqueurs utilisés dans cette étude a contribué à la détection reproductible de plusieurs nouveaux loci associés à la teneur en acides aminés soufrés ou en éléments minéraux. De plus, cela a rendu possible l’identification de gènes candidats prometteurs. Les marqueurs et les gènes identifiés dans cette étude seront utiles pour l'amélioration génétique du soya à travers la sélection génétique assistée par marqueur.
Soybean is an important source of protein, oil, carbohydrates, and other beneficial nutrients, such as minerals. A major function of protein in nutrition is to provide adequate amounts of amino acids. Although essential for human health and animal nutrition, the sulfur amino acids cysteine (Cys) and methionine (Met) are often limiting and the genetic basis underlying their accumulation in soybeans seeds is poorly characterized. Another factor no less important for the nutritional quality of soybeans is its mineral content, which affects the end-use traits of both the oil and protein fractions as well as the quality of seed (germination rate, vigor of seedlings). Unfortunately, very little attention has been paid to Canadian soybean varieties in terms of their content in sulfur amino acids and important minerals in seeds. The enhancement of seed nutrient content via genetic improvement is considered as the most promising and cost-effective approach to contribute to a healthy and nutritious diet, which provides the consumer with the necessary quantity of nutrients for good health. To facilitate breeding for increased nutritional quality, it is necessary to identify the genetic determinants underlying various nutrients and to develop markers allowing this selection. Currently, genome-wide association analysis (GWAS) is the most powerful approach for determining the genetic basis of a trait. In the most favorable cases, not only do these analyses make it possible to identify genomic regions which control all or part of the trait of interest, but they can even make it possible to identify candidate genes which play a direct role in the trait of interest. The goals of this thesis were to determine the genetic basis of key components of the nutritional value of soybeans, namely the seed content in sulfur amino acids (Cys / Met) and four major mineral elements (Ca, K, P and S). In both cases, a GWAS was performed on a collection of 137 lines representative of the genetic diversity encountered in early-maturing Canadian soybeans. In part 1, Cys and Met content were measured using near infrared spectroscopy (NIR) on seed from five environments in total. Genotypic data for 2.2 M single nucleotide polymorphisms (SNPs) were used to perform an association analysis. In an initial discovery phase based on the data from two environments, we were able to identify a total of ten genomic regions (QTL), most of which were identified for the first time. To ensure the reliability and reproducibility of these QTLs, we validated a large majority of these in three additional environments. These QTLs allowed us to identify two candidate genes, both of which code for proteins involved in cysteine synthesis. In part 2, mineral content was measured in seed of the same 137 lines using an X-ray fluorescence spectrometer (XRF) harvested from five environments in total. The association analyses were carried out with the same genotypic data set (2.2 M SNP) as in part 1. Eight QTLs significantly associated with the Ca, K, P and S content were identified by at least two of the three statistical models used. These QTLs were found to be highly reproducible as they influenced the studied traits in three additional environments. Indeed, seven of the eight QTLs were validated in this fashion. For these QTLs regions, we were able to identify thee candidate gene annotated as being involved in the transport or the assimilation of these mineral elements. Compared to previous studies, the high density of markers used in this study has contributed to the reproducible detection of several new loci associated with the content of sulfur amino acids or mineral elements. In addition, it has made it possible to identify promising candidate genes. The markers and genes identified in this study will be useful for the genetic improvement of soybeans through marker-assisted selection.
22

Desvignes, Thomas. "Bases moléculaires de la qualité des œufs chez les poissons : analyse fonctionnelle du rôle de gènes candidats de la famille des Nme/Nm23." Rennes, Agrocampus Ouest, 2011. http://www.theses.fr/2011NSARB216.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Chez les animaux, le développement précoce de l’embryon repose sur des produits d’expression génique, ARN et protéines, stockés dans l’ovocyte pendant l’ovogenèse. Une analyse préalable du contenu d’ovocytes de qualité variable de bar Dicentrarchus labrax avait mis en évidence une corrélation avec une protéine de la famille Nme. Cette famille de gènes, bien connue chez les mammifères, était, en revanche, très mal caractérisée chez les vertébrés non‐mammaliens dont les téléostéens. L’objectif du travail était donc de caractériser cette famille de gènes chez les téléostéens et d’en étudier les membres dans le contexte de la compétence ovocytaire au développement chez le poisson zèbre Danio rerio. Nous définissons la qualité d’un ovocyte ou compétence ovocytaire au développement comme son aptitude à être fécondé et à soutenir ensuite le développement d’un individu normal. Par une analyse phylogénétique, l’histoire évolutive de la famille Nme chez les métazoaires a pu être reconstituée et les relations de paralogie et d’orthologie démontrées. Ceci a permis de proposer une nomenclature unifiée pour l’ensemble de la famille qui est désormais acceptée. L’analyse de l’expression des différents gènes de la famille a permis d’identifier plusieurs candidats potentiellement impliqués dans la compétence ovocytaire au développement. Parmi ces candidats de la famille, nme10 est hérité maternellement dans l’ovocyte mature sous forme d’ARN messager et une approche fonctionnelle nous a permis de mettre en évidence son importance pour le succès du développement précoce de l’embryon de poisson‐zèbre. Outre l’intérêt global de la caractérisation de la famille de gènes chez les téléostéens et la mise en place d’une nomenclature unifiée, ces travaux permettent de contribuer à la compréhension des mécanismes liés à la compétence ovocytaire au développement
In metazoans, early embryonic development relies on gene products, RNAs or proteins, stored in the egg during oogenesis. A previous analysis of oocytes proteome in good and poor quality eggs in sea bass Dicentrarchus labrax showed a correlation between the developmental potential of the egg and a protein of the Nme family. This gene family is well known in mammals, but very little was known in teleosts. The aim of the work was thus to characterize this gene family in teleost fish and to study the contribution of the Nme gene to oocyte developmental competence in zebrafish Danio rerio. Egg quality, also called oocyte developmental competence, can be defined as the ability of an egg to be fertilized and subsequently develop into a normal embryo. Through a phylogenetic analysis, the evolutionary history of the Nme gene family in metazoans was deciphered and, paralogy and orthology relationships demonstrated. This led us to propose a unified gene nomenclature for the gene family that is now well accepted by the scientific community. The expression analysis of all genes of the Nme family led to the identification of several candidate genes that could be implicated in oocyte developmental competence. One specific member, nme10, is maternally‐inherited as a messenger RNA in the egg, and was shown to be implicated in early zebrafish embryonic development by functional experiments. This work not only provides a global characterization of the gene family in teleost fish and a unified gene nomenclature, but also provides some new insight into the understanding of oocyte developmental competence mechanisms
23

Henocq, Vincent. "Étude de l'amélioration de la qualité de l'agar par désulfaltation." Compiègne, 1993. http://www.theses.fr/1993COMPD607.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La production d'agarose à haute valeur ajoutée passe par l'élimination des fractions sulfatées de l'agar. Des augmentations de rendement de la purification peuvent être espérées si on réduit le taux de sulfates de l'agar de départ. Les sulfates de l'agar se divisent en deux catégories selon leur résistance aux bases. Cette distinction correspond aussi à une différence qui s'exprime au niveau de la biosynthèse du polysaccharide. Un certain nombre des sulfates de l'agar sont éliminés par les bases à chaud, mais ce traitement entraîne des dégradations du polysaccharide. Les schémas classiques de dégradation alcaline des polysaccharides s'appliquent dans une certaine mesure à l'agar, mais le pont 3,6-anhvdrogalactose gêne la mise en place des réactions de protection contre les alcalins (formation d'un acide métasaccharinique). Il réduit aussi l'efficacité des traitements visant à réduire cette dégradation. 20 à 30% de la chaîne polysaccharidique est alors détruite lors des traitements nécessaires à la désulfatation de l'agar. Des réactions avec des nucléophiles ont permis d'éliminer efficacement une partie des sulfates, mais elles ne permettent pas d'aboutir à la formation d'agarose. Ces réactions sont limitées en efficacité notamment par la, faible solubilité de l'agar dans les solvants organiques, et leur interprétation est gênée par l'hétérogénéité de l'agar de départ. Des sulfatases d'origines variées sont testées. Seules les enzymes extraites d'agarophytes ont montré une activité de libération de sulfates. Des problèmes de variations saisonnières et de stabilité de cette enzyme ne nous ont pas permis de la caractériser complètement. Néanmoins, les hypothèses sur la biosynthèse de l'agar montrent que de telles enzymes permettraient, si elles étaient exploitées, de libérer le même type de sulfates que la modification alcaline ; l'intérêt pour ce type d'enzyme est donc limité, compte tenu des difficultés rencontrées pour la produire et la caractériser. Nous n'avons pas trouvé d'enzyme exogène susceptible de libérer les sulfates alcalirésistants.
24

Poliakov, Vitalii. "Amélioration de la qualité d'expérience vidéo en combinant streaming adaptif, caching réseau et multipath." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4203/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le trafic vidéo s’est considérablement accru et est prévu de doubler pour représenter 82% du trafic Internet d’ici 2021. Une telle croissance surcharge les fournisseurs de services Internet (ISP), nuisant à la Qualité d’Expérience (QoE) perçue par les utilisateurs. Cette thèse vise à améliorer la QoE des utilisateurs de streaming vidéo sans hypothèse de changement d’infrastructure physique des opérateurs. Pour cela, nous combinons les technologies de caching réseau, de streaming HTTP adaptatif (HAS), et de transport multipath. Nous explorons d’abord l’interaction entre HAS et caching, pour montrer que les algorithmes d’adaptation de qualité vidéo ont besoin de savoir qu’il y a un cache et ce qui y est stocké, et proposons des algorithmes bénéficiant de cette connaissance. Concluant sur la difficulté d’obtenir la connaissance de l’état du cache, nous étudions ensuite un système de distribution vidéo à large échelle, où les caches sont représentés par un réseau de distribution du contenu (CDN). Un CDN déploie des caches à l’intérieur des réseaux des ISP, et dispose de ses propres serveurs externes. L’originalité du problème vient de l’hypothèse que nous faisons que l’utilisateur est simultanément connecté à 2 ISP. Ceci lui permet d’accéder en multipath aux serveurs externes aux ISP (pouvant ainsi accroître le débit mais chargeant plus les ISP), ou streamer le contenu depuis un cache plus proche mais avec un seul chemin. Ce désaccord entre les objectifs du CDN et de l’ISP conduit à des performances sous-optimales. Nous développons un schéma de collaboration entre ISP et CDN qui permet de nous rapprocher de l’optimal dans certains cas, et discutons l’implémentation pratique
Video traffic volume grew considerably in recent years and is forecasted to reach 82% of the total Internet traffic by 2021, doubling its net volume as compared to today. Such growth overloads Internet Service Providers' networks (ISPs), which negatively impacts users' Quality of Experience (QoE). This thesis attempts to tackle the problem of improving users' video QoE without relying on network upgrades. For this, we have chosen to combine such technologies as in-network caching, HTTP Adaptive Streaming (HAS), and multipath data transport. We start with exploration of interaction between HAS and caching; we confirm the need of cache-awareness in quality adaptation algorithms and propose such an extension to a state-of-the-art optimisation-based algorithm. Concluding on the difficulty of achieving cache-awareness, we take a step back to study a video delivery system on a large scale, where in-network caches are represented by Content Delivery Networks (CDNs). They deploy caches inside ISPs and dispose of their own outside video servers. As a novelty, we consider users to have a simultaneous connectivity to several ISP networks. This allows video clients either to access outside multipath servers with aggregate bandwidth (which may increase their QoE, but will also bring more traffic into ISP), or stream their content from a closer cache through only single connectivity (bringing less traffic into ISP). This disagreement in ISP and CDN objectives leads to suboptimal system performance. In response to this, we develop a collaboration scheme between two actors, performance of which can approach optimal boundary for certain settings, and discuss its practical implementation
25

Chabrier, Patrick. "Amélioration de la qualité et du rendement matière des sciages : cas des scies circulaires." Nancy 1, 1997. http://www.theses.fr/1997NAN10056.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces dernières années, nous assistons à un développement de l'emploi des scies circulaires en scierie. Les impératifs de production, l'évolution des besoins de la clientèle, les progrès de la technologie incitent les scieurs à choisir de plus en plus souvent la scie circulaire comme scie de reprise, bien que celle-ci génère, par rapport au ruban une perte au trait de scie beaucoup plus grande. Dans un souci d'optimisation du rendement matière, les recherches se sont naturellement orientées vers une réduction du trait de scie par la diminution de l'épaisseur de la lame, ce qui affaiblit sa rigidité latérale, donc sa stabilité. Or les vibrations des lames de scie sont reconnues pour être le phénomène le plus nuisible lors de la coupe. Nous nous sommes alors interrogés sur comment trouver un compromis entre les problèmes qu'impliquent la voie, la stabilité de la lame, le rendement matière et la précision de sciage. Nous avons tout d'abord réalisé une synthèse des recherches menées à ce jour sur le comportement statique et dynamique, aussi bien a vide que pendant la coupe, des lames de scie circulaire. Cette recherche bibliographique nous a permis d'identifier les paramètres prépondérants qui influencent la stabilité d'une lame de scie circulaire, à savoir : les forces centrifuges, les contraintes résiduelles provenant du tensionnage, les gradients de température, la composante latérale des efforts de coupe. Puis, nous avons intégré ces paramètres à une modélisation éléments finis, afin de calculer la déformée en flexion prise par une lame de scie circulaire pendant la coupe. Enfin, nous avons développé un banc d'expérimentations, qui reprend des éléments standards d'une déligneuse, afin de valider nos modèles et répondre aux attentes des industriels. Nous avons ainsi pu, en collaboration avec un fabricant d'outils, rechercher les conditions optimales de préparation d'une lame de scie circulaire pour un processus de coupe donné
For many years, circular saws are more and more used in sawmills. Production imperatives, evolution of customer needs, technology progresses, make the sawmillers choose more and more often circular saws for rip sawing, though kerf losses in this case are higher than for bandsaw blades. So as to increase lumber yield, researches have been made in reducing kerf losses by decreasing saw body. Width, which affects its rigidity, thus its stability. But circular saw vibrations are known to be the worst phenomenon during cutting. So we aim to find the best compromise between problems involved by kerf, saw stability, lumber yield improvement and sawing accuracy. First, we have studied research works made on static and dynamic behaviour, during idling or cutting, of circular saws. Thus, we have been able to identify the main parameters affecting saw stability, centrifugai forces, residual stresses from tensioning, blade temperature and lateral cutting forces. Then, we have introduced these parameters in a finite element analysis so as to compute the bending deflexion of circular saw. Finally, we have developed an experimental device, based on sorne units of an industrial edger, so as to validate this numerical work and face the industrial demand. Thus, in collaboration with a cutting tools manufacturer, we have been able to research the best conditions to prepare circular saws for a cutting process
26

El, Khalifa Moulay Ahmed. "Amélioration de la qualité des images en tomographie microonde : contribution à une imagerie quantitative." Paris 11, 1989. http://www.theses.fr/1989PA112203.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'imagerie microonde ou "tomographie par diffraction" est abordée ici sur deux plans : - la résolution du problème physique, intégrant à la fois la résolution du problème direct par la méthode des moments et le problème inverse basé sur une méthode spectrale. Les principes théoriques de la méthode d'imagerie active, microonde, par transmission ou par réflexion, sont décrits. Des simulations numériques sur des objets de caractéristique donnée permettent d'évaluer la sensibilité de la méthode de reconstruction à certains paramètres tels que la longueur de la ligne de mesure. Nous abordons également le problème de la détermination quantitative des paramètres à partir de la connaissance des sources induites dans l'hypothèse de l'approximation de Born et en dehors de celle-ci. - l'application de la synthèse de Fourier pour l'amélioration de la qualité des images. Etant donné que le problème inverse est un problème dit mal-posé, on a recours aux deux méthodes de régularisation suivantes : - l'approche déterministe qui utilise une connaissance a priori. - l'approche Bayésienne qui définit tout en termes de probabilité. L'outil utilisé est le principe du maximum d'entropie.
27

Scibilia, Bruno. "Développement et amélioration des méthodes d'optimisation des procédés par les plans d'expériences." Angers, 2000. http://www.theses.fr/2000ANGE0004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'approche d'amélioration de la qualité présentée dans cette thèse est fondée sur la méthode taguchi. Les plans d'expériences sont utiles pour réduire la variabilité des performances d'un produit lors de sa fabrication ou de son utilisation. L'objectif est de concevoir des produits, ou encore de régler les paramètres d'un processus, de telle façon qu'ils soient plus robustes aux fluctuations de l'environnement. L'approche proposée consiste à modéliser l'impact des facteurs contrôlables sur les effets des facteurs bruit plutôt qu'utiliser le rapport signal/bruit de taguchi comme réponse. Il est possible à l'aide de plans croises modifies de réduire les couts expérimentaux, l'avantage de cette approche est son efficacité en terme d'informations obtenues ainsi que son niveau de précision. Une démarche séquentielle afin d'éliminer les ambiguïtés dues à l'existence de confusions dans les plans fractionnaires est également proposée. Il s'agit là d'un problème auquel les expérimentateurs sont souvent confrontés. Cette démarche est basée sur l'utilisation de plans imbriqués
The quality improvement approach presented in this thesis is based on the taguchi method. Design of experiments are useful to reduce the variability of the performance of a product during its manufacture or use. The objective is to design products, or to adjust process parameters, in such a way that they are more robust to environmental fluctuations. The proposed approach is to model the impact of controllable factors on the effects of noise factors rather than using the taguchi signal-to-noise ratio as an answer. The advantage of this approach is its efficiency in terms of information obtained and its level of accuracy. A sequential approach to eliminate ambiguities due to the existence of confusions in fractional designs is also proposed. This is a problem that experimenters often face. This approach is based on the use of nested designs
28

Balin, Savaş. "Amélioration de processus de production de services par la simulation." Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de l’amélioration de processus de production de services. Après avoir discuté des concepts de services, on présente les deux approches de la qualité : la « qualité conçue » et la « qualité perçue ». L’« amélioration d’un processus » passe par sa transformation pour augmenter son « efficacité » et/ou son « efficience ». On défend l’idée que la mobilisation de la simulation est incontournable pour atteindre cette amélioration mais aussi pour concevoir des processus performants de production de services. Dans la seconde partie de la thèse, on présente les techniques de simulation de processus : « simulation basée sur les objets (SBO) », « simulation orientée objets (SOO) » et «simulation multi-agents (SMA) ». La position défendue dans cette thèse est que la SBO peut suffire dans la réalisation des objectifs retenus et dans la modélisation de certaines des dimensions les plus importantes de la qualité perçue, même si ce type d’usage est quasi inexistant. On étudie ensuite les apports de la SBO sur un exemple très complexe de service d’urgences d’un hôpital
The purpose of this thesis is to study the improvement of services production. We begin the first part by discussing service concepts. We examine two points of view: “conceived quality” and “perceived quality”. Process improvement consists in a process transformation which aims at increasing system “effectiveness” and “efficiency”. We defend that the use of simulation is essential for the instrumentation of services process conception and transformation. In the second part, we discuss simulation techniques: “Object Based Simulation (OBS)”, “Object Oriented Simulation (OOS)” and “Multi-Agent Based Simulation (MABS)”. We claim that OBS can be sufficient to realize objectives mentioned above and to model some of the most important perceived quality dimensions, which is not the common use of this technique. We finish our thesis by discussing the contribution of the simulation on an extremely complex example, a hospital emergency department
29

Delannoy, Geneviève. "Evaluation multicritère de la qualité d'un projet de restructuration de réseau d'assainissement." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0039.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En France, depuis une dizaine d'années, des études de restructuration de réseaux d'assainissement sont lancées, pour essayer de remédier aux dysfonctionnements observés (débordements, croissante du milieu naturel). Pollution Le réseau d'assainissement est en contact avec l'homme, la ville, et le milieu naturel (sol, lac, cours d'eau, mer). Ses interactions avec ces diverses entités sont nombreuses et nécessitent une approche globale du problème. Le but de notre travail était de fournir une méthode permettant de choisir une solution de restructuration parmi tous les projets envisagés. Nous avons d'abord établi une liste de critères permettant d'évaluer les conséquences de chacun des projets. Ces critères se répartissent en quatre grands domaines hydrologie et hydraulique, impact sur le milieu naturel, coût, et nuisances diverses. Ils peuvent être de nature quantitative ou qualitative. Puis nous avons en partie défini le mode d'évaluation de des critères. Nous nous existants. Sommes pour cela appuyée sur des chacun outils. Certains outils d'évaluation n'ont pas été construits faute de connaissances théoriques ou de temps. Nous avons ensuite choisi la méthode multicritère permettant de classes les différentes solutions proposées et donc d'éclairer le choix du décideur. Enfin, nous avons construit un prototype informatique dans le but de montrer qu ' une telle démarche globale est utilisable en pratique
Ln France, for about ten years, studies of drainage system structuration were made to try to solve observed bad workings (flooding, increased pollution of natural environment). Sewer network is in contact with human being, city, and natural environment (sail, lake, river, sea). There is a lot of interactions and it is necessary to take the problem in the aggregate. Our aim was to propose a method to choose a solution between all possible solutions of restructuration. First we made a list of criteria which are able to value con sequences of a project. They belong to four fields hydrology and hydraulic, impact on natural environment, cost and different nuisances. They can be quantitative or qualitative. After, we defined the way to value some of criteria (we used existing tools). We could not build all evaluation tools for lack of theoretical knowledges of time. After that, we chose a multi criteria method to class the to help to take the decision. Finally, we built a software prototype to prove that our is usable into practice
30

Talon, Olivier. "Amélioration de la résistance au choc du polyamide 12 par dispersion de polybutadiène. Etude des relations synthèse - structure - propriétés." INSA de Rouen, 2002. http://www.theses.fr/2002ISAM0005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'amélioration des propriétés choc d'un polyamide est classiquement obtenue par dispersion d'un élastomère. Un paramètre déterminant pour les propriétés du matériau est la taille des particules d'élastomère dispersées dans la matrice polyamide. La compatibilisation chimique permet généralement de contrôler la morphologie du matériau afin d'atteindre une dispersion optimale. Différents mélanges et alliages de polyamide 12 et de polybutadiène hydroxytéléchélique, avec des taux de polybutadiène variant de 5 à 20 %, compatibilisés ou non par de l'anhydride pyromellitique, ont été préparés dans cette étude. La compatibilisation réactive des alliages a permis un bon contrôle de leur morphologie. Les propriétés choc des mélanges et alliages préparés sont supérieures à celles du polyamide vierge, mais cette amélioration de la résilience se fait au détriment d'autres propriétés mécaniques comme le module d'Young
31

Beaudoin, Sylvie. "Amélioration de la qualité de l'animation dans les activités de Québec en forme (Projet Aqua)." Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/755.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Québec en forme est un organisme à but non lucratif ayant pour mission de contribuer à l’amélioration de la santé et de l'autonomie globale des enfants de 4 à 12 ans issus de milieux défavorisés, en soutenant l’implantation, par des communautés locales, de programmes durables de participation à des activités physiques et sportives. Cependant, les activités étant généralement animées par des intervenants sans formation appropriée ne bénéficiant pas d’un suivi adéquat, les conditions mises en place sur le terrain ne favorisent pas la participation motrice efficace des enfants. Le but de l’étude est de développer une stratégie de formation et de supervision permettant de provoquer un changement au niveau des pratiques et d’améliorer la qualité de l’animation des activités. Une étude à protocole à cas unique menée selon une stratégie de recherche-action est le protocole choisi pour la réalisation de ce projet. L’efficacité de l’intervention est mesurée selon deux variables : a) le temps de développement moteur offert au groupe, mesuré par l’enregistrement de la durée des épisodes de la séance et b) le temps d’engagement moteur individuel, mesuré par la technique du balayage visuel à la fin d’un intervalle long. Le projet repose sur l’hypothèse de base suivante : peut-on provoquer un changement positif au niveau du développement moteur offert au groupe et de l’engagement individuel des enfants dans les activités de Québec en forme par une formation et une supervision clinique? Un processus de formation et de supervision en quatre étapes est proposé. La mesure du niveau de base des interventions des animateurs est réalisée suite à la conduite de dix-neuf observations (n=19) sur le terrain et de dix entrevues semi-structurées (n=10) avec des animateurs de la région ciblée. Une formation de six heures portant sur la mise en place de conditions favorisant une participation motrice efficace est donnée à une cohorte de vingt et un participants (n=21). Le niveau de base spécifique à une dyade d’animateurs ciblée est évalué à l’aide de trois observations (n=3). Finalement, un cycle de supervision comprenant douze observations (n=12) et douze rencontres de supervision (0=12) est réalisé avec la même dyade d’animateurs. Les résultats obtenus lors de ce projet pilote ont été analysés de façon descriptive. Quatre constats se dégagent de l’analyse des résultats du niveau de base, soit les faibles quantités et qualités de l'engagement moteur, des problèmes majeurs au niveau de la sécurité et un climat pédagogique non propice à l’atteinte des objectifs visés. L’analyse des résultats du processus de formation et de supervision de la dyade ciblée révèle une amélioration du développement moteur offert au groupe suite à la formation et une amélioration progressive de l’engagement moteur individuel au fil des rencontres de supervision. La tenue d’une journée de formation semble nécessaire pour permettre aux animateurs de prendre conscience de l’importance de la mise en place de conditions favorisant le développement moteur du groupe au cours de la séance. Toutefois, les résultats démontrent que le cheminement des animateurs vers la maîtrise de leurs compétences de base nécessite un suivi intensif au sein d’un processus de supervision. La stratégie de formation et de supervision employée dans le cadre de ce projet pilote permet, grâce à ses effets positifs sur le temps de développement moteur offert au groupe et sur le temps d’engagement moteur individuel, l’amélioration de l’efficacité de l’animation dans les activités de Québec en forme. Cette stratégie sera utilisée comme unité de base dans la formation des formateurs de Québec en forme au niveau provincial.
32

Chebbo, Salim. "Méthodes à compléxite réduite pour amélioration de la qualité des séquences vidéo codées par blocks." Paris, Télécom ParisTech, 2010. http://www.theses.fr/2010ENST0026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est de concevoir des solutions temps réel afin de réduire les artefacts d'une compression vidéo. Dans ce travail on s'est limité aux trois dégradations les plus répandues et les plus gênantes. Il s'agit de l'effet de bloc, le ringing, et le bruit de papillotement temporel. Un algorithme de post-traitement pour réduire l'effet de bloc est d'abord présenté. Cet algorithme est principalement basé sur un filtrage bidimensionnel adaptatif. En tenant compte de l'activité spatiale des pixels ainsi que l'étape de quantification, la dégradation locale de l'image est évaluée pour sélectionner le mode de filtrage le plus approprié. L’effet de bloc est ensuite réduit par l'application des filtres bidimensionnels et non séparables choisis en fonction du mode de filtrage. La réduction du ringing est réalisée au moyen d'un filtrage médian pondéré. L'originalité de cette solution réside dans l'attribution adaptative de poids pour chaque pixel dans une fenêtre de filtrage, fournissant ainsi une réduction efficace du ringing tout en conservant les détails les plus fins de l'image. En ce qui concerne le traitement des défauts temporels, une mesure objective de la qualité temporelle des séquences vidéo est proposée. Ensuite, un filtre temporel est proposé pour stabiliser les régions de fond des images, en utilisant un filtre temporel bidirectionnel. Finalement, la complexité d'implémentation des solutions proposées a été étudiée afin de prouver l'applicabilité de ces solutions pour des applications temps réel
The objective of this thesis is to propose real time solutions in order to reduce the video compression impairments namely the blocking, the ringing and the temporal flickering. The proposed deblocking filter is mainly based on an adaptive conditional two-dimensional filter, derived from the combination in horizontal and vertical directions of a simple two-mode conditional 1-d filter. Appropriate filters are selected using the local degradation of the image, which is assessed by examining he quantization step as well as the computed spatial pixel activities. The ringing artifact reduction algorithm uses a simple classification method to differentiate at and edge blocks, which are then filtered using a particular weighted median filter. Regarding the temporal impairments, we proposed a new measure to assess the level of these impairments and accordingly estimate the temporal quality of the decoded sequences. The preliminary study of the temporal compression artifacts demonstrated that the level of the temporal fluctuation between consecutive frames is affected by the compression ratio and the group of pictures structure, notably the presence (and period) of intra coded frames in the video sequence. It was also shown that the deringing process reduces the visibility of the mosquito noise, however a temporal filtering remains necessary to reduce the background areas fluctuation. For this reason, we proposed to temporally filter these areas and skip the temporal filtering of moving objects. Finally, the implementation complexity of the proposed solutions was investigated in order to prove the applicability of these solutions for real time applications
33

Vanappelghem, Clara. "Amélioration et contrôle de la qualité de chicorées mâles stériles cytoplasmsiques à cytoplasme 41. 1." Lille 1, 2006. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2006/50376_2006_184.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La stérilité mâle cytoplasmique (cms) se caractérise par une incapacité à produire des grains de pollen fonctionnels, ce qui permet d'éviter l'autofécondation. Elle présente une hérédité maternelle. Chez la chicorée, la cms a été obtenue par fusion de protoplastes avec le tournesol mâle stérile (ms). L'utilisation des chicorées ms à cytoplasme 41. 1 pour la création des variétés hybrides révèle une déficience au niveau du rendement pour les hybrides produits ainsi que des événements de chlorose, en particulier dans des conditions climatiques extrêmes. La fertilité mâle n'est pas toujours le seul caractère touché par les mutations mitochondriales. Il existe des effets pléiotropes affectant d'autres métabolismes comme la photosynthèse. Afin de pallier cette déficience, nous avons réalisé de nouvelles fusions entre des protoplastes de chicorées industrielles fertiles et mâles stériles, de façon à remanier le génome mitochondrial des chicorées ms ; nous avons également créé une nouvelle source de mâle stérilité de la chicorée par fusion entre des protoplastes de chicorées industrielles et de chicorées frisées, toutes deux fertiles. La caractérisation physiologique de la stérilité mâle cytoplasmique 41. 1 des chicorées montre que ces plantes, bien que présentant des rendements agronomiques souvent légèrement inférieurs à ceux des plantes fertiles, ne peuvent pas être considérées comme déficientes puisque les variations observées ne sont pas statistiquement significatives. L'exploration du protéome mitochondrial de ces chicorées ms a permis de révéler une modulation de l'expression du complexe F0F1-ATPase avec une diminution de son expression chez les plantes ms.
34

Diop, Awa. "Évaluation et amélioration de l'échantillonnage par lot pour l'assurance de la qualité (LQAS) pour le suivi de programmes d'aide humanitaire." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30664.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduit par Dodge and Romig [1959] et rendu populaire par Valadez [1991]), le Lot Quality Assurance Sampling (LQAS) est une méthode beaucoup utilisée par les organismes dans le suivi de leurs activités (Robertson and Valadez [2006]). Le LQAS est utilisé dans le contexte comme une approche simple et peu coûteuse pour prendre rapidement des décisions par rapport à l’allocation des ressources. L’approche proposée par Valadez consiste à réaliser le test usuel de la binomiale exacte sur une proportion où on contrôle à la fois les erreurs a et b pour choisir une taille n et un seuil critique c. Pour rendre accessible son utilisation, Valadez et al. [2002] ont développé un manuel des praticiens qui présente une méthodologie d’utilisation du LQAS plus complexe que l’approche proposée par Valadez. Plusieurs problèmes liés à l’utilisation du LQAS en pratique sont identifiés et nous avons évalué leurs impact sur les erreurs de type I et II. Nous avons proposé d’autres solutions comme le test exact de Fisher, le test exact de Barnard, un test basé sur l’approximation par la loi normale avec et sans transformation arcsin( p x) en contrôlant pour chacun de ces tests a et b. Nous avons aussi soulevé le problème de la comparaison multiple et nous avons proposé une correction, celle de Bonferroni. Au terme de l’étude, nous avons développé une application Shiny sur R (https://lqasdesign. shinyapps.io/app1/) pour faciliter la conception et l’analyse selon le LQAS.
Introduced by Dodge and Romig [1959] and popularized by Valadez [1991], Lot Quality Assurance Sampling (LQAS) is a method widely used by tremendous organizations to tracking their activities (Robertson and Valadez [2006]). It is a simple and economical approach which allow them to make quick decisions about resource allocation. The approach proposed by Valadez consists in carrying out the usual exact binomial test on a proportion where we control both the a and b errors to choose a n size and a critical c threshold. In this study, several issues related to the use of LQAS in practice have been identified and we assessed their impact on Type I and Type II errors. Then, we proposed several solutions such as Fisher’s exact test, Barnard’s exact test, as well as a test based on the normal approximation with and without transformation arcsin( p x) by checking for each of them a and b. We also raised the problem of multiple comparison and proposed a correction using the Bonferroni framework. Finally, we developed a Shiny application on R (https://lqasdesign.shinyapps.io/app1/) to facilitate the practical implementation of each these methods.
35

Turon, Fabrice. "Amélioration de la qualité nutritionnelle d'une huile de thon : biofaçonnement par une enzyme végétale naturellement supportée." Toulouse, INPT, 2002. http://www.theses.fr/2002INPTA001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Cerutti, Xavier. "Modélisation numérique et analyse mécanique de l'usinage de grandes pièces aéronautiques : Amélioration de la qualité d'usinage." Thesis, Paris, ENMP, 2014. http://www.theses.fr/2014ENMP0029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fabrication des grandes pièces structurelles aéronautiques en alliage d'aluminium nécessite la réalisation de multiples étapes de mises en forme (laminage, matriçage, etc...) et de traitements thermiques. Les différents chargements mécaniques et thermiques subis par les pièces pendant ces étapes de fabrication induisent des déformations plastiques ainsi que des modifications de la microstructure, qui sont sources de contraintes résiduelles. La géométrie finale des pièces est obtenue par usinage, qui est généralement la dernière étape de fabrication. Jusqu'à 90% du volume de matière initial peut être enlevé durant l'usinage de grandes pièces aéronautiques, qui peuvent également présenter des géométries complexes. La redistribution des contraintes résiduelles pendant l'usinage est une des principales causes de non-conformité des pièces avec les tolérances géométriques et dimensionnelles et donc de non-acceptation de celles-ci.De nos jours, les contraintes résiduelles et leurs effets pendant l'usinage ne sont généralement pas pris en compte lors de la définition des gammes d'usinage. Ce travail de thèse vise donc à proposer une évolution dans l'établissement des gammes d'usinage des pièces de structures en alliage d'aluminium et a été construit autour de deux principaux axes de recherche: un axe numérique et un axe d'analyse mécanique.L'axe numérique est basé sur la mise en place d'une approche de modélisation et le développement d'un outil numérique adapté à la simulation de l'usinage. L'approche de modélisation a été définie à partir d'hypothèses déduites d'études bibliographiques sur les alliages d'aluminium, le procédé d'usinage et les contraintes résiduelles. Une approche numérique d'enlèvements massifs de matière a ainsi été développée et tous les développements ont été intégrés dans les codes sources de FORGE® dans un environnement parallèle.L'axe d'analyse mécanique est basé sur l'étude de la redistribution des contraintes résiduelles et des déformations associées lors de l'usinage. Une première étude appliquée à la méthode expérimentale utilisée pour déterminer les profils de contraintes résiduelles dans des tôles laminées en alliage AIRWARE® 2050-T84 a été réalisée. Les simulations de ces essais ont permis une première validation de l'outil numérique développé et ont démontré la nécessité de définir des gammes d'usinage en fonction des contraintes résiduelles. D'autres études sur l'influence de certains paramètres définis dans les gammes d'usinage sur la qualité d'usinage ont également été menées. Les simulations réalisées ont été validées par de multiples comparaisons avec des résultats expérimentaux, montrant la capacité de l'outil numérique à prédire précisément la géométrie finale des pièces.A l'aide des résultats obtenus sur les précédentes études, une procédure numérique et de premières recommandations pour la définition de gammes d'usinage permettant d'obtenir la qualité d'usinage souhaitée en tenant compte des contraintes résiduelles initiales ont été mises en place
The manufacturing of aluminium alloy structural aerospace parts involves multiple forming (rolling, forging, etc.) and heat treatment steps. The mechanical and thermal loads that the workpieces undergo during these manufacturing steps result in unequal plastic deformation and in metallurgical changes which are both sources of residual stresses. Machining is usually the last manufacturing step during which the final geometry of the parts is obtained. Up to 90% of the initial volume of the workpiece can be removed during the machining of aerospace structural parts which can furthermore have complex geometries. The residual stress redistribution is one of the main causes of the non-conformity of parts with the geometrical and dimensional tolerance specifications and therefore of the rejection of parts.Nowadays, initial residual stresses and their effect during the machining are often not taken into account in the definition of the machining process plan. This work aims to propose an evolution in the establishment of machining process plans of aluminium structural parts. It has been organised along two principal lines of research: a numerical line and a mechanical analysis line.The numerical line is based on the development of a modelling approach and of a numerical tool adapted to the simulation of the machining process. The modelling approach has been defined based on assumptions deduced from literature reviews on aluminium alloys, on the machining process and on residual stresses. A massive material removal approach has then been developed. All the numerical developments have been implemented into the finite element software FORGE® and are suited to a parallel computing environment.The mechanical analysis line is based on the study of the residual stress redistribution and its effect on the workpiece deflections during the machining as well as on the post-machining distortion. A first study on the layer removal method used to determine the initial residual stress profiles in an AIRWARE® 2050-T84 2050-T84 alloy rolled plate has been realised. The simulation of these experiments has allowed a first validation of the numerical tool and to demonstrate the necessity to define machining process plans in function of the residual stresses. Other studies on the influence of some machining process parameters on the machining quality have then been performed. Simulation results have been validated by multiple comparisons with experimental tests, showing the capability of the numerical tool to predict the final machined part geometries.Using the results of the studies mentioned above, a numerical procedure and first recommendations for the definition of machining process plans allowing to obtain the desired machining quality depending on the initial residual stresses have been established
37

Niaré, Tiéma M. "Simplification du protocole de pesées des agneaux en ferme." Toulouse, INPT, 1986. http://www.theses.fr/1986INPT011A.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Essai de simplification du controle de croissance des agneaux dans les elevages ovins a viande. Le terme ultime de cette demarche pourrait etre l'estimation du potentiel genetique des animaux a partir des criteres terminaux mesures au moment de l'abattage
38

Marquet, Richard. "Effluents de lits bactérien à faible charge : amélioration des connaissances et de la qualité par filtration tangentielle." Toulouse, INPT, 1999. http://www.theses.fr/1999INPT006G.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le lit bacterien a faible charge est le procede d'epuration biologique le plus utilise en grande-bretagne dans les stations d'epuration de faible a moyenne capacite. Ce procede genere des effluents de qualite fluctuante, traditionnellement expliquee par des variations d'accumulation de film biologique dans le lit bacterien. La qualite de l'effluent clarifie (pollution organique, matieres en suspension) est alors trop faible pour le recyclage ou le rejet dans les eaux receptrices, et un traitement tertiaire est souvent necessaire pour respecter les normes de plus en plus strictes. Les travaux presentes ont pour objectif l'etude des parametres-cles influencant les performances de lit bacteriens a faible charge, et l'etude de la taille des contaminants dans leurs effluents. Ce dernier parametre pourrait influencer l'efficacite de la filtration tangentielle en tant que traitement tertiaire. Des effluents de lits bacteriens ont ete etudies pendant un an a echelle reelle et deux ans a echelle pilote. Les parametres influencant les performances du procede, etudies a echelle pilote, incluent temperature, accumulation de film biologique dans le lit bacterien, caracteristiques hydrodynamiques du lit, contenu en matieres en suspension et granulometrie de l'influent. L'influence relative de ces parametres sur les performances a ete analysee par correlation et regression multiple. L'impact du lit bacterien sur la taille des contaminants a ete analyse par granulometrie (fraction particulaire) et par chromatographie d'exclusion a haute performances (fraction dissoute). Les deux technique contribuent a une meilleure comprehension du procede d'epuration. La filtration tangentielle a egalement ete etudiee en tant que traitement tertiaire potentiel pour les effluents de lits bacteriens. Le permeat produit est de qualite superieure aux normes actuelles de rejet. Une technique de nettoyage de la membrane en cours de filtration semble augmenter le flux de permeat.
39

Houyvet, Baptiste. "Identification de peptides antibactériens d'origine marine : Amélioration de la qualité et de la survie du naissain d'huître." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC206.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les premiers stades larvaires chez l’huitre creuse, nommée Magallana gigas, constituent une étape clé du bondéroulement du parcours zootechnique et également pour la pérennisation de la production en écloserie. Dans l’objectifde réduire les mortalités observées en écloserie, nous avons recherché de nouveaux peptides antimicrobiens. Larecherche de ces PAM a été réalisée à partir de deux organismes marins, le poisson-lion invasif en mer des caraïbes,Pterois volitans, et la seiche commune présente sur les zones ostréicoles, Sepia officinalis. La recherche de PAM a étéréalisée préférentiellement à partir de transcriptomes de novo obtenus chez ces deux animaux. Chez le poisson lion, àpartir de BLAST, 7 transcrits codant pour des PAM ont été identifiés. Quatre de ces PAM partagent de fortes homologiesde séquences (>90% d’identité) avec des PAM riches en cystéines proches de l’hepcidine, la LEAP-2, la NK-lysine et la bdéfensineidentifiées chez d’autres poissons. Les 3 autres transcrits annotés pteroicidines A, B et C codent pour despeptides apparentés aux piscidines. La présence de la b-défensine et de la pteroicidine a codée par la pteroicidine A a puêtre confirmée dans les extrait de peau du poisson lion par spectrométrie de masse. Une étude approfondie a été menéesur deux formes amidée et non amidée de la ptéroicidine a ainsi que sur plusieurs peptides de différentes tailles issusdes pteroicidines B et C. Les résultats ont permis de mettre en évidence une relation entre la structure, l’amidation et lesactivités antibactériennes et hémolytiques de ces différentes ptéroicidines. Sur le modèle Sepia officinalis, par lesapproches classiques couplant la purification et les tests antibactériens ou par des approches utilisant les BlAST, aucunPAM n’a été mis en évidence. Nous avons donc développé une approche plus originale qui repose sur le « design » depeptides à partir du transcriptome. A partir de 811 petits peptides sans cystéines issus de la base de données APD, nousavons déterminé des critères récurrents concernant la charge, l’hydrophobicité et la composition en acides aminés. Surla base de ces critères et en s’appuyant sur les outils de prédiction de CAMP, douze peptides ont fait l’objet d’une synthèse.Cinq de ces peptides ont révélé un large spectre d’activités antibactériennes. Les peptides antibactériens issus de la seicheayant une activité non hémolytique ont fait l’objet d’un transfert en écloserie. Ce transfert a été optimisé à partir d’uneétude préliminaire sur le peptide de novo K4, particulièrement actif sur les vibrios. Cette étude a mis en évidencel’importance de l’innocuité du peptide antibactérien sur les différents maillons de la chaine trophique, notamment del’huitre, et sur l’importance du stade de développement ciblé. Par ailleurs, nous nous sommes intéressés au devenir despeptides antibactériens de manière à s’assurer de leur biodégradabilité. L’ensemble de ces travaux a permis nonseulement d’identifier de nouveaux PAMs mais également d’apporter les premières données portant sur le potentiel del’utilisation de ces peptides comme alternative aux antibiotiques
The first larval stages of oyster (Magallana gigas) are key steps in the smooth running of the zootechnical course and inthe sustainability of hatcheries, where mortality levels can be high. That is why we searched for new antimicrobialpeptides (AMPs) on two marine organisms, i.e. lionfish (Pterois volitans), which is invasive in the Caribbean Sea, and thecommon cuttlefish (Sepia officinalis), which is present in French oyster production areas. The search for AMPs wascarried out preferentially from de novo transcriptomes from these two animals. In lionfish, BLAST analyses allowed forthe identification of 7 transcripts encoding AMPs. Four of them shared strong sequence homology (> 90% identity) withAMPs rich in cysteines and close to hepcidin, LEAP-2, NK-lysin and b-defensin identified in other fish. The other 3transcripts, annotated pteroicidins A, B and C, coded for piscidin-related peptides. The presence of b-defensin andpteroicidin a encoded by pteroicidin A was confirmed in lionfish skin extracts by mass spectrometry. An in-depth studywas conducted on two amide and non-amide forms of pteroicidin a, as well as on several peptides of different sizesderived from pteroicidins B and C. The results highlighted a relationship between structure, amidation, and theantibacterial and hemolytic activities of these different pteroicidins. On the other hand, no AMP was highlighted in theSepia officinalis model using conventional approaches coupling purification and antibacterial tests or BLAST approaches.We therefore developed a more original approach that relies on the design of peptides starting from the transcriptome.Starting from 811 small cysteine-free peptides from the APD database, we determined recurring criteria for charge,hydrophobicity, and amino acid composition. Based on these criteria and on CAMP prediction tools, twelve peptides weresynthesized. Five of them revealed a broad spectrum of antibacterial activities. Non-hemolytic antibacterial peptidesderived from cuttlefish were transferred to the hatchery. This transfer was optimized thanks to a preliminary study onthe de novo K4 peptide, which is particularly active on vibrios. The study highlighted the importance of antibacterialpeptide safety on the various links of the trophic chain including oyster, and the importance of the targeted stage ofdevelopment. In addition, we addressed the fate of antibacterial peptides to ensure their biodegradability. Altogether,this work not only helped to identify new AMPs but also to provide the first data on the potential use of these peptidesas an alternative to antibiotics
40

Houyvet, Baptiste. "Identification de peptides antibactériens d'origine marine : Amélioration de la qualité et de la survie du naissain d'huître." Electronic Thesis or Diss., Normandie, 2018. http://www.theses.fr/2018NORMC206.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les premiers stades larvaires chez l’huitre creuse, nommée Magallana gigas, constituent une étape clé du bondéroulement du parcours zootechnique et également pour la pérennisation de la production en écloserie. Dans l’objectifde réduire les mortalités observées en écloserie, nous avons recherché de nouveaux peptides antimicrobiens. Larecherche de ces PAM a été réalisée à partir de deux organismes marins, le poisson-lion invasif en mer des caraïbes,Pterois volitans, et la seiche commune présente sur les zones ostréicoles, Sepia officinalis. La recherche de PAM a étéréalisée préférentiellement à partir de transcriptomes de novo obtenus chez ces deux animaux. Chez le poisson lion, àpartir de BLAST, 7 transcrits codant pour des PAM ont été identifiés. Quatre de ces PAM partagent de fortes homologiesde séquences (>90% d’identité) avec des PAM riches en cystéines proches de l’hepcidine, la LEAP-2, la NK-lysine et la bdéfensineidentifiées chez d’autres poissons. Les 3 autres transcrits annotés pteroicidines A, B et C codent pour despeptides apparentés aux piscidines. La présence de la b-défensine et de la pteroicidine a codée par la pteroicidine A a puêtre confirmée dans les extrait de peau du poisson lion par spectrométrie de masse. Une étude approfondie a été menéesur deux formes amidée et non amidée de la ptéroicidine a ainsi que sur plusieurs peptides de différentes tailles issusdes pteroicidines B et C. Les résultats ont permis de mettre en évidence une relation entre la structure, l’amidation et lesactivités antibactériennes et hémolytiques de ces différentes ptéroicidines. Sur le modèle Sepia officinalis, par lesapproches classiques couplant la purification et les tests antibactériens ou par des approches utilisant les BlAST, aucunPAM n’a été mis en évidence. Nous avons donc développé une approche plus originale qui repose sur le « design » depeptides à partir du transcriptome. A partir de 811 petits peptides sans cystéines issus de la base de données APD, nousavons déterminé des critères récurrents concernant la charge, l’hydrophobicité et la composition en acides aminés. Surla base de ces critères et en s’appuyant sur les outils de prédiction de CAMP, douze peptides ont fait l’objet d’une synthèse.Cinq de ces peptides ont révélé un large spectre d’activités antibactériennes. Les peptides antibactériens issus de la seicheayant une activité non hémolytique ont fait l’objet d’un transfert en écloserie. Ce transfert a été optimisé à partir d’uneétude préliminaire sur le peptide de novo K4, particulièrement actif sur les vibrios. Cette étude a mis en évidencel’importance de l’innocuité du peptide antibactérien sur les différents maillons de la chaine trophique, notamment del’huitre, et sur l’importance du stade de développement ciblé. Par ailleurs, nous nous sommes intéressés au devenir despeptides antibactériens de manière à s’assurer de leur biodégradabilité. L’ensemble de ces travaux a permis nonseulement d’identifier de nouveaux PAMs mais également d’apporter les premières données portant sur le potentiel del’utilisation de ces peptides comme alternative aux antibiotiques
The first larval stages of oyster (Magallana gigas) are key steps in the smooth running of the zootechnical course and inthe sustainability of hatcheries, where mortality levels can be high. That is why we searched for new antimicrobialpeptides (AMPs) on two marine organisms, i.e. lionfish (Pterois volitans), which is invasive in the Caribbean Sea, and thecommon cuttlefish (Sepia officinalis), which is present in French oyster production areas. The search for AMPs wascarried out preferentially from de novo transcriptomes from these two animals. In lionfish, BLAST analyses allowed forthe identification of 7 transcripts encoding AMPs. Four of them shared strong sequence homology (> 90% identity) withAMPs rich in cysteines and close to hepcidin, LEAP-2, NK-lysin and b-defensin identified in other fish. The other 3transcripts, annotated pteroicidins A, B and C, coded for piscidin-related peptides. The presence of b-defensin andpteroicidin a encoded by pteroicidin A was confirmed in lionfish skin extracts by mass spectrometry. An in-depth studywas conducted on two amide and non-amide forms of pteroicidin a, as well as on several peptides of different sizesderived from pteroicidins B and C. The results highlighted a relationship between structure, amidation, and theantibacterial and hemolytic activities of these different pteroicidins. On the other hand, no AMP was highlighted in theSepia officinalis model using conventional approaches coupling purification and antibacterial tests or BLAST approaches.We therefore developed a more original approach that relies on the design of peptides starting from the transcriptome.Starting from 811 small cysteine-free peptides from the APD database, we determined recurring criteria for charge,hydrophobicity, and amino acid composition. Based on these criteria and on CAMP prediction tools, twelve peptides weresynthesized. Five of them revealed a broad spectrum of antibacterial activities. Non-hemolytic antibacterial peptidesderived from cuttlefish were transferred to the hatchery. This transfer was optimized thanks to a preliminary study onthe de novo K4 peptide, which is particularly active on vibrios. The study highlighted the importance of antibacterialpeptide safety on the various links of the trophic chain including oyster, and the importance of the targeted stage ofdevelopment. In addition, we addressed the fate of antibacterial peptides to ensure their biodegradability. Altogether,this work not only helped to identify new AMPs but also to provide the first data on the potential use of these peptidesas an alternative to antibiotics
41

Deeb, Salah. "Contribution méthodologique à la maîtrise conjointe de la qualité d'un produit et de ses processus de production par une modélisation des concepts qualité." Phd thesis, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00321445.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis plusieurs années, le contexte de mondialisation et l'accroissement de la concurrence ont définis un nouvel ordre économique et industriel pour les entreprises de production de biens. En effet, ces entreprises sont quotidiennement confrontées à la maîtrise et à l'amélioration des performances de l'ensemble de leurs processus afin de garantir leur pérennité et leur compétitivité [Meunier 2003]. Dans cet environnement chaque entreprise se doit ainsi d'optimiser la satisfaction de sa clientèle par une amélioration du triptyque Qualité - Coût - Délai des produits. La qualité a été toujours un objectif important depuis que les hommes fabriquent les objets [Pillet 1993]. Elle est matérialisée par des enchaînements logiques d'activités qui concerne le processus, le produit, le client, ... L'organisation de certaines activités permet ainsi de représenter différents points de vue de la qualité : le management de la qualité, l'amélioration de la qualité, la maîtrise de la qualité, ...
La norme ISO 9000 :2000 [Afnor 2000] définit la qualité comme une « aptitude d'un ensemble des caractéristiques intrinsèques à satisfaire des exigences ». Cette qualité est considérée par [Dessinoz 2000] comme un processus d'entreprise intégré avec les autres processus tels que la production et la maintenance. Dans l'ingénierie système, la norme ISO/IEC 15288 classifie le processus de management de la qualité comme un des processus d'entreprise cohabitant avec les processus du projet, les processus contractuels et les processus techniques. L'objectif de ce processus dans l'ingénierie est donc d'assurer que les produits, services et processus du cycle de vie d'un système satisfont à la fois les objectifs qualité de l'entreprise et du client [ISO/IEC15288 2002].
Ainsi, au sens de l'Ingénierie Système (IS), le processus qualité est en lien avec plusieurs processus de différents types et n'est donc pas limité à une fonction particulière en entreprise [Lopez 2006] ou n'est pas sous la responsabilité d'un seul département [Gogue 2000]. En ce sens, la qualité se décline ainsi sur les niveaux stratégique, tactique et opérationnel de l'entreprise.
D'un point de vue stratégique, la qualité est considérée comme une démarche globale dans l'entreprise devant assurer la satisfaction de l'ensemble de ses partenaires. Ce niveau intègre toutes les activités qualité relatives à l'amélioration de la performance globale, à la certification selon la norme ISO 9000 ainsi qu'au management de la qualité en tant que démarche.
Du point de vue tactique, le processus qualité opère à ce niveau plus spécifiquement sur les processus de type techniques tels que la production et la maintenance. Il contient des activités relatives à la maîtrise de la qualité des produits et la qualité de processus de production au sens large. Cette activité doit être coordonnée avec les activités du niveau stratégique.
Enfin, le point de vue opérationnel a pour objectif de mettre en place les moyens et les actions pour vérifier que les résultats des processus techniques sont conformes aux exigences spécifiées en terme de qualité, réaliser les contrôles et traiter les non-conformités. Cette activité doit être coordonnée avec les activités du niveau tactique.
La collaboration versus intégration entre les niveaux soulève encore de nombreuses problématiques à la fois industrielles et scientifiques à ce jour pour faire du processus qualité, un véritable processus au sens système couvrant l'ensemble du cycle de vie du produit/processus. Par exemple des entreprises comme ALSTOM-Moteurs qui est à l'initiative de ces travaux, ont besoin de méthodologie (de guide) qui formalise et intègre la qualité principalement au niveau tactique (i.e. capacité décisionnelle confiée à des équipes autonomes) en relation avec les deux autres niveaux pour améliorer sa performance globale. L'objectif de cette méthodologie est de maîtriser conjointement la qualité du produit et la qualité de leurs processus de production dans une approche cycle de vie du processus de maîtrise de la qualité (de la conception jusqu'à l'exploitation). Relativement à ces besoins de formalisation et d'intégration, des méthodes, des méthodologies et des approches qualité existent à ce jour qui supportent tout ou partie du processus qualité inhérent à un niveau ou à l'interconnexion entre niveaux. Les méthodes, et les approches les plus couramment utilisées sont QFD, Six Sigma, AMDEC, ...
Une des approches significatives par rapport à la problématique d'intégration est le TQM (Total Quality Management) qui se positionne dans les différents niveaux structurels en entreprise [Rodney 2006]. Un des objectifs de cette approche qualité est d'améliorer et de maîtriser la qualité du processus de production pour maîtriser la qualité du produit. [Hellsten 2000] a défini le TQM comme un système de management constitué de trois composants qui sont mutuellement dépendants : « core values », méthodologies et outils/méthodes. Cette approche présente un intérêt particulier puisqu'elle permet d'intégrer, au sein des composantes, différentes méthodes et méthodologies qualité telles que QFD, AMDEC, SPC, ... Cependant, ces méthodes et méthodologies sont souvent « informelles » car décrites sous une base textuelle ou graphique [Dale 1990] [Juan 2004]. Elles ne contiennent donc pas une phase de formalisation des concepts qualité dans leur phase de conceptualisation indispensable pour la maîtrise et l'amélioration de la qualité [Marcotte 1995]. Aussi, les méthodologies applicables au niveau tactique permettent difficilement d'améliorer (maîtriser) simultanément la qualité du produit et la qualité de ses processus de production [Ettlie 1994]. De plus, la plupart de ces méthodologies sont applicables dans la phase de d'exploitation mais peu d'entre elles autre que le QFD [Govers 1996], le sont en conception [McClusky, 2000].
Pour répondre simultanément aux besoins industriels genèse de cette thèse et au manque de formalisation préalablement mentionné, notre contribution porte sur la proposition d'une approche qualité générique permettant de formaliser le processus qualité au niveau tactique en intégration avec les autres niveaux opérationnel et stratégique en entreprise. Notre approche se positionne en cohérence avec une approche TQM dans l'objectif de maîtriser et d'améliorer conjointement la qualité du produit et la qualité de ses processus de production. Cette première formalisation (car ne couvrant pas tous les points de vue de la qualité) doit permettre de modéliser de façon générique le processus qualité de niveau tactique et ses interactions nécessaires pour en réaliser l'intégration à la fois avec les autres niveaux stratégiques et opérationnels mais aussi avec les autres processus tel que le processus maintenance pour assurer la performance globale en entreprise. Cette approche de formalisation s'intègre dans le cadre de modélisation Zachman [Zachman 1987] offrant une cohérence relativement aux différents modèles à réaliser.
Par rapport à cette formalisation, l'originalité de notre contribution réside dans une première unification, sous la forme de méta-modèles, des concepts qualité sur la base:
• de l'approche processus définit dans la norme ISO 9000 :2000 de « niveau tactique ». L'édition de la nouvelle version ISO 9000 :2005 n'impacte pas notre proposition dans le sens où les changements apportés à l'ancienne version ne concernent pas les concepts qualité modélisés dans notre approche qualité.
• de la fonction « management de qualité » telle que prôné par la norme IEC/ISO62264 «niveau management »,
• de méthodes qualité telle que l'AMDEC, la MSP, l'APR, le Poka-yoké,
• de la modélisation d'indicateurs qualité.
Cette approche se veut donc exploitable de la conception à l'exploitation du processus de maîtrise de la qualité. Dans la phase de conception, notre contribution doit offrir un guide qui aide l'ingénieur qualité, d'abord pour, développer un modèle spécifique par une phase d'instanciation du méta-modèle support de la méthodologie (en cohérence avec le TQM), ensuite d'exécuter la méthode qualité adéquate au moment opportun, et finalement de calculer des indicateurs qualité (phase d'évaluation). Dans la phase d'exploitation, la connaissance formalisée et structurée dans le modèle spécifique (l'ensemble des instances) est directement transposable dans un formalisme compréhensible par l'opérateur sur site (i.e. pages Web) pour mieux suivre et anticiper les dérives qualité du produit/processus principalement sur les axes surveillance, diagnostic et action. Pour faciliter l'utilisation de notre approche qualité, nous avons proposé une automatisation de cette approche à l'aide l'outil MEGA.
Notre contribution est ainsi exposée dans ce manuscrit sous la forme de 4 chapitres complémentaires. Le premier chapitre introduit, dans un premier temps, une définition d'un processus qualité au sein de l'entreprise et des points de vue à ce processus. Certains points de vue sont repris pour introduire la problématique industrielle qui est la genèse de ces travaux de thèse. Ceci nous amène à positionner le processus qualité sur les différents niveaux structurels de l'entreprise en mettant en évidence un certain nombre de verrous scientifiques comme la modélisation et l'intégration du processus qualité dans l'entreprise afin de maîtriser et d'améliorer la qualité du produit/processus. Sur la base de ce positionnement, le deuxième chapitre nous permet de présenter un état de l'art recensant les travaux principaux sur les aspects « modèles, méthodes et méthodologies » liés à la formalisation et à l'intégration du processus qualité pour répondre à l'objectif d'une plus grande maîtrise et amélioration de la qualité conjointe produit/processus. Ce recensement met en évidence de réelles problématiques scientifiques non totalement résolues à ce jour pour satisfaire au besoin de formalisation et d'intégration. Ces manques justifient le contenu du chapitre 3 dédié à la définition de la méthodologie proposée (le guide) et qui se base sur un principe de méta-modélisation de concepts qualité garant de la généricité attendue. La méthodologie, construite sur 3 étapes, se positionne en cohérence avec le TQM et permet de formaliser l'interdépendance entre les trois composantes du TQM. Enfin le chapitre 4 décrit, d'une part, l'automatisation de cette méthodologie à l'aide de l'outil MEGA afin de la rendre accessible à tous ingénieurs qualité, et d'autre part, une faisabilité de cette méthodologie sur un cas d'application manufacturier de type tournage couvrant la phase de conception et d'exploitation. Le passage du méta-modèle au modèle spécifique (phase de conception) du processus de tournage est réalisé par une procédure d'instanciation supportée par l'outil.
42

Besson, François. "Mélanges de polymères thermoplastiques à matrice biosourcée : amélioration de la résistance au choc d'un dérivé cellulosique." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00971268.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le contexte de la Chaire Industrielle Bioplastiques, financé par MINES ParisTech et cinq entreprises partenaires : Arkema, L'Oréal, Nestlé, PSA Peugeot-Citroën et Schneider Electric, qui vise à développer de nouveaux matériaux biosourcés durables. L'objectif global de la thèse est de trouver de nouvelles propriétés à une ancienne famille de plastiques biosourcés - les esters de cellulose - en les mélangeant avec une polyoléfine. Nous avons débuté l'étude par une étape de screening qui nous a permis de caractériser l'ester de cellulose retenu (acétobutyrate de cellulose ou CAB) et de définir l'objectif de la thèse : améliorer la résistance au choc du CAB en y ajoutant une phase polyoléfinique finement dispersée. Le CAB est, en effet, particulièrement fragile : sa résilience est inférieure à 2 kJ/m² lors d'un choc Charpy entaillé. Pour diminuer la taille de nodules de la phase dispersée et la distance qui les sépare, deux approches ont été utilisés. Premièrement, plusieurs mélanges de CAB et de polyéthylènes (PE) de densités différentes ont été préparés par mélangeur interne. Des compatibilisants maléisés ont été utilisés pour diminuer la tension interfaciale entre les phases. Les tailles des nodules, mesurées par microscopie électronique à balayage se sont classées suivant les rapports de viscosité et d'élasticité (PE/CAB), mesurés par rhéométrie dynamique. La résilience de ces mélanges a été augmentée par rapport au CAB mais n'a pas dépassé 6 kJ/m². Dans la seconde approche, des polyoléfines fonctionnalisées (maléisées) ont été utilisées comme unique phase dispersée. La fonctionnalité accrue a permis d'améliorer l'adhésion interfaciale. La taille des nodules et leur espacement ont été considérablement réduits. Les mélanges sélectionnés ont été préparés par extrusion bi-vis et les éprouvettes de résistance au choc ont été préparées par injection. Pour quelques formulations, une longueur moyenne de ligaments de matrice (séparant deux nodules voisins) particulièrement petite (0,1 µm) a permis d'atteindre la transition fragile-ductile du matériau et une résilience supérieure à 60 kJ/m².
43

Swoboda, Benjamin. "Amélioration du comportement au feu de polyéthylène téréphtalate et d'alliages polyéthylène téréphtalate/polycarbonate recyclés." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00199193.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se propose de développer de nouvelles stratégies d'amélioration du comportement au feu du PolyEthylène Téréphtalate (PET) recyclé. L'objectif de ce travail est d'engendrer de nouveaux domaines d'application du PET recyclé en tant que plastique technique. Trois stratégies complémentaires ont été mises en place. La première a été de mélanger le PET avec du PolyCarbonate (PC) afin de créer un composite plus résistant au feu. Ces mélanges PET/PC ont été compatibilisés, par extrusion réactive, par ajout de catalyseur qui accélére la réaction de transestérification et forme alors des copolymères PET-PC stabilisant le mélange. La seconde stratégie a été d'augmenter la viscosité du PET grâce à des réactions d'allongement de chaînes. Le composé choisi est le TriPhenylPhosphite (TPP) car il peut jouer le rôle à la fois d'allongeur de chaînes mais aussi de retardateur de flamme grâce à sa teneur en phosphore. Une synergie importante entre les copolymères et le TPP a été mise en évidence. Enfin, la troisième stratégie a été d'utiliser des nanocharges modifiées par du phosphore. Les deux nanocharges qui ont été utilisées sont la montmorillonite et le kaolin. Grâce à ces trois stratégies, les performances mécaniques et thermiques des composites deviennent très intéressantes.
44

Abouzahir, Omar. "Conception d'un outil de mesure et de réduction des coûts de non qualité : application au pilotage des processus industriels." Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00002197.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La compétitivité impose une dure loi aux entreprises: l'obligation d'une gestion rigoureuse en éliminant toutes les types de gaspillages. Parmi les causes de gaspillages et donc de non compétitivité, il y a les coûts de non qualité. Des statistiques avancent entre 10 à 20% du chiffre d'affaires. Les coûts de non qualité sont dus à l'ensemble des anomalies, rebuts, retouches, réparation, etc. La réduction de ces coûts est un des axes stratégiques de toute entreprise soucieuse de sa pérennité. Afin de résorber efficacement ces coûts, il est indispensable de commencer d'abord par leur identification et évaluation, car le système comptable normal ne mesure pas ces coûts. En effet les systèmes traditionnels qui calculent les coûts par produit ne permettent pas de déterminer l'effet économique des améliorations introduites par la démarche qualité dans le processus de production. Cette recherche a pour objectif de proposer une méthodologie pour évaluer et réduire les coûts de non qualité. Pour la validation de certaines hypothèses, des expérimentations sont conduites en entreprise. En particulier, un processus industriel continu a été choisi au sein du groupe OCP. Dans une première partie, nous posons la problématique en faisant l'état de l'art sur les démarches COQ, et nous formulons deux hypothèses permettant de répondre à cette problématique. La deuxième partie, intitulée expérimentation vise à valider nos hypothèses sur un cas industriel. A partir des résultats de la démarche expérimentale, nous concluons, en troisième partie en proposant une méthode d'évaluation et de réduction des coûts de non qualité orientée vers les processus.
45

Marton, Monika. "Recherche de critères de sélection des graminées fourragères pour la qualité, basé sur des références avec animaux." Paris 11, 1987. http://www.theses.fr/1987PA112466.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une série d'expériences est réalisée pour trouver des critères de sélection à l'amélioration génétique de la qualité des graminées fourragères au même stade de végétation. L'ingestibilité, la digestibilité, l'appétibilité et l'effet de plusieurs variétés sur la production laitière sont mesurées sur des moutons, des chèvres et des vaches, parallèlement avec des analyses de laboratoire des mêmes fourrages pendant plusieurs semaines du premier cycle de végétation au cours de sept années d'expériences. Les critères mesurés sur animaux distinguent l'effet végétal à différents niveaux de signification et sont généralement en corrélations plus ou moins fortement positives entre eux. Les exceptions sont souvent liées à l'ingestion. Une hypothèse suggère que la qualité générale des fourrages influencerait tous les critères animaux en même temps et dans le même sens, sauf peut-être l'ingestion et que des "qualités spécifiques" interviendraient dans la modification seulement de l'un ou l'autre de ces références. La teneur En phénols solubles des plantes se révèle comme critère de laboratoire le plus probablement explicatif de la "qualité générale". C'est le critère de sélection proposé. Différentes perspectives de recherche sont indiquées.
46

Chauchard, Fabien. "Amélioration de la robustesse des mesures en spectrométrie proche-infrarouge sur produits biologiques." Montpellier 2, 2005. http://www.theses.fr/2005MON20209.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Wikarsa, Saleh. "Génie des produits formules : amélioration des spécifications de l'Ibuprofène, principe actif peu hydrosoluble, par le procédé d'atomisation." Montpellier 1, 2008. http://www.theses.fr/2008MON13505.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec les progrés opérés depuis quelques années dans le domaine de la synthèse chimique et les performances nouvelles générées, à la fois par la chimie combiantoire et les études de en plus sophistiquées de "screening" de molécules nouvelles, la Recherche et Développement Pharmaceutique se trouve très fréquemment confrontée à la formulation de principes actifs à très faible solubilité aqueuse et pour lesquels, cliniciens et services de marketing souhaitent mettre au point et commercialiser des formes solides pour administration par voie orale. Dans le contexte de la gestion de la qualité pharmaceutique, cette problématique oblige le formulateur à concevoir des formules et/ou proposer de nouveaux procédés de mise en forme. Ainsi, et pour un composant actif donné, les études de pré-formulation, essentiellement basées sur la sélectionqualitative d'excipients fonctionnels, puis les études de formulation considérant la définition quantitative de ces substances auxiliaires pour élaborer une forme de présentation donnée, obligent les acteurs du Développement à considerer une approche couplée Produit/Procédé. Dans cet esprit du Génie des produis formulés, l'objectif essentiel de cette étude, est, à partir d'un composant actif modèle, reconnu pour sa faible capacité à se solubiliser dans l'eau (l'ibuprofène) de développer des microparticules formulées permettant d'améliorer sa vitesse de dissolution en faisant appel à un procédé robuste, prenant en compte la protection de l'environnement, respectant les bonnes pratiques de fabrication et par ailleurs, économiquement applicable. Ainsi, une étude de mélanges physiques, puis celle du broyage, de l'évaporation de solvant et enfin de l'atomisation de suspensions actives en phase liquide majoritairement aqueuse a été menée. Des travaux réalisés, il ressort que l'amélioration de la vitesse de dissolution de l'ibuprofène dépend de la nature des adjuvantes de formulation et des méthodes de préparation utilisées. Dans les conditions expérimentales testées, nous avons pu démontrer tout l'intérêt de la valorisation du procédé d'atomisation, pour fournir des microparticules de morphologie et de granulométrie maîtrisées et présentant par ailleurs une aptitude à la dissolution in vitro qualifiée de rapide, comparativement à la matière actif originelle. Les performances de l'atomisation et la qualité des atomisats développées sont cependant très variables et dépendent : du type de surfactant et d'agent de séchage, mais également des paramètres propres au procédé (température notamment). Parmi les agents de séchage sélectionnées, nous avons pu dégager l'intérêt de l'utilisation de l'Aerosil 200® et tout particulièrement sa fonctionnalité à fournir des rendements de production satisfaisants. Pour ce qui est de l'utilisation de surfactants, les matières grasses gras (Tween 80®) se sont révélées peu efficaces comparativement aux surfactants solides de type lauryl sulfate de sodium et cétrimide. Pour ce qui est de la partie propre au procédé, il a été mis en évidence un intérêt à retenir et valorises le procédé d'atomisation pour ce type de production, intérêt que nous avons démontré, par une étude chimiométrique en plans d'expériences et une approche de transposition d'échelle sur un équipement pilote.
48

Bassetto, Samuel. "Contribution à la qualification et amélioration des moyens de production : application à une usine de recherche et production de semiconducteurs." Paris, ENSAM, 2005. http://www.theses.fr/2005ENAM0009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La production industrielle de bien manufacturés permet, par une organisation et des actions adaptées, de toucher directement la qualité de milliers de produits. Cette thèse s'inscrit dans la logique d'amélioration de la qualité, par des actions sur les moyens de production. Elle est appliquée aux fabrications de circuits intégrés. Ces industries sont contraintes par un constant renouvellement des produits, des fortes rentabilités sur de très courtes périodes, une nécessité de produire en qualité et une exigence des moyens de recherche et production. Elles sont donc confrontées à des cycles d'apprentissage et de maîtrise de leurs moyens de production très courts, tout en maximisant la rentabilité. La recherche de la qualité est une priorité stratégique de ce secteur. Elle ne peut donc pas être uniquement décrétée, mais doit être opérationnelle et doit tenir compte des contraintes du domaine. Nous proposons pour cela un modèle en entreprise permettant de qualifier et d'améliorer les moyens de production de manière opértionnelle, dynamique tout en supportant les connaissances métier. Ce modèle est construit en intégrant les résultats de nos deux cas d'études industriels. Cette thèse débute par une présentation du process control et de la problèmatique qui lui est associée. Le deuxième chapitre traite de la gestion des risques opérationnels. Le troisième traite de la mise sous contrôle des moyens généraux. Le modèle en entreprise est alors construit, au quatrième chapitre, en consolidant les résultats obtenus. L'application à d'autres horizons industriels clôture notre proposition
Industrial production of manufactured goods enables, through a well designed organization and adapted actions, to raise quality of thousand products at the highest level. This thesis is involved in quality continuous improvement by actions on manufacturing systems. It is applied to integrated circuit manufactures. These industries are constrained by a high product turn rate, a short period of time of high leveled return on investments, a customer requirement of high level of quality, a requirement of profitability for research and production facilities. These industries are facing short cycle time for learning and mastering their technologies while maximizing their benefits. That is why constant quality improvement is a stratégic goal for theses industries. Quality cannot be only announced but have also to be operationally applied and to go over domain constraints. For that, we propose an entreprise model to qualify and improve manufacturing system in a dynamic and operational manner so as sustaining business knowledge and improving business excellence. The model is built form results of our two industrial study cases. The dissertation starts with a presentation of process control and its main objective. The second chapter deals with a presentation of process control and its main objective. The second chapter deals with operational risks management. The third chapter deals with statistical process control of plant's facilities. The entreprise model is then built in the fourth chapter by aggregating resuts form the two previous analyses. Recommendation for the model implementation to other industries concludes the dissertation
49

Belgued, Youssef. "Amélioration de la qualité géométrique des images spatiales radar : méthodes de localisation et restitution du relief par radargrammétrie." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT019H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'observation de la Terre depuis l'espace par les capteurs radar a ouvert de nouvelles perspectives dans le domaine des techniques d'exploitation des images et dans le domaine des applications servies par ces produits radar. Cette thèse s'intéresse à la qualité géométrique des images radar à synthèse d'ouverture acquises par satellite. Cet aspect est d'une grande importance lors de l'intégration de ces données dans des systèmes avec des sources de données hétérogènes, et lors de l'application de méthodes basées sur les modèles géométriques des images telles que la localisation et la restitution du relief. Nous commençons par la description de la modélisation du processus physique de prise de vue de l'image radar qui sert de base aux méthodes de localisation et aux applications liées à la géométrie des images. Puis nous montrons que des erreurs contaminent les valeurs des paramètres du modèle de prise de vue et nous analysons tous les foyers éventuels d'imprécision afin, d'une part, d'établir le vecteur d'état des paramètres à estimer et, d'autre part, par un processus de modélisation/simulation de disposer d'un outil d'expertise sur les potentialités en localisation et en restitution du relief de systèmes spatiaux radar existants ou futurs. L'ajustement des modèles de prise de vue, posé comme un problème d'estimation de paramètres en présence de bruit dans les mesures d'appui, est ensuite résolu simultanément pour un bloc d'images qui se chevauchent. Finalement, nous étudions la radargrammétrie qui consiste à générer des modèles numériques de terrain à partir d'images radar stéréoscopiques. Une nouvelle chaîne de traitement radargrammétrique est mise au point avec un module original de mise en géométrie épipolaire et une analyse de l'influence du filtrage des images en amont de l'étape d'appariement.
50

Thouras, Jordan. "Amélioration des performances électriques d’un module de mélange optoélectronique privilégiant des dispositifs à semi-conducteurs : Applications dans les charges utiles de satellites." Thesis, Limoges, 2016. http://www.theses.fr/2016LIMO0127/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les télécommunications par satellite prennent aujourd’hui de en plus d’importance, et le nombre d’abonnés à travers le monde ne cesse de croître. Partout où la fibre optique ne peut être déployée, elles sont un moyen fiable de fournir des débits très élevés aux utilisateurs, dont les pratiques nécessitent des bandes passantes toujours plus importantes (vidéo HD, visioconférences, téléchargement, cloud computing, jeux en ligne...). Elles garantissent également de très vastes zones de couverture. Pour les concepteurs de charges utiles de satellite, suivre les besoins du marché revient à augmenter constamment le nombre d’équipements embarqués, ce qui affecte le volume et la masse des systèmes et donc le coût de mise en orbite. Une des solutions envisagées afin de contrer ce phénomène consiste à employer des technologies optiques. Il a été démontré par Thales Alenia Space que pour un système de distribution de signaux de référence de 1 vers 64 équipements, la réduction du poids pourrait être de 70 %. Dans ce contexte nous avons développé 7 convertisseurs de fréquence RF réalisés à partir de composants photoniques semi-conducteurs. Ces convertisseurs font partie des composants clés des charges utiles car ils permettent d’isoler les transmissions montantes (vol vers satellite) et descendantes (satellite vers sol) afin d’éviter les interférences. Les performances des 7 architectures proposées, réalisées à partir de modulateurs électro-absorbants (EAM) et d’amplificateurs optiques à semi-conducteurs (SOA) ont été évaluées au travers de différentes simulations et en calculant le gain de conversion, le facteur de bruit, les isolations RF/FI et OL/FI, les rapports C/I3 et les coordonnées du point d’interception d’ordre 3. Nous avons obtenu des performances intéressantes, premières données pour de futures études et montré que ces convertisseurs seraient compatibles avec de nombreux plans de fréquence en bandes Ku/Ku, Ku+/Ku, et Ka/Ka. Des manipulations ont également permis de valider les modèles théoriques employés dans les simulations
Nowadays, Satellite telecommunications are becoming very popular and the number of subscribers worldwide is always growing. Wherever the optical fiber cannot be deployed, they are a reliable way to provide very high data rates to the users, whose activities are becoming more and more bandwidth-hungry (HD video, video conferencing, downloading, cloud computing, online games ...). They also guarantee very large coverage areas. In order to follow the market needs satellite payload designers have to increase the number of on-board equipment, which affects the volume and mass of the systems and therefore the launching cost. One of the solutions to solve the problem consists in using optical technologies. It has been demonstrated by Thales Alenia Space that In the case of a reference signal distribution system for 64 devices, a weight reduction of about 70% could be obtained. In this context we have developed 7 RF frequencydown-converters based on photonic semiconductor components. The down-converters are key components of satellite payloads, as their aim is to isolate uplink transmissions (ground to satellite) and downlink (satellite to ground) to avoid interference. Performance of the 7 architectures, incorporating electro-absorption modulators (EAM) and semiconductor optical amplifiers (SOA) were evaluated through various simulations and by calculating the conversion gain, noise figure, RF/IF and LO/IF isolations, the C/I3 ratio and the coordinates of the third order intercept point. We obtained interesting results, first data for futur works,and showed that these converters are compatible with many frequency plans in Ku/Ku, ku+/Ku, and Ka/Ka bands. Manipulations were also led and validated the theoretical models used in simulations

До бібліографії