Rozprawy doktorskie na temat „Traitements complexes”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Traitements complexes.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Traitements complexes”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Bendjebla, Soumiya. "Traitements géométriques et fouille de données pour la reconnaissance d’entités d’usinage complexes". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN002.

Pełny tekst źródła
Streszczenie:
Face à la concurrence et aux nouveaux enjeux industriels, la maitrise du savoir-faire industriel de la chaîne numérique support des activités de développement de produits de l’entreprise deviennent alors une nécessité pour raccourcir le temps d’industrialisation des produits tout en en assurant une meilleure qualité.Dans ce contexte, nous nous sommes intéressés dans cette thèse à la valorisation des données générées par la chaîne numérique pour la capitalisation des bonnes pratiques de conception de programmes d’usinage suivant une approche orientée entité. Nous avons ainsi identifié plusieurs problématiques liées à la caractérisation de l’entité d’usinage et l’exploitation des données de la chaîne numérique pour la structuration et réutilisation des données d’usinage dans le cas des formes complexes.Pour répondre à ces problématiques, une nouvelle caractérisation de l’entité d’usinage complexe multi-niveaux a été proposée. Cette approche se distingue par une structuration hiérarchique des données de la chaîne numérique et une mise en correspondance par niveau entre les données géométriques et les données d’usinage. Une analyse statistique est ensuite effectuée pour traiter et exploiter ces données. Une segmentation à base de la courbure et un clustering statistique des données d’usinage ont été combinés pour définir une nouvelle approche de segmentation technologique orientée région. Ces régions ont servi à caractériser l’entité d’usinage et assurer ainsi la réutilisation des données d’usinage entre les pièces similaires à travers une approche orientée entité et une autre orientée région basée sur la mesure de similarité. Enfin, une application de la démarche globale a été réalisée sur un cas industriel de pièce en aéronautique
In response to competition and new industrial challenges, companies are forced to be more and more efficient, productive and competitive. Managing industrial know-how and the data flow of the manufacturing digital chain must be explored in order to shorten the industrialisation time while ensuring better quality.In this context, this thesis focuses on digital chain data exploration for the capture of good practices in NC machining using a feature-based approach. Several issues related to machining feature characterisation and digital chain data exploitation for machining process knowledge reuse have been identified.To address these issues, a new characterization of multi-level complex machining feature has been proposed. The proposed approach is characterized by a hierarchical structuring of digital chain data and a mapping between the geometrical and machining data. A statistical analysis is then carried out to analyse and exploit this data. Curvature-based segmentation and statistical clustering of machining data were combined to define new machining regions based technological segmentation approach. These regions were then used to characterize the machining feature and thus ensure the reuse of machining data through a feature based and a region based approach exploiting similarity measures a similarity measure. Finally, the developed approach was applied on an industrial case in aeronautics
Style APA, Harvard, Vancouver, ISO itp.
2

Leducq, Paul. "Traitements temps-fréquence pour l'analyse de scènes complexes dans les images SAR polarimétriques". Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00133586.

Pełny tekst źródła
Streszczenie:
Ces travaux concernent l'utilisation de méthodes temps-fréquences pour l'étude des images SAR polarimétriques au travers de deux applications.
La réponse des cibles mobiles est étudiée. Sa forme particulière conduit à une méthode de détection et refocalisation basée sur la transformée de Fourier fractionnaire. La problématique est étendue au cas des cibles possédant de plus une réflectivité dépendant des paramètres d'illumination (angle et fréquence). Une approche basée sur une modélisation de la cible et sur l'algorithme de Matching-Pursuit est présentée.
La détection des bâtiments dans les images SAR de zones urbaines en bande L est abordée dans le cadre temps-fréquence. Les notions complémentaires de stationnarité et de cohérence sont exploitées pour produire une classification temps-fréquence, permettant d'identifier les environnements naturels et différents types de cibles artificielles. Des applications à la cartographie et à la caractérisation de bâtiments sont proposées.
Style APA, Harvard, Vancouver, ISO itp.
3

Wagner, Magali. "Impact des traitements hydrothermiques sur les propriétés techno-fonctionnelles de produits céréaliers". Thesis, Montpellier, SupAgro, 2010. http://www.theses.fr/2010NSAM0028/document.

Pełny tekst źródła
Streszczenie:
L'impact de traitements hydrodrothermiques complémentaires au procédé classique de fabrication des pâtes alimentaires a été étudié afin de définir les relations "procédé / structure / propriétés". Des pâtes 100% blé dur, éventuellement enrichies en protéines, monoglycérides et amylose, ont été produites, puis traitées à la vapeur selon différents couples temps-température, puis cuites de façon conventionnelle ou stérilisées. Les caractéristiques structurales des pâtes ainsi obtenues ont été étudiées à différentes échelles après chaque étape du procédé pour déterminer l'influence des opérations unitaires et de leurs paramètres. Les traitements vapeur induisent principalement une perte de la structure cristalline d'amidon natif, la formation de complexes amylose-lipides avec l'augmentation de la température et de la teneur en eau des pâtes. De plus, la réticulation du réseau protéique est accrue avec la température et la durée du traitement. Ces modifications structurales ont été synthétisées dans un digramme d'état. Toutefois, lorsque les pâtes sont chauffées en excès d'eau, le réseau protéique peut être rompu, les complexes disparaître et l'amylopectine rétrograder. La mesure des propriétés de texture de ces produits a permis d'établir les contributions respectives du mécanisme de plastification par l'eau et des différentes entités structurales présentes dans la pâte. Ces dernières renforcent mécaniquement les pâtes et l'addition des ingrédients permet ainsi d'améliorer les propriétés des produits. Un diagramme de fabrication a été proposé à partir de l'ensemble des résultats obtenus et son application à une formulation appropriée devrait permettre de répondre à l'objectif technique de ces travaux
The impact of hydrothermal treatments in addition to those of traditional process of pasta manufacturing has been studied to define the relationship "process / structure / properties". Pasta exclusively based on durum wheat semolina and other enriched in protein, amylose and lipids, were produced and then steamed for different time-temperature values, then boiled or sterilized. The structural characteristics of pasta were studied at different scales after each step of the process to determine the influence of unit operations and their parameters. The steam treatments mostly induce a loss of the crystal structure of native starch and the formation of complexes amylose-lipids with increasing temperature and moisture content of pasta. Moreover, the protein network was enhanced by cross-linking as much as temperature and duration of treatment increased. Theses structural changes are synthesized in a states diagram. When the pasta is heated in an excess of water, the protein network can be disrupted, complexes may disappear and amylopectine retrograde. The measurement of the rheological properties of these products have helped to assign the contribution of the mechanism of plasticization by water and of the presence of these structures. These latter mechanically reinforce the pasta and the additions of various ingredients may then improve their properties. based on these overall results, a diagram of the process has been proposed and its application with an appropriate formulation could allow to meet the technical objective of this work
Style APA, Harvard, Vancouver, ISO itp.
4

Fatemi-Sadr, Mohammad. "Etude des phénomènes physiques et chimiques impliqués dans les traitements de pyrovalorisation de minerais sulfurés complexes". Dijon, 1986. http://www.theses.fr/1986DIJOS064.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Lambs, Luc. "Etudes sur la speciation des tetracyclines dans le plasma sanguin et determination des structures de leurs complexes metalliques predominants : influence sur la biodisponibilite de ces drogues". Toulouse 3, 1988. http://www.theses.fr/1988TOU30149.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
6

Fiallo, Maria Lorenzo. "Une Nouvelle classe d'antitumoraux : les complexes metal-anthracyclines, synthèse, caractéristiques physicochimiques et propriétés tumorales". Paris 13, 1986. http://www.theses.fr/1986PA132003.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

Boitte, Jean-Baptiste. "Contribution à l’étude de systèmes divisés alimentaires par observation de microstructures au cours de traitements thermo-mécaniques". Thesis, Paris, AgroParisTech, 2012. http://www.theses.fr/2012AGPT0064/document.

Pełny tekst źródła
Streszczenie:
Pour mettre en relation les propriétés rhéologiques et la structure méso/microscopique d'un système modèle ou complexe, l'utilisation de la rhéo-optique est indispensable. Nous avons donc développé une cellule d'observation sous cisaillement adaptée à la microscopie confocale. Ce dispositif, breveté et nommé RheOptiCAD®, permet le cisaillement contrôlé d'un échantillon quelconque placé entre 2 plans parallèles en translation. Grâce à un système à dépression, la mise en place de l'échantillon est simple et rapide tout en assurant des propriétés optiques répétables et reproductibles (planéité, parallélisme). Par ailleurs, la température au sein de l'échantillon peut être régulée de façon à imposer une contrainte thermique, cause de nombreuses modifications de la mésostructure d'un système alimentaire. La cellule d'observation sous cisaillement permet donc de suivre l'évolution et la dynamique des changements de structures conséquences d'un traitement thermo-mécanique imposé. Un logiciel de pilotage et d'acquisition des données a été développé pour rendre son utilisation plus conviviale. La validation du fonctionnement de l'outil et de ses fonctionnalités a tout d'abord été réalisée sans échantillon puis à l'aide d'un système modèle contenant des particules fluorescentes dont le mouvement était suivi. Par la suite, dans le but de tester les potentialités de ce nouvel outil tout en développant la méthodologie de son utilisation, et en particulier l'équilibre entre propriétés optiques et mécaniques des échantillons, nous avons travaillé avec de la pâte de farine. Ce système alimentaire bien connu et maîtrisé d'un point de vue rhéologique au laboratoire présente des caractéristiques intéressantes dans ce cadre. L'évolution du réseau de gluten au cours d'un cisaillement oscillatoire en fonction de la formulation de la pâte a été étudiée. Grâce à une analyse d'image basée sur la morphologie mathématique, nous avons pu mettre en évidence des changements de structures au cours du temps. De même, à l'aide des capacités thermiques de la cellule de cisaillement, nous avons étudié le positionnement et le mouvement des lipides endogènes à l'interface air-protéine lors de la fermentation. Notre cellule d'observation sous cisaillement constitue donc un nouvel outil de caractérisation dynamique de systèmes complexes couplant rhéologie et microscopie. Son optimisation principale réside dans la mise en place d'un capteur de force, mesurant les contraintes mises en jeu lors des déformations imposées
Rheo-optic is a recent technique which can be used to create links between rheological properties and meso/microsctructures of model or complex (food) systems. A novel rheo-optical shearing device was designed for studying this relationships within complex food systems. The device has been build to be adapted on an inverted confocal microscope. Specifications of the shear cell are: a) a controlled translational shear between 2 parallel plates with three different motion modes (continuous, oscillatory, strain jump); b) a thermal control; and c) an observation on an inverted confocal microscope. Due to a vacuum system, the set up of an experiment is easy and fast ensuring reproducible optical properties (planarity, parallelism). Temperature, responsible of numerous modifications of structures in a food matrix, is also controlled. A piloting software allows an easy use of the shear cell. Validation of the motion modes has been carried out using a microgel, containing fluorescent probes (spheres) and tracking some of the particles. Next, in order to test and develop methods of observation under shear, taking into account the optical-mechanical balance, bread dough observation has been performed. Well known and described in the lab, bread dough is a dispersion of air bubbles and starch granules in a gluten network. Evolution on this gluten network depending on the formulation of the bread dough has been studied under oscillatory shearing. The composition effect on the microstructure and its evolution were observed and will be commented. Image analysis based on grayscale mathematical morphology has been carried out in order to try to quantify the rheological properties and microstructures. Finally, by a controlled increase of temperature, the growth of an air bubble in bread dough containing yeast was followed during proofing. The influence and the disposition of fat globules at the bubble air-protein interface along this growing process were followed. Thanks to the rheo-optical device, images of microstructures obtained under controlled shear are compared to their rheological behaviour
Style APA, Harvard, Vancouver, ISO itp.
8

Barraud, Claire. "Impact des stratégies de post-traitements sur la génotoxicité des aérosols complexes émis par les moteurs diesel utilisant des carburants biosourcés". Caen, 2015. http://www.theses.fr/2015CAEN4009.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse a pour but d’évaluer la génotoxicité des aérosols complexes issus de moteurs diesel ainsi que l'impact des nouveaux carburants réglementés (esters méthyliques du colza, emc) et des stratégies de post-traitements (catalyseurs d’oxydation et filtres à particules) des motorisations actuelles. Un dispositif original d’exposition des divers modèles biologiques, directement aux flux d’aérosols, a été utilisé en comparaison avec les méthodes classiques d’exposition en phase liquide. Il permet d'observer les effets de l'aérosol dans sa globalité, de manière à mimer des conditions plus réalistes. Ce modèle d'exposition « on line » apporte une vision novatrice de la génotoxicité et de la mutagénicité des émissions de moteurs diesel, mettant en avant la contribution significative de la phase gazeuse. En contraste, l’implication de la phase particulaire serait beaucoup plus limitée. Les systèmes de dépollution entrainent une diminution très significative des effets mutagènes et génotoxiques de la phase particulaire. Le protocole « on line » a permis de montrer qu’une génotoxicité et une mutagénicité limitées mais significatives restaient associées à la phase gazeuse. Concernant les biocarburants, la phase particulaire apparaît globalement plus génotoxique et mutagène que celle issue du gazole standard. Toutefois, l’aérosol complet étudié avec le protocole « on line » révèle un potentiel pro-oxydant plus faible de ces biocarburants. Dans tous les cas, les différences entre carburants sont fortement réduites, voire abolies, par les systèmes de dépollution
The goal of this thesis was the mutagenicity and genotoxicity assessment of whole exhausts issued from diesel engine together with the impact of new biodiesel fuels supplemented with rapeseed methyl ester (rmc) and the impact of aftertreatment devices (diesel oxidation catalyst and particulate filter). An original exposure device was used on various biological models, exposed directly under a continuous flow of exhaust (on line exposure), and compared with more classical exposure to resuspended particles (off line exposure) in liquid phase. On line exposure device is thought to be more realistic. This on line exposure model provides an innovative tool for the study of genotoxicity and mutagenicity of diesel exhausts, underlining the significant contribution of the gaseous phase. In contrast, particles implication seems to be by far more limited. Aftertreatment devices induce a very significant reduction of mutagenic and genotoxic effects of the particulate matter. On line protocol showed a limited but significant remaining genotoxicity and mutagenicity associated with the gaseous phase. Concerning biofuels, particulate matter is more genotoxic and mutagenic than that issued from standard gasoil. However, on line exposure to the whole aerosol reveals the lower pro-oxidant potential of biofuels. In all cases, the differences between fuels are dramatically reduced, or abolished, by the aftertreatment devices
Style APA, Harvard, Vancouver, ISO itp.
9

Boitte, Jean-Baptiste. "Contribution à l'étude de systèmes divisés alimentaires par observation de microstructures au cours de traitements thermo-mécaniques". Phd thesis, AgroParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-01059705.

Pełny tekst źródła
Streszczenie:
Pour mettre en relation les propriétés rhéologiques et la structure méso/microscopique d'un système modèle ou complexe, l'utilisation de la rhéo-optique est indispensable. Nous avons donc développé une cellule d'observation sous cisaillement adaptée à la microscopie confocale. Ce dispositif, breveté et nommé RheOptiCAD®, permet le cisaillement contrôlé d'un échantillon quelconque placé entre 2 plans parallèles en translation. Grâce à un système à dépression, la mise en place de l'échantillon est simple et rapide tout en assurant des propriétés optiques répétables et reproductibles (planéité, parallélisme). Par ailleurs, la température au sein de l'échantillon peut être régulée de façon à imposer une contrainte thermique, cause de nombreuses modifications de la mésostructure d'un système alimentaire. La cellule d'observation sous cisaillement permet donc de suivre l'évolution et la dynamique des changements de structures conséquences d'un traitement thermo-mécanique imposé. Un logiciel de pilotage et d'acquisition des données a été développé pour rendre son utilisation plus conviviale. La validation du fonctionnement de l'outil et de ses fonctionnalités a tout d'abord été réalisée sans échantillon puis à l'aide d'un système modèle contenant des particules fluorescentes dont le mouvement était suivi. Par la suite, dans le but de tester les potentialités de ce nouvel outil tout en développant la méthodologie de son utilisation, et en particulier l'équilibre entre propriétés optiques et mécaniques des échantillons, nous avons travaillé avec de la pâte de farine. Ce système alimentaire bien connu et maîtrisé d'un point de vue rhéologique au laboratoire présente des caractéristiques intéressantes dans ce cadre. L'évolution du réseau de gluten au cours d'un cisaillement oscillatoire en fonction de la formulation de la pâte a été étudiée. Grâce à une analyse d'image basée sur la morphologie mathématique, nous avons pu mettre en évidence des changements de structures au cours du temps. De même, à l'aide des capacités thermiques de la cellule de cisaillement, nous avons étudié le positionnement et le mouvement des lipides endogènes à l'interface air-protéine lors de la fermentation. Notre cellule d'observation sous cisaillement constitue donc un nouvel outil de caractérisation dynamique de systèmes complexes couplant rhéologie et microscopie. Son optimisation principale réside dans la mise en place d'un capteur de force, mesurant les contraintes mises en jeu lors des déformations imposées.
Style APA, Harvard, Vancouver, ISO itp.
10

Khaiwal, Sakshi. "Prédire le paysage phénotypique naturel de la levure par machine learning". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ6003.

Pełny tekst źródła
Streszczenie:
L'étude des caractères complexes des organismes joue un rôle important dans divers domaines, notamment en biologie évolutive, en médecine, ou encore en agriculture. La compréhension des facteurs génétiques impliqués dans le contrôle de ces caractéristiques peut ainsi être d'une grande importance. Notamment, la plupart des caractéristiques liées aux maladies sont complexes et l'identification de nouvelles cibles médicamenteuses peut conduire à des méthodes de traitement nouvelles et améliorées. De même, en agriculture, l'identification de loci génétiques associés à des caractéristiques intéressantes, telles que le rendement, l'adaptabilité et la résistance, peut contribuer à améliorer la productivité et la qualité des cultures. De plus, la variation génétique présente au niveau de la population peut grandement contribuer à la variance des caractères phénotypiques qui eux aussi peuvent être de grande importance. Dans cette thèse, nous étudions la variation au niveau de la population de plus de 200 caractères complexes dans une collection naturelle de Saccharomyces cerevisiae comprenant 1011 souches. L'étude peut être divisée en trois parties principales. Dans la première partie, nous décrivons les modèles de corrélation globale entre les 223 phénotypes, en mettant en évidence certaines corrélations inattendues entre des phénotypes non apparentés. En outre, nous avons quantifié la corrélation entre les distances génétiques et phénotypiques des souches et ses variations entre les différents clades. Dans la deuxième partie, nous identifions les marqueurs génétiques associés aux 223 phénotypes à l'aide d'études d'association à l'échelle du génome (GWAS). Nous avons pu ainsi confirmer que les modèles observés au niveau du phénome de la population se reflétaient au niveau génomique, un plus grand nombre de variants génétiques significativement associés étant partagés entre les phénotypes les plus corrélés et vice versa. Enfin, la dernière partie est consacrée à la prédiction du phénome à partir de diverses données génomiques et phénomiques. Nous avons développé une ``pipeline" d'apprentissage automatique (GenPhen) qui met en œuvre l'automatisation du processus d'optimisation que ça soit des paramètres ou des hyperparamètres du modèle afin d'obtenir le modèle le plus proche des phénotypes individuels. En outre, la pipeline intègre quatre méthodes d'apprentissage automatique linéaires et non linéaires. Nous fournissons une comparaison de la capacité des différents modèles pour la prédiction des phénotypes avec différents types de prédicteurs en entrée, y compris le pangénome, les polymorphismes de nucléotides simples (SNP), la transcriptomique, la protéomique, etc.Enfin, nous avons mis en œuvre des modèles d'apprentissage automatique multicibles capables de prédire l'ensemble du phénome avec une précision globale comparable à celle des prédictions de phénotypes individuels. Dans l'ensemble, nous avons montré que les prédictions varient fortement en fonction du phénotype et que la plupart des caractères sont fortement polygéniques, c'est-à-dire qu'ils sont contrôlés par un grand nombre de facteurs génétiques ayant des effets très faibles. De manière générale, notre étude donne un aperçu de l'utilité des différentes méthodes d'apprentissage automatique pour la prédiction des phénotypes complexes, elle permet aussi la comparaison de différents types de prédicteurs pour la hiérarchisation des données expérimentales requises pour les prédictions. De plus, elle permet l'interprétation des modèles d'apprentissage automatique pour comprendre les mécanismes biologiques sous-jacents qui contrôlent les caractères
The study of complex traits is of central importance in various fields, including evolutionary biology, medicine, agriculture, etc. Understanding the genetic factors involved in controlling these traits can be of paramount significance. For example, most diseases-related traits are complex, and unraveling novel drug targets can lead to new and improved treatment methods. Similarly, in agriculture, the identification of genetic loci associated with traits of interest, such as yield, adaptability, and resistance, can help improve crop productivity and quality. The genetic variation present at the population level can greatly contribute to the variance in phenotypic traits. In this thesis, we study the population-level variation in more than 200 complex traits in a natural Saccharomyces cerevisiae collection comprising of 1,011 strains. The study can be divided into three main parts. In the first part, we describe the global correlation patterns among all 223 phenotypes, highlighting some unexpected correlations between unrelated phenotypes. Furthermore, we quantified the correlation between the genetic and phenotypic distances of the strains and its variations between the different clades. In the second part, we identify genetic markers associated with the 223 phenotypes using genome-wide association studies (GWAS). Moreover, we confirmed that the patterns observed at the phenome level of the population were reflected at the genomic level, with a higher number of significantly associated genetic variants being shared between the more correlated phenotypes and vice versa. Finally, the last part is focused on predicting the phenome from various genomic and phenomic data. We developed a machine learning pipeline (GenPhen) that implements the automatization of the hyperparameters optimization process during model learning to obtain the most optimized model for individual phenotypes. In addition, the pipeline can be used to implement four ML methods capable of learning linear to highly non-linear models. We provide a comparison of the ability of the different ML models to predict phenotypes and also different kinds of input predictors including the pangenome, Single Nucleotide Polymorphisms (SNPs), transcriptomic, proteomics, etc. Finally, we implemented multitarget machine learning models that can predict the entire phenome with overall accuracy comparable to that of individual phenotype predictions. Overall, we showed that predictions vary highly depending on the phenotype and that most of the traits were highly polygenic, i.e., they are controlled by a large number of genetic factors with very small effects. In general, our study provides insight into the usefulness of different machine learning methods for predicting complex phenotypes, comparison of different types of predictors for the prioritization of the experimental data required for predictions, and interpretation of ML models to understand the underlying biological mechanisms controlling a trait
Style APA, Harvard, Vancouver, ISO itp.
11

Maxime, Dominique. "Vers des procédés de salage-séchage plus sobres et moins polluants. Traitements et recyclage des saumures complexes de déshydratation-imprégnation de produits de la mer". Massy, ENSIA, 2002. http://www.theses.fr/2002EIAA0119.

Pełny tekst źródła
Streszczenie:
Dans un contexte environnemental défavorable aux effluents salins, le nouveau procédé de Déshydratation - Imprégnation par Douchage (DID) est une solution pour une production plus sobre et plus propre dans les industries de la salaison de produits de la mer. Nous présentons l'analyse d'une première ligne industrielle de DID de harengs par une saumure complexe (eau, sel à saturation, sirop de glucose DE21) à 14ʿ. Pour la partie douchage des produits, des améliorations sont présentées pour un fonctionnement minimisant les consommations de fluides et les pertes en ligne. Une grande partie de l'étude porte sur l'optimisation du poste de recyclage de la solution concentrée, problématique par sa viscosité et sa teneur en MES fines et colmatantes, en étudiant diverses techniques séparatives. Une régénération quotidienne est souhaitable pour le fonctionnement optimal du couplage des opérations suivantes à la température du process : précipitation acide, décantation en deux phases, filtration séquentielle de chacune sur filtre rotatif sous vide à précouche raclée dans des conditions maximisant les flux et réduisant les consommation en adjuvant, neutralisation et standardisation des concentrations. Enfin, nous élargissons notre discussion et proposons un guide de choix de techniques séparatives pour le recyclage de diverses saumures, binaires ou tertiaires, de salage-séchage de produits carnés, en fonction du procédé dont elles proviennent et de différentes variables industrielles. Pour une meilleure gestion des solutions salines concentrées des IAA et des procédés de salaisonnerie plus propres.
Style APA, Harvard, Vancouver, ISO itp.
12

Provent, Christophe. "Vers des modèles biomimétiques de métalloenzymes antioxydantes". Université Joseph Fourier (Grenoble), 1996. http://www.theses.fr/1996GRE10048.

Pełny tekst źródła
Streszczenie:
La preparation de complexes metalliques, modeles des sites actifs de la superoxyde dismutase ou de la catalase, est un enjeu important dans le domaine des therapeutiques antioxydantes. Dans cette optique, differentes series de ligands, de structures ouvertes, macrocycliques ou macrobicycliques, ont ete synthetisees et leurs complexes du cuivre (ii) ou du fer (iii) ont ete etudies. Dans une premiere partie, la complexation du cu(ii) par onze ligands macrocycliques ou a chaine ouverte, a quatre sites de coordination azotes ou soufres (n#2s#2, n#3s), a ete etudiee par differentes methodes spectroscopiques (uv-visible, rpe) et des mesures electrochimiques ont ete effectuees. L'influence de la taille des cycles chelatants et de la nature des atomes donneurs sur le potentiel redox et sur la geometrie des complexes a ainsi ete mise en evidence. Certains complexes soufres possedent une bonne activite sod in vitro, mais la perdent en presence de serumalbumine. Dans une seconde partie, les strategies de preparation de modeles synthetiques non porphyriniques de catalase, pouvant complexer le fer soit sous forme d'acetylacetonates, soit sous forme de macrobicycles tetrazazote, sont decrites. De nombreuses syntheses originales ont ete realisees: protection-deprotection de 1,3-dicetones, double condensation de reactifs de wittig fonctionnalises, essais de macrobicyclisation avec ni#2#+ comme gabarit. Une serie de cinq complexes fe(iii)-bisacac a ete identifiee par spectrometrie de masse (fab) et leur stoechiometrie verifiee par spectrophotometrie uv-visible. Leur formation en absence de base semble la plus favorable pour l'obtention de complexes mononucleaires. L'activite catalase de ces complexes s'est averee assez faible
Style APA, Harvard, Vancouver, ISO itp.
13

Feng, Dan. "Traitements d'effluents complexes et de polluants emergeants par couplage d'un procédé d'OVH et d'un procédé biologique Treatment technologies and degradation pathways of glyphosate: A critical review". Thesis, Ecole centrale de Marseille, 2019. http://www.theses.fr/2019ECDM0010.

Pełny tekst źródła
Streszczenie:
Le couplage d’une oxydation en voie humide (OVH) et d’un traitement biologique a été étudié pour traiter les eaux usées (industrielles) contenant du glyphosate, un herbicide largement utilisé dans le monde. Afin d'évaluer les performances du procédé couplé, les performances de l’OVH seule puis du procédé biologique de traitement des eaux usées contenant du glyphosate ont été examinées. Tout d'abord, des expériences ont été menées pour évaluer l'hydrodynamique des bulles dans une colonne à bulles dans les conditions de l’OVH, afin de prédire le transfert de masse et de faciliter l’extrapolation du procédé. Deuxièmement, une étude cinétique a été réalisée pour déterminer les paramètres cinétiques de l'oxydation du glyphosate par le procédé OVH et une voie d'oxydation possible a été proposée. De plus, un dispositif microfluidique a été utilisé dans le procédé OVH pour traiter en continu les eaux usées contenant du glyphosate dans un système compact et efficace. En outre, afin d'améliorer la biodégradation du glyphosate par les boues activées, un processus d'acclimatation a été étudié et la cinétique de biodégradation du glyphosate par des boues activées acclimatées a été étudiée, ainsi que son éventuelle voie de biodégradation. Enfin, les effluents préoxydés ont ensuite été traités par les boues activées acclimatées afin de conclure à la faisabilité du procédé couplé
Coupling wet air oxidation (WAO) and biological treatment has been studied to treat (industrial) wastewater containing glyphosate, a most widely used herbicide in the world. In order to evaluate the performance of the combined process, the performance of the individual WAO process and biological process to treat glyphosate-containing wastewater have been investigated. First of all, some experiments have been conducted to evaluate bubble hydrodynamic in a bubble column under WAO conditions in order to predict mass transfer and scale-up WAO process. Secondly, a kinetic study has been done to determine the kinetic parameters of glyphosate oxidation by WAO process and a possible oxidation pathway has been proposed. As well, a microfluidic device was used for WAO process to continuously treat glyphosate-containing wastewater in a compact and efficient process. Furthermore, in order to improve the glyphosate biodegradation by activated sludge, an acclimation process has been studies and glyphosate biodegradation kinetics by acclimated activated sludge have been investigated, as well as its possible biodegradation pathway. Finally, the pre-oxidized effluent was further treated by the acclimated activated sludge in order to conclude on the feasibility of the coupled process
Style APA, Harvard, Vancouver, ISO itp.
14

Belhadj-Tahar, Abdel Hafid. "Complexes du technétium-99 et du rhénium avec de nouveaux ligands polydentates dérivés de l'acide dithiocarboxylique : développement de radiopharmaceutiques oxo et nitrurotechnétiés pour l'évaluation des débits sanguins régionaux". Université Joseph Fourier (Grenoble), 1996. http://www.theses.fr/1996GRE10001.

Pełny tekst źródła
Streszczenie:
Les travaux presentes dans ce memoire s'inserent dans un projet pluridisciplinaire (chimie de coordination, radiochimie et medecine) visant a la mise au point de nouveaux radiopharmaceutiques oxo- et nitruro-techneties utilisables pour l'evaluation des debits sanguins locaux. Dans la premiere partie, l'auteur rend compte de la synthese et la caracterisation de nouveaux ligands vecteurs polydentes derivant de l'acide aminocyclopentene-dithiocarboxylique et susceptibles d'offrir au metal differentes combinaisons de sites donneurs s#mn#no#o. Dans la deuxieme partie sont decrites les protocoles de marquage de ces ligands par des curs oxo et nitruro renfermant l'isotope technetium-99m. La structure de certains des complexes obtenus a pu etre confirmee par comparaison a celle de complexes homologues du rhenium et du technetium-99 (a periode longue). Ces chelates ont montre une stabilite remarquable dans les conditions physiologiques et une liposolubilite convenable pour permettre une extraction facile et une bonne diffusion tissulaire. La troisieme partie rend compte des etudes de biodistribution realisees chez le rat. Il apparait que d'une maniere generale les complexes neutres nitruro presentent un bon taux de fixation sur le cur alors que ceux ayant un caractere acido-basique se fixent selectivement sur les reins. La contribution des differents facteurs (lipophilie, fixation sur les proteines et globulaire) conditionnant la biodistribution est evaluee et discutee dans la derniere partie
Style APA, Harvard, Vancouver, ISO itp.
15

Rahmouni, Abderrahim. "Reaction de la drogue antitumorale, le cis-dichlorodiammineplatine (ii) avec l'acide desoxyribonucleique : etude des complexes interbrins". Orléans, 1987. http://www.theses.fr/1987ORLE2047.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
16

Ségal-Bendirdjian, Evelyne. "La diadénosine 5', 5'''-P(1),P(4)-tétraphosphate : étude de sa réaction avec une drogue antitumorale, le cisplatine, détermination de sa concentration dans des cellules soumises à divers traitements". Paris 6, 1986. http://www.theses.fr/1986PA066491.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
17

Füllgrabe, Christian. "Traitement auditif d'enveloppes temporelles complexes". Paris 5, 2004. http://www.theses.fr/2004PA05H049.

Pełny tekst źródła
Streszczenie:
Des données psychophysique récentes suggèrent que le système auditif est capable de percevoir des "battements d'enveloppe" au sein de signaux sonores obtenus en additionnant plusieurs modulations d'amplitude (AM) sinusoïdales. Cette capacité est difficilement explicable à partir des modèles traditionnels de traitement d'enveloppe. Le but de cette recherche consistait à clarifier les mécanismes impliqués dans cette capacité à l'aide de mesures psychophysiques de détection, discrimination et identification de différentes catégories de signaux (e. G. Modulation de la profondeur ou de la fréquence d'une AM - respectivement dénommés AM du 2e ordre ou FM d'AM, enveloppes temporelles de signaux de parole). Ces mesures étaient réalisées sur différentes populations de sujets entands et malentendants. Globalement, les résultats obtenus indiquent que : 1) ces informations de battements sot perceptivement saillantes, 2) difféents méchanismes linéaires (filtrage cochléaire) et non-linéaire post-cochléaire interviennent dans la reconversion de ces informations de battement sous la forme d'une AM simple en sortie des filtres cochléaires ou d'un produit de sitorsion d'enveloppe, 3) un mécanisme de filtrage séléctif d'enveloppe semble compatible avec l'observation des effets d'interférence perceptive observés entre FM d'AM et AM du 2eme ordre. , 4) l'existence d'autres mécanismes non linéaires centraux et postérieurs à l'étape de filtrage d'enveloppe doit être postulée afin de rendre compte des capacités d'estimation de la cadence du battement d'enveloppe , 5)les battements d'enveloppe n'interfèrent pas avec le traitement des AM de signaux de parole. Pris ensemble, ces résultats suggèrent qu'un modèle complet de traitement d'enveloppe doit à la fois inclure des mécanismes non linéaires situés avant et après extraction de l'enveloppe temporelle des sons par un banc de filtres de modulation
Recent
Style APA, Harvard, Vancouver, ISO itp.
18

Nuchadee, Marie-Laure Joëlle. "Compétences verbales et troubles du spectre autistique : effets de différents traitements sur l’acquisition de compétences verbales chez les enfants avec TSA et acquisition d’analogues de compétences verbales « complexes » chez les personnes au développement typique et chez les personnes atteintes de TSA". Thesis, Lille 3, 2014. http://www.theses.fr/2014LIL30004.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse cherchait à étudier les compétences verbales chez les individus atteints de Troubles du Spectre Autistique, en se concentrant en particulier sur l'impact du traitement sur le développement de ces compétences, ainsi que sur l‘explication comportementale de la grammaire générative. Notre première étude comparait l'effet du traitement comportemental et du traitement pluridisciplinaire sur les aptitudes verbales des enfants avec TSA en milieu naturel. Les effets du traitement ont été évalués par l'analyse de résultats à des tests standardisés évaluant le vocabulaire commun, le vocabulaire spatial, la syntaxe et le raisonnement non – verbal, et en comparant le nombre d'enfants qui avaient intégré dans le milieu ordinaire (sans aménagement particulier). Les participants avec les meilleurs scores aux tests standardisés et dont les vitesses d'apprentissage atteignent ou dépassent la norme appartenaient au groupe ayant bénéficié d‘un traitement comportemental intensif précoce. C'est aussi dans ce groupe que se trouvait le plus fort pourcentage de participants ayant intégré le milieu ordinaire sans soutien particulier. Nous avons également exploré la façon dont les caractéristiques des enfants pourraient influencer l‘effet du traitement. Nos résultats indiquent que l'âge de début de traitement avait un effet que sur les vitesses d'apprentissage des compétences verbales et cela uniquement pour les participants ayant bénéficié d‘un traitement comportemental intensif. Nous avons aussi exploré la possibilité d'une relation entre la sévérité des symptômes à l'âge de 4-5 ans et les vitesses d'apprentissage et la sévérité des symptômes après environ 4ans de traitement comportemental intensif. L'analyse des données révèle que la gravité des symptômes à l'âge de 4 à 5 ans seraient prédictifs de la sévérité des symptômes qui seraient observés quelques années plus tard. Enfin, nous avons effectué un suivi et comparé les vitesses d'apprentissage après en moyenne 2 ans et après en moyenne 4 ans de traitement comportemental intensif. Une variabilité importante a été observée dans l'évolution des taux d'apprentissage d'un participant à un autre. Enfin, afin de mieux appréhender cette hétérogénéité, nous avons étudié la vitesse d'acquisition des compétences d'enfants avec TSA ayant bénéficié d‘un traitement comportemental intensif pendant en moyenne 4 ans. L'analyse des courbes d'apprentissage indique qu'il y aurait deux types d'apprenants ; des apprenants rapides et des apprenants lents, et cela in dépendamment de l'âge de début de traitement. Notre étude comparative a montré que si le traitement comportemental intensif résultait en des gains plus importants au niveau des aptitudes verbales des enfants atteints de TSA que le traitement multidisciplinaire, toutes les compétences verbales n‘étaient pas affectés de la même manière . En effet, les améliorations au niveau du vocabulaire sont plus importantes que celles observées pour la grammaire. Nous nous sommes attachés dans la deuxième partie de cette thèse à tenter d‘appréhender ces compétences grammaticales dans le cadre comportemental au sein d‘une population avec et sans troubles autistiques. Pour ce faire, nous avons utilisé des consignes réduites au strict minimum, des procédures d‘apprentissage des séquences et de Matching to Sample afin d‘apprendre aux participants à répondre à des stimuli. Ces réponses à ces stimuli étaient considérés comme analogues à certaines de compétences verbales complexes, notamment les relations syntaxiques, et les classes de mots (par exemple, les noms, les adjectifs, les verbes)
The current thesis aimed at investigating verbal skills in individuals with ASD, focusing in particular on the impact of treatment on the development of these skills, as well as attempting to contribute to a more complete behavior analytic explanation of complex generative language.Our first study aimed at comparing the effect of behavioral treatment and multi disciplinary treatment on the verbal skills of children on the autism spectrum in natural settings. Treatment outcome was assessed by analyzing the results to standardized tests evaluating common vocabulary, spatial vocabulary, syntax and non-verbal reasoning and by comparing the number of children who had been mainstreamed into regular classrooms without the help of an aide. Participants with the best test scores on the standardized tests and whose learning rates reached or exceeded normal learning rates of language skills belonged to the group that received early intensive behavioral treatment. It is also in this group that we find the highest percentage of participants who were mainstreamed without special support. We also set to explore how child variables could influence treatment outcome. Our results indicated that age of intake had an effect only on the learning rates of verbal skills and that only for participants who received intensive behavioral treatment. In addition, we explored the possibility of a relation between the severity of symptoms at the age of 4-5 years and the learning rates and the severity of symptoms after approximately 4 years of intensive behavioral treatment. Data analysis revealed that severity of symptoms impairing the development and interfering communication at the age of 4 to 5 years were predictive of the severity of the symptoms that would be observed a few years later. We also conducted a follow up and compared the learning rates after on average of 2 years of intensive behavioral treatment and after on average 4 years of treatment. Significant variability was observed in the evolution in learning rates from one participant to another. Finally, in an attempt to better understand this heterogeneity, we studied the rate of skill acquisition over a 4-year period of children on the autism spectrum who received intensive behavioral treatment. The analysis of the learning curves indicated that there were two types of learners, fast learners and slow learners and that, regardless of age of onset of treatment.Our comparative study showed that whilst intensive behavioral treatment resulted in more important gains in the verbal skills of children with ASD than multi disciplinary treatment, all verbal skills were not affected in the same way. Indeed the gains in vocabulary were more important than the ones in grammar. We thus set in the second part of this thesis to conduct a behavioral analysis of the development of complex verbal skills in the typically developing population but also in the population on the autism spectrum. We used minimal verbal instructions, and matching to sample and sequence training procedures to develop responding to stimulus classes. These were considered analogous to complex verbal skills, namely syntactic relations and classes of verbs, nouns or adjectives
Style APA, Harvard, Vancouver, ISO itp.
19

Atnafu, Besufekad Solomon. "Modélisation et traitement de requêtes images complexes". Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0032/these.pdf.

Pełny tekst źródła
Streszczenie:
La recherche d'images par le contenu est d'une importance croissante dans de nombreux domaines d'application. Pour cette raison, il existe des numerus recherche dans les deux domaines : DBMS et reconnaissance de formes. Mais, la plupart des systèmes existants ont, en particulier, le défaut de n'offrir aucun cadre formel pour les requêtes dites hybrides. Or, disposer d'un cadre formel bien fondé est très important pour traiter efficacement de telles requêtes. Dans cette thèse, nous présenterons un modèle de représentation de données images à même de permettre de formuler des requêtes multicritères. Fondés sur ce modèle, on a développé une algèbre fondée sur le continue des images et présenté les propriétés des opérateurs. Des heuristiques d'optimisation de requêtes seront ensuite étudiées. Afin de valider expérimentalement la faisabilité et la pertinence des concepts et techniques introduits, nous avons implémenté un prototype de système de gestion d'images médicales appelé EMIMS
Querying images by their contents is of increasing importance in many application domains. For this reason, many researches are conducted in the two fields: DBMS and pattern recognition. But, the majority of the existing systems do not offer any formal framework to integrate the techniques in the two fields for effective multi-criteria queries on images. However, having a formal framework is necessary if one intends to treat such types of image queries effectively. In this thesis, we present image data repository models that allow to formulate multi-criteria queries. Then, based on this model, we introduced a similarity-based algebra that enables to formulate similarity-based queries and multi-criteria queries effectively and presented properties of the operators. We also presented techniques for similarity-based query optimization. We then developed a prototype called EMIMS (Extended Medical Image Management System) to show that our proposals in practical applications
Style APA, Harvard, Vancouver, ISO itp.
20

Atnafu, Besufekad Solomon Brunie Lionel. "Modélisation et traitement de requêtes images complexes". Villeurbanne : Doc'INSA, 2004. http://docinsa.insa-lyon.fr/these/pont.php?id=atnafu_besufekad.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
21

Trainini, Tual. "Décompositions conjointes de matrices complexes : application à la séparation de sources". Phd thesis, Toulon, 2012. http://tel.archives-ouvertes.fr/tel-00798019.

Pełny tekst źródła
Streszczenie:
Cette thèse traite de l'étude de méthodes de diagonalisation conjointe de matrices complexes, en vue de la séparation de sources, que ce soit dans le domaine des télécommunications numériques ou de la radioastronomie. Après avoir présenté les motivations qui ont poussé cette étude, nous faisons un bref état de l'art dans le domaine. Le problème de la diagonalisation conjointe, ainsi que celui de la séparation de source sont rappelés, et un lien entre ces deux sujets est établi. Par la suite, plusieurs algorithmes itératifs sont développés. Dans un premier temps, des méthodes utilisant une mise à jour de la matrice de séparation, de type gradient, sont présentées. Elles sont basées sur des approximations judicieuses du critère considéré. Afin d'améliorer la vitesse de convergence, une méthode utilisant un calcul du pas optimal est présentée, et plusieurs variantes de ce calcul, basées sur les approximations faites précédemment, sont développées. Deux autres approches sont ensuite introduites. La première détermine la matrice de séparation de manière analytique, en calculant algébriquement les termes composant la matrice de mise à jour par paire à partir d'un système d'équations linéaire. La deuxième estime récursivement la matrice de mélange, en se basant sur une méthode de moindres carrés alternés. Afin d'améliorer la vitesse de convergence, une recherche de pas d'adaptation linéaire est proposée. Ces méthodes sont alors validées sur un problème de diagonalisation conjointe classique. Puis les algorithmes sont appliqués à la séparation de sources de signaux de télécommunication numérique, en utilisant des statistiques d'ordre deux ou supérieur. Des comparaisons sont également effectuées avec des méthodes standards. La deuxième application concerne l'élimination des interférences terrestres à partir de l'estimation de l'espace associé, afin d'observer au mieux des sources cosmiques, issues de données de station LOFAR.
Style APA, Harvard, Vancouver, ISO itp.
22

Diab, Roudayna. "Vectorisation des analogues de nucléosides pour le traitement des métastases". Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00591984.

Pełny tekst źródła
Streszczenie:
Les analogues de nucléosides (AN), sont des agents importants dans le traitement d'hémopathies malignes et de certaines tumeurs solides. Le catabolisme rapide, la résistance cellulaire au traitement et le grand volume de distribution dans le corps limitent potentiellement l'efficacité thérapeutique des AN. Notre objectif est de concevoir un vecteur permettant un ciblage de ces molécules vers les tissus cancéreux, assurant son internalisation cellulaire et sa protection dans les milieux biologiques. Trois types de vecteurs de taille micronique, submicronique et moléculaire ont été élaborés et caractérisés : microparticules polymériques à base de poly(ε-caprolactone) (PCL), liposomes multilamellaires et complexes d'inclusion de la prodrogue de la cytarabine (Ara-C), qui est active sur certaines lignées cellulaires résistantes à l'Ara-C, l'AraC-SATE (bis(tbutyl-S-acyl-2-thioethyl)-cytidine monophosphate).Les microparticules ont été préparées par la méthode de " double émulsion - évaporation de solvant " en utilisant comme surfactants des copolymères amphiphiles composés de blocs biodégradables de PCL et de blocs bio-éliminables de polyéthylène glycol (PEG). Une série de copolymères mPEG-PCL avec des blocs PCL de différents poids moléculaires a été synthétisée et l'effet de la longueur de chaînes de PCL sur les caractéristiques physico-chimiques des particules a été étudié. Une efficacité d'encapsulation satisfaisante a pu être obtenue, qui a été dix fois plus importante que celle des microparticules à base de PCL seul. Les liposomes ont été préparés par la méthode d'injection d'éthanol. Une étude de formulation a été réalisée afin de sélectionner la formule permettant d'obtenir la meilleure efficacité d'encapsulation. Le test d'internalisation cellulaire et du comportement aérodynamique des liposomes nébulisés ont montré la pertinence des liposomes élaborés pour le ciblage des cellules pulmonaires qui pourrait être d'un grand intérêt pour le traitement des métastases au niveau des poumons.L'encapsulation moléculaire de l'AraC-SATE dans l'hydroxyporpyl-β-cyclodextrine a été réalisée pour augmenter la solubilité apparente de la prodrogue. L'évaluation des complexes sur des cultures de cellules leucémiques murines a montré une activité cytotoxique comparable à celle de la prodrogue indiquant que l'inclusion moléculaire ne modifie pas l'activité biologique de la prodrogue.
Style APA, Harvard, Vancouver, ISO itp.
23

Gamallo, Otero Pablo. "Construction conceptuelle d'expressions complexes : traitement de la combinaison "nom-adjectif"". Clermont-Ferrand 2, 1998. http://www.theses.fr/1998CLF20004.

Pełny tekst źródła
Streszczenie:
Cette thèse aborde le problème de la construction du sens des expressions complexes de la langue naturelle et traite, en particulier, la combinaison nom-adjectif. L'objectif principal de ce travail est de spécifier un cadre théorique approprié pour le traitement de phénomènes linguistiques comme la polymorphie grammaticale, la polysémie lexicale ou encore les glissements de sens. Le cadre théorique proposé a été élaboré essentiellement à partir de notions issues de la grammaire cognitive de Langacker, mais en prenant aussi en compte des hypothèses de la sémantique formelle (logique des prédicats, sémantique des situations. . . ) et du lexique génératif (Pustejovsky, Franks. . . ). Ce travail part de l'hypothèse selon laquelle les expressions linguistiques sont associées directement à des mécanismes de conceptualisation dont le locuteur-auditeur se sert pour structurer et organiser l'espace conceptuel (ou l'univers d'interprétation). Ces mécanismes de conceptualisation sont spécifiés et caractérisés à différents niveaux d'abstraction. Par exemple, les formes syntaxiques sont conçues comme des instructions qui configurent et caractérisent des catégories sémantiques très schématiques en ce qui concerne le contenu informationnel. Une telle caractérisation est mise en oeuvre par une analyse détaillée de la notion de prédicat et plus particulièrement de l'opération d'assignement d'une entité à un rôle d'un prédicat. Les formes lexicales, quant à elles, sont aussi des instructions configuratives qui caractérisent, non pas des catégories schématiques, mais des principes d'organisation de l'information à différents niveaux de spécification. C'est à partir de la notion de conceptualisation que cette thèse propose une modélisation du processus de composition sémantique. Un tel processus se présente comme un ensemble d'opérations de conceptualisation s'appliquant sur différentes facettes des entités combinées, et ceci pour les intégrer dans une seule entité complexe. Enfin, la dernière partie de la thèse traite quelques exemples de combinaison nom-adjectif en s'appuyant sur le modèle théorique de composition sémantique défini précédemment
This dissertation deals with meaning construction of linguistic complex expressions, particularly with + adjective-noun ; conceptual composition. Its main goal is to build up a theoretic frame suitable for the analysis of semantic problems concerning grammatical polymorphy, lexical polysemy or even metonymy. Such a theoretic frame is mainly conceived on the basis of notions stemmed from langacker's cognitive grammar, but ideas and formulations from both formal semantics (predicate logic, situation semantics,. . . ) and generative lexicon (pustejovsky, franks. . . ) are also taken into account the work as a whole relies on the hypothesis that linguistic expressions are directly linked to the conceptualization devices used by a speaker-listener in order to construe and organize the conceptual space (i. E. The universe of interpretation). Such conceptualizations devices are specified and characterized at different levels of abstaction for example, syntactic forms are conceived as instructions which configure and characterize semantic categories on the basis of a very schematic informational content to carry out such a category characterization, this work examines in detail the internal organisation of predicate structures, particularly the assignment operation of an entity to a predicate role. Lexical forms are also conceived as instructions which configure and characterise entities in the conceptual space. Yet, they do not characterise schematic categories, but an undetermined amount of assumptions concerning the organization of informational content at different levels of specification. This work relies on the conceptualization devices to build up a formal pattern of the semantic composition process. Such a compositional process is conceived as a set of conceptualization operations working on several aspects of the combined entities in order to integrate them into a composite entity. Taking into account the theoretical pattern of semantic composition defined previously, the last part of the dissertation describes the conceptual construction of some adjective-noun expressions
Style APA, Harvard, Vancouver, ISO itp.
24

Mouton, Olivier. "Étude du comportement biologique de bis (N-ethoxy, N-ethyldithiocarbamato) nitruro 99mTc(V), 99mTcN-NOET, un nouveau marqueur de la perfusion myocardique". Université Joseph Fourier (Grenoble ; 1971-2015), 1997. http://www.theses.fr/1997GRE10296.

Pełny tekst źródła
Streszczenie:
Les traceurs radioactifs emetteurs de rayonnements sont les seuls outils disponibles permettant, par simple injection intraveineuse, l'analyse in vivo de la repartition regionale du debit sanguin coronaire. A l'heure actuelle, le radioelement utilise en medecine nucleaire est le thallium-201, un cation monovalent, considere comme un analogue du potassium. Cependant, le thallium-201 presente certains inconvenients (dosimetre et cout de production eleves). C'est pourquoi les recherches se sont orientees vers la synthese de molecules originales marquees au technetium-99m, les complexes techneties. Bis (n-ethoxy, n-ethyldithiocarbamato- nitrido #9#9#mtc (v), #9#9#mtcn-noet, un nouveau marqueur de la perfusion myocardique tres prometteur : du fait de sa redistribution, #9#9#mtcn-noet se presente comme un remplacant potentiel du thallium-201. Il est indispensable de connaitre les mecanismes de captation cellulaire de #9#9#mtcn-noet afin d'interpreter correctement les informations donnees par la tomoscintigraphie de perfusion myocardique. C'est pourquoi notre travail a consiste en etude du comportement biologique de #9#9#mtcn-noet. Comme ce marqueur lipophile et neutre est une molecule originale, nous avons choisi d'adopter une demarche systematique en considerant comme envisageable toute entree ou toute fixation par ou sur une structure membranaire. Des inhibitions specifiques de divers transports ioniques membranaires ont ete effectuees pour conclure en leur participation directe ou indirecte dans la fixation cellulaire de #9#9#mtcn-noet. Deux modeles experimentaux ont ete choisis : la culture primaire de cardiomyocytes de rats nouveau-nes (in vitro) et le cur isole et perfuse de rat (ex vivo). Les resultats obtenus in vitro ont montre que la fixation cellulaire de #9#9#mtcn-noet ne necessite pas d'atp et que parmi l'ensemble des transports ioniques inhibes, seuls les canaux calciques voltage-dependants de type l se sont reveles directement impliques dans les mecanismes de fixation cellulaire de #9#9#mtcn-noet. Le comportement biologique de #9#9#mtcn-noet est similaire sur les deux modeles biologiques. Ces resultats nous permettent d'envisager une interaction de #9#9#mtcn-noet avec les canaux calciques voltage-dependants de type l. Des etudes supplementaires seront necessaires pour mieux caracteriser la nature de cette interaction.
Style APA, Harvard, Vancouver, ISO itp.
25

Mazeau, Karim. "Modelisation des conformations de l'adn : application au cas d'un adduit intrabrin cis-(pt(nh3)2(d(pgpcpg)))". Orléans, 1988. http://www.theses.fr/1988ORLE2030.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
26

Angsuchotmetee, Chinnapong. "Un framework de traitement semantic d'événement dans les réseaux des capteurs multimedias". Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3034/document.

Pełny tekst źródła
Streszczenie:
Les progrès de la technologie des capteurs, des communications sans fil et de l'Internet des Objets ont favorisé le développement des réseaux de capteurs multimédias. Ces derniers sont composés de capteurs interconnectés capables de fournir de façon omniprésente un suivi fin d’un espace connecté. Grâce à leurs propriétés, les réseaux de capteurs multimédias ont suscité un intérêt croissant ces dernières années des secteurs académiques et industriels et ont été adoptés dans de nombreux domaines d'application (tels que la maison intelligente, le bureau intelligent, ou la ville intelligente). L'un des avantages de l'adoption des réseaux de capteurs multimédias est le fait que les données collectées (vidéos, audios, images, etc.) à partir de capteurs connexes contiennent des informations sémantiques riches (en comparaison avec des capteurs uniquement scalaires) qui permettent de détecter des événements complexes et de mieux gérer les exigences du domaine d'application. Toutefois, la modélisation et la détection des événements dans les reséaux de capteurs multimédias restent une tâche difficile à réaliser, car la traduction de toutes les données multimédias collectées en événements n'est pas simple.Dans cette thèse, un framework complet pour le traitement des événements complexes dans les réseaux de capteurs multimédias est proposé pour éviter les algorithmes codés en dur et pour permettre une meilleure adaptation aux évolution des besoins d’un domaine d'application. Le Framework est appelé CEMiD et composé de :• MSSN-Onto: une ontologie nouvellement proposée pour la modélisation des réseaux de capteurs,• CEMiD-Language: un langage original pour la modélisation des réseaux de capteurs multimédias et des événements à détecter, et• GST-CEMiD: un moteur de traitement d'événement complexe basé sur un pipeline sémantique.Le framework CEMiD aide les utilisateurs à modéliser leur propre infrastructure de réseau de capteurs et les événements à détecter via le langage CEMiD. Le moteur de détection du framework prend en entrée le modèle fourni par les utilisateurs pour initier un pipeline de détection d'événements afin d'extraire des données multimédias correspondantes, de traduire des informations sémantiques et de les traduire automatiquement en événements. Notre framework est validé par des prototypes et des simulations. Les résultats montrent que notre framework peut détecter correctement les événements multimédias complexes dans un scénario de charge de travail élevée (avec une latence de détection moyenne inférieure à une seconde)
The dramatic advancement of low-cost hardware technology, wireless communications, and digital electronics have fostered the development of multifunctional (wireless) Multimedia Sensor Networks (MSNs). Those latter are composed of interconnected devices able to ubiquitously sense multimedia content (video, image, audio, etc.) from the environment. Thanks to their interesting features, MSNs have gained increasing attention in recent years from both academic and industrial sectors and have been adopted in wide range of application domains (such as smart home, smart office, smart city, to mention a few). One of the advantages of adopting MSNs is the fact that data gathered from related sensors contains rich semantic information (in comparison with using solely scalar sensors) which allows to detect complex events and copes better with application domain requirements. However, modeling and detecting events in MSNs remain a difficult task to carry out because translating all gathered multimedia data into events is not straightforward and challenging.In this thesis, a full-fledged framework for processing complex events in MSNs is proposed to avoid hard-coded algorithms. The framework is called Complex Event Modeling and Detection (CEMiD) framework. Core components of the framework are:• MSSN-Onto: a newly proposed ontology for modeling MSNs,• CEMiD-Language: an original language for modeling multimedia sensor networks and events to be detected, and• GST-CEMiD: a semantic pipelining-based complex event processing engine.CEMiD framework helps users model their own sensor network infrastructure and events to be detected through CEMiD language. The detection engine of the framework takes all the model provided by users to initiate an event detection pipeline for extracting multimedia data feature, translating semantic information, and interpret into events automatically. Our framework is validated by means of prototyping and simulations. The results show that our framework can properly detect complex multimedia events in a high work-load scenario (with average detection latency for less than one second)
Style APA, Harvard, Vancouver, ISO itp.
27

Ben-Jemaa, Raouf. "Traitement de donnees 3d denses acquises sur des objets reels complexes". Cergy-Pontoise, 1998. http://www.theses.fr/1998CERG0048.

Pełny tekst źródła
Streszczenie:
L'objectif de cette these est de developper des outils evolues pour traiter des nuages de points 3d issus des capteurs tridimensionnels. Parmi les multiples problemes que posent le traitement de ce type de donnees, les deux suivants sont des problemes centraux que nous avons prioritairement examines : - recalage rigide d'acquisitions multiples : inevitablement, un objet de forme complexe ne peut etre numerise que par un ensemble de points de vue ou de balayages multiples. Cette numerisation donne alors naissance a plusieurs nappes de points se superposant partiellement. Il est tout d'abord necessaire de mettre en correspondance ces diverses nappes dans un meme repere objet. Pour recaler plusieurs ensembles de donnees 3d entre eux, la demarche classique consiste a les recaler deux par deux : c'est le recalage simple. Nous proposons un premier algorithme rapide de recalage simple fondee sur le partitionnement de l'espace par une technique de multi-z-buffers. Il est clair qu'un recalage simultane de l'ensemble des surfaces permet une meilleure distribution des erreurs residuelles de recalage : c'est le recalage global. Nous avons developpe trois methodes de recalage global : une methode sequentielle consistant a iterer une sequence de recalage simple, une methode algebrique utilisant une linearisation des matrices de rotations et une methode analytique originale de recalage global fondee sur la representation des rotations par les quaternions unitaires. - fusion et triangulation d'acquisitions multiples : les donnees etant recalees, un meme element de la surface de l'objet peut se trouver dans plusieurs acquisitions distinctes. Le probleme consiste alors a integrer ces diverses acquisitions en une seule surface triangulee representant au mieux la surface de l'objet. Nous avons choisi une approche volumique utilisant une representation implicite de la surface.
Style APA, Harvard, Vancouver, ISO itp.
28

Meyer, Christophe. "Le traitement chirurgical des pertes de substance complexes de la jambe". Université Louis Pasteur (Strasbourg) (1971-2008), 1992. http://www.theses.fr/1992STR1M183.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
29

Ben-Jemaa, Raouf. "Traitement de données 3D denses acquises sur des objets réels complexes /". Paris : École Nationale supérieure des télécommunications, 1999. http://catalogue.bnf.fr/ark:/12148/cb37047372j.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
30

Piel, Ariane. "Reconnaissance de comportements complexes par traitement en ligne de flux d’événements". Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132026/document.

Pełny tekst źródła
Streszczenie:
L’analyse de flux d’évènements pour reconnaître des comportements complexes prédéfinis (Complex Event Processing – CEP) permet d’interpréter et de réagir à des quantités importantes de données ne pouvant être appréhendées telles quelles. Dans cette thèse, nous fournissons le cadre théorique général d’un CEP en adoptant une approche purement formelle qui assure une possibilité de vérification et d’analyse du processus de reconnaissance. Nous définissons un langage, le langage des chroniques, permettant de décrire les comportements complexes à reconnaître. Nous formalisons la notion de reconnaissance de chronique à l’aide d’une sémantique ensembliste fondée sur une représentation arborescente des reconnaissances. Dans une visée applicative, nous développons ensuite deux modèles du processus de reconnaissance. Le premier est réalisé avec le formalisme des réseaux de Petri colorés et permet de valider les principes de reconnaissance en faisant notamment ressortir les problèmes de concurrence et de modularité. Le second implémente directement le formalisme mathématique sous la forme d’une bibliothèque C++ appelée Chronicle Recognition Library (CRL) et disponible en open source. Nous tirons parti de cette implémentation pour traiter deux cas d’applications liés à l’insertion des drones dans l’espace aérien. La première vise à surveiller la cohérence d’un système de drones insérés dans le trafic aérien, en cas de pannes de liens de communication. Notre application permet d’une part de vérifier la cohérence des procédures actuellement mises en place en cas de pannes ; et d’autre part de compléter ces procédures par des alarmes dans les situations inévitables causées par des erreurs humaines. La seconde application surveille le bon respect des procédures de sécurité d’un drone partant en mission et traversant diverses zones, contrôlées ou non, de l’espace aérien
Recognising complex predefined behaviours by the analysis of event flows (Complex Event Processing - CEP) alows to interpret and react to large quantities of data wich one would not be able to apprehend alone. In this Ph.D. thesis, we provide a general theoretical framework for CEP through a purely formal approach ensuring the possibility to check and analyse the recognition process. We define a language, the chronicle language, allowing the description of the complex behaviours to be recognised. We formalise the notion of chronicle recognition through a set semantics based on an arborescent representation of recognitions. In order to use this framework, we then develop two models of the recognition process. The first relies on coloured Petri nets and allows the validation of recognition principles including concurrency and modularity issues. The second model directly implements the mathematical formalism in a C++ library, chronicle recognition library (CRL), wich is avaible in open source. We use this implementation to fulfil two applications linked to the insertion of unmanned aircraft system inside air traffic in case of communication link breakdowns. This application allows, on the other hand, to check the consistency of the procedures currently followed in case of failures ; and, on the other hand, to complete these procedures with alarms in case of unavoidable situations caused by human errors. The second application oversees that the security procedures of an unmanned aircraft flying through controlled or uncontrolled airspace are correctly followed
Style APA, Harvard, Vancouver, ISO itp.
31

Ben-Jemaa, Raouf. "Traitement de données 3d denses acquises sur des objets réels complexes". Paris, ENST, 1998. http://www.theses.fr/1998ENST0022.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est de développer des outils évolues pour traiter des nuages de points 3d issus des capteurs tridimensionnels. Parmi les nombreuses difficultés que présente le traitement de ce type de données, deux problèmes majeurs ont retenu toutes notre attention : - recalage rigide d'acquisitions multiples : inévitablement, un objet de forme complexe ne peut être numérise que par un ensemble de points de vue ou de balayages multiples. Cette numérisation donne alors naissance à plusieurs nappes de points se superposant partiellement. Il est tout d'abord nécessaire de mettre en correspondance ces diverses nappes dans un même repère objet. Pour recaler plusieurs ensembles de données 3d entre eux, la démarche classique consiste à les recaler deux par deux : c'est le recalage simple. Nous proposons un premier algorithme rapide de recalage simple fondé sur le partitionnement de l'espace par une technique de multi-z-buffers. Il est clair qu'un recalage simultané de l'ensemble des surfaces permet une meilleure distribution des erreurs résiduelles de recalage : c'est le recalage global. Nous avons développé trois méthodes de recalage global : une méthode séquentielle consistant à itérer une séquence de recalages simples, une méthode algébrique utilisant une linéarisation des matrices de rotations et une méthode analytique originale de recalage global fondée sur la représentation des rotations par les quaternions unitaires. - fusion et triangulation d'acquisitions multiples : les données étant recalées, un même élément de la surface de l'objet peut se trouver dans plusieurs acquisitions distinctes. Le problème consiste alors à intégrer ces diverses acquisitions en une seule surface triangulée représentant au mieux la surface de l'objet. Nous avons choisi une approche volumique utilisant une représentation implicite de la surface.
Style APA, Harvard, Vancouver, ISO itp.
32

Rondon, Céline. "Etude des mécanismes de libération d'actifs nanodispersés : application au traitement de puits". Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14204/document.

Pełny tekst źródła
Streszczenie:
L’exploitation de pétrole s’accompagne de la modification des conditions thermodynamiques internes du puits et favorise, entre autres, la formation de dépôts minéraux pouvant obstruer les pores micrométriques de la formation rocheuse, rendant difficile l’extraction d’huile. L’efficacité du traitement anti-dépôts dépend de la concentration minimale d’inhibiteur et de la vitesse de relargage du produit. Dans ce contexte, nous avons étudié deux techniques d’encapsulation permettant d’obtenir un système préventif à libération prolongée contenant un polyélectrolyte anionique comme additif modèle. La première consiste en la formation de nanoparticules de polyélectrolytes complexés. La libération de l’actif encapsulé y a été stimulée par la modulation de la salinité du milieu. À pH basique, la libération de l’actif a lieu via le mécanisme de gonflement /dissociation des particules, à pH acide aucune libération ne parait avoir lieu car les objets précipitent. Le second système est une émulsion inverse (E/H) diluée contenant un actif modèle en phase dispersée. Ces systèmes sont stables et un faible pourcentage d’actif est libéré sous contrainte mécanique
Many thermodynamic changes occur in reservoir rock when oil is produced. These changes enable scale formation on micrometric rock pores that can block them and impede/block oil extraction. Antiscale treatment efficiency depends on minimal inhibitor concentration and product release rate in fluids downhole. In this context, we have studied two encapsulation techniques allowing us to have a sustainable release system composed of an anionic polyelectrolyte as a model additive. The first formulation consists in formation of polyelectrolyte complexes nanoparticles. In this system, active ingredient release was stimulated through medium ionic strength modulation. Under basic conditions, release takes place in particles swelling/dissociation process; whereas, under acidic condition, particles precipitate and no release can be expected. The second system we have worked on is a diluted reverse (W/O) emulsion, in which dispersed aqueous droplets contain a model additive. These systems are stable and small additive percentage is released under mechanic strain
Style APA, Harvard, Vancouver, ISO itp.
33

Porquet, Damien. "Rendu en temps réel de scènes complexes". Limoges, 2004. http://aurore.unilim.fr/theses/nxfile/default/fdef9900-123a-4d8a-ada2-c65cf3c94a1f/blobholder:0/2004LIMO0036.pdf.

Pełny tekst źródła
Streszczenie:
En informatique graphique, on distingue la modélisation de l'environnement 3D de son rendu, c'est à dire de la synthèse effective d'images. Le cadre dans lequel s'inscrit cette thèse est le rendu en temps réel de scènes composées de modèles 3D complexes non déformables, très finement détaillés. De tels modèles permettent un grand réalisme dans les images produites mais sont également très coûteux utiliser (espace mémoire et temps de calcul). De nombreux travaux ont été proposés dans ce cadre. Nous décrivons différentes approches du problème : le rendu à base de points, la simplification de maillages géométriques et le rendu à base d'images. Nous étendons au temps réel des méthodes d'interpolation d'images, en proposant plusieurs algorithmes différents. Nous décrivons une méthode de génération de textures directionnelles 4D permettant d'obtenir l'image d'un modèle sous un angle quelconque indépendamment de sa complexité géomérique. Finalement, nous présentons une méthode d'interpolation d'images permettant de reconstruire le relief d'un modèle par placage d'images de références. Nous décrivons les travaux utilisant cette méthode appliquée à une image de profondeurs et à un maillage géométriquement simplifié. Ces travaux utilisent intensivement les cartes graphiques récentes permettant d'obtenir à la fois une haute qualité de rendu et de grandes capacités de calcul
In computer graphics, we distinguish modeling from rendering, that is image synthesis. This thesis framework is real-time rendering of scene composed of complex non deformable 3D objects. Such objects gives high realism in computed images but are difficult to use (in terms of storage space and computing time). A lot of works as been driven in this context. We first describe commonly used approach that is point sample rendering, geometrical mesh simplification and image-based rendering. We first propose different algorithms to extend image based methods to real-time rendering. We then describe a method to generate 4D textures producing image of a given 3D object from arbitrary viewpoint, independently of its geometrical complexity. Finally, we present an image interpolation method to map relief onto a given depth image or a low polygon count version of a complex object. This works intensively use latest GPU capabilities, allowing high quality and real-time rendering at same time
Style APA, Harvard, Vancouver, ISO itp.
34

Piranda, Benoît. "Rendu réaliste et surfaces complexes : application à la simulation du milieu maritime". Université de Marne-la-Vallée, 1999. http://www.theses.fr/1999MARN0041.

Pełny tekst źródła
Streszczenie:
Les travaux presentes dans cette these concernent le rendu realiste et la modelisation de surfaces complexes avec une application a la synthese d'images du milieu maritime realisee en collaboration avec la dcn ingenierie. Nous avons aborde deux problemes importants en synthese d'images : simuler precisement les echanges energetiques qui apparaissent en presence de surfaces speculaires et de milieux participants et modeliser des surfaces complexes comme par exemple la surface de la mer. Une premiere partie presente un etat de l'art sur les modeles utilises en synthese d'images. Nous y exposons les lois et les modeles physiques regissant l'emission d'energie et les interactions entre la lumiere et les objets. Puis nous presentons les principaux modeles d'illumination, et plus particulierement les algorithmes dits de radiosite, qui exploitent ces lois pour generer des images de synthese realistes. Nous concluons cette premiere partie en presentant les principaux modeles de description de la surface des objets et en particulier la surface de la mer. La seconde partie de ce document expose les resultats de nos travaux de recherche. Nous proposons une nouvelle extension du modele de radiosite qui permet de traiter simultanement les reflexions de type speculaire et les milieux participants ainsi qu'une methode permettant d'identifier et de classifier sous forme de mots les differents echanges intervenant dans une scene. Nous presentons ensuite un nouveau modele de representation des surfaces complexes reposant sur la definition d'atlas de discoides et reecrivons le modele de radiosite pour integrer ce nouveau mode de representation. La troisieme partie plus applicative propose l'adaptation des algorithmes precedents a la simulation du milieu maritime en visible et en infrarouge. La derniere partie regroupe en annexe une presentation des logiciels developpes au cours de cette these
Style APA, Harvard, Vancouver, ISO itp.
35

Braik, William. "Détection d'évènements complexes dans les flux d'évènements massifs". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0596/document.

Pełny tekst źródła
Streszczenie:
La détection d’évènements complexes dans les flux d’évènements est un domaine qui a récemment fait surface dans le ecommerce. Notre partenaire industriel Cdiscount, parmi les sites ecommerce les plus importants en France, vise à identifier en temps réel des scénarios de navigation afin d’analyser le comportement des clients. Les objectifs principaux sont la performance et la mise à l’échelle : les scénarios de navigation doivent être détectés en moins de quelques secondes, alorsque des millions de clients visitent le site chaque jour, générant ainsi un flux d’évènements massif.Dans cette thèse, nous présentons Auros, un système permettant l’identification efficace et à grande échelle de scénarios de navigation conçu pour le eCommerce. Ce système s’appuie sur un langage dédié pour l’expression des scénarios à identifier. Les règles de détection définies sont ensuite compilées en automates déterministes, qui sont exécutés au sein d’une plateforme Big Data adaptée au traitement de flux. Notre évaluation montre qu’Auros répond aux exigences formulées par Cdiscount, en étant capable de traiter plus de 10,000 évènements par seconde, avec une latence de détection inférieure à une seconde
Pattern detection over streams of events is gaining more and more attention, especially in the field of eCommerce. Our industrial partner Cdiscount, which is one of the largest eCommerce companies in France, aims to use pattern detection for real-time customer behavior analysis. The main challenges to consider are efficiency and scalability, as the detection of customer behaviors must be achieved within a few seconds, while millions of unique customers visit the website every day,thus producing a large event stream. In this thesis, we present Auros, a system for large-scale an defficient pattern detection for eCommerce. It relies on a domain-specific language to define behavior patterns. Patterns are then compiled into deterministic finite automata, which are run on a BigData streaming platform. Our evaluation shows that our approach is efficient and scalable, and fits the requirements of Cdiscount
Style APA, Harvard, Vancouver, ISO itp.
36

Charley, Jacques. "Dynamique de structures complexes hydroacoustique et couplage fluide-structure". [S.l.] : [S.n.], 2001. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2001-127-128.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
37

Tremblay, Nicolas. "Réseaux et signal : des outils de traitement du signal pour l'analyse des réseaux". Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0938/document.

Pełny tekst źródła
Streszczenie:
Cette thèse propose de nouveaux outils adaptés à l'analyse des réseaux : sociaux, de transport, de neurones, de protéines, de télécommunications... Ces réseaux, avec l'essor de certaines technologies électroniques, informatiques et mobiles, sont de plus en plus mesurables et mesurés ; la demande d'outils d'analyse assez génériques pour s'appliquer à ces réseaux de natures différentes, assez puissants pour gérer leur grande taille et assez pertinents pour en extraire l'information utile, augmente en conséquence. Pour répondre à cette demande, une grande communauté de chercheurs de différents horizons scientifiques concentre ses efforts sur l'analyse des graphes, des outils mathématiques modélisant la structure relationnelle des objets d'un réseau. Parmi les directions de recherche envisagées, le traitement du signal sur graphe apporte un éclairage prometteur sur la question : le signal n'est plus défini comme en traitement du signal classique sur une topologie régulière à n dimensions, mais sur une topologie particulière définie par le graphe. Appliquer ces idées nouvelles aux problématiques concrètes d'analyse d'un réseau, c'est ouvrir la voie à une analyse solidement fondée sur la théorie du signal. C'est précisément autour de cette frontière entre traitement du signal et science des réseaux que s'articule cette thèse, comme l'illustrent ses deux principales contributions. D'abord, une version multiéchelle de détection de communautés dans un réseau est introduite, basée sur la définition récente des ondelettes sur graphe. Puis, inspirée du concept classique de bootstrap, une méthode de rééchantillonnage de graphes est proposée à des fins d'estimation statistique
This thesis describes new tools specifically designed for the analysis of networks such as social, transportation, neuronal, protein, communication networks... These networks, along with the rapid expansion of electronic, IT and mobile technologies are increasingly monitored and measured. Adapted tools of analysis are therefore very much in demand, which need to be universal, powerful, and precise enough to be able to extract useful information from very different possibly large networks. To this end, a large community of researchers from various disciplines have concentrated their efforts on the analysis of graphs, well define mathematical tools modeling the interconnected structure of networks. Among all the considered directions of research, graph signal processing brings a new and promising vision : a signal is no longer defined on a regular n-dimensional topology, but on a particular topology defined by the graph. To apply these new ideas on the practical problems of network analysis paves the way to an analysis firmly rooted in signal processing theory. It is precisely this frontier between signal processing and network science that we explore throughout this thesis, as shown by two of its major contributions. Firstly, a multiscale version of community detection in networks is proposed, based on the recent definition of graph wavelets. Then, a network-adapted bootstrap method is introduced, that enables statistical estimation based on carefully designed graph resampling schemes
Style APA, Harvard, Vancouver, ISO itp.
38

Calmels, Bastien. "Immunothérapie non-spécifique et immuno-monitoring pour le traitement du cancer". Paris 7, 2004. http://www.theses.fr/2004PA077185.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
39

Bétrancourt, Mireille. "Facteurs spaciaux et temporels dans le traitement cognitif des complexes texte-figure". Grenoble INPG, 1996. http://www.theses.fr/1996INPG0132.

Pełny tekst źródła
Streszczenie:
Il est communément admis que les figures améliorent la compréhension et la mémorisation de textes. Cependant, les processus cognitifs sous-jacents à ce phénomène sont encore peu connus. L'objectif de cette thèse est d'étudier les processus cognitifs intervenant dans le traitement des complexes texte-figure par le biais de l'étude de l'influence de facteurs de présentation spatiaux et temporels. Pour la première étude, nous avons mené trois expériences pour comparer trois formats de présentation sur ordinateur: une présentation conventionnelle, ou textes et figures sont présentes sur des portions séparées de l'écran, une présentation intégrée, ou chaque texte est proche de l'élément graphique auquel il réfère, et une présentation escamoté, ou les textes sont intègres a la figure dans des champs escamotables qui n'apparaissent que sous l'action de l'utilisateur. Globalement, les formats intègre et surtout escamoté ont amené de meilleures performances pour des temps d'apprentissage identiques. Une seconde série d'expériences s'est focalisée sur le rôle de la construction progressive (appelée présentation séquentielle) d'une figure ou d'un document texte-figure sur sa représentation en mémoire. Trois expériences ont été menées pour comparer plusieurs critères de présentation séquentielle (hiérarchique vs. Pas à pas, critère spatial ou procédural vs. Fonctionnel,). Deux résultats majeurs se dégagent: d'une part, l'ordre de rappel des éléments ainsi que leur regroupement est influence par la présentation séquentielle, non seulement dans les dessins mais aussi les descriptions ; d'autre part, l'effet de la présentation séquentielle agit aussi dans des taches nécessitant la mise en œuvre de la représentation (reconnaissance de parties, résolution d'inférences). A partir de ces résultats, nous proposons un modelé de représentation mentale des informations textuelles et graphiques en coréférence
Style APA, Harvard, Vancouver, ISO itp.
40

Bamhamed, Mohamed. "Traitement en temps réel des énoncés complexes : étude comparative interlangues (arabe francais)". Paris 5, 1996. http://www.theses.fr/1996PA05H029.

Pełny tekst źródła
Streszczenie:
L'objectif de ce travail est de dégager, à travers l'étude du traitement en temps réel d'indices syntaxiques et morphophonologiques donnant accès aux relations fonctionnelles fondamentales (agent - patient), des principes généraux permettant de rendre compte des différences interlangues au niveau de la représentation des énoncés complexes et des procédures de leur traitement. Les paradigmes expérimentaux en temps réel mis en œuvre dans cette thèse permettent de caractériser les stratégies d'anticipation chez des sujets bilingues (arabe marocain arabe classique français), dans des énoncés clives en arabe et leurs correspondants en français et de tester la validité de certains principes, principes de détectabilité des marques morphophonologiques, de localité et du coût de leur traitement. Cette thèse comporte trois expériences au cours desquelles des adultes doivent identifier l'agent de l'action aussi bien dans des phrases grammaticales que dans des phrases agrammaticales. La première et la deuxième expérience visent à identifier les indices et les stratégies de traitement dans des langues a morphologie riche (arabe marocain et arabe classique) et à déterminer le type de transfert qui existe entre elles eu égard a leur parenté génétique et à leurs modes d'appropriation. La troisième expérience, conduite auprès de natifs français et de marocains bilingues, a pour but de déterminer les stratégies de traitement de chaque groupe, de connaitre le type de gestion applique aux phrases agrammaticales et de préciser la nature du transfert dominant chez ce groupe "trilingue". En conclusion, nous avons suggéré que la localité et le coût du traitement doivent être mis en rapport avec les caractéristiques de la langue et que des facteurs socio-culturels influent sur le traitement des langues chez le bilingue
The aim of this work is to define, through the study of the on-line processing of syntactic and morphological cues giving access to functional relations (agent patient), general principles permitting to explain the crosslinguistic differences in both the representation of complex sentences and its processing. The on-line paradigm used in this study enabled us to identify the anticipation strategies performed by bilingual subjets (Moroccan Arabic classical Arabic French) processing cleft sentences in Arabic and their counterparts in French furthermore, it allowed to test some principles validity morphological-phonological marks perceptibility, locality processing, processing cost. This thesis is composed of three experiences in the course of which adults must identify the agent of the action as well in the grammatical sentences as in agrammatical ones. The first and the second experiences aim at identifying the cues and the strategies of processing in language of rich morphology (Moroccan Arabic and classical Arabic) and at determining the type of transference which exist between them in view of their genetic paternity and their mode of appropriatness. The third experience. Led with French natives and bilingual Moroccans, has for aim to determine the strategies of processing of each group, to know the type of gestion applied to agrammatical sentences and to precise the nature of the dominant transference in this group "trilingual". In conclusion, we have suggested that the locality and the cost of processing must be in harmony with the characteristics of the language and that the socio-cultural factors influence the processing of language of languages in bilinguals
Style APA, Harvard, Vancouver, ISO itp.
41

Muller, Pierre-Alain. "L'intégration dans les systèmes logiciels complexes : modélisation et architecture". Mulhouse, 1993. http://www.theses.fr/1993MULH0296.

Pełny tekst źródła
Streszczenie:
Un environnement de génie logiciel se caractérise par la coexistence plus ou moins harmonieuse de multiples outils qui oeuvrent de concert. La qualité d'un tel ensemble dépend fortement du degré de coopération entre les différents outils, c'est-à-dire de la qualité de l'intégration. Afin de mieux appréhender la notion d'intégration, et surtout afin d'avoir un élément de comparaison entre divers environnements, nous avons défini puis appliqué un modèle pour l'évaluation de la qualité de l'intégration dans un environnement de génie logiciel. Ce modèle caractérise la coopération par les sept couches suivantes : cohabitation, communication, présentation, uniformité, comportement, information et connaissance. L’intégration optimale repose sur les sept couches, certaines couches peuvent cependant être omises. Par la suite nous avons élargi notre champ d'investigation, afin de proposer une approche globale, à base d'objets communicants, pour le développement de systèmes logiciels intégrés, distribués, multi-langages, multi-machines et multi-systèmes d'exploitations. Notre approche simplifie également la transition hôte vers cible, tout en permettant une forme dynamique de réutilisation. Ainsi nous considérons qu'un système logiciel est constitué d'une société d'objets communicants, que nous appelons behaviors, dont les interactions constituent la charpente des mécanismes applicatifs. Tout behavior communique avec ses congénères par l'intermédiaire de messages asynchrones, non bloquants, suivant le mode d'interaction des êtres humains. Un behavior particulier, le broker, assure la distribution et la propagation des messages
Style APA, Harvard, Vancouver, ISO itp.
42

Carcagno, Laurent. "Spécification et conception de systèmes complexes temps-réel-strict distribués". Toulouse 3, 1995. http://www.theses.fr/1995TOU30166.

Pełny tekst źródła
Streszczenie:
Cette these concerne l'etude des systemes complexes temps-reel-strict distribues. L'importance des enjeux economiques et les consequences dramatiques que peuvent entrainer les defaillances de tels systemes, conduisent a developper des methodologies de conception qui prennent en compte les caracteristiques specifiques des systemes a realiser. La premiere partie, methodologie de conception et modelisation des systemes temps reel-strict distribues, introduit les concepts de base sur les systemes temps-reel et precise la demarche methodologique suivie pour passer de la specification d'un systeme temps-reel-strict a la definition complete de sa realisation. Cette methodologie repose sur une modelisation qui prend en compte les caracteristiques intrinseques des systemes temps-reel-strict, qui offre une approche deterministe et realiste en milieu physiquement distribue et qui permet d'obtenir automatiquement la machine la mieux adaptee pour traiter une application donnee. La deuxieme partie description de systemes complexes temps-reel-strict distribues precise le modele retenu pour decrire de tels systemes. C'est un modele de description adapte a la classe des applications visees qui autorise une description parallele et hierarchisee des systemes a realiser. Pour exprimer les applications selon le modele, le concepteur dispose du langage de description r. S. D. L. Ce langage autorise des techniques de parallelisation automatique des modules composant l'application. L'objet de la troisieme partie specification et conception de systemes temps-reel-strict distribues est de presenter l'outil de specification-conception qui permet a un concepteur de decrire graphiquement et textuellement son application en suivant les regles imposees par le modele de description, et de produire une representation v. H. D. L. Autorisant la simulation logique du systeme. Afin d'illustrer les fonctionnalites de cet outil, les differentes etapes de conception d'un systeme temps-reel-strict sont presentees sur un exemple
Style APA, Harvard, Vancouver, ISO itp.
43

Belabed, Siham. "Le greffage de cyclodextrines modifiées par traitement Corona sur matériaux cellulosiques". Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10122/document.

Pełny tekst źródła
Streszczenie:
Les matériaux textiles occupent une place importante dans notre quotidien. Les recherches actuelles s'orientent vers l'élaboration de matériaux à nouvelles propriétés techniques. Parmi les voies d'obtention, on peut citer le greffage de microcapsules ou de molécules cages rechargeables contenant un principe actif qui va être libéré au cours du temps donnant aux textiles de nouvelles fonctionnalités. Dans cette thèse, nous avons synthétisé des cyclodextrines originales dotées de groupements permettant leur greffage sur des fibres de coton après activation du substrat et qui conservent en partie leur capacité à inclure des principes actifs. Dans le souci d'utiliser des technologies propres et d'éviter l'utilisation de produits chimiques, notre choix s'est porté sur une activation par traitement Corona. Nous avons mis en évidence que ce traitement entraîne la formation de radicaux libres, une oxydation et un accroissement de la rugosité en surface des fibres cellulosiques. La conduite en parallèle d'expériences basées sur une activation chimique a confirmé que les radicaux libres formés au cours du traitement Corona sont impliqués dans le mécanisme de greffage de molécules allylées et notamment de la tétradécakis-(2,6-di-O-allyl)-β-cyclodextrine. Des analyses par gravimétrie, spectroscopie de photoélectrons X, thermogravimétrie et microscopie électronique à balayage ont démontré que le greffage avait bien lieu. Après greffage, la cyclodextrine conserve sa capacité à former des complexes d'inclusion notamment lorsque l'on utilise la phénolphtaléine comme molécule invitée ce qui ouvre des perspectives intéressantes pour ce travail
Textiles are omnipresent in our everyday life. Research in this area tends to elaborate more sophisticated or "clever" materials i.e. confer new properties by means of innovative protocols. Among the available protocols, we can propose the grafting of microcapsules or host molecules able to guest an active substance which can be evolved. In our study, we synthesized original cyclodextrins bearing functional groups that allow their grafting on activated cotton fabrics. These entities maintain their inclusion ability. For activation purpose, we chose an "ecofriend" technology which does not require solvents, the corona discharge treatment (CDT). We evidenced that formation of free radicals, oxidation, and increase of roughness occur at the surface of cellulose during treatment. By carrying out experiments based on chemical activation, we concluded that free radicals are implied in grafting mechanism of allyl molecules and especially tetradecakis-(2,6-di-O-allyl)-β-cyclodextrin. Analysis by gravimetry, X ray photoelectron spectroscopy, thermogravimetry and scanning electon microscopy give the proof that grafting was effective. The inclusion ability of the modified β-cyclodextrins after grafting was studied with the dye extinction method determined by inclusion of phenolphthalein
Style APA, Harvard, Vancouver, ISO itp.
44

Lereboulet, Sylvie Canton Philippe. "Le complexe démentiel du sida à l'ère des traitements antirétroviraux hautement actifs". [S.l] : [s.n], 2004. http://www.scd.uhp-nancy.fr/docnum/SCDMED_T_2004_LEREBOULET_SYLVIE.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
45

Qureshi, Rashid Jalal Cardot Hubert Ramel Jean-Yves. "Reconnaissance de formes et symboles graphiques complexes dans les images de documents". Tours : SCD de l'université de Tours, 2008. http://www.applis.univ-tours.fr/theses/priv/rashid-jalal.qureshi_2732.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
46

Le, Lay Luc. "Mise en forme et etude de filaments supraconducteurs a base de phases de chevrel". Rennes 1, 1988. http://www.theses.fr/1988REN10126.

Pełny tekst źródła
Streszczenie:
Elaboration et etude de filaments pbmo::(6)s::(8) et snmo::(6)s::(8) et des massifs de ces memes materiaux. Etude des comportements mecanique, chimique et supraconducteur des massifs. Optimisation de la composition de la poudre d'un brin monofilamentaire en fonction des dopants, de la stoechiometrie et de la nature des poudres de base. Optimisation des traitements des filaments: des traitements a haute temperature (950**(o)c a 1000**(o)cpounds et pendant des durees relativement courtes (0,5 a 2 h) permettent d'obtenir les meilleurs resultats de densites de courant critique. Realisation de bobinettes permettant d'atteindre des densites de courant critique de 10**(8) a/m**(2) a 14 t
Style APA, Harvard, Vancouver, ISO itp.
47

Lamallem, Abdellah. "Évaluation de performance d'un système de fusion d'informations : application au traitement d'images 3D". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00768212.

Pełny tekst źródła
Streszczenie:
Les systèmes de fusion d'informations sont principalement composés, d'outils mathématiques permettant de réaliser la représentation et la combinaison des données. L'objectif de ces systèmes peut s'exprimer comme un problème de décision sur la vérité ou la vraisemblance d'une proposition étant donné une ou plusieurs informations issues de différentes sources. Les systèmes de fusion cherchent à exploiter au mieux les propriétés des sources de données en tenant compte de l'imperfection de l'information (imprécis, incomplet, ambigu, incertain, etc.) ainsi que l'aspect redondant, complémentaire et conflictuel des informations. Le système de fusion concerné par cette thèse a la capacité d'intégrer dans ses traitements de la connaissance experte. On le nomme système de fusion coopératif. Puisque ce système cherche à intégrer pleinement les experts dans son fonctionnement, il est important de mettre à disposition des utilisateurs des informations aidant à mieux comprendre la fusion réalisée. De tels systèmes disposent de nombreux paramètres à régler et ces derniers ont un impact important sur la qualité des résultats obtenus. Une des grandes problématiques liées à ces systèmes de fusion d'informations porte sur l'évaluation de leurs performances. L'évaluation doit permettre d'améliorer la qualité de la fusion, d'améliorer l'interaction expert/système et d'aider à mieux ajuster les paramètres du système. En général, l'évaluation de tels systèmes est réalisée en fin de chaîne par une évaluation globale du résultat. Mais, celle-ci ne permet pas de savoir précisément l'endroit de la chaîne qui nécessite une intervention. Une autre difficulté réside dans le fait qu'une vérité terrain complète sur le résultat n'est pas toujours disponible, ce qui complique la tâche d'évaluation de performances de ce type de systèmes. Le contexte applicatif de ce travail est l'interprétation d'images tridimensionnelles (images tomographiques, images sismiques, images synthétiques, ...). Dans ce contexte une évaluation locale des systèmes de fusion d'informations, a été mise en place. L'approche a montré son intérêt dans l'ajustement efficace des paramètres et dans la coopération avec l'expert.
Style APA, Harvard, Vancouver, ISO itp.
48

Garnier, Alexandre. "Langage dédié au traitement des événements complexes et modélisation des usages pour les réseaux de capteurs". Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0287/document.

Pełny tekst źródła
Streszczenie:
On assiste ces dernières années à une explosion des usages dans l’Internet des objets. La démocratisation de ce monde de capteurs est le fruit, d’une part de la baisse drastique des coûts dans l’informatique embarquée, d’autre part d’un support logiciel toujours plus mature. Que ce soit au niveau des protocoles et des réseaux (CoAP, IPv6, etc) ou de la standardisation des supports de développement, notamment sur microprocesseurs ATMEL, les outils à disposition permettent chaque jour une plus grande homogénéisation dans la communication entre des capteurs toujours plus variés. Cette diversification rassemble chaque jour des utilisateurs aux attentes et aux domaines de compétence différents, avec chacun leur propre compréhension des objets connectés. La complexification des réseaux de capteurs, confrontée à cette nécessité d’adresser des usages fondamentalement différents, pose problème. Sur la base d’un même réseau de capteurs hétéroclite, il est crucial de pouvoir répondre aux besoins de chacun des utilisateurs, sans réclamer d’eux une maîtrise du réseau de capteurs dépassant exagérément leur domaine de compétence. L’outil décrit dans ce document se propose d’adresser cette problématique au travers d’un moteur de requête dédié au traitement des données issus des capteurs. Pour ce faire, il repose sur une modélisation des capteurs au sein de différents contextes, chacun à même de répondre à un besoin utilisateur précis. Sur la base de ce modèle est mis à disposition un langage dédié pour le traitement des événements complexes issus des données mesurées par les capteurs. L’implémentation de cet outil permet en outre d’interagir avec d’éventuelles fonctionnalités d’actuation du réseau de capteurs
Usages of the internet of things experience an exponential growth these last few years. As a matter of fact, this is the result of, on one hand the significantly lowercosts in embedded computing systems, on the other hand the maturing of the software layers. From protocols and networks (CoAP, IPv6, etc) to standardization of ATMEL microcontrollers, tools at hand allow a better communication between more and more various sensors. This diversification gather every day users with different needs, expectations and fields of expertise, each one of them having his own approch, his own understanding of the connected things. The main issue concerns the complexity of the sensor networks, with regard to this necessity to address deeply different usages. Based on a single heterogeneous sensor network, it is critical to be able to meet the needs of each user, without having them to master the network beyond their own field of expertise. The tool described in this document aims at addressing this issue via a query engine dedicated to the processing of data collected from the sensors. Towards this end, it relies on a modelling of the sensors within several contexts, each of them reflecting a specific usage. On this basis a domain-specific language is provided, allowing complex event processing over the data monitored by the sensors. Furthermore, the implementation of this tool allows to interact with optional actuation functionalities of the sensor network
Style APA, Harvard, Vancouver, ISO itp.
49

Lainé, Anne-Laure. "Vectorisation de complexes ferrocéniques par les nanocapsules lipidiques pour le traitement du cancer". Phd thesis, Université d'Angers, 2013. http://tel.archives-ouvertes.fr/tel-01021165.

Pełny tekst źródła
Streszczenie:
Ces travaux ont pour but l'évaluation préclinique de trois composés ferrocéniques (FcOHTAM, FcdiOH et ansa-FcdiOH) formulés au sein de nanocapsules lipidiques (LNC) dans le cadre d'une thérapie anticancéreuse. Dans une première étude, le potentiel anticancéreux des ferrocifènes est démontré sur un modèle de cancer du sein triple négatif avec un retard significatif de la progression tumorale grâce à l'administration des LNC chargées en FcOHTAM. Afin d'améliorer le ciblage tumoral passif, la seconde partie de la thèse est consacrée au développement de LNC furtives par un procédé de formulation en une étape (one-step OS). Ces LNC OS présentent une circulation plasmatique prolongée et conservent l'intégrité de leur structure plusieurs heures après injection intraveineuse (iv), comme observé par imagerie FRET. Par ailleurs, l'injection répétée des LNC OS chargées en ansa-FcdiOH a provoqué l'arrêt de la croissance de gliomes implantés en sous-cutané. La dernière partie des travaux est dédiée au traitement du gliome orthotopique par différentes stratégies d'administration des LNC (en local et en périphérie). L'injection intra-carotidienne de LNC de FcdiOH recouvertes de peptide NFL-TBS a donné lieu à une amélioration de la survie pour quelques animaux (5/12). L'infusion intracérébrale prolongée des LNC de ferrocifènes a engendré une toxicité et mortalité importante. Finalement, l'administration répétée par voie iv s'est révélée être une approche encourageante avec une légère augmentation de la médiane de survie (7%). L'ensemble de ces résultats démontre l'activité prometteuse des complexes ferrocéniques associés aux LNC OS pour une approche alternative de thérapie du cancer.
Style APA, Harvard, Vancouver, ISO itp.
50

Jacob, Arthur. "Apport du séquençage d'exome pour le diagnostic et le traitement des maladies complexes". Thesis, Lille 2, 2020. http://www.theses.fr/2020LIL2S011.

Pełny tekst źródła
Streszczenie:
Depuis l'achèvement du projet du génome humain en 2001, le domaine de lagénomique a progressé de façon exponentielle, en grande partie grâce àl'introduction du séquençage de nouvelle génération (NGS), une technique deséquençage qui a révolutionné les méthodes d'investigation des maladiesgénétiques. L’accessibilité croissante de ces technologies permet l’essor de lamédecine de précision, basée sur une prise en charge spécifique de chaque patienten fonction de son profil génétique. Le séquençage peut être utilisé pour lediagnostic de maladies, la recherche de prédispositions génétiques, ou encore pourle choix thérapeutique en particulier en cancérologie. Le séquençage de l'exome(WES), en particulier, offre une méthode efficace pour étudier les maladies, car lesrégions exoniques représentent 2% du génome entier, mais peuvent contenir jusqu'à85% de variants fonctionnels responsables des maladies. Or, l’analyse génétiquedes patients en milieu clinique est principalement effectuée par le séquençage cibléde panels de quelques gènes choisis en fonction du contexte clinique. Le travaileffectué dans le cadre de cette thèse CIFRE en partenariat avec la sociétéPrenostics a été de développer des analyses WES pertinentes permettant decaractériser le profil génétique de patients atteints de maladies génétiques et decancers. L’objectif a été d’évaluer leur apport dans le diagnostic et l’établissement destratégies thérapeutiques personnalisées dans trois contextes distincts de pratiqueclinique, en le comparant à l’approche conventionnelle de séquençage de panels.- Dans le domaine des maladies génétiques pédiatriques, le diagnostic moléculairepar les méthodes conventionnelles n’atteint que 25%, laissant la majorité desfamilles sans conseil génétique pertinent. Notre analyse WES d’une cohorte de 26enfants atteints de maladies génétiques non diagnostiqués par les analysesgénétiques conventionnelles, notre approche WES a permis d’établir un diagnosticpositif dans 35% des cas.- Environ 5 à 10% des cancers du sein sont héréditaires, mais plus de la moitiéd’entre eux ne sont pas élucidés par le séquençage de panel classique incluant lesgènes à risque (BRCA1, BRCA2, PALB2, etc) et ne sont pas causés par des gènesde prédisposition connus. En analysant l’exome de quatre familles, nous avons tentéd’identifier les gènes en cause de cas familiaux ne présentant pas d’altération desgènes connus BRCA1/BRCA2 (familles BRCAx). Après filtration des variants à risque transmis parmi les membres atteints, nous avons identifié les gènes candidatsHIST1H1C, TYRO3, TPH1, SLC12A3 et CCNF comme de possibles gènes deprédisposition au cancer du sein. Cependant, sans études fonctionnelles pousséespermettant de valider leur implication, le WES ne semble pas apporter de bénéficepour la prise en charge de ces familles.- Enfin, dans le domaine de la cancérologie, la personnalisation du traitement est aucentre des enjeux actuels. Notre étude d’une cohorte de 35 tumeurs solidesréfractaires a démontré la faisabilité et l’efficacité du WES pour la caractérisation duprofil génétique de tumeurs solides et la prise de décision en oncologie. Ladétermination des pattern mutationnels tumoraux, de la charge tumorale et dessignatures mutationnelles à partir des données de WES a permis d’émettre dessuggestions thérapeutiques pour la moitié d’entre eux et a contribué à la modificationdu traitement d’au moins huit patients sur 35.Cette étude décrit les différentes applications, les limites et les avantages du WEScomme outil d’investigation moléculaire des maladies humaines. En démontrant lebénéfice d’utilisation du WES en clinique, nos résultats contribuent aux efforts encours pour son intégration dans le parcours de soin et le développement de lamédecine de précision
Since the completion of the Human Genome Project in 2001, the field of genomicshas grown exponentially, in large part due to the introduction of Next GenerationSequencing (NGS). This technique has revolutionized the investigation methods ofgenetic diseases, allowing high-throughput genome-wide sequencing to establish thegenetic basis of diseases. The increasing accessibility of these technologies allowsthe development of precision medicine, based on the specific care of each patientaccording to his genetic profile. Sequencing can be used for the diagnosis ofdiseases, the search for genetic predispositions to a disease, or for the therapeuticchoice, in particular in oncology. Exome sequencing (WES), in particular, offers aneffective method for studying diseases, since exonic regions represent 2% of theentire genome, but can contain up to 85% of functional variants responsible fordiseases. However, the genetic analysis of patients in a clinical setting is mainly carried out by the targeted sequencing of panels of a few genes chosen according tothe clinical context. The work carried out during this CIFRE thesis in partnership withthe company Prenostics was to develop relevant WES analyzes to characterize thegenetic profile of patients with rare genetic diseases and cancers. The objective wasto assess their contribution to the diagnosis and establishment of personalizedtreatment strategies in three distinct contexts of clinical practice, by comparing it tothe conventional approach of panel sequencing.- In the field of pediatric genetic diseases, molecular diagnosis by conventionalmethods only reaches 25%, leaving the majority of families without precise geneticcounseling. Our WES analysis of a cohort of 26 children with genetic diseases notdiagnosed by conventional genetic analyzes, our WES approach resulted in apositive diagnosis in 35% of cases.- About 5 to 10% of breast cancers are hereditary, but more than half of them are notelucidated by the genes at risk of breast cancer (BRCA1, BRCA2, PALB2, etc.) thatare included in conventional panel sequencing. By analyzing the exome of fourfamilies, we attempted to identify the genes involved in familial cases non-mutatedfor the known BRCA1 / BRCA2 genes (BRCAx families). After filtering the riskvariants transmitted among affected limbs, we identified the candidate genesHIST1H1C, TYRO3, TPH1, SLC12A3 and CCNF as possible genes of predispositionto breast cancer. However, without in-depth functional studies to validate theirinvolvement, WES does not seem to provide any benefit for patient management.- Finally, in the field of oncology, the personalization of treatment is at the center ofcurrent issues. Our study of a cohort of 35 refractory solid tumors aimed atdemonstrating the feasibility and efficacy of WES for characterizing the geneticprofile of solid tumors and for decision-making in oncology. We were able to maketreatment suggestions for half of them and helped modify the treatment of at leasteight out of 35 patients.This study describes the different applications, limits and advantages of WES as amolecular investigation tool for human diseases. By demonstrating the benefit ofusing WES in the clinic, our results contribute to the ongoing efforts to integrate it intothe care pathway and the development of precision medicine
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii