Tesi sul tema "Extraction de processus"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Extraction de processus.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Extraction de processus".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Ihaddadene, Nacim. "Extraction de modèles de processus métiers à partir de journaux d'événements". Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-143.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les approches actuelles de représentation des processus métiers s'appuient principalement sur les systèmes de workflow qui ordonnent les tâches selon une logique métier déterminée. Les systèmes de workflow, particulièrement nombreux sur le marché, souffrent, en revanche, de limites sérieuses dans l'évolution et la normalisation des processus métiers suite à leurs mises en exploitation. Par ce travail, nous contribuons à l'évolution et à la normalisation des processus métiers, à travers : - l'enrichissement du journal d'événements par des durées minimales et maximales. Notre philosophie est d'analyser le journal des événements avec le moins d'informations possibles (identité de l'instance, instant de fin, durée minimale, durée maximale, etc. ). - l'enrichissement de la description des processus métiers par des motifs de processus (diffusion (AND/XOR- split) et jointure AND/XOR-join)) et par des relations exceptionnelles (de continuité et de fin) entre les tâches, - la prise en compte des procédures de normalisation en cas d'échec de tâches, afm de fiabiliser au maximum les instances de processus. Nous ajoutons ainsi au niveau de représentation des processus, un niveau de représentation des relations exceptionnelles. La prise en compte à la fois de l'extraction des modèles de processus, enrichi des motifs de processus, et de la procédure de normalisation est un point important de notre travail de thèse. Les systèmes de workflow disponibles sur le marché ne supportent pas encore ce type de fonctionnalités. En effet, les méthodes traditionnelles de conception de processus se basent sur les perceptions des concepteurs, certainement expérimentées, mais n'impliquent pas les observations issues des usages réels. De plus, elles souffrent de l'absence de procédure d'évolution permettant d'optimiser la structure du workflow initialement conçue. La conception est globalement statique, alors qu'elle devrait être dynamique. En effet, il n'y a aucun intérêt de garder un modèle de processus qui ne répond pas aux besoins exprimés par les usages. Afin de répondre au besoin d'évolution et de normalisation des processus métiers, suite aux observations des usages ou tout simplement suite à de nouveaux besoins d'usages, nous avons spécifié une nouvelle étape d'évolution et de correction des processus par l'analyse du journal des événements.
2

Le, Saux Elisabeth. "Extraction et implémentation de stratégies expertes : application au contrôle de processus industriels". Paris, EHESS, 2000. http://www.theses.fr/2000EHES0121.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Niknazar, Mohammad. "Extraction et débruitage de signaux ECG du foetus". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00954175.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les malformations cardiaques congénitales sont la première cause de décès liés à une anomalie congénitale. L''electrocardiogramme du fœtus (ECGf), qui est censé contenir beaucoup plus d'informations par rapport aux méthodes échographiques conventionnelles, peut ˆêtre mesuré'e par des électrodes sur l'abdomen de la mère. Cependant, il est tr'es faible et mélangé avec plusieurs sources de bruit et interférence y compris l'ECG de la mère (ECGm) dont le niveau est très fort. Dans les études précédentes, plusieurs méthodes ont été proposées pour l'extraction de l'ECGf à partir des signaux enregistrés par des électrodes placées à la surface du corps de la mère. Cependant, ces méthodes nécessitent un nombre de capteurs important, et s'avèrent inefficaces avec un ou deux capteurs. Dans cette étude trois approches innovantes reposant sur une paramétrisation algébrique, statistique ou par variables d'état sont proposées. Ces trois méthodes mettent en œuvre des modélisations différentes de la quasi-périodicité du signal cardiaque. Dans la première approche, le signal cardiaque et sa variabilité sont modélisés par un filtre de Kalman. Dans la seconde approche, le signal est découpé en fenêtres selon les battements, et l'empilage constitue un tenseur dont on cherchera la décomposition. Dans la troisième approche, le signal n'est pas modélisé directement, mais il est considéré comme un processus Gaussien, caractérisé par ses statistiques à l'ordre deux. Dans les différentes modèles, contrairement aux études précédentes, l'ECGm et le (ou les) ECGf sont modélisés explicitement. Les performances des méthodes proposées, qui utilisent un nombre minimum de capteurs, sont évaluées sur des données synthétiques et des enregistrements réels, y compris les signaux cardiaques des fœtus jumeaux.
4

Lacoste, Caroline. "Extraction de réseaux linéiques à partir d'images satellitaires et aériennes par processus ponctuels marqués". Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00261397.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse aborde le problème de l'extraction non supervisée des réseaux linéiques (routes, rivières, etc.) à partir d'images satellitaires et aériennes. Nous utilisons des processus objet, ou processus ponctuels marqués, comme modèles a priori. Ces modèles permettent de bénéficier de l'apport d'un cadre stochastique (robustesse au bruit, corpus algorithmique, etc.) tout en manipulant des contraintes géométriques fortes. Un recuit simulé sur un algorithme de type Monte Carlo par Chaîne de Markov (MCMC) permet une optimisation globale sur l'espace des configurations d'objets, indépendamment de l'initialisation.
Nous proposons tout d'abord une modélisation du réseau linéique par un processus dont les objets sont des segments interagissant entre eux. Le modèle a priori est construit de façon à exploiter au mieux la topologie du réseau recherche au travers de potentiels fondés sur la qualité de chaque interaction. Les propriétés radiométriques sont prises en compte dans un terme d'attache aux données fondé sur des mesures statistiques.
Nous étendons ensuite cette modélisation à des objets plus complexes. La manipulation de lignes brisées permet une extraction plus précise du réseau et améliore la détection des bifurcations.
Enfin, nous proposons une modélisation hiérarchique des réseaux hydrographiques dans laquelle les affluents d'un fleuve sont modélisés par un processus de lignes brisées dans le voisinage de ce fleuve.
Pour chacun des modèles, nous accélérons la convergence de l'algorithme MCMC par l'ajout de perturbations adaptées.
La pertinence de cette modélisation par processus objet est vérifiée sur des images satellitaires et aériennes, optiques et radar.
5

Béchet, Nicolas. "Extraction et regroupement de descripteurs morpho-syntaxiques pour des processus de Fouille de Textes". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00462206.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les mots constituent l'un des fondements des langues naturelles de type indo-européenne. Des corpus rédigés avec ces langues sont alors naturellement décrits avec des mots. Cependant, l'information qu'ils véhiculent seuls est assez réduite d'un point de vue sémantique. Il est en effet primordial de prendre en compte la complexité de ces langues comme par exemple leurs propriétés syntaxiques, lexicales et sémantiques. Nous proposons dans cette thèse de prendre en considération ces propriétés en décrivant un corpus par le biais d'informations syntaxiques permettant de découvrir des connaissances sémantiques. Nous présentons dans un premier temps un modèle de sélection de descripteurs SelDe. Ce dernier se fonde sur les objets issus des relations syntaxiques d'un corpus. Le modèle SelDe a été évalué pour des tâches de classification de données textuelles. Pour cela, nous présentons une approche d'expansion de corpus, nommée ExpLSA, dont l'objectif est de combiner les informations syntaxiques fournies par SelDe et la méthode numérique LSA. Le modèle SelDe, bien que fournissant des descripteurs de bonne qualité, ne peut être appliqué avec tous types de données textuelles. Ainsi, nous décrivons dans cette thèse un ensemble d'approches adaptées aux données textuelles dites complexes. Nous étudions la qualité de ces méthodes avec des données syntaxiquement mal formulées et orthographiées, des données bruitées ou incomplètes et finalement des données dépourvues de syntaxe. Finalement un autre modèle de sélection de descripteurs, nommé SelDeF, est proposé. Ce dernier permet de valider de manière automatique des relations syntaxiques dites “induites”. Notre approche consiste à combiner deux méthodes. Une première approche fondée sur des vecteurs sémantiques utilise les ressources d'un thésaurus. Une seconde s'appuie sur les connaissances du Web et des mesures statistiques afin de valider les relations syntaxiques. Nous avons expérimenté SelDeF pour une tâche de construction et d'enrichissement de classes conceptuelles. Les résultats expérimentaux montrent la qualité des approches de validation et reflètent ainsi la qualité des classes conceptuelles construites.
6

Béchet, Nicolas. "Extraction et regroupement de descripteurs morpho-syntaxiques pour des processus de Fouille de Textes". Phd thesis, Montpellier 2, 2009. http://www.theses.fr/2009MON20222.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les mots constituent l'un des fondements des langues naturelles de type indo-européenne. Des corpus rédigés avec ces langues sont alors naturellement décrits avec des mots. Cependant, l'information qu'ils véhiculent seuls est assez réduite d'un point de vue sémantique. Il est en effet primordial de prendre en compte la complexité de ces langues comme par exemple leurs propriétés syntaxiques, lexicales et sémantiques. Nous proposons dans cette thèse de prendre en considération ces propriétés en décrivant un corpus par le biais d'informations syntaxiques permettant de découvrir des connaissances sémantiques. Nous présentons dans un premier temps un modèle de sélection de descripteurs SelDe. Ce dernier se fonde sur les objets issus des relations syntaxiques d'un corpus. Le modèle SelDe a été évalué pour des tâches de classification de données textuelles. Pour cela, nous présentons une approche d'expansion de corpus, nommée ExpLSA, dont l'objectif est de combiner les informations syntaxiques fournies par SelDe et la méthode numérique LSA. Le modèle SelDe, bien que fournissant des descripteurs de bonne qualité, ne peut être appliqué avec tous types de données textuelles. Ainsi, nous décrivons dans cette thèse un ensemble d'approches adaptées aux données textuelles dites complexes. Nous étudions la qualité de ces méthodes avec des données syntaxiquement mal formulées et orthographiées, des données bruitées ou incomplètes et finalement des données dépourvues de syntaxe. Finalement un autre modèle de sélection de descripteurs, nommé SelDeF, est proposé. Ce dernier permet de valider de manière automatique des relations syntaxiques dites “induites”. Notre approche consiste à combiner deux méthodes. Une première approche fondée sur des vecteurs sémantiques utilise les ressources d'un thésaurus. Une seconde s'appuie sur les connaissances du Web et des mesures statistiques afin de valider les relations syntaxiques. Nous avons expérimenté SelDeF pour une tâche de construction et d'enrichissement de classes conceptuelles. Les résultats expérimentaux montrent la qualité des approches de validation et reflètent ainsi la qualité des classes conceptuelles construites.
7

Kerdjoudj, Fadhela. "Gestion de l'incertitude dans le processus d'extraction de connaissances à partir de textes". Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1160/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La multiplication de sources textuelles sur le Web offre un champ pour l'extraction de connaissances depuis des textes et à la création de bases de connaissances. Dernièrement, de nombreux travaux dans ce domaine sont apparus ou se sont intensifiés. De ce fait, il est nécessaire de faire collaborer des approches linguistiques, pour extraire certains concepts relatifs aux entités nommées, aspects temporels et spatiaux, à des méthodes issues des traitements sémantiques afin de faire ressortir la pertinence et la précision de l'information véhiculée. Cependant, les imperfections liées au langage naturel doivent être gérées de manière efficace. Pour ce faire, nous proposons une méthode pour qualifier et quantifier l'incertitude des différentes portions des textes analysés. Enfin, pour présenter un intérêt à l'échelle du Web, les traitements linguistiques doivent être multisources et interlingue. Cette thèse s'inscrit dans la globalité de cette problématique, c'est-à-dire que nos contributions couvrent aussi bien les aspects extraction et représentation de connaissances incertaines que la visualisation des graphes générés et leur interrogation. Les travaux de recherche se sont déroulés dans le cadre d'une bourse CIFRE impliquant le Laboratoire d'Informatique Gaspard Monge (LIGM) de l'Université Paris-Est Marne la Vallée et la société GEOLSemantics. Nous nous appuyons sur une expérience cumulée de plusieurs années dans le monde de la linguistique (GEOLSemantics) et de la sémantique (LIGM).Dans ce contexte, nos contributions sont les suivantes :- participation au développement du système d'extraction de connaissances de GEOLSemantics, en particulier : (1) le développement d'une ontologie expressive pour la représentation des connaissances, (2) le développement d'un module de mise en cohérence, (3) le développement d'un outil visualisation graphique.- l'intégration de la qualification de différentes formes d'incertitude, au sein du processus d'extraction de connaissances à partir d'un texte,- la quantification des différentes formes d'incertitude identifiées ;- une représentation, à l'aide de graphes RDF, des connaissances et des incertitudes associées ;- une méthode d'interrogation SPARQL intégrant les différentes formes d'incertitude ;- une évaluation et une analyse des résultats obtenus avec notre approche
The increase of textual sources over the Web offers an opportunity for knowledge extraction and knowledge base creation. Recently, several research works on this topic have appeared or intensified. They generally highlight that to extract relevant and precise information from text, it is necessary to define a collaboration between linguistic approaches, e.g., to extract certain concepts regarding named entities, temporal and spatial aspects, and methods originating from the field of semantics' processing. Moreover, successful approaches also need to qualify and quantify the uncertainty present in the text. Finally, in order to be relevant in the context of the Web, the linguistic processing need to be consider several sources in different languages. This PhD thesis tackles this problematic in its entirety since our contributions cover the extraction, representation of uncertain knowledge as well as the visualization of generated graphs and their querying. This research work has been conducted within a CIFRE funding involving the Laboratoire d'Informatique Gaspard Monge (LIGM) of the Université Paris-Est Marne la Vallée and the GEOLSemantics start-up. It was leveraging from years of accumulated experience in natural language processing (GeolSemantics) and semantics processing (LIGM).In this context, our contributions are the following:- the integration of a qualifation of different forms of uncertainty, based on ontology processing, within the knowledge extraction processing,- the quantification of uncertainties based on a set of heuristics,- a representation, using RDF graphs, of the extracted knowledge and their uncertainties,- an evaluation and an analysis of the results obtained using our approach
8

Sandoval-Salas, Fabiola Vilarem Gérard Gschaedler Mathis Anne. "Caractérisation de la production et optimisation du processus d'extraction des colorants de la plante de An̆il (Indigofera suffruticosa Mill)". Toulouse : INP Toulouse, 2006. http://ethesis.inp-toulouse.fr/archive/00000235.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Sandoval-Salas, Fabiola. "Caractérisation de la production et optimisation du processus d'extraction des colorants de la plante de An̆il (Indigofera suffruticosa Mill)". Toulouse, INPT, 2005. http://ethesis.inp-toulouse.fr/archive/00000235/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail démontre que l'étape la plus appropriée pour réaliser la récolte de la plante An̆il (Indigofea suffruticosa Mill) est environ 5 mois après le semis, à la fin de l'étape de croissance de la plante, car les rendements maxima de Poudre de Colorant Bleu (PCB) et indigo sont obtenus dans cette étape. Les meilleures conditions d'extraction obtenues sur des échantillons de feuille d'anil sèches sont les suivantes : relation matière première/solvant de 1:20 jusqu'à 1:6,5 ; temps d'extraction entre 6 et 8 heures ; température entre 25°C et 35°C ; pH du solvant 7 pour l'extraction de l'indigo et pH 12 pour extraire l'indigo et indirubine ; temps d'aération compris entre 10 et 30 mn, pH 8 pour l'aération. L'effet principal de l'application des ultrasons pendant l'extraction est la réduction du temps de 6 à 2 heures. Les rendements maxima obtenus sont de 1,79 g de PCB/100 g de feuilles sèches et 3 mg d'indigo/g de feuilles sèches à pH7 et 1,6 mg d'indirubine/g de feuilles sèches à pH 12
In this work was found the the best stage by the An̆il (Indigofea suffruticosa Mill) harvesting is presented to 5 months after seedling, when the Blue Dye Powder (PDP) and indigo maxim yields were reached. The best dyes extraction conditions were : ration raw material/solvent from 1:20 to 1:6,5, extraction time 6-8 hours, temperature 25-35°C, extraction pH7 by indigo extraction and 12 by both indigo and indirubin extraction, aeration time 10-30 mn and aeration pH 8. The main effect of the ultrasound during the extraction was the reduction of the extraction time from 6 to 12 hours. The maxim yields obtained were 1, 79 g de CAP/100 of dry weight and 3 mg de indigo/g of dry weight to pH7 and 1,6 mg de dindirubin/g of dry weight to pH12
10

Gamal, Eldin Ahmed. "Point process and graph cut applied to 2D and 3D object extraction". Nice, 2011. http://www.theses.fr/2011NICE4107.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif de cette thèse est de développer une nouvelle approche de détection d’objets 3D à partir d’une image 2D, prenant en compte les occultations et les phénomènes de perspective. Cette approche est fondée sur la théorie des processus ponctuels marqués, qui a fait ses preuves dans la solution de plusieurs problèmes en imagerie haute résolution. Le travail de la thèse est structuré en deux parties. Dans la première partie, nous proposons une nouvelle méthode probabiliste pour gérer les occultations et les effets de perspective. Le modèle proposé est fondé sur la simulation d’une scène 3D utilisant OpenGL sur une carte graphique (GPU). C’est une méthode orientée objet, intégrée dans le cadre d’un processus ponctuel marqué. Nous l’appliquons pour l’estimation de la taille d’une colonie de manchots, là où nous modélisons certaines configurations candidat composé d’objet 3D s’appuyant sur le plan réel. Une densité de Gibbs est définie sur l’espace des configurations, qui prend en compte des informations a priori et sur les données. Pour une configuration proposée, la scène est projetée sur le plan image, et les configurations sont modifiées jusqu’à convergence. Pour évaluer une configuration proposée, nous mesurons la similarité entre l’image projetée de la configuration projetée et l’image réelle, définissant ainsi le terme d’attache aux données et l’a priori pénalisant les recouvrements entre objets. Nous avons introduit des modifications dans l’algorithme d’optimisation pour prendre en compte les nouvelles dépendances qui existent dans notre modèle 3D. Nous proposons une nouvelle méthode d’optimisation appelée « Naissances et Coupe multiples » (Multiple Births and Cut » (MBC) en anglais). Cette méthode combine à la fois la nouvelle méthode d’optimisation « Naissance et mort multiples » (MBD) et les « Graph-Cut ». Les méthodes MBC et MBD sont utilisées pour l’optimisation d’un processus ponctuel marqué. Nous avons comparé les algorithmes MBC et MBD montrant que les principaux avantages de notre algorithme nouvellement proposé sont la réduction du nombre de paramètres, la vitesse de convergence et de la qualité des résultats obtenus. Nous avons validé notre algorithme sur le problème de dénombrement des flamants roses dans une colonie
The topic of this thesis is to develop a novel approach for 3D object detection from a 2D image. This approach takes into consideration the occlusions and the perspective effects. This work has been embedded in a marked point process framework, proved to be efficient for solving many challenging problems dealing with high resolution images. The accomplished work during the thesis can be presented in two parts : In the first part, we propose a novel probabilistic approach to handle occlusions and perspective effects. The proposed method is based on 3D scene simulation on the GPU using OpenGL. It is an object based method embedded in a marked point process framework. We apply it for the size estimation of a penguin colony, where we model a penguin colony as an unknown number of 3D objects. The main idea of the proposed approach is to sample some candidate configurations consisting of 3D objects lying on the real plane. A Gibbs energy is define on the configuration space, which takes into account both prior and data information. The proposed configurations are projected onto the image plane, and the configurations are modified until convergence. To evaluate a proposed configuration, we measure the similarity between the projected image of the proposed configuration and the real image, by defining a data term and a prior term which penalize objects overlapping. We introduced modifications to the optimization algorithm to take into account new dependencies that exists in our 3D model. In the second part, we propose a new optimization method which we call “Multiple Births and Cut” (MBC). It combines the recently developed optimization algorithm Multiple Births and Deaths (MBD) and the Graph-Cut. MBD and MBC optimization methods are applied for the optimization of a marked point process. We compared the MBC to the MBD algorithms showing that the main advantage of our newly proposed algorithm is the reduction of the number of parameters, the speed of convergence and the quality of the obtained results. We validated our algorithm on the counting problem of flamingos in a colony
11

Jean, Pierre-Antoine. "Gestion de l’incertitude et de l’imprécision dans un processus d’extraction de connaissances à partir des textes". Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS019/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les concepts de découverte et d’extraction de connaissances ainsi que d’inférencesont abordés sous différents angles au sein de la littérature scientifique. En effet, de nombreux domaines s’y intéressent allant de la recherche d’information, à l’implication textuelle en passant par les modèles d’enrichissement automatique des bases de connaissances. Ces concepts suscitent de plus en plus d’intérêt à la fois dans le monde académique et industriel favorisant le développement de nouvelles méthodes.Cette thèse propose une approche automatisée pour l’inférence et l’évaluation de connaissances basée sur l’analyse de relations extraites automatiquement à partir de textes. L’originalité de cette approche repose sur la définition d’un cadre tenant compte (i) de l’incertitude linguistique et de sa détection dans le langage naturel réalisée au travers d’une méthode d’apprentissage tenant compte d’une représentation vectorielle spécifique des phrases, (ii) d’une structuration des objets étudiés (e.g. syntagmes nominaux) sous la forme d’un ordre partiel tenant compte à la fois des implications syntaxiques et d’une connaissance a priori formalisée dans un modèle de connaissances de type taxonomique (iii) d’une évaluation des relations extraites et inférées grâce à des modèles de sélection exploitant une organisation hiérarchique des relations considérées. Cette organisation hiérarchique permet de distinguer différents critères en mettant en œuvre des règles de propagation de l’information permettant ainsi d’évaluer la croyance qu’on peut accorder à une relation en tenant compte de l’incertitude linguistique véhiculée. Bien qu’a portée plus large, notre approche est ici illustrée et évaluée au travers de la définition d’un système de réponse à un questionnaire, généré de manière automatique, exploitant des textes issus du Web. Nous montrons notamment le gain informationnel apporté par la connaissance a priori, l’impact des modèles de sélection établis et le rôle joué par l’incertitude linguistique au sein d’une telle chaîne de traitement. Les travaux sur la détection de l’incertitude linguistique et la mise en place de la chaîne de traitement ont été validés par plusieurs publications et communications nationales et internationales. Les travaux développés sur la détection de l’incertitude et la mise en place de la chaîne de traitement sont disponibles au téléchargement à l’adresse suivante : https ://github.com/PAJEAN/
Knowledge discovery and inference are concepts tackled in different ways in the scientific literature. Indeed, a large number of domains are interested such as : information retrieval, textual inference or knowledge base population. Theses concepts are arousing increasing interest in both academic and industrial fields, promoting development of new methods.This manuscript proposes an automated approach to infer and evaluate knowledge from extracted relations in non-structured texts. Its originality is based on a novel framework making possible to exploit (i) the linguistic uncertainty thanks to an uncertainty detection method described in this manuscript (ii) a generated partial ordering of studied objects (e.g. noun phrases) taking into account of syntactic implications and a prior knowledge defined into taxonomies, and (iii) an evaluation step of extracted and inferred relations by selection models exploiting a specific partial ordering of relations. This partial ordering allows to compute some criteria in using information propagation rules in order to evaluate the belief associated to a relation in taking into account of the linguistic uncertainty. The proposed approach is illustrated and evaluated through the definition of a system performing question answering by analysing texts available on the Web. This case study shows the benefits of structuring processed information (e.g. using prior knowledge), the impact of selection models and the role of the linguistic uncertainty for inferring and discovering new knowledge. These contributions have been validated by several international and national publications and our pipeline can be downloaded at https ://github.com/PAJEAN/
12

Gerliani, Natela. "Intégration de la technologie d'électro-activation en solution comme approche écologique dans le processus de valorisation du tourteau de soja". Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/35836.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Actuellement, la demande pour trouver des sources alternatives de production d’ingrédients alimentaires de valeur tels que les protéines et les extraits riches en nutriments a augmenté de manière hautement significative. Dans ce contexte, le tourteau de soja est une source précieuse de protéines, de glucides et d'autres composés qui peuvent être valorisés et utilisés dans l'alimentation humaine. Cependant, pour extraire des substances ayant une valeur nutritionnelle élevée, on utilise généralement des procédés d’extraction conventionnels basés sur une utilisation accrue des acides forts (HCl, H2SO4) et des bases concentrées (NaOH, KOH). Sur le plan de santé et sécurité au travail, ces produits chimiques hautement dangereux et corrosifs présentent plusieurs inconvénients; notamment la nécessité de disposer de moyens hautement efficaces de protection et de gestion de risque chimique et du personnel qualifié pour leur manutention. En plus, l’utilisation de ces produits chimiques a, à son tour, un impact important sur l’environnement, car leurs effluents sont très dommageables des écosystèmes et nécessitent des moyens d’épuration très coûteux. Conséquemment, la recherche d’autres technologies de substitution partielle ou complète aux procédés d’extraction conventionnels demeure un sujet d’actualité, ce qui amène les entreprises modernes et soucieuses de la protection de l’environnement à s’intéresser au développement de nouvelles technologies durables d'extraction afin de réduire les impacts négatifs de cette industrie. Dans ce contexte, pour résoudre ces problèmes, la technologie d'électro-activation (EA) en solution, qui fait l’objet d’une programmation de recherche de grande envergure de notre équipe, a montré d’excellentes perspectives pour être utilisée comme approche efficace pour l’extraction des matières solubles à partir de résidus issus de pratiques agroalimentaires. Sur le plan environnemental, cette technologie pourrait servir à la réduction des effluents, car, elle ne nécessite que de l'eau, du sel et de l'électricité pour générer des solutions acides (anolytes) et basiques (catholytes) utilisables pour des fins d’extraction. Ainsi, ces solutions pourraient remplacer, partiellement ou totalement, les acides et bases chimiques. Ainsi, ce projet de doctorat en Sols et environnement, divisé en quatre objectifs spécifiques, visait à étudier l’intégration de la technologie d’électroactivation en solution, comme moyen de substitution aux acides et bases chimiques, dans un procédé de valorisation de tourteau de soja à des fins alimentaires humaines, tout en apportant une contribution significative à la protection de l’environnement...
Le premier objectif de ce projet de doctorat visait à étudier et comparer l’extraction acide versus l’extraction basique de la matière sèche soluble à partir de tourteau de soja. Cette matière sèche soluble est composée principalement d’un mélange de protéines, de glucides et de minéraux. L'extraction alcaline a été effectuée à pH 8, 9 et 10 alors que l'extraction acide a été effectuée à pH 2 et 3. Dans les deux modes d'extraction, différentes concentrations de NaCl ont été ajoutées au milieu d’extraction (0.01, 0.025 et 0.05 M). Les résultats obtenu sont montré que les deux méthodes étaient efficaces en termes d'extraction de matière sèche soluble avec des différences qualitatives et quantitatives significatives. L'extraction alcaline était significativement plus efficace en termes de matière sèche totale extraite et de teneur en protéines de l’extrait avec des valeurs moyennes de 39.97 ± 0.23% à 43.35 ± 2.90%, respectivement. Les extraits acides et alcalins étaient caractérisés par une teneur élevée (mg/100 g) en minéraux spécifiques tels que le potassium (334.93 ± 41.93), le calcium (24.73± 10.32) et le magnésium (35.34 ± 10.86). Les données obtenues par électrophorèse sur gel (SDS-PAGE) ont confirmé l'efficacité du mode alcalin en termes de teneur en protéines parles bandes plus évidentes. La turbidité la plus élevée a été obtenue à pH 4-5 pour tous les extraits, tandis que le potentiel zêta indiquait un point isoélectrique pHi à pH 4-5 pour les extraits alcalins et un pHi à pH 7-8 pour les extraits acides. Les glucides extraits ont montré un profil pH-dépendant avec un potentiel d’utilisation de l’extrait comme prébiotique. Dans l’ensemble, cette étude a mis en évidence l’efficacité et l’utilisation rationnelle des extractions combinées acide-alcaline pour améliorer la valorisation du tourteau de soja dans les applications alimentaires et réduire les déchets générés par l’industrie de production de l’huile de soja. Le deuxième objectif consistait à étudier la technologie d'électro-activation permettant d'extraire la matière sèche soluble du tourteau de soja constituée d’un mélange de protéines, de glucides et de minéraux. Les extractions dans des conditions alcalines (catholyte) et acides (anolyte) ont été effectuées avec des solutions électro-activées obtenues à des intensités de courant électrique de 150, 300 et 450 mA pendant 10, 20, 30, 40 et 50 minutes d’électro-activation. Les deux méthodes ont été efficaces pour extraire la matière sèche soluble du tourteau de soja. Le catholyte était le plus efficace pour extraire les protéines avec un rendement maximal de 45.55 ± 2.77 %. De plus, la teneur en protéines augmentait avec le temps de traitement dans les extraits au catholyte, mais diminuait dans les échantillons extraits par l’anolyte. Les analyses par SDS-PAGE ont confirmé l'efficacité du catholyte à extraire davantage de protéines de meilleure qualité que l'anolyte. Des résultats similaires ont été observés pour les profils d'acides aminés, car les échantillons extraits par le catholyte étant les plus riches en acides aminés essentiels et non essentiels. Bien que l'anolyte ait extrait les quantités les plus élevées des minéraux comme le Mg2+(78 %), Ca2+(37 %) et P3-(37 %) du tourteau de soja, le catholyte s'est avéré plus efficace pour extraire le Zn2+(65 %), Fe2+(62 %), et les ions Cu2+(42 %). Les échantillons obtenus à la fois par l’utilisation des solutions anolytes et catholytes présentaient de bons profils glucidiques contenant certains monosaccharides avec un potentiel de pouvoir prébiotiques. Le profil des glucides variait avec l’intensité du courant électrique utilisé pour la production de solutions électro-activées et le temps de traitement. La teneur en stachyose et en raffinose augmentait avec l’intensité utilisée pour la production des anolytes tout en diminuant dans les échantillons des catholytes. De manière similaire, les teneurs les plus élevées en stachyose et en raffinose ont été observées pour les échantillons obtenus avec la solution catholyte électro-activée pendant 10 min, avec des valeurs respectives allant de 206.64 à 222.49 et de 31.17 à 34.29 mg/g. Les échantillons traités avec l'anolyte électro-activé pendant une plus longue période (30 à 50 min) étaient caractérisés par des teneurs plus élevées en ces sucres. Le troisième objectif visait à étudier et comparer les propriétés fonctionnelles et l'activité antioxydante de la matière sèche extraite du tourteau de soja de manière conventionnelle et comparées à celles des extraits obtenus par des solutions électro-activées. La capacité d'absorption d'eau (WAC) de l'extrait conventionnel obtenu à pH 8-0.01M NaCl présentait la valeur de WAC la plus élevée (400 ± 7 g/100 g), tandis que la WAC le plus faible (0) était celui des échantillons extraits sous NaCl pH3-0.01M et pH3-0.05M NaCl. L'extrait obtenu avec la solution électro-activée Anolyte_300mA-30min avait une valeur de WAC de 25 ± 1 g/100 g, tandis que la valeur minimale de WAC de 0 g/100 g était observée pour l'extrait obtenu avec de l'anolyte électro-activé Anolyte_450mA-50min et Catholyte_150mA-10min. La capacité d'absorption d'huile (OAC) était la plus élevée pour les échantillons extraits sous des conditions alcalines, quel que soit le mode d'extraction utilisé (conventionnelle ou électro-activation), avec des valeurs comprises entre 5,50 ± 0,54 et 6,85 ± 0,62 mL/g. Les extraits obtenus à pH3-0,05M NaCl et Anolyte_450mA-50min ont des valeurs OAC respectives de 1,85 ± 0,23 et 1,51 ± 0,13 mL/g. Les propriétés moussantes des extraits classiques étaient supérieures à celles extraites par électro-activation. La valeur maximale de 52% a été observée pour l'échantillon conventionnel obtenu à pH 9-0,025M NaCl, tandis que la capacité de moussage maximale de 28% a été détectée dans l'échantillon électro-activé obtenu avec Anolyte_450mA-50min. Les échantillons électro-activés ont été caractérisés par des propriétés émulsifiantes plus élevées. Les extraits classiques ont montré une activité antioxydante supérieure (92.31 ± 1.5%) à celle obtenue par électro-activation (47.46 ± 0.94%). Les résultats obtenus dans le présent travail mettent en évidence le pouvoir émulsifiant des solutions électro-activées, suggérant sa grande aptitude à être utilisés dans des formulations alimentaires telles que les boissons prêtes à boire et autres produits du type émulsion. Le quatrième objectif visait à étudier la qualité et le comportement des boissons contenant des extraits obtenus à partir de tourteau de soja par électro-activation. Toutes les boissons produites ont été additionnées d’une poudre de lactosérum pour une teneur final dans le produit de 0.7%. Les boissons de soja ont été codées avec des lettres allant de A à I.Les boissons ayant les codes G, H et I contenaient des particules de protéines plus grosses que les autres échantillons. Ensuite, la viscosité de la majorité des échantillons était faible et les boissons avaient un comportement d’amincissement par cisaillement. Les solutions étaient visuellement stables même si les mesures de turbidité et de potentiel zêta ont montré que le système de produits n'est pas stable dans une plage de pH de 3 à 10. De plus, la solubilité des échantillons était bonne, en particulier pour les échantillons G (97.76 ± 0.04%) et H (97.53 ± 0.18%). De plus, les échantillons I et F ont montré une capacité de moussage très élevée avec une valeur de 98 ± 7.34% et 80 ± 5.25%, respectivement. La boisson ayant le code G présentait une capacité d'absorption d'eau élevée (530 g/100 g). De plus, les valeurs de récupération des protéines de caillé obtenues à partir du coagulum variaient de 56,57 ±2.17 à 98.57 ± 6.37%.
Recently, the demand to find the alternative sources of valuable compounds such as proteins increased. Soybean meal is a valuable source of proteins, carbohydrates and other compounds. These compounds can be valorized from soybean meal and used in human feed.However, to extract valuable substances usually conventional acids and alkalis are used. The use of these chemical solutions, in its turn, has a big impact on the environment as well as other negative consequences. As a result, modern enterprises are more interested in sustainable extraction technologies in order to reduce these negative consequences.To solve these problems the technology of electro-activation (EA) was observed and showed good abilities in extracting of the valuable substances. This technology requires only water, salt and electricity. This work was aimed to study weather this alternative type of extraction is effective for soybean meal valorization.The first objective was to study conventional extraction and its ability to extract proteins and carbohydrates. Certain parameters of conventional extraction affect the most protein extractability.Thus, from pH, meal to solvent ratio, and salt concentration parameters, the pH of the extracting medium had the most significant effect on protein extractability for conventional extracts. The procedure of extraction was carried out using alkaline (NaOH) and acid (HCl) solutions. As a result, a soluble dry matter composed of proteins, carbohydrates and minerals was extracted from soybean meal. The obtained results showed that the both alkaline and acid methods, that were used, are effective in terms of extraction of soluble dry matter with significant qualitative and quantitative differences. The alkaline extraction was significantly more effective in terms of the total extracted dry matterand protein content in the extracted material with mean values of 39.97 ± 0.23 and 43.35 %± 2.90, respectively. In fact, this study demonstrated the effectiveness and rational use of the dual acid-alkaline extraction to enhance the soybean meal valorization for food applications and provide reduction of waste generated by the soybean oil industry. Second objective was to study the influence of electro-activated solutions on proteins extracted from soybean meal and to compare them to the conventional solutions obtained in the first objective. In order to produce electro-activated samples, the optimal parameters of electro-activation for high extraction yield from soybean meal were studied. It was observed that pH changes, right after the electricity is applied, each 10 mins till 60 mins the pH increased significantly. After the extraction of compounds by electro-activation technique was performed, the comparison of the conventional and electro-activated samples took place. It was found that electro-activation is effective as protein extraction method and for extraction of other compounds with beneficial properties for environment. However, conventional extraction is harmful for the environment, even though the commercial extracts were of higher extraction yield and with the bands of bigger molecular weight. Nonetheless, it was found that when the contact time of electro-activated solution with material is increased, the extraction yield and quality of protein is significantly higher. While for conventional extracts treated by the same time there was no significant difference.Third objective aimed to study the comparison of functional properties and antioxidant activity of soybean meal extracts obtained by conventional extraction and using electro-activated solutions.The commercial samples were characterized by superior water absorption and foaming capacity. In contrast, electro-activated samples were characterized by superior emulsification properties. Therefore, conventional samples showed higher antioxidant activity (92.31±1.5%) than electro-activated ones (47.46±0.94%). Overall, this study demonstrated favorable functional and antioxidant properties of samples made by electro-activation method.The fourth objective was to evaluate the behaviour of functional beverage by using protein-carbohydrate extract obtained from soybean meal produced by electro-activation technology. The results showed that the particle size value was ≤ 0.2μm for majority of thesamples. However, with an increasing of the flow the particle size also increased due to large protein particles formed as complexes of a definite size. Furthermore, the behaviour of systems had Newtonian nature and shear-thinning behavior with the low viscosity which is good for such products as beverages. In addition, the turbidity and z-potential measurements showed that the system of products is not stable in pH range 3-10. Moreover, solubility of samples was quite good, especially for certain samples, it was 97.76±0.04 % and 97.53±0.18%. To conclude, these beverages are high in protein and can serve as nutritional beverages. Regarding the result of this work it can be claimed that electro-activated solutions as extracting agents are quite powerful. Also, additional and very important advantage of electro-activation is option of rejection from conventional chemicals which is an important point for sustainable development.
13

Noorzadeh, Saman. "Extraction de l'ECG du foetus et de ses caractéristiques grâce à la multi-modalité". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT135/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La surveillance de la santé foetale permet aux cliniciens d’évaluer le bien-être du foetus,de faire une détection précoce des anomalies cardiaques foetales et de fournir les traitementsappropriés. Les développements technologies actuels visent à permettre la mesurede l’électrocardiogramme (ECG) foetal de façon non-invasive afin d’extraire non seulementle rythme cardiaque mais également la forme d’onde du signal. Cet objectif est rendudifficile par le faible rapport signal sur bruit des signaux mesurés sur l’abdomen maternel.Cette mesure est donc toujours un challenge auquel se confrontent beaucoup d’études quiproposent des solutions de traitement de signal basées sur la seule modalité ECG.Le but de cette thèse est d’utiliser la modélisation des processus Gaussiens pour améliorerl’extraction des signaux cardiaques foetaux, dans une base multi-modale. L’ECG est utiliséconjointement avec le signal Phonocardiogramme (PCG) qui peut apporter une informationcomplémentaire à l’ECG. Une méthode générale pour la modélisation des signauxquasi-périodiques est présentée avec l’application au débruitage de l’ECG et à l’extractionde l’ECG du foetus. Différents aspects de la multi-modalité (synchronisation, · · · ) proposéesont étudiées afin de détecter avec plus de robustesse les battements cardiaques foetaux.La méthode considère l’application sur les signaux ECG et PCG à travers deux aspects:l’aspect du traitement du signal et l’expérimental. La modélisation des processus Gaussien,avec le signal PCG pris comme la référence, est utilisée pour extraire des modèles flexibleset des estimations non linéaires de l’information. La méthode cherche également à faciliterla mise en oeuvre pratique en utilisant un codage 1-bit des signaux de référence.Le modèle proposé est validé sur des signaux synthétiques et également sur des donnéespréliminaires réelles qui ont été enregistrées afin d’amorcer la constitution d’une base dedonnées multi-modale synchronisée. Les premiers résultats montrent que la méthode permettraà terme aux cliniciens d’étudier les battements cardiaques ainsi que la morphologiede l’ECG. Ce dernier aspect était jusqu’à présent limité à l’analyse d’enregistrements ECGinvasifs prélevés pendant l’accouchement par le biais d’électrodes posées sur le scalp dufoetus
Fetal health must be carefully monitored during pregnancy to detect early fetal cardiac diseases, and provide appropriate treatment. Technological development allows a monitoring during pregnancy using the non-invasive fetal electrocardiogram (ECG). Noninvasive fetal ECG is a method not only to detect fetal heart rate, but also to analyze the morphology of fetal ECG, which is now limited to analysis of the invasive ECG during delivery. However, the noninvasive fetal ECG recorded from the mother's abdomen is contaminated with several noise sources among which the maternal ECG is the most prominent.In the present study, the problem of noninvasive fetal ECG extraction is tackled using multi-modality. Beside ECG signal, this approach benefits from the Phonocardiogram (PCG) signal as another signal modality, which can provide complementary information about the fetal ECG.A general method for quasi-periodic signal analysis and modeling is first described and its application to ECG denoising and fetal ECG extraction is explained. Considering the difficulties caused by the synchronization of the two modalities, the event detection in the quasi-periodic signals is also studied which can be specified to the detection of the R-peaks in the ECG signal.The method considers both clinical and signal processing aspects of the application on ECG and PCG signals. These signals are introduced and their characteristics are explained. Then, using PCG signal as the reference, the Gaussian process modeling is employed to provide the possibility of flexible models as nonlinear estimations. The method also tries to facilitate the practical implementation of the device by using the less possible number of channels and also by using only 1-bit reference signal.The method is tested on synthetic data and also on real data that is recorded to provide a synchronous multi-modal data set.Since a standard agreement for the acquisition of these modalities is not yet taken into much consideration, the factors which influence the signals in recording procedure are introduced and their difficulties and effects are investigated.The results show that the multi-modal approach is efficient in the detection of R-peaks and so in the extraction of fetal heart rate, and it also provides the results about the morphology of fetal ECG
14

Thomas, Simon. "Extraction d'information dans des documents manuscrits non contraints : application au traitement automatique des courriers entrants manuscrits". Rouen, 2012. http://www.theses.fr/2012ROUES048.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Malgré l’entrée récente de notre monde dans l’ère du tout numérique, de nombreux documents manuscrits continuent à s’échanger, obligeant nos sociétés et administrations à faire face au traitement de ces masses de documents. Le traitement automatique de ces documents nécessite d’accéder à un échantillon inconnu mais pertinent de leur contenu et implique de prendre en compte trois points essentiels : la segmentation du document en entités comparable à l’information recherchée, la reconnaissance de ces entités recherchées et le rejet des entités non pertinentes. Nous nous démarquons des approches classiques de lecture complète de documents et de détection de mots clés en parallélisant ces trois traitements en une approche d’extraction d’information. Une première contribution réside dans la conception d’un modèle de ligne générique pour l’extraction d’information et l’implémentation d’un système complet à base de modèles de Markov cachés (MMC) construit autour de ce modèle. Le module de reconnaissance cherche, en une seule passe, à discriminer l’information pertinente, caractérisée par un ensemble de requêtes alphabétiques, numériques ou alphanumériques, de l’information non pertinente, caractérisée par un modèle de remplissage. Une seconde contribution réside dans l’amélioration de la discrimination locale des observations des lignes par l’utilisation d’un réseau de neurones profond. Ce dernier permet également d’inférer une représentation de haut niveau des observations et donc d’automatiser le processus d’extraction des caractéristiques. Il en résulte un système complet, générique et industrialisable, répondant à des besoins émergents dans le domaine de la lecture automatique de documents manuscrits : l’extraction d’informations complexes dans des documents non-contraints
Despite the avenment of our world into the digital era, a large amount of handwritten documents continue to be exchanged, forcing our companies and administrations to cope with the processing of masses of documents. Automatic processing of these documents requires access to an unknown but relevant part of their content, and implies taking into account three key points : the document segmentation into relevant entities, their recognition and the rejection of irrelevant entities. Contrary to traditional approaches (full documents reading or keyword detection), all processes are parallelized leading to an information extraction approach. The first contribution of the present work is the design of a generic text line model for information extraction purpose and the implementation of a complete system based on Hidden Markov Models (HMM) constrained by this model. In one pass, the recognition module seeks to discriminate relevant information, characterized by a set of alphabetic, numeric or alphanumeric queries, with the irrelevant information, characterized by a filler model. A second contribution concerns the improvement of the local frame discrimination by using a deep neural network. This allows one to infer high-level representation for the frames and thus automate the feature extraction process. These result is a complete, generic and industrially system, responding to emerging needs in the field of handwritten document automatic reading : the extraction of complex information in unconstrained documents
15

Kobeissi, Meriana. "A conversational AI Framework for Cognitive Process Analysis". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les processus métier (BP) sont les piliers fondamentaux des organisations, englobant toute une gamme d'activités structurées visant à atteindre des objectifs organisationnels distincts. Ces processus, caractérisés par une multitude de tâches, d'interactions et de flux de travail, offrent une méthodologie structurée pour superviser les opérations cruciales dans divers secteurs. Une découverte essentielle pour les organisations a été la reconnaissance de la valeur profonde inhérente aux données produites pendant ces processus. L'analyse des processus, une discipline spécialisée, explore ces journaux de données, facilitant une compréhension plus profonde et l'amélioration des BP. Cette analyse peut être catégorisée en deux perspectives : le niveau d'instance, qui se concentre sur les exécutions individuelles de processus, et le niveau de processus, qui examine le processus global.Cependant, l'application de l'analyse des processus pose des défis aux utilisateurs, impliquant la nécessité d'accéder aux données, de naviguer dans les API de bas niveau et d'utiliser des méthodes dépendantes d'outils. L'application dans le monde réel rencontre souvent des complexités et des obstacles centrés sur l'utilisateur.Plus précisément, l'analyse de niveau d'instance exige des utilisateurs qu'ils accèdent aux données d'exécution de processus stockées, une tâche qui peut être complexe pour les professionnels de l'entreprise en raison de l'exigence de maîtriser des langages de requête complexes tels que SQL et CYPHER. En revanche, l'analyse de niveau de processus des données de processus implique l'utilisation de méthodes et d'algorithmes qui exploitent les données d'exécution de processus extraites des systèmes d'information. Ces méthodologies sont regroupées sous le terme de techniques d'exploration de processus. L'application de l'exploration de processus confronte les analystes à la tâche complexe de sélection de méthodes, qui consiste à trier des descriptions de méthodes non structurées. De plus, l'application des méthodes d'exploration de processus dépend d'outils spécifiques et nécessite un certain niveau d'expertise technique.Pour relever ces défis, cette thèse présente des solutions basées sur l'IA, mettant l'accent sur l'intégration de capacités cognitives dans l'analyse des processus pour faciliter les tâches d'analyse tant au niveau de l'instance qu'au niveau du processus pour tous les utilisateurs. Les objectifs principaux sont doubles : premièrement, améliorer l'accessibilité des données d'exécution de processus en créant une interface capable de construire automatiquement la requête de base correspondante à partir du langage naturel. Ceci est complété par la proposition d'une technique de stockage adaptée et d'un langage de requête autour desquels l'interface doit être conçue. À cet égard, nous introduisons un méta-modèle graphique basé sur le graphe de propriétés étiquetées (LPG) pour le stockage efficace des données. Deuxièmement, pour rationaliser la découverte et l'accessibilité des techniques d'exploration de processus, nous présentons une architecture orientée services.Pour valider notre méta-modèle graphique, nous avons utilisé deux ensembles de données de processus accessibles au public disponibles à la fois au format CSV et OCEL. Ces ensembles de données ont été essentiels pour évaluer les performances de notre pipeline de requêtes en langage naturel. Nous avons recueilli des requêtes en langage naturel auprès d'utilisateurs externes et en avons généré d'autres à l'aide d'outils de paraphrase. Notre cadre orienté services a été évalué à l'aide de requêtes en langage naturel spécialement conçues pour les descriptions de services d'exploration de processus. De plus, nous avons mené une étude de cas avec des participants externes pour évaluer l'expérience utilisateur et recueillir des commentaires. Nous fournissons publiquement les résultats de l'évaluation pour garantir la reproductibilité dans le domaine étudié
Business processes (BP) are the foundational pillars of organizations, encapsulating a range of structured activities aimed at fulfilling distinct organizational objectives. These processes, characterized by a plethora of tasks, interactions, and workflows, offer a structured methodology for overseeing crucial operations across diverse sectors. A pivotal insight for organizations has been the discernment of the profound value inherent in the data produced during these processes. Process analysis, a specialized discipline, ventures into these data logs, facilitating a deeper comprehension and enhancement of BPs. This analysis can be categorized into two perspectives: instance-level, which focuses on individual process executions, and process-level, which examines the overarching process.However, applying process analysis in practice poses challenges for users, involving the need to access data, navigate low-level APIs, and employ tool-dependent methods. Real-world application often encounters complexities and user-centric obstacles.Specifically, instance-level analysis demands users to access stored process execution data, a task that can be intricate for business professionals due to the requirement of mastering complex query languages like SQL and CYPHER. Conversely, process-level analysis of process data involves the utilization of methods and algorithms that harness process execution data extracted from information systems. These methodologies collectively fall under the umbrella of process mining techniques. The application of process mining confronts analysts with the intricate task of method selection, which involves sifting through unstructured method descriptions. Additionally, the application of process mining methods depends on specific tools and necessitates a certain level of technical expertise.To address these challenges, this thesis introduces AI-driven solutions, with a focus on integrating cognitive capabilities into process analysis to facilitate analysis tasks at both the instance level and the process level for all users. The primary objectives are twofold: Firstly, to enhance the accessibility of process execution data by creating an interface capable of automatically constructing the corresponding database query from natural language. This is complemented by proposing a suitable storage technique and query language that the interface should be designed around. In this regard, we introduce a graph metamodel based on Labeled Property Graph (LPG) for efficient data storage. Secondly, to streamline the discovery and accessibility of process mining techniques, we present a service-oriented architecture. This architecture comprises three core components: an LPG meta-model detailing process mining methods, a service-oriented REST API design tailored for these methods, and a component adept at matching user requirements expressed in natural language with appropriate services.For the validation of our graph metamodel, we utilized two publicly accessible process datasets available in both CSV and OCEL formats. These datasets were instrumental in evaluating the performance of our NL querying pipeline. We gathered NL queries from external users and produced additional ones through paraphrasing tools. Our service-oriented framework underwent an assessment using NL queries specifically designed for process mining service descriptions. Additionally, we carried out a use case study with external participants to evaluate user experience and to gather feedback. We publically provide the evaluation results to ensure reproducibility in the studied area
16

Perrin, Guillaume. "Etude du couvert forestier par processus ponctuels marqués". Phd thesis, Ecole Centrale Paris, 2006. http://tel.archives-ouvertes.fr/tel-00109074.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse aborde le problème de l'extraction d'arbres à partir d'images aériennes InfraRouge Couleur (IRC) de forêts. Nos modèles reposent sur l'utilisation de processus objets ou processus ponctuels marqués. Il s'agit de variables aléatoires dont les réalisations sont des configurations d'objets géométriques. Une fois l'objet géométrique de référence choisi, nous définissons l'énergie du processus par le biais d'un terme a priori, modélisant les contraintes sur les objets et leurs interactions, ainsi qu'un terme image. Nous échantillonnons le processus objet grâce à un algorithme de type Monte Carlo par Chaînes de Markov à sauts réversibles (RJMCMC), optimisé par un recuit simulé afin d'extraire la meilleure configuration d'objets, qui nous donne l'extraction recherchée.

Dans ce manuscrit, nous proposons différents modèles d'extraction de houppiers, qui extraient des informations à l'échelle de l'arbre selon la densité du peuplement. Dans les peuplements denses, nous présentons un processus d'ellipses, et dans les zones de plus faible densité, un processus d'ellipsoïdes. Nous obtenons ainsi le nombre d'arbres, leur localisation, le diamètre de la couronne et leur hauteur pour les zones non denses. Les algorithmes automatiques résultant de cette modélisation sont testés sur des images IRC très haute résolution fournies par l'Inventaire Forestier National (IFN).
17

Chatelain, Clément. "Extraction de séquences numériques dans des documents manuscrits quelconques". Phd thesis, Rouen, 2006. http://www.theses.fr/2006ROUES056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre du traitement automatique de courriers entrants, nous présentons dans cette thèse l’étude, la conception et la mise en oeuvre d’un système d’extraction de champs numériques dans des documents manuscrits quelconques. En effet, si la reconnaissance d’entités manuscrites isolées peut être considérée comme un problème en partie résolu, l’extraction d’information dans des images de documents aussi complexes et peu contraints que les courriers manuscrits libres reste à ce jour un réel défi. Ce problème nécessite aussi bien la mise en oeuvre de méthodes classiques de reconnaissance d’entités manuscrites que de méthodes issues du domaine de l’extraction d’information dans des documents électroniques. Notre contribution repose sur le développement de deux stratégies différentes : la première réalise l’extraction des champs numériques en se basant sur les techniques classiques de reconnaissance de l’écriture, alors que la seconde, plus proche des méthodes utilisées pour l’extraction d’information, réalise indépendamment la localisation et la reconnaissance des champs. Les résultats obtenus sur une base réelle de courriers manuscrits montrent que les choix plus originaux de la seconde approche se révèlent également plus pertinents. Il en résulte un système complet, générique et industrialisable répondant à l’une des perspectives émergentes dans le domaine de la lecture automatique de documents manuscrits : l’extraction d’informations complexes dans des images de documents quelconques
Within the framework of the automatic processing of incoming mail documents, we present in this thesis the conception and development of a numerical field extraction system in weakly constrained handwritten documents. Although the recognition of isolated handwritten entities can be considered as a partially solved problem, the extraction of information in images of complex and free-layout documents is still a challenge. This problem requires the implementation of both handwriting recognition and information extraction methods inspired by approaches developed within the field of information extraction in electronic documents. Our contribution consists in the conception and the implementation of two different strategies: the first extends classical handwriting recognition methods, while the second is inspired from approaches used within the field of information extraction in electronic documents. The results obtained on a real handwritten mail database show that our second approach is significantly better. Finally, a complete, generic and efficient system is produced, answering one of the emergent perspectives in the field of the automatic reading of handwritten documents: the extraction of complex information in images of documents
18

Chatelain, Clément. "Extraction de séquences numériques dans des documents manuscrits quelconques". Phd thesis, Université de Rouen, 2006. http://tel.archives-ouvertes.fr/tel-00143090.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre du traitement automatique de courriers entrants, nous présentons dans cette thèse l'étude, la conception et la mise en \oe uvre d'un système d'extraction de champs numériques dans des documents manuscrits quelconques. En effet, si la reconnaissance d'entités manuscrites isolées peut être considérée comme un problème en partie résolu, l'extraction d'information dans des images de documents aussi complexes et peu contraints que les courriers manuscrits libres reste à ce jour un réel défi. Ce problème nécessite aussi bien la mise en \oe uvre de méthodes classiques de reconnaissance d'entités manuscrites que de méthodes issues du domaine de l'extraction d'information dans des documents électroniques. Notre contribution repose sur le développement de deux stratégies différentes : la première réalise l'extraction des champs numériques en se basant sur les techniques classiques de reconnaissance de l'écriture, alors que la seconde, plus proche des méthodes utilisées pour l'extraction d'information, réalise indépendamment la localisation et la reconnaissance des champs. Les résultats obtenus sur une base réelle de courriers manuscrits montrent que les choix plus originaux de la seconde approche se révèlent également plus pertinents. Il en résulte un système complet, générique et industrialisable répondant à l'une des perspectives émergentes dans le domaine de la lecture automatique de documents manuscrits : l'extraction d'informations complexes dans des images de documents quelconques.
19

Gaillard, Jean-François. "Quelques processus geochimiques lies a la diagenese precoce". Paris 7, 1987. http://www.theses.fr/1987PA077205.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On etudie la diagenese chimique dans les sediments lacustres et marins recents. L'analyse chimique des eaux interstitielles permet de dresser des bilans matieres et des bilans stoechiometriques rendant compte de l'ensemble des transformations diagenetiques, d'envisager la precipitation de mineraux authigenes, de quantifier les precipitations et dissolutions et d'estimer les flux de metaux trace a l'interface eau-sediment. On poursuit le travail par l'analyse des sediments et des interactions existant a la surface des particules. On presente un protocole experimental pour extraire selectivement les metaux traces des sediments et un modele de leur adsorption sur les surfaces des particules en suspension au-dessus du fond. On envisage enfin les phenomenes de diffusion et les mecanismes de transport ionique dans les eaux interstitielles
20

Al, Jlailaty Diana. "Mining Business Process Information from Emails Logs for Process Models Discovery". Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED028.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les informations échangées dans les textes des courriels sont généralement concernées par des événements complexes ou des processus métier dans lesquels les entités qui échangent des courriels collaborent pour atteindre les objectifs finaux des processus. Ainsi, le flux d’informations dans les courriels envoyés et reçus constitue une partie essentielle, les activités métier de l’entreprise. L’extraction d’informations sur les processus métier à partir des courriels peut aider à améliorer la gestion des courriels pour les utilisateurs. Il peut également être utilisé pour trouver des réponses riches à plusieurs questions analytiques sur les employés et les organisations. Aucun des travaux précédents n’a résolu le problème de la transformation automatique des journaux de courriels en journaux d’événements pour éventuellement en déduire les processus métier non documentés. Dans ce but, nous travaillons dans cette thèse sur un framework qui induit des informations de processus métier à partir d’emails. Nous introduisons des approches qui contribuent à ce qui suit : (1) découvrir pour chaque courriel le sujet de processus qui le concerne, (2) découvrir l’instance de processus métier à laquelle appartient chaque courriel, (3) extraire les activités de processus métier des courriels et associer ces activités aux métadonnées qui les décrivent, (4) améliorer la performance de la découverte des instances de processus métier et des activités métier en utilisant la relation entre ces deux problèmes, et enfin (5) estimer au préalable la date/heure réelle d’un activité métier. En utilisant les résultats des approches mentionnées, un journal d’événements est généré qui peut être utilisé pour déduire les modèles de processus métier d’un journal de courriels. L’efficacité de toutes les approches ci-dessus est prouvée par l’application de plusieurs expériences sur l’ensemble de données de courriel ouvert d’Enron
Exchanged information in emails’ texts is usually concerned by complex events or business processes in which the entities exchanging emails are collaborating to achieve the processes’ final goals. Thus, the flow of information in the sent and received emails constitutes an essential part of such processes i.e. the tasks or the business activities. Extracting information about business processes from emails can help in enhancing the email management for users. It can be also used in finding rich answers for several analytical queries about the employees and the organizations enacting these business processes. None of the previous works have fully dealt with the problem of automatically transforming email logs into event logs to eventually deduce the undocumented business processes. Towards this aim, we work in this thesis on a framework that induces business process information from emails. We introduce approaches that contribute in the following: (1) discovering for each email the process topic it is concerned by, (2) finding out the business process instance that each email belongs to, (3) extracting business process activities from emails and associating these activities with metadata describing them, (4) improving the performance of business process instances discovery and business activities discovery from emails by making use of the relation between these two problems, and finally (5) preliminary estimating the real timestamp of a business process activity instead of using the email timestamp. Using the results of the mentioned approaches, an event log is generated which can be used for deducing the business process models of an email log. The efficiency of all of the above approaches is proven by applying several experiments on the open Enron email dataset
21

Liang, Ke. "Oculométrie Numérique Economique : modèle d'apparence et apprentissage par variétés". Thesis, Paris, EPHE, 2015. http://www.theses.fr/2015EPHE3020/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'oculométrie est un ensemble de techniques dédié à enregistrer et analyser les mouvements oculaires. Dans cette thèse, je présente l'étude, la conception et la mise en œuvre d'un système oculométrique numérique, non-intrusif permettant d'analyser les mouvements oculaires en temps réel avec une webcam à distance et sans lumière infra-rouge. Dans le cadre de la réalisation, le système oculométrique proposé se compose de quatre modules: l'extraction des caractéristiques, la détection et le suivi des yeux, l'analyse de la variété des mouvements des yeux à partir des images et l'estimation du regard par l'apprentissage. Nos contributions reposent sur le développement des méthodes autour de ces quatre modules: la première réalise une méthode hybride pour détecter et suivre les yeux en temps réel à partir des techniques du filtre particulaire, du modèle à formes actives et des cartes des yeux (EyeMap); la seconde réalise l'extraction des caractéristiques à partir de l'image des yeux en utilisant les techniques des motifs binaires locaux; la troisième méthode classifie les mouvements oculaires selon la variété générée par le Laplacian Eigenmaps et forme un ensemble de données d'apprentissage; enfin, la quatrième méthode calcul la position du regard à partir de cet ensemble d'apprentissage. Nous proposons également deux méthodes d'estimation:une méthode de la régression par le processus gaussien et un apprentissage semi-supervisé et une méthode de la catégorisation par la classification spectrale (spectral clustering). Il en résulte un système complet, générique et économique pour les applications diverses dans le domaine de l'oculométrie
Gaze tracker offers a powerful tool for diverse study fields, in particular eye movement analysis. In this thesis, we present a new appearance-based real-time gaze tracking system with only a remote webcam and without infra-red illumination. Our proposed gaze tracking model has four components: eye localization, eye feature extraction, eye manifold learning and gaze estimation. Our research focuses on the development of methods on each component of the system. Firstly, we propose a hybrid method to localize in real time the eye region in the frames captured by the webcam. The eye can be detected by Active Shape Model and EyeMap in the first frame where eye occurs. Then the eye can be tracked through a stochastic method, particle filter. Secondly, we employ the Center-Symmetric Local Binary Patterns for the detected eye region, which has been divided into blocs, in order to get the eye features. Thirdly, we introduce manifold learning technique, such as Laplacian Eigen-maps, to learn different eye movements by a set of eye images collected. This unsupervised learning helps to construct an automatic and correct calibration phase. In the end, as for the gaze estimation, we propose two models: a semi-supervised Gaussian Process Regression prediction model to estimate the coordinates of eye direction; and a prediction model by spectral clustering to classify different eye movements. Our system with 5-points calibration can not only reduce the run-time cost, but also estimate the gaze accurately. Our experimental results show that our gaze tracking model has less constraints from the hardware settings and it can be applied efficiently in different real-time applications
22

Yoboue, Koffi Kouadio Michel. "La question de la remédiation environnementale résultant de l'exploitation artisanale, à petite échelle du diamant : cas de l'Union du fleuve Mano". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30013/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'exploitation artisanale, à petite échelle du diamant se pratique dans tous les pays de l'Union du Fleuve Mano (Côte d'Ivoire, Guinée, Libéria et Sierra Leone) de façon rudimentaire et parfois de façon informelle. L'exploitation minière artisanale du diamant offre cependant une importante stratégie de subsistance aux communautés locales car elle constitue l'activité principale de la plupart des travailleurs mineurs dans l'Union du Fleuve Mano (UFM). Il ressort de nos études de terrain et des enquêtes auprès des artisans mineurs que ce type d'exploitation minière a des impacts directs sur les galeries forestières, le sol et les cours d'eau. De plus, nous montrons que la réduction des impacts environnementaux engendrés par l'exploitation artisanale, à petite échelle de diamants n'est pas ressentie comme une nécessité ni comme une préoccupation majeure au sein de la communauté des artisans mineurs. Il y a souvent de la part des artisans mineurs un manque de compréhension des problèmes environnementaux et une insuffisante capacité à y faire face, comme le révèle notre étude menée sur trois sites Bobi, Toubabouko et Tortiya en Côte d'Ivoire. Les aires protégées au titre de leurs biodiversités, qui revêtent une importance écologique et socioéconomique majeure pour les populations des pays de la région de l'UFM, subissent malheureusement des pressions importantes du fait de cette exploitation minière artisanale du diamant. D'autant que bien souvent la population des artisans mineurs des sites enquêtés se révèle être en situation socio-économique très précaire et être souvent préoccupée par sa survie dans des conditions très difficiles. Ces dernières années, le Processus de Kimberley a pris l'initiative de concentrer sa réflexion et son action sur les questions environnementales. En 2012, la Déclaration de Washington, relative à l'intégration du développement de l'extraction artisanale et à petite échelle de diamants dans la mise en application du Processus de Kimberley, a souligné l'importance de prendre en considération les ramifications et conséquences environnementales de l'extraction minière artisanale. Dans cette optique, une enquête auprès des artisans mineurs en Côte d'Ivoire et une auto-évaluation de cette déclaration effectuée en 2014 en Côte d'Ivoire ont permis de comprendre que le cadre juridique, social, institutionnel et politique, constaté dans l'État Ivoirien, n'était pas toujours adapté au règlement des problèmes sociaux des artisans mineurs ni au règlement des questions environnementales soulevées par leurs activités minières. Ce travail de diagnostic de la déclaration devrait servir de modèle aux autres États de l'UFM. Les impacts des activités minières artisanales sur l'environnement existent donc mais il semble aussi que la remédiation des sites miniers artisanaux soit possible. En effet, le secteur de l'exploitation artisanale, à petite échelle de diamants a besoin de procédures de remédiation environnementale simples et de protocoles adaptés au niveau d'éducation des artisans mineurs et de leurs réalités financières. A ce sujet, la Sierra Leone a été un terrain privilégié d'expérimentation de la remédiation des sites miniers abandonnés à travers des projets gouvernementaux et des projets pilotes comme "Life after diamonds: Land Reclamation for Agriculture and Advocacy Pilot Initiative ". Ces projets ont contribué à protéger l'environnement et à améliorer les conditions socio-économiques des exploitants miniers. Cependant ces projets de remédiation quoique salutaires, ont eu aussi des limites qui méritent d'être prises en compte dans les futures initiatives des autres pays de l'UFM
Artisanal and small-scale diamond mining is practiced in all countries of the Mano River Union (Côte d'Ivoire, Guinea, Liberia and Sierra Leone) in a rudimentary and informal manner. However artisanal diamond mining is an important means of livelihood for most local communities in the Mano River Union. Based on our field research and surveys of miners, this type of mining has direct impacts on the forest ecosystem, soil and watercourses. In addition, the research shows that reducing the environmental impacts of artisanal and small scale diamond mining is not seen as a necessity or a major concern in the mining communities. There is often a lack of understanding and insufficient capacity to deal with environmental problems among artisanal miners, as revealed in our study of three mining sites in Côte d'Ivoire; Bobi, Toubabouko and Tortiya. Protected areas, which are of major ecological and socioeconomic importance for the populations of the Mano River Union countries, are unfortunately under pressure because of artisanal diamond mining. Especially since artisanal miners at the surveyed sites are often in precarious socio-economic situations more preoccupied by means of survival under very difficult working conditions. In recent years, the Kimberley Process has been focusing on environmental issues. In 2012, the Washington Declaration on Integrating Development of Artisanal and Small-Scale Diamond Mining in the implementation of the Kimberley Process highlighted the importance of considering the ramifications and environmental consequences of artisanal mining. To this end, a survey of artisanal miners in Côte d'Ivoire in 2014 made it clear that the legal, social, institutional and political framework of the Ivorian government, was neither adapted to the solution of the social problems of miners nor to the settlement of environmental problems caused by mining activities. This diagnosis should serve as a model for the other countries of the Mano River Union. The reclamation of artisanal mining sites is therefore possible in spite of the environmental impacts of artisanal mining. In fact there is a need for reclamation procedures and protocols adapted to the educational and financial realities of artisanal miners. In this regard, Sierra Leone has been a model in reclamation of abandoned mining sites through pilot projects such as "Land after Diamonds: Land Reclamation for Agriculture and Advocacy Pilot Initiative". These projects have helped to protect the environment and improve the socio-economic conditions of artisanal miners. However, these reclamation projects, although salutary, also have limitations which deserve to be taken into account in future initiatives of the other countries of the Mano River Union
23

Djaroud, Hamed. "Contribution à l'étude des conditions optimales de fonctionnement et à la conduite numérique d'une colonne Kûhni". Toulouse, INPT, 1987. http://www.theses.fr/1987INPT014G.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le point de fonctionnement optimal de la colonne d'extraction liquide liquide est determine a l'aide de deux regulateurs : un regulateur pid et un regulateur de commande adaptative : le regulateur predictif generalise. Les etudes sont realisees sur le systeme eau-toluene-acetone. L'etude de l'hydrodynamique et du transfert de matiere situant le point optimal de fonctionnement pres de l'engorgement
24

Ortner, Mathias. "Processus ponctuels marqués pour l'extraction automatique de caricatures de bâtiments à partir de modèles numériques d'élévation". Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00189803.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse se place dans un cadre de reconstruction urbaine et propose un corpus algorithmique pour extraire des formes simples sur les Modèles Numériques d'Elévation. Ce type de données décrit le relief d'une zone urbaine par une grille régulière de points à chacun desquels est associée une information de hauteur. Les modèles utilisés reposent sur l'utilisation de processus ponctuels marqués. Il s'agit de variables aléatoires dont les réalisations sont des configurations d'objets géométriques. Ces modèles permettent d'introduire des contraintes sur la forme des objets recherchés dans une image ainsi qu'un terme de régularisation modélisé par des interactions entre les objets. Une énergie peut être associée aux configurations d'objets et la configuration minimisant cette énergie trouvée au moyen d'un recuit-simulé couplé à un échantillonneur de type Monte Carlo par Chaîne de Markov à sauts réversibles (RJMCMC). Nous proposons quatre modèles pour extraire des caricatures de bâtiments à partir de descriptions altimétriques de zones urbaines denses. Chaque modèle est constitué par une forme d'objet, une énergie d'attache aux données et une énergie de régularisation. Les deux premiers modèles permettent d'extraire des formes simples (rectangles) en utilisant une contrainte d'homogénéité pour l'un et une détection des discontinuités pour l'autre. Le troisième modèle modélise les bâtiments par une forme polyhédrique. Le dernier modèle s'intéresse à l'apport d'une coopération entre des objets simples. Les algorithmes obtenus, automatiques, sont évalués sur des données réelles fournies par l'IGN (MNE Laser et optiques de différentes qualités).
25

Kubler, Samuel. "Statistical methods for the robust extraction of objects’ spatio-temporal relations in bioimaging – Application to the functional analysis of neuronal networks in vivo". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS455.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le code neuronal, c'est-à-dire la manière dont les neurones interconnectés peuvent effectuer des opérations complexes, permettant l'adaptation rapide des animaux à leur environnement, reste une question ouverte et un champ de recherche intensif tant en neurosciences expérimentales qu'en neurosciences computationnelles. Les progrès de la biologie moléculaire et de la microscopie ont récemment permis de surveiller l'activité de neurones individuels chez un animal vivant et, dans le cas de petits animaux ne contenant que quelques milliers de neurones, de mesurer l'activité de l'ensemble du système nerveux. Cependant, le cadre mathématique qui permettrait de combler le fossé entre l'activité d'un seul neurone et les propriétés computationnelles émergentes des ensembles neuronaux fait défaut. Dans le manuscrit de thèse, nous présentons un pipeline de traitement statistique séquentiel qui permet d'extraire efficacement et de manière robuste des ensembles neuronaux à partir de l'imagerie calcique de l'activité neuronale. En particulier, nous développons un cadre d'inférence bayésienne basé sur un modèle biologiquement interprétable pour extraire des ensembles neuronaux caractérisés par du bruit, de l'asynchronisme et du recouvrement. L'outil fourni démontre qu'une procédure d'échantillonnage de Gibbs peut estimer efficacement les paramètres statistiques et les variables latentes pour extraire les ensembles neuronaux basés sur un modèle de synchronisation à la fois sur des données synthétiques et sur des données expérimentales allant de stimulations du cortex visuel de la souris et du poisson zèbre à l'activité spontanée de Hydra Vulgaris. La thèse développe également un cadre statistique de processus ponctuel pour quantifier la façon dont les ensembles neuronaux encodent les stimuli évoqués ou les comportements spontanés chez les animaux vivants. Cet outil polyvalent est également utilisé pour l'inférence de la connectivité fonctionnelle de l'activité neuronale ou la procédure de calibration automatique des algorithmes d'inférence de pics appliqués aux enregistrements calciques. Pour que les algorithmes fournis soient largement diffusés dans la communauté des neurobiologistes, les résultats doivent être étayés par des estimations biologiques interprétables, des preuves statistiques, des démonstrations mathématiques rigoureuses et des logiciels en libre accès. Notre implémentation contributive, qui va de l'intensité des pixels aux ensembles neuronaux estimés, identifie également, à partir des schémas d'activation synchrone des ensembles neuronaux, les neurones ayant des rôles spécifiques qui peuvent être utilisés pour prédire, améliorer ou modifier les comportements d'animaux vivants. Le cadre fourni permet de démontrer l'émergence de propriétés collectives à partir de l'enregistrement de signaux individuels extrêmement variables, qui rendent le code neuronal encore insaisissable
The neural code, i.e. how interconnected neurons can perform complex operations, allowing the quick adaptation of animals to their environment, remains an open question and an intensive field of research both in experimental and computational neurosciences. Advances in molecular biology and microscopy have recently made it possible to monitor the activity of individual neurons in living animals and, in the case of small animals containing only a few thousands of neurons, to measure the activity of the entire nervous system. However, the mathematical framework that would bridge the gap between single neuron activity and the emergent computational properties of neuronal ensembles is missing.In the thesis manuscript, we introduce a sequential statistical processing pipeline that efficiently and robustly extracts neuronal ensembles from calcium imagery of neuronal activity. In particular, we develop a Bayesian inference framework based on a biologically interpretable model to extract neuronal ensembles characterized by noise, asynchrony and overlapping. The provided tool demonstrates that a Gibbs sampling routine can efficiently estimate statistical parameters and hidden variables to uncover neuronal ensembles based on synchronization patterns both on synthetic data and on various experimental datasets from mice and zebrafish visual cortex to Hydra Vulgaris. The thesis equally develops a point process statistical framework to quantify how neuronal ensembles encode evoked stimuli or spontaneous behaviors in living animals. This versatile tool is also used for the inference of the functional connectivity of neuronal activity or the automatically calibration procedure of the spike inference algorithms applied to calcium recordings. For the providing algorithms to be largely spread in the neurobiologist community, results are supported by interpretable biological estimates, statistical evidence, rigorous mathematical proofs, and free-available software. Our contributive implementation, that goes from pixel intensity to estimated neuronal ensembles, equally identify from the synchronous firing patterns of neuronal ensembles, neurons with specific roles that can be used to predict, improve, or alter the behaviors of living animals. The provided framework unravels the emergence of collective properties from the recording of extremely varying individual signals that make the neural code still elusive
26

Bouchard, Carole. "Modélisation du processus de design automobile. Méthode de veille stylistique pour le design du composant d'aspect". Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 1997. http://tel.archives-ouvertes.fr/tel-00659687.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Aujourd'hui, la plupart des entreprises occidentales se sont dotées d'un système de management par projets, caractérisant l'évolution d'une économie de masse à une économie de variété et de réactivité. Il s'ensuit chez les constructeurs une délégation de plus en plus importante aux équipementiers, des responsabilités liées à la conception des composants. Cette tendance nous a conduits aux 3 hypothèses suivantes : (1) l'équipementier doit acquérir la compétence design local dans les années à venir, (2) il doit donc se positionner rapidement en se préparant à participer au processus design à un stade conceptuel, (3) celà doit avoir lieu dans le souci de structurer l'activité design en cohérence avec celle des constructeurs. Le positionnement adequat s'appuie sur une formalisation des éléments informationnels et communicationnels mis en jeu dans le processus de design automobile. Pour répondre à cette problématique, nous avons modélisé le processus de style global qui s'insère dans le processus de conception automobile. Notre modèle s'appuie sur une approche cognitive de l'activité des stylistes. Il constitue une formalisation des composantes procédurale (démarche projet) et substantive qui renvoie à l'objet perçu par le consommateur, et plus précisémment à la notion de signe. Nous analysons l'articulation entre ces deux dimensions. Nous proposons ensuite des voies prescriptives en termes d'outils, permettant à l'équipementier de s'informer des nouvelles tendances en termes organisationnels (cadre d'une co-conception multiorganisations), informationnels (Systèmes d'Information et Nouvelles Technologies de l'Information, Travail Collectif Assisté par Ordinateur), et procéduraux (Numérisation du processus design, Outils de style Assisté par Ordinateur).
27

Tissier, Yolaine. "Etude des processus de corrosion et de la réparation par traitement électrochimique d’extraction des ions chlorure dans les bétons armés doublement contaminés (carbonatation et chlorures)". Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1207/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La corrosion des armatures est reconnue comme la première cause de dégradation des structures en béton armé dans les domaines du génie civil et des monuments historiques. La corrosion peut survenir lorsque le béton d'enrobage est carbonaté ou lorsque les ions chlorure sont présents en quantité suffisante au niveau de l'armature.Les objectifs de cette thèse visent à appréhender les processus de corrosion des armatures lorsque le béton est doublement contaminé (carbonatation et ions chlorure) et d'évaluer une solution de réparation de type traitement électrochimique d’extraction des ions chlorure (ECE).Pour répondre à ces objectifs, trois phases ont été programmées : (1) des vieillissements artificiels, (2) un traitement ECE et (3) un suivi de la durabilité du traitement. Pour chacune de ces phases, les évolutions (1) de la corrosion des armatures dans le béton, (2) des produits de corrosion à l'interface armature/béton et (3) de la matrice cimentaire ont été investiguées. L'approche scientifique de l'étude, avec des analyses multiples d'observations à différentes échelles et l'utilisation de techniques non destructives, destructives ou in situ, a permis de rendre compte des processus de corrosion avant et après traitement et de discuter les résultats en fonction de critères d'efficacité proposés.L'étude a été réalisée en prenant en compte deux ciments (CEM I et CEM III/A) et en considérant deux modes de vieillissements artificiels. Trois cent vingt éprouvettes en micro-béton armé répondant à quatre formulations ont ainsi été étudiées. Les techniques principales utilisées sont des caractérisations électrochimiques non destructives, des caractérisations au MEB et EDS, des analyses destructives de déterminations quantitative pour la teneur en ions chlorure et qualitative pour l'évaluation du pH et enfin la microspectrométrie Raman qui permet de déterminer la nature des produits de corrosion in situ.L’exploitation de l’ensemble des résultats a mis en évidence l’évolution des caractéristiques étudiées au cours des phases de l’étude. Avant traitement, l'enrobage béton était entièrement carbonaté et la teneur en ions chlorure libres au voisinage de l'armature était comprise entre 0,9 et 2,1% par rapport à la masse de ciment en fonction des formulations. Les courants de corrosion étaient de l’ordre de 10 µA/cm² et une épaisseur de corrosion homogène de l’ordre de 5-10 µm était observée. Lors des analyses Raman in situ, de la rouille verte chlorurée a été identifiée, synonyme de corrosion active. Après traitement, plus de 90% des ions chlorure ont été extraits et le pH du béton au voisinage de l'armature a augmenté (pH>9) sur une épaisseur d’environ 1 cm. Les courants de corrosion sont devenus inférieurs à 0,1 µA/cm² (niveau de corrosion négligeable). La formation de magnétite a majoritairement été observée avec néanmoins la présence résiduelle très locale de rouille verte. Aucune évolution délétère significative de la matrice cimentaire n’a été identifiée. L’efficacité du traitement a donc été démontrée. L'évaluation de la durabilité du traitement sur une période de 4 à 12 mois a montré que les caractéristiques électrochimiques restaient stables. En revanche, la diminution de l'épaisseur de béton dont le pH avait augmenté pour les éprouvettes fabriquées avec le ciment CEM III/A peut laisser craindre une reprise de corrosion sur du plus long terme. Enfin, le suivi Raman in situ, montre des différences de la durabilité en fonction de la durée du traitement
Reinforcement corrosion is known as the first cause of reinforced concrete degradation in the fields of civil engineering structures and historical monuments. Corrosion occurs when concrete cover is carbonated or when chloride ions are present in sufficient quantity at the reinforcement vicinity.The main objectives of this thesis are to investigate the corrosion processes of the reinforcement when the concrete is contaminated by carbonation as well as chloride ions and to evaluate a cathodic electrochemical treatment as a repair solution.To meet these objectives, three phases were investigated: (1) artificial agings, (2) an electrochemical chloride extraction (ECE) treatment and (3) durability. For each of these phases, the evolutions (1) of the rebar corrosion in concrete, (2) of the corrosion products at the reinforcement/concrete interface and (3) of the cementitious matrix were studied.The scientific approach gathered multiple analyzes at different scales and the use of non-destructive, destructive or in situ technique. It allowed to study the corrosion processes before and after treatment and to discuss results according to efficiency criteria suggested.The study was carried out taking into account two cements (CEM I and CEM III/A) and considering two modes of artificial aging. More than three hundred specimens of reinforced micro-concrete, corresponding to four concrete designs, were therefore studied. The main techniques used were non-destructive electrochemical characterizations, SEM and EDS characterizations, destructive quantitative determinations (chloride ion content) and qualitative determinations (pH evaluation), and finally Raman microspectrometry to determine the nature of the corrosion products.The results highlighted some evolutions of different characteristics studied during the phases of the study. Before treatment, the concrete cover was entirely carbonated and the free chloride content at the reinforcement level was in the range of 0.9-2.1% by weight of cement depending on the concrete design. A 10 μA/cm² average corrosion currents was reported and a homogeneous corrosion layer thickness of about 5-10 μm was observed. During in situ Raman analysis, chloride green rust was identified indicating an active corrosion.After treatment, more than 90% of the chloride ions were extracted and the thickness of the concrete which had a pH value higher than 9 around the reinforcement, was about 1 cm. The corrosion currents became less than 0.1 μA/cm² (negligible corrosion level). The formation of magnetite was mostly observed with nevertheless a local presence of residual green rust. No significant deleterious evolution of the cementitious matrix was identified. The treatment efficiency was therefore demonstrated. The evaluation of the treatment durability over a period of 4 to 12 months showed that the electrochemical characteristics remained stable. On the other hand, a decrease in the concrete area which pH increased during the electrochemical treatment was observed for CEM III/A cement which could lead to a corrosion recovery over the longer term. Finally, the in situ Raman study revealed differences in durability as a function of the treatment duration
28

Benabderraziq, Hind. "Modalités et processus de la contamination des eaux souterraines : application à la présence du sélénium dans la nappe de la craie (Nord de la France)". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10018/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le Nord de la France, les eaux de la nappe de la craie sénoturonienne situées au sud de Lille (Emmerin, Houplin-Ancoisne, les Ansereuilles et Salomé) sont confrontées à l'augmentation du sélénium dépassant la limite de potabilité (10 μg.L-1) avec une variabilité spatiale et locale qui atteint parfois 60 μg.L-1. Les différents niveaux lithologiques, à l'exception de la craie sénonienne, contiennent du sélénium naturel. Les valeurs maximales mesurées se singularisent dans les niveaux argileux de l'Yprésien (4.87 mg/kg), les argiles alluvionnaires (4.8 mg/kg) et les sédiments des cours d'eau avec une part importante d'origine anthropique (entre 2.1 à 15.8 mg/kg). Le sélénium a une grande affinité à la matière organique. Parmi ses phases porteuses, la fraction soluble/échangeable est la fraction de sélénium la plus mobile. Les isotopes du strontium couplés avec Ca/Sr et Mg/Sr ainsi que les rapports isotopiques de strontium 87Sr/86 Sr ont été utilisés pour identifier les principales masses d'eau souterraines et leurs mélanges. Les conditions du milieu oxydantes ou réductrices sont contrôlées par les variations du niveau piézométrique qui est sous influence des variations inter-annuelles et saisonnières de la nappe et les pompages. Néanmoins, chaque champ captant se distingue par ses conditions géologiques et hydro-géochimiques. La mobilisation du sélénium peut se faire par le biais des eaux d'infiltration (par le haut), les fluctuations de la nappe (par le bas), les transferts latéraux (interconnexions entre forages par effet des gradients hydrauliques) et les mélanges des eaux provenant des secteurs avoisinants
In north France, the concentration of selenium in the groundwater of the Turonian-Senonian chalk layers located in the south of Lille (Emmerin, Houplin -Ancoisne , the Ansereuilles and Salome) exceeds drinking-water limit of 10 µg/L and reaches 60 μg/L in some located small areas. The various lithological levels, except the Senonian chalk, contain natural selenium. The maximum measured values stand out in the Ypresian clay layer (4.87 mg/kg), alluvial clays (4.8 mg/kg) and sediments of rivers with important influence of anthropogenic origin (between 2.1 to 15.8 mg/kg). Selenium has a high affinity to the organic material. The soluble/exchangeable fraction is the most mobile selenium one. Strontium isotopes coupled with Ca/Sr and Mg/Sr and strontium isotopes ratios 87Sr/86Sr were used to identify the main groundwater bodies and theirs mixtures. Oxidizing or reducing environment conditions are controlled by the variations in the groundwater level which is influenced by the inter-annual and seasonal changes in the water and pumping process. However, each well field is characterized by its geological and hydro–geochemical conditions. The selenium may be mobilized through seepage (from the top), water levels variations (from the bottom), lateral transfers (interconnections between boreholes due to hydraulic gradients) and mixtures of water from surrounding areas
29

Ltifi, Hela. "Démarche centrée utilisateur pour la conception de SIAD basés sur un processus d'Extraction de Connaissances à partir de Données : application à la lutte contre les infections nosocomiales". Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2011. http://tel.archives-ouvertes.fr/tel-00630296.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire contribue au domaine de l'interaction homme-machine (IHM), en proposant un cadre méthodologique global en vue de la conception et la réalisation de systèmes interactifs d'aide à la décision basés sur l'extraction de connaissances à partir de données (SIAD/ECD). Dans ce travail, nous mettons l'accent sur les aspects humain et itératif du développement des SIAD, et en tenant compte des spécificités des systèmes d'ECD. Le cadre méthodologique proposé consiste à étendre les activités du processus unifié sous l'angle de l'IHM pour le développement des différents modules d'un SIAD/ECD. Cette méthodologie, nommée processus unifié étendu, a été appliquée en vue de démontrer ou valider ses principes fondateurs sur une étude de cas dans le domaine médical, relative à la prise de décision dynamique pour la lutte contre les infections nosocomiales (SIADDM/ECD) dans un service de réanimation d'un hôpital situé à Sfax, Tunisie. Une évaluation globale de la démarche suivie d'un ensemble de perspectives de recherche termine le mémoire.
30

Ghayyem, Fatemeh. "Positionnement optimal de capteurs pour l'estimation du signal". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT045.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nombreux problèmes de traitement du signal peuvent être résolus à partir d'un cadre générique où un signal source se propage aux capteurs à travers un environnement donné. Dans ce cadre, on peut s'intéresser soit (i) à l'estimation du signal source, soit (ii) à l'environnement, soit même (iii) au champ de signaux résultant dans certaines régions de l'environnement. Dans tous ces cas, les signaux sont enregistrés par plusieurs capteurs situés à des positions différentes. En raison de contraintes de prix, d'énergie ou d'ergonomie, le nombre de capteurs est souvent limité et il devient crucial de placer quelques capteurs à des positions qui contiennent le maximum d'informations. Ce problème correspond à un placement optimal des capteurs et il se pose dans un grand nombre d'applications. La manière d'aborder le problème du placement optimal des capteurs dépend de celui des trois aspects mentionnés ci-dessus que nous voulons aborder.Dans cette thèse, nous nous concentrons sur l'estimation du signal source à partir d'un ensemble de mesures bruitées collectées par un nombre limité de capteurs. Notre approche diffère des approches classiques de placement optimal des capteurs basées sur le Krigeage, car ces dernières se concentrent sur la meilleure reconstruction du champ spatial mesuré. Pour résoudre le problème, nous proposons un premier critère qui maximise le rapport moyen signal/bruit du signal estimé. Expérimentalement, les performances obtenues par ce critère sont supérieures aux résultats obtenus avec les méthodes basées sur le Krigeage. Comme le rapport signal/bruit est incertain dans ce contexte, pour obtenir une extraction robuste du signal, nous proposons un deuxième critère de placement basé sur la maximisation de la probabilité que le RSB dépasse un seuil donné. Ce critère peut être facilement évalué en utilisant l'hypothèse du processus gaussien pour le signal, le bruit et l'environnement. De plus, pour réduire la complexité de calcul de la maximisation conjointe du critère par rapport à toutes les positions du capteur, nous proposons un algorithme gourmand où les positions du capteur sont sélectionnées séquentiellement (c'est-à-dire une par une). Les résultats expérimentaux montrent la supériorité du critère probabiliste par rapport au critère de SNR moyen. Enfin, pour améliorer l'algorithme cupide sous-optimal, nous présentons une approche d'optimisation permettant de localiser tous les capteurs en même temps. Dans ce but, nous ajoutons une contrainte au problème qui peut contrôler les distances moyennes entre les capteurs. Pour résoudre notre problème, nous utilisons une méthode de pénalité d'optimisation alternée. À la fin, nous présentons des résultats expérimentaux qui montrent la supériorité de l'algorithme proposé sur l'algorithme gourmand.Traduit avec www.DeepL.com/Translator (version gratuite)
Many signal processing problems can be cast from a generic setting where a source signal propagates through a given environment to the sensors. Under this setting, we can be interested either in (i) estimating the source signal, or (ii) the environment, or even (iii) the resulting field of signals in some regions of the environment. In all these cases, signals are recorded by multiple sensors located at different positions. Due to price, energy or ergonomic constraints, the number of sensors is often limited and it becomes crucial to place a few sensors at positions which contain the maximum information. This problem corresponds to optimal sensor placement and it is faced in a great number of applications. The way to tackle the problem of optimal sensor placement depends on which of three aspects mentioned above we want to address.In this thesis, we focus on estimating the source signal from a set of noisy measurements collected from a limited number of sensors. Our approach differs from classical Kriging based optimal sensor placement approaches, since the latter focus on best reconstruction of the spatial measured field. For solving the problem, we propose a first criterion which maximizes the average signal to noise ratio of the estimated signal. Experimentally, performance obtained by this criterion outperforms the results obtained using Kriging-based methods. Since the signal to noise ratio is uncertain in this context, to achieve a robust signal extraction, we propose a second placement criterion based on the maximization of the probability that the SNR exceeds a given threshold. This criterion can be easily evaluated using the Gaussian process assumption for the signal, the noise, and the environment. Moreover, to reduce the computational complexity of the joint maximization of the criterion with respect to all sensor positions, we propose a greedy algorithm where the sensor positions are sequentially (i.e. one by one) selected. Experimental results show the superiority of the probabilistic criterion com- pared to the average SNR criterion. Finally, for improving the sub-optimal greedy algorithm, we present an optimization approach to locate all the sensors at once. For this purpose, we add a constraint to the problem that can control the average distances between the sensors. To solve our problem, we use an alternating optimization penalty method. In the end, we present experimental results that show the superiority of the proposed algorithm over the greedy one
31

Medina-López, Encarnación. "Thermodynamic processes involved in wave energy extraction". Thesis, University of Edinburgh, 2018. http://hdl.handle.net/1842/31422.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Wave energy is one of the most promising renewable energy sources for future exploitation. This thesis focuses on thermodynamic effects within Oscillating Water Column (OWC) devices equipped withWells turbines, particularly humidity effects. Previous theoretical studies of the operation of OWCs have resulted in expressions for the oscillation of the water surface in the chamber of an OWC based on linear wave theory, and the air expansion{compression cycle inside the air chamber based on ideal gas theory. Although in practice high humidity levels occur in OWC devices open to the sea, the influence of atmospheric conditions such as temperature and moisture on the performance of Wells turbines has not yet been studied in the field of ocean energy. Researchers have reported substantial differences between predicted and measured power output, and performance rates of OWCs presently coming into operation. The effect of moisture in the air chamber of the OWC causes variations on the atmospheric conditions near the turbine, modifying its performance and efficiency. Discrepancies in available power to the turbine are believed to be due to the humid air conditions, which had not been modelled previously. This thesis presents a study of the influence of humid air on the performance of an idealised Wells turbine in the chamber of an OWC using a real gas model. A new formulation is presented, including a modified adiabatic index, and subsequent modified thermodynamic state variables such as enthalpy, entropy and specific heat. The formulation is validated against experimental data, and found to exhibit better agreement than the ideal approach. The analysis indicates that the real gas behaviour can be explained by a non{dimensional number which depends on the local pressure and temperature in the OWC chamber. A first approach to the OWC formulation through the calculation of real air flow in the OWC is given, which predicts a 6% decrease in efficiency with respect to the ideal case when it is tested with a hypothetical pulse of pressure. This is important because accurate prediction of efficiency is essential for the optimal design and management of OWC converters. A numerical model has also been developed using computational fluid dynamics (CFD) to simulate the OWC characteristics in open sea. The performance of an OWC turbine is studied through the implementation of an actuator disk model in Fluent®. A set of different regular wave tests is developed in a 2D numerical wave flume. The model is tested using information obtained from experimental tests on a Wells{type turbine located in a wind tunnel. Linear response is achieved in terms of pressure drop and air flow in all cases, proving effectively the applicability of the actuator disk model to OWC devices. The numerical model is applied first to an OWC chamber containing dry air, and then to an OWC chamber containing humid air. Results from both cases are compared, and it is found that the results are sensitive to the degree of humidity of the air. Power decreases when humidity increases. Finally, results from the analytical real gas and numerical ideal gas models are compared. Very satisfactory agreement is obtained between the analytical and the numerical models when humidity is inserted in the gaseous phase. Both analytical and numerical models with humid air show considerable differences with the numerical model when dry air is considered. However, at the resonance frequency, results are independent of the gas model used. At every other frequency analysed, the real gas model predicts reduced values of power that can fall to 50% of the ideal power value when coupled to the radiation-diffraction model for regular waves. It is recommended that real gas should be considered in future analyses of Wells turbines in order to calculate accurately the efficiency and expected power of OWC devices.
32

Ben, Ayed Emna. "Une approche pour l'évaluation des systèmes d'aide à la décision mobiles basés sur le processus d'extraction des connaissances à partir des données : application dans le domaine médical". Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0008.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce travail, on s’intéresse aux Systèmes d’Aide à la Décision Mobiles qui sont basés sur le processus d’Extraction des Connaissances à partir des Données (SADM/ECD). Nous contribuons non seulement à l'évaluation de ces systèmes, mais aussi à l'évaluation dans le processus d’ECD lui-même. L'approche proposée définit un module de support d'évaluation pour chaque module composant le processus d’ECD en se basant sur des modèles de qualité. Ces modules évaluent non seulement la qualité d'utilisation de chaque module logiciel composant le processus d’ECD, mais aussi d'autres critères qui reflètent les objectifs de chaque module de l’ECD. Notre objectif est d'aider les évaluateurs à détecter des défauts le plus tôt possible pour améliorer la qualité de tous les modules qui constituent un SADM/ECD. Nous avons aussi pris en compte le changement de contexte d'utilisation en raison de la mobilité. De plus, nous avons proposé un système d’aide à l’évaluation, nommé CEVASM : Système d’aide à l’évaluation basée sur le contexte pour les SADM, qui contrôle et mesure tous les facteurs de qualité proposés. Finalement, l'approche que nous proposons est appliquée pour l'évaluation des modules d'un SADM/ECD pour la lutte contre les infections nosocomiales à l'hôpital Habib Bourguiba de Sfax, Tunisie. Lors de l'évaluation, nous nous sommes basés sur le processus d'évaluation ISO/IEC 25040. L'objectif est de pouvoir valider, a priori, l'outil d'évaluation réalisé (CEVASM) et par conséquent, l'approche proposée
In this work, we are interested in Mobile Decision support systems (MDSS), which are based on the Knowledge Discovery from Data process (MDSS/KDD). Our work is dealing with the evaluation of these systems, but also to the evaluation in the KDD process itself. The proposed approach appends an evaluation support module for each software module composing the KDD process based on quality models. The proposed evaluation support modules allow to evaluate not only the quality in use of each module composing the KDD process, but also other criteria that reflect the objectives of each KDD module. Our main goal is to help evaluators to detect defects as early as possible in order to enhance the quality of all the modules that constitute a MDSS/KDD. We have also presented a context-based method that takes into account the change of context of use due to mobility. In addition, we have proposed an evaluation support system that monitors and measures all the proposed criteria. Furthermore, we present the implementation of the proposed approach. These developments concern mainly the proposed evaluation tool: CEVASM: Context-based EVAluation support System for MDSS. Finally, the proposed approach is applied for the evaluation of the modules of a MDSS/KDD for the fight against nosocomial infections, in Habib Bourguiba hospital in Sfax, Tunisia. For every module in KDD, we are interested with the phase of evaluation. We follow the evaluation process based on the ISO/IEC 25040 standard. The objective is to be able to validate, a priori, the realized evaluation tool (CEVASM) and consequently, the proposed approach
33

Gioffri, Adam. "Design and analysis of Bio-diesel extraction processes". Thesis, Gioffri, Adam (2015) Design and analysis of Bio-diesel extraction processes. Honours thesis, Murdoch University, 2015. https://researchrepository.murdoch.edu.au/id/eprint/29859/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The need for alternative fuel sources is an ever growing concern for the resources sector. With finite resources rapidly being consumed and pollution levels rising, alternative fuel sources are necessary to not only alleviate the demand on fossil fuels, but also decrease the amount of pollutants released into the atmosphere. This document will outline the research, design and analysis that were conducted to derive a new continuous solvent extraction process to facilitate the removal of lipids from used food sources for use in the production of biodiesel. The process of solvent extraction is a well-known process, however it is desired to research and develop a process to replace the traditional hexane solvent extraction method. The new method would employ the use of dimethyl ether (DME) as the solvent. From previous experimentation it can be seen that on an experimental scale, DME gave higher yields under similar conditions than the traditional hexane process. The major issue with the use of DME in this design is that under standard conditions it takes the form of a vapour. This means that the vapour must be cooled and compressed before it can be used as a liquid in the extraction process. The main purpose of this thesis is to determine the economic feasibility, as well as the physical viability of this process. This document outlines the ideas and concepts that were researched, concluding them in a literature review, as well as an in depth description of the simulations that were created to test the designed system. The final part of this document analyses the results that were collected from this simulation and the economic analysis of the system. The results that were collected throughout the project suggest that DME solvent extraction could be a viable alternative to the traditional hexane extraction process.
34

Ali, Mehmood. "Enhancing oil extraction processes for flaxseed and microalgae". Thesis, University of Glasgow, 2015. http://theses.gla.ac.uk/6970/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Sustainable biodiesel can be produced by processing vegetable oil seeds or microalgae. The processing includes numerous processes which impact the quality and cost of the final product. Oil extraction from the feedstock is one of the most energy intensive parts of the process in the production chain. Oil extraction methods are influenced by the operational physical parameters or chemical characteristics, and their selection greatly impacts the final oil yields. This thesis investigates and compares different oil extraction methods and tries to fill the research gaps in the oil extraction processing, for example, utilising new techniques such as ultrasonic or microwave assisted solvent extraction. A detailed energy analysis for the extraction processes was conducted for each method to investigate the process feasibility to produce biodiesel more economically. Two major feedstocks were considered, flax seed and microalgae. Microwave treatment was found the most effective in terms of less time consumption and low energy requirement with higher oil yields as compared to other methods applied to flaxseed. The extracted oil fatty acid profile showed favourable properties to convert the oil into biodiesel. In-situ transesterification of flaxseed was conducted and 93 % was converted into biodiesel. The de-oiled cake and in-situ cake were torrefied (slow pyrolysis) to convert the residue into a high energy density solid bio-char, which can be used as a feedstock to produce heat energy. Microalgae can be used as a source of biofuel and food supplements, however, their exploitation is lacking due to various bottlenecks including realistic processing options at scale. Microalgae species Nannochloropsis oculata, was cultivated and harvested in the School of Engineering, University of Glasgow. The lipids were extracted to investigate their potential to produce algal biodiesel. Different techniques of cell disruption were applied prior to lipid extraction with solvent to enhance lipid yield. To assess the cell disruption viability, treatments such as: microwave, ultrasonic, water bath, blender, laser and hydraulic pressing were investigated. The microwave treatment was found the most energy efficient method with a higher percentage of cell disruption as compared the other treatments. The microwave treatment, was chosen to enhance the lipid extraction with an organic solvent extraction from dry powdered and wet algal paste. The microalgae biomass was applied with 1-5 min treatment at 50% and 100% power settings and lipids were extracted. Thermal analysis with Differential Scanning Calorimetry (DSC) was conducted to investigate the thermal behaviour of algal biomass with microwave treatment. The hydraulic pressing (10-100 bars) with and without LN2 treatment was also found with promising results with more than 90 % cell disruption. The extracted algal lipids physical and chemical properties were found in an agreement with previous workers. Powdered Chlorella vulgaris biomass was treated with hydrothermal treatment (Hydrothermal Liquefaction, HTL) in a reactor between 40-350 oC at holding times of 30 and 60 min. The vapour pressure developed in the reactor were calculated with the Clausics-Clapeyron equation and with some realistic assumptions. The bio-oil content yield was found higher at 350 oC with 30 as compared to 60 min holding times and the GC-MS analysis showed the presence of fatty acids (C14-C18). The aqueous phase contained TOC, TN and TP, which are useful nutrients for microalgae cultivation. The solid bio-char had HHV values between 17-20 MJ/kg for 30 and 60 min holding times. The protein and carbohydrates content present in the aqueous phase, after hydrothermal treatment, at 40, 60, 80 and 100 oC were measured at both holding times. Aqueous phase reforming (APR) of powdered Chlorella vulgaris biomass was done at the University of Zaragoza, Spain to produce hydrogen with or without Ni catalyst with two pressure 30 or 35 bars at 227 oC. The maximum H2 yield was 0.427 x 10-3 and 0.542 x 10-3 moles of H2 per 3 g of dry algal biomass, with Ni as catalyst at both pressure conditions. From this work, there is clearly significant benefit to using advanced processes for oil extraction such as HTL or microwave enhanced processing. Compared to other parts of the extraction process, such as energy used for drying, the use of a microwave has been shown to be economically viable. These advantages should scale with production volumes. HTL and APR offer similar advantages for processing wet feedstock’s, eliminating drying requirements altogether.
35

Ngoie, Mpinga Cleophace. "The extraction of precious metals from an alkaline cyanided medium by granular activated carbon". Thesis, Stellenbosch : Stellenbosch University, 2012. http://hdl.handle.net/10019.1/71787.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Thesis (MScEng)--Stellenbosch University, 2012.
ENGLISH ABSTRACT: A 2 stage heap leach process to extract base and precious metals from the Platreef ore is currently being investigated industrially. A first stage bioleach is used to extract the base metals. In the 2nd stage, cyanide is used as the lixiviant at high pH to extract the platinum group metals and gold. By analogy with current gold recovery practices, the present study investigates the preferential and quantitative adsorption of precious metals (Pt, Pd, Rh and Au) over base metals (Cu, Ni and Fe) from an alkaline cyanide medium, by means of granular activated carbon. Experiments were designed statistically to optimise the process parameters using synthetic alkaline cyanide solutions close in composition to those expected from plant leach solutions. The statistical approach allowed the development of a reliable quantitative approach to express adsorption as a response variable on the basis of a number of experiments. A 2IV(7-2) fractional factorial design approach was carried out in a batch adsorption study to identify significant experimental variables along with their combined effects for the simultaneous adsorption of Pt(II), Pd(II), Rh(III) and Au(I). The adsorbent was characterized using SEM-EDX, and XRF. Precious metals adsorption efficiency was studied in terms of process recovery as a function of different adsorption parameters such as solution pH, copper, nickel, free cyanide ion, thiocyanate, initial precious metal (Pt, Pd, Rh and Au) ion and activated carbon concentrations. It was shown that adsorption rates within the first 60 minutes were very high (giving more than 90% extraction of precious metals) and thereafter the adsorption proceeds at a slower rate until pseudo-equilibrium was reached. Among the different adsorption parameters, at 95% confidence interval, nickel concentration had the most influential effect on the adsorption process followed by the adsorbent concentration. Adsorption of Ni was found to proceed at approximately the same rate and with the same recovery as the precious metals, showing a recovery of approximately 90% in two hours. The kinetics of Cu adsorption were slower, with less than 30% being recovered at the 120 minute period. This suggests that the co-adsorption of Cu can be minimised by shortening the residence time. Adsorption of Fe was found to be less than 5%, while the recovery of Rh was negligibly small. The effect of thiocyanate ion concentration was not as important as the effect of free cyanide ion concentration but still had some influence. The correlation among different adsorption parameters was studied using multivariate analysis. The optimum experimental conditions resulted in a solution with pH of 9.5, [Cu(I)] of 10 ppm, [Ni(II)] of 10 ppm, [CN ] of 132.44 ppm, [SCN ] of 98.95 ppm, [PMs] of 2.03 ppm and [AC] of 10 g/L. Under these conditions, predicted adsorption percentages of Pt, Pd and Au were approximately 98, 92 and 100%, at the level of 95% probability within two hours as an effective loading time. The negative values of ΔG° for all ions under optimum conditions indicate the feasibility and spontaneous nature of the adsorption process. Chemisorption was found to be the predominant mechanism in the adsorption process of Pt(II), Pd(II) and Au(I). Based on their distribution coefficients, the affinity of activated carbon for metal ions follows the selectivity sequence expressed below. Au(CN) > Pt(CN) > Pd(CN) > Ni(CN) > Cu(CN) Finally, it is important that additional research and development activities in the future should prove the economic viability of the process. Future work is also needed to investigate the adsorption of precious metals (PMs) by comparing the efficiencies and kinetics of adsorption when using sodium hydroxide (in this study) or lime, respectively, in order to control the pH.
AFRIKAANSE OPSOMMING: ʼn Tweefasige hooploogproses vir die ontginning van basis- en edelmetale van die Platrif-erts word tans industrieel ondersoek. ʼn Eerstefase-bioloog word gebruik om die basismetale te ontgin. In die 2de fase word sianied gebruik as die uitloog by hoë pH om die platinum-groepmetale en goud te ontgin. Na analogie van hedendaagse goudherwinningspraktyke het die huidige studie die voorkeur- en kwantitatiewe adsorpsie van edelmetale (Pt, Pd, Rh en Au) bo basismetale (Cu, Ni en Fe) vanuit ʼn alkaliese sianiedmedium met behulp van korrelrige geaktiveerde koolstof ondersoek. Eksperimente is op statistiese wyse ontwerp om die parameters van die proses te optimaliseer deur van sintetiese alkaliese sianiedoplossings wat in hulle samestelling nou ooreenstem met dié wat van oplossings van plant-loog verwag word, gebruik te maak. Die statistiese benadering het die ontwikkeling van ʼn betroubare kwantitatiewe benadering om adsorpsie as ʼn responsveranderlike op grond van ʼn aantal eksperimente uit te druk, moontlik gemaak. ʼn 2IV(7-2) -Fraksionele faktoriale ontwerp-benadering is tydens ʼn lot-adsorpsiestudie gevolg om beduidende eksperimentele veranderlikes tesame met hulle gekombineerde uitwerkings vir die gelyktydige adsorpsie van Pt(II), Pd(II), Rh(III) en Au(I) te identifiseer. Die adsorbeermiddel is met behulp van SEM-EDX en XRF gekenmerk. Adsorpsiedoeltreffendheid van edelmetale is bestudeer ten opsigte van proseskinetika en herwinning as ʼn funksie van verskillende adsorpsieparameters soos oplossing-pH, koper, nikkel, vry sianiedioon, tiosianaat, aanvanklike edelmetaal (Pt, Pd, Rh en Au)-ioon en geaktiveerde koolstofkonsentrasies. Daar is aangetoon dat adsorpsietempo‟s binne die eerste 60 minute baie hoog was (het meer as 90% ekstraksie van edelmetale opgelewer) en daarna het die adsorpsie teen ʼn stadiger tempo voortgegaan totdat pseudo-ekwilibrium bereik is. Onder die verskillende adsorpsieparameters, by 95%-vertroubaarheidsinterval, het nikkel-konsentrasie die grootste invloed op die adsorpsieproses gehad, gevolg deur konsentrasie van die adsorbeermiddel. Daar is bevind dat die adsorpsie van Ni teen nagenoeg dieselfde tempo en met dieselfde herwinning as die edelmetale voortgegaan het, wat ná twee uur ʼn herwinning van nagenoeg 90% getoon het. Die kinetika van Cu-adsorpsie was stadiger, met minder as 30% wat teen die 120-minute-tydperk herwin is. Dit dui daarop dat die ko-adsorpsie van Cu tot die minimum beperk kan word deur verkorting van die verblyftyd. Daar is bevind dat die adsorpsie van Fe minder as 5% is, terwyl die herwinning van Rh onbeduidend klein was. Die uitwerking van die konsentrasie van die tiosianaatione was nie so belangrik as die uitwerking van die konsentrasie van vry sianiedione nie maar het steeds ʼn mate van invloed gehad. Die korrelasie tussen verskillende adsorpsieparameters is met behulp van meerveranderlike analise bestudeer. Die optimale eksperimentele toestande het gelei tot ʼn oplossing met ʼn pH van 9.5, [Cu(I)] van 10 dpm, [Ni(II)] van 10 dpm, [CN] van 132.44 dpm, [SCN] van 98.95 dpm, [EM‟e] van 2.03 dpm en [AC] van 10 g/L. Onder hierdie toestande was die voorspelde adsorpsiepersentasies van Pt, Pd en Au nagenoeg 98, 92 en 100%, op die vlak van 95%-waarskynlikheid binne twee uur as ʼn doeltreffende laaityd. Die negatiewe waardes van ΔG° vir alle ione onder optimale toestande dui op die uitvoerbaarheid en spontane aard van die adsorpsieproses. Daar is bevind dat chemiesorpsie die deurslaggewende meganisme by die adsorpsieproses van Pt(II), Pd(II) en Au(I) is. Gebaseer op hulle distribusiekoeffisiënte volg die affiniteit van geaktiveerde koolstof vir metaalione die selektiwiteitsvolgorde soos hieronder voorgestel. Au(CN) > Pt(CN) > Pd(CN) > Ni(CN) > Cu(CN) Laastens, dit is belangrik dat addisionele navorsing en ontwikkelingsaktiwiteite in die toekoms die ekonomiese haalbaarheid van die proses bewys. Werk in die toekoms is nodig om die adsorpsie van edelmetale (EM‟e) te ondersoek deur vergelyking van die doeltreffendhede en kinetika van adsorpsie wanneer natriumhidroksied (in hierdie studie) of kalk, onderskeidelik, gebruik word ten einde die pH te beheer
36

Haupt, Petronella. "Effective solvent extraction of coal and subsequent separation processes". Diss., Pretoria : [s.n.], 2006. http://upetd.up.ac.za/thesis/available/etd-08282007-113611.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Thesis (M. Eng.)(Chemical Engineering)--University of Pretoria, 2006.
Accompanied by a CD-ROM containing Matlab programs. Includes bibliographical references. Available on the Internet via the World Wide Web.
37

LA, COGNATA SONIA. "(Supra)molecular systems for recognition, sensing and extraction processes". Doctoral thesis, Università degli studi di Pavia, 2021. http://hdl.handle.net/11571/1437536.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
During the three years of my PhD, different azacryptands were synthesized and investigated (alone or as copper(II) metal complexes) for recognition, sensing and extraction processes. First, a smart portable device for the detection of the trans-trans muconic acid (i.e. an urinary metabolite of benzene) was developed by combing the well-known indicator displacement approach with the smartphone sensing. Then a chemosensing ensemble, formed by a dicopper(II) azacryptate and a fluorescent indicator, was studied as supramolecular sensor for fumarate anion in water. A new hydrophobic ligand was prepared by functionalizing its spacers with aliphatic chains: its dicopper(II) complex, completely soluble in dichloromethane, was tested as extractant for the liquid-liquid extraction of dicarboxylates from neutral water. Finally, new hydrophilic molecular cages were synthesized and characterized, with the aim to apply them for the improvement of spent nuclear fuel separation processes.
38

Manic, Marina. "Alternative solvents in separation processes". Doctoral thesis, Faculdade de Ciências e Tecnologia, 2012. http://hdl.handle.net/10362/8774.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dissertation presented to obtain the Ph.D degree in Sustainable Chemistry
Fundação para a Ciência e Tecnologia - through doctoral fellowship SFRH/BD/45323/2008, and grant No Pest-C/EQB/LA0006/2011; partially supported from the Conselho de Reitores das Universidades Portuguesas (CRUP) – Integrated project Portugal-Spain, No E-95/10.
39

Prins, Christian. "Échantillonnage, simulation et estimation des gisements secondaires de diamant". Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00780063.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Il est difficile d'explorer et d'estimer des gisements secondaires de diamants en raison du manque de fiabilité des données et/ou de leur rareté. Des efforts soutenus sont nécessaires pour maintenir une bonne compréhension de ces types de dépôts lors de leur exploration, leur échantillonnage et leur exploitation. Cette thèse traite des sujets suivants : - L'existence de regroupements entre cheminées kimberlites est établie, et leur extension moyenne déterminée. - Des données d'exploration d'indicateurs minéraux sont analysées par arbre de classification. Un modèle est ensuite bâti à partir de sites kimberlitiques connus pour identifier de nouveaux sites. - Les milieux maritimes comportent des mécanismes de piégeage complexes, ce qui les rend difficiles à échantillonner. Dans certaines situations, on dispose de peu, voire d'aucune information de qualité, alors qu'une étude d'optimisation de l'échantillonnage est nécessaire. Dans ce cas, une esquisse au crayon est utilisée pour construire des simulations, lesquelles servent à une première optimisation de l'échantillonnage. - Dans les dépôts sous-marins profonds, les échantillons doivent dépasser une taille minimale critique pour être représentatifs. L'établissement de cette taille passe par une modélisation selon un processus de Cox, bien adapté à la nature discrète de la minéralisation. L'impact de l'échantillonnage sur la qualité de l'estimation par blocs ou par panneaux peut ainsi être testé par simulation. - Ces dernières années, certains terrils sont redevenus économiquement viables. Pour en obtenir une estimation locale par blocs, une procédure de détermination de la taille optimale des échantillons et de leur espacement a été développée et mise en oeuvre sur un terril de kimberlite.
40

Ghorashi, Shahab. "Attentional spatial selection and identity extraction are separable cognitive processes". Thesis, University of British Columbia, 2009. http://hdl.handle.net/2429/6475.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
While searching for objects in a cluttered environment, observers confront two tasks: selecting where to search, and identifying the targets. Chapter 1 reviews major theories of visual search, and highlights their approaches to these two functions. While anatomical, neurological, and behavioural evidence suggests dissociation between spatial selection and identity extraction, there is a vast controversy about this issue among visual-search accounts. This review demonstrates that none of these theories has adopted the right tool to independently manipulate the two functions. A new methodology is suggested in which the two functions are manipulated independently using spatial cueing to manipulate localization, and the attentional blink – AB - to manipulate identification (AB: impaired identification of the second of two briefly-displayed sequential targets). In examining the separability of spatial selection and identity extraction, additive-factors logic is adopted: if two factors (here: spatial cueing and AB) influence independent stages of processing, they will have additive effects on the dependent measure. Conversely, whenever additivity occurs, the underlying mechanisms can be assumed to be independent. Experiments in Chapter 2 show that cueing and the AB have additive effects, confirming the hypothesis that the two functions are separable. The results are accounted for by relating them to two major parallel pathways in the visual system: the dorsal and ventral pathways. Based on the characteristics of each pathway, it is plausible to assume that spatial cues (indexing spatial selection) are processed along the dorsal pathway while identification is processed along the ventral pathway. The two functions are therefore separable because they are mediated by mechanisms that are anatomically and functionally distinct. The experiment in Chapter 3 was designed to address contrary evidence regarding the separability of location and identity processing. It shows that those results were due to a procedural, artefactual ceiling. In Chapter 4, a prediction is tested based on the interpretation of results in the first study: if cueing involves both the dorsal and ventral pathways it should interfere with the AB; the results support this prediction. Chapter 5 discusses how these results collectively support the separability of spatial and identity processing, and also discusses future directions.
41

Awasthi, Alok. "Silicothermic Processes for Extraction and Refining of Niobium and Tantalum". Kyoto University, 2001. http://hdl.handle.net/2433/150146.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Rashid, Salman Ghanem. "Studies on copper extraction with hydroxyoxime extractants for the design of hollow fibre membrane based extraction processes". Thesis, University of South Wales, 1999. https://pure.southwales.ac.uk/en/studentthesis/studies-on-copper-extraction-with-hydroxyoxime-extractants-for-the-design-of-hollow-fibre-membrane-based-extraction-processes(7e631b77-71e2-4d6e-8c03-4636d42f9f69).html.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This work has included a review of the most relevant aspects of measurement techniques and mathematical models proposed in the literature to assess the equilibrium and mass transfer data of metal extraction by the use of chelating agents. The limitations of these techniques and models have been highlighted. Three chelating extractants diluted in EscaidllO were used to study the extraction equilibrium of copper. The extractants are 5-nonylacetophenone oxime (LIX84®), 5- dodeylsalicylaldoxime (LIX860®) and 50/50 v/v mixture of both oximes (LIX984®). The copper concentration changes in the aqueous and the organic phases were monitored by using atomic absorption spectrophotometer. Two mathematical models (a chemical model and a semi-empirical model) have been developed in this study to predict the equilibrium data of copper sulfate/hydroxyoxime system. The chemical model was found to fit all the three equilibrium systems (CuSO4/LIX84®, LIX860®and LIX984®) equally. The semi-empirical model based on Freundlich's adsorption equation was also found to fit the three systems but with less accuracy. The mass transfer characteristics and properties of copper extraction and recovery from an aqueous solution using LIX984® were studied using dispersion-based (rising drops) and dispersion-free techniques. In the dispersion-based technique the organic phase was dispersed in form of drops at the tip of hypodermic needle while the aqueous solution was used as a continuous phase. The extraction process was carried out in four different height columns under wide range of conditions. The effects of the columns' height, the dispersed and the continuous phases concentrations on the metal rate of mass transfer were investigated. It has been found in that the metal's rate of mass transfer and system's overall mass transfer coefficient have remained constant in all four columns. A model utilising the two-film theory, some of the dimensionless groups and the experimental results has been proposed in this work to calculate the local mass transfer coefficients in the dispersed phase and the continuous phase. The overall mass transfer coefficient and the calculated local coefficients were used to account for the reaction rate constant at the interface from the sum of the individual resistances to mass transfer. A dispersion-free technique consisting of a microporous hollow fibre module was used in this study to examine the mass transfer properties of the extraction and stripping processes of copper across an immobilised interface system. The extraction and re-extraction (stripping) processes in this system were conducted under a wide range of operating conditions and produced satisfactory results. In general it has been found that counter current flow arrangement gave higher concentration driving forces which were reflected in form higher metal concentrations at the extract phase. A generalised mathematical model was developed in this study which utilised Wilson's method, the experimental data, some dimensionless groups and the two-film theory to account for local resistances and predict the system's overall mass transfer coefficient. A correlation was established first to calculate mass transfer coefficients using a form of Leveque's equation which relates the two phase's physical properties and the system's parameters. The membrane mass transfer coefficient was calculated from the structural properties of the membrane material. While the resistance at the reaction interface was calculated under set of experimental conditions. The individual coefficients were then used to predict the overall mass transfer coefficient under any set of conditions by using the aditivity approach of the individual resistances to mass transfer. However, further checks and investigations are necessary to validate this model over variety of extraction systems and membrane configurations.
43

Van, Dyk Braam. "Computerized design of solvents for extractive processes". Thesis, Stellenbosch : Stellenbosch University, 2001. http://hdl.handle.net/10019.1/52171.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Thesis (PhDEng)--University of Stellenbosch, 2001.
ENGLISH ABSTRACT: Separation processes are an integral part of chemical engineering. The purity of a chemical product is among the principal factors influencing its value. Therefore, any method that can increase the purity of a product or decrease the cost of purification will have a direct effect on the profitability of the entire plant. An important class of separation processes is the solvent-based separations. This includes processes like extractive distillation, liquid-liquid extraction and chromatographic separation. Heterogeneous azeotropic distillation is closely related to these processes. The most important variable in the design of a solvent-based separation process is the choice of solvent. A genetic algorithm for the computer-aided molecular design of solvents for extractive distillation had been previously developed by the author. This algorithm was improved and expanded to include liquid-liquid extraction, heterogeneous azeotropic distillation, gas-liquid chromatography and liquid-liquid (partition) chromatography. At the same time the efficiency of the algorithm was improved, resulting in a speed increase of up to 500% in certain cases. An automatic parameter tuning algorithm was also implemented to ensure maximum efficiency of the underlying genetic algorithm. In order to find suitable entrainers for heterogeneous azeotropic distillation a method is required to locate any ternary heterogeneous azeotropes present in a system. A number of methods proposed in the literature were evaluated and found to be computationally inefficient. Two new methods were therefore developed for ternary systems. A methodology for applying these methods to quaternary and higher systems was also proposed. Two algorithms to design blended solvents were also developed. Blended solvents allow the use of simpler and thus cheaper solvents by spreading the active functional groups over several molecular backbones. It was observed in a number of cases that the blended solvents performed better than their individual components. This was attributed to synergistic interactions between these components. Experimental evidence for this effect was also found. The algorithm was applied to a number of industrially important separation problems, including the extremely difficult final purification process of alpha olefins. In each case solvents were found that are predicted to perform substantially better than those that are currently used in industry. A number of these predictions were tested by experiment and found to hold true.
AFRIKAANSE OPSOMMING: Skeidingsprosesse is 'n integrale deel van chemiese ingenieurswese. Die suiwerheid van 'n chemiese produk is een van die hoof faktore wat die waarde daarvan bepaal. Derhalwe sal enige metode wat die suiwerheid van 'n produk kan verbeter, of die koste van die suiwering daarvan kan verlaag, 'n direkte effek op die winsgewendheid van die hele aanleg hê. 'n Belangrike groep skeidingsprosesse is die oplosmiddel-gebaseerde skeidings. Dit sluit prosesse soos ekstraktiewe distillasie, vloeistofvloeistof ekstraksie en chromatografiese skeidings in. Heterogene azeotrope distillasie is nou verwant aan hierdie prosesse. Die belangrikste veranderlike in die ontwerp van so 'n oplosmiddel-gebaseerde proses is die keuse van oplosmiddel. 'n Genetiese algoritme vir die rekenaargesteunde molekulêe ontwerp van oplosmiddels vir ekstraktiewe distillasie is voorheen ontwikkel deur die skrywer. Hierdie algoritme is verbeter en uitgebrei om vloeistofvloeistofekstraksie, heterogene azeotrope distillasie, gas-vloeistof chromatografie en vloeistof-vloeistof (verdelings) chromatografie in te sluit. Ter selfde tyd is die doeltreffendheid van die algoritme verbeter, wat 'n verbetering in spoed van tot 500% in sekere gevalle tot gevolg gehad het. 'n Algoritme om die parameters van die onderliggende genetiese algoritme outomaties te verfyn is ook geïm plementeer om die optimale werksverrigting van die algoritme te verseker. Om gepaste saamsleepmiddels vir heterogene azeotrope distillasie te vind, word 'n metode benodig om enige ternêre heterogene azeotrope aanwesig in 'n stelsel op te spoor. 'n Aantal sulke metodes wat in die literatuur voorgestel is, is geëvaluEer en daar is gevind dat hierdie metodes ondoeltreffend is. Twee nuwe metodes is derhalwe ontwikkel vir ternêre stelsels. 'n Metodiek om hierdie metodes op kwaternêre en hoër stelsels toe te pas, is ook voorgestel. Twee algoritmes vir die ontwerp van gemengde oplosmiddels is ook ontwikkel. Gemengde oplosmiddels laat die gebruik van eenvoudiger en dus goedkoper oplosmiddels toe, deur die aktiewe funksionele groepe oor 'n aantal molekulêe strukture te versprei. Daar is 'n aantal gevalle waargeneem waar die mengsel beter skeiding bewerkstellig het as die individuele oplosmiddels waaruit dit bestaan. Dit is toegeskryf aan 'n sinergistiese wisselwerking tussen die komponente van die mengsel. Eksperimentele getuienis vir hierdie effek is ook ingewin. Die algoritme is toegepas op 'n aantal belangrike skeidingsprobleme vanuit die bedryf, insluitende die uiters moeilike finale suiwering van alfa olefiene. In elke geval is oplosmiddels gevind wat volgens voorspelling aansienlike beter skeidings sal bewerkstellig as dié wat tans in die bedryf gebruik word. 'n Aantal van hierdie voorspellings is eksperimenteel getoets en korrek bewys.
44

Skvaril, Jan. "Near-Infrared Spectroscopy and Extractive Probe Sampling for Biomass and Combustion Characterization". Doctoral thesis, Mälardalens högskola, Framtidens energi, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-35041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Biomass is characterized by highly variable properties. It can be converted to more valuable energy forms and products through a variety of conversion processes. This thesis focuses on addressing several important issues related to combustion and pulping. Experimental investigations were carried out on a biomass-fired industrial fluidized-bed boiler. The observed combustion asymmetry was explained by an imbalance in the fuel feed. Increased levels of carbon monoxide were detected close to boiler walls which contribute significantly to the risk of wall corrosion. Moreover, extensive literature analysis showed that near-infrared spectroscopy (NIRS) has a great potential to provide property information for heterogeneous feedstocks or products, and to directly monitor processes producing/processing biofuels in real-time. The developed NIRS-based models were able to predict characteristics such as heating value, ash content and glass content. A study focusing on the influence of different spectra acquisition parameters on lignin quantification was carried out. Spectral data acquired on moving woodchips were found to increase the representativeness of the spectral measurements leading to improvements in model performance. The present thesis demonstrates the potential of developing NIRS-based soft-sensors for characterization of biomass properties. The on-line installation of such sensors in an industrial setting can enable feed-forward process control, diagnostics and optimization.
45

Kanari, Ndue. "Extraction des métaux de valeur des concentrés de chalcopyrite et de chromite par chloruration". Vandoeuvre-les-Nancy, INPL, 1995. http://docnum.univ-lorraine.fr/public/INPL_T_1995_KANARI_N.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La métallurgie extractive de métaux non ferreux tels que le cuivre, etc. Génère des effluents gazeux et liquides ainsi que des déchets solides. Malgré les efforts faits par ce secteur d'activité, ces rejets, même partiels, posent des problèmes pour l'environnement. Ce travail est focalisée sur la possibilité de la chloruration sélective des concentrés de chalcopyrite et de chromite dans le but de récupérer ou de concentrer les métaux de valeur. Deux concentrés de chalcopyrite et un concentré de chromite ont été utilisés. La chloruration de ces solides est réalisée en montage horizontal et en ATG. La caractérisation physico-chimique des échantillons de départ et des produits de réaction est réalisée par MEB, DRX, MSE et Analyse Chimique. La chloruration des concentrés de chalcopyrite par le mélange Cl2+N2 est possible à 300°C et aboutit à la chloruration quasi totale de sulfures et à la volatilisation complète des chlorures de fer et de soufre. Plus de 95% du cuivre de la chalcopyrite se trouvent dans le résidu. Un schéma de procède est proposé pour le traitement du concentré de chalcopyrite permettant la récupération de chlorure de cuivre et de soufre élémentaire ainsi que le recyclage du chlore. L’extraction totale du chrome est possible par la carbochloruration du concentré de chromite aux environs de 900°C. La quasi-totalité du fer et une partie du chrome peuvent être extraits soit par l'oxychloruration à 950°C soit par carbochloruration à 550°C. Des schémas des procédés sont proposés. Ces schémas peuvent être appliqués pour le traitement et le recyclage de déchets contenant de chrome comme les catalyseurs, réfracteurs usés, les sables de fonderies, etc.
46

Alsulami, Abdullah. "Solution processed hole extraction interfaces for polymer solar cells". Thesis, University of Sheffield, 2016. http://etheses.whiterose.ac.uk/13929/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Organic semiconductors often make poor ohmic contacts with electrodes due to the deep energy levels forming an energetic barrier at the interfaces between the organic layer and the electrode contact. The mismatch in energy levels at the interface was overcome by inserting PEDOT:PSS material as an anode interlayer for achieving good ohmic contact and selecting single types of charge carriers at the polymer-electrode interface. Despite the significant development that was observed in the OPVs performance, the residual moisture and the acidic nature of PEDOT:PSS can cause degradation of the organic films and therefore affect long term stability. Metal oxides were later suggested as alternative interlayers to the PEDOT:PSS which exhibited high performance and long lifetimes. However, many of the metal oxide studies reported in literature used vacuum deposition methods, such as thermal evaporation and sputter deposition, which are not necessarily desirable for large-scale production. This thesis shows that it is possible to deposit Vanadium oxide (V2Ox) from solution in ambient conditions requiring no post-deposition treatment and achieving comparable efficiency to the most widely used interlayer materials. Using a combination of spectroscopic techniques and device characterisation, it is shown that solutionprocessed V2Ox can be used to replace evaporated metal oxides in optoelectronic devices which are fabricated at high temperatures. The work also goes on to show that it is possible to solution-process nickel oxide from a nickel acetylacetonate precursor and obtain a power conversion efficiency > 5%. Finally, the lifetime study of OPV devices utilising various anode interlayer materials shows that the stability of optimised V2Ox devices can be comparable with other interlayer materials.
47

Siqueira, Silvia de. "Atividades biológicas de extratos de Solanum paludosum Moric. obtidos por maceração e extração supercrítica". Universidade de São Paulo, 2010. http://www.teses.usp.br/teses/disponiveis/60/60137/tde-07112010-222621/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Solanum paludosum Moric. popularmente conhecida como jurubeba roxa, é uma espécie arbustiva encontrada no Brasil, utilizada na medicina popular principalmente para tratar distúrbios do fígado. Embora alguns trabalhos tenham descrito o perfil fitoquímico de S. paludosum, não existem estudos, até o presente, avaliando as propriedades biológicas desta planta. Assim, dois procedimentos de extração, maceração e extração supercrítica foram utilizados para obter diferentes extratos desta planta. Estes extratos foram comparados no que diz respeito ao perfil cromatográfico dos seus compostos fenólicos e avaliados quanto a citotoxicidade contra duas linhagens de células de mamíferos e quanto a atividade antioxidante in vitro utilizando três sistemas: o método de DPPH, o sistema xantina/xantina oxidase/luminol e a atividade inibidora da peroxidação lipídica. Além disso, a possibilidade de utilizar extratos de S. paludosum como uma nova fonte de inibidores de bombas de efluxo contra cepas de Staphylococcus aureus foi investigada. A maceração e a SFE levaram a obtenção de três extratos com diferentes perfis cromatográficos: SP-EtOHB, com uma composição química complexa, SP-SFECO2, enriquecido com flavonóides metoxilados, e SP-EtOHM, contendo principalmente polifenóis polares. No que diz respeito à atividade citotóxica, SP-EtOHB e SP-EtOHM mostraram similar baixa toxicidade contra as células de fibroblasto, enquanto o SP-SFECO2 foi mais citotóxico. A SP-EtOHB apresentou o melhor efeito citotóxico contra células de melanoma. SP-SFECO2 não demonstrou capacidade de reduzir o radical DPPH enquanto que os extratos SP-EtOHB e SP-EtOHM foram altamente antioxidantes (CI50 19,3 µg/mL). Todos os extratos apresentaram atividade inibitória do sistema xantina/XOD/luminol de maneira dependente de concentração (28 % a 97% em 4,7 a 298,5 µg/mL). A inibição da peroxidação lipídica aumentou com o aumento das concentrações dos extratos sem diferença entre SP-SFECO2 e SP-EtOHM (CI50 56,76 µg/mL). Curiosamente, a maior potência anti lipoperoxidativa foi com relação ao extrato SP-EtOHB (CI50 3,23 µg/mL), o que pode indicar um efeito sinérgico de compostos com mecanismos diferentes de ação antioxidante. Nenhum dos extratos testados apresentaram atividade antibacteriana. Por outro lado, todos os extratos apresentaram acentuada atividade moduladora nas cepas estudadas, principalmente a SP-SFECO2, que reduziu a CIM dos antibióticos em até oito vezes. Esta atividade pode estar relacionada com a elevada lipofilicidade de flavonóides polimetoxilados em SP-SFECO2, visto que a lipofilicidade é uma característica comum de diversos inibidores da bomba de efluxo. Em conclusão, os dois métodos de extração foram adequados para obter extratos com diferentes atividades biológicas de acordo com seu padrão de compostos fenólicos, o que contribue para aumentar o valor agregado de Solanum paludosum Moric.
Solanum paludosum Moric., popularly known as purple jurubeba, is a srhub found in Brazil, used in folk medicine mainly to treat liver disorders. Although some works have described the phytochemical profile of S. paludosum, there are no studies, until now, evaluating the biological properties of this plant. Thus, two procedures of extraction, maceration and supercritical fluid extraction, were used to obtain different extracts of this plant. These extracts were compared as regard the chromatographic profile of its phenolic compounds and evaluated for citotoxicity against two mammalian cell lines and for in vitro antioxidant activity using three systems: the DPPH method, the xanthine/xanthine oxidase/luminol assay and the lipid peroxidation inhibitory activity. Also, the possibility of using S. paludosum extracts as a new source of inhibitors of efflux pumps against Staphylococcus aureus strains has been investigated. The maceration and SFE led the obtaining of three extracts with distinct chromatographic profiles: SP-EtOHCRUDE, with a complex chemical composition, SP-SFECO2, enriched with methoxylated flavonoids, and SP-EtOHMARC, containing mainly polar polyphenols. As regard the cytotoxic activity, extracts SP-EtOHCRUDE and SP-EtOHMARC showed a similar low toxicity against fibroblast cells while the SP-SFECO2 was more cytotoxic. The SP-EtOHCRUDE presented the best cytotoxic effect against melanoma cells. SP-SFECO2 showed no capacity to reduce the radical DPPH while SP-EtOHCRUDE and SP-EtOHMARC were highly antioxidants (IC50 19,3 g/mL). All extracts exhibited inhibitory activity of the xanthine/XOD/luminol system in a dose-dependent manner (28 % to 97 % at 4.7298.5 g/ml). The inhibition of lipid peroxidation increased with increasing concentrations of extracts, with no difference between SP-SFECO2 and SP-EtOHMARC (IC50 56.76 g/ml). Interestingly, the highest anti-lipoperoxidative potency was with regard to SP-EtOHCRUDE (IC50 3.23 g/ml), which may indicate a synergistic effect of compounds with different mechanisms of antioxidant action. None of the extracts tested showed significant antibacterial activity. On the other hand, all extracts showed marked modulator activity in the studied strains, mainly the SP-SFECO2 which reduced the MIC of antibiotics up to eight fold. This activity may be related to the high lipophilicity of polymethoxylated flavonoids in SP-SFECO2, since lipophilicity is a common feature of several efflux pump inhibitors. In conclusion, both methods of extraction were adequate for obtain extracts with different biological activities according to its pattern of phenolic compounds, contributing to increase the aggregate value of Solanum paludosum Moric.
48

Morales, Eduardo Vicentin. "Influência do fator de extração do café torrado e granulado e injeção de gás na formação de espuma no café solúvel tipo spray drier". Universidade Tecnológica Federal do Paraná, 2014. http://repositorio.utfpr.edu.br/jspui/handle/1/1062.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
O café é o segundo produto mais consumido no mundo, porém sua forma solúvel, ainda que muito prática, não possui boa aceitação no mercado brasileiro. Buscando estimular o seu consumo, este estudo teve como objetivo incrementar a formação de espuma no café solúvel tipo Spray Drier, submetido à variação do fator de extração e homogeneização do extrato com ar comprimido durante a secagem, além de avaliar a relação de carboidratos, proteínas e viscosidade do extrato com a formação de espuma. Os fatores de extração utilizados foram 3, 4 e 5 e a quantidade de gás foi limitada a 5NL.min-1. Foram avaliados a quantidade e tempo de dispersão de espuma, densidade, cor, umidade, distribuição granulométrica e análise micro estrutural do produto seco. O teor de carboidratos foi determinado pelo método ISO 11292 demonstrando um resultado médio de 42,78% sem diferença estatística entre os fatores de extração e correlação com a estabilidade da espuma. O teor de proteínas foi determinado pelo método espectrofotométrico de Bradford demonstrando um resultado médio de 11,24% com diferença estatística entre os fatores de extração e correlação com a estabilidade da espuma. A viscosidade demonstrou correlação inversamente proporcional ao fator de extração. Os extratos de café com injeção de gás e uso do sistema de homogeneização apresentaram melhores resultados na quantidade de espuma formada. O ar comprimido pode ser utilizado para aumento da quantidade de espuma no produto seco e influenciou diretamente na cor e densidade do produto.
Coffee is the second most consumed product in the world, but its soluble form, although very practical, does not have good acceptance in the Brazilian market. Seeking to boost its consumption, this study aimed to increase the foam of soluble Spray Drier coffee in type subjected to variation of factor extraction and homogenization of the extract with compressed air during drying and to evaluate the relationship of carbohydrates, proteins and viscosity of the extract with foaming formation. The extraction factors used were 3, 4 and 5 and the amount of gas was limited to 5NL.min-1. The amount of dispersion time and foam density, color, moisture, particle size distribution and microstructural analysis of the dried product were evaluated. The carbohydrate content was determined by demonstrating an average result of 42.78 % with no statistical difference between the factors extraction and correlation with foam stability ISO 11292 method. The protein content was determined by the spectrophotometric method of Bradford demonstrating an average result of 11.24% with a statistical difference between the factors extraction and correlation with foam stability. The viscosity of the extracts was inversely proportional to the extraction factor. Coffee extracts with injection of gas and the use of homogenization showed better results in the amount of foam formed. Compressed air can be used to increase the amount of foam and the dried product directly influences the color and density of the product.
49

Gong, Xun. "Triangle-mesh based cutter-workpiece engagement extraction for general milling processes". Thesis, University of British Columbia, 2013. http://hdl.handle.net/2429/45143.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This thesis presents a novel geometric modeling methodology of cutter-workpiece engagement extraction for general milling processes. Cutter-workpiece engagement (CWE) geometry is the instantaneous contact area between the cutter and the in-process workpiece. It defines how the cutting edge enters and exits the workpiece. It plays a crucial role for process simulation and directly effects the calculation of cutting force, torque and et cetera. Based on the result of physical simulation, the milling process can be optimized and the machining performance can be improved. Successful optimization depends on the accuracy of the extracted CWE. The difficulty and challenge of CWE extraction comes from various types of cutters, changing geometry of in-process workpiece and multi-axis tool path of cutter movement. Existing methods confront difficulty to be available for general milling processes, which means for any type of cutter, any shape of in-process workpiece and any tool path, even with self-intersections. To fulfill the requirement of generality, this thesis proposes to model all geometries as triangle meshes throughout the simulation and certain strategy of CWE extraction is applied. Our methodology adopts ball pivoting algorithm for cutter swept volume generation. Octree space partition method is applied to speed up triangle-to-triangle intersection calculation which is used for Boolean operation between meshes. The reported method has been tested on several case studies of different complexity. The effectiveness of the proposed methodology shows its potential for further applications.
50

Du, Toit Zita. "Simulation of a palladium extraction circuit". Thesis, Stellenbosch : University of Stellenbosch, 2006. http://hdl.handle.net/10019/536.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia