Academic literature on the topic 'Simplification structurale'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Simplification structurale.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Simplification structurale"

1

Farjon, Jonathan. "Nouvelles méthodologies R. M. N. En milieu liquide chiral : contribution à l'analyse stéréochimique en chimie structurale organique." Paris 11, 2003. http://www.theses.fr/2003PA112137.

Full text
Abstract:
Cette thèse concerne divers développements méthodologiques et leurs applications en RMN dans les solvants cristaux liquides chiraux. Nous avons d'abord montré que les expériences comprenant des impulsions sélectives permettaient d'extraire des informations des spectres proton et carbone-13 qui étaient inaccessibles sur les spectres monodimensionnels standards. Nous avons ensuite utilisé d'autres techniques pour mesurer un maximum de couplages dipolaires pour préciser de manière non-ambigue͏̈ les configurations relatives de centres stéréogènes dans des molécules rigides. Nous avons ainsi montré que pour la DHEA, un stéroi͏̈de, une seule géométrie relative des substituants était compatible avec l'ensemble des couplages dipolaires mesurés et conduisait à un écart type entre couplages dipolaires calculés et expérimentaux correct. Cette méthode est promise à un grand avenir car elle est beaucoup moins ambigue͏̈ que les méthodes classiques utilisées en milieu isotrope. Enfin, nous avons développé cette méthode dans le cas des molécules flexibles où le problème se complique car il existe une corrélation totale entre conformation moléculaire et ordre orientationnel. Le nombre de paramètres à itérer explose rapidement, alors que le nombre de mesurables reste constant, et donc un traitement général est impossible. En prenant pour exemple le 1,2-dibromopropane, nous avons montré que le problème est gérable, à condition d'utiliser un modèle paramétrique pour calculer la valeur moyenne des paramètres d'ordre pour chaque conformation. Les paramètres à itérer, sont alors beaucoup moins nombreux et le problème peut être traité. Ainsi, nous avons montré qu'avec quatre indices de liaison et la géométrie des différents conformères obtenue par calcul ab initio, nous pouvions obtenir un excellent accord entre les couplages dipolaires calculés et expérimentaux, et déterminer sans ambigui͏̈té la configuration relative des protons méthyléniques par rapport à la configuration du centre chiral<br>This thesis relates to various methodological developments and their applications in NMR in chiral liquid crystal solvents. Firstly, we have shown that experiments using selective pulses allowed us to extract information from proton and carbon-13 spectra which were inaccessible on the standard monodimensional spectra. We then used these techniques to measure a maximum of dipolar couplings in order to specify, in an unambiguous way, the relative configurations of stereogenic centres in rigid molecules. We showed that for the steroid DHEA, only one relative geometry of the substituents was compatible with all the measured dipolar couplings and led to a correct standard deviation between calculated and experimental dipolar couplings. This method is extremely promising because it is much less ambiguous than the more traditional methods used in isotropic media. Finally, we developed this method in the case of flexible molecules where the problem becomes more complicated because of the correlation between molecular conformation and orientational order. The number of parameters to be re-iterated explodes rapidly, whereas the number of measurables remain constant, and thus a general treatment is not possible. By studying for example, the 1,2-dibromopropane, we showed that the problem is manageable, under the condition of using a parametric model to calculate the average value of order parameters for each conformation. The parameters to be re-iterated, are then much fewer and the problem can be dealt with. Thus, we showed that, with four bond indices and the geometry of different conformers obtained by ab initio calculations, we could obtain an excellent agreement between the calculated and experimental dipolar couplings, and determine without ambiguity the relative configuration of the methylenic protons compared with the configuration of the chiral center
APA, Harvard, Vancouver, ISO, and other styles
2

Amrane, Dyhia. "Pharmacomodulation d'hétérocycles α-trichlorométhylés ciblant l'apicoplaste chez P. falciparum". Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0379.

Full text
Abstract:
Le paludisme est la première parasitose en termes de mortalité à l’échelle mondiale. Les thérapies combinées à base d'artémisinine, traitement de première ligne du paludisme à Plasmodium falciparum, font face à des échecs dûs à l’apparition de résistances. Il est donc nécessaire de développer de nouvelles molécules antiplasmodiales possédant un mécanisme d’action novateur. Dans cet objectif, notre laboratoire a précédemment décrit la synthèse et les activités biologiques d'une chimiothèque de molécules azahétérocycliques α-trichlorométhylées, dont une molécule hit en série quinazoline qui présente le meilleur profil biologique.Une première partie de ce travail s’est intéressée à la pharmacomodulation en série 4-carboxamidoquinazoline. Afin de compléter l’étude RSA, la stratégie de scaffold hopping a permis l’obtention de nouvelles molécules en séries quinoxaline et phtalazine. Par simplification structurale, de nouveaux composés en séries pyrimidine, pyridazine et pyrazine ont été obtenus. Enfin, dans le but de moduler la partie benzénique des noyaux quinazoline et quinoxaline, des dérivés en série thiénopyrimidine et pyrido[2,3-b]pyrazine ont été synthétisés. Parmi plus de 110 nouvelles molécules originales synthétisées, plusieurs nouvelles molécules hit ont pu être identifiées. Leurs propriétés physicochimiques et pharmacocinétiques in vitro ont été déterminées en vue d’identifier une molécule candidate pour l’évaluation in vivo. De plus, afin d’élucider le mécanisme d’action de ces composés qui diffère de ceux des antipaludiques commerciaux, nous avons récemment identifié par immunofluorescence que ces molécules possèdent une action sur l’apicoplaste de P. falciparum<br>Malaria remains the leading cause of death among parasitic infections worldwide. Currently, there are major concerns about the spread of resistance to artemisinin derivatives that are the basis of first-line antimalarial treatment. Therefore, there is an urgent need to develop new antiplasmodial molecules with a novel mechanism of action. For this purpose, our laboratory has previously described the synthesis and biological activities of a chemical library of α-trichloromethylated azaheterocycles including a hit molecule in the quinazoline series which presents the best biological profile.The first part of this work focused on 4-carboxamide quinazoline pharmacomodulation. In order to complete the SARs, scaffold hopping strategies allowed us to obtain new compounds in the quinoxaline and phthalazine series. By structural simplification, new compounds in the pyrimidine, pyridazine and pyrazine series were obtained. Finally, in order to explore the benzene part of the quinazoline and quinoxaline rings, new thienopyrimidine and pyrido[2,3-b]pyrazine derivatives were also synthesized. More than 110 new original molecules were obtained, among them several new hit molecules were obtained. The physicochemical and in vitro pharmacokinetic properties were determined in order to initiate the study of their in vivo activity on Plasmodium berghei. In addition, in order to elucidate the mechanism of action of these compounds, which differs from those of commercial antimalarials, we have recently identified by immunofluorescence that these molecules target the apicoplast of P. falciparum, an organelle essential to parasite survival
APA, Harvard, Vancouver, ISO, and other styles
3

Claici, Sebastian. "Structure as simplification : transportation tools for understanding data." Thesis, Massachusetts Institute of Technology, 2020. https://hdl.handle.net/1721.1/127014.

Full text
Abstract:
Thesis: Ph. D., Massachusetts Institute of Technology, Department of Electrical Engineering and Computer Science, May, 2020<br>Cataloged from the official PDF of thesis.<br>Includes bibliographical references (pages 169-187).<br>The typical machine learning algorithms looks for a pattern in data, and makes an assumption that the signal to noise ratio of the pattern is high. This approach depends strongly on the quality of the datasets these algorithms operate on, and many complex algorithms fail in spectacular fashion on simple tasks by overfitting noise or outlier examples. These algorithms have training procedures that scale poorly in the size of the dataset, and their out-puts are difficult to intepret. This thesis proposes solutions to both problems by leveraging the theory of optimal transport and proposing efficient algorithms to solve problems in: (1) quantization, with extensions to the Wasserstein barycenter problem, and a link to the classical coreset problem; (2) natural language processing where the hierarchical structure of text allows us to compare documents efficiently;(3) Bayesian inference where we can impose a hierarchy on the label switching problem to resolve ambiguities.<br>by Sebastian Claici.<br>Ph. D.<br>Ph.D. Massachusetts Institute of Technology, Department of Electrical Engineering and Computer Science
APA, Harvard, Vancouver, ISO, and other styles
4

Zupan, Alexander Martin. "Thin position, bridge structure, and monotonic simplification of knots." Diss., University of Iowa, 2012. https://ir.uiowa.edu/etd/3420.

Full text
Abstract:
Since its inception, the notion of thin position has played an important role in low-dimensional topology. Thin position for knots in the 3-sphere was first introduced by David Gabai in order to prove the Property R Conjecture. In addition, this theory factored into Cameron Gordon and John Luecke's proof of the knot complement problem and revolutionized the study of Heegaard splittings upon its adaptation by Martin Scharlemann and Abigail Thompson. Let h be a Morse function from the 3-sphere to the real numbers with two critical points. Loosely, thin position of a knot K in the 3-sphere is a particular embedding of K which minimizes the total number of intersections with a maximal collection of regular level sets, where this number of intersections is called the width of the knot. Although not immediately obvious, it has been demonstrated that there is a close relationship between a thin position of a knot K and essential meridional planar surfaces in its exterior E(K). In this thesis, we study the nature of thin position under knot companionship; namely, for several families of knots we establish a lower bound for the width of a satellite knot based on the width of its companion and the wrapping or winding number of its pattern. For one such class of knots, cable knots, in addition to finding thin position for these knots, we establish a criterion under which non-minimal bridge positions of cable knots are stabilized. Finally, we exhibit an embedding of the unknot whose width must be increased before it can be simplified to thin position.
APA, Harvard, Vancouver, ISO, and other styles
5

Chebaro, Omar. "Classification de menaces d'erreurs par analyse statique, simplification syntaxique et test structurel de programmes." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00839151.

Full text
Abstract:
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l'analyse statique et l'analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l'analyse statique signale les instructions risquant de provoquer des erreurs à l'exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l'analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L'objectif de cette thèse est de rendre la recherche d'erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d'espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu'aucun chemin d'exécution ne peut atteindre l'état d'erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l'ensemble de toutes les alarmes du programme qui ont été détectées par l'analyse statique. L'inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d'espace et les alarmes les plus faciles à classer sont pénalisées par l'analyse d'autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d'analyse si des alarmes sont incluses dans d'autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l'utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d'alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l'union de ces sous-ensembles couvre l'ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu'avec each, et des slices plus simples qu'avec all. Cependant, l'analyse dynamique de certaines slices peut manquer de temps ou d'espace avant de classer certaines alarmes, tandis que l'analyse dynamique d'une slice éventuellement plus simple permettrait de les classer. L'utilisation smart consiste à appliquer l'utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c'est nécessaire. Lorsqu'une alarme ne peut pas être classée par l'analyse dynamique d'une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l'outil de génération de tests PathCrawler et la plate-forme d'analyse statique Frama-C. Des expérimentations ont montré, d'une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d'autre part, que la vérification devient plus rapide avec l'utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser
APA, Harvard, Vancouver, ISO, and other styles
6

Chebaro, Omar. "Classification de menaces d’erreurs par analyse statique, simplification syntaxique et test structurel de programmes." Thesis, Besançon, 2011. http://www.theses.fr/2011BESA2021/document.

Full text
Abstract:
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l’analyse statique et l’analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l’analyse statique signale les instructions risquant de provoquer des erreurs à l’exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l’analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L’objectif de cette thèse est de rendre la recherche d’erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d’espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu’aucun chemin d’exécution ne peut atteindre l’état d’erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l’ensemble de toutes les alarmes du programme qui ont été détectées par l’analyse statique. L’inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d’espace et les alarmes les plus faciles à classer sont pénalisées par l’analyse d’autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d’analyse si des alarmes sont incluses dans d’autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l’utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d’alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l’union de ces sous-ensembles couvre l’ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu’avec each, et des slices plus simples qu’avec all. Cependant, l’analyse dynamique de certaines slices peut manquer de temps ou d’espace avant de classer certaines alarmes, tandis que l’analyse dynamique d’une slice éventuellement plus simple permettrait de les classer. L’utilisation smart consiste à appliquer l’utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c’est nécessaire. Lorsqu’une alarme ne peut pas être classée par l’analyse dynamique d’une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l’outil de génération de tests PathCrawler et la plate-forme d’analyse statique Frama-C. Des expérimentations ont montré, d’une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d’autre part, que la vérification devient plus rapide avec l’utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser<br>Software validation remains a crucial part in software development process. Two major techniques have improved in recent years, dynamic and static analysis. They have complementary strengths and weaknesses. We present in this thesis a new original combination of these methods to make the research of runtime errors more accurate, automatic and reduce the number of false alarms. We prove as well the correction of the method. In this combination, static analysis reports alarms of runtime errors some of which may be false alarms, and test generation is used to confirm or reject these alarms. When applied on large programs, test generation may lack time or space before confirming out certain alarms as real bugs or finding that some alarms are unreachable. To overcome this problem, we propose to reduce the source code by program slicing before running test generation. Program slicing transforms a program into another simpler program, which is equivalent to the original program with respect to certain criterion. Four usages of program slicing were studied. The first usage is called all. It applies the slicing only once, the simplification criterion is the set of all alarms in the program. The disadvantage of this usage is that test generation may lack time or space and alarms that are easier to classify are penalized by the analysis of other more complex alarms. In the second usage, called each, program slicing is performed with respect to each alarm separately. However, test generation is executed for each sliced program and there is a risk of redundancy if some alarms are included in many slices. To overcome these drawbacks, we studied dependencies between alarms on which we base to introduce two advanced usages of program slicing : min and smart. In the min usage, the slicing is performed with respect to subsets of alarms. These subsets are selected based on dependencies between alarms and the union of these subsets cover the whole set of alarms. With this usage, we analyze less slices than with each, and simpler slices than with all. However, the dynamic analysis of some slices may lack time or space before classifying some alarms, while the dynamic analysis of a simpler slice could possibly classify some. Usage smart applies previous usage iteratively by reducing the size of the subsets when necessary. When an alarm cannot be classified by the dynamic analysis of a slice, simpler slices are calculated. These works are implemented in sante, our tool that combines the test generation tool PathCrawler and the platform of static analysis Frama-C. Experiments have shown, firstly, that our combination is more effective than each technique used separately and, secondly, that the verification is faster after reducing the code with program slicing. Simplifying the program by program slicing also makes the detected errors and the remaining alarms easier to analyze
APA, Harvard, Vancouver, ISO, and other styles
7

Wandji, Tchami Ornella. "Analyse contrastive des verbes dans des corpus médicaux et création d’une ressource verbale de simplification de textes." Thesis, Lille 3, 2018. http://www.theses.fr/2018LIL3H015/document.

Full text
Abstract:
Grâce à l’évolution de la technologie à travers le Web, la documentation relative à la santé est de plus en plus abondante et accessible à tous, plus particulièrement aux patients, qui ont ainsi accès à une panoplie d’informations sanitaires. Malheureusement, la grande disponibilité de l’information médicale ne garantit pas sa bonne compréhension par le public visé, en l’occurrence les non-experts. Notre projet de thèse a pour objectif la création d’une ressource de simplification de textes médicaux, à partir d’une analyse syntaxico-sémantique des verbes dans quatre corpus médicaux en français qui se distinguent de par le degré d’expertise de leurs auteurs et celui des publics cibles. La ressource conçue contient 230 patrons syntaxicosémantiques des verbes (appelés pss), alignés avec leurs équivalents non spécialisés. La méthode semi-automatique d’analyse des verbes appliquée pour atteindre notre objectif est basée sur quatre tâches fondamentales : l’annotation syntaxique des corpus, réalisée grâce à l’analyseur syntaxique Cordial (Laurent, Dominique et al, 2009) ; l’annotation sémantique des arguments des verbes, à partir des catégories sémantiques de la version française de la terminologie médicale Snomed Internationale (Côté, 1996) ; l’acquisition des patrons syntactico-sémantiqueset l’analyse contrastive du fonctionnement des verbes dans les différents corpus. Les patrons syntaxico-sémantiques des verbes acquis au terme de ce processus subissent une évaluation (par trois équipes d’experts en médecine) qui débouche sur la sélection des candidats constituant la nomenclature de la ressource de simplification. Les pss sont ensuite alignés avec leurs correspondants non spécialisés, cet alignement débouche sur le création de la ressource de simplification, qui représente le résultat principal de notre travail de thèse. Une évaluation du rendement du contenu de la ressource a été effectuée avec deux groupes d’évaluateurs : des linguistes et des non-linguistes. Les résultats montrent que la simplification des pss permet de faciliter la compréhension du sens du verbe en emploi spécialisé, surtout lorsque un certains paramètres sont réunis<br>With the evolution of Web technology, healthcare documentation is becoming increasinglyabundant and accessible to all, especially to patients, who have access to a large amount ofhealth information. Unfortunately, the ease of access to medical information does not guaranteeits correct understanding by the intended audience, in this case non-experts. Our PhD work aimsat creating a resource for the simplification of medical texts, based on a syntactico-semanticanalysis of verbs in four French medical corpora, that are distinguished according to the levelof expertise of their authors and that of the target audiences. The resource created in thepresent thesis contains 230 syntactico-semantic patterns of verbs (called pss), aligned withtheir non-specialized equivalents. The semi-automatic method applied, for the analysis of verbs,in order to achieve our goal is based on four fundamental tasks : the syntactic annotation of thecorpora, carried out thanks to the Cordial parser (Laurent et al., 2009) ; the semantic annotationof verb arguments, based on semantic categories of the French version of a medical terminologyknown as Snomed International (Côté, 1996) ; the acquisition of syntactico-semantic patternsof verbs and the contrastive analysis of the verbs behaviors in the different corpora. Thepss, acquired at the end of this process, undergo an evaluation (by three teams of medicalexperts) which leads to the selection of candidates constituting the nomenclature of our textsimplification resource. These pss are then aligned with their non-specialized equivalents, thisalignment leads to the creation of the simplification resource, which is the main result of ourPhD study. The content of the resource was evaluated by two groups of people : linguists andnon-linguists. The results show that the simplification of pss makes it easier for non-expertsto understand the meaning of verbs used in a specialized way, especially when a certain set ofparameters is collected
APA, Harvard, Vancouver, ISO, and other styles
8

Anquez, Pierre. "Correction et simplification de modèles géologiques par frontières : impact sur le maillage et la simulation numérique en sismologie et hydrodynamique." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0069/document.

Full text
Abstract:
Les modèles géologiques numériques 2D et 3D permettent de comprendre l'organisation spatiale des roches du sous-sol. Ils sont également conçus pour réaliser des simulations numériques afin d’étudier ou de prédire le comportement physique du sous-sol. Pour résoudre les équations qui gouvernent les phénomènes physiques, les structures internes des modèles géologiques peuvent être discrétisées spatialement à l’aide de maillages. Cependant, la qualité des maillages peut être considérablement altérée à cause de l’inadéquation entre, d’une part, la géométrie et la connectivité des objets géologiques à représenter et, d’autre part, les contraintes requises sur le nombre, la forme et la taille des éléments des maillages. Dans ce cas, il est souhaitable de modifier un modèle géologique afin de pouvoir générer des maillages de bonne qualité permettant la réalisation de simulations physiques fidèles en un temps raisonnable. Dans cette thèse, j’ai développé des stratégies de réparation et de simplification de modèles géologiques 2D dans le but de faciliter la génération de maillages et la simulation de processus physiques sur ces modèles. Je propose des outils permettant de détecter les éléments des modèles qui ne respectent pas le niveau de détail et les prérequis de validité spécifiés. Je présente une méthode pour réparer et simplifier des coupes géologiques de manière locale, limitant ainsi l’extension des modifications. Cette méthode fait appel à des opérations d’édition de la géométrie et de la connectivité des entités constitutives des modèles géologiques. Deux stratégies sont ainsi explorées : modifications géométriques (élargissements locaux de l'épaisseur des couches) et modifications topologiques (suppressions de petites composantes et fusions locales de couches fines). Ces opérations d’édition produisent un modèle sur lequel il est possible de générer un maillage et de réaliser des simulations numériques plus rapidement. Cependant, la simplification des modèles géologiques conduit inévitablement à la modification des résultats des simulations numériques. Afin de comparer les avantages et les inconvénients des simplifications de modèles sur la réalisation de simulations physiques, je présente trois exemples d'application de cette méthode : (1) la simulation de la propagation d'ondes sismiques sur une coupe au sein du bassin houiller lorrain, (2) l’évaluation des effets de site liés à l'amplification des ondes sismiques dans le bassin de la basse vallée du Var, et (3) la simulation d'écoulements fluides dans un milieu poreux fracturé. Je montre ainsi (1) qu'il est possible d’utiliser les paramètres physiques des simulations, la résolution sismique par exemple, pour contraindre la magnitude des simplifications et limiter leur impact sur les simulations numériques, (2) que ma méthode de simplification de modèles permet de réduire drastiquement le temps de calcul de simulations numériques (jusqu’à un facteur 55 sur une coupe 2D dans le cas de l’étude des effets de site) tout en conservant des réponses physiques équivalentes, et (3) que les résultats de simulations numériques peuvent être modifiés en fonction de la stratégie de simplification employée (en particulier, la modification de la connectivité d’un réseau de fractures peut modifier les écoulements fluides et ainsi surestimer ou sous-estimer la quantité des ressources produites)<br>Numerical geological models help to understand the spatial organization of the subsurface. They are also designed to perform numerical simulations to study or predict the rocks physical behavior. The internal structures of geological models are commonly discretized using meshes to solve the physical governing equations. The quality of the meshes can be, however, considerably degraded due to the mismatch between, on the one hand, the geometry and the connectivity of the geological objects to be discretized and, on the other hand, the constraints imposed on number, shape and size of the mesh elements. As a consequence, it may be desirable to modify a geological model in order to generate good quality meshes that allow realization of reliable physical simulations in a reasonable amount of time. In this thesis, I developed strategies for repairing and simplifying 2D geological models, with the goal of easing mesh generation and simulation of physical processes on these models. I propose tools to detect model elements that do not meet the specified validity and level of detail requirements. I present a method to repair and simplify geological cross-sections locally, thus limiting the extension of modifications. This method uses operations to edit both the geometry and the connectivity of the geological model features. Two strategies are thus explored: geometric modifications (local enlargements of the layer thickness) and topological modifications (deletions of small components and local fusions of thin layers). These editing operations produce a model on which it is possible to generate a mesh and to realize numerical simulations more efficiently. But the simplifications of geological models inevitably lead to the modification of the numerical simulation results. To compare the advantages and disadvantages of model simplifications on the physical simulations, I present three applications of the method: (1) the simulation of seismic wave propagation on a cross-section within the Lorraine coal basin, (2) the site effects evaluation related to the seismic wave amplifications in the basin of the lower Var river valley, and (3) the simulation of fluid flows in a fractured porous medium. I show that (1) it is possible to use the physical simulation parameters, like the seismic resolution, to constrain the magnitude of the simplifications and to limit their impact on the numerical simulations, (2) my method of model simplification is able to drastically reduce the computation time of numerical simulations (up to a factor of 55 in the site effects case study) while preserving an equivalent physical response, and (3) the results of numerical simulations can be changed depending on the simplification strategy employed (in particular, changing the connectivity of a fracture network can lead to a modification of fluid flow paths and overestimation or underestimation of the quantity of produced resources)
APA, Harvard, Vancouver, ISO, and other styles
9

TERLIZZI, VANESSA. "Applications of innovative materials, GFRP and structural adhesives, for the curtain wall: technological and performance verification." Doctoral thesis, Università Politecnica delle Marche, 2018. http://hdl.handle.net/11566/252565.

Full text
Abstract:
L’obiettivo del presente lavoro è verificare l’applicabilità di materiali innovativi, quali compositi (GFRP - Glass Fibre Reinforced Polymer) e colle strutturali, per la realizzazione di facciate continue ad alte prestazioni meccaniche e termiche e a basso impatto ambientale. Tale obiettivo è stato verificato anche tramite l’applicazione del principio della “Semplificazione tecnologica” che rappresenta il filo conduttore alla base dello studio e delle sperimentazioni svolte dal gruppo di ricerca, coordinato dal Prof. P.Munafò, che ha sviluppato il brevetto “Sistema per la realizzazione di facciate di edifici” (n.102015000087569) di cui il Professore è inventore. Con tale filosofia di approccio è possibile realizzare componenti edilizi altamente prestazionali e semplici nella loro concezione essendo costituiti con un numero limitato di pezzi implicando così un minor consumo di energia nella produzione, assemblaggio, manutenzione e smaltimento del prodotto, classificandolo quindi come eco-sostenibile. In questa tesi viene verificata la fattibilità di un sistema costruttivo per la realizzazione di facciate continue per edifici studiando preventivamente, con test sperimentali e analisi sul ciclo di vita dei componenti, le prestazioni meccaniche dei profili in GFRP e degli adesivi strutturali in condizioni di invecchiamento accelerato (durabilità) e non, e l’interazione del componente edilizio con l’ambiente, dalla produzione alla dismissione finale (LCA - Life Cycle Assessment). I metodi principalmente usati in questo studio sono di tipo sperimentale al fine di testare le proprietà meccaniche dei materiali, in condizioni ambientali e dopo invecchiamento (accelerato in camera climatica ad elevata umidità e temperatura (ISO 6270-2) e sotto esposizione ai raggi UV (ASTM D904–99)). In seguito ai singoli test di invecchiamento precedentemente citati, sono stati condotti ulteriori sperimentazioni riguardanti il trattamento di campioni a condizioni di invecchiamento combinato (camera climatica ed esposizione ai raggi UV - Tcc+Tuv - e viceversa - Tuv+Tcc -). Al fine di validare i risultati ottenuti dalle sperimentazioni effettuate sono stati eseguiti test numerici e analitici. Il risultato più significativo è dato proprio dalla validazione dell’idea brevettuale dimostrando la possibilità di industrializzare componenti (facciate continue) che utilizzano tale materiale composito (pultruso - GFRP), mediante l’accoppiamento a materiali come l’acciaio che possono conferire al componente alte prestazioni meccaniche, soprattutto per quanto riguarda il contenimento delle deformazioni sotto carico. Le soluzioni tecniche studiate inoltre evitano il problema della rottura fragile delle giunzioni bullonate che è uno dei problemi che riguardano le giunzioni di questo tipo su profili in pultruso. La deformabilità e la rottura fragile delle giunzioni bullonate dei profili in pultruso ne hanno limitato l’utilizzo nel settore dell’ingegneria edile per la realizzazione di facciate continue specie di grandi dimensioni. A tal fine l’attività di ricerca è stata prevalentemente incentrata a verificare la possibilità di inserire nei montati in pultruso di tali facciate, una lamina d’acciaio incollata per contenere la deformazione e per migliorare la qualità della giunzione bullonata in modo da evitare rotture di tipo fragile raggiunto il carico di collasso. Le risultanze dei test sperimentali condotti dimostrano le buone performance del sistema ibrido GFRP-acciaio anche in seguito all’esposizione a differenti condizioni di invecchiamento artificiale e verificano la fattibilità di realizzazione di una facciata continua ad alte prestazioni meccaniche e termiche.<br>The aim of this work is to demonstrate the applicability of innovative materials, such as Glass Fibre Reinforced Polymer (GFRP) industrialized components (profiles), structural adhesives, for the realization of curtain walls with high mechanical and thermal performances and low environmental impact. This objective with the “Technological Simplification” principle is verified. This latter is the guiding principle to the base of the search and experimental tests carried out by the research group. The teamwork coordinator and patent inventor is Prof P.Munafò, with him I developed a “System for the realization of building façade” (n. 102015000087569). The “Technological Simplification” principle allows the building components realization with high performance and easy to assemble, by using a limited number of pieces. All this involves lower energy consumption in the production, assembly, maintenance and disposal phases. For this reason, the construction element can be considered environmentally sustainable. In this thesis, the feasibility of the constructive system for the realization of building façade, through the experimental tests and component life cycle analysis, is verified. The components and materials properties both in laboratory conditions and after different types of ageing conditions (durability) are tested. The interaction between building components and environment, from the production to ultimate disposal (LCA - Life Cycle Assessment) are analysed. The methods used were mostly of the experimental type. The material mechanical properties both in environmental conditions and in different types of ageing conditions were analysed, such as continuous condensation (ISO 6270-2) and UV irradiation (ASTM D904–99). Additional test with combined artificial ageing (climatic chamber and exposure to UV radiation - Tcc+Tuv – and the other way around - Tuv+Tcc) were tested. The numerical and analytical studies were carried out, with the objective to check and validate the results obtained through experimental tests. The main outcome was the validation of the patents basic ideas, which is a key point in the industrialization process of the construction elements (Structural Member). The aim of this work is to demonstrate the feasibility of the use of pultruded Glass Fiber Reinforced Polymers (GFRP) profiles, adhesively joined with other materials (i.e. steel), in the construction sector. The objective is both to reduce the GFRP profiles deformation under loading conditions, and to avoid the brittle fractures that could occur in bolted joints. In the building engineering field, in fact, these issues (deformations and brittle fractures) prevent the use of pultruded materials. In the research activity, the possibility to adhesively join a steel laminate on the pultruded profile mullion for curtain walls was verified. The containment of the deformations and the prevention of brittle fractures in the bolted joint were checked, in order to verify the pultruded curtain wall feasibility, both constructively and for its structural and energy performances. Experimental results, in fact, demonstrated that the use of GFRP profiles, bonded with structural adhesives and combined with steel, is successful on curtain walls, even when they are exposed to adverse environmental conditions. The feasibility of the curtain wall implementation with high performance is verified.
APA, Harvard, Vancouver, ISO, and other styles
10

Curado, Manuel. "Structural Similarity: Applications to Object Recognition and Clustering." Doctoral thesis, Universidad de Alicante, 2018. http://hdl.handle.net/10045/98110.

Full text
Abstract:
In this thesis, we propose many developments in the context of Structural Similarity. We address both node (local) similarity and graph (global) similarity. Concerning node similarity, we focus on improving the diffusive process leading to compute this similarity (e.g. Commute Times) by means of modifying or rewiring the structure of the graph (Graph Densification), although some advances in Laplacian-based ranking are also included in this document. Graph Densification is a particular case of what we call graph rewiring, i.e. a novel field (similar to image processing) where input graphs are rewired to be better conditioned for the subsequent pattern recognition tasks (e.g. clustering). In the thesis, we contribute with an scalable an effective method driven by Dirichlet processes. We propose both a completely unsupervised and a semi-supervised approach for Dirichlet densification. We also contribute with new random walkers (Return Random Walks) that are useful structural filters as well as asymmetry detectors in directed brain networks used to make early predictions of Alzheimer's disease (AD). Graph similarity is addressed by means of designing structural information channels as a means of measuring the Mutual Information between graphs. To this end, we first embed the graphs by means of Commute Times. Commute times embeddings have good properties for Delaunay triangulations (the typical representation for Graph Matching in computer vision). This means that these embeddings can act as encoders in the channel as well as decoders (since they are invertible). Consequently, structural noise can be modelled by the deformation introduced in one of the manifolds to fit the other one. This methodology leads to a very high discriminative similarity measure, since the Mutual Information is measured on the manifolds (vectorial domain) through copulas and bypass entropy estimators. This is consistent with the methodology of decoupling the measurement of graph similarity in two steps: a) linearizing the Quadratic Assignment Problem (QAP) by means of the embedding trick, and b) measuring similarity in vector spaces. The QAP problem is also investigated in this thesis. More precisely, we analyze the behaviour of $m$-best Graph Matching methods. These methods usually start by a couple of best solutions and then expand locally the search space by excluding previous clamped variables. The next variable to clamp is usually selected randomly, but we show that this reduces the performance when structural noise arises (outliers). Alternatively, we propose several heuristics for spanning the search space and evaluate all of them, showing that they are usually better than random selection. These heuristics are particularly interesting because they exploit the structure of the affinity matrix. Efficiency is improved as well. Concerning the application domains explored in this thesis we focus on object recognition (graph similarity), clustering (rewiring), compression/decompression of graphs (links with Extremal Graph Theory), 3D shape simplification (sparsification) and early prediction of AD.<br>Ministerio de Economía, Industria y Competitividad (Referencia TIN2012-32839 BES-2013-064482)
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography