Dissertations / Theses on the topic 'Bloc modèle'

To see the other types of publications on this topic, follow the link: Bloc modèle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Bloc modèle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Voiglio, Eric Joseph. "Conservation aérobie des organes : développement d'un modèle de bloc multi-viscéral pour l'étude d'une émulsion de fluorocarbure." Lyon 1, 2000. http://www.theses.fr/2000LYO1T124.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bonvoisin, Frédéric. "Evaluation de la performance des blocs opératoires : du modèle aux indicateurs." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2011. http://tel.archives-ouvertes.fr/tel-00626150.

Full text
Abstract:
Dans leur environnement actuel, les hôpitaux se voient contraints de développer des outils d'évaluation de la performance, et ce principalement dans les secteurs à forte consommation de ressources et à forte valeur ajoutée comme, par exemple, les blocs opératoires. Notre apport est une méthodologie innovante destinée à réduire les lacunes existantes en termes d'évaluation de la performance hospitalière. Cette méthodologie combine une approche pratique avec un outil d'aide à la conception qui vise à générer un système global d'évaluation de la performance utilisable dans les blocs opératoires. Notre méthodologie comporte quatre grandes étapes : détermination de la stratégie et des objectifs, description des processus et identification des inducteurs de performance, définition des plans d'action, établissement des indicateurs de performance et conception des tableaux de bord. Grâce à une approche générique pratique, au respect des étapes de conception et aux outils de développement présentés, cette méthode donne aux gestionnaires de blocs opératoires la capacité de concevoir et de générer un système d'évaluation de la performance (indicateurs, tableaux de bord) qui convient à chaque contexte et répond aux exigences de chaque type d'organisation dans le domaine des soins de santé. Les différentes étapes de cette approche ont été appliquées à un cas réel dans un bloc opératoire de 8 salles. En rendant notre modèle compréhensible et facile à utiliser par les professionnels de la santé, notre collaboration avec les équipes du bloc opératoire et de la direction médicale ont conduit à une réelle appropriation des résultats par l'hôpital.
APA, Harvard, Vancouver, ISO, and other styles
3

Cueff, Guillaume. "Développement d'un modèle thermomécanique du comportement sous agressions thermiques de matériaux cellulosiques : application à l'étude de résistance au feu de panneaux de bloc-porte en aggloméré de bois." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0360/document.

Full text
Abstract:
Dans le cadre de la sécurité incendie, les produits industriels destinés au marché dela construction doivent être soumis à des essais de résistance au feu standardisés. Enparticulier, des critères de température limite à ne pas dépasser sont à satisfaire en face nonexposéedes produits. De plus, une attention est à apporter aux déformations hors plan del’élément testé. Ces essais de résistance au feu peuvent être contraignants et coûteux pour lesindustriels ce qui peut freiner leur démarche de Recherche et Développement. À ce titre, unprogramme de recherche a été lancé par la société EFECTIS France, laboratoire agréé enrésistance au feu, en collaboration avec le laboratoire I2M de l’Université de Bordeaux, dontl'objectif est de mettre au point un outil de simulation numérique d’essais de résistance au feu(four virtuel) appliqué à un bloc-porte en bois et produits dérivés (panneaux de particules etpanneaux de fibres). Le modèle thermomécanique développé prend en compte l’évolution despropriétés thermiques et mécaniques du matériau en fonction de l’avancement des réactionsde vaporisation et de pyrolyse ainsi que l’impact de ces réactions en termes d’énergiesconsommées et fournies. Ce modèle s’appuie notamment sur différents programmesexpérimentaux, comportant entre autre de la mesure de champ par corrélation d’images, dansle but de mesurer les données nécessaires à son bon fonctionnement. En se basant sur lecalcul du champ de température et sur l'estimation des déformations thermiques du bloc-portecoupe-feu, le modèle permet d’évaluer les performances au feu du produit
In the context of fire safety, industrial products used in the building constructionmarket have to satisfy to standard fire resistance tests. In particular, a temperature criterionmust be satisfied on the unexposed side of the product and attention should be given to thedeformation of the product during fire. These tests are restrictive and costly for manufacturerswhich can slow down their R&D program. In this context, a research program was initiatedby the company EFECTIS France in collaboration with the laboratory I2M from theUniversity of Bordeaux whose main objective is to develop a numerical thermomechanicalmodel for simulating a fire resistance test (virtual furnace) on a fire door composed of woodand wood-based materials (particles and fibres boards). Thermomechanical model takes intoaccount the variation of thermal and mechanical properties as a function of vaporization andpyrolysis reactions. Energy impacts of those reactions are also included in the model. Thenumerical model involves experimental data to complete material properties needed for itsutilisation. To achieve this, different experimental programs were carried out, in particularmeasurements using digital image correlation. Based on simulated temperature field andestimation of the global bending of the fire door, the model allows evaluating fireperformances of the product
APA, Harvard, Vancouver, ISO, and other styles
4

Makke, Ali. "Mechanical properties of homogenous polymers and block copolymers : a molecular dynamics simulation approach." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10067/document.

Full text
Abstract:
Les propriétés mécaniques des polymères et des copolymères à blocs ont été étudiées par simulation de type dynamique moléculaire (modèle billes-ressorts). Les échantillons polymères ont été générés par la méthode de « radical like polymerisation ». Ces échantillons ont été soumis à des essais de traction uniaxiaux et triaxiaux dans le but d’étudier leurs réponses mécaniques. Dans la première partie de ce travail on a comparé deux méthodes de traction : « méthode de traction homogène» et la traction « pilotée par les bords » de l’échantillon. Les résultats montrent que les deux méthodes sont équivalentes à faible vitesse de traction. Le changement de distance entre enchevêtrement dans un polymère modèle sous traction est analysé, les résultats montrent que le désenchevêtrèrent des chaines est plus prononcé lorsque la déformation de l’échantillon est uniaxiale du fait de la relaxation latérale de l’échantillon. La nucléation des cavités dans les polymères amorphes soumis à une déformation triaxial a été également étudiée. On a trouvé que les cavités se forment dans des zones qui sont caractérisées par un faible module d’incompressibilité élastique. Ces zones sont identifiables dès le début de la déformation à une température très basse (T~0K). La seconde partie de ce travail se concentre sur la simulation de la réponse mécanique des copolymères à blocs. L’influence de l’architecture moléculaire sur le comportement mécanique de l’échantillon a été analysée. Les résultats montrent que le comportement mécanique des échantillons est piloté par le taux des chaines liantes qui assurent la transmission des contraintes entre les phases. Le flambement des lamelles dans les copolymères à blocs a été également étudié, l’influence de la taille de l’échantillon et de la vitesse de déformation sur la réponse mécanique de l’échantillon a été explorée. Les résultats montrent un changement de mode du flambement selon la vitesse de déformation imposée. Un nouveau modèle qui prend en compte le facteur cinétique du flambement est proposé pour décrire la compétition entre les modes
We use molecular dynamics simulation of a coarse grained model to investigate the mechanical properties of homogenous polymers and lamellar block copolymers. Polymer samples have been generated using “radical like polymerisation” method. These samples were submitted to uniaxial and triaxial tensile tests in order to study their mechanical responses. First we compare two tensile test methods: the “homogenous deformation method” and the “boundary driven deformation method”. We find that the two methods lead to similar results at low strain rate. The change of the entanglement network in polymer sample undergoing a tensile deformation was investigated. We have found that the sample exhibits an increase of its entanglement length in uniaxial deformation test compared to triaxial deformation one. Our finding was interpreted by the pronounced chain disentanglement observed in the uniaxial deformation test due to the lateral relaxation of the sample. The cavity nucleation in amorphous polymers has been also studied. We have found that the cavities nucleate preferentially in zones that exhibit a low elastic bulk modulus. These zones can be identified from the initial undeformed state of the sample at low temperature (T~0K). The second part of the work focused in the simulation of the mechanical response of block copolymers. The influence of chain architecture on the mechanical properties was investigated: our finding reveals an important role of the bridging molecules (cilia chains and knotted loop chains) on the stress transmission between phases at high strain. The initiation of plasticity in copolymer samples was also studied. The role of the buckling has been found to be determinant in the mechanical response of the sample The dependence of the buckling instability with the sample size and the deformation rate was investigated. We have found that the fundamental (first) mode of buckling develops at relatively low strain rate whereas at high strain rate the buckling of the sample occurs with the second or higher mode of buckling. A new model that takes into account the buckling kinetic was developed to describe this competition between the buckling modes
APA, Harvard, Vancouver, ISO, and other styles
5

Moretti, Isabelle. "Modélisation de l'extension intracontinentale : exemple du Golfe de Suez." Paris 11, 1987. http://www.theses.fr/1987PA112056.

Full text
Abstract:
Un fait marquant dans la structure des rifts et des bassins est la différence entre l'extension en surface, qui reste faible, l'amincissement crustal et l'amincissement lithosphérique (2 ou 3 fois plus important). Par ailleurs, la surrection des épaules est un phénomène tardif que le classique modèle d'étirement n'explique pas. Une perturbation thermique peut amincir rapidement la lithosphère, les mouvements crustaux qu'elle induit dépendent de la tectonique régionale. Si elle est extensive, le bassin est large et les épaules d'altitude moyenne. Sinon le graben est étroit et les épaules élevées, c'est le cas du rift Africain. Celui de suez a connu les deux stades, dans un premier temps, il a été couplé aux mouvements de la mer Rouge, mais actuellement l'ouverture du golfe d'Aqaba bloque celle de Suez. En surface cela se traduit par un fort rétrécissement de la largeur du Golfe. Un modèle combinant la propagation d'une anomalie thermique avec des variations de contraintes en surface permet de quantifier ce rétrécissement et la remontée actuelle des épaules. Une étude cinématique de la rotation des blocs permet de situer à 10 km la limite ductile/cassant dans la croute, l'hypothèse d'une ouverture dissymétrique le long de failles plates affectant le Moho parait irréaliste pour le golfe de Suez.
APA, Harvard, Vancouver, ISO, and other styles
6

Afdideh, Fardin. "Block-sparse models in multi-modality : application to the inverse model in EEG/MEG." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT074/document.

Full text
Abstract:
De nombreux phénomènes naturels sont trop complexes pour être pleinement reconnus par un seul instrument de mesure ou par une seule modalité. Par conséquent, le domaine de recherche de la multi-modalité a émergé pour mieux identifier les caractéristiques riches du phénomène naturel de la multi-propriété naturelle, en analysant conjointement les données collectées à partir d’uniques modalités, qui sont en quelque sorte complémentaires. Dans notre étude, le phénomène d’intérêt multi-propriétés est l’activité du cerveau humain et nous nous intéressons à mieux la localiser au moyen de ses propriétés électromagnétiques, mesurables de manière non invasive. En neurophysiologie, l’électroencéphalographie (EEG) et la magnétoencéphalographie (MEG) constituent un moyen courant de mesurer les propriétés électriques et magnétiques de l’activité cérébrale. Notre application dans le monde réel, à savoir le problème de reconstruction de source EEG / MEG, est un problème fondamental en neurosciences, allant des sciences cognitives à la neuropathologie en passant par la planification chirurgicale. Considérant que le problème de reconstruction de source EEG /MEG peut être reformulé en un système d’équations linéaires sous-déterminé, la solution (l’activité estimée de la source cérébrale) doit être suffisamment parcimonieuse pour pouvoir être récupérée de manière unique. La quantité de parcimonie est déterminée par les conditions dites de récupération. Cependant, dans les problèmes de grande dimension, les conditions de récupération conventionnelles sont extrêmement strictes. En regroupant les colonnes cohérentes d’un dictionnaire, on pourrait obtenir une structure plus incohérente. Cette stratégie a été proposée en tant que cadre d’identification de structure de bloc, ce qui aboutit à la segmentation automatique de l’espace source du cerveau, sans utiliser aucune information sur l’activité des sources du cerveau et les signaux EEG / MEG. En dépit du dictionnaire structuré en blocs moins cohérent qui en a résulté, la condition de récupération conventionnelle n’est plus en mesure de calculer la caractérisation de la cohérence. Afin de relever le défi mentionné, le cadre général des conditions de récupération exactes par bloc-parcimonie, comprenant trois conditions théoriques et une condition dépendante de l’algorithme, a été proposé. Enfin, nous avons étudié la multi-modalité EEG et MEG et montré qu’en combinant les deux modalités, des régions cérébrales plus raffinées sont apparues
Three main challenges have been addressed in this thesis, in three chapters.First challenge is about the ineffectiveness of some classic methods in high-dimensional problems. This challenge is partially addressed through the idea of clustering the coherent parts of a dictionary based on the proposed characterisation, in order to create more incoherent atomic entities in the dictionary, which is proposed as a block structure identification framework. The more incoherent atomic entities, the more improvement in the exact recovery conditions. In addition, we applied the mentioned clustering idea to real-world EEG/MEG leadfields to segment the brain source space, without using any information about the brain sources activity and EEG/MEG signals. Second challenge raises when classic recovery conditions cannot be established for the new concept of constraint, i.e., block-sparsity. Therefore, as the second research orientation, we developed a general framework for block-sparse exact recovery conditions, i.e., four theoretical and one algorithmic-dependent conditions, which ensure the uniqueness of the block-sparse solution of corresponding weighted mixed-norm optimisation problem in an underdetermined system of linear equations. The mentioned generality of the framework is in terms of the properties of the underdetermined system of linear equations, extracted dictionary characterisations, optimisation problems, and ultimately the recovery conditions. Finally, the combination of different information of a same phenomenon is the subject of the third challenge, which is addressed in the last part of dissertation with application to brain source space segmentation. More precisely, we showed that by combining the EEG and MEG leadfields and gaining the electromagnetic properties of the head, more refined brain regions appeared
APA, Harvard, Vancouver, ISO, and other styles
7

Laclau, Charlotte. "Hard and fuzzy block clustering algorithms for high dimensional data." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB014.

Full text
Abstract:
Notre capacité grandissante à collecter et stocker des données a fait de l'apprentissage non supervisé un outil indispensable qui permet la découverte de structures et de modèles sous-jacents aux données, sans avoir à \étiqueter les individus manuellement. Parmi les différentes approches proposées pour aborder ce type de problème, le clustering est très certainement le plus répandu. Le clustering suppose que chaque groupe, également appelé cluster, est distribué autour d'un centre défini en fonction des valeurs qu'il prend pour l'ensemble des variables. Cependant, dans certaines applications du monde réel, et notamment dans le cas de données de dimension importante, cette hypothèse peut être invalidée. Aussi, les algorithmes de co-clustering ont-ils été proposés: ils décrivent les groupes d'individus par un ou plusieurs sous-ensembles de variables au regard de leur pertinence. La structure des données finalement obtenue est composée de blocs communément appelés co-clusters. Dans les deux premiers chapitres de cette thèse, nous présentons deux approches de co-clustering permettant de différencier les variables pertinentes du bruit en fonction de leur capacité \`a révéler la structure latente des données, dans un cadre probabiliste d'une part et basée sur la notion de métrique, d'autre part. L'approche probabiliste utilise le principe des modèles de mélanges, et suppose que les variables non pertinentes sont distribuées selon une loi de probabilité dont les paramètres sont indépendants de la partition des données en cluster. L'approche métrique est fondée sur l'utilisation d'une distance adaptative permettant d'affecter à chaque variable un poids définissant sa contribution au co-clustering. D'un point de vue théorique, nous démontrons la convergence des algorithmes proposés en nous appuyant sur le théorème de convergence de Zangwill. Dans les deux chapitres suivants, nous considérons un cas particulier de structure en co-clustering, qui suppose que chaque sous-ensemble d'individus et décrit par un unique sous-ensemble de variables. La réorganisation de la matrice originale selon les partitions obtenues sous cette hypothèse révèle alors une structure de blocks homogènes diagonaux. Comme pour les deux contributions précédentes, nous nous plaçons dans le cadre probabiliste et métrique. L'idée principale des méthodes proposées est d'imposer deux types de contraintes : (1) nous fixons le même nombre de cluster pour les individus et les variables; (2) nous cherchons une structure de la matrice de données d'origine qui possède les valeurs maximales sur sa diagonale (par exemple pour le cas des données binaires, on cherche des blocs diagonaux majoritairement composés de valeurs 1, et de 0 à l’extérieur de la diagonale). Les approches proposées bénéficient des garanties de convergence issues des résultats des chapitres précédents. Enfin, pour chaque chapitre, nous dérivons des algorithmes permettant d'obtenir des partitions dures et floues. Nous évaluons nos contributions sur un large éventail de données simulées et liées a des applications réelles telles que le text mining, dont les données peuvent être binaires ou continues. Ces expérimentations nous permettent également de mettre en avant les avantages et les inconvénients des différentes approches proposées. Pour conclure, nous pensons que cette thèse couvre explicitement une grande majorité des scénarios possibles découlant du co-clustering flou et dur, et peut être vu comme une généralisation de certaines approches de biclustering populaires
With the increasing number of data available, unsupervised learning has become an important tool used to discover underlying patterns without the need to label instances manually. Among different approaches proposed to tackle this problem, clustering is arguably the most popular one. Clustering is usually based on the assumption that each group, also called cluster, is distributed around a center defined in terms of all features while in some real-world applications dealing with high-dimensional data, this assumption may be false. To this end, co-clustering algorithms were proposed to describe clusters by subsets of features that are the most relevant to them. The obtained latent structure of data is composed of blocks usually called co-clusters. In first two chapters, we describe two co-clustering methods that proceed by differentiating the relevance of features calculated with respect to their capability of revealing the latent structure of the data in both probabilistic and distance-based framework. The probabilistic approach uses the mixture model framework where the irrelevant features are assumed to have a different probability distribution that is independent of the co-clustering structure. On the other hand, the distance-based (also called metric-based) approach relied on the adaptive metric where each variable is assigned with its weight that defines its contribution in the resulting co-clustering. From the theoretical point of view, we show the global convergence of the proposed algorithms using Zangwill convergence theorem. In the last two chapters, we consider a special case of co-clustering where contrary to the original setting, each subset of instances is described by a unique subset of features resulting in a diagonal structure of the initial data matrix. Same as for the two first contributions, we consider both probabilistic and metric-based approaches. The main idea of the proposed contributions is to impose two different kinds of constraints: (1) we fix the number of row clusters to the number of column clusters; (2) we seek a structure of the original data matrix that has the maximum values on its diagonal (for instance for binary data, we look for diagonal blocks composed of ones with zeros outside the main diagonal). The proposed approaches enjoy the convergence guarantees derived from the results of the previous chapters. Finally, we present both hard and fuzzy versions of the proposed algorithms. We evaluate our contributions on a wide variety of synthetic and real-world benchmark binary and continuous data sets related to text mining applications and analyze advantages and inconvenients of each approach. To conclude, we believe that this thesis covers explicitly a vast majority of possible scenarios arising in hard and fuzzy co-clustering and can be seen as a generalization of some popular biclustering approaches
APA, Harvard, Vancouver, ISO, and other styles
8

Mohamed, Ahmed Abdeldayem. "Behavior, strength and flexural stiffness of circular concrete columns reinforced with FRP bars and spirals/hoops under eccentric loading." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11406.

Full text
Abstract:
Abstract : Deterioration of concrete structures reinforced with steel bars can be seen daily in regions with aggressive weather as steel-corrosion problems worsen. Fiber-reinforced-polymers (FRP) reinforcement has proven its feasibility through different civil structural elements. Present guidelines for FRP structures in North-America and Europe have not yet handled axially loaded members, due to the lack of research and experiments. This research takes charge of providing experimental database as well as extensive analyses and design recommendations of circular concrete columns reinforced totally with different FRP bars and spirals/hoops (FRP-RC columns). Full-scale columns were tested under monotonic loading with different levels of eccentricity. Test variables included the eccentricity-to-diameter ratio (e/D); reinforcement type (GFRP and CFRP vs. steel); concrete strength; longitudinal and transverse reinforcement ratio; and confinement configuration. All specimens measured 305 mm diameter and 1500 mm height. Test results indicated that specimens reinforced with glass-FRP (GFRP) or carbon-FRP (CFRP) reached their peak strengths with no damages to GFRP or CFRP rebar on either side of specimens. Specimens with CFRP reinforcement (CFRP-RC) behaved very similarly to their steel counterparts, and achieved almost the same nominal axial forces. Specimens with GFRP reinforcement (GFRP-RC) exhibited, however, reduced stiffness and achieved lower nominal axial forces than their steel or CFRP counterparts. Failure of GFRP-RC and CFRP-RC specimens was dominated by concrete crushing at low levels of eccentricity (e/D ratios of 8.2% and 16.4%). Experimental strain results revealed that GFRP bars developed high levels of strains and stresses on the compression and tension sides and hence the GFRP-RC specimens could sustain constant axial load after peak for some time up to the limit of concrete crushing at higher levels of eccentricity (e/D ratios of 8.2% and 16.4%), which help to delay the full damage. At these levels, flexural–tension failure initiated in the GFRP-RC specimens resulting from large axial and lateral deformations and cracks on the tension side until secondary compression failure occurred due to strain limitations in concrete and degradation of the concrete compressive block. The failure of CFRP-RC specimens at higher levels of eccentricity (e/D ratios of 8.2% and 16.4%) was characterized as flexural–compression in which it took place in a less brittle manner. On the other hand, this research also included different studies to analyze the test results, evaluate rebar efficiency, and provide recommendations for analysis and design. It was, therefore, indicated that the axial and flexural capacities of the tested FRP-RC specimens could be reasonably predicted using plane sectional analysis, utilizing the equivalent rectangular stress block (ERSB) parameters given by the ACI 440.1R-15 or CSA S806-12. All predictions underestimated the actual strength with variable levels of conservatism ranged between 1.05 to 1.25 for the GFRP-RC specimens and between 1.20 to 1.40 for the CFRP-RC specimens. These levels were noticeably reduced to critical limits in specimens with high-strength concretes. An elaborate review was made to the available ERSB parameters in the present steel and FRP design standards and guidelines. Modified expressions of the ERSB given in ACI 440.1R-15 and CSA S806-12 were developed. The results indicated good correlation of predicted and measured strength values with enhanced levels of conservatism. Additionally, sets of axial force–bending moment (P-M) interaction diagrams and indicative bar charts are introduced, and recommendations drawn. The compressive-strength contribution of FRP reinforcement was thoroughly reviewed and discussed. The minimum GFRP and CFRP reinforcement ratios to avoid rebar rupturing were broadly examined. Finally, the flexure stiffness (EI) of the tested specimens was analytically determined and compared with the available expressions using experimental and analytical M-ψ responses. Proposed equations are developed and validated against the experimental results to represent the stiffness of GFRP-RC and CFRP-RC columns at service and ultimate levels.
La détérioration des structures en béton armé avec des barres d’armature d’acier peut être observée quotidiennement dans les régions à climat agressif. Le renforcement interne en polymères renforcés de fibres (PRF) a démontré sa faisabilité grâce à différents éléments structuraux en génie civil. Les lignes directrices actuelles pour les structures en béton armé de PRF en Amérique du Nord et en Europe n'ont pas encore gérées les sections soumises à des efforts axiaux excentrique, en raison du manque de recherches et d'expériences. Cette recherche permet d’augmenter la base de données expérimentales ainsi établir des analyses approfondies et des recommandations de conception pour les colonnes circulaires en béton armé complètement renforcées de PRF (barres et spirales). Des grandeur-nature colonnes ont été testées sous charge monotone avec différents niveaux d'excentricité. Les variables de test comprenaient le rapport excentricité / diamètre (e/D) ; le type de renfort (PRFV et PRFC comparativement à l’acier); la résistance du béton en compression; le taux d’armature longitudinal et transversal; et la configuration de l’armature de confinement. Tous les échantillons mesuraient 305 mm de diamètre et 1500 mm de hauteur. Les résultats des tests ont indiqué que les spécimens renforcés avec des PRF de verre ou des PRF de carbone atteignaient leur résistance maximale sans endommager les barres d’armature. Des deux types de renforcement, les spécimens de PRFCCFRP se comportaient de manière très similaire à leurs homologues en acier et atteignaient presque les mêmes résistances axiales. Cependant, les spécimens avec renforcement en PRFV ont présenté une rigidité réduite et des forces axiales nominales inférieures à celles de leurs homologues en acier ou en PRFC. Le mode de rupture des spécimens de PRFC et de PRFV a été dominé par l’écrasement du béton à de faibles niveaux d'excentricité (rapports e/D de 8,2% et 16,4%). Les résultats ont révélé que les barres de PRFV ont développé des niveaux élevés de déformations et de contraintes sur les faces en compression et en tension et, par conséquent, les spécimens de PRFVC pourraient supporter une charge axiale constante après la résistance ultime pendant un certain temps jusqu'à la limite de la rupture en compression du béton du noyau à des niveaux supérieurs d'excentricité (rapport e/D de 8,2% et 16,4%), ce qui contribue à retarder la dégradation. À ces niveaux, une rupture en tension a été initiée dans les spécimens de PRFV résultant à de grandes déformations axiales et latérales et des fissures du côté de la face en tension jusqu'à ce que la rupture en compression du béton. La rupture des spécimens de PRFC à des niveaux supérieurs d'excentricité (rapport e/D de 8,2% et 16,4%) a été caractérisé comme étant en compression du béton dans laquelle il s'est déroulé de manière moins fragile. D'autre part, cette recherche comprenait également différentes études pour analyser les résultats des tests, évaluer l'efficacité des barres d'armature et fournir des recommandations pour l'analyse et la conception. Il a donc été indiqué que les capacités axiales et de flexion des spécimens en PRF testées pourraient être raisonnablement prédites en utilisant une analyse en section plane, en utilisant les paramètres du bloc de contrainte rectangulaire équivalent (BCRE) donnés par l'ACI 440.1R-15 ou la CSA S806- 12. Toutes les prédictions ont sous-estimé la résistance réelle avec des niveaux de variabilité conservateur entre 1,05 et 1,25 pour les spécimens de PRFC et entre 1,20 et 1,40 pour les spécimens de PRFC. Ces niveaux ont été nettement réduits à des limites critiques dans les spécimens avec des bétons à haute résistance. Un examen approfondi a été effectué sur les paramètres du BCRE disponibles dans les normes et les directives de conception actuelles en acier et en PRF. Les expressions modifiées du BCRE fournies dans ACI 440.1R-15 et CSA S806-12 ont été développées. Les résultats indiquent une bonne corrélation entre les valeurs de résistance prédites et mesurées avec des niveaux accrus de conservatisme. La contribution de la résistance à la compression du renforcement en PRF a été soigneusement examinée et discutée. Le taux d’armature minimum de PRFV et de PRFC pour éviter la rupture de l'armature ont été largement examinés. Enfin, la rigidité en flexion (EI) des spécimens testés a été déterminée de manière analytique et comparée aux expressions disponibles dans la littérature en utilisant les réponses expérimentales et analytiques M-ψ. Les expressions modifiées de la rigidité en flexion EI apportées dans l’ACI 440.1R ont été développées et validées.
APA, Harvard, Vancouver, ISO, and other styles
9

Brault, Vincent. "Estimation et sélection de modèle pour le modèle des blocs latents." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112238/document.

Full text
Abstract:
Le but de la classification est de partager des ensembles de données en sous-ensembles les plus homogènes possibles, c'est-à-dire que les membres d'une classe doivent plus se ressembler entre eux qu'aux membres des autres classes. Le problème se complique lorsque le statisticien souhaite définir des groupes à la fois sur les individus et sur les variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix de ces classes. Toutefois, il est impossible de factoriser la loi jointe des labels empêchant le calcul de la logvraisemblance et l'utilisation de l'algorithme EM. Plusieurs méthodes et critères existent pour retrouver ces partitions, certains fréquentistes, d'autres bayésiens, certains stochastiques, d'autres non. Dans cette thèse, nous avons d'abord proposé des conditions suffisantes pour obtenir l'identifiabilité. Dans un second temps, nous avons étudié deux algorithmes proposés pour contourner le problème de l'algorithme EM : VEM de Govaert et Nadif (2008) et SEM-Gibbs de Keribin, Celeux et Govaert (2010). En particulier, nous avons analysé la combinaison des deux et mis en évidence des raisons pour lesquelles les algorithmes dégénèrent (terme utilisé pour dire qu'ils renvoient des classes vides). En choisissant des lois a priori judicieuses, nous avons ensuite proposé une adaptation bayésienne permettant de limiter ce phénomène. Nous avons notamment utilisé un échantillonneur de Gibbs dont nous proposons un critère d'arrêt basé sur la statistique de Brooks-Gelman (1998). Nous avons également proposé une adaptation de l'algorithme Largest Gaps (Channarond et al. (2012)). En reprenant leurs démonstrations, nous avons démontré que les estimateurs des labels et des paramètres obtenus sont consistants lorsque le nombre de lignes et de colonnes tendent vers l'infini. De plus, nous avons proposé une méthode pour sélectionner le nombre de classes en ligne et en colonne dont l'estimation est également consistante à condition que le nombre de ligne et de colonne soit très grand. Pour estimer le nombre de classes, nous avons étudié le critère ICL (Integrated Completed Likelihood) dont nous avons proposé une forme exacte. Après avoir étudié l'approximation asymptotique, nous avons proposé un critère BIC (Bayesian Information Criterion) puis nous conjecturons que les deux critères sélectionnent les mêmes résultats et que ces estimations seraient consistantes ; conjecture appuyée par des résultats théoriques et empiriques. Enfin, nous avons comparé les différentes combinaisons et proposé une méthodologie pour faire une analyse croisée de données
Classification aims at sharing data sets in homogeneous subsets; the observations in a class are more similar than the observations of other classes. The problem is compounded when the statistician wants to obtain a cross classification on the individuals and the variables. The latent block model uses a law for each crossing object class and class variables, and observations are assumed to be independent conditionally on the choice of these classes. However, factorizing the joint distribution of the labels is impossible, obstructing the calculation of the log-likelihood and the using of the EM algorithm. Several methods and criteria exist to find these partitions, some frequentist ones, some bayesian ones, some stochastic ones... In this thesis, we first proposed sufficient conditions to obtain the identifiability of the model. In a second step, we studied two proposed algorithms to counteract the problem of the EM algorithm: the VEM algorithm (Govaert and Nadif (2008)) and the SEM-Gibbs algorithm (Keribin, Celeux and Govaert (2010)). In particular, we analyzed the combination of both and highlighted why the algorithms degenerate (term used to say that it returns empty classes). By choosing priors wise, we then proposed a Bayesian adaptation to limit this phenomenon. In particular, we used a Gibbs sampler and we proposed a stopping criterion based on the statistics of Brooks-Gelman (1998). We also proposed an adaptation of the Largest Gaps algorithm (Channarond et al. (2012)). By taking their demonstrations, we have shown that the labels and parameters estimators obtained are consistent when the number of rows and columns tend to infinity. Furthermore, we proposed a method to select the number of classes in row and column, the estimation provided is also consistent when the number of row and column is very large. To estimate the number of classes, we studied the ICL criterion (Integrated Completed Likelihood) whose we proposed an exact shape. After studying the asymptotic approximation, we proposed a BIC criterion (Bayesian Information Criterion) and we conjecture that the two criteria select the same results and these estimates are consistent; conjecture supported by theoretical and empirical results. Finally, we compared the different combinations and proposed a methodology for co-clustering
APA, Harvard, Vancouver, ISO, and other styles
10

Zheng, Wenjie. "A distributed Frank-Wolfe framework for trace norm minimization via the bulk synchronous parallel model." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS049/document.

Full text
Abstract:
L'apprentissage des matrices de rang faible est un problème de grande importance dans les statistiques, l'apprentissage automatique, la vision par ordinateur et les systèmes de recommandation. En raison de sa nature NP-difficile, une des approches principales consiste à résoudre sa relaxation convexe la plus étroite : la minimisation de la norme de trace. Parmi les différents algorithmes capables de résoudre cette optimisation, on peut citer la méthode de Frank-Wolfe, particulièrement adaptée aux matrices de grande dimension. En préparation à l'utilisation d'infrastructures distribuées pour accélérer le calcul, cette étude vise à explorer la possibilité d'exécuter l'algorithme de Frank-Wolfe dans un réseau en étoile avec le modèle BSP (Bulk Synchronous Parallel) et à étudier son efficacité théorique et empirique. Concernant l'aspect théorique, cette étude revisite le taux de convergence déterministe de Frank-Wolfe et l'étend à des cas non déterministes. En particulier, il montre qu'avec le sous-problème linéaire résolu de manière appropriée, Frank-Wolfe peut atteindre un taux de convergence sous-linéaire à la fois en espérance et avec une probabilité élevée. Cette contribution pose la fondation théorique de l'utilisation de la méthode de la puissance itérée ou de l'algorithme de Lanczos pour résoudre le sous-problème linéaire de Frank-Wolfe associé à la minimisation de la norme de trace. Concernant l'aspect algorithmique, dans le cadre de BSP, cette étude propose et analyse quatre stratégies pour le sous-problème linéaire ainsi que des méthodes pour la recherche linéaire. En outre, remarquant la propriété de mise à jour de rang-1 de Frank-Wolfe, il met à jour le gradient de manière récursive, avec une représentation dense ou de rang faible, au lieu de le recalculer de manière répétée à partir de zéro. Toutes ces conceptions sont génériques et s'appliquent à toutes les infrastructures distribuées compatibles avec le modèle BSP. Concernant l'aspect empirique, cette étude teste les conceptions algorithmiques proposées dans un cluster Apache SPARK. Selon les résultats des expériences, pour le sous-problème linéaire, la centralisation des gradients ou la moyenne des vecteurs singuliers est suffisante dans le cas de faible dimension, alors que la méthode de la puissance itérée distribuée, avec aussi peu qu'une ou deux itérations par époque, excelle dans le cas de grande dimension. La librairie Python développée pour les expériences est modulaire, extensible et prête à être déployée dans un contexte industriel. Cette étude a rempli sa fonction de preuve de concept. Suivant le chemin qu'il met en place, des solveurs peuvent être implémentés pour différentes infrastructures, parmi lesquelles des clusters GPU, pour résoudre des problèmes pratiques dans des contextes spécifiques. En outre, ses excellentes performances dans le jeu de données ImageNet le rendent prometteur pour l'apprentissage en profondeur
Learning low-rank matrices is a problem of great importance in statistics, machine learning, computer vision, recommender systems, etc. Because of its NP-hard nature, a principled approach is to solve its tightest convex relaxation : trace norm minimization. Among various algorithms capable of solving this optimization is the Frank-Wolfe method, which is particularly suitable for high-dimensional matrices. In preparation for the usage of distributed infrastructures to further accelerate the computation, this study aims at exploring the possibility of executing the Frank-Wolfe algorithm in a star network with the Bulk Synchronous Parallel (BSP) model and investigating its efficiency both theoretically and empirically. In the theoretical aspect, this study revisits Frank-Wolfe's fundamental deterministic sublinear convergence rate and extends it to nondeterministic cases. In particular, it shows that with the linear subproblem appropriately solved, Frank-Wolfe can achieve a sublinear convergence rate both in expectation and with high probability. This contribution lays the theoretical foundation of using power iteration or Lanczos iteration to solve the linear subproblem for trace norm minimization. In the algorithmic aspect, within the BSP model, this study proposes and analyzes four strategies for the linear subproblem as well as methods for the line search. Moreover, noticing Frank-Wolfe's rank-1 update property, it updates the gradient recursively, with either a dense or a low-rank representation, instead of repeatedly recalculating it from scratch. All of these designs are generic and apply to any distributed infrastructures compatible with the BSP model. In the empirical aspect, this study tests the proposed algorithmic designs in an Apache SPARK cluster. According to the experiment results, for the linear subproblem, centralizing the gradient or averaging the singular vectors is sufficient in the low-dimensional case, whereas distributed power iteration, with as few as one or two iterations per epoch, excels in the high-dimensional case. The Python package developed for the experiments is modular, extensible and ready to deploy in an industrial context. This study has achieved its function as proof of concept. Following the path it sets up, solvers can be implemented for various infrastructures, among which GPU clusters, to solve practical problems in specific contexts. Besides, its excellent performance in the ImageNet dataset makes it promising for deep learning
APA, Harvard, Vancouver, ISO, and other styles
11

Rodrigues, Laura. "Nanoparticules polymères ciblant le récepteur CXCR3 : élaboration et évaluation sur modèles de tumeur." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0104/document.

Full text
Abstract:
La thèse présentée porte sur l’élaboration de nanoparticules polymères fonctionnalisées par le ligand SCH546738 afin de cibler le récepteur CXCR3 surexprimé sur les cellules cancéreuses. La synthèse des copolymères à blocs Poly(triméthylène carbonate)-b-Poly(éthylène glycol) (PTMCb- PEG) et PTMC-b-PEG-SCH546738, puis leurs auto-assemblages dans l’eau avec des pourcentages différents de l’un par rapport à l’autre et enfin l’activité biologique de ces nanoparticules in vitro ont été réalisés. Une série de PTMC-b-PEG de fraction hydrophile massique f différentes (entre 34 et 6%) ont été obtenus par polymérisation par ouverture de cycle (ROP) du monomère triméthylène carbonate (TMC) amorcée par un PEG (MW= 2000 g/mol). Les études d’auto-assemblage ont montré que la fraction hydrophile était liée à la morphologie des objets obtenus (micelles et vésicules) et que la taille et la morphologie pouvaient être modulées en fonction du protocole utilisé. Des PTMC-b-PEG-SCH546738 ont été obtenus par couplage convergent entre le PEG-SCH546738 et le bloc PTMC. Le co auto-assemblage entre les copolymères fonctionnalisés et non fonctionnalisés a été réalisé par nanoprécipitation contrôlée par un système de microfluidique qui permet d’obtenir des polymersomes monodisperses de tailles contrôlées. Le pourcentage molaire de SCH546738 en surface des polymersomes a été fixé à 5, 10 et 20 % et à l’aide d’une nanoparticule contrôle ces échantillons ont pu être testés in vitro sur cellules HEK 293 et U87 surexprimant le CXCR3-A. L’influence du ligand et son pourcentage sur l’internalisation des nanoparticules à différents temps et sur le blocage des voies de signalisation des cellules cancéreuses ont été observés
This thesis deals with the elaboration of polymeric nanoparticles functionalized by the ligand SCH546738 to target the CXCR3 receptor overexpressed in human healthy or tumoral cells. Poly(trimethylene carbonate-b-Poly(ethylene glycol) (PTMC-b-PEG) blocks copolymers and PTMC-b-PEG-SCH546738 synthesis, then their self-assembly with different ratios in water, and finally biological activity in vitro of these different nanoparticles were studied. A serie of PTMC-b-PEG with different hydrophilic mass fractions f (between 34 and 6%) were obtained by ring opening polymerization (ROP) of trimethylene carbonate (TMC) initiated by a block PEG (MW: 2000 g/mol). Self-assembly studies showed that the hydrophilic mass fraction was related to the morphology of the nano objects (micelles and vesicles) and that size and morphology of nano objects can be changed by the self-assembly protocol. PTMC-b-PEG-SCH546738 were obtained by the convergent coupling between PEG-SCH546738 and PTMC block. The co self-assembly of functionalized and not functionalized copolymers was done by nanoprecipitation controlled by a microfluidic system that allows monodisperse polymersomes with controlled size to be produced. The molar percentage of SCH546738 at the surface of polymersomes was fixed at 5, 10 and 20 %, and with the control nanoparticle, these samples were tested in vitro on HEK 293 and U87 cells overexpressing the CXCR3-A. The influence of the ligand and its percentage on nanoparticles internalization and signaling pathways blocking on cells were analyzed
APA, Harvard, Vancouver, ISO, and other styles
12

ARENAS, SANGUINETI CLAUDIO. "Specification et estimation du bloc financier d'un modele macroeconomique trimestriel." Paris 1, 1986. http://www.theses.fr/1986PA010066.

Full text
Abstract:
Dans le cadre de la construction d'un modele trimestriel d'inspiration neokeynesienne a deux produits et deux branches, pour la france, ce travail a trait aux interactions des variables financieres dans l'ensemble du modele et entre elles. Le bloc financier comporte six agents : banques, autorites de tutelle, tresor, entreprises, menages et reste du monde, qui negocient dans des marches, les huit actifs financiers : reserves officielles de change, liquidites, credit, concours au tresor, titres, reserves obligatoires, reserves techniques d'assurance. Ces marches et ces agents sont relies par quarante-cinq equations, reproduisant le cadre comptable associe, donne par le tableau des operations financieres. En outre, des variables de taux d'interet sont reliees aux fluctuations des variables financieres par d'equations de comportement des agents. Ce modele propose l'incorporation de plusieurs effets des variables des blocs reels, comme l'anticipation des prix ou les taux d'accumulation de capital, dans la determination des variables financieres, comme les encaisses monetaires et les en cours de credit. Ce modele n'incorpore pas la modelisation de la fixation du taux de change, qui reste exogene. Les performances du modele sont comparees a d'autres modeles utilises sur des simulations retrospectives. Des variantes et des perturbations sont analysees.
APA, Harvard, Vancouver, ISO, and other styles
13

Turmel, Dominique. "Analyse des chutes de bloc dans le domaine subaquatique." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25529/25529.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Tabouy, Timothée. "Impact de l’échantillonnage sur l’inférence de structures dans les réseaux : application aux réseaux d’échanges de graines et à l’écologie." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS289/document.

Full text
Abstract:
Dans cette thèse nous nous intéressons à l’étude du modèle à bloc stochastique (SBM) en présence de données manquantes. Nous proposons une classification des données manquantes en deux catégories Missing At Random et Not Missing At Random pour les modèles à variables latentes suivant le modèle décrit par D. Rubin. De plus, nous nous sommes attachés à décrire plusieurs stratégies d’échantillonnages de réseau et leurs lois. L’inférence des modèles de SBM avec données manquantes est faite par l’intermédiaire d’une adaptation de l’algorithme EM : l’EM avec approximation variationnelle. L’identifiabilité de plusieurs des SBM avec données manquantes a pu être démontrée ainsi que la consistance et la normalité asymptotique des estimateurs du maximum de vraisemblance et des estimateurs avec approximation variationnelle dans le cas où chaque dyade (paire de nœuds) est échantillonnée indépendamment et avec même probabilité. Nous nous sommes aussi intéressés aux modèles de SBM avec covariables, à leurs inférence en présence de données manquantes et comment procéder quand les covariables ne sont pas disponibles pour conduire l’inférence. Finalement, toutes nos méthodes ont été implémenté dans un package R disponible sur le CRAN. Une documentation complète sur l’utilisation de ce package a été écrite en complément
In this thesis we are interested in studying the stochastic block model (SBM) in the presence of missing data. We propose a classification of missing data into two categories Missing At Random and Not Missing At Random for latent variable models according to the model described by D. Rubin. In addition, we have focused on describing several network sampling strategies and their distributions. The inference of SBMs with missing data is made through an adaptation of the EM algorithm : the EM with variational approximation. The identifiability of several of the SBM models with missing data has been demonstrated as well as the consistency and asymptotic normality of the maximum likelihood estimators and variational approximation estimators in the case where each dyad (pair of nodes) is sampled independently and with equal probability. We also looked at SBMs with covariates, their inference in the presence of missing data and how to proceed when covariates are not available to conduct the inference. Finally, all our methods were implemented in an R package available on the CRAN. A complete documentation on the use of this package has been written in addition
APA, Harvard, Vancouver, ISO, and other styles
15

Wang, Xiaopei. "Multi-Way Block Models." University of Cincinnati / OhioLINK, 2012. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1342716695.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Tami, Myriam. "Approche EM pour modèles multi-blocs à facteurs à une équation structurelle." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT303/document.

Full text
Abstract:
Les modèles d'équations structurelles à variables latentes permettent de modéliser des relations entre des variables observables et non observables. Les deux paradigmes actuels d'estimation de ces modèles sont les méthodes de moindres carrés partiels sur composantes et l'analyse de la structure de covariance. Dans ce travail, après avoir décrit les deux principales méthodes d'estimation que sont PLS et LISREL, nous proposons une approche d'estimation fondée sur la maximisation par algorithme EM de la vraisemblance globale d'un modèle à facteurs latents et à une équation structurelle. Nous en étudions les performances sur des données simulées et nous montrons, via une application sur des données réelles environnementales, comment construire pratiquement un modèle et en évaluer la qualité. Enfin, nous appliquons l'approche développée dans le contexte d'un essai clinique en cancérologie pour l'étude de données longitudinales de qualité de vie. Nous montrons que par la réduction efficace de la dimension des données, l'approche EM simplifie l'analyse longitudinale de la qualité de vie en évitant les tests multiples. Ainsi, elle contribue à faciliter l'évaluation du bénéfice clinique d'un traitement
Structural equation models enable the modeling of interactions between observed variables and latent ones. The two leading estimation methods are partial least squares on components and covariance-structure analysis. In this work, we first describe the PLS and LISREL methods and, then, we propose an estimation method using the EM algorithm in order to maximize the likelihood of a structural equation model with latent factors. Through a simulation study, we investigate how fast and accurate the method is, and thanks to an application to real environmental data, we show how one can handly construct a model or evaluate its quality. Finally, in the context of oncology, we apply the EM approach on health-related quality-of-life data. We show that it simplifies the longitudinal analysis of quality-of-life and helps evaluating the clinical benefit of a treatment
APA, Harvard, Vancouver, ISO, and other styles
17

Kabajulizi, Julian. "The cost of bypassing MFN obligations through GSP schemes: EU-India GSP case and its implications for developing countries." Thesis, University of the Western Cape, 2005. http://etd.uwc.ac.za/index.php?module=etd&amp.

Full text
Abstract:
The principal objective of this research was a critical examination of the Generalised System of Preference schemes as a form of special and differential treatment under the Enabling Clause with specific reference to the complaint brought against the European Union (EU) by India regarding the EU's granting of tariff preferences to developing countries with illegal drug trafficking problem.
APA, Harvard, Vancouver, ISO, and other styles
18

Mekkaoui, Imen. "Analyse numérique des équations de Bloch-Torrey." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI120/document.

Full text
Abstract:
L’imagerie par résonance magnétique de diffusion (IRMd) est une technique non-invasive permettant d’accéder à l'information structurelle des tissus biologiques à travers l’étude du mouvement de diffusion des molécules d’eau dans les tissus. Ses applications sont nombreuses en neurologie pour le diagnostic de certaines anomalies cérébrales. Cependant, en raison du mouvement cardiaque, l’utilisation de cette technique pour accéder à l’architecture du cœur in vivo représente un grand défi. Le mouvement cardiaque a été identifié comme une des sources majeures de perte du signal mesuré en IRM de diffusion. A cause de la sensibilité au mouvement, il est difficile d’évaluer dans quelle mesure les caractéristiques de diffusion obtenues à partir de l’IRM de diffusion reflètent les propriétés réelles des tissus cardiaques. Dans ce cadre, la modélisation et la simulation numérique du signal d’IRM de diffusion offrent une approche alternative pour aborder le problème. L’objectif de cette thèse est d’étudier numériquement l’influence du mouvement cardiaque sur les images de diffusion et de s’intéresser à la question d’atténuation de l’effet du mouvement cardiaque sur le signal d’IRM de diffusion. Le premier chapitre est consacré à l’introduction du principe physique de l'imagerie par résonance magnétique(IRM). Le deuxième chapitre présente le principe de l’IRM de diffusion et résume l’état de l’art des différents modèles proposés dans la littérature pour modéliser le signal d’IRM de diffusion. Dans le troisième chapitre un modèle modifié de l’équation de Bloch-Torrey dans un domaine qui se déforme au cours du temps est introduit et étudié. Ce modèle représente une généralisation de l’équation de Bloch-Torrey utilisée dans la modélisation du signal d’IRM de diffusion dans le cas sans mouvement. Dans le quatrième chapitre, l’influence du mouvement cardiaque sur le signal d’IRM de diffusion est étudiée numériquement en utilisant le modèle de Bloch-Torrey modifié et un champ de mouvement analytique imitant une déformation réaliste du cœur. L’étude numérique présentée, permet de quantifier l’effet du mouvement sur la mesure de diffusion en fonction du type de la séquence de codage de diffusion utilisée, de classer ces séquences en terme de sensibilité au mouvement cardiaque et d’identifier une fenêtre temporelle par rapport au cycle cardiaque où l’influence du mouvement est réduite. Enfin, dans le cinquième chapitre, une méthode de correction de mouvement est présentée afin de minimiser l’effet du mouvement cardiaque sur les images de diffusion. Cette méthode s’appuie sur un développement singulier du modèle de Bloch-Torrey modifié pour obtenir un modèle asymptotique qui permet de résoudre le problème inverse de récupération puis correction de la diffusion influencée par le mouvement cardiaque
Diffusion magnetic resonance imaging (dMRI) is a non-invasive technique allowing access to the structural information of the biological tissues through the study of the diffusion motion of water molecules in tissues. Its applications are numerous in neurology, especially for the diagnosis of certain brain abnormalities, and for the study of the human cerebral white matter. However, due to the cardiac motion, the use of this technique to study the architecture of the in vivo human heart represents a great challenge. Cardiac motion has been identified as a major source of signal loss. Because of the sensitivity to motion, it is difficult to assess to what extent the diffusion characteristics obtained from diffusion MRI reflect the real properties of the cardiac tissue. In this context, modelling and numerical simulation of the diffusion MRI signal offer an alternative approach to address the problem. The objective of this thesis is to study numerically the influence of cardiac motion on the diffusion images and to focus on the issue of attenuation of the cardiac motion effect on the diffusion MRI signal. The first chapter of this thesis is devoted to the introduction of the physical principle of nuclear magnetic resonance (NMR) and image reconstruction techniques in MRI. The second chapter presents the principle of diffusion MRI and summarizes the state of the art of the various models proposed in the litera- ture to model the diffusion MRI signal. In the third chapter a modified model of the Bloch-Torrey equation in a domain that deforms over time is introduced and studied. This model represents a generalization of the Bloch-Torrey equation used to model the diffusion MRI signal in the case of static organs. In the fourth chapter, the influence of cardiac motion on the diffusion MRI signal is investigated numerically by using the modified Bloch-Torrey equation and an analytical motion model mimicking a realistic deformation of the heart. The numerical study reported here, can quantify the effect of motion on the diffusion measurement depending on the type of the diffusion coding sequence. The results obtained allow us to classify the diffusion encoding sequences in terms of sensitivity to the cardiac motion and identify for each sequence a temporal window in the cardiac cycle in which the influence of motion is reduced. Finally, in the fifth chapter, a motion correction method is presented to minimize the effect of cardiac motion on the diffusion images. This method is based on a singular development of the modified Bloch-Torrey model in order to obtain an asymptotic model of ordinary differential equation that gives a relationship between the true diffusion and the diffusion reconstructed in the presence of motion. This relationship is then used to solve the inverse problem of recovery and correction of the diffusion influenced by the cardiac motion
APA, Harvard, Vancouver, ISO, and other styles
19

Rochdi, Youssef. "Identification de systèmes non linéaires blocs." Phd thesis, Université de Caen, 2006. http://tel.archives-ouvertes.fr/tel-00261896.

Full text
Abstract:
Cette thèse porte sur le problème d'identification des systèmes non linéaires sur la base des modèles blocs. Deux types de modèles sont considérés ici, ceux de type Hammerstein et ceux de type Wiener. La plupart des solutions antérieures ont été élaborées sous des hypothèses assez contraignantes concernant le sous-système non linéaire du modèle. Celui-ci a souvent été supposé lisse (voire polynomial), inversible et sans mémoire. Les travaux présentés dans cette thèse tentent de repousser ces limites. Dans le cas des systèmes de type Hammerstein, nous élaborons un schéma d'identification qui ne fait aucune hypothèse sur l'élément non linéaire, à l'exception du fait qu'il est sans mémoire et l¥-stable ; ce schéma estime parfaitement (du moins dans la cas idéal) les paramètres du sous-système dynamique linéaire et un nuage de points de la caractéristique de l'élément non linéaire. Ce schéma est ensuite adapté au cas où l'on connaît la structure de l'élément non linéaire ; à ce propos, les non-linéarités statiques affines par morceaux et discontinues jouissent d'une attention particulière. Nous terminons la partie consacrée à l'identification des systèmes de Hammerstein, en abordant le problème des systèmes impliquant un élément non linéaire à mémoire. Deux familles d'éléments de cette nature sont considérées : celle comprenant des éléments hystérétiques non saturés et celle des éléments hystérisis-relais. Le problème est appréhendé à l'aide d'un schéma d'identification dont on établit la consistance en présence de perturbations assimilables à un bruit blanc appliqué en sortie du système.
La dernière partie du mémoire est centrée sur l'identification des systèmes de Wiener, dont l'élément non linéaire n'est pas supposé inversible. A cet effet, nous présentons deux schémas d'identification de type fréquentiel et établissons leur consistance dans les mêmes conditions que précédemment concernant les perturbations. L'exigence d'excitation persistante occupe une place centrale dans cette thèse. Pour procurer cette propriété aux différents schémas d'identifications proposés, il a été fait appel à une famille de signaux d'excitation de type impulsionnelle. Dans ce cadre, un lemme technique est élaboré précisant, pour les systèmes linéaires, le lien entre cette famille de signaux et la propriété d'excitation persistante. L'adaptation de ce lemme au cas des systèmes non linéaires est illustrée dans les différents schémas d'identification.
APA, Harvard, Vancouver, ISO, and other styles
20

Zhang, Xusheng. "Mesoscopic models of block copolymer rheology." Thesis, McGill University, 2011. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=96823.

Full text
Abstract:
We develop a mesoscopic theoretical framework to study viscoelastic response of block copolymers in the vicinity of their order-disorder transition point. We use it to study orientation selection of lamellar phases of diblock copolymers under oscillatory shears. We examine the effect of hydrodynamics on the relaxation of lamellar phases, and include anisotropic viscous stresses that follow from the uniaxial nature of the phase. We also introduce network viscoelastic effects that model chain entanglements, also made consistent with the symmetry of the phase. A numerical algorithm has been developed to solve the governing equations, which has been implemented on a parallel computer architecture. Simple cases involving the relaxation of small transverse perturbations, or viscoelasticity arising from diffusive relaxation of the order parameter have been investigated, and used to validate the numerical code. We also address the issue of spontaneous orientation selection from an initially disordered state due to an imposed oscillatory shear. In the absence of hydrodynamic coupling, we observe that the so called parallel orientation is selected for small shear frequency and amplitude, crossing over to a perpendicular orientation at higher shear frequencies and amplitudes. Hydrodynamic effects are seen to shift this crossover region. We have also examined the effect of network entanglement at finite frequencies. We find that network entanglement can lead to faster alignment, and that anisotropic network stresses can significantly influence the orientation selection process.
Nous developpons un cadre theorique propre a l'echelle me oscopique dans le but d'etudier la reponse viscoelastique des blocs de copolymeres pres du point de transition entre leur etat ordonne et desordonne. Nous utilisons cette theorie pour e tudier la selection de l'orientation des phases de lamelles des blocs de copolymeres subissant des cisaillements oscillatoires. Nous examinons les effets hydrodynamiques de la relaxation des phases lamellaires et nous incluons les stress visqueux anisotropes, dues a la nature uniaxiale des phases. Nous introduisons aussi les effets viscoelastique relatifs aux r eseaux modelisant l'enchevetrement des chaines dans une approche consistante avec la symetrie des phases. Un algorithme nume rique sous implementation parallele a ete developpe pour resoudre les equations relatives a cette etude. Des cas simples impliquant la relaxation diffuse du parametre relatif a l'ordre ont ete examines et utilises pour verifier le code numerique. Nous adressons aussi la question de la selection de l'orientation spontane d'un etat initialement desordonne due a un cisaillement oscillatoire impose au systeme. Dans l'absence d'interaction hydrodynamique, nous observons que l'orientation denomme e parallele est selectionnee pour des petites frequences et amplitudes de cisaillement mais adopte une orientation perpendiculaire pour de grandes frequences et amplitudes de cisaillement. Les effets hydrodynamiques changent la region de transition. Nous avons aussi examin e l'effet d'enchevetrement du reseau pour des frequences finies. Nous trouvons que l'enchevetrement du reseau mene a un alignement plus rapide et que les stress des reseaux anisotropes peuvent influencer de maniere significative le processus de se lection d'orientation.
APA, Harvard, Vancouver, ISO, and other styles
21

Mikail, Abud Filho Régis. "Littérature et religion. Le modèle hagiographique chez Flaubert, Bloy et Huysmans." Thesis, Paris 4, 2017. http://www.theses.fr/2017PA040019.

Full text
Abstract:
La crise traversée par l’Église à la fin du XIXe siècle se répand dans l’univers littéraire. Le rapport entre confession et esthétique s’instaure de manière distincte des romanciers catholiques de la première moitié du siècle : la transmission exemplaire de la foi à travers le discours religieux se confond avec la représentation de cette transmission elle-même par la littérature hagiographique. Ce renouvellement esthético-littéraire relativise et la fiction et l’hagiographie. Ainsi, chez Flaubert, Bloy et Huysmans, une sainteté se réclamant primitive et terrifiante bouleverse l’expression de l’art catholique accusé de mièvrerie. Des récits d’inspiration, d’intention ou de subversion hagiographique contestent également les représentations littéraires naturalistes et décadentistes. La réécriture de la sainteté côtoie le roman en transformation, de même que le personnage de fiction se rapproche souvent des saints. Le personnage-saint et le saint-personnage se situent donc dans une terrain indéfini entre récit romanesque et récit hagiographique. La confession personnelle d’écrivains comme Bloy et Huysmans invite à mieux examiner la subversion discursive, caractéristique du discours littéraire : la confession peut-elle être subversive malgré elle? Inversement, un récit structuré sur les modèles hagiographiques médiévaux de la Légende de saint Julien l’hospitalier révèlent qu’un certain respect de la forme n’implique pas en une profession de foi
The crisis the Catholic Church went through during the 19th century spread into the literary universe. The relation between faith and aesthetics establishes itself in a different way from the catholic novelists of the first half of the century: the exemplary transmission of faith through religious discourse mingles with the representation of this transmission itself through hagiographic literature. This literary and aesthetic renewal puts both fiction and hagiography into perspective. For instance, in the works of Flaubert, Bloy and Huysmans, a sanctity claiming itself to be both primitive and terrifying disrupts a catholic art accused of sentimentalism. Moreover, narratives of hagiographical inspiration, intention or subversion question literary representations of naturalism and decadentism. Rewriting sanctity is accomplished as a parallel to the transformations which affect the novel, whereas fictional characters are more closely represented in the manner of saints. The character as a saint and the saint as a character lay somewhere within an indefinite land between the narrative of the novel and the hagiographic narrative. The faith of writers such as Bloy and Huysmans calls for reflections on the discursive subversion, characteristic of the literary discourse: can faith be subversive in spite of its intentions? Inversely, a novel structured on the medievel hagiographic models of the Legend of saint Julien the Hospitaller reveals that a certain respect of the form does not necessarily imply professing one’s faith
APA, Harvard, Vancouver, ISO, and other styles
22

Galéra, Cyril. "Construction de blocs géographiques cohérents dans GOCAD." Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPLA05N.

Full text
Abstract:
La définition d'un modèle géologique 3D est un travail complexe, fait à partir de données peu précises et laisse une large place à l'interprétation du géologue. Pour valider la cohérence de son modèle, le géologue dispose de méthodes de restaurations qui consistent à déplier le modèle pour voir si avant déformation, le modèle apparaît probable. Néanmoins l'efficacité de ces méthodes en 3D est sujette à caution. Aussi, une autre approche présentée dans cette thèse et implémentée dans le géomodeleur GOCAD, consiste à construire de nouveaux horizons en se basant directement sur les données les plus fiables et le mode de déformation supposé, le cisaillement simple ou glissement couche à couche. Grâce à ces outils, le géologue pourra ainsi compléter ou tester la cohérence du modèle. La développabilité ou dépliabilité a également été étudiée dans cette thèse pour impléménter de nouvelles méthodes de dépliages et de corrections d' artéfacts
The definition of a 3D geological model is a complicated task, done ftom poor data and let a large space to the geologist interpretation. Thanks to restorations methods which consist in unfolding the model in order to see if it seems credible before deformation. Nevertheless, the efficiency of this method in 3D is subject to caution. Also, another approach presented in this thesis and implemented in the GOCAD geomodeller consist in building directly new horizons based on the most reliable data and the supposed deformation, the simple shear or flexural slip. Thanks to these tools, the geologist will thus be able to comp!ete and check the model coherency. The developability or unfoldability of the horizons have also been study in these in order to implement new unfoldable methods and artefacts corrections
APA, Harvard, Vancouver, ISO, and other styles
23

Stirzaker, Kim E. (Kim Elizabeth). "Structure and Form in Two Late Works for Flute and Orchestra by Ernest Bloch (1880-1959): Suite Modale (1956) and Two Last Poems (Maybe. . .) (1958) -- a Lecture Recital, Together With Three Recitals of Selected Works of J.S. Bach, Jolivet, Mozart,and Others." Thesis, University of North Texas, 1992. https://digital.library.unt.edu/ark:/67531/metadc278196/.

Full text
Abstract:
The lecture was presented on November 18, 1991. This presentation focused on the only two compositions for solo flute and orchestra by Ernest Bloch. Written during the last three years of the composer's life, the pieces are representative of his last style period. While Suite Modale is neobaroque in style, Two Last Poems is much more subjective. Together they represent a synthesis of many of the stylistic characteristics of Ernest Bloch. The musical parameters discussed included form, melody, texture, rhythm, harmony, and expressive devices.
APA, Harvard, Vancouver, ISO, and other styles
24

Song, Li. "Piecewise models for long memory time series." Paris 11, 2010. http://www.theses.fr/2010PA112128.

Full text
Abstract:
De nombreux travaux existent sur les processus stationnaires à longue mémoire (LM) et sur les modèles présentant des changements structurels. Cependant, il y a relativement peu de travaux sur les processus à LM non stationnaires faisant intervenir des ruptures, et ceci sans doute car LM et changement structurel sont deux phénomènes qu'il est facile de confondre. Dans cette thèse, nous considérons un modèle paramétrique de séries chronologiques à LM et non stationnaires : le processus localement autorégressif à moyenne mobile fractionnairement intégrée (FARlMA). Dans ce modèle, le nombre et les positions des points de ruptures (PRs) peuvent varier entre deux régimes, de même que les ordres et les coefficients des différentes parties FARlMA. Nous proposons deux méthodes pour estimer les paramètres de ce modèle. La première consiste à optimiser un critère basé sur le principe de description de longueur minimum (MDL). Nous montrons que ce critère est meilleur que le critère d'information bayésien et qu'un critère existant dans la littérature et aussi basé sur le principe MOL. Comme l'espace paramétrique est de grande dimension, l'optimisation pratique de notre critère est une tâche difficile et nous proposons une mise en oeuvre basée sur un algorithme génétique. La seconde méthode s'applique au cas de séries très longues comme des données de trafic intemet par exemple. En effet dans ce cas, la minimisation d'un critère basé sur le principe MDL est quasi impossible en pratique. Pour ajuster le modèle, nous proposons une méthode basée sur les différences entre les estimations des paramètres des différents blocs de données. La méthode se décompose en quatre étapes. Dans l'étape 1, nous ajustons un modèle FARlMA stationnaire à la série complète. Des estimées locales des paramètres sont obtenues dans l'étape 2. Dans l'étape 3, pour tous les nombres possibles de PR, on sélectionne les intervalles contenant un PR, on estime les positions des PRs et on estime les paramètres de chaque bloc. Enfin, l'étape 4 concerne la sélection du nombre de PRs en utilisant la somme des carrés des résidus des différents blocs. On montre l'efficacité de nos deux méthodes d'estimation au moyen de simulations numériques et on étudie aussi le cas de séries réelles
There are many studies on stationary processes exhibiting long range dependence (LRD) and on piecewise models involving structural changes. But the literature on structural breaks in LRD models is relatively sparse because structural changes and LRD are easily confused. Some works consider the case where only some coefficients in a LRD model are allowed to change. Ln this thesis, we consider a non-stationary LRD parametric model, namely the piecewise fractional autoregressive integrated moving-average (FARlMA) model. It is a pure structural change model inwhich the nurnber and the locations of break points (BPs) as well as the ARMA orders and the corresponding coefficients are allowed to change between two regimes. Two methods are proposed to estimate the parameters of this model. The first one is to optimize a criterion based on the minimum description length (MDL) principle. We show that this criterion outperforms the Bayesian information criterion and another MDL based criterion proposed in the literature. Since the search space is huge, the practical optimization of our criterion is a complicated task and we design an automatic methodology based on a genetic algorithm. The second method is designed for very long time series, like Internet traffic data. Ln such cases, the minimisation of the criterion based on MDL is very difficult. We propose a method based on the differences between parameter estimations of different blocks of data to fit the piecewise FARIMA model. This method consists in a four-step procedure. Ln Step 1, we fit a stationary FARiMA model to the whole series. Local parameter estimates are obtained in Step 2. Ln Step 3, for all possible BP numbers, we select the intervals with a BP, we estimate the BP locations and we estimate the parameters of each stationary block. Lastly, Step 4 concerns the selection of the BP number using the sum of squared residuals of the different fitted piecewise models. The effectiveness of the two methods proposed in the thesis is shown by simulations and applications to real data are considered
APA, Harvard, Vancouver, ISO, and other styles
25

Abebe, Opeyemi Temitope. "Regional trade agreements and its impact on the multilateral trading system: eroding the preferences of developing countries?" Thesis, University of the Western Cape, 2005. http://etd.uwc.ac.za/index.php?module=etd&amp.

Full text
Abstract:
The purpose of this paper was to examine the impact that the proliferation of regional trade agreements have had on the Multilateral Trading System and whether by allowing regional trade agreements under the World Trade Organization rules, the members of the World Trade Organization have not unwittingly weakened the multilateral trading system. It also examined the effect the proliferation of regional trade agreements have had on the special and deferential treatment for developing countries within the system.
APA, Harvard, Vancouver, ISO, and other styles
26

Delhomme, Fabien. "Etude du comportement sous impact d'une structure pare-blocs en béton armé." Chambéry, 2005. http://www.theses.fr/2005CHAMS004.

Full text
Abstract:
Cette thèse a pour objet l'étude du comportement d'un nouveau système de galerie de protection contre les chutes de blocs appelé Pare-blocs Structurellement Dissipant (PSD). L'innovation majeure, par rapport aux solutions classiques, est de dissiper l'énergie d'impact directement dans la dalle en béton armé ou dans des appuis fusibles, et non plus dans une couche de matériau amortissant. Les phénomènes dynamiques ayant lieu lors de l'impact d'un bloc sur la dalle sont analysés au moyen d'expérimentations sur une structure PSD à l'échelle î 1/3. Les efforts de percussion appliqués à la dalle, durant la phase de contact avec le bloc, sont estimés ainsi que les différents transferts et dissipations d'énergie. Les résultats ont permis de valider le principe de fonctionnement et de réparation des PSD et font apparaître que la dalle est endommagée par trois mécanismes majeurs: le poinçonnement, la mise en flexion et la déstructuration de surface de la zone impactée. Les principales grandeurs expérimentales sont retrouvées à l'aide de simulations numériques des essais avec un code éléments finis. Un modèle mécanique simplifié "masses ressorts amortisseur" est également développé dans le but de concevoir des méthodes de dimensionnement applicables en bureau d'études. Les perspectives de ce travail sont d'aboutir à l'établissement de recommandations sur la conception et la réalisation des pare-blocs structurellement dissipant
This thesis studies the behaviour of a new concept for a protection gallery under rock fall, called Structurally Dissipating Rock-shed (SDR). The main innovation, compared to conventional solutions, is to dissipate the impact energy directly into the reinforced concrete slab or into fuse supports, and no longer in a cushion layer. The dynamic phenomena, taking place during the impact of a block onto the slab, are analyzed by means of experiments on a 1/3 scale SDR structure. The percussion loads applied to the slab, during the contact phase with the block, are assessed as weIl as the various energy transfers and dissipations. The results allowed to validate the operating and repair principles of the SDR and revealed that the slab is damaged by three main mechanisms: the punching, the bending and the breaking clown at surface level of the impacted zone. The principal experimental values are found by numerical simulations of the tests with a finite elements tool. A simplified mechanical model "masses-springs-damping" is also developed with the aim of implementing design methods for engineering offices. The prospects for this work are to succeed in establishing design and construction recommendations for structurally dissipating rock-sheds
APA, Harvard, Vancouver, ISO, and other styles
27

Eichenauer, Florian. "Analysis for dissipative Maxwell-Bloch type models." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät, 2016. http://dx.doi.org/10.18452/17661.

Full text
Abstract:
Die vorliegende Dissertation befasst sich mit der mathematischen Modellierung semi-klassischer Licht-Materie-Interaktion. Im semiklassischen Bild wird Materie durch eine Dichtematrix "rho" beschrieben. Das Konzept der Dichtematrizen ist quantenmechanischer Natur. Auf der anderen Seite wird Licht durch ein klassisches elektromagnetisches Feld "(E,H)" beschrieben. Wir stellen einen mathematischen Rahmen vor, in dem wir systematisch dissipative Effekte in die Liouville-von-Neumann-Gleichung inkludieren. Bei unserem Ansatz sticht ins Auge, dass Lösungen der resultierenden Gleichung eine intrinsische Liapunov-Funktion besitzen. Anschließend koppeln wir die resultierende Gleichung mit den Maxwell-Gleichungen und erhalten ein neues selbstkonsistentes, dissipatives Modell vom Maxwell-Bloch-Typ. Der Fokus dieser Arbeit liegt auf der intensiven mathematischen Studie des dissipativen Modells vom Maxwell-Bloch-Typ. Da das Modell Lipschitz-Stetigkeit vermissen lassen, kreieren wir eine regularisierte Version des Modells, das Lipschitz-stetig ist. Wir beschränken unsere Analyse im Wesentlichen auf die Lipschitz-stetige Regularisierung. Für regularisierte Versionen des dissipativen Modells zeigen wir die Existenz von Lösungen des zugehörigen Anfangswertproblems. Der Kern des Existenzbeweises besteht aus einem Resultat von ``compensated compactness'''', das von P. Gérard bewiesen wurde, sowie aus einem Lemma vom Rellich-Typ. In Teilen folgt dieser Beweis dem Vorgehen einer älteren Arbeit von J.-L. Joly, G. Métivier und J. Rauch.
This thesis deals with the mathematical modeling of semi-classical matter-light interaction. In the semi-classical picture, matter is described by a density matrix "rho", a quantum mechanical concept. Light on the other hand, is described by a classical electromagnetic field "(E,H)". We give a short overview of the physical background, introduce the usual coupling mechanism and derive the classical Maxwell-Bloch equations which have intensively been studied in the literature. Moreover, We introduce a mathematical framework in which we state a systematic approach to include dissipative effects in the Liouville-von-Neumann equation. The striking advantage of our approach is the intrinsic existence of a Liapunov function for solutions to the resulting evolution equation. Next, we couple the resulting equation to the Maxwell equations and arrive at a new self-consistent dissipative Maxwell-Bloch type model for semi-classical matter-light interaction. The main focus of this work lies on the intensive mathematical study of the dissipative Maxwell-Bloch type model. Since our model lacks Lipschitz continuity, we create a regularized version of the model that is Lipschitz continuous. We mostly restrict our analysis to the Lipschitz continuous regularization. For regularized versions of the dissipative Maxwell-Bloch type model, we prove existence of solutions to the corresponding Cauchy problem. The core of the proof is based on results from compensated compactness due to P. Gérard and a Rellich type lemma. In parts, this proof closely follows the lines of an earlier work due to J.-L. Joly, G. Métivier and J. Rauch.
APA, Harvard, Vancouver, ISO, and other styles
28

Robert, Valérie. "Classification croisée pour l'analyse de bases de données de grandes dimensions de pharmacovigilance." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS111/document.

Full text
Abstract:
Cette thèse regroupe des contributions méthodologiques à l'analyse statistique des bases de données de pharmacovigilance. Les difficultés de modélisation de ces données résident dans le fait qu'elles produisent des matrices souvent creuses et de grandes dimensions. La première partie des travaux de cette thèse porte sur la classification croisée du tableau de contingence de pharmacovigilance à l’aide du modèle des blocs latents de Poisson normalisé. L'objectif de la classification est d'une part de fournir aux pharmacologues des zones intéressantes plus réduites à explorer de manière plus précise, et d'autre part de constituer une information a priori utilisable lors de l'analyse des données individuelles de pharmacovigilance. Dans ce cadre, nous détaillons une procédure d'estimation partiellement bayésienne des paramètres du modèle et des critères de sélection de modèles afin de choisir le modèle le plus adapté aux données étudiées. Les données étant de grandes dimensions, nous proposons également une procédure pour explorer de manière non exhaustive mais pertinente, l'espace des modèles en coclustering. Enfin, pour mesurer la performance des algorithmes, nous développons un indice de classification croisée calculable en pratique pour un nombre de classes élevé. Les développements de ces outils statistiques ne sont pas spécifiques à la pharmacovigilance et peuvent être utile à toute analyse en classification croisée. La seconde partie des travaux de cette thèse porte sur l'analyse statistique des données individuelles, plus nombreuses mais également plus riches en information. L'objectif est d'établir des classes d'individus selon leur profil médicamenteux et des sous-groupes d'effets et de médicaments possiblement en interaction, palliant ainsi le phénomène de coprescription et de masquage que peuvent présenter les méthodes existantes sur le tableau de contingence. De plus, l'interaction entre plusieurs effets indésirables y est prise en compte. Nous proposons alors le modèle des blocs latents multiple qui fournit une classification croisée simultanée des lignes et des colonnes de deux tableaux de données binaires en leur imposant le même classement en ligne. Nous discutons des hypothèses inhérentes à ce nouveau modèle et nous énonçons des conditions suffisantes de son identifiabilité. Ensuite, nous présentons une procédure d'estimation de ses paramètres et développons des critères de sélection de modèles associés. De plus, un modèle de simulation numérique des données individuelles de pharmacovigilance est proposé et permet de confronter les méthodes entre elles et d'étudier leurs limites. Enfin, la méthodologie proposée pour traiter les données individuelles de pharmacovigilance est explicitée et appliquée à un échantillon de la base française de pharmacovigilance entre 2002 et 2010
This thesis gathers methodological contributions to the statistical analysis of large datasets in pharmacovigilance. The pharmacovigilance datasets produce sparse and large matrices and these two characteritics are the main statistical challenges for modelling them. The first part of the thesis is dedicated to the coclustering of the pharmacovigilance contingency table thanks to the normalized Poisson latent block model. The objective is on the one hand, to provide pharmacologists with some interesting and reduced areas to explore more precisely. On the other hand, this coclustering remains a useful background information for dealing with individual database. Within this framework, a parameter estimation procedure for this model is detailed and objective model selection criteria are developed to choose the best fit model. Datasets are so large that we propose a procedure to explore the model space in coclustering, in a non exhaustive way but a relevant one. Additionnally, to assess the performances of the methods, a convenient coclustering index is developed to compare partitions with high numbers of clusters. The developments of these statistical tools are not specific to pharmacovigilance and can be used for any coclustering issue. The second part of the thesis is devoted to the statistical analysis of the large individual data, which are more numerous but also provides even more valuable information. The aim is to produce individual clusters according their drug profiles and subgroups of drugs and adverse effects with possible links, which overcomes the coprescription and masking phenomenons, common contingency table issues in pharmacovigilance. Moreover, the interaction between several adverse effects is taken into account. For this purpose, we propose a new model, the multiple latent block model which enables to cocluster two binary tables by imposing the same row ranking. Assertions inherent to the model are discussed and sufficient identifiability conditions for the model are presented. Then a parameter estimation algorithm is studied and objective model selection criteria are developed. Moreover, a numeric simulation model of the individual data is proposed to compare existing methods and study its limits. Finally, the proposed methodology to deal with individual pharmacovigilance data is presented and applied to a sample of the French pharmacovigilance database between 2002 and 2010
APA, Harvard, Vancouver, ISO, and other styles
29

Healy, Timothy M. "Multi-block and overset-block domain decomposition techniques for cardiovascular flow simulation." Diss., Georgia Institute of Technology, 2001. http://hdl.handle.net/1853/15622.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Harnischmacher, Gerrit. "Block structured modeling for control /." Düsseldorf : VDI-Verl, 2007. http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&doc_number=016244726&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Keenan, David Wayne 1955. "BLOCK PLAN CONSTRUCTION FROM A DELTAHEDRON-BASED ADJACENCY GRAPH." Thesis, The University of Arizona, 1986. http://hdl.handle.net/10150/292025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Paltrinieri, Federico. "Modeling temporal networks with dynamic stochastic block models." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/18805/.

Full text
Abstract:
Osservando il recente interesse per le reti dinamiche temporali e l'ampio numero di campi di applicazione, questa tesi ha due principali propositi: primo, di analizzare alcuni modelli teorici di reti temporali, specialmente lo stochastic blockmodel dinamico, al fine di descrivere la dinamica di sistemi reali e fare previsioni. Il secondo proposito della tesi è quello di creare due nuovi modelli teorici, basati sulla teoria dei processi autoregressivi, dai quali inferire nuovi parametri dalle reti temporali, come la matrice di evoluzione di stato e una migliore stima della varianza del rumore del processo di evoluzione temporale. Infine, tutti i modelli sono testati su un data set interbancario: questi rivelano la presenza di un evento atteso che divide la rete temporale in due periodi distinti con differenti configurazioni e parametri.
APA, Harvard, Vancouver, ISO, and other styles
33

Kendall, Toby. "Theoretical models of trade blocs and integrated markets." Thesis, University of Warwick, 2000. http://wrap.warwick.ac.uk/4014/.

Full text
Abstract:
This thesis consists of four main chapters, together with a general introduction and conclusion. The thesis examines, both separately and together, the formation of trade blocs and global market integration. All the models use a partial equilibrium framework, with firms competing as Cournot oligopolists. Chapter 2 presents two models of trade bloc formation under segmented markets. In the first model, with common constant marginal costs, global free trade is optimal for all countries when there are no more than four countries, but with five or more countries there is an incentive to form a trade bloc containing most countries, but excluding at least one. The second model introduces a cost function where a firm's marginal cost is lower when it is located in a larger trade bloc, with little effect on the results. Chapter 3 analyses the formation of trade blocs between countries with different market sizes under segmented markets. The formation of a two country customs union or free trade area will always raise the smaller country's welfare, while the larger country will usually lose from a free trade area, and sometimes from a customs union. Chapter 4, which is joint work with David R. Collie and Morten Hviid, presents a model of strategic trade policy under integrated markets, under complete and incomplete information. In the former case, a low cost country will give an export subsidy which is fully countervailed by the high cost country's import tariff. In the simultaneous signalling game, each country's expected welfare is higher than under free trade. Chapter 5 considers models of trade bloc formation under integrated markets. With common constant costs, there is no incentive for blocs to form. When costs are decreasing in membership of a bloc, either global free trade is optimal or countries would prefer to belong to the smaller of two blocs.
APA, Harvard, Vancouver, ISO, and other styles
34

Norton, Kevin M. "Parameter optimization of seismic isolator models using recursive block-by-block nonlinear transient structural synthesis." Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2002. http://library.nps.navy.mil/uhtbin/hyperion-image/02sep%5FNorton.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Deshayes, Aurélia. "Modèles de croissance aléatoire et théorèmes de forme asymptotique : les processus de contact." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0168/document.

Full text
Abstract:
Cette thèse s'inscrit dans l'étude des systèmes de particules en interaction et plus précisément dans celle des modèles de croissance aléatoire qui représentent un quantité qui grandit au cours du temps et s'étend sur un réseau. Ce type de processus apparaît naturellement quand on regarde la croissance d'un cristal ou bien la propagation d'une épidémie. Cette dernière est bien modélisée par le processus de contact introduit en 1974 par Harris. Le processus de contact est un des plus simples systèmes de particules en interaction présentant une transition de phase et l'on connaît maintenant bien son comportement sur ses phases. De nombreuses questions ouvertes sur ses extensions, notamment celles de formes asymptotiques, ont motivé ce travail. Après la présentation de ce processus et de certaines de ses extensions, nous introduisons et étudions une nouvelle variante: le processus de contact avec vieillissement où les particules ont un âge qui influence leur capacité à donner naissance à leurs voisines. Nous effectuerons pour ce modèle un couplage avec une percolation orientée inspiré de celui de Bezuidenhout-Grimmett et nous montrerons la croissance d'ordre linéaire de ce processus. Dans la dernière partie de la thèse, nous nous intéressons à la preuve d'un théorème de forme asymptotique pour des modèles généraux de croissance aléatoire grâce à des techniques sous-Additives, parfois complexes à mettre en place à cause de la non 'survie presque sûre' de nos modèles. Nous en concluons en particulier que le processus de contact avec vieillissement, le processus de contact en environnement dynamique, la percolation orientée avec immigration hostile, et le processus de contact avec sensibilisation vérifient des résultats de forme asymptotique
This thesis is a contribution to the mathematical study of interacting particles systems which include random growth models representing a spreading shape over time in the cubic lattice. These processes are used to model the crystal growth or the spread of an infection. In particular, Harris introduced in 1974 the contact process to represent such a spread. It is one of the simplest interacting particles systems which exhibits a critical phenomenon and today, its behaviour is well-Known on each phase. Many questions about its extensions remain open and motivated our work, especially the one on the asymptotic shape. After the presentation of the contact process and its extensions, we introduce a new one: the contact process with aging where each particle has an age age that influences its ability to give birth to its neighbours. We build a coupling between our process and a supercritical oriented percolation adapted from Bezuidenhout-Grimmett's construction and we establish the 'at most linear' growth of our process. In the last part of this work, we prove an asymptotic shape theorem for general random growth models thanks to subadditive techniques, which can be complicated in the case of non-Permanent models conditioned to survive. We conclude that the process with aging, the contact process in randomly evolving environment, the oriented percolation with hostile immigration and the bounded modified contact process satisfy asymptotic shape results
APA, Harvard, Vancouver, ISO, and other styles
36

Corneli, Marco. "Dynamic stochastic block models, clustering and segmentation in dynamic graphs." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E012/document.

Full text
Abstract:
Cette thèse porte sur l’analyse de graphes dynamiques, définis en temps discret ou continu. Nous introduisons une nouvelle extension dynamique du modèle a blocs stochastiques (SBM), appelée dSBM, qui utilise des processus de Poisson non homogènes pour modéliser les interactions parmi les paires de nœuds d’un graphe dynamique. Les fonctions d’intensité des processus ne dépendent que des classes des nœuds comme dans SBM. De plus, ces fonctions d’intensité ont des propriétés de régularité sur des intervalles temporels qui sont à estimer, et à l’intérieur desquels les processus de Poisson redeviennent homogènes. Un récent algorithme d’estimation pour SBM, qui repose sur la maximisation d’un critère exact (ICL exacte) est ici adopté pour estimer les paramètres de dSBM et sélectionner simultanément le modèle optimal. Ensuite, un algorithme exact pour la détection de rupture dans les séries temporelles, la méthode «pruned exact linear time» (PELT), est étendu pour faire de la détection de rupture dans des données de graphe dynamique selon le modèle dSBM. Enfin, le modèle dSBM est étendu ultérieurement pour faire de l’analyse de réseau textuel dynamique. Les réseaux sociaux sont un exemple de réseaux textuels: les acteurs s’échangent des documents (posts, tweets, etc.) dont le contenu textuel peut être utilisé pour faire de la classification et détecter la structure temporelle du graphe dynamique. Le modèle que nous introduisons est appelé «dynamic stochastic topic block model» (dSTBM)
This thesis focuses on the statistical analysis of dynamic graphs, both defined in discrete or continuous time. We introduce a new extension of the stochastic block model (SBM) for dynamic graphs. The proposed approach, called dSBM, adopts non homogeneous Poisson processes to model the interaction times between pairs of nodes in dynamic graphs, either in discrete or continuous time. The intensity functions of the processes only depend on the node clusters, in a block modelling perspective. Moreover, all the intensity functions share some regularity properties on hidden time intervals that need to be estimated. A recent estimation algorithm for SBM, based on the greedy maximization of an exact criterion (exact ICL) is adopted for inference and model selection in dSBM. Moreover, an exact algorithm for change point detection in time series, the "pruned exact linear time" (PELT) method is extended to deal with dynamic graph data modelled via dSBM. The approach we propose can be used for change point analysis in graph data. Finally, a further extension of dSBM is developed to analyse dynamic net- works with textual edges (like social networks, for instance). In this context, the graph edges are associated with documents exchanged between the corresponding vertices. The textual content of the documents can provide additional information about the dynamic graph topological structure. The new model we propose is called "dynamic stochastic topic block model" (dSTBM).Graphs are mathematical structures very suitable to model interactions between objects or actors of interest. Several real networks such as communication networks, financial transaction networks, mobile telephone networks and social networks (Facebook, Linkedin, etc.) can be modelled via graphs. When observing a network, the time variable comes into play in two different ways: we can study the time dates at which the interactions occur and/or the interaction time spans. This thesis only focuses on the first time dimension and each interaction is assumed to be instantaneous, for simplicity. Hence, the network evolution is given by the interaction time dates only. In this framework, graphs can be used in two different ways to model networks. Discrete time […] Continuous time […]. In this thesis both these perspectives are adopted, alternatively. We consider new unsupervised methods to cluster the vertices of a graph into groups of homogeneous connection profiles. In this manuscript, the node groups are assumed to be time invariant to avoid possible identifiability issues. Moreover, the approaches that we propose aim to detect structural changes in the way the node clusters interact with each other. The building block of this thesis is the stochastic block model (SBM), a probabilistic approach initially used in social sciences. The standard SBM assumes that the nodes of a graph belong to hidden (disjoint) clusters and that the probability of observing an edge between two nodes only depends on their clusters. Since no further assumption is made on the connection probabilities, SBM is a very flexible model able to detect different network topologies (hubs, stars, communities, etc.)
APA, Harvard, Vancouver, ISO, and other styles
37

Cheng, Xiang. "TFTs circuit simulation models and analogue building block designs." Thesis, University of Cambridge, 2018. https://www.repository.cam.ac.uk/handle/1810/271853.

Full text
Abstract:
Building functional thin-film-transistor (TFT) circuits is crucial for applications such as wearable, implantable and transparent electronics. Therefore, developing a compact model of an emerging semiconductor material for accurate circuit simulation is the most fundamental requirement for circuit design. Further, unique analogue building blocks are needed due to the specific properties and non-idealities of TFTs. This dissertation reviews the major developments in thin-film transistor (TFT) modelling for the computer-aided design (CAD) and simulation of circuits and systems. Following the progress in recent years on oxide TFTs, we have successfully developed a Verilog-AMS model called the CAMCAS model, which supports computer-aided circuit simulation of oxide-TFTs, with the potential to be extended to other types of TFT technology families. For analogue applications, an accurate small signal model for thin film transistors (TFTs) is presented taking into account non-idealities such as contact resistance, parasitic capacitance, and threshold voltage shift to exhibit higher accuracy in comparison with the adapted CMOS model. The model is used to extract the zeros and poles of the frequency response in analogue circuits. In particular, we consider the importance of device-circuit interactions (DCI) when designing thin film transistor circuits and systems and subsequently examine temperature- and process-induced variations and propose a way to evaluate the maximum achievable intrinsic performance of the TFT. This is aimed at determining when DCI becomes crucial for a specific application. Compensation methods are reviewed to show examples of how DCI is considered in the design of AMOLED displays. Based on these design considerations, analogue building blocks including voltage and current references and differential amplifier stages have been designed to expand the analogue library specifically for TFT circuit design. The $V_T$ shift problem has been compensated based on unique circuit structures. For a future generation of application, where ultra low power consumption is a critical requirement, we investigate the TFT’s subthreshold operation through examining several figures of merit including intrinsic gain ($A_i$), transconductance efficiency ($g_m/I_{DS}$) and cut-off frequency ($f_T$). Here, we consider design sensitivity for biasing circuitry and the impact of device variations on low power circuit behaviour.
APA, Harvard, Vancouver, ISO, and other styles
38

Hédouin, Renaud. "Diffusion MRI processing for multi-comportment characterization of brain pathology." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S035/document.

Full text
Abstract:
L'imagerie pondérée en diffusion est un type d'acquisition IRM spécifique basé sur la direction de diffusion des molécules d'eau dans le cerveau. Cela permet, au moyen de plusieurs acquisitions, de modéliser la microstructure du cerveau, comme la matière blanche qui à une taille très inférieur à la résolution du voxel. L'obtention d'un grand nombre d'images nécessite, pour un usage clinique, des techniques d'acquisition ultra rapide tel que l'imagerie parallèle. Malheureusement, ces images sont entachées de large distorsions. Nous proposons une méthode de recalage par blocs basée sur l'acquisition d'images avec des directions de phase d'encodage opposées. Cette technique spécialement conçue pour des images écho planaires, mais qui peut être générique, corrige les images de façon robuste tout en fournissant un champs de déformation. Cette transformation est applicable à une série entière d'image de diffusion à partir d'une seule image b 0 renversée, ce qui permet de faire de la correction de distorsion avec un temps d'acquisition supplémentaire minimal. Cet algorithme de recalage, qui a été validé à la fois sur des données synthétiques et cliniques, est disponible avec notre programme de traitement d'images Anima. A partir de ces images de diffusion, nous sommes capable de construire des modèles de diffusion multi-compartiment qui représentent la microstructure complexe du cerveau. Pour pouvoir produire des analyses statistiques sur ces modèles, nous devons être capable de faire du recalage, du moyennage, ou encore de créer un atlas d'images. Nous proposons une méthode générale pour interpoler des modèles multi-compartiment comme un problème de simplification basé sur le partitionnement spectral. Cette technique qui est adaptable pour n'importe quel modèle, a été validé à la fois sur des données synthétiques et réelles. Ensuite à partir d'une base de données recalée, nous faisons des analyses statistiques en extrayant des paramètres au niveau du voxel. Une tractographie, spécifiquement conçue pour les modèles multi-compartiment, est aussi utilisée pour faire des analyses en suivant les fibres de matière blanche. Ces outils sont conçus et appliqués à des données réelles pour contribuer à la recherche de biomarqueurs pour les pathologies cérébrales
Diffusion weighted imaging (DWI) is a specific type of MRI acquisition based on the direction of diffusion of the brain water molecule. Its allow, through several acquisitions, to model brain microstructure, as white matter, which are significantly smaller than the voxel-resolution. To acquire a large number of images in a clinical use, very-fast acquisition technique are required as single-shot imaging, however these acquisitions suffer local large distortions. We propose a Block-Matching registration method based on a the acquisition of images with opposite phase-encoding directions (PED). This technique specially designs for Echo-Planar Images (EPI), but which could be generic, robustly correct images and provide a deformation field. This field is applicable to an entire DWI series from only one reversed b 0 allowing distortion correction with a minimal time acquisition cost. This registration algorithm has been validated both on a phantom data set and on in-vivo data and is available in our source medical image processing toolbox Anima. From these diffusion images, we are able to construct multi-compartments models (MCM) which could represented complex brain microstructure. We need to do registration, average, create atlas on these MCM to be able to make studies and produce statistic analysis. We propose a general method to interpolate MCM as a simplification problem based on spectral clustering. This technique, which is adaptable for any MCM, has been validated for both synthetic and real data. Then, from a registered dataset, we made analysis at a voxel-level doing statistic on MCM parameters. Specifically design tractography can also be perform to make analysis, following tracks, based on individual compartment. All these tools are designed and used on real data and contribute to the search of biomakers for brain diseases
APA, Harvard, Vancouver, ISO, and other styles
39

AKYOL, MUCAHIT. "DESIGN OF A SWITCH BLOCK MODULE FOR SECOND GENERATION MULTI-TECHNOLOGY FPGA." University of Cincinnati / OhioLINK, 2006. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1159558241.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Poivet, Sylwia. "Adhésion instantanée de deux systèmes modèles : liquides simples et copolymères à blocs." Bordeaux 1, 2003. http://www.theses.fr/2003BOR12763.

Full text
Abstract:
Nous étudions, dans une approche expérimentale à visée fondamentale tout autant qu'appliquée, les mécanismes de séparation et de rupture qui sont en jeu lors de la mise en traction d'un matériau fortement confiné entre deux plaques parallèles (test du probe-tack). Cette étude est menée sur deux systèmes modèles ; les liquides simples et les copolymères à blocs. La simplicité du premier système nous permet de donner une interprétation détaillée de nos observations. Deux régimes en compétition sont ainsi identifiés : un régime de digitation et un régime de cavitation. En utilisant des modèles élaborés pour les liquides newtoniens, la forme des courbes de force, propre à chaque régime, ainsi que les conditions nécessaires à la cavitation sont modélisées et mènent à l'élaboration d'un "diagramme de phases" permettant de prédire les différents régimes. Le très bon accord entre nos données expérimentales et la théorie montre que la cavitation, méscanisme communément admis comme spécifique des matériaux viscoélastiques tels que les adhésifs, peut tout aussi bien se produire dans les liquides visqueux. Le second système étudié, susceptible d'applications en tant que matériau adhésif même en milieu humide, est constitué essentiellement de copolymères diblocs amphiphiles. Ces matériaux sont caractérisés du point de vue de leur structure, de leur capacité à absorber l'eau et de leurs propriétés adhésives à sec et sur substrat humide. Notre étude met en évidence le rôle essentiel de la structure sur les propriétés d'adhésion et montre que leur caractère emphiphile fait de ces matériaux des candidats prometteurs pour résoudre le problème de l'adhésion sur substrat humide
Within an expérimental approach whose scope is fundamental as well as applied, we study the separation mechanisms encoutered when a material confined between two parallel plates is put under traction (probe-tack test). The study is conducted on two model systems : simple liquids and block copolymers. The simplicity of the first system allows us to provide a detailed interpretation of our observations. Indeed, two competing regimes are identified : a fingering regime and a cavitation regime. The curve shape for the measured force, specific to each regime, along with the conditions required for cavitation, are modelled using models for Newtonian fluids. This allows us to build a phase diagram capable of prediction the different regimes. The excellent fit of the experimental data with our theoretical model demonstrates that the cavitation mechanism, commonly thought to be characteristic of viscoelastic materials like adhesives, can also be encountered in viscous liquids. The second system, a candidate for use as an adhesive material even in wet environment, is essentially composed of amphiphilic diblock copolymers. We characterize the structure of these materials, their ability to absorb water and their adhesive properties on dry and wet substrates. Our study demonstrates the critical role of the polymer structure on the adhesion properties. Moreover, we show that, owing to their amphiphilic behaviour, these materials are particulary promising for the well-known problem of adhesion on wet surfaces
APA, Harvard, Vancouver, ISO, and other styles
41

King, John. "The effects of Institutional models on electoral participation and democracy in the former Soviet Bloc." Honors in the Major Thesis, University of Central Florida, 2007. http://digital.library.ucf.edu/cdm/ref/collection/ETH/id/1176.

Full text
Abstract:
This item is only available in print in the UCF Libraries. If this is your Honors Thesis, you can help us make it available online for use by researchers around the world by following the instructions on the distribution consent form at http://library.ucf.edu/Systems/DigitalInitiatives/DigitalCollections/InternetDistributionConsentAgreementForm.pdf You may also contact the project coordinator, Kerri Bottorff, at kerri.bottorff@ucf.edu for more information.
Bachelors
Sciences
Political Science
APA, Harvard, Vancouver, ISO, and other styles
42

Driss, Khodja Kouider. "Etude expérimentale et modélisation de la fonction diélectrique des milieux inhomogènes 2D et 3D." Rouen, 1989. http://www.theses.fr/1989ROUES018.

Full text
Abstract:
Pour prendre en compte la structure réelle des milieux inhomogènes, nous avons proposé une théorie de milieu effectif à 2D et 3D basée sur une procédure de renormalisation dans l'espace réel. Ces modèles utilisent la technique des blocs de Kadanoff. Dans un premier temps cette approche a été appliquée à des réseaux carrés générés par ordinateur dont les sites sont occupés aléatoirement pour une concentration donnée. Dans une deuxième étape nous avons appliqué cette procédure à des images réelles constituées de micrographies de microscopie électronique par transmission digitalisées puis binarisées de systèmes 2D et 3D. On présente également une interprétation des similarités et des différences entre la théorie et l'expérience. Les résultats obtenus sur des réseaux simulés rendent compte à la fois de l'anomalie diélectrique et de la percolation optique. Notre approche est ainsi l'une des rares théories à modéliser la transition métal-non métal. Nous avons montré que la fonction diélectrique effective obéit à des lois d'échelle avec des exposants critiques S3D et S2D pour la polarisation et T3D et T2D pour la conduction, valeurs proches des estimations théoriques. Les fonctions diélectriques obtenues par l'application de ces modèles à des micrographies de microscopie électronique par transmission digitalisées puis binarisées sont en bon accord avec la plupart des résultats expérimentaux
APA, Harvard, Vancouver, ISO, and other styles
43

Santos, Carla Maria Lopes da Silva Afonso dos. "Error Orthogonal Models: Structure, Operations and Inference." Doctoral thesis, Universidade da Beira Interior, 2012. http://hdl.handle.net/10400.6/1742.

Full text
Abstract:
In this thesis, we develop the theory of Error-Orthogonal Models availing ourselves of the identity of these models and those with Commutative Orthogonal Block Structure. Thus our treatment will rest on the algebraic structure of the models. In our development we consider: the estimation of variance components; crossing and nesting of models; model joining, in which observations vectors obtained separately are jointly analyzed; step nesting which require much less observations than the corresponding usual models. To broaden our treatment we also consider L Extensions of Error-Orthogonal models. In this way, we may consider interesting cases such as models otherwise balanced with different numbers of replicates for the treatments. Last we include normality. We will be interested in obtaining sufficient statistics as well as conditions for them to be complete. We will carry out inference and consider orthogonal L extensions.
Nesta tese é desenvolvida a teoria dos modelos Error-orthogonal recorrendo à identidade entre estes modelos e os modelos com estrutura ortogonal de blocos comutativos. Desta forma, o tratamento apresentado irá assentar na estrutura algébrica dos modelos. No desenvolvimento considera-se: a estimação das componentes de variância; o cruzamento e aninhamento de modelos; a junção de modelos, na qual vectores das observações obtidos separadamente são analisados conjuntamente; aninhamento em escada, que requer muito menos observações do que os modelos correspondentes. Para alargar o tratamento apresentado consideram-se também Extensões L de modelos Error-orthogonal. Desta forma, poderemos considerar casos interessantes como o dos modelos com número diferente de repetições para os vários tratamentos. Por fim, inclui-se o caso normal. Com base no pressuposto da normalidade pretende-se obter estatísticas suficientes assim como condições para que estas sejam completas. É realizada inferência e consideram-se extensões L ortogonais.
APA, Harvard, Vancouver, ISO, and other styles
44

Porter, Richard J. "Non-Gaussian and block based models for sparse signal recovery." Thesis, University of Bristol, 2016. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.702908.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Mercat, Christian. "Holomorphie discrète et modèle d'Ising." Phd thesis, Université Louis Pasteur - Strasbourg I, 1998. http://tel.archives-ouvertes.fr/tel-00001851.

Full text
Abstract:
Ma thèse généralise la notion de criticité pour le modèle d'Ising en dimension 2. J'y définis une nouvelle notion d'holomorphie discrète sur une décomposition cellulaire d'une surface de Riemann. Le modèle d'Ising converge, à la limite thermodynamique vers une théorie conforme continue, quand la limite est prise sur un réseau (carré, triangulaire), près de la température critique. J'étends cette criticité à des décompositions cellulaires générales et je décompose le spineur en parties holomorphes et antiholomorphes discrètes, analogues discrets des blocs conformes. On définit une équation de Cauchy-Riemann discrète sur le double d'une décomposition cellulaire. Des théorèmes classiques sont encore transposables: harmonicité, base des différentielles, pôle, théorème des résidus. Il y a des différences, le produit point par point ne préserve pas l'holomorphie, les pôles sont d'ordre un, l'espace des formes holomorphes est de dimension double du genre. On définit une carte comme étant semi-critique si d'une fonction holomorphe discrète $f$ et d'une carte locale plate $Z$ on peut faire une $1$-forme fermée $fdZ$ et critique si $fdZ$ est holomorphe. Cette classe contient les réseaux mais bien plus. Une suite convergente de fonctions holomorphes discrètes sur une suite convergente de cartes critiques a pour limite une fonction holomorphe sur la surface de Riemann. Dans le cas des réseaux triangulaires et carrés, on démontre que la criticité statistique d'Ising équivaut à notre criticité pour une structure conforme reliée aux constantes d'intéraction. On définit une équation de Dirac sans masse, l'existence d'une solution équivaut à la criticité. Le spineur de Dirac permet alors de décomposer le fermion d'Ising en une partie holomorphe et une partie antiholomorphe.
APA, Harvard, Vancouver, ISO, and other styles
46

Rossi, Louis Frank, and Louis Frank Rossi. "A spreading blob vortex method for viscous bounded flows." Diss., The University of Arizona, 1993. http://hdl.handle.net/10150/186562.

Full text
Abstract:
In this dissertation, I introduce a vortex method that is generally applicable to any two-dimensional, incompressible flow with or without boundaries. This method is deterministic, accurate, convergent, naturally adaptive, geometry independent and fully localized. For viscous flows, the vorticity distribution of each vortex element must evolve in addition to following a Lagrangian trajectory. My method relies upon an idea called core spreading. Core spreading is inconsistent by itself, but I have corrected it with a deterministic process known as "vortex fission" where one "fat" vortex is replaced by several "thinner" ones. Also, I examine rigorously a method for merging many blobs into one. This process maintains smaller problem sizes thus boosting the efficiency of the vortex method. To prove that this corrected core spreading method will converge uniformly, I adapted a continuous formalism to this grid-free scheme. This convergence theory does not rely on any form of grid. I only examine the linear problem where the flow field is specified, and treat the full nonlinear problem as a perturbation of the linear problem. The estimated rate of convergence is demonstrated to be sharp in several examples. Boundary conditions are approximated indirectly. The boundary is decomposed into a collection of small linear segments. I solve the no-slip and no-normal flow conditions simultaneously by superimposing a potential flow and injecting vorticity from the boundary consistent with the unsteady Rayleigh problem. Finally, the ultimate test for this new method is to simulate the wall jet. The simulations produce a dipole instability along the wall as observed in water tank and wind tunnel experiments and predicted by linear stability analysis. Moreover, the wavelength and height of these simulations agree quantitatively with experimental observations.
APA, Harvard, Vancouver, ISO, and other styles
47

Lu, Nan. "La modélisation de l'indice CAC 40 avec le modèle basé agents." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC0004/document.

Full text
Abstract:
Nous développons un modèle basé agents pour reproduire deux anomalies fréquemment observées sur les marchés financiers : distribution leptokurtique des rendements et ampleur de la volatilité irrégulière mais persistante de ces mêmes rendements. Notre but est de montrer de façon probante que ces anomalies pourraient être attribuées à une formation mimétique des anticipations des intervenants sur les marchés. Nous nous éloignons des développements récents dans le domaine des modèles modèles basés agents en finance pour proposer un modèle très simple, estimé à partir des traits statistiques saillants de l’indice français journalier CAC 40. L’hypothèse d’anticipations mimétiques peut ainsi être testée : elle n’est pas rejetée dans notre modélisation
We develop an agent-based model to replicate two frequently observed anomalies in the financial markets: the fat tails and the clustered volatility of the distribution of the returns. Our goal is to show conclusively that these anomalies could be attributed to a mimetic formation of the expectations of the stakeholders in the markets. We did not follow the rencent developpments in the field of the ACE model in the finance, but we propose a very simple model which is estimated from the stylized facts of the French daily index CAC 40. The hypothesis of mimetic anticipations can thus be tested: it is not rejected in our modeling
APA, Harvard, Vancouver, ISO, and other styles
48

Van, Bloemenstein Chantell Berenice. "Petrographic characterization of sandstones in borehole E-BA1, Block 9, Bredasdorp Basin, Off-Shore South Africa." Thesis, University of the Western Cape, 2006. http://etd.uwc.ac.za/index.php?module=etd&action=viewtitle&id=gen8Srv25Nme4_5957_1189147269.

Full text
Abstract:

The reservoir quality (RQ) of well E-BA1 was characterized using thin sections and core samples in a petrographic study. Well E-BA1 is situated in the Bredasdorp Basin, which forms part of the Outeniqua Basin situated in the Southern Afircan offshore region. Rifting as a result of the break up of Gondwanaland formed the Outeniqua Basin. The Bredasorp Basin is characterized by half-graben structures comprised of Upper Jurassic, Lower Cretaceous and Cenozoic rift to drift strata. The current research within the thesis has indicated that well E-BA1 is one of moderate to good quality having a gas-condensate component.

APA, Harvard, Vancouver, ISO, and other styles
49

Ortiz, Pablo Chaves Ortiz. "Aliança do Pacífico: uma visão do bloco através do modelo gravitacional." Universidade do Vale do Rio dos Sinos, 2015. http://www.repositorio.jesuita.org.br/handle/UNISINOS/4871.

Full text
Abstract:
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2015-10-21T12:42:10Z No. of bitstreams: 1 PABLO CHAVES ORTIZ_.pdf: 463828 bytes, checksum: e88392b8026ccd01016ffae992b7bb3b (MD5)
Made available in DSpace on 2015-10-21T12:42:10Z (GMT). No. of bitstreams: 1 PABLO CHAVES ORTIZ_.pdf: 463828 bytes, checksum: e88392b8026ccd01016ffae992b7bb3b (MD5) Previous issue date: 2015-07-29
Nenhuma
A partir da década de 1990, houve uma proliferação de Acordos Preferenciais de Comércio (APC) ao redor do mundo. Dentro deste cenário de mudança do comércio mundial, a América Latina foi um importante ator na criação de novos acordos. Entretanto, devido a histórica instabilidade política e econômica da região, nunca houve uma integração de fato, devido principalmente ao caráter protecionista dos países. Nesse sentido, a Aliança do Pacífico (Chile, Colômbia, Peru e México) vem com uma proposta de integração econômica diferente, com objetivo de unir suas economias ainda mais e estar aberta às negociações comerciais com terceiros países. O objetivo deste estudo é estimar o comércio bilateral potencial entre os países membros da Aliança do Pacífico, através do modelo gravitacional de comércio por meio de dados em painel com efeitos fixos para o ano de 2013, com uma amostra de 98 países. Os resultados mostraram que o comércio estimado para o ano de 2013 ficou apenas 1% abaixo do comércio efetivo, o equivalente a US$ 240,6 milhões. A análise por par de países mostrou que o mais beneficiado com a criação da AP seria o México, expandindo consideravelmente suas importações e exportações.
From the 1990s, there was a proliferation of Preferential Trade Agreements (APC) around the world. Within this world trade change of scenery, Latin America was a key player in the creation of new agreements. However, due to historical political and economic instability in the region, there has never been an integration, mainly due to the protectionist nature of countries. In this sense, the Pacific Alliance (Chile, Colombia, Peru and Mexico) comes with a proposal for a different economic integration, aiming to unite their economies further and be open to trade negotiations with third countries. The aim of this study is to estimate the bilateral trade potential between the member countries of the Pacific Alliance (PA), through the gravitational trade model in panel data with fixed effects for year 2013, with a sample of 98 countries. The results showed that the estimated trade for the year 2013 was only 1% below the actual trade, equivalent to US $ 240.6 million. Analysis by pair of countries showed that most benefited from the creation of the Pacific Alliance would be Mexico, considerably expanding its imports and exports.
APA, Harvard, Vancouver, ISO, and other styles
50

Ortiz, Pablo Chaves. "Aliança do Pacífico : uma visão do bloco através do modelo gravitacional." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2015. http://hdl.handle.net/10183/171709.

Full text
Abstract:
A partir da década de 1990, houve uma proliferação de Acordos Preferenciais de Comércio (APC) ao redor do mundo. Dentro deste cenário de mudança do comércio mundial, a América Latina foi um importante ator na criação de novos acordos. Entretanto, devido a histórica instabilidade política e econômica da região, nunca houve uma integração de fato, devido principalmente ao caráter protecionista dos países. Nesse sentido, a Aliança do Pacífico (Chile, Colômbia, Peru e México) vem com uma proposta de integração econômica diferente, com objetivo de unir suas economias ainda mais e estar aberta às negociações comerciais com terceiros países. O objetivo deste estudo é estimar o comércio bilateral potencial entre os países membros da Aliança do Pacífico (AP), através do modelo gravitacional de comércio por meio de dados em painel com efeitos fixos para o ano de 2013, com uma amostra de 98 países. Os resultados mostraram que o comércio estimado para o ano de 2013 ficou apenas 1% abaixo do comércio efetivo, o equivalente a US$ 240,6 milhões. A análise por par de países mostrou que o mais beneficiado com a criação da AP seria o México, expandindo consideravelmente suas importações e exportações.
From the 1990s, there was a proliferation of Preferential Trade Agreements (APC) around the world. Within this world trade change of scenery, Latin America was a key player in the creation of new agreements. However, due to historical political and economic instability in the region, there has never been an integration, mainly due to the protectionist nature of countries. In this sense, the Pacific Alliance (Chile, Colombia, Peru and Mexico) comes with a proposal for a different economic integration, aiming to unite their economies further and be open to trade negotiations with third countries. The aim of this study is to estimate the bilateral trade potential between the member countries of the Pacific Alliance (PA), through the gravitational trade model in panel data with fixed effects for year 2013, with a sample of 98 countries. The results showed that the estimated trade for the year 2013 was only 1% below the actual trade, equivalent to US $ 240.6 million. Analysis by pair of countries showed that most benefited from the creation of the Pacific Alliance would be Mexico, considerably expanding its imports and exports.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography