Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Coded gaze.

Dissertationen zum Thema „Coded gaze“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Coded gaze" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Victorin, Karin. „AI as Gatekeepers to the Job Market : A Critical Reading of; Performance, Bias, and Coded Gaze in Recruitment Chatbots“. Thesis, Linköpings universitet, Tema Genus, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-177257.

Der volle Inhalt der Quelle
Annotation:
The topic of this thesis is AI recruitment chatbots, digital discrimination, and data feminism (D´Ignazio and F.Klein 2020), where I aim to critically analyze issues of bias in these types of human-machine interaction technologies. Coming from a professional background of theatre, performance art, and drama, I am curious to analyze how using AI and social robots as hiring tools entails a new type of “stage” (actor’s space), with a special emphasis on social acting. Humans are now required to adjust their performance and facial expressions in the search for, and approval of, a new job. I will use my “theatrical glasses” with an intersectional lens, and through a methodology of cultural analysis, reflect on various examples of conversational AI used in recruitment processes. The silver bullet syndrome is a term that points to a tendency to believe in a miraculous new technological tool that will “magically” solve human-related problems in a company or an organization. The captivating marketing message of the Swedish recruitment conversational AI tool – Tengai Unbiased – is the promise of a scientifically proven objective hiring tool, to solve the diversity problem for company management. But is it really free from bias? According to Karen Barad, agency is not an attribute, but the ongoing reconfiguration of the world influenced by what she terms intra-actions, a mutual constitution of entanglement between human and non-human agencies (2003:818). However, tech developers often disregard their entanglement of human-to-machine interferences which unfortunately generates unconscious bias. The thesis raises ethical questions of how algorithmic measurement of social competence risks holding unconscious biases, benefiting those already privileged or those acting within a normative spectrum.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Carlin, Johan D. „Pattern codes for perceived gaze direction revealed by functional MRI“. Thesis, University of Cambridge, 2012. https://www.repository.cam.ac.uk/handle/1810/243495.

Der volle Inhalt der Quelle
Annotation:
Perceiving the direction of another's attention is a critical component of normal social behaviour. Seminal electrophysiology studies demonstrated that single cells in macaque superior temporal sulcus (STS) are tuned to specific directions of social cues, including gaze direction, head view, and body posture. Furthermore, a subset of such neurons respond to a single direction across multiple cues, suggesting that the code is driven by the direction of another's social attention regardless of how this is conveyed. Attempts to reveal similar gaze representations in humans using fMRI have provided mixed results. This thesis describes research where multivariate pattern analysis (MVPA) methods are applied to fMRI data in order to better explain how the human brain and particularly STS codes perceived gaze direction. After describing the MVPA methods applied in this thesis, I first demonstrate that fMRI response patterns in anterior STS distinguish between the direction of dynamic head turns, but not between the direction of rotation in non-social ellipsoids. In subsequent work, anterior STS is found to code the direction of another's gaze in a head view-invariant manner, thus demonstrating a potential parallel to previous macaque evidence for single cells that code the direction of another's attention. However, comparisons that run both across species (macaque, human) and methods (electrophysiology, fMRI) are problematic. To overcome this limitation I next tested whether macaque STS distinguishes gaze direction and head view when responses are measured with fMRI. In conclusion, this thesis demonstrates the utility of applying MVPA to fMRI data to reveal socially-relevant representations of the direction of another's attention. The thesis particularly highlights anterior STS as a key region in supporting direction-specific representations of social cues. These results advance our understanding of how the brain codes socially-relevant information, and highlight possible similarities and dissimilarities between humans and macaques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Ghaed, Zahra. „Code Reading Dojo: Designing an Educationally-oriented Mobile Application Aimed at Promoting Code Reading Skills“. Thesis, Virginia Tech, 2017. http://hdl.handle.net/10919/86189.

Der volle Inhalt der Quelle
Annotation:
In recent years, much attention has been directed to the use of educational games for learning computer science concepts. The motivation of game-based learning with positive experience has been deeply studied in the literature, but game design for improving code reading skills have much room for improvement. Being good at the reading code is important to a professional developer. To address this issue, we defined a new educationally-oriented mobile game application, aimed at promoting the development of code reading skills in a new and fun way. The strategy of this game is to find errors in pieces of codes. At each level, students should find all syntactic and semantic errors in the code in a certain time in order to advance to the next level. Of the numerous programming languages, we chose Java because it is one of the most popular programming languages. In many colleges, Java plays a major role in introductory courses. Our vision is to allow instructors to employ the game in their introduction to programming in Java course. In addition, we hope it could be adapted for use in introductory courses using different programming languages. Data collected during the project helps us evaluate the impact of game-based learning on code reading in programming languages. We asked undergraduate students at the department of computer science at Virginia Tech to play with the game during Spring 2017 semester. The collected data analyzed, and students believe that Code Reading Dojo improves their code reading skills in Java and overall programming ability, in additions to help them find errors in their own program.
Master of Science
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Brown, Jarrod P. „Field Programmable Gate Array Application for Decoding IRIG-B Time Code“. International Foundation for Telemetering, 2013. http://hdl.handle.net/10150/579691.

Der volle Inhalt der Quelle
Annotation:
ITC/USA 2013 Conference Proceedings / The Forty-Ninth Annual International Telemetering Conference and Technical Exhibition / October 21-24, 2013 / Bally's Hotel & Convention Center, Las Vegas, NV
A field programmable gate array (FPGA) is used to decode Inter-Range Instrumentation Group (IRIG) time code for a PC-based Time-Space-Position Information (TSPI) acquisition. The FPGA architecture can latch time via an external event trigger or a programmable periodic internal event. By syncing time with an external IRIG Group Type B (IRIG-B) signal and using an 8 megahertz (MHz) internal clock, captured time has 125 nanosecond (ns) precision. A Range Instrumentation Control System (RICS) application utilizing the FPGA design to capture IRIG time is presented and test results show matching time accuracy when compared to commercial IRIG time capture hardware components.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Morton, Alexander F. „Testing an Original Story in Multiple Artistic Mediums“. Digital Commons @ East Tennessee State University, 2015. https://dc.etsu.edu/honors/298.

Der volle Inhalt der Quelle
Annotation:
The Story is one of the oldest forms of communication between humans. Various methods have enhanced and updated the Art in a variety of ways since the concept was created. In modern times, a story can exist in multiple mediums because of the variations that humans use today to tell stories. I present an artistic project that will show my development of an original universe, plot, and characters into a storyline introduction for enjoyable purposes. The belief was that these ideas I created could succeed in multiple formats, but I would need to narrow it down and test what I had created. I chose two different mediums, a Written Narrative and a Video Game, as means to tell my story as much as I could within the time frame. By using the opinions of others, I’ll learn if either project can be successful in telling my story and which method offered the best experience with my particular story ideas to share with an individual.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Hedbäck, Andreas, und Deniz Ayar. „Expanding a Motion Controlled Game With Focus on Maintainability“. Thesis, Linköpings universitet, Institutionen för datavetenskap, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-149667.

Der volle Inhalt der Quelle
Annotation:
Motion controlled games can be a good physical activity for children, but the game has to be fun and engaging. We have, with a starting point in an existing base game, developed an achievement module which follows certain code standards to make it easier to understand, and to make hand overs of the code smoother. More work on the rest of the game has also been done to make it more engaging, while clean up of the existing code to follow the same standards.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Vijayakumar, Suresh Mikler Armin. „FPGA implementation of low density parity check codes decoder“. [Denton, Tex.] : University of North Texas, 2009. http://digital.library.unt.edu/permalink/meta-dc-11003.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Pang, Jing. „Direct global positioning system P-code acquisition field programmable gate array prototyping“. Ohio University / OhioLINK, 2003. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1177700503.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Vijayakumar, Suresh. „FPGA Implementation of Low Density Party Check Codes Decoder“. Thesis, University of North Texas, 2009. https://digital.library.unt.edu/ark:/67531/metadc11003/.

Der volle Inhalt der Quelle
Annotation:
Reliable communication over the noisy channel has become one of the major concerns in the field of digital wireless communications. The low density parity check codes (LDPC) has gained lot of attention recently because of their excellent error-correcting capacity. It was first proposed by Robert G. Gallager in 1960. LDPC codes belong to the class of linear block codes. Near capacity performance is achievable on a large collection of data transmission and storage.In my thesis I have focused on hardware implementation of (3, 6) - regular LDPC codes. A fully parallel decoder will require too high complexity of hardware realization. Partly parallel decoder has the advantage of effective compromise between decoding throughput and high hardware complexity. The decoding of the codeword follows the belief propagation alias probability propagation algorithm in log domain. A 9216 bit, (3, 6) regular LDPC code with code rate ½ was implemented on FPGA targeting Xilinx Virtex 4 XC4VLX80 device with package FF1148. This decoder achieves a maximum throughput of 82 Mbps. The entire model was designed in VHDL in the Xilinx ISE 9.2 environment.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Rutishauser, David. „Implementing Scientific Simulation Codes Tailored for Vector Architectures Using Custom Configurable Computing Machines“. Diss., Virginia Tech, 2010. http://hdl.handle.net/10919/26838.

Der volle Inhalt der Quelle
Annotation:
Prior to the availability of massively parallel supercomputers, the implementation of choice for scientific computing problems such as large numerical physical simulations was typically a vector supercomputer. Legacy code still exists optimized for vector supercomputers. Rehosting legacy code often requires a complete re-write of the original code, which is a long and expensive effort. This work provides a framework and approach to utilize reconfigurable computing resources in place of a vector supercomputer towards the implementation of a legacy source code without a large re-hosting effort. The choice of a vector processing model constrains the solution space such that practical solutions to the underlying resource constrained scheduling problem are achieved. Reconfigurable computing resources that implement capabilities characteristic of the applicationâ s original target platform are examined. The framework includes the following components: (1) a template for a parameterized, configurable vector processing core, (2) a scheduling and allocation algorithm that employs lessons learned from the mature knowledge base of vector supercomputing, and (3) the design of the VectCore co-processor to provide a low-overhead interface and control method for instances of the architectural template. The implementation approach applies the framework to produce VectCore instances tailored for specific input problems that meet resource constraints. Experimental data shows the VectCore approach results in efficient implementations with favorable performance compared to both general purpose processing and fixed vector architecture alternatives for the majority of the benchmark cases. Half the benchmark cases scale nearly linearly under a fixed time scaling model. The fixed workload scaling is also linear for the same cases until becoming constant for a subset of the benchmarks due to resource contention in the VectCore implementation limiting the maximum achievable parallelism. The architectural template contributed by this work supports established vector performance enhancing techniques such as parallel and chained operations. As the hardware resources are scaled, the VectCore approach scales the amount of parallelism applied in a problem implementation. In end-to-end hardware experiments, the VectCore co-processor overhead is shown to be small (less than 4%) compared to the schedule length.
Ph. D.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Esposito, Robert Anthony. „TURBO CODING IMPLEMENTED IN A FINE GRAINED PROGRAMABLE GATE ARRAY ARCHITECTURE“. Diss., Temple University Libraries, 2009. http://cdm16002.contentdm.oclc.org/cdm/ref/collection/p245801coll10/id/26071.

Der volle Inhalt der Quelle
Annotation:
Engineering
Ph.D.
One recent method to approach the capacity of a channel is Turbo Coding. However, a major concern with the implementation of a Turbo Code is the overall complexity and real-time throughput of the digital hardware system. The salient design problem of Turbo Coding is the iterative decoder, which must perform calculations over all possible states of the trellis. Complex computations such as exponentiations, logarithms and division are explored as part of this research to compare the complexity of the traditionally avoided maximum a-posteriori probability (MAP) decoder to that of the more widely accepted and simplified Logarithm based MAP decoder (LOG-MAP). This research considers the fine grained implementation and processing of MAP, LOG-MAP and a hybrid LOG-MAP-Log Likelihood Ratio (LLR) based Turbo Codes on a Xilinx Virtex 4 PGA. Verification of the Turbo Coding system performance is demonstrated on a Xilinx Virtex 4 ML402SX evaluation board with the EDA of the Xilinx System Generator utilizing hardware co-simulation. System throughput and bit error rate (BER) are the performance metrics that are evaluated as part of this research. An efficient system throughput is predicated by the parallel design of the decoder and BER is determined by data frame size, data word length and the number of decoding iterations. Furthermore, traditional and innovative stopping rules are evaluated as part of this research to facilitate the number of iterations required during decoding.
Temple University--Theses
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Byström, Adam. „From Intent to Code : Using Natural Language Processing“. Thesis, Uppsala universitet, Avdelningen för datalogi, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-325238.

Der volle Inhalt der Quelle
Annotation:
Programming and the possibility to express one’s intent to a machine is becoming a very important skill in our digitalizing society. Today, instructing a machine, such as a computer to perform actions is done through programming. What if this could be done with human language? This thesis examines how new technologies and methods in the form of Natural Language Processing can be used to make programming more accessible by translating intent expressed in natural language into code that a computer can execute. Related research has studied using natural language as a programming language and using natural language to instruct robots. These studies have shown promising results but are hindered by strict syntaxes, limited domains and inability to handle ambiguity. Studies have also been made using Natural Language Processing to analyse source code, turning code into natural language. This thesis has the reversed approach. By utilizing Natural Language Processing techniques, an intent can be translated into code containing concepts such as sequential execution, loops and conditional statements. In this study, a system for converting intent, expressed in English sentences, into code is developed. To analyse this approach to programming, an evaluation framework is developed, evaluating the system during the development process as well as usage of the final system. The results show that this way of programming might have potential but conclude that the Natural Language Processing models still have too low accuracy. Further research is required to increase this accuracy to further assess the potential of this way of programming.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Carlsson, Martin. „Automatic Code Generation from a Colored Petri Net Specification for Game Development with Unity3D“. Thesis, Uppsala universitet, Institutionen för speldesign, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-354159.

Der volle Inhalt der Quelle
Annotation:
This thesis proposes an approach for automatic code generation from a Colored Petri net specification. Two tools were developed for the aforementioned purpose, a Colored Petri net editor to create and modify Colored Petri nets, and an automatic code generator to generate code from a Colored Petri net specification. Through the use of the editor four models were created, these models were used as input to the automatic code generator. The automatic code generator successfully generated code from the Colored Petri net specification, code in the form of component scripts for the Unity3D game engine. However, the approach used by the code generator had flaws such as introducing overhead in the generated code, failing to deal with concurrency, and restricting the types of Colored Petri nets which could be used as input. The aforementioned tools could be used in the future to research the benefits and disadvantages of modeling game systems with Colored Petri nets, and automatically generating code from Colored Petri nets.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Pondini, Andrea. „Quantum error correction e toric code“. Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21053/.

Der volle Inhalt der Quelle
Annotation:
L'elaborato studia la Quantum Error Correction, ovvero quella branca del Quantum Computing che studia gli errori nella computazione e come correggerli. Questo campo è di fondamentale importanza nella costruzione di computer quantistici, in cui l'interazione con l'ambiente porta rumore alla computazione e perdita di coerenza degli stati del sistema. Particolare attenzione è posta nello studio degli Stabilizer Codes, una particolare categoria di Quantum Error Correcting Codes. Tra questi si studia il Toric Code, esempio peculiare di stabilizer code ordinato topologicamente. Le peculiarità del codice sono conseguenza della sua definizione su un reticolo immerso in una superficie toroidale, come suggerisce il nome.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Paris, Gabrielle. „Resolution of some optimisation problems on graphs and combinatorial games“. Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1180/document.

Der volle Inhalt der Quelle
Annotation:
J'ai étudié trois problèmes d'optimisation dans les graphes et les jeux combinatoires.Tout d'abord, les codes identifiants dans les graphes où les sommets font faces à des failles: les codes cherchent à repérer les failles pour les réparer. On s'est intéressé aux codes identifiants dans les graphes circulants en utilisant des plongements de ces graphes dans des grilles infinies.Ensuite, j'ai étudié le jeu de marquage de sommets et le jeu de coloration d'arêtes: ici deux joueurs se font face, le premier cherche à construire une coloration correcte (ou un marquage correct) et le deuxième cherche à l'en empêcher. Pour le jeu de marquage on s'est intéressé aux changements de stratégie gagnante lorsqu'on modifie le graphe. Pour le jeu de coloration d'arêtes on a donné une stratégie gagnante pour le premier joueur pourvu que le graphe considéré admette une certaine décomposition sur les arêtes. On améliore notamment des résultats sur les graphes planaires.Enfin j'ai étudié les jeux à tas purement de casse: deux joueurs à tour de rôle prennent un tas et le cassent en un certain nombre de tas non vides. On s'intéresse aux stratégies gagnantes lorsque les joueurs jouent sur un unique tas contenant n jetons. Ces jeux de pure casse semblent, à l'oeil nu, être réguliers. On a montré que c'est effectivement le cas pour certains et on a donné un test qui permet de déterminer la régularité cas par cas. Un seul cas ne semble pas correspondre à cette régularité: son comportement reste un mystère.En conclusion, je me suis intéressé à trois problèmes bilatéraux qui utilisent différentes méthodes et qui remplissent des propos différents dans le domaine de la combinatoire
I studied three optimization problems on graphs and combinatorial games.First, identifying codes were studied : vertices couteract faults. Identifying codes help locate the fault to repare it. We focused on circulant graphs by embedding them on infinite grids.Then, the marking and the coloring games were studied : two player games were one player wants to build something (a proper coloration or a proper marking) and the other wants to prevent the first player from doing so. For the marking game we studied the evolution of the strategy when modifying the graph. For the coloring game we defined a new edge-wise decomposition of graphs and we defined a new strategy on this decomposition that improves known results on planar graphs.In the end, I studied pure breaking games : two players take turns to break a heap of tokens in a given number of non-empty heaps. We focused on winning strategies for the game starting with a unique heap on n tokens. These games seem, on first sight, to be all regular : we showed this is the case for some of them and we gave a test to study one game at a time. Only one of these games does not seem to be regular, its behavior remains a mystery.To sum up, I studied three bilateral problems that use different methods and have different purposes in combinatorics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Benmedjadi, Abdelkader. „Etude des méthodes de simulations numériques par codes eulériens de Vlasov pour les plasmas chauds“. Nancy 1, 1991. http://docnum.univ-lorraine.fr/public/SCD_T_1991_0040_BENMEDJADI.pdf.

Der volle Inhalt der Quelle
Annotation:
Notre travail entre dans le cadre d'une étude numérique de la physique des plasmas, et, plus particulièrement la résolution numérique du système Vlasov-Poisson par codes eulériens. La fonction de distribution qui obéit à l'équation de Vlasov, possède la propriété d'osciller au cours du temps avec des longueurs d'onde de plus en plus petites, et fait apparaître des microstructures. D'un point de vue numérique, tout schéma est basé sur un échantillonnage de l'espace des phases avec une grille spatiale X et une grille dans l'espace des vitesses V. Il est évident que lorsque la microstructure devient aussi petite que XV, le code numérique ne peut plus suivre correctement la solution mathématique de l'équation de Vlasov. Il se produit un lissage (perte de la microstructure) dû à l'échantillonnage. D'un point de vue physique, nous avons montré que la perte de la microstructure n'influe pas sur le comportement physique ultérieur du plasma. L'étude de l'évolution au cours du temps de l'entropie du système ou plus généralement de la fonction H nous a permis de répondre à ces questions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Drouot, Thomas. „Étude de la turbulence liée aux particules piégées dans les plasmas de fusion“. Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0150/document.

Der volle Inhalt der Quelle
Annotation:
Les micro-instabilités ioniques et électroniques présentes dans les plasmas de fusion sont à l’origine de la turbulence. Le transport anormal de particules et d’énergie, induit par cette turbulence, joue un rôle néfaste pour les performances des machines à fusion nucléaire comme le tokamak. C’est dans ce cadre général que s’inscrit ce travail visant à une meilleure compréhension de la turbulence et des phénomènes de transport sous-jacents. On sait que la dynamique des particules piégées joue un rôle très important dans l’établissement de la turbulence au travers des instabilités ioniques TIM (Trapped Ion Modes) et électroniques TEM (Trapped Electron Modes). Nous nous attachons donc dans ce travail au développement d’un modèle décrivant ces particules piégées (ions et électrons) de manière cinétique. L’échelle de temps à laquelle nous nous plaçons est de l’ordre de la période de précession toroïdale des particules piégées, période typique de la turbulence TIM/TEM. L’originalité de ce modèle réside dans la réduction de la dimension du problème (de 6D à 4D) par la moyenne sur les deux échelles de temps rapides associées aux particules piégées, respectivement le mouvement cyclotronique et le mouvement de rebond. De plus, l’utilisation des variables d’angle et d’action permet de transformer deux variables en paramètres. Le modèle final ainsi obtenu est 4D, dont deux dimensions interviennent sous la forme de paramètres. L’analyse linéaire du modèle nous permet de connaître les gradients de température et de densité permettant le déclenchement des instabilités TIM et TEM. Il nous permet également de connaître les taux de croissance et les pulsations associés à ces deux instabilités. Ensuite, nous nous appuyons sur le code global TERESA 4D décrivant les ions piégés cinétiques pour y inclure la résolution non-linéaire du modèle décrivant les ions et les électrons piégés cinétiques. Les échelles spatio-temporelles de la turbulence induite par les électrons et celle induite par les ions étant du même ordre de grandeur, cela nous permet d’intégrer à ce code une réponse cinétique des électrons avec un très faible coût numérique supplémentaire par rapport à la version existante. A l’aide de ce nouveau code nous pouvons observer une turbulence générée à la fois par les TIM et les TEM, ceci avec peu de ressources numériques. Nous pouvons obtenir des turbulences présentant différentes structures typiques observées dans les tokamak. C’est le cas des écoulements zonaux et des streamers ayant un rôle majeur dans le transport de particules et d’énergie. En vue d’une meilleure compréhension, voire d’un meilleur contrôle du transport, l’influence de différents paramètres, comme la largeur banane ou le rapport de température ionique sur la température électronique, est étudiée
In tokamak plasmas, it is recognized that ion and electron micro- instabilities are held responsible for turbulence giving rise to anomalous transport. These limit particle and energy confinements in tokamak devices. This is the context of this work. The main objective is to have a better understanding of turbulence and thus of anomalous transport. It is known that the behaviour of trapped particles plays a major role in the development of turbulence via trapped ion mode (TIM) instability and trapped electron mode (TEM) instability. This work focus on the development of a model describing kinetic trapped particles (ions and electrons). The involved time scale is of the order of the trapped particle precession frequency which corresponds to characteristic frequency of TIM/TEM turbulence. The originality of this model is the reduction of the dimension from6D to 4D. This reduction is made by averaging over both the fast cyclotron motion and the bounce motion. In addition, using a set of action-angle variables allows one to deal with two parameters instead of two variables. The final model is 4D, dealing with two parameters and 2D space coordinates. The temperature and density gradients which trigger TIM and TEM instabilities are given by the linear analysis of the model. This analysis allows us to calculate the growth rates and frequencies associated with these instabilities. In order to solve the non-linear model describing both trapped kinetic ions and trapped kinetic electrons, we use the existing global code TERESA 4D including only trapped kinetic ions. The spatial and temporal scales associated to TIM and TEM turbulence are of the same order of magnitude. It allows us to include trapped electron kinetic response with very low numerical cost compared to the existing version. The TIM/TEM turbulence can be generated by this new code with low computational resources. Different typical structures observed in tokamak can be studied. This is the case of zonal flow and streamer structures which play a major role in anomalous transport. Finally, the influence of different parameters, such as banana width or electron to ion temperature ratio, is considered
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Villoing, Daphnée. „Apport du code Monte-Carlo GATE pour la dosimétrie en radiothérapie interne vectorisée : imagerie et calculs dosimétriques“. Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30180/document.

Der volle Inhalt der Quelle
Annotation:
En Radiothérapie Interne Vectorisée (RIV), l'estimation de la dose absorbée aux tumeurs et tissus sains est un outil d'évaluation. et d'optimisation du traitement. Ce travail de thèse a pour objet de déterminer l'apport du code Monte-Carlo GATE dans un contexte d'amélioration des pratiques dosimétriques en RIV. Dans le cadre du projet DosiTest, visant à identifier les étapes critiques de la chaîne dosimétrique au moyen d'une intercomparaison multicentrique virtuelle basée sur une modélisation Monte-Carlo, des jeux de données scintigraphiques ont ainsi été générés avec GATE pour deux patients virtuels (basés sur les modèles XCAT et CIPR 110) et deux radiopharmaceutiques (OctreoscanTM et LutatheraTM), selon une modélisation compartimentale de la biodistribution. Après une étude de validation de GATE pour des applications de dosimétrie clinique en médecine nucléaire - par la comparaison avec le code MCNPX - des calculs dosimétriques de référence ont été réalisés avec GATE
In Targeted Radionuclide Therapy (TRT), assessing the absorbed dose delivered to tumours and healthy tissues participates to the evaluation and optimisation of the therapy. This PhD work investigates the input of Monte Carlo code GATE as a toolkit for applications in internal dosimetry in a context of improvement of dosimetric methods. Within DosiTest project, which aims at evaluating the impact of the various steps contributing to the realization of a dosimetric study by means of a virtual multi-centric inter-comparison based on Monte-Carlo modelling, scintigraphic datasets were generated with GATE for two virtual patients (using XCAT and ICRP 110 models), for two different radiopharmaceuticals (OctreoscanTM and LutatheraTM) following a compartmental modelling of biodistribution. After a validation study of GATE for clinical internal dosimetry applications by a comparison with radiation transport code MCNPX, reference dosimetric calculations were performed with GATE
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Zaslavsky, Arnaud. „Interactions résonantes ondes-particules dans les plasmas magnétisés : phénomènes liés au piégeage de particules par des ondes“. Paris 11, 2007. http://www.theses.fr/2007PA112167.

Der volle Inhalt der Quelle
Annotation:
Un modèle théorique hamiltonien a été développé en 2003 par Volokitin et Krafft, dans le but de modéliser l'interaction entre les modes propres électrostatiques d'un plasma magnétisé et des flux de particules chargées se propageant dans ce plasma. Un code numérique « symplectique » a été réalisé pendant cette thèse, résolvant les équations du modèle et permettant l'intégration numérique du système avec une grande fiabilité sur de grands intervalles de temps. Ce modèle, et le code numérique associé, ont été utilisé dans le cadre de l'étude de trois problèmes physiques : (i) Nous avons montré, en nous appuyant sur l'étude des trajectoires de particules dites « stochastiques », que celles-ci échangeaient en moyenne de l'énergie avec une onde déstabilisée par instabilité « bump-in-tail », conduisant à la croissance de l'amplitude de cette onde après la saturation de l'instabilité. (ii) Nous avons étudié la situation où deux ondes de vitesses de résonances égales (ou très proches) interagissent avec une distribution électronique quelconque. La dynamique des particules dans le champ induit un couplage entre les modes, manifesté par l'occurence d'échanges périodiques d'énergie qui ont été observés et décrits analytiquement dans notre travail. (iii) Nous avons enfin étudié les aspects linéaires et non-linéaires de la déstabilisation d'ondes hybrides-basses à la résonance cyclotron par des distributions de type « cône de perte », fréquemment observées dans les plasmas magnétisés (magnétosphère, vent solaire, machines de confinement à miroirs magnétiques)
A theoretical hamiltonian model has been developped by Volokitin and Krafft (2003), having for purpose the understanding of the interaction between the collective electrostatic modes of a magnetized plasma and fluxes of energetic particles propagating inside this plasma. A first part of this thesis work consisted in the realization of a numerical symplectic code, allowing us to solve the model's equations with a high accuracy on very long integration times. This model, and the related symplectic code, have been used in the frame of three original plasma physics problems : (i) Interesting ourselves in the non-linear phase of the bump-on-tail instability of a single wave, we showed that the dynamics of the particles in the stochastic layer were responsible for a transfer of energy from the particles to the wave, and thus for the observed growth of the wave amplitude. (ii) We studyied the situation in which two waves propagating with the same (or very close) resonant velocities interact with an electron beam. The charged particles dynamics in the electric field induces a coupling between the waves, resulting in low frequency energy exchanges that have been analytically studyied in this work. (iii) We studyied the linear and non-linear phases of the destabilization of a lower hybrid wave at the cyclotron resonance by energetic electrons presenting a « loss-cone » shaped distribution. Such distributions are frequently observed in magnetic trap devices (magnetosphere, solar wind, open ended containment machines)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Barrios, Piña Héctor Alfonso. „Développement d'un code de calcul non Boussinesq dédié aux écoulements de gaz chauffé de convection naturelle“. Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX30015.

Der volle Inhalt der Quelle
Annotation:
L'analyse numérique des écoulements des gaz chauffés, particulièrement à faible vitesse, est souvent réalisée à partir d'hypothèses restrictives (approximation de Boussinesq et approximation à faible nombre de Mach). Ces hypothèses restrictives décrivent les écoulements d'un gaz plus ou moins tronqué de sa réalité physique et ne sont pas toujours faciles à valider. C'est pourquoi le principal objectif de ce travail est de mettre en œuvre un outil numérique qui permette de tester les hypothèses utilisées. Pour cela, un code de simulation numérique à masse volumique variable est entièrement développé pour l'étude des écoulements des gaz chauffés en régime de convection naturelle, forcée ou mixte, laminaire ou de transition. Les équations de bilan dynamique et énergétique sont résolues sans approximation restrictive, en milieu non radiatif et sans apport significatif de chaleur par dissipation de l'énergie cinétique. La loi des gaz parfaits est utilisée comme loi d'état. La résolution du système d'équations discrètes repose sur un algorithme de type prédiction-correction en utilisant des différences finies centrées pour la discrétisation spatiale et la méthode de Crank-Nicolson pour la discrétisation temporelle. La démarche numérique est validée à l'aide de solutions analytiques et de la cavité différentiellement chauffée. Ensuite, différents types d'écoulements présentant une difficulté croissante à la fois du point de vue numérique et physique sont traités et discutés. Ces configurations évoluent sur le plan de la physique d'un milieu confiné (cavité fermée différentiellement chauffée), puis un milieu semi-confiné (canal avec une marche), jusqu'à un milieu ouvert (jet plan libre)
Numerical analyses of heated gas flows, particularly at low speeds, are often performed with the aid of simplifying assumptions. These restrictive assumptions represent the flow of a gas somewhat truncated in its real state and are not easy to validate. Therefore, the main objective of this work is to develop a numerical tool to validate the commonly used approximations. For this reason, a numerical code for variable-density flows is fully developed to study heated gases in natural, forced or mixed convection, in both laminar and transitional flow regimes. The dynamic and energy conservation equations are solved without simplifying assumptions (such as the Boussinesq approximation and the low Mach number approximation), in a non-radiative field and with negligible viscous dissipation. The ideal gas law is used as state law. The coupled set of equations is solved with an iterative predictor-corrector algorithm, which uses a second-order finite difference formulation for the spatial discretization, and the Crank-Nicolson method for the time discretization. The numerical method is validated using analytical solutions as well as the differentially heated cavity problem. Three flows of increasing numerical and physical complexity are then investigated. These flows physically progress from a confined flow (differentially heated closed cavity), then a semi-confined flow (backward facing step) to an open flow (a free-plane jet)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Oliveira, Eder Diego de. „Modelo GAIA Abstração Game : o poder do jogo como ferramenta mediadora do processo de ensino-aprendizagem“. Universidade Estadual de Londrina. Centro de Ciências Exatas. Programa de Pós-Graduação em Ciência da Computação, 2017. http://www.bibliotecadigital.uel.br/document/?code=vtls000211642.

Der volle Inhalt der Quelle
Annotation:
Com a chegada das novas tecnologias e das mudanças geradas por elas, viu-se a necessidade de entendê-las e utilizá-las como aliadas na busca de mecanismos que possam auxiliar tanto o aluno quanto o professor no processo de ensino-aprendizagem. Diante desse cenário, esta pesquisa apresenta um modelo de desenvolvimento que visa auxiliar professores e desenvolvedores na elaboração de jogos educacionais. Esse modelo é denominado Modelo Gaia Abstração Game, que emprega as técnicas dos jogos cooperativos e a teoria da aprendizagem significativa para o desenvolvimento dos jogos. Como estudo de caso, utilizou-se o modelo para desenvolver o jogo Gaia Abstração Game OO, que tem como objetivo auxiliar o processo de ensino-aprendizagem do paradigma da Orientação a Objetos, cujo conceito é um dos mais complexos da computação atual. Por ser um paradigma que trabalha muito com a abstração e a classificação dos objetos, nem sempre fica claro para os alunos, embora seja fundamental para a aprendizagem das disciplinas iniciais dos cursos de informática. Este trabalho está fundamentado nas pesquisas de autores que abordam a importância dos jogos como mecanismo facilitador da aprendizagem. As principais contribuições deste trabalho são: destacar que o jogo pode contribuir para despertar o interesse do aluno; tornar as aulas dinâmicas e atrativas; fazer com que os alunos acumulem conhecimento de forma lúdica e prazerosa; facilitar a mediação do conhecimento; criar um ambiente de cooperação mútua entre os alunos, tendo como base o estímulo para o seu desenvolvimento integral.
With the diffusion of new technology and the impact they caused, it became necessary to understand and use them in searching for ways to help both students and teachers in the teaching and learning processes. In this context, this research presents a development model that aims to assist teachers and developers in the elaboration of educational games. This model is named Model Gaia Abstraction Game, which employs cooperative gaming techniques and the theory of meaningful learning in order to support game development. As a case study, the model was used in the development of Gaia Abstraction Game OO, which aims to assist the teaching and learning process of the Object Orientation paradigm – one of the most complex concepts in current computing theory. Since this paradigm works mostly with objects abstraction and classification, the concept is not always clear for the students, even though it is core for the initial subjects in computing courses. This study is grounded on researches of authors who approach the importance of games as facilitators in the learning process. The major contributions provided by this study are: stress that the game can help arouse students’ interest; make the classes dynamic and appealing; help students learn in a playful and pleasurable way; facilitate the mediation of knowledge; and create a mutual cooperation environment among students, promoting their full development through motivation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Coupechoux, Pierre. „Codes et jeux de soustraction et de poursuite dans les graphes“. Thesis, Toulouse, INSA, 2018. http://www.theses.fr/2018ISAT0016/document.

Der volle Inhalt der Quelle
Annotation:
Les codes identifiants ont été introduits en 1998 par Karpovsky, Chakrabarty et Levitin. Un code identifiant est un sous-graphe tel que chaque sommet est identifié de manière unique par les sommets du code qui l'entourent. Il existe plusieurs variantes de ces codes, dont notamment une version colorée dans laquelle les sommets sont identifiés par les couleurs dans leur voisinage. Dans cette thèse, nous cherchons en particulier à construire un cycle le plus grand possible qui admette une coloration identifiante, étant donné un nombre de couleurs fixé. Nous avons aussi étudié le problème des codes identifiants sur une classe particulière de graphes orientés : les tournois. Dans une seconde partie, nous avons aussi étudié deux jeux particuliers. Le premier est une généralisation des jeux octaux - qui se jouent normalement sur un tas - aux graphes. Plus précisemment, le jeu 0.33 ; chaque joueur peut retirer un ou deux sommets voisins d'un graphe, sans déconnecter ce dernier. Le premier qui ne peut plus jouer perd. Nous avons été capable de caractériser les issues de ce jeu dans des classes de graphes particulières, les étoiles subdivisées et les bi-étoiles subdivisées. Le second jeu est appelé le jeu du Pompier (Firefighter). Il consiste à arrêter un feu qui se propage dans un graphe en protégeant des sommets à chaque tour. Nous avons résolu une conjecture sur ce jeu, et introduit la version online, pour laquelle nous avons pu donner des résultats d'approximation
Identifying codes were introduced in 1998 by Karpovsky, Chakrabarty and Levitin. An identifying code is a subgraph such that each vertex is uniquely identified by the vertices in its neighborhood. There are several variants of these codes, including a colored version where the vertices are identified by the colors in their neighborhood. In this phd, we want to build an identifying coloring of a large cycle, given a fixed number of colors. We also studied identified codes in a certain class of oriented graphs: tournaments. We have also studied some topics in the game theory. The first one is a generalization of octal games, where we play on a graph instead of a heap. More precisely, the 0.33 game; each player can remove one or two vertices in a graph, with no disconnection allowed. The first player who cannot play loses. We studied this game in some graph classes: subdivided stars and subdivided bistars. The other game is called the Firefighter game. It's a one player game, where this one wants to contain a spreading fire in a graph. We solved a conjecture about this game, and introduced the online version of the game, for which we found some approximation results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Thiaucourt, Jonas. „Méthodes et modèles pour l’étude de faisabilité des navires propulsés au gaz naturel liquéfié“. Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0032/document.

Der volle Inhalt der Quelle
Annotation:
Rapporté à la tonne de fret, le trafic maritime est un mode de transport relativement « propre ». Néanmoins, par l’intensification des échanges mondiaux, sa part dans les émissions de Gaz à Effet de Serre (GES) au niveau mondial est appelée à augmenter. Conscients des effets néfastes associés aux GES, les pays membres des nations unies, via l’organisation maritime internationale, imposent le cadre réglementaire pour que ce secteur, vital dans une économie mondialisée, demeure écologiquement acceptable. Des objectifs ambitieux sont établis à court (2020) et moyen terme (2050). Or, d’après l’hypothèse faible de Porter, fixer des objectifs environnementaux sans imposer les moyens à mettre en oeuvre favorise l’innovation. Aussi, dans l’industrie du « shipping », les solutions fleurissent au premier rang desquelles figure l’emploi du Gaz Naturel Liquéfié (GNL) en tant que combustible. D’un point de vue thermodynamique, les inévitables infiltrations thermiques à travers les parois des réservoirs cryogéniques entraînent une variation de la pression dans le réservoir et des fluctuations de la qualité du gaz à l’admission moteur. Selon le schéma d’exploitation navire, ces deux phénomènes impactent significativement la pertinence de l’option GNL. En réponse, cette thèse propose un ensemble de modèles 0D pour, à partir d’un profil opérationnel, évaluer :1. l’évolution de la pression dans les réservoirs ;2. l’évolution de la qualité du gaz à l’admission moteur.Dans une première partie, des modèles sont proposés pour simuler les infiltrations thermiques à travers le réservoir, l’évaporation du GNL, son vieillissement (altération des propriétés du gaz par évaporation différenciée des composés) et l’évolution du taux de méthane à l’admission moteur. Puis, les modèles sont assemblés à travers une étude de cas apportée par un acteur du transport maritime
In proportion to the ton of cargo, shipping is a relatively “clean” transportation mode. Nevertheless, due to global trade intensification, its share in the global greenhouse gas (GHG) emissions should increase. Aware that GHG adverse effects are a major concern for humanity, united nation member states impose, via the international maritime organization, a regulatory framework so that this vital sector in a global economy remains sustainable. Short (2020) and medium (2050)-term goals are set. According to the weak version of Porter’s hypothesis, strict environmental regulations encourage innovations. Hence, in the shipping industry solutions flourish among which the use of Liquefied Natural Gas (LNG) as a fuel. On a thermodynamic basis, the unavoidable heat leaks into the cryogenic tanks cause variations of the tank pressure and the natural gas quality at engine inlet. Depending on the ship’s operational profile, those two phenomena will impact significantly the LNG as a fuel option relevance. One major bottleneck slowing the uptake of LNG as a marine fuel is the lack of methods and models to perform, at a concept design level, the feasibility study. In response, this thesis proposes 0D models to assess from the operational profile:1. the tank pressure evolution;2. the gas quality evolution at engine inlet.In the first part, models are proposed to simulate heat leaks into the tanks, LNG vaporization, ageing (the alteration of natural gas thermophysical properties by a differentiate vaporization of its compounds) and methane number evolution at engine inlet. Then, the models are put together and applied on a case study. The ship concept is proposed by a freight company
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Eichert, Pascale. „Etude de l'écoulement gazeux, au sein et à l'extérieur d'une torche de projection à plasma d'arc soufflé, à l'aide du code PHOENICSTm“. Besançon, 1996. http://www.theses.fr/1996BESA2063.

Der volle Inhalt der Quelle
Annotation:
Les travaux développés dans cette étude ont visé à modéliser les écoulements de jets de plasmas thermiques utilisé&s habituellement en projection à la torche à plasma d'arc soufflé à l'aide du code de calcul PHOENICSTm. La détermination des différents paramètres de l'étude a été réalisé à travers une recherche bibliographique, à savoir, par exemple, les hypothèses simplificatrices, le domaine d'étude, les conditions aux limites et les propriétés du mélange de gaz étudié. La modélisation de l'écoulement, depuis l'injection des gazs froids au sein de la buse jusqu'à l'éjection du plasma, ne nécessite pas l'utilisation d'équations de conservation des espèces chimiques car l'hypothèse d'un écoulement à l'équilibre chimique permet d'employer des données de la littérature où les grandeurs thermodynamiques et les coefficients de transport du mélange étudié (argon-hydrogène) ont été calculés à partir de la composition à l'équilibre du mélange et donnés en fonction de la température et pour la pression atmosphérique. Les équations de bilan sont discréditées par une approche de type volumes finis et le système d'équations algébriques non-linéaire et couplé est résolu à l'aide de l'algorithme SIMPLEST implanté dans le code. La confrontation des résultats avec des données de la littérature montre un bon accord dans la prédiction des écoulements. L'application du modèle est réalisée par l'étude de l'influence de la valeur de la puissance électrique sur l'écoulement. Les caractéristiques des jets libres thermiques subsoniques ainsi que les évolutions des grandeurs (température et vitesse) dans les directions axiale et radiale sont comparées aux observations puisées dans la littérature. L'estimation de l'entraînement de fluide ambiant dans les jets apporte un complément d'information. La difficulté d'approximation de la forme des profils radiaux en sortie de buse par des expressions mathématiques classiques est mise en évidence
The present work was devoted to the modeling of flows of plasma jets often used within the D. C. Plasma spraying technology by implementation of the CFD PHOENICSTm code. The definition of the different parameters of the study was made through the literature search, for example concerning the assumptions, the studied domain, the boundary conditions and the gas mixtures properties. The flow modelling, from the cold gases injection into the torch to the plasma ejection, not necessitates the use of equations of chemical species conservation because of the chemical equilibrium assumption which permits to use data from the literature where the thermodynamic data and the transport coefficients have been calculated from the chemical composition of gas mixtures and are given in function of the temperature and for the atmospheric pressure. The conservation equations are discretized by a finite volume approach and the non-linear and coupled set of algebraic equations is solved using the SIMPLEST algorithm implemented into the code. The comparison of the results with data from the literature shows a good agreement for the flow prediction of plasma jets. The model is applied to the study of the electric power value influence on the flow. The free thermal subsonic jets characteristics (temperature and velocity) are compared to observations taken from the literature. The study of the ambient gas entrainment gives a complementary information. The difficulty of approximation of the radial profiles at the torch exit by simple relationships is also put into evidence
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Bourgeois, Pierre-Louis. „Modélisation de sources X générées par interaction laser-plasma en régime relativiste“. Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX073.

Der volle Inhalt der Quelle
Annotation:
Lors de la propagation d'une impulsion laser ultra courte, ultra intense dans un gaz de faible densité, un plasma est créé et une partie des électrons vont pouvoir être accélérés grâce à la technique de sillage laser à des énergies de plusieurs GeV en quelques centimètres.Ces électrons, lors de leur accélération, émettent un rayonnement X appelé bêtatron, qui est fortement collimaté et possède de très bonnes propriétés spatiales et temporelles, lui donnant de nombreuses applications dont l'imagerie ultra-haute résolution.Dans cette thèse, on étudie comment améliorer les outils numériques utilisés pour simuler ces phénomènes physiques : les codes Particle-In-Cell (CALDER). On s'intéresse notamment à un artefact numérique appelé rayonnement Cherenkov numérique, qui survient lorsque les particules accélérés se déplacent à des vitesses proches de la vitesse de la lumière dans le vide.On démontre que cet artefact a un effet néfaste sur le comportement du faisceau d'électrons accélérés, en particulier sur son mouvement transverse, ce qui conduit à des erreurs importantes sur le calcul du rayonnement bêtatron à partir des simulations PIC. On propose alors une nouvelle approche pour limiter l'impact de ce rayonnement Cherenkov numérique sur les simulations d'accélération par sillage laser en modifiant la méthode d'interpolation des champs habituellement utilisée dans un code PIC. Les résultats obtenus avec cette nouvelle technique mettent en évidence une nette amélioration de la modélisation du mouvement des électrons, qui se rapproche du comportement attendu théoriquement. Fort de ces premiers résultats, d'autres applications de cette technique sont ensuite explorées, pour améliorer la modélisation des sources bêtatron, de l'accélération par laser dans le vide ou de l'accélération directe par laser.La plus grande précision sur le calcul du mouvement transverse des particules qu'apporte cette nouvelle méthode permet d'améliorer les résultats mais aussi d'étudier des phénomènes physiques aux effets subtils qui sont autrement cachés par le bruit numérique des simulations
When an ultra-short ultra-intense laser impulsion propagates through a low density gas jet, a plasma is created and a bunch of electrons can be accelerated through laser wakefield acceleration to Gev energies in only a few centimetres. Those accelerated electrons then emit what is called Betatron radiation: a highly focused X-ray source with extremely good spatial and temporal properties, which has a lot of possible applications including ultra-high resolution imaging.In this thesis, we investigate possible improvements to one of the main numerical tools used to simulate those phenomenons: the Particle-In-Cell codes (CALDER). We have especially studied a numerical artefact called the numerical Cherenkov radiation, that occurs when relativistic particles move at speeds aproaching the speed of light in a vaccuum.We show that this artefact has a negative impact on the behaviour of the accelerated electron beam, especially on its transverse motion, which leads to important errors on the betatron radiation calculated using PIC simulations.We then introduce a new approach to mitigate the impact of this numerical Cherenkov radiation on laser wakefield acceleration simulation with a simple modification of the electromagnetic field interpolation method used in PIC codes. The results obtained with this new technique show a meaningful improvement on the electron motion wich becomes close to the theoretically expected behaviour.We then explore other possible applications for this new technique, notably improving the modelization of betatron sources, vacuum laser acceleration or direct laser acceleration.The improvement of the computation of the particles transverse motion thanks to this new method leads to more accurate results but also enables us to study physical phenomenon with subtle effects that would otherwise be hidden among the numerical noise of the simulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Cartier-Michaud, Thomas. „Vérification de codes et réduction de modèles : Application au transport dans les plasmas turbulents“. Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4020.

Der volle Inhalt der Quelle
Annotation:
L'étude numérique est un outil de recherche qui est devenu incontournable, en particulier pour la compréhension et le contrôle des systèmes complexes. La simulation des plasmas de fusion par confinement magnétique s'inscrit parfaitement dans cette démarche. Les larges rapports d'échelle en temps et espace, la nature chaotique des plasmas et les très fortes anisotropies imposent l'utilisation de méthodes numériques avancées. C'est dans ce cadre que les deux volets de ma thèse s'inscrivent.Le premier volet est l’originalité de ma thèse, la mise en place la méthode PoPe, une procédure générale de vérification de codes et réduction de modèles. Le principe de cette méthode est de déterminer les équations qui ont permis de générer un ensemble de données : si les données sont issues d'un code de simulation, retrouver ces équations et les comparer au modèle théoriquement implémenté est équivalent à vérifier le code. La précision de la procédure permet de caractériser l'erreur commise jusqu'à retrouver l'ordre des schémas numériques employés, même en régime chaotique.Le second volet de ma thèse se consacre à l’étude du transport turbulent qui détermine la performance des plasmas de fusion. L’étude du transport sous forme d’avalanches dans un modèle de bord fluide est entreprise en quantifiant l’impact du chaos sur l’auto-organisation. Pour un modèle cinétique restreint aux instabilités basse fréquence, la capacité de se bloquer dans deux régimes exclusifs, l’un isolant, l’autre conducteur, est étudiée. Ce modèle est amélioré pour permettre des relaxations entre ces deux états. Pour ces modèles fluide et cinétique, des modèles réduits obtenus avec la méthode PoPe sont proposés
Numerical analysis is now a key component of research, especially for the understanding and the control of complex systems. Simulations of magnetic confinement plasmas fall within this approach. One of the difficulties of this field is the wide range of spatial scales, time scales, the chaotic nature of plasmas and the strong anisotropies require advanced numerical methods. Each of the two parts of my thesis takes place in this frame of numerical simulation and fusion plasmas.The first part of my thesis is dedicated to the method PoPe, a general method for code verification and model reduction. The principle of this method is to determine the equations which have generated a set of data. If the data was produced by a simulation tool, finding these equations and comparing them to the ones theoretically implemented is equivalent to verifying this simulation tool. The accuracy of this procedure allows to characterize the numerical error and to recover the order of each numerical scheme used.The second part of my thesis deals with the study of turbulent transport which determines the efficiency of fusion plasma. The chaotic avalanches of a fluid model are studied considering the impact of the chaos on the self-organization. For a kinetic model restricted to the low frequency instabilities, the ability to block itself in two regimes, one insulating and the other conducting, is studied. Upgrades of this model are undertaken in order to introduce the possibility of relaxations between the two previous states. For both the fluid and the kinetic model, reduce models are proposed thank to the PoPe method
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Leblond, David. „Simulation des plasmas de tokamak avec XTOR : régimes des dents de scie et évolution vers une modélisation cinétique des ions“. Palaiseau, Ecole polytechnique, 2011. http://pastel.archives-ouvertes.fr/docs/00/61/84/53/PDF/these.pdf.

Der volle Inhalt der Quelle
Annotation:
Nous présentons une étude numérique des dents de scie dans un plasma de tokamak ohmique avec le code XTOR-2F. Cette étude est à notre connaissance la première à explorer la dynamique au long terme du kink interne. La MHD résistive prévoit deux régimes distincts : oscillations stables ou régime saturé hélicoïdal. Les dérives diamagnétiques stabilisantes permettent de retrouver des dents de scie pour des paramètres expérimentaux pertinents. On détaille aussi les contributions faites à la transition du code vers le code hybride MHD-cinétique XTOR-K, pour coupler effets cinétiques et fluides. On a choisi un modèle cinétique full-f, full-orbit couplé à la partie fluide par un algorithme Newton-Krylov/Picard stable vis-à-vis des modes MHD fondamentaux. L'avancée des particules est faite par l'algorithme de Boris, adapté en géométrie torique. Les invariants du mouvement ne dérivent pas numériquement. Différentes méthodes, entre autres un filtrage temporel numérique, sont envisagées pour réduire le bruit sur le tenseur de pression particulaire
We present a numerical study of sawtooth in ohmic tokamak plasmas with the XTOR-2F code. This study is, to our knowledge, the first to explore the long-term dynamics of the internal kink. Resistive MHD gives two regimes : stable oscillations or a saturated helicoidal state. Stabilizing diamagnetic drifts enable us to find sawteeth for pertinent experimental parameters. We also present the contributions made for the transition of the code toward the hybrid MHD-kinetic code XTOR-K, to include both kinetic and fluid effects. We chose a full-f, full-orbit kinetic model, coupled to the fluid part through a Newton-Krylov/Picard algorithm which is stable for the fundamental MHD modes. Orbit integration is done by the Boris algorithm, adapted in toroidal geometry. Invariants of motion do not accumulate numerically. Several methods, including a numerical temporal filter, are considered to reduce the noise on the particular pressure tensor
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Shumba, Angela-Tafadzwa. „Channel coding on a nano-satellite platform“. Thesis, Cape Peninsula University of Technology, 2018. http://hdl.handle.net/20.500.11838/2768.

Der volle Inhalt der Quelle
Annotation:
Thesis (Master of Engineering in Electrical Engineering)--Cape Peninsula University of Technology, 2017.
The concept of forward error correction (FEC) coding introduced the capability of achieving near Shannon limit digital transmission with bit error rates (BER) approaching 10-9 for signal to noise power (Eb/No) values as low as 0.7. This brought about the ability to transmit large amounts of data at fast rates on bad/noisy communication channels. In nano-satellites, however, the constraints on power that limit the energy that can be allocated for data transmission result in significantly reduced communication system performance. One of the effects of these constraints is the limitation on the type of channel coding technique that can be implemented in these communication systems. Another limiting factor on nano-satellite communication systems is the limited space available due to the compact nature of these satellites, where numerous complex systems are tightly packed into a space as small as 10x10x10cm. With the miniaturisation of Integrated-Circuit (IC) technology and the affordability of Field-Programmable-Gate-Arrays (FPGAs) with reduced power consumption, complex circuits can now be implemented within small form factors and at low cost. This thesis describes the design, implementation and cost evaluation of a ½-rate convolutional encoder and the corresponding Viterbi decoder on an FPGA for nano-satellites applications. The code for the FPGA implementation is described in VHDL and implemented on devices from the Artix7 (Xilinx), Cyclone V (Intel-fpga), and Igloo2 (Microsemi) families. The implemented channel code has a coding gain of ~3dB at a BER of 10-3. It can be noted that the implementation of the encoder is quite straightforward and that the main challenge is in the implementation of the decoder.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Masciulli, Claudio. „Gamification e rilevazione di barriere architettoniche: un caso di studio con applicazioni mobili“. Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10886/.

Der volle Inhalt der Quelle
Annotation:
Questo volume di tesi descrive lo sviluppo di un'applicazione cross-platform per la raccolta dati sull'accessibilità urbana. E' stato creato un Pervasive GWAP strutturato in modo tale da raccogliere, tramite un gioco in mixed-reality, dati sulla geolocalizzazione delle barriere/facility architettoniche in ambiente urbano, in modo da mappare il territorio. Il gioco è rivolto a bambini accompagnati da insegnanti/genitori e prevede l'utilizzo di dispositivi mobili quali tablet e smartphone con sistema operativo Andoid. E' stata utilizzata la funzione GPS dei dispositivi per la geolocalizzazione dei giocatori e delle barriere/facility segnalate e la CAMERA per lo scan dei Qr-Code utilizzati come incentivo per intrattenere gli utenti. L'applicazione è scritta utilizzando tecnologie web quali HTML, CSS, JavaScript, PHP, JSON e grazie all'utilizzo del framework Apache Cordova è stato possibile lo sviluppo multipiattaforma. Questo strumento permette di utilizzare tecnologie web per lo sviluppo di applicazioni mobile, generando codice nativo supportato da sistemi operativi quali Android, iOS, BlackBerry.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Lebrère, Alexandre. „Construction d'un code de simulation numérique utilisant la méthode de Monte-Carlo pour le transfert radiatif d'une couche de plasma magnétisé turbulent“. Orléans, 2004. http://www.theses.fr/2004ORLE2007.

Der volle Inhalt der Quelle
Annotation:
Ce travail présente un essai de simulation numérique par une méthode de Monte-carlo de propagation d'onde électromagnétique dans un milieu aléatoire inhomogène et anisotrope. La théorie du transfert radiatif est présentée, ainsi que l'application des méthodes de Monte-Carlo aux équations de transport avec polarisation. Les différents éléments de modélisation sont ensuite présentés, dans le cadre d'un modèle simplifié d'ionosphère terrestre. La simulation de la propagation dans l'ionosphère et la diffusion des ondes par la turbulence sont ensuite considérés. Plusieurs situations restreintes permettent de donner des éléments de validation de la méthode : la cas d'une atmosphère de Rayleigh et celui d'une diffusion aux petits angles dans un milieu gaussien ont été considérés. Enfin, des résultats de simulation sont présentés, donnant des informations sur la statistique des angles de réception et la forme du signal diffusé reçu, ainsi que sur l'influence de la turbulence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Thiele, Illia. „Theoretical investigations of terahertz generation in laser-induced microplasmas“. Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0703/document.

Der volle Inhalt der Quelle
Annotation:
Nous étudions la génération de rayonnement TeraHertz (THz) dans des microplasmas produits par des lasers femtosecondes. Cette technique est prometteuse pour créer efficacement des sources THz compactes et étendue spectralement (0.3-30 THz), qui intéressent de nombreuses applications, comme l’identification spectroscopique de substances dangereuses ou encore l’imagerie en biologie et médecine. Contrairement aux sources conventionnelles, comme les interrupteurs photo-conducteur, les sources THz basées sur des plasmas ne sont pas limitées par la tenue au flux et couvrent l’ensemble du spectre THz. Afin de modéliser des microplasmas générés par des faisceaux laser fortement focalisés, nous présentons un nouvel algorithme qui permet d’injecter tout type de laser dans des codes électromagnétiques. Nous dérivons aussi un modèle compatible avec les équations de Maxwell qui inclut les deux mécanismes générateurs de THz: le courant d’ionisation (IC) et le mécanisme “Transition-Cherenkov” (TC). Ce dernier mécanisme domine la production de THz pour des lasers à plusieurs cycles optiques, où l’émission est produite par les courants d’électron longitudinaux. Dans le cas des microplasmas où un champ électrostatique externe est ajouté, le taux de conversion énergétique laser/THz peut être augmenté de deux ordres de grandeur via le mécanisme IC lorsque le champs statique ou la pression du gaz sont accrus. De plus, les simulations 3D montrent que pour un faisceau laser à deux couleurs et dans des conditions optimales de focalisation, une énergie laser de 10 micro-Joule est suffisante pour atteindre des taux de conversion bien au-dessus de 10−4. Dans ce cas, la nature transverse du courant IC est cruciale pour accroitre l’efficacité avec la longueur du plasma. En considérant un faisceau laser à deux couleurs de forme elliptique, nous proposons de contrôler les spectres d’émission en exploitant les effets plasmoniques résonants
We investigate terahertz (THz) generation in fs-laser-induced microplasmas, which are promising candidates for compact and efficient broadband THz sources (0.3-30 THz). Such sources have various applications as spectroscopic identification of hazardous substances or THz imaging in biology and medicine. Unlike conventional THz sources as photoconductive switches, gas-plasma-based THz sources do not suffer from irreversible material damage and can cover the whole THz range at once. To simulate tightly-focused-laser-induced microplasmas, we propose an efficient numerical algorithm that can introduce any arbitrarily shaped laser pulses into electromagnetic codes. We derive a Maxwell-consistent model that includes two major THz generation mechanisms, the ionization current (IC) and transition-Cherenkov mechanisms (TC). The latter mechanism is shown to dominate for single-color multi-cycle lasers pulses where the emission is driven by longitudinal electron currents. For microplasmas a constant electric field can boost the laser-to-THz converison efficiency by two orders of magnitude via the IC mechanism when increasing the gas-pressure and bias-voltage. Moreover for two-color-driving laser pulses, Maxwell-consistent 3D simulations show, that only 10 μJ laser pulse energy are sufficient to reach conversion efficiencies well above 10−4 when optimizing the focusing conditions. Here, the transverse nature of the IC currents is crucial for the up-scaling of the efficiency with the plasma length. By using elliptically-shaped two-color-driving laser beams, we propose to control the emission spectra by exploiting resonant plasmonic effects
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Doré, Jean-Baptiste. „Optimisation conjointe de codes LDPC (Low Density Parity Check) et de leurs architectures de décodage et mise en oeuvre sur FPGA (Field Programmable Gate Array)“. Rennes, INSA, 2007. https://tel.archives-ouvertes.fr/tel-00191155v2.

Der volle Inhalt der Quelle
Annotation:
La découverte dans les années 90 des Turbo-codes et, plus généralement du principe itératif appliqué au traitement du signal, a révolutionné la manière d'appréhender un système de communications numériques. Cette avancée notable a permis la re-découverte des codes correcteurs d'erreurs inventés par R. Gallager en 1963, appelés codes Low Density Parity Check (LDPC). L'intégration des techniques de codage dites avancées, telles que les Turbo-codes et les codes LDPC, se généralise dans les standards de communications. Dans ce contexte, l'objectif de cette thèse est d'étudier de nouvelles structures de codage de type LDPC associées à des architectures de décodeurs alliant performances et flexibilité. Dans un premier temps, une large présentation des codes LDPC est proposée incluant les notations et les outils algorithmiques indispensables à la compréhension. Cette introduction des codes LDPC souligne l'intérêt qu'il existe à concevoir conjointement le système de codage/décodage et les architectures matérielles. Dans cette optique, une famille de codes LDPC particulièrement intéressante est décrite. En particulier nous proposons des règles de construction de codes pour en contraindre le spectre des distances de Hamming. Ces contraintes sont intégrées dans la définition d'un nouvel algorithme de définition de codes travaillant sur une représentation compressée du code par un graphe. Les propriétés structurelles du code sont ensuite exploitées pour définir l'algorithme de décodage. Cet algorithme, caractérisé par le fait qu'il considère une partie du code comme un code convolutif, converge plus rapidement que les algorithmes habituellement rencontrés tout en permettant une grande flexibilité en termes de rendements de codage. Différentes architectures de décodeurs sont alors décrites et discutées. Des contraintes sur les codes sont ensuite exposées pour exploiter pleinement les propriétés des architectures. Dans un dernier temps, une des architectures proposées est évaluée par l'intégration d'un décodeur sur un composant programmable. Dans différents contextes, des mesures de performances et de complexité montrent l'intérêt de l'architecture proposée
The introduction of Turbo-codes in the early 90's and, more generally the iterative principle, has deeply modified the methods for the design of communication systems. This breakthrough has also resurrected the Low Density Parity Check (LDPC) codes invented by R. Gallager in 1963. Advanced channel coding techniques such as Turbo-codes and LDPC, are now increasingly considered for introduction into communication systems and standards. This evolution towards industrialization motivates the definition of new flexible and efficient decoding architecture for LDPC codes. In this thesis, we focus our research on the iterative decoding of LDPC codes and their hardware implementation. We first introduce basic concepts and notations for LDPC codes, which are necessary for a good comprehension. This introduction underlines the interest of jointly designing codes, decoding algorithm and architecture. From this perspective, a family of LDPC codes is described. We define some design rules to constrain the distance spectrum of the code. These constraints are introduced into a new algorithm for the design of the code working on a compact representation of the code graph. A new decoding algorithm is also defined, taking advantage of the intrinsic properties of the code structure. Convergence of the decoding algorithm is increased compared to classical decoding algorithm for LDPC codes. Performance and flexibility of this algorithm is discussed. Different architectures are then described and studied. Some constraints on the codes are derived to target an architecture. The last part of the thesis illustrates the implementation of one of the architectures discussed into a field-programmable gate array (FPGA). Performance and complexity measures are presented for various contexts, showing the interest of the concept for all these cases
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Garcia, Fábio Lumertz 1979. „Implementação de codificador LDPC para um sistema de TV digital usando ferramentas de prototipagem rapida“. [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/258896.

Der volle Inhalt der Quelle
Annotation:
Orientadores: Dalton Soares Arantes, Fabbryccio A. Cardoso
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-08T03:13:26Z (GMT). No. of bitstreams: 1 Garcia_FabioLumertz_M.pdf: 3287022 bytes, checksum: 7cf0e283ddc5a0d2f929f3cc22b17903 (MD5) Previous issue date: 2006
Resumo: O objetivo deste trabalho é apresentar as diversas etapas de implementação de um codificador LDPC para um sistema de televisão digital, desenvolvido através do emprego de algumas tecnologias inovadoras de prototipagem rápida em FPGA. O codificador implementado foi baseado em um código LDPC eIRA, que consiste em uma classe estendida de códigos de repetição e acumulação irregulares, com palavra-código de 9792 bits e taxa de 3/4. Visando agregar outras tecnologias emergentes ao projeto de TV Digital, o sistema proposto foi desenvolvido para operar sobre o Protocolo de Internet - IP. Os esforços para a realização deste trabalho fizeram parte de um esforço mais amplo de um consórcio de universidades brasileiras, visando à concepção, ao projeto, à simulação e à implementação em hardware de um Sistema de Modulação Inovadora para o SBTVD. A grande sinergia obtida neste projeto e o uso intensivo de ferramentas de prototipagem rápida em FPGA possibilitaram a obtenção de uma prova de conceito implementada e testada em um prazo de apenas 12 meses
Abstract: This work presents the several phases in the implementation of an LDPC encoder for a digital television system, developed using innovative technologies for rapid prototyping on Field Programmable Gate Array devices - FPGAs. The implemented encoder was based on an eIRA - extended Irregular Repeat Accumulate - LDPC code with codeword-Iength equal to 9792 bits and rate 3/4. The proposed system was developed to work with video streaming over the Internet Protocol- IP. This work is part of a more ambitious project that resulted in the development of an advanced Modulation System for the Brazilian Digital TV System - BTVD
Mestrado
Telecomunicações e Telemática
Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Bäck, Carl. „Evaluation of high-level synthesis tools for generation of Verilog code from MATLAB based environments“. Thesis, Luleå tekniska universitet, Institutionen för system- och rymdteknik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-78738.

Der volle Inhalt der Quelle
Annotation:
FPGAs are of interest in the signal processing domain as they provide the opportunity to run algorithms at very high speed. One possible use case is to sort incoming data in a measurement system, using e.g. a histogram method. Developing code for FPGA applications usually requires knowledge about special languages, which are not common knowledge in the signal processing domain. High-level synthesis is an approach where high-level languages, as MATLAB or C++, can be used together with a code generation tool, to directly generate an FPGA ready output. This thesis uses the development of a histogram as a test case to investigate the efficiency of three different tools, HDL Coder in MATLAB, HDL Coder in Simulink and System Generator for DSP in comparison to the direct development of the same histogram in Vivado using Verilog. How to write and structure code in these tools for proper functionality was also examined. It has been found that all tools deliver an operation frequency comparable to a direct implementation in Verilog, decreased resource usage, a development time which decreased by 27% (HDL Coder in MATLAB), 45% (System Generator) and 64% (HDL Coder in Simulink) but at the cost of increased power consumption. Instructions for how to use all three tools has been collected and summarised.
I ingångssteget på ett mätsystem är det av intresse att använda en FPGA för att uppnå höga hastigheter på de oundvikliga datafiltrering och sorterings algoritmer som körs. Ett problem med FPGAer är att utvecklingen ställer höga krav på specifik kunskap gällande utvecklingsspråk och miljöer vilket för en person specialiserad inom t.ex. signalbehandling kan saknas helt. HLS är en metodik där högnivåspråk kan användas för digital design genom att nyttja ett verktyg för automatgenerering av kod. I detta arbete har utveckling av ett histogram använts som testfall för att utvärdera effektivitet samt designmetodik av tre olika HLS verktyg, HDL Coder till MATLAB, HDL Coder till Simulink och System Generator for DSP. Utvecklingen i dessa verktyg har jämförts mot utvecklingen av samma histogram i Vivado, där språket Verilog använts. Arbetets slutsater är att samtliga verktyg som testats leverar en arbetsfrekvens som är jämförbar med att skriva histogrammet direkt i Verilog, en minskad resursanvändning, utvecklingstid som minskat med 27% (HDL Coder i MATLAB), 45% (System Generator) och 64% (HDL Coder i Simulink) men med en ökad strömförbrukning. En sammanställning av instruktioner för utveckling med hjälp av verktygen har även gjorts.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Lowe, Darryn W. „Real-time FPGA realization of an UWB transceiver physical layer“. Access electronically, 2005. http://www.library.uow.edu.au/adt-NWU/public/adt-NWU20060726.161825/index.html.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Balawanilotu-Roach, Gina S. „A comparative investigation of what lecturers assess as 'critical thinking' in student essays in higher education : a legitimation code theory analysis of the 'rules of the game'“. Thesis, University of Nottingham, 2017. http://eprints.nottingham.ac.uk/41236/.

Der volle Inhalt der Quelle
Annotation:
Critical thinking is the most commonly listed of British university graduate attributes. However, its assessment in graduate students’ work in the disciplines remains underexplored in the literature. In the university, critical thinking is assessed within a disciplinary context and is synonymous with distinction or excellence. However, the discourse of ‘generic skills’ currently dominant in higher education has served to dissociate it from this base. The result is a single, generic understanding that may obscure crucial differences. Indeed, the often ignored question in discussions of critical thinking in student writing is ‘critical thinking about what?’ Karl Maton argues that overlooking ‘the what’ is prevalent in higher education research more broadly, resulting in what he terms ‘knowledge blindness’ (Maton, 2014c, p. 3). Knowledge, and its recontexualisation and reproduction in the curriculum, and teaching, sit at the heart of university practice. However, what knowledge practices are assessed as ‘critical thinking’ has remained mostly obscured in higher education research. The effect of ‘knowledge blindness’ is an unclear articulation of practices considered as ‘critical thinking’ in student writing in the disciplines. It is the central concern in this study. The primary aim of this study was to bring into view what is recognised as enacted or demonstrated critical thinking practices in student writing in different disciplines by disciplinary assessors, with the purpose of informing pedagogy. The study was motivated by the problem of having to teach ‘critical thinking’ in writing in a professional capacity without clear writing directives from the disciplines. Coupled with this is lack of empirical evidence of demonstrated ‘critical thinking’ practices in student writing in published literature, evidence that might have guided my teaching practices. The research employed a qualitative case study approach that drew on the expertise of senior lecturers’ ‘habituated’ (Bourdieu, 1990) or ‘cultivated gazes’ (Maton, 2014a), as they assessed Masters-level essays in two different fields of practice: Political Science and Business. A single broad question anchored the study: • What practices are assessed as ‘critical thinking’ in student writing tasks? It was conceptualised as the Bourdieurian question: • What are ‘the rules of the game’? The research design comprised three phases: mapping and profiling of University and programme documents where critical thinking is conceptualised, and selection of participants; piloting interviews and analysis of student essays; actual interviews and analysis of student essays. The explanatory framework used for the study drew primarily on Karl Maton’s Legitimation Code Theory (LCT) Semantics. Genre theory based on Systematic Functional linguistics was also used as a framework for initial organisation of student essays. The study brought into view four key findings of critical thinking that pertain to the movement of knowledge across texts, having the right stance, using the right theory, and being able to master the right forms of knowledge. First, analysed in terms of Maton’s Legitimation Code Theory Semantics, more successfully ‘critical’ students in Political Science and Business moved knowledge smoothly across their texts in ways that resemble ‘waves of meaning’ – or what in LCT is termed as semantic waving. These successfully critical thinking texts created bigger waves, demonstrating greater semantic range. Less successful texts moved knowledge across the pages in ways that did not flow as smoothly and produced smaller waves – or less semantic range. Second, in the Political Science thinking task, a particular political stance was preferred over others, revealing a value charging or ideological preference of one political argument over another. A key finding, therefore, was that stances are unequal: some are more privileged than others. Further, while the personal stance was irrelevant in Political Science, it was a requirement in the Business task. A third key finding is that there is a hierarchy of theories in Political Science. Some theories are seen as having more power to solve political problems than others, and are hence more preferred. The fourth key finding is that there are differences in the forms of knowledge that students are required to master. The Political Science thinking task required a mastery and weaving together - termed semantic weaving in LCT - of more complex and abstract knowledge forms, or rhizomatic codes, with more complex and context-dependent knowledge forms, or worldly codes. The Business thinking task required mastery and semantic weaving of simpler context-independent knowledge forms, or rarefied codes, with simpler context-dependent knowledge forms, or prosaic codes. This study argues that teaching critical thinking in writing involves being able to see and analyse knowledge – their movements across texts, their forms, and knowing how disciplinary stances and theories are differentially valued in different fields of practice. There are three contributions to knowledge in this thesis: empirical, theoretical, and methodological. The findings, presented as a set of ‘rules of the game’, provide empirical insights into critical thinking practices in student writing currently unavailable in the mainstream literature about student writing. The findings provide ‘thicker’ descriptions and ‘thicker’ explanations of knowledge practices which also contributes theoretically to writing literature. The utility of Legitimation Code Theory Semantics to see and to analyse knowledge as meanings in texts, along with Systemic Functional Linguistics genre based theory as an organising principle, also makes a unique methodological contribution.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Bedi, Abhishek. „A generic platform for the evolution of hardware“. Click here to access this resource online, 2009. http://hdl.handle.net/10292/651.

Der volle Inhalt der Quelle
Annotation:
Evolvable Hardware is a technique derived from evolutionary computation applied to a hardware design. The term evolutionary computation involves similar steps as involved in the human evolution. It has been given names in accordance with the electronic technology like, Genetic Algorithm (GA), Evolutionary Strategy (ES) and Genetic Programming (GP). In evolutionary computing, a configured bit is considered as a human chromosome for a genetic algorithm, which has to be downloaded into hardware. Early evolvable hardware experiments were conducted in simulation and the only elite chromosome was downloaded to the hardware, which was labelled as Extrinsic Hardware. With the invent of Field Programmable Gate Arrays (FPGAs) and Reconfigurable Processing Units (RPUs), it is now possible for the implementation solutions to be fast enough to evaluate a real hardware circuit within an evolutionary computation framework; this is called an Intrinsic Evolvable Hardware. This research has been taken in continuation with project 'Evolvable Hardware' done at Manukau Institute of Technology (MIT). The project was able to manually evolve two simple electronic circuits of NAND and NOR gates in simulation. In relation to the project done at MIT this research focuses on the following: To automate the simulation by using In Circuit Debugging Emulators (IDEs), and to develop a strategy of configuring hardware like an FPGA without the use of their company supplied in circuit debugging emulators, so that the evolution of an intrinsic evolvable hardware could be controlled, and is hardware independent. As mentioned, the research conducted here was able to develop an evolvable hardware friendly Generic Structure which could be used for the development of evolvable hardware. The structure developed was hardware independent and was able to run on various FPGA hardware’s for the purpose of intrinsic evolution. The structure developed used few configuration bits as compared to current evolvable hardware designs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Corvisier, Jérôme. „Implémentation des phénomènes de germination/mûrissement/croissance des phases solides secondaires dans un modèle de transport-réactif en milieu poreux géologique. Développement du code de calcul ARCHIMEDE“. Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2006. http://tel.archives-ouvertes.fr/tel-00102898.

Der volle Inhalt der Quelle
Annotation:
La connaissance des réservoirs géologiques et de leur évolution est cruciale pour toutes les applications les mettant en jeu (prospection/extraction de pétrole ou de gaz, stockage de gaz ou de déchets, réhabilitation de sites industriels, dépollution des sols et des nappes phréatiques). La complexité des phénomènes couplés de réaction chimique et transport, la non-linéarité des équations en découlant et la diversité des échelles d'observation (en espace et en temps) amènent à avoir recours à la modélisation. Lors des injections de gaz acides dans des structures géologiques potentiellement capables de les stocker, les minéraux présents primaires) les plus réactifs se dissolvent, du fait de l'acidification de l'eau en place. En conséquence, le fluide se charge en éléments issus de ces réactions jusqu'à atteindre un état de sursaturation par rapport à d'autres minéraux primaires, mais aussi par rapport à des minéraux jusque là absents de l'assemblage (secondaires) qui peut les amener à précipiter. Dans ces configurations, la justesse des prédictions du comportement du système, qui permettent de s'assurer de la pérennité du stockage du gaz et de se prémunir contre les risques mécaniques éventuels, va dépendre de l'aptitude du programme à bien choisir les solides qui précipitent et à connaître précisément à la fois les cinétiques de croissance des minéraux primaires et les cinétiques de formation des minéraux secondaires.
Dans le code ARCHIMEDE (développé à l'E.N.S.M-S.E, Ecole Nationale Supérieure des Mines de Saint-Etienne, en collaboration avec l'I.F.P, Institut Français du Pétrole), seule la partie géochimie est concernée. Outre quelques difficultés qui empêchaient de traiter les variations de volume occasionnées par les réactions et que nous nous sommes efforcés de résoudre en reprenant l'ensemble du programme, l'objectif principal de ce travail de thèse a été la conception et l'implémentation d'un modèle de germination/mûrissement/croissance pour les minéraux secondaires.
Notre démarche a consisté à analyser précisément l'apparition de nouveaux minéraux dans des assemblages naturels d'où ils sont absents initialement. Quelques simulations numériques ont permis de montrer les limites inhérentes à la représentation, inadaptée, de la précipitation de ce genre de minéraux par croissance cristalline. La mise en avant de ces faiblesses a défini alors le cadre pour un nouveau modèle de précipitation propre aux minéraux secondaires. Une étude détaillée de la phase de germination, à savoir l'apparition des premiers cristaux d'un minéral, a conduit à la construction d'un modèle pour sa cinétique. Par suite, la mise en compétition du processus de germination avec celui de croissance, destiné à prendre plus tard le relais de la production de volume du nouveau solide, a nécessité la prise en charge de cristaux de tailles variées et le recours au mûrissement d'Ostwald, via un calcul parallèle. Il en a résulté un algorithme élaboré pour gérer, pour chaque minéral secondaire, la phase initiale de germination/mûrissement et ensuite le passage à la phase de croissance cristalline. La sensibilité de ce nouveau modèle complet de germination/mûrissement/croissance vis-à-vis des différents paramètres qui le composent a pu être analysée moyennant de nouvelles simulations numériques. Son comportement, en terme d'acuité des prédictions, a également pu être mis à l'épreuve et finalement jugé satisfaisant.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Guiberteau, Emmanuel. „Modélisation d'une décharge DC pulsée dans l'azote : simulations numériques à l'aide d'un code couplant la dynamique des particules chargées à celle du gaz neutre : comparaisons avec l'expérience“. Nancy 1, 1998. http://docnum.univ-lorraine.fr/public/SCD_T_1998_0291_GUIBERTEAU.pdf.

Der volle Inhalt der Quelle
Annotation:
Ce travail est consacré à la modélisation d'une décharge diode pulsée dans l'azote utilisée pour la nitruration des aciers. L'objectif de ce travail était de mieux comprendre les différents phénomènes mis en jeu dans ce type de décharges afin d'optimiser le traitement. La première étape de ce travail a consisté en l'adaptation d'un code électrique existant aux conditions de fonctionnement du réacteur de traitement présent au laboratoire. Les premières comparaisons entre les résultats numériques et ceux obtenus expérimentalement par spectroscopie d'émission et par sonde électrostatique ont montré un accord général satisfaisant et ont mis en évidence les limites de ce code. Deux améliorations ont alors été apportées au modèle de base : une meilleure description de la population électronique à l'aide d'un faisceau monoénergétique ; un couplage avec un code décrivant la dynamique du gaz neutre. La première amélioration a permis de mieux décrire l'ensemble des différentes zones présentes dans la décharge, en particulier la lueur négative et d'obtenir un très bon accord entre numérique et expérience dans le cas de décharges impulsionnelles. La seconde amélioration a montré l'importance et la nécessité de prendre en compte le chauffage du gaz neutre dans le cas des décharges avec des temps d'allumage supérieurs à quelques centaines de microsecondes
This work deals the modeling of a dc pulsed diode type discharge used for iron and steel nitriding. The present research aimed at a better understanding of the processes occuring in such plasmas in order to attain an optimization of the surface treatment process. In a first stage we adapted an existing electrical modeling to the experimental results obtained from electrostatic probe and emission spectroscopy measurements. These preliminary results showed a roughly good agreement between the modeling and the experiment and pointed out the limits of this simulation. Two improvements have thus been made to this basic model: a better description of the electron population using a monoenergetic electron beam ; a coupling with a modeling of the neutral gas dynamics. The first improvement led to a better description of the various regions of the discharge (in particular the negative glow) and to get an excellent agreement between numerical and experimental results in the case of short duration impulse discharges. The second improvement showed the importance and the need for taking into account the heating of neutral gas in the case of discharge on-time greater than a few hundreds of microseconds
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Ducasse, Olivier. „Modélisation électrohydrodynamique d'un réacteur plasma hors équilibre de dépollution des gaz“. Toulouse 3, 2006. http://www.theses.fr/2006TOU30287.

Der volle Inhalt der Quelle
Annotation:
Cette thèse concerne la simulation des ondes d'ionisation (streamer) créées à pression atmosphérique entre une pointe et un plan, dans les conditions expérimentales d'un réacteur corona de dépollution des gaz d'échappement. Un code informatique bidimensionnel (code 2D) a été mis au point en symétrie cylindrique. Il résout, par la méthode des volumes finis, les équations fluides de continuité relatives au bilan du nombre d'espèces chargées (électrons et ions), couplées à l'équation de Poisson pour le calcul du champ électrique. La cinétique chimique prend en compte les collisions entre espèces (ionisation, attachement, recombinaison), la photoionisation, l'effet photoélectrique à la cathode et l'émission secondaire due au bombardement ionique. La modélisation de la dynamique des particules chargées a été couplée à la modélisation de la cinétique chimique des espèces radicalaires dans le but d'estimer leur nature, localisation et densité durant la phase de décharge. Une étude a été menée tout d'abord sur l'efficacité de plusieurs schémas numériques d'ordre 2 pour la résolution de l'équation de continuité. Cet ouvrage a été réalisé dans les conditions d'un test mathématique contraignant qui génère de forts gradients de densité en mouvement dans un champ de vitesse inhomogène. Ensuite, les schémas numériques ont été appliqués à une simulation dite 1,5D de l'évolution d'un streamer. En outre, les performances du code 2D ont été comparées avec un code de type éléments finis développé à l'Université de Patras (Grèce), dans le cadre d'une collaboration interuniversitaire. La confrontation des résultats de simulation avec ceux issus de l'expérience dans le cas d'une décharge couronne pointe-plan, dans l'air et à pression atmosphérique, a notamment conduit à l'estimation de la production des radicaux atomiques durant la phase de décharge.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Vial, Christophe. „Apport des méthodes de la mécanique des fluides à l'étude des contacteurs gaz/liquide : expérience et simulation numérique“. Vandoeuvre-les-Nancy, INPL, 2000. http://docnum.univ-lorraine.fr/public/INPL_T_2000_VIAL_C.pdf.

Der volle Inhalt der Quelle
Annotation:
Ce travail est consacré à l'étude expérimentale, la modélisation et la simulation numérique d'une colonne à bulles et d'un réacteur à gazosiphon à recirculation externe. Il comporte trois parties. Dans un premier temps, nous avons mis au point la métrologie nécessaire à la mesure de paramètres hydrodynamiques globaux et locaux dans les écoulements à bulles. Dans cette partie, des méthodes de traitement des fluctuations du signal de pression en paroi ont été développées pour l'identification du régime d'écoulement, et trois techniques de mesures ont été adaptées aux écoulements à bulles pour mesurer la vitesse locale de la phase continue : le tube de «Pavlov», une méthode électrochimique et la vélocimétrie laser Doppler. Ces méthodes ont complété les techniques déjà disponibles pour étudier la dynamique de la phase gaz : sondes optiques locales et sonde Doppler à réflexion d'ultrasons. Cet ensemble de méthodes de mesure nous a ensuite permis de caractériser l'hydrodynamique des deux réacteurs. Les transitions de régime ont été déterminées. Les paramètres mesurés, aussi bien à l'échelle locale qu'à l'échelle du réacteur, sont: le taux de vide, la vitesse, la taille et la morphologie des bulles, ainsi que la vitesse du liquide et ses fluctuations locales. La contrainte tangentielle de frottement, qui ne pouvait être mesurée, a été estimée à partir d'un modèle simple. Finalement, l'évolution de tous ces paramètres a été analysée en fonction du débit de gaz, de son mode de distribution et du régime d'écoulement. Enfin, l'ensemble des données expérimentales obtenues aux échelles locales et globales sur les deux réacteurs a été comparé aux résultats fournis par un logiciel commercial de CFD. Différentes formulations de la traînée, des forces additionnelles et de la turbulence ont été utilisées pour obtenir le meilleur accord possible entre calculs et expériences. La capacité de ce code commercial à prédire correctement l'écoulement ainsi que ses limitations actuelles ont été étudiées
This work is devoted to the experimental study, the modelling and the numerical simulation of the hydrodynamics of a bubble column and an external loop airlift reactor. It includes three parts. First, measuring techniques have been developed to study the local and global hydrodynamic parameters of the bubbly flow. In this section, several treatments of the fluctuating wall pressure signal have been developed to identify the prevailing flow regime; three measuring techniques have been adapted to bubbly flows in order to measure the local velocity of the continuous phase: the "Pavlov" tube, an electrochemical method and Laser Doppler Velocimetry. These techniques have completed the methods already available to study the dynamics of the gas phase: local optical probes and an ultrasound Doppler technique. Then, this set of measuring techniques has been used to characterise the hydrodynamics in both reactors. Regime transitions have been deterrnined. The local and global parameters which have been measured are: the gas hold-up; the velocity, the size and the morphology of the bubbles; the liquid velocity and its local fluctuations. The Reynolds shear stress, which could not be measured, has been estimated using a simple model. The evolution of these parameters has been related to the gas flow rate, the gas distribution and the hydrodynamic regime. The whole experimental data are finally compared to the predicted values obtained using a commercial CFD code. Several models of drag, additional forces and turbulence have been used to obtain the best agreement between calculations and experiments. The ability of this commercial code to predict correctly the flow and its current limits have been highlighted
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Bufferand, Hugo. „Development of a fluid code for tokamak edge plasma simulation. Investigation on non-local transport“. Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4325/document.

Der volle Inhalt der Quelle
Annotation:
Pour concevoir les futurs réacteurs à fusion nucléaire, une bonne compréhension des mécanismes régissant l'intéraction plasma-paroi est requise. En particulier, il est nécessaire d'estimer quantitativement les flux de chaleurs impactant les matériaux et la contamination du coeur par les impuretés provenant du mur. Dans ce contexte, le code fluide SolEdge2D a été développé pour simuler le transport dans le plasma de bord. L'interaction plasma-paroi est prise en compte grâce à une méthode de pénalisation innovante et originale. Cette méthode permet en particulier de modéliser la géométrie complexe des éléments face au plasma avec une grande flexibilité. En parallèle, une étude plus théorique sur les propriétés du transport dans les milieux faiblement collisionels a été conduite avec les physiciens du groupe CSDC de l'université de Florence. Une généralisation de la loi de Fourier prenant en compte les corrélation spatio-temporelle à longue distance à été obtenue par l'analyse de modèles stochastiques 1D. Cette loi retrouve en particulier la transition entre un régime diffusif à forte collisionalté et un régime balistique à faible collisionalité
In the scope of designing future nuclear fusion reactors, a clear understanding of the plasma-wall interaction is mandatory. Indeed, a predictive estimation of heat flux impacting the surface and the subsequent emission of impurities from the wall is necessary to ensure material integrity and energy confinement performances. In that perspective, the fluid code SolEdge2D has been developed to simulate plasma transport in the tokamak edge plasma. The plasma-wall interaction is modeled using an innovative penalization technique. This method enables in particular to take complex plasma facing components geometry into account. In parallel to this numerical effort, a theoretical work has been achieved to find appropriate corrections to fluid closures when collisionality drops. The study of stochastic 1D models has been realized in collaboration with physicists from the CSDC group in Florence. A generalized Fourier law taking long range spatio-temporal correlations has been found to properly account for ballistic transport in the low collisional regime. This formulation is expected to be used to model parallel heat flux or turbulent cross-field transport in tokamak plasmas
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Borror, Kaylynn Nicole. „Creating a Domain-Specific Modeling Language for Educational Card Games“. Miami University / OhioLINK, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=miami1626864894150672.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Khodja, Mohammed. „Plasma secondaire créé dans un gaz moléculaire dense par un faisceau intense d'électrons relativistes étude par un code cinétique de l'influence sur le corps froid de la queue électronique chaude /“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37614701t.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Rabie, François. „Programmation et validation d'un code d'éléments finis 2D quadrangulaires pour une formulation lagrangienne des équations de la dynamique des gaz compressibles en régime instationnaire avec implantation d'un remaillage d'ordre 2“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376177873.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Rabie, François. „Programmation et validation d'un code d'elements finis 2d quadrangulaires pour une formulation lagrangienne des equations de la dynamique des gaz compressibles en regime instationnaire, avec implantation d'un remaillage d'ordre 2“. Paris 6, 1988. http://www.theses.fr/1988PA066501.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Khodja, Mohammed. „Plasma secondaire créé dans un gaz moléculaire dense par un faisceau intense d'électrons relativistes : étude par un code cinétique de l'influence sur le corps froid de la queue électronique chaude“. Grenoble 1, 1988. http://www.theses.fr/1988GRE10129.

Der volle Inhalt der Quelle
Annotation:
Construction d'un code cinetique, par resolution numerique de l'equation de boltzmann-fokker-planck, qui fournit le spectre energetique des electrons secondaires de toutes generations crees dans l'azote moleculaire a la pression atmospherique par un faisceau intense d'electrons relativistes. Son calcul couvre a la fois la queue chaude des electrons qui cascadent et se multiplient en cedant leur energie aux neutres par chocs inelastiques d'ionisation et d'excitation, et le corps froid ou les echanges d'energie se font principalement par collisions coulombiennes et par collisions superelastiques sur les neutres
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Ghizzo, Alain. „Apport des codes euleriens à la simulation numérique en physique des plasmas : Application à l'étude des structures de Bernstein - Greene - Kruskal“. Nancy 1, 1987. http://www.theses.fr/1987NAN10043.

Der volle Inhalt der Quelle
Annotation:
On résout le système Vlasov-Poisson décrivant les plasmas non linéaires, par intégration directe dans l'espace des phases, au moyen de simulations numériques à partir de deux codes eulériens différents. Une propriété bien connue d'un plasma électronique sans collision est sa capacité à engendrer des équilibres de Bernstein-Greene-Kruskal qui forment des structures spatialement périodiques, présentant des vorticités dans l'espace des phases. Les résultats numériques indiquent que l'évolution de ces vorticités conduit à la fusion jusqu'à ce qu'un seul trou persiste et demeure stable
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

O'Donnell, Stephen. „The revenant signifier : the zombie in comics and cinema“. Thesis, University of Dundee, 2015. https://discovery.dundee.ac.uk/en/studentTheses/f415dc63-7ab3-4772-a697-54aa922547e2.

Der volle Inhalt der Quelle
Annotation:
This thesis explores the zombie’s rise to prominence in popular culture, with a focus on its development within the comics medium. The zombie is not just a ‘floating signifier’ (according to Jerrold E. Hogle), but a revenant signifier, actively and aggressively linking with existing concepts, and transforming them. The thesis also considers both the zombie figure and zombie genre within the parameters of several media – comics, television, film, and literature. The medium of comics is examined in detail as it has evolved through the influence of the zombie just as the zombie has been reshaped by each new representation. In contemporary horror comics, The Walking Dead series is not just commercially successful, it exploits properties of the medium (including panel arrangement, transitions, repetition, and the liminal space within the gutter) to thoroughly explore the metaphors and allusions that have been associated with the zombie. I discuss these metaphors by charting the zombie’s development. A lack of pre-twentieth century literary texts featuring this creature frustrates easy comparison with the monsters of Gothic fiction. Rather than evolving within the novel form, as its rival horror icons have done, the zombie has maintained a visual and visceral identity, maturing with each new incarnation, and becoming ever more gruesome: the walking corpses of ancient texts; a symbol of eternal slavery within Haitian Voodoo folklore; and its modern interpretation as violent and virulent monster. The recent notion of a zombie plague has redefined the creature as a representation of modern fears, and has led to ‘zombie apocalypse’ becoming a commonly-used fantasy scenario. The zombie’s connection to apocalyptic literature is simultaneously ancient and contemporary, with the creature being a signifier of social disorder and disrupted identity. While the emphasis throughout is on the shifting relations between media, comics are the main focus of this study. The symbolism present in the zombie, and the political and cultural ideas stemming from its slow maturation are revealed within The Walking Dead and sustained through the functions of the comics medium. Through the application of Scott McCloud’s comics theory, the closure between panels and the transition within the gutter enhance these ideas, and provide further understanding of the zombie as depicted in comics. The visual/textual relationship within comics is compared with Jacques Lacan’s modalities of consciousness, and the psychoanalytic reading provided here explores the crises of identity within the zombie, and within the fragmented narrative of the comics medium. Alternative psychoanalytic readings, and the physiology/pathology of the zombie itself are undertaken, revealing the creature to be responsive to Julia Kristeva’s concept of the abject, and Slavoj Zizek’s postmodern reworking of Lacanian ideas. The thesis also returns to notions of the Gothic, haunted spaces, and the role of suburbia in the zombie narrative. This is augmented with a study of intertextuality and the “revenant” status of the zombie, and of comics. Through incorporating the critical theory of Kristeva, Mikhail Bakhtin, and Jacques Derrida, and by positioning in parallel comics theorist Thierry Groensteen’s concepts of braiding and arthrology, I emphasise the operations of the zombie figure in the comic book, and other media, asserting that the zombie is a revenant signifier continually returning and transforming, never resting, but endlessly cannibalising and reconstructing debate about identity, morality, and society.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Belkhiri, Madeny. „Plasma out of thermodynamical equilibrium : influence of the plasma environment on atomic structure and collisional cross sections“. Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112268/document.

Der volle Inhalt der Quelle
Annotation:
Dans les plasmas chauds denses, la distribution spatiale des électrons libres et des ions peut affecter fortement la structure atomique. Pour tenir compte de ces effets, nous avons implémenter un potentiel plasma fond´ sur le modèle d’un gaz d’électron uniforme et sur une approche de type Thomas-Fermi dans le Flexible Atomic Code (FAC). Ce code a été utilisé, pour obtenir les énergies, les fonctions d’onde, et les taux radiative modifiés par l’environnement plasma. Dans des ions hydrogénoides, les résultats numériques ont été comparés avec succès à un calcul analytique basé sur la théorie des perturbations du premier ordre. Dans le cas des ions multi-électronique, on observe un décalage des niveaux, en accord avec d’autre calcul récent. Diverses méthodes pour les calculs de section efficace de collision sont examinées. L’influence de la densité du plasma sur ces sections est analysée en détail. Certaines expressions analytiques sont propos´es pour les ions hydrogénoides comme dans la limite où l’approximation de Born ou Lotz s’applique et sont comparés aux résultats numériques du code de FAC. Enfin, à partir de ce travail, nous étudions l’influence de l’environnement de plasma sur notre modèle collisionel-radiatif nommé -Foch-. En raison de cet environnement, la charge moyenne du plasma augmente, ceci est principalement due a l’abaissement du continuum. Nous observons également, le décalage des raies sur les spectres d’émission lié-lié. Un bon accord est trouvé entre notre travail et les données expérimentales sur un plasma de titane
In hot dense plasmas, the free-electron and ion spatial distribution may strongly affect the atomic structure. To account for such effects we have implemented a potential correction based on the uniform electron gas model and on a Thomas-Fermi Approach in the Flexible Atomic Code (FAC). This code has been applied to obtain energies, wave-functions and radiative rates modified by the plasma environment. In hydrogen-like ions, these numerical results have been successfully compared to an analytical calculation based on first-order perturbation theory. In the case of multi-electron ions, we observe level crossings in agreement with another recent model calculation. Various methods for the collision cross-section calculations are reviewed. The influence of plasma environment on these cross-sections is analyzed in detail. Some analytical expressions are proposed for hydrogen-like ions in the limit where Born or Lotz approximations apply and are compared to the numerical results from the FAC code. Finally, from this work, we study the influence of the plasma environment on our collisional-radiative model so-called -Foch-. Because of this environment, the mean charge state of the ions increases. The line shift is observed on the bound-bound emission spectra. A good agreement is found between our work and experimental data on a Titanium plasma
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie