Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Rapine.

Thèses sur le sujet « Rapine »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Rapine ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Corona, Galvan Luis. « Prototypage rapide de pièces en acier : étude du dépôt de matière et d'énergie lors de la fusion à l'arc d'un fil par le procédé MIG-CMT ». Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS062/document.

Texte intégral
Résumé :
Un banc d’essai spécialement dédié à la fabrication additive par une nouvelle technologie basée sur la fusion à l’arc électrique d’un fil métallique a été développé. Le procédé utilise une source de soudage à l’arc appelée Cold Metal Transfer (CMT) pour assurer la fusion contrôlée d’un fil métallique et le dépôt de gouttelettes de métal liquide, afin de produire par la superposition de cordons des pièces mécaniques. La technologie développée a été employée pour fabriquer des éprouvettes à partir d’un fil en acier faiblement alliés. L’influence des nombreux paramètres contrôlant la source de soudage à l’arc sur les mécanismes de fusion du fil et de transfert des gouttelettes de métal fondu pour former les cordons a été étudiée. Les cycles de fusion-transfert de métal liquide ont été analysés en particulier au regard des énergies générées durant chacune des phases du cycle. Cette connaissance a permis de trouver des réglages du procédé permettant d’accroître le taux de dépôt de métal en comparaison des réglages standards préenregistrés dans le microprocesseur du générateur de soudage CMT. Des murs constitués par la superposition d’un grand nombre de cordons ont ensuite été réalisés, et l’influence de l’ajout de nombreuses couches sur la géométrie des dépôts discutée. Finalement, une méthode de contrôle en ligne du procédé, basée sur le principe des cartes de contrôle, a été développée. Une étude approfondie des formes d’onde d’intensité et de tension représentatives du cycle de fusion/transfert avec le procédé CMT a permis d’identifier les caractéristiques les plus pertinentes pour détecter, à partir d’une carte de contrôle, une dérive du procédé pouvant conduire à l’apparition de défauts géométriques
A test bench specially dedicated to additive manufacturing by a new technology based on the electric arc melting of a metallic wire has been developed. This technology uses an electric arc welding process called Cold Metal Transfer (CMT) as energy source to ensure the controlled melting of the wire and the deposition of liquid metal droplets to produce mechanical parts by superposing weld beads. The developed technology was used to make specimens from a low alloyed steel wire. The influence of the many parameters controlling the arc welding source on the mechanism of wire melting and transfer of molten metal droplets to form weld beads was studied. The melting-transfer cycles of liquid metal were analyzed in particular with special interest in the energies generated during each of the cycle phases. This knowledge has made possible to find different process settings for increasing the metal deposition rate compared to the pre-recorded standard settings in the microprocessor of the CMT welding generator. Walls consisting of the superposition of a large number of weld beads were then made, and the influence of the addition of many layers on the geometry of the deposits were discussed. Finally, a method of online control of the process, based on the principle of control charts, has been developed. A detailed study of the representative waveforms of current and voltage of the melting / transfer cycle with the CMT process has allowed to identify the most relevant characteristics for detecting, from a control chart, a deviation on the process that may lead to the appearance of geometrical defects
Styles APA, Harvard, Vancouver, ISO, etc.
2

Wright, Lauren E. « The American Serial Rapist : 1940-2010 ». Ohio University / OhioLINK, 2014. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1397845726.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

PAVESI, IRENE. « Patterns and determinants of repeated bank robbery in Italy ». Doctoral thesis, Università Cattolica del Sacro Cuore, 2011. http://hdl.handle.net/10280/969.

Texte intégral
Résumé :
La presente tesi propone uno studio sulla multivittimizzazione delle banche in Italia. In questo paese nell’ultimo decennio si è concentrato circa il 50% delle rapine europee, delineando una situazione critica in termini di sicurezza e di impatto economico sulle banche. La ricerca empirica prova che il crimine si concentra su di una esigua parte della popolazione e che la vittimizzazione è il più efficace predittore di criminalità: dato un primo episodio, un target tende a subire un altro reato in un breve periodo di tempo. Mentre altre tipologie di reato sono state largamente esplorate, poco è stato fatto riguardo le rapine in banca. Questa tesi vuole colmare questa lacuna analizzando l’universo delle rapine in banca avvenute in Italia tra il 2007 ed il 2009. L’analisi dimostra che in Italia il 5% delle filiali concentra su di sé circa il 45% delle rapine; una volta vittimizzata, infatti, una banca viene esposta al 36% di probabilità di subire un’ulteriore rapina nei sei mesi successivi. Questa concentrazione è determinata dal successo della precedente rapina, che spinge gli stessi rapinatori a tornare(boost effect), ma anche dalle caratteristiche della banca (flag effect), che la espongono all’azione di più criminali.
The present thesis proposes a study on repeated bank robbery in Italy. In the last decade, about 50% of European bank robberies have occurred in this country, drawing a problematic situation in terms of both safety and economic impact on banks. Empirical research proves that crime is concentrated on a small proportion of the population and therefore victimization is the best predictor of crime. While repeat victimization has been studies with regard to several crime types, little attention has been paid to bank robbery. This thesis aims at filling this gap by analyzing the universe of bank robberies occurred in Italy between 2007 and 2009. The study shows that, in Italy, only 5% branches accounts for about 45% of all robberies; once victimized, indeed, a bank is exposed to 36% probabilities to be victimized again within the following six months. This concentration is determined by both the success of prior offence, which drives the repeats by original offenders (boost effect), and the characteristics of banks, which expose them to the action of multiple offenders (flag effect).
Styles APA, Harvard, Vancouver, ISO, etc.
4

PAVESI, IRENE. « Patterns and determinants of repeated bank robbery in Italy ». Doctoral thesis, Università Cattolica del Sacro Cuore, 2011. http://hdl.handle.net/10280/969.

Texte intégral
Résumé :
La presente tesi propone uno studio sulla multivittimizzazione delle banche in Italia. In questo paese nell’ultimo decennio si è concentrato circa il 50% delle rapine europee, delineando una situazione critica in termini di sicurezza e di impatto economico sulle banche. La ricerca empirica prova che il crimine si concentra su di una esigua parte della popolazione e che la vittimizzazione è il più efficace predittore di criminalità: dato un primo episodio, un target tende a subire un altro reato in un breve periodo di tempo. Mentre altre tipologie di reato sono state largamente esplorate, poco è stato fatto riguardo le rapine in banca. Questa tesi vuole colmare questa lacuna analizzando l’universo delle rapine in banca avvenute in Italia tra il 2007 ed il 2009. L’analisi dimostra che in Italia il 5% delle filiali concentra su di sé circa il 45% delle rapine; una volta vittimizzata, infatti, una banca viene esposta al 36% di probabilità di subire un’ulteriore rapina nei sei mesi successivi. Questa concentrazione è determinata dal successo della precedente rapina, che spinge gli stessi rapinatori a tornare(boost effect), ma anche dalle caratteristiche della banca (flag effect), che la espongono all’azione di più criminali.
The present thesis proposes a study on repeated bank robbery in Italy. In the last decade, about 50% of European bank robberies have occurred in this country, drawing a problematic situation in terms of both safety and economic impact on banks. Empirical research proves that crime is concentrated on a small proportion of the population and therefore victimization is the best predictor of crime. While repeat victimization has been studies with regard to several crime types, little attention has been paid to bank robbery. This thesis aims at filling this gap by analyzing the universe of bank robberies occurred in Italy between 2007 and 2009. The study shows that, in Italy, only 5% branches accounts for about 45% of all robberies; once victimized, indeed, a bank is exposed to 36% probabilities to be victimized again within the following six months. This concentration is determined by both the success of prior offence, which drives the repeats by original offenders (boost effect), and the characteristics of banks, which expose them to the action of multiple offenders (flag effect).
Styles APA, Harvard, Vancouver, ISO, etc.
5

Vauzour, Benjamin. « Étude expérimentale du transport d'électrons rapides dans le cadre de l'allumage rapide pour la fusion inertielle ». Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14496/document.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le cadre de la recherche sur la fusion nucléaire par confinement inertiel, et vise notamment à contribuer à la validation du schéma d'allumage rapide. Elle consiste en une étude expérimentale des différents processus impliqués dans la propagation d'un faisceau d'électrons relativistes, produit par une impulsion laser ultra-intense (10^{19} W.cm-2), au sein de la matière dense qu'elle soit solide ou comprimée. Dans ce travail de recherche nous présentons les résultats de trois expériences réalisées sur des installations laser distinctes afin de générer des faisceaux d'électrons dans diverses conditions et d'étudier leur propagation dans différents états de la matière, du solide froid au plasma dense et tiède.La première expérience a été réalisée à très haut contraste temporel sur l'installation laser UHI100 du CEA de Saclay. L'étude du dépôt d'énergie par le faisceau d'électrons dans l'aluminium solide a mis en évidence un important chauffage à faible profondeur, où les effets collectifs sont prédominants, générant ainsi un gradient important de température entre les faces avant (300eV) et arrière (20eV) sur 20µm d'épaisseur. Une modélisation numérique de l'expérience montre que ce gradient induit la formation d'une onde de choc débouchant en face arrière, donnant alors lieu à une augmentation de l'émission thermique. La chronométrie expérimentale du débouché du choc permet de valider le modèle de transport collectif des électrons.Deux autres expériences ont porté sur l'étude de la propagation de faisceaux d'électrons rapides au sein de cibles comprimées. Lors de la première expérience sur LULI2000 (LULI), la géométrie de compression plane a permis de dissocier de manière précise les pertes d'énergie liées aux effets résistifs de celles liées aux effets collisionnels. En comparant nos résultats expérimentaux à des simulations, nous avons mis en évidence l'augmentation significative des pertes d'énergie du faisceau d'électrons avec la compression et le chauffage de la cible à des température proches de la température de Fermi, et ce, pour les deux mécanismes. La seconde expérience, réalisée en géométrie cylindrique sur Vulcan (RAL), a permis de mettre en évidence un phénomène de guidage du faisceau d'électrons rapides sous l'effet d'un intense champ magnétique, auto-généré en présence d'importants gradients radiaux de résistivité. Par ailleurs, dans les conditions de température et de densité atteintes, l'augmentation des pertes d'énergie collisionnelles avec la densité s'avère être compensée par une diminution des pertes résistives du fait du passage de la conductivité du milieu dans le régime des hautes températures de Spitzer
The framework of this PhD thesis is the validation of the fast ignition scheme for the nuclear fusion by inertial confinement. It consists in the experimental study of the various processes involved in fast electron beams propagation, produced by intense laser pulses (10^{19} W.cm-2), through dense matter either solid or compressed. In this work we present the results of three experiments carried out on different laser facilities in order to generate fast electron beams in various conditions and study their propagation in different states of matter, from the cold solid to the warm and dense plasma.The first experiment was performed with a high intensity contrast on the UHI100 laser facility (CEA Saclay). The study of fast electron energy deposition inside thin aluminium targets highlights a strong target heating at shallow depths, where the collectivs effects are predominant, thus producing a steep temperature profile between front (300eV) and rear (20eV) sides over 20µm thickness. A numerical simulation of the experiment shows that this temperature gradient induces the formation of a shock wave, breaking through the rear side of the target and thus leading to increase the thermal emission. The experimental chronometry of the shock breakthrough allowed validating the model of the collective transport of electrons.Two other experiments were dedicated to the study of fast electron beam propagation inside compressed targets. In the first experiment on the LULI2000 laser facility, the plane compression geometry allowed to precisely dissociate the energy losses due to resistive effects from those due to the collisional ones. By comparing our experimental results with simulations, we observed a significative increase of the fast electron beam energy losses with the compression and the target heating to temperatures close to the Fermi temperature. The second experiment, performed in a cylindrical geometry, demonstrated a fast electron beam guiding phenomenon due to self-generated magnetic fields in presence of sharp radial resistivity gradients. Furthermore, in the temperature and density conditions achieved here, the increase of collisional energy losses with density is compensated by the decreasing resistive energy losses due to the transition of the conductivity into the high-temperatures Spitzer regime
Styles APA, Harvard, Vancouver, ISO, etc.
6

Logerais, Pierre-Olivier. « Étude du chauffage d’un substrat de silicium dans un système thermique rapide (RTP : Rapid Thermal Process) ». Paris, ENSAM, 2007. http://www.theses.fr/2007ENAM0024.

Texte intégral
Résumé :
Le procédé thermique rapide (RTP : Rapid Thermal Process) est très utilisé dans la fabrication des composants de microélectronique Il correspond à plusieurs étapes clés comme les recuits d’implantation, de siliciuration, d’oxydation, de nitruration et le dépôt de couches minces par CVD (Chemical Vapor Deposition). Il consiste à chauffer un nombre restreint de substrats de silicium par des lampes infrarouges permettant ainsi des durées de traitement très courtes. L’enjeu majeur est d’obtenir une température uniforme à la surface du substrat. Le but de cette étude est de mieux comprendre les relations entre le chauffage par les lampes infrarouges etle profil de température d’un substrat de silicium dans un système thermique rapide, le système AS-One 150,en vue d’améliorer l’uniformité de la température du substrat de silicium. La modélisation du système est réalisée en deux et trois dimensions. La modélisation approfondie d’une lampe infrarouge est aussi effectuée pourmieux cerner les paramètres des lampes à entrer dans les modèles en deux et trois dimensions. Les modélisations ont été réalisées à l’aide du logiciel CFD’ACE. Les équations de conservation de la masse et de la chaleur ont été considérées et l’équation de transfert radiatif est résolue selon un schéma utilisant la méthode Monte-Carlo. Les modèles sont validés en confrontant les profils de température du substrat et les températures des filaments à des mesures expérimentales. Des simulations avec le modèle en deux dimensions sont par la suite réalisées pour mettre en évidence l’influence du hublot en quartz sur le profil de température du substrat et inversement. Différents paramètres du modèle sont modifiés comme les propriétés radiatives du substrat et du hublot ou la diffusivité. Cette corrélation est ensuite expliquée par les propriétés d’émission, d’absorption, de réflexion et de transmission du substrat de silicium et du hublot en quartz et par l’influence des parois froides du réacteur à 300 K. Les différents phénomènes expliquant la forme du profil de température du substrat sont alors posés dans un schéma en quatre phases. La discussion de ce schéma permet d’aboutir à deux idées pour améliorer l’uniformité de la température du substrat. Ces dernières consistent à modifier les propriétés radiatives au niveau de la surface inférieure du hublot pour laisser passer le rayonnement des lampes et éviter l’absorption du rayonnement émis par le substrat de silicium selon deux configurations. Ces idées sont alors vérifiées par des simulations
Rapid Thermal Process (RTP) is very used in the manufacturing of microelectronic components. It is a key stage like annealing, silicidation, oxidation, nitruration and chemical vapour deposition (CVD). Its principle is to heat a small number of silicon wafers by infrared lamps for very short durations. Its main challenge is to obtain a uniform temperature for the wafer surface. The aim of this study is to get a better understanding of the relations between the infrared lamp heating and the silicon wafer temperature profile in a rapid thermal system, the AS-One 150 system, in order to improve the silicon wafer temperature uniformity. The system is modelled in two and three dimensions. The modelling of an infrared lamp is also realized to have a better knowledge of the parameters to enter in the two and three dimensional models. The models are realized by using the CFD’ACE software. The heat and mass conservation equations are taken into consideration and the radiative heat transfer equation is solved by using a Monte-Carlo scheme. The models are validated by comparing the wafer temperature profiles and the filament temperatures in the calculations to the experimental ones. Two dimensional simulations are thereby carried out to put into light the influence of the quartz window on the wafer temperature profile and vice-versa. Different parameters are modified in the models like the radiative properties of the wafer or the window thermal diffusivity. This correlation is then explained by the emission, absorption, reflection and transmission properties of the silicon wafer and the quartz window and by the influence of the reactor cooled wall at 300 K. The different phenomena which explain the shape of the wafer temperature profile are displayed in a four phase diagram. A discussion of the diagram leads to two ideas to improve the wafer temperature uniformity. They consist in changing the radiative properties for the lower face of the quartz window to let the radiative heat of the lamp pass and to prevent the absorption of the radiations emitted by the silicon wafer by two configurations. These two ideas are verified by numerical simulations in two dimensions. A future experimental test is finally suggested
Styles APA, Harvard, Vancouver, ISO, etc.
7

Munguía, Valenzuela Francisco Javier. « RMADS : development of a concurrent Rapid Manufacturing Advice System ». Doctoral thesis, Universitat Politècnica de Catalunya, 2009. http://hdl.handle.net/10803/6852.

Texte intégral
Résumé :
La intenció d'aquest projecte de recerca és anar més enllà de l' aconseguit pels sistemes existents de selecció i comparació de processos de Prototipat Ràpid, mitjançant la introducció d'una nova metodologia que tingui com a únic fi la 'Fabricació Final' de components. El sistema desenvolupat incorpora algunes de les eines més recents del camp de Intel·ligència Artificial, de manera que sigui possible aconseguir una metodologia concurrent que inclogui:

· Sistemes experts, que s'executen durant el procés de presa de decisions amb alternatives múltiples. Els sistemes experts utilitzen típicament estructures del tipus: IF-THEN-ELSE o CASE, de manera que les opcions puguin ser 'cribrades' especialment durant les primeres etapes de la selecció.
· Lògica difusa per a la presa de decisions. Normalment en l'àmbit de la fabricació, alguns termes lingüístics o paràmetres de tipus qualitatiu són utilitzats per definir estats o propietats. Per exemple és comú trobar termes qualitatius com ara: 'bones propietats mecàniques "o" alta taxa d'absorbència', en lloc de xifres i números puntuals. Per tant és necessari comptar amb un mètode per traduir i gestionar aquesta informació. La lògica difusa ha estat adoptada com a mitjà per traduir termes d'ordre qualitatiu a informació quantitativa de manera que a partir d'aquestes dades es pugui construir un sistema de classificació i rànquing de processos.
· Presa de decisions Multi-criteri, agrupació (sumatòria) i classificació. Durant la investigació es van provar diferents mètodes per a la classificació d'alternatives i selecció final a partir de vectors d'ordre quantitatiu amb pesos ponderats. Per a aquesta finalitat es va adoptar la metodologia proposada per Lan et al. (2005) el qual es descriu en el capítol 5 d'aquest treball.
· Xarxes Neuronals Artificials. Aquestes han estat aplicades per a la modelització i simulació d'alguns processos de Fabricació Ràpida prèviament seleccionats. Per exemple, el procés de Sinteritzat Selectiu Làser es va aconseguir modelar utilitzant Xarxes Neuronals amb un algorisme de "backpropagation", prenent com a informació base, les dades proporcionades pel software propietari de l'equip. Aquesta xarxa neuronal simula una màquina de sinteritzat làser model DTM Vanguard, disponible a la FundacioCIM-UPC a Barcelona. D'altra banda el procés de Fusió selectiva per làser ha estat modelat també mitjançant Xarxes Neuronals a partir de l'equip Concep Laser M2, disponible al laboratori d'Enginyeria mecànica de la Universitat Catòlica de Lovaina, Bèlgica. Els models extrets d'aquestes simulacions mostren una estimació del temps total de fabricació menor al 10% la qual cosa representa una millora substancial respecte a mètodes d'estimació paramètrics.
· Finalment s'ha utilitzat la tècnica de bases de dades relacionals per a la gestió i emmagatzematge d'informació sobre materials. Aquestes bases de dades han estat creades en Ms Access, que proporciona la facilitat d'accés, filtrat, graficació i presentació de la informació requerida. Aquesta informació pot ser extreta automàticament mitjançant trucades ODBC, executades des de l'entorn Matlab.



Per a il·lustrar el funcionament de les eines descrites en una forma integrada, s'ha optat per desenvolupar una aplicació pilot en Matlab, utilitzant alguns "Tool boxes" especialitzats com: Lògica difusa, Xarxes neuronals, Estadística, Utilitats de graficació, Creació d'interfície d'usuari (GUI), Bases de dades. El resultat d'aquesta integració és una aplicació pilot anomenada RMADS (Rapid Manufacturing Advice System), el qual compta amb una interfície gràfica d'usuari que es divideix en tres mòduls:

· Requeriments generals de disseny. Aquest mòdul analitza els paràmetres usualment definits en les especificacions inicials de Producte, per exemple: tipus de material, toleràncies, acabat superficial, complexitat geomètrica, etc.
· Mòdul de costos. Aquest mòdul utilitza paràmetres d'entrada prèviament introduïts com: volum de peça, mida de lot i dimensions totals, per a realitzar càlculs mitjançant mètodes paramètrics i models basats en xarxes neuronals. El resultat és una estimació del cost per peça i també el cost estès per volums grans.
· Selecció de materials. Aquest mòdul mostra la natura iterativa del procés de selecció de materials, a través de criteris de "filtratge" o selecció, de manera que a cada iteració el nombre d'opcions sigui limitat a un nombre raonable d'alternatives.
The intention of this research is to go beyond currently available systems for the assessment and selection of Rapid Prototyping processes, hence introducing a new methodology devoted to 'Manufacturing' applications. Specifically the system would include a number of state of the art artificial Intelligence techniques to comprise a fully concurrent methodology, namely:
· Expert systems are included to aid in the decision making process with multiple alternatives. Expert systems typically use If-Then-Else or CASE structures so that the available options can be screened specially during the first selection stages.
· Fuzzy logic for decision making. Usually in manufacturing, linguistic terms or qualitative parameters are used to define states of properties. For instance it is common to find terms such as 'Good mechanical properties' or 'High absortivity rates' therefore it is necessary to have a method to translate and manage such information. Fuzzy logic has been adopted as a means to translate qualitative terms to quantitative information.
· Multi-criteria decision making, aggregation and ranking. Different methods for selecting and ranking alternatives were tested which allows the integration of quantitative vectors with weighting factors that reflect the user preferences. For this purpose the method proposed by Lan et al. (2005) has been adopted as discussed in Chapter 5.
· Artificial Neural Networks (ANNs) are being applied for the modelling and simulation of a number of Rapid Manufacturing Methods. Selective Laser Sintering has been modelled using a back propagation algorithm ANN taking as a basis the information provided by the machine software. The ANN simulates a DTM Vanguard SLS machine available at Fundacio CIM-UPC, Barcelona, while the Selective Laser Melting has been modelled with the parameters and settings used by the Concept Laser M2 machine available at the Mechanical Engineering Lab of the Catholic University of Leuven, Belgium. The extracted models exhibit a build-time prediction error rate lower than 10%, which is a significant improvement compared to conventional parametric methods.
· Finally, relational databases have been applied for storing and handling materials information. These databases have been stored as Ms Access data which provides the ease to access, filter, screen and plot the required information. This data can be automatically called and extracted by means of an ODBC call deployed within the Matlab environment.
In order to illustrate the functionality of the previous tools put together, a pilot application was designed in Matlab, making use of a number of specialized toolboxes namely: Fuzzy logic, Neural Network, Statistics, Plotting utilities, GUI builder, Database.
The result is a prototype system with a graphic user interface divided in three modules:
· General design requirements: which deals with those parameters usually defined in the product PDS, for instance: material type, tolerances, surface roughness, geometrical complexity, etc.
· Costing module: which makes use of parametric cost estimation and ANN-based models to perform the calculation of cost per part, and for low volumes
· Materials selection: Shows the iterative nature of materials selection through screening steps so that the range of suitable options is limited.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Madugula, Sashi Kiran. « Development of a Numerical Tool to Optimise the Infill Structure of Part Produced by Fused Deposition Modeling ». Thesis, Troyes, 2022. http://www.theses.fr/2022TROY0002.

Texte intégral
Résumé :
L'objectif de cette thèse est de développer un outil numérique pour optimiser la structure interne des pièces imprimées en 3D produites par le procédé dépôt de fil fondu (DFF). En impression 3D, le terme remplissage fait référence à la structure interne de la pièce. Pour créer la conception de remplissage, un logiciel de tranchage est utilisé, qui crée généralement le remplissage uniformément dans toute la pièce. Lorsqu'une telle pièce est soumise à une charge externe, toutes les régions de remplissage ne subiront pas la même quantité de contrainte. Par conséquent, l'utilisation d'un remplissage uniforme dans toute la pièce n'est pas la solution la plus optimisée en termes d'utilisation des matériaux. Nous visons à développer un outil numérique pour faire évoluer la conception du remplissage par rapport aux contraintes mécaniques générées par les charges externes. Pour y parvenir, nous proposons deux méthodologies différentes basées sur un processus itératif utilisant des techniques de raffinement et de remaillage couplées à la simulation par éléments finis (simulation EF) pour contrôler la structure interne de la pièce sans modifier le contour. Ces méthodologies visent à renforcer le remplissage de la pièce sans modifier le contour, dans la zone où la résistance mécanique doit être améliorée pour renforcer la structure, mais aussi à diminuer la quantité de matière pour réduire le temps d'impression
The objective of this thesis is to develop a numerical tool to optimise the internal structure of 3D printed parts produced by the Fused Deposition Modelling (FDM) process. In 3D printing, the term infill refers to the internal structure of the part. To create the infill design, slicing software is used, which generally creates the infill uniformly throughout the part. When such a part is subjected to external loading, not all the infill regions will experience the same amount of stress. Therefore, using uniform infill throughout the part is not the most optimised solution in terms of material usage. We aim to develop a numerical tool to evolve the infill design with respect to the mechanical stresses generated by the external loads. To achieve this, we propose two different methodologies based on an iterative process using refinement technique and remeshing techniques coupled to Finite Element simulation (FE simulation) to control the internal structure of the part without changing the contour. These methodologies aim to reinforce the infill of the part without changing the contour, in the area where the mechanical strength must be improved to strengthen the structure, but also to decrease the amount of material to reduce the printing time
Styles APA, Harvard, Vancouver, ISO, etc.
9

Boyard, Nicolas. « Méthodologie de conception pour la réalisation de pièces en Fabrication Additive ». Thesis, Paris, ENSAM, 2015. http://www.theses.fr/2015ENAM0015/document.

Texte intégral
Résumé :
Le but de cette thèse est de proposer une méthodologie de conception pour la réalisation depièces en fabrication additive (FA). Par rapport aux familles de procédés de fabrication standard que sontl'enlèvement de matière, la déformation plastique et la fusion, les procédés de FA présentent descaractéristiques nouvelles permettant la fabrication de pièces en multimatériaux, d'assemblagesindémontables ou encore de formes complexes. L’arrivée de cette nouvelle technologie implique unchangement de paradigme nécessitant l’accompagnement des concepteurs dans leurs missions dedéveloppement de produits de qualité. De plus les caractéristiques mécaniques et l'état de surfaces despièces obtenues en FA dépendent de leur orientation au moment de la réalisation. Par ailleurs, en fonctiondu procédé, de la géométrie souhaitée et de cette orientation, il peut être nécessaire d'intégrer du supportafin d'assurer la fabricabilité de la pièce. Nous avons donc défini une méthodologie de conception, quirespecte l’intégrité de la chaine numérique et dont la finalité est la production d'un modèle numériquetranché prêt à être fabriqué sur une machine de FA. Pour ceci, notre méthodologie se base sur lesdonnées du cahier des charges fonctionnel (CDCF) et les connaissances métier du procédé renseignéespar le concepteur afin de lui proposer automatiquement un premier solide dont la géométrie satisfait toutesces contraintes. Une étape d'optimisation topologique vient ensuite restreindre le volume de matière utilede la pièce afin de limiter son poids, son coût et le temps de fabrication. Enfin, si nécessaire, un supportoptimisé assurant la fabricabilité de la pièce est généré selon ces mêmes critères. Cette méthodologies'accompagne d'un cas d'étude industriel ainsi que de deux expérimentations visant à observer lapossibilité d'un parachèvement à l'acétone sur des pièces réalisée en ABS. La première expérimentationest un plan d'expérience mesurant l'état de surface obtenu en s'appuyant sur la température de l'acétone,le temps d'opération, l'inclinaison des surfaces de la pièce et son épaisseur. La seconde expérimentationest un test de traction visant à observer une modification de la tenue mécanique de pièces soumises à cetraitement. Indépendamment du type de machine et du procédé de FA, la méthodologie que nousproposons est un premier pas concret vers l’obtention de pièces directement conformes, que ce soit pourdes besoins industriels ou domestiques
The aim of this thesis is to propose a design methodology to produce parts using additivemanufacturing (AM). Compared to standard manufacturing processes, as machining, forming, casting ormolding, AM processes have new features for manufacturing multi-material parts, nondetachableassemblies or complex shapes. The arrival of this new technology involves a paradigm shift that requiressupport to designers to develop quality products. Also the mechanical and finishing specifications of theparts obtained by AM depend on their orientation during the manufacturing. Furthermore, depending onthe process, the desired geometry and the orientation, it could be necessary to integrate a support in orderto ensure manufacturability of the part. We define a design methodology that respects the integrity of thedigital channel and whose purpose is to produce a sliced numerical model ready to be manufactured on anAM machine. For this, our methodology is based on data from functional specification and businessknowledge of the process indicated by the designer, to automatically propose a first solid geometry whichsatisfies all these requirements. After this first step, a step of topological optimization restricts the volumeof the part in order to reduce its weight, cost and manufacturing time. Finally, if necessary, optimizedsupport ensuring the manufacturability of the part is generated according to the same criteria. Thismethodology is accompanied by an industrial case study as well as of two experiments to observe thepossibility to finish parts made of ABS with acetone. The first experiment is an experimental design whichmeasures the obtained surface finish based on the temperature of the acetone, the operating time, theinclination of the surfaces of the piece and its thickness. The second experiment is a tensile stress testdesigned to observe a change in the mechanical resistance of the part. Regardless of the type of machineand the AM process, the methodology we propose is a first concrete step towards obtaining directlycompliant parts, whether for industrial or domestic use
Styles APA, Harvard, Vancouver, ISO, etc.
10

Andries, Anne-Claire. « Diagnostic de la dengue : trois solutions pour améliorer la prise en charge des patients et faciliter les études épidémiologiques ». Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS146/document.

Texte intégral
Résumé :
La dengue est une maladie virale des régions tropicales et subtropicales, transmise par les moustiques du genre Aedes. Le virus de la dengue (DENV) appartient à la famille des Flaviviridae, genre Flavivirus. Si la plupart des infections sont asymptomatiques ou se traduisent par un syndrome fébrile sans gravité, le virus peut aussi causer une maladie plus sévère caractérisée par une fuite plasmatique, avec ou sans hémorragie. Sans prise en charge adéquate, les formes les plus sévères peuvent évoluer vers un syndrome de choc, potentiellement mortel. Il n’existe pas de traitement spécifique de la dengue mais une réhydratation adaptée et débutée précocement permet de réduire la survenue de formes sévères de la maladie. Malheureusement, les symptômes initiaux de la dengue avant la survenue des éventuelles complications ne sont pas spécifiques et seul un diagnostic biologique basé sur la détection du génome viral, de l’antigène NS1 ou des anticorps anti-DENV dans le sang des patients permet de confirmer la nature exacte de l’infection. La dengue constitue à l’heure actuelle un problème majeur de santé publique du fait de son expansion mondiale et de l’augmentation annuelle du nombre de cas sévères. Pour assurer la surveillance épidémiologique et le contrôle de la maladie, il est indispensable de développer des outils diagnostiques performants et faciles à mettre en œuvre, à la fois utilisables par les médecins de toutes les structures médicales, des simples centres de soins de santé primaire aux centres de référence, et utilisables lors d’enquêtes épidémiologiques pour l’investigation de nouvelles épidémies. Le travail de cette thèse a porté sur plusieurs aspects de cette problématique. Dans une première partie, un test commercial de diagnostic rapide (TDR) permettant la détection simultanée de la NS1 et des IgG et IgM anti-DENV, a été évalué, en laboratoire spécialisé et sur le terrain, afin de comparer, à partir des mêmes échantillons, les performances du test dans deux situations différentes. La sensibilité s’est révélée plus faible lors de l’utilisation sur le terrain que lors de l’utilisation en laboratoire de référence. La majorité des discordances a été observées pour la détection des IgG et des IgM. L’impact de la mise à disposition du test sur la prise en charge des patients a également été évalué et il s’est avéré qu’au cours de cette étude les pédiatres cambodgiens ont ignorés les résultats du test rapide et ont préféré suivre leur instinct clinique.Un second volet a porté sur la faisabilité d’utiliser les urines et la salive en remplacement du sang veineux pour les tests employés en routine pour le diagnostic de la dengue. Les urines et la salive sont des fluides biologiques plus faciles à prélever que le sang veineux ce qui présente un avantage majeur pour les enquêtes épidémiologiques mais peut également secourir les médecins lorsqu’un prélèvement de sang veineux est difficile à obtenir, par exemple chez les enfants. Bien que les performances des différentes méthodes de diagnostic ne soient pas aussi bonnes avec de l’urine et la salive qu’avec du plasma, les résultats obtenus par PCR en temps réel et avec les ELISAs de détection des anticorps anti-DENV démontrent l’intérêt potentiel de ces deux fluides biologiques pour détecter les infections par le DENV lorsqu’il est difficile d’obtenir du sang veineux. Plusieurs TDR commerciaux développés pour permettre la détection de la NS1 et des anticorps anti-DENV (IgM, IgG et IgA) dans les urines et la salive ont été évalués mais les performances obtenues se sont révélées peu satisfaisantes.Une dernière partie du travail a été consacrée à l’étude de la protéinurie comme marqueur pronostic potentiel de sévérité de la dengue. Ce marqueur biologique ne s’est pas révélé être utile pour diagnostiquer précocement les formes sévères de la maladie
Dengue is a viral disease transmitted by Aedes species mosquitoes, in tropical and subtropical regions. Dengue virus (DENV) belongs to the family Flaviviridae, genus Flavivirus. Although most DENV infections are asymptomatic or result in a self-limited febrile illness, severe diseases characterized by plasma leakage, with or without hemorrhage, can also occur. Patients with a severe dengue can rapidly progress into a life-threatening shock syndrome if no efficient clinical management is provided. There is no specific treatment available for dengue but an accurate and early fluid therapy substantially reduces the occurrence of severe forms of the disease. Dengue symptoms are typically non-specific until or unless complications develop. Only a biologic diagnosis based on DENV genome, NS1 antigen or anti-DENV antibodies detection enables to confirm dengue cases. Dengue is now a major public health problem due to both its geographical spread and the increase in the number of severe cases. New diagnostic tools are necessary to ensure epidemiological surveillance and control of the disease. These tools need to be effective and easy to use in every medical settings, from the smallest primary health centers to the biggest reference centers, and also usable for epidemiologic studies, e.g. for epidemic investigations. The work presented in this thesis was dedicated to this problematic.In a first part of the work, a rapid diagnostic test (RDT), designed to detect NS1 antigen, anti-DENV IgG and IgM, was evaluated, both in a specialized laboratory and in the field, in order to compare the test performances in two different settings, with the same samples. Interestingly, sensitivity was lower when the test was used in the field compared to the sensitivity of the test when performed in the specialized laboratory. Discordances were mainly observed for IgM and IgG detection. Impact of the use of the RDT on clinical management was also assessed during the field study and it revealed that Cambodian pediatricians ignored the results of the RDT and followed their clinical instinct.A second part of the work was dedicated to the assessment of the usefulness of urine and saliva for dengue diagnostic. Dengue diagnostic normally requires a venous blood sample that can be difficult to obtain in certain conditions such as in children or during epidemiological studies. Urine and saliva are easier to collect as the procedure is non-invasive. We showed that, although the performances of the different diagnostic methods were not as good in saliva and urine as in plasma specimens, the results obtained by qRT-PCR and by anti-DENV antibody ELISA could well justify the use of these two body fluids to detect dengue infection in situations when the collection of blood samples is difficult. Performances of commercial RDTs developed for NS1 and anti-DENV antibodies (IgM, IgG and IgA) detection in urine and saliva specimens were not satisfactory.In the last part of the thesis, the potential use of proteinuria as a prognostic marker of severity was assessed but it didn’t prove to be a useful marker for risk prediction
Styles APA, Harvard, Vancouver, ISO, etc.
11

Rial, Carmen Silvia. « Le goût de l'image : ça se passe comme ça dans les fast-foods : étude anthropologique de la restauration rapide ». Paris 5, 1992. http://www.theses.fr/1992PA05H061.

Texte intégral
Résumé :
Il s'agit d'une étude ethnographique des fast-foods, pris ici comme un exemple du processus de globalisation qui caractérise le monde contemporain, ou sont abordées diverses dimensions : les mythes de leur origine, l'imaginaire de ses consommateurs, le travail et les employés, le menu et le discours publicitaire. Nées à la fin des années 50, les fast-foods représentent aujourd'hui 45% de l'ensemble de la restauration commerciale aux Etats-Unis et se trouvent installes dans plus de 60 pays, dont le Brésil et la France que l'ont étudié ici de plus près. Dans une perspective comparative, nous essayons de montrer comment, en dépit de leur prétendue homogénéité, les fast-foods se localisent, se laissant baigner dans le contexte culturel du lieu. Vus comme des faux restaurants chez certains groupes sociaux et cibles de contestations de la part des mouvements nationalistes et écologistes ils sont au contraire perçus par d'autres groupes comme signes d'un moderne idéalisé. Par l'analyse des rumeurs concernant la provenance de la viande des hamburgers, nous voyons que l'utilisation d'une technologie avancée dans le domaine de l'alimentation engendre des sentiments ambigus et un imaginaire peuple de craintes chez les consommateurs
Through this ethnographic study of fast-food restaurants (the fast-food myths of origin, the consumer's image of them, the work organization, the employees, the menu and the publicity), we pretend to consider divers dimensions of the globalization process which characterizes the modern world. Initiated in the late fifties, the fast foods represent today 45% of North America’s commercial restaurants. They can be found in more than sixty countries including Brazil and France which we study in greater detail. In a comparative perspective, we try to show how, despite their supposed homogeneity, fast foods become localizes, taking on the cultural context of the place, seen as false restaurants by certains social groups and targets of protes by nationalist and ecological movements, they are considered by other, on the contrary, as symbols of an idealized modernity. Through the analysis of rumours concerning the origin of meat in hamburgers, we see how the use of advanced technology in the food industry engenders ambiquous feelings and fears in the consumer's imaginary universe. We conclude that what most characterizes these restaurants is the taste for an image, the adhesion to a profusion of images around which the clients, fascinated, share a sense of communion
Styles APA, Harvard, Vancouver, ISO, etc.
12

Richaudeau, François. « Introduction à une étude quantitative du langage écrit et de ses lisibilités ». Paris 8, 1988. http://www.theses.fr/1988PA080313.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Delebecque, Benoît Ris Gabriel Barlier Claude. « Intégration de fonctions avancées à l'inter-strate de pièces réalisées par le procédé de Stratoconception méthodologie et développement des outils associés / ». S. l. : S. n, 2007. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2007_0102_DELEBECQUE.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
14

Li, Wei. « Elaboration par un procédé de précipitation de nanoparticules aux propriétés contrôlées : application à la magnétite ». Thesis, Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL024N/document.

Texte intégral
Résumé :
Ce travail concerne le développement, la mise au point et la modélisation d’un procédé de précipitation de nanoparticules. Le précipité « modèle » étudié est la magnétite (Fe3O4). La méthode chimique de Massart est choisie pour fabriquer les nanoparticules de magnétite, car elle est déjà bien étudiée. Un procédé de précipitation est conçu en réacteur semi-fermé et à recirculation du fluide de la cuve, permettant ainsi de réaliser un mélange intensif des fluides réactifs par des mélangeurs rapides (un tube en T et deux mélangeurs Hartridge-Roughton de tailles différentes). Différents paramètres opératoires sont testés pour déterminer leur influence sur la qualité du précipité. De nombreuses techniques analytiques sont mises en œuvre pour déterminer les propriétés des nanoparticules obtenues. Les résultats montrent que, malgré une chimie inchangée, le type de microréacteur choisi influence sensiblement la qualité des nanoparticules élémentaires et des agglomérats de magnétite. Le potentiel de nano-adsorption de la magnétite est aussi étudié et se révèle prometteur. Enfin, la modélisation hydrodynamique des mélangeurs rapides est réalisée par CFD
The present work is focused on developing and modeling a precipitation process for the production of magnetite (Fe3O4) nanoparticles. The Massart chemical method is chosen to obtain the magnetite nanoparticles owing to its detailed study on the reaction parameters. A semi-batch reactor with a recirculation system is chosen to realize this precipitation process and rapid mixers (T mixer and Hartridge-Roughton mixers of different dimensions) are used to provide an intensive mixing of reagent fluids. Different operating parameters are tested to determine their influences on the precipitate quality. Many analytic techniques are employed to determine the properties of obtained nanoparticles. The results indicate that, without changing of chemical parameters, the quality of magnetite elementary nanoparticles and agglomerates depend sensibly on the type of microreactors utilized. In addition, the magnetite nanoparticles are considered to be a hopeful nanoadsorbent and the related tests are studied. Finally, the CFD technique is used to model the hydrodynamic behaviors of the rapid mixers
Styles APA, Harvard, Vancouver, ISO, etc.
15

Leiva, Germán. « Interactive Prototyping of Interactions : from Throwaway Prototypes to Takeaway Prototyping ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS551/document.

Texte intégral
Résumé :
Le prototypage est une étape essentielle du processus de design. Pendant les premières phases du processus de conception, les designers utilisent le prototypage rapide pour explorer diverses idées. Les outils et techniques actuels de prototypage se concentrent en particulier sur des représentations papier et donc destinées à être jetées. Or, alors que ces prototypes jetables peuvent être créés rapidement, ils se prêtent mal au processus d'itération. Je propose donc de créer des outils de prototypage rapide qui puissent efficacement supporter la création d'artéfacts à la fois jetables et réutilisables pour esquisser de nouvelles interactions dans les premières phases du processus de design. La première partie porte sur le prototypage vidéo. Les designers font face à deux écueils majeurs à l'utilisation de la vidéo en design d'interaction: le temps nécessaire pour filmer et celui nécessaire pour éditer. J’ai développé VideoClipper pour aider le processus de création de vidéo. Cet outil intègre une méthode de design itérative qui encourage la planification et permet une vraie flexibilité pendant la création de prototypes. Je présente les résultats d'une étude utilisateur informelle de trois semaines avec des étudiants en design d'interaction. Les résultats suggèrent que les participants passent moins de temps à capturer et éditer avec VideoClipper qu'avec les autres outils vidéos. En revanche, ils trouvent parfois difficile de créer des stop-motions pour représenter des interactions continues et de re-filmer de nouveaux segments lorsque le design évolue. J'ai ensuite crée Montage, un outil de prototypage vidéo qui permet aux designers de progressivement augmenter leurs prototypes papier avec des maquettes numériques pour faciliter la création, la réutilisation et l'exploration d'interactions dynamiques. Montage utilise l'incrustation vidéo pour découpler l'interface du prototype de son contexte d'utilisation, permettant aux designers de les réutiliser ou de les modifier indépendamment. Je décris comment Montage améliore le prototypage vidéo en combinant la vidéo avec des maquettes numériques animées et encourage l'exploration d'autres contextes d'utilisation tout en permettant le prototypage de styles d'interaction différents. La deuxième partie porte sur l’implémentation de prototypes interactifs. Les designers et développeurs professionnels ont souvent du mal à effectuer la transition de la représentation du design à son implémentation concrète. Avec N. Maudet, j'ai mené trois études sur la conception et l'implémentation d'interactions non-conventionnelles pour comprendre l'écart entre les processus, les outils et les représentations des designers et des développeurs. Nous avons découvert que les pratiques actuelles entraînent des redondances entre le travail des designers et celui des développeurs et des divergences entre le design et son implémentation. Nous identifions trois types de problèmes: l'omission de détails critiques, l'ignorance des cas extrêmes et la non prise en compte des limitations techniques. Je propose quatre principes de design pour créer des outils qui limitent ces problèmes. Ces principes sont utilisés pour créer Enact, un environnement interactif de prototypage d'interactions tactiles. Les résultats de deux études suggèrent que Enact aide les participants à détecter plus de cas extrêmes, augmente la participation des designers et offre de nouvelles possibilités de co-création. Ces trois outils de prototypage reposent sur les mêmes principes théoriques sous-jacent: réification, polymorphisme, réutilisation et substrats d'information. De même, les outils présentés mettent en œuvre une approche du prototypage que je nomme “Takeaway Prototyping” ou prototypage recyclable. Par contraste avec les prototypes jetables, les outils pour le prototypage recyclable permettent le design par énaction et réifient des artefacts de conception pour matérialiser la progression du design
Prototyping is essential in any design process. During the early stages, designers rely on rapid prototyping to explore ideas. Current rapid prototyping tools and techniques focus on paper representations and their disposability. However, while these throwaway prototypes are quick to create they are difficult to iterate over. I argue that rapid prototyping tools can effectively support reusable as well as throwaway artifacts for sketching interaction in early-stage design. First, I investigate tools in the context of video prototyping. Designers experience two main barriers to use video in interaction design: the time to capture and edit the video artifacts. To aid during the capturing-phase of video prototyping I created VideoClipper. This tool embodies an integrated iterative design method that rewards discipline but permits flexibility for video prototyping. The tool provides a storyboard-style overview to organize multiple videos in story Lines. VideoClipper offers editable and reusable TitleCards, video capture for steady-state and rough stop-motion filming and the ability to recombine videos in new ways for redesign. I present informal user studies with interaction design students using VideoClipper in three design courses. Results suggest that participants spend less time capturing and editing in VideoClipper than with other video tools. However, many designers find tedious to create stop-motion videos for continuous interactions and to re-shoot clips as the design evolves. Participants continuously try to reduce re-shooting by reusing backgrounds or mixing different levels of fidelity. Inspired by this behavior, I created Montage, a prototyping tool for video prototyping that lets designers progressively augment paper prototypes with digital sketches, facilitating the creation, reuse and exploration of dynamic interactions. Montage uses chroma keying to decouple the prototyped interface from its context of use, letting designers reuse or change them independently. I describe how Montage enhances video prototyping by combining video with digital animated sketches, encourages the exploration of different contexts of use, and supports prototyping of different interaction styles. Second, I investigate how early designs start being implemented into interactive prototypes. Professional designers and developers often struggle when transitioning from the illustration of the design to the actual implementation of the system. In collaboration with Nolwenn Maudet, I conducted three studies that focused on the design and implementation of custom interactions to understand the mismatches between designers' and developers' processes, tools and representations. We find that current practices induce unnecessary rework and cause discrepancies between design and implementation and we identify three recurring types of breakdowns: omitting critical details, ignoring edge cases, and disregarding technical limitations. I propose four design principles to create tools that mitigate these problems: Provide multiple viewpoints, maintain a single source of truth, reveal the invisible and support design by enaction. We apply these principles to create Enact, an interactive live environment for prototyping touch-based interactions. We introduce two studies to assess Enact and to compare designer-developer collaboration with Enact versus current tools. Results suggest that Enact helps participants detect more edge cases, increases designers' participation and provides new opportunities for co-creation. These three prototyping tools rely on the same underlying theoretical principles: reification, polymorphism, reuse, and information substrates. Also, the presented tools outline a new prototyping approach that I call "Takeaway Prototyping". In contrast to throwaway prototypes, instead of emphasizing disposability, tools for "Takeaway Prototyping" support design by enaction and reify design artifacts to materialize the lessons learned
Styles APA, Harvard, Vancouver, ISO, etc.
16

Cramer, Jérémy. « Contrôle ultra rapide de température sur puce : PCR rapide et régulation du cycle cellulaire ». Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066496.

Texte intégral
Résumé :
L'objet de cette thèse fut d'utiliser l'avantage qu'offre la microfluidique couplée à la thermique, pour fabriquer des dispositifs de contrôle de température sur des projets/applications distincts en vue de leur valorisation. En biologie moléculaire, par la réalisation d'une PCR quantitative rapide, pour la détection d'agents pathogènes. Nous avons réalisé une nouvelle plateforme de détection d'agent pathogène capable de faire 30 cycles d'amplifications en moins de trois minutes. Nous avons également illustré la capacité du dispositif à quantifier par fluorescence en temps réel des agents simulant de l'Anthrax et d'Ebola. 7 minutes et 7 minutes 30 secondes suffisent pour amplifier/détecter ces bactéries et virus. Nous avons également prouvé qu'à ces vitesses ce dispositif rapide de qPCR/RT-qPCR ne dégradait pas l'efficacité, la spécificité et les cycles seuils de détection. Nous avons également démontré que la sensibilité du dispositif était de 100 copies d'Adn initiale. En biologie cellulaire, Nous avons réalisé un dispositif " universel " de contrôle dynamique de température pour l'imagerie cellulaire haute résolution. Ce dispositif de contrôle dynamique de température, permet l'étude spatiotemporelle de mécanismes cellulaires sous microscope haute résolution grâce à l'utilisation de mutant thermosensibles. De nombreuses validations biologiques ont ainsi été réalisées sur notre dispositif dont l'objet final est la commercialisation
The purpose of this work is to take advantage of micro fabrication combined with heat and mass transfer to build potential commercialized temperature control devices in several domain. In molecular biology, for molecular pathogenesis detection we made a new PCR device able to able to perform 30 amplifications cycles in less than 3 minutes. We also demonstrated that our platform was able to quantify with fluorescence the presence of Ebola and Anthrax simulant agents. Respectively 7 minutes and 7 minutes 30 secondes are required to detect the virus and bacteria. In cellular biology we have made a universal temperature control for live cell imaging. It device allow to perform spacio-temporal study of cell mecanisms due to is fast ability to shift from a temperature to another in less than 10 seconds. Many biological validations have been performed. Thank to his universal adaptation to microscope we have also decided to commercialize this device by creating a new start-up
Styles APA, Harvard, Vancouver, ISO, etc.
17

Pisani, Francesca. « Etude expérimentale de la propagation et du dépôt d'énergie d'électrons rapides dans une cible solide ou comprimée par choc laser : application à l'allumeur rapide ». Phd thesis, Ecole Polytechnique X, 2000. http://pastel.archives-ouvertes.fr/pastel-00001022.

Texte intégral
Résumé :
Dans le schéma de l'allumeur rapide, dernière avancée dans le domaine de la fusion par confinement inertiel, on envisage de découpler la phase de compression de la phase de chauffage du combustible nucléaire. Cette dernière serait atteinte à l'aide d'une source extérieure constituée par un faisceau d'électrons très énergétiques créé avec un laser ultra-intense. L'étude des mécanismes de transfert d'énergie de ces électrons au combustible comprimé représente le but principal de ce travail de thèse. Nous nous proposons en particulier de mettre en évidence et d'étudier le rôle joué par les effets électriques et collisionnels de la propagation du faisceau d'électrons rapides dans un milieu aux propriétés proches du combustible comprimé. Nous avons pour cela effectué deux campagnes d'expériences, l'une avec l'installation laser VULCAN du RAL (Angleterre) et l'autre sur la nouvelle installation laser 100 TW du laboratoire LULI (France). Lors de la première expérience, nous avons obtenu les premiers résultats sur la propagation d'électrons rapides dans un matériau dense et chaud. Le caractère novateur de ce travail expérimental tient en particulier à l'utilisation de la technique de génération de hautes pressions par choc laser, ce qui a permis la création d'un plasma fortement corrélé et dégénéré. Le rôle des effets électriques et magnétiques, liés à la charge d'espace créée par le faisceau d'électrons rapides, a été approfondi lors de la deuxième campagne d'expérience, au cours de laquelle nous avons étudié la propagation des électrons dans des matériaux ayant des caractéristiques électriques différentes (isolant ou conducteur). L'analyse des résultats montre que seule la prise en compte simultanée des deux mécanismes de la propagation (collisionnels et électriques) permet un traitement correct et complet du dépôt d'énergie. La nécessité de prendre en compte les modifications apportées à la matière par le passage même des électrons, et notamment le chauffage induit, a été également mise en évidence.
Styles APA, Harvard, Vancouver, ISO, etc.
18

PISANI, FRANCESCA. « Etude experimentale de la propagation et du depot d'energie d'electrons rapides dans une cible solide ou comprimee par choc laser : application a l'allumeur rapide ». Palaiseau, Ecole polytechnique, 2000. http://www.theses.fr/2000EPXX0019.

Texte intégral
Résumé :
L'etude des mecanismes de transfert d'energie de ces electrons au combustible comprime represente le but principal de ce travail de these. Nous nous proposons de mettre en evidence et d'etudier le role joue par les effets electriques et collisionnels de la propagation du faisceau d'electrons dans un milieu aux proprietes proches du combustible comprime. Nous avons pour cela effectue deux campagnes d'experiences, l'une avec l'installation laser vulcan du ral (angleterre) et l'autre sur la nouvelle installation laser 100 tw du laboratoire luli (france). Lors de la premiere experience, nous avons obtenu les premiers resultats sur la propagation d'electrons rapides dans un materiau dense et chaud. Le caractere novateur de ce travail experimental tient en particulier a l'utilisation de la technique de generation de hautes pressions par choc laser, ce qui a permis la creation d'un plasma fortement correle et degenere. Le role des effets electriques et magnetiques, lies a la charge d'espace creee par le faisceau d'electron, a ete approfondi lors de la deuxieme campagne, au cours de laquelle nous avons etudie la propagation des electrons dans des materiaux ayant des caracteristiques electriques differentes (isolant ou conducteur). L'analyse des resultats montre que seule la prise en compte simultanee des deux mecanismes de la propagation (collisionnels et electriques) permet un traitement correct et complet du depot d'energie. La necessite de prendre en compte les modifications apportees a la matiere par le passage meme des electrons, et notamment le chauffage induit, a ete egalement mise en evidence.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Roy, Anne-Marie. « Détection de charge rapide radiofréquence ». Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/8155.

Texte intégral
Résumé :
Dans ce travail, un circuit de détection de charge radiofréquence est construit et caractérisé à l'aide d'un dispositif de boîte quantique. Les radiofréquences permettent d'obtenir des mesures résolues en temps plus rapides par rapport à la méthode classique en courant continu. Cette méthode de détection est effectuée par réflectométrie d'un circuit RLC résonant dont fait partie le détecteur de charge du dispositif. L'intégration d'un condensateur à capacité variable à large plage est étudiée. On trouve que cette composante est nécessaire à l'adaptation rapide et efficace des nouveaux dispositifs au circuit. En plus de la capacité variable, le circuit comporte plusieurs paramètres à optimiser. Il s'agit de la conductance du détecteur de charge, la fréquence et la puissance du signal radiofréquence. Un protocole d'optimisation de ces paramètres a été mis sur pied. On obtient la sensibilité à la conductance du circuit radiofréquence de détection de charge. Elle est équivalente à celle des meilleurs circuits présents dans la littérature. On propose d'améliorer le détecteur de charge du dispositif, pour obtenir une meilleure sensibilité à la charge. Le circuit radiofréquence permet également d'effectuer la caractérisation du couplage tunnel d'un dispositif de double boîte quantique en silicium par la méthode des statistiques de comptage. Cette mesure aurait été impossible avec le circuit en courant continu. On a pu confirmer le comportement exponentiel du couplage tunnel en fonction de la tension appliquée sur une grille électrostatique. Les résultats de ce mémoire confirment que le circuit de détection de charge radiofréquence construit permet d'effectuer des mesures avec une meilleure résolution temporelle qu'en courant continu. Cette résolution ouvre la porte à une toute une gamme de mesures sur les dispositifs de boîtes quantiques qui étaient impossibles avec le circuit précédent, telles que la mesure en temps réel du spin de l'électron.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Joly, Jean-Francois. « Recuit rapide isotherme des semiconducteurs ». Lyon, INSA, 1988. http://www.theses.fr/1988ISAL0016.

Texte intégral
Résumé :
Divers types de recuits rapides (l0-8 à l0-2s) sont actuellement étudiés pour les applications s'étendant du recuit d'implantation ionique aux réactions chimiques telles que l'oxydation ou la formation de composés alliés métal-semiconducteur. Le recuit rapide isotherme (R. R. I. ) est en passe de supplanter ses concurrents grâce à : - une plus grande souplesse d'emploi, - un moindre coût, - aux résultats très satisfaisants obtenus sur les dispositifs réalisés. Deux axes directeurs ont guidé nos travaux : - une synthèse et une analyse bibliographique approfondie, - une contribution aux études du R. R. I. Des matériaux semiconducteurs, notamment dans le domaine du recuit post-implantation. En ce qui concerne le premier point, nous avons en particulier : i) déterminé le principe de fonctionnement des fours R. R. I. , ce qui n'avait jamais été fait auparavant de façon aussi détaillée, ii) présenté une solution originale pour le pilotage précis de notre prototype et ce sans pollution des échantillons, iii) proposé des critères d'analyse et de comparaison des traitements thermiques entre eux, iv) donné un guide permettant aux non-spécialistes de mieux converser avec les personnes chargées des recuits. Pour le second point, nous avons : v) étudié le comportement du silicium vierge (types N et P), du silicium implanté (P+, PF5+, As+) et du polysilicium implanté (B+) à structure multicouches, vis à vis du R. R. I. : pour la première fois ont été mis en évidence des défauts électriquement actifs liés aux seuls paramètres de recuit, ii) montré la faisabilité de photopiles solaires silicium aux rendements pouvant excéder 12 %, iii) présenté les bons résultats du R. R. I. Du silicium polycristallin (meilleurs qu'après un recuit classique), iv) étudié la présence de défauts dans GaAs dans les conditions de recuit dites de "face-à-face, v) réalisé des travaux préliminaires à une étude complète du R. R. I. D'InP implanté.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Vonesch, Hélène. « Magnéto-optique ultra-rapide cohérente ». Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/VONESCH_Helene_2011.pdf.

Texte intégral
Résumé :
Ce travail de thèse concerne l’étude de l'interaction ultra-rapide entre photons et spins dans des matériaux ferromagnétiques. Nous avons d'abord détaillé l'origine des effets magnéto-optiques ainsi que les processus physiques intervenant dans la dynamique d'aimantation ultra-rapide, en particulier dans la dynamique cohérente. Nous avons introduit un modèle simple constitué de huit niveaux de l'atome d'hydrogène pour explorer deux aspects des expériences magnéto-optiques ultra-rapides : le rôle joué par le terme d'interaction spin-orbite avec le champ laser issu du développement relativiste de Foldy-Wouthuysen, ainsi que le lien entre le signal magnéto-optique cohérent et la dynamique d'aimantation aux temps courts. Nous avons modélisé des expériences de mélange à quatre ondes de type pompe-sonde et en configuration de réseau transitoire, ce qui nous a permis de distinguer la réponse magnéto-optiques cohérente de la réponse magnéto-optique des populations. Nous avons montré que dans notre modèle simple, l'interaction spin-orbite issue du développement de Foldy-Wouthuysen influence la dynamique des spins dans le cas d'un système subissant une interaction Zeeman forte. A l’aide d'un film fin de grenat, nous avons illustré expérimentalement la mesure de la réponse magnéto-optique des populations et des cohérences à l'ordre trois en configuration de mélange d'onde à trois faisceaux. Ce travail promet des avancées dans la compréhension de l'interaction cohérente entre spins et photons dans les matériaux ferromagnétiques et elle permet d'envisager un contrôle cohérent de l'aimantation à l'échelle de la femtoseconde
In this work we have studied the ultra-fast interaction of photons and spins in ferromagnetic materials. At first, we have detailed the origin of magneto-optical effects and the different physical processes intervening in ultra-fast magnetization dynamics, especially in the coherent dynamics. We have used a simple model based on eight levels of the Hydrogen atom to explore two aspects of ultra-fast magneto-optical experiments: the importance of the spin-orbit interaction with the laser field appearing in the relativistic Foldy-Wouthuysen development, and the relation between the magneto-optical signal and the ultra-fast magnetization dynamics at short pump-probe delays. We have modeled two types of four-wave mixing experiments: a pump-probe configuration and a three beam setting, which enabled us to distinguish between the coherences’ and the populations’ magneto-optical response. We have shown that in our simple model, the spin-orbit interaction appearing in the Foldy-Wouthuysen development acts on the magnetization dynamics in the case of a strong Zeeman interaction. We have illustrated experimentally the two different magneto-optical dynamics for the populations and coherences in a three beam four-wave mixing experiment performed on a thin garnet film. This work announces progresses in the understanding of the coherent interaction between spins and photons in ferromagnetic materials as well as the possibility of controlling magnetization coherently on a femtosecond timescale
Styles APA, Harvard, Vancouver, ISO, etc.
22

Joly, Jean-François. « Recuit rapide isotherme des semiconducteurs ». Grenoble : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37593837b.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
23

Qoura, Omar El Sayed Ahmed. « Aspects sociaux, culturels et identitaires liés à implantation d’une restauration de type fast-food (chaînes locaux et internationaux), une étude comparative, le cas du Caire ». Perpignan, 2011. http://www.theses.fr/2011PERP1115.

Texte intégral
Résumé :
Les aliments sont plus que de simples substances nutritives: ils constituent une composante clé de notre culture, de notre sentiment d’identité. Loin d’être un ensemble de traits sociaux bien établis, l’identité évolue dans une société donnée en fonction des expériences individuelles et de contraintes structurelles réelles ou imaginaires. La recherche propose le développement et le test aux restaurants fast-foods et centre sur le concept de "valeur perçue". Plus précisément, la recherche détermine le point vers lequel les attentes des clients sont satisfaites quant a leur expérience de repas dans les fast-foods. La recherche se concentre sur la satisfaction des clients du fast-food, afin de déterminer s'il existe un besoin pour une expérience de repas fast-food (aliment, service et ambiance). L’objectif général consiste a recommander si des adaptations a l’aliment et/ou service et/ou l'ambiance sont nécessaires dans les restaurants fast-foods. La recherche porte sur le prix et le temps d'attente sur la valeur perçue par le client, dans le secteur de la restauration rapide ou deux types de prestation en particulier sont l'objet de l'expérimentation, soit les chaînes internationaux et les chaînes locaux. Les résultats supportent l'hypothèse principale selon laquelle la (les attentes des clients sont satisfaites) est positivement associée a la "qualité perçue de service" et a la "valeur perçue de la qualité des aliments pour laquelle une operationnalisation et une mesure sont proposées et validées de manière expérimental
The main purpose of this research is the development and the test of the fast-food restaurants regarding adaptations of the food, service and ambience will be made (if necessary) according to the measure of satisfaction of the meal experienced by consumers who are visiting fast-food restaurants. The study will also provide standard information to the restaurant industry through a look at fast-food competition in Egypt. This research determines whether the fast food customers’ expectations regarding the meal experience and its components were met, and whether they were satisfied with the current meal experience? The response rate reached 77. 7% for fast food restaurants respectively. A quantitative research paradigm was chosen for this research study with the consumer perspective as the point of departure, in the form of the fast food theory. For this research the self-administered questionnaire was the principle method of data collection. The results support the main hypothesis that the majority of the fast food customers were of the opinion that the current meal experience and all its components provided at fast-food restaurants were not met their expectations. In addition, this study shows that the positive relation between service, quality of food and cleanliness as a factors with the highest influence on the demand, it is therefore recommended that fast food chains look into service, quality of food and cleanliness more closely and develop strategies that will ensure and maintain cleanliness at all times
Styles APA, Harvard, Vancouver, ISO, etc.
24

Roubin, Jean-Pierre. « Étude de l'injection d'atomes neutres rapides dans le tokamak T. F. R ». Paris 11, 1987. http://www.theses.fr/1987PA112194.

Texte intégral
Résumé :
Lors des expériences d'injection d'atomes neutres rapides dans le tokamak TFR, les élévations de température du plasma sont faibles et saturent à forte puissance. Ce fait amène à remettre en question le schéma classique du transfert de la puissance injectée au plasma thermique et à vérifier expérimentalement ses étapes successives. La transmission et la capture des faisceaux d'atomes neutres dans le plasma sont mesurées par des méthodes calorimétriques et les valeurs obtenues sont en bon accord avec les calculs classiques. Le confinement et la thermalisation des ions rapides sont ensuite étudiés par trois méthodes indépendantes:-l'analyse des atomes neutres rapides d'échange de charge quittant le plasma (un faisceau auxiliaire de neutres modulé permet des mesures résolues spatialement),-l'analyse des flux de neutrons produits lors de l'injection d'ions deutérium dans un plasma de deutérium,-la mesure des courants d'ions rapides non confinés à cause des modulations du champ magnétique toroïdal. Ces expériences montrent qu'un mécanisme non classique transporte les ions injectés les plus énergiques vers la périphérie du plasma. Ce phénomène limite la puissance que l'on peut coupler au centre du plasma et contribue à la détérioration du confinement de l'énergie. On établit alors les rôles respectifs des populations thermiques et non thermiques dans le bilan d'énergie du plasma
During neutral beam injection experiments on TFR, the increase of the plasma temperature appears to be weak and is saturating at high power. This observation leads to question the classical scheme of power coupling to thethermal plasma and tocheck experimentally its successive stepsheck experimentally its successive steps. First of all, the neutral beam transmission and capture in the plasma, measured by calorimetric methods, are in agreement with the classical calculations. Next the confinement and thermalization of the fast ions is reviewed by means of three different measurements:- charge exchange analysis of fast neutrals leaving the plasma (an auxiliary modulated neutral beam gives a spatially resolved measurement)- neutron flux analysis during injection of deuterium ions into a deuterium plasma- measurement of the fast ions trapped in the toroidal magnetic field ripples. These experiments show that a non-classical mechanism transports the most energetic ions towards the plasma periphery. This phenomenon then limits the overall power that can be effectively absorbed in the plasma centre and contributes to deteriorate the energy confinement. Finally, the respective role of thermal and non-thermal populations in the power balance is addressed
Styles APA, Harvard, Vancouver, ISO, etc.
25

ripoll, françois. « Etude d'une demande de soins au niveau d'un service d'accueil des urgences : la consultation rapide ». Nice, 1989. http://www.theses.fr/1989NICE6538.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
26

Kerninon, Julien. « Intégration des spécificités de la fabrication additive dans une méthode de conception de pièces ». Ecole centrale de Nantes, 2010. http://www.theses.fr/2010ECDN0030.

Texte intégral
Résumé :
Pour s'adapter à un marché de plus en plus concurrentiel, les entreprises doivent minimiser les coûts et réduire les temps de développement tout en conservant une haute qualité du produit. Cette adaptation demande d'aborder dés la phase initiale de conception, tous les éléments du cycle de vie du produit, de l'analyse de besoin à la fabrication. Les récentes évolutions des procédés de fabrication additive font qu'ils doivent être désormais considérés comme des procédés à part entière. La mise en place d'une méthode de conception adaptée à ces procédés est donc devenu un enjeu majeur pour leur évolution. L'objectif de ces travaux de thèse est de proposer une méthodologie d'aide à la conception de pièces mécaniques destinées à être obtenues à l'aide d'un procédé de fabrication par ajout de matière. Nous avons mis en place une méthode de Design For Additive Manufacturing (DFAM). Cette méthode, basée sur l'analyse de grandeurs caractéristiques liées à la topologie de la pièce étudiée, permet d'évaluer la fabricabilité de la pièce en ajout de matière. Nous avons également développé une méthode de décomposition du modèle CAO qui permet de mettre en évidence les géométries de la pièce potentiellement intéressantes à fabriquer par ajout de matière et les géométries problématiques. Celles-ci peuvent être reconçues pour s'adapter au procédé ou bien être fabriquée par un autre procédé et utilisée comme préforme pour la fabrication. Un modèle de la pièce brute de fabrication par ajout de matière peut ainsi être proposé. Nous avons ensuite testé cette méthode sur différentes pièces test, et en paticulier sur une pièce du domaine médical, qui est un des domaines pour lesquels les procédés de fabrication par ajout de matière ont un fort potentiel
In a way to adapt to a market increasingly competitive, companies need to minimize costs and reduce development time while maintaining high quality. This adaptation requires taking into account all elements of the product life cycle, from needs analysis to manufacturing, at an early stage of design. Because a recent developments, additive manufacturing technologies are now considered as manufacturing processes. The development of a design method suitable for these processes has become a major issue for their development. The objective of this thesis is to propose an approach to aid the design of mechanical parts to be obtained using an additive process. We have developed a method of Design for Additive Manufacturing (DFAM). This method, based on analysis fo topological characteristic of the part studied, is use to evaluate the manufacturability of the part with additive processes. We have also developed an approach to decompose a CAD maodel that can separate the geometries that are potentially interesting to be manufactured by additive processes from those that are problematic. These can then be redesigned to adapt to the process or be produced by another way and used as a perform. A model for the blank part for additive manufacturing can thus be proposed. We tested this method on different test parts, espacially on a pice of the medical field, which is one area where additive processes has great potential
Styles APA, Harvard, Vancouver, ISO, etc.
27

Domashenkov, Alexey. « Etude de la faisabilité de la fabrication de pièces fonctionnelles à partir d'alliages intermétalliques, matériaux métallo-céramiques et superalliages au moyen de la fusion sélective par laser ». Ecully, Ecole centrale de Lyon, 2016. http://www.theses.fr/2016LYSEE004.

Texte intégral
Résumé :
La présente étude doctorale est dédiée à l'élaboration de superalliages et de matériaux non-conventionnels (céramo-métalliques et intermétalliques) au moyen de la technique de la fusion sélective par laser. Plus particulièrement, le mémoire est centré sur les relations entre des paramètres du processus, des aspects de la science des matériaux et des propriétés résultantes. Le chapitre 1 présente le principe de la technique empliquée et une étude bibliographique des alliages métalliques courants pour la fusion sélective par laser (SLM). Le chapitre 2 est dédié à la description de superalliages, de matériaux céramo-métalliques et d'intermétalliques. Les problématiques, liées au traitement par laser des alliages impliqués, sont étudiées. Les résultats de la mise au point de la poudre du superalliage monocristallin Thymonel-2 pour SLM sont décrits dans le chapitre 3. Trois cycles de post-traitement thermique ont été étudiés. Les résultats de SLM de la poudre B4C, enrobée par une couche de Co pur, sont montrés dans le chapitre 4. Les micro- et macrostrutures, aussi bien que la composition de phases des échantillons ont été analysées. Le chapitre 5 est consacré à la mise au point des poudres de WC/Co standard et nanostructurée. Une dépendance de la taille résultante de cristallites WC par rapport à la taille initiale a été trouvée. L'étude du chauffage de l'alliage intermétallique NiTi pendant SLM fait l'objet du chapitre 6. Les résultats en inox 304L, en alliage Ti-6Al-4V et en superalliage Inconel 718 ont été utilisés dans les essais. Le chapitre 7 est dédié au diagnostic optique pendant la formation de cordons unitaires en alliage intermétallique TiAl, ainsi qu'à l'analyse de spécimens élaborés à partir de cet alliage. Les courbes de chauffage et de refroidissement ont été obtenues au moyen d'un pyromètre et d'une caméra thermique. Le chapitre 8 décrit le développement d'un modèle mathématique de processus thermiques (cycles thermiques après plusieurs passages lasers) pendant le traitement d'un matériau par une source d'énergie concentrée. Le domaine d'application de ce modèle a été analysé
Processing of superalloys and non-conventional materials (cermets and intermetallics) by means of selective laser melting is the subject of the current study. The particular attention is paid to relations between process parameters, aspects of the materials science and resulting properties. Chapter 1 describes the principles of the involved technology and the literature review of standard materials in selective laser melting (SLM). Chapter 2 is devoted to the description of superalloys, cermets and intermetallic alloys. Issues related to laser treatment of the involved alloys are investigated. Chapter 3 describes of a single crystal superalloyThymonel-2. Three post heat treatment cycles are studied. Results of selective laser melting of ceramic powder particles B4C, cladded by a layer of pure cobalt, are shown in chapter 4. Analysis of micro- and macrostructures, as well as phase analysis, are performed. Chapter 5 is dedicated to SLM of WC/Co standard and nanophased powders. There are demonstrated strict relations between the initial size of WV elementary domains and the resulting one. Studying of the heating procedure during laser processing of NiTi is the subject of the chapter 6. Stainless steel 304L, titanium alloy Ti-6Al-4V and superalloys. Inconel 718 were used as building substrate materials. Chapter 7 is dedicated to the optical diagnostics of unitary track formation from aluminide of titanium, as well as to analysis of specimens obtained from this intermetallic alloy. The diagnostics was perfomed by means of a single-wave pyrometer and a thermographic camera. Chapter 8 describes the development of a mathematical model of thermal cycles during processing of a material by a concentrated source of energy. The applicability domain of the model is analyzed by the comparison of the simulation results with the experimental ones
Styles APA, Harvard, Vancouver, ISO, etc.
28

Bottero, Julie. « L'application d'algorithmes de décision et l'utilisation de tests rapides permettent-elles d'optimiser le dépistage et la prévention de l'hépatite B ? » Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066213/document.

Texte intégral
Résumé :
En France, plus de la moitié des personnes infectées par le VHB ignore leur statut. Le programme " Optiscreen B " visait à évaluer l'intérêt des algorithmes de décision et des tests rapides pour optimiser le dépistage et la prévention de l'hépatite B. Les principaux résultats étaient : La mise en évidence d'occasions manquées de dépistage, principalement liées à une sous-estimation du risque d'exposition lié au pays de naissance.L'application des recommandations de dépistage du CDC pourrait largement diminuer la part des personnes infectées ignorant leur statut mais au prix de très nombreux dépistages.16% des personnes dépistées ont une indication à un traitement antiviral dans les mois suivant le dépistage.100% des personnes ayant des AcHBc isolés avaient une charge virale indétectable.Les TROD AgHBs ont une sensibilité comprise entre 90.5 et 96.5% et une spécificité supérieure à 99%.Le test AcHBs QuickProfileTM a une très bonne spécificité (97.8%) mais une faible sensibilité (58.3%).L'utilité en pratique des TROD VHB pour améliorer la prise en charge des personnes dépistées n'a pas été établie en population générale non ciblée, ceci en partie du fait d'une faible prévalence d'infection et de la sensibilité insuffisante des TROD AcHBs.L'utilisation de TROD AgHBs couplés aux TROD VIH et VHC semble fortement améliorer la cascade de dépistage des personnes migrantes en situation de précarité sociale, à fort risque viral.Les pratiques vaccinales post-dépistage apparaissent extrêmement faibles et le plus souvent liées à l'inertie globale du système.Suite à ce travail, l'analyse médico-économique des différentes stratégies de dépistage est à réaliser
In France, more than half of those infected with HBV are unaware of their status. The Optiscreen B program aimed to evaluate the interest of testing recommendations and rapid tests (RT) and in optimizing screening, linkage-to-care, and prevention of hepatitis B. The main results were : Identification of missed opportunities for screening, mainly caused by underestimating country of birth as an important risk factor. Implementing screening recommendations from the CDC could significantly reduce the proportion of infected individuals unaware of their status, but with the disadvantage of many tests. 16% of persons testing HBsAg-positive after screening have an indication for antiviral treatment. 100% with isolated anti-HBcAb had undetectable HBV viral load. HBsAg RTs have sensitivities between 90.5 and 96.5% and specificities greater than 99%. The anti-HBsAb QuickProfileTM has very good specificity (97.8%) but low sensitivity (58.3%). The effectiveness of HBV RT in improving linkage-to-care was not established among persons eligible for HBV-screening. This was due in part to low infection prevalence and insufficient sensitivity of the anti-HBsAb RT. Nevertheless, combined use of HBsAg, HIV, and HCV RT seems to greatly improve the cascade of care among migrants in socially precarious situations and at high-risk of infection. HBV-vaccination after HBV screening does not occur often, mainly because of insufficient physician-patient motivation. Increased vaccination coverage might be achieved by emphasizing its need at the organizational level. Following this work, cost-benefit analysis of different screening strategies is greatly needed
Styles APA, Harvard, Vancouver, ISO, etc.
29

Barrois, Olivier. « Assimilation de données et modélisation stochastique dans la réanalyse des données géomagnétiques satellitaires ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU030/document.

Texte intégral
Résumé :
Cette thèse, intitulée "Assimilation de données et modélisation stochastique dans la réanalyse des données géomagnétiques satellitaires", propose de retrouver des informations sur l'état du noyau terrestre à la frontière noyau-manteau, en combinant, d'une part, des contraintes spatiales issues de modélisations numériques directes, et d'autre part, des informations temporelles provenant d'équations stochastiques.Cet objectif est réalisé grâce à l'utilisation de méthodes inverses, et à la construction d'un algorithme d'assimilation de données à état augmenté.L'algorithme répond à la double volonté d'être flexible, c'est-à-dire de pouvoir intégrer plusieurs sources de données ou d'informations, et simple d'utilisation, c'est-à-dire d'être peu coûteux en temps de calcul et facilement modifiable.Ce travail s'inscrit dans la continuité des études menées par la communauté en assimilation de données géomagnétiques, ainsi que dans l'opportunité d'utiliser les dernières données satellitaires provenant de la récente mission Swarm (2014-....).Il a été effectué en collaboration avec Julien Aubert (IPGP), qui a fourni les contraintes spatiales issues du modèle Coupled-Earth, ainsi qu'avec Christopher C. Finlay (DTU) et Magnus Hammer (DTU), qui ont fourni les données satellitaires et d'observatoires au sol.Les principaux aboutissements de cette thèse sont la conception d'un algorithme simple et fonctionnel, validé lors d'expériences jumelles synthétiques (publié), et appliqué tout d'abord aux coefficients de Gauss d'un modèle géomagnétique, avant d'être étendu vers les données satellitaires des missions CHAMP et Swarm.Mon algorithme est capable de retrouver de l'information sur les quantités mesurées du noyau mais également sur des quantités non-observées telles que les écoulements du fer liquide ou la diffusion magnétique.Ce travail amène également à la production d'un modèle de champ magnétique et de champ de vitesse à la frontière noyau-manteau qui n'est pas classiquement régularisé.Ce modèle géomagnétique montre des résultats globalement similaires au modèle de référence CHAOS-6, et est cohérent avec les autres travaux de la communauté.Ainsi, les cartes de champ magnétique et de vitesse obtenues à la surface du noyau attestent que le champ magnétique est majoritairement dirigé par l'advection, et confirment la présence persistante d'un gyre équatorial associé avec un hémisphère Pacifique plus calme mais plus dynamique pour le champ de vitesse.La diffusion magnétique retrouvée est concentrée sous l'Indonésie et l'Océan Indien.Fondamentalement, ma thèse démontre l'importance de la prise en compte des erreurs de modélisation dans l'assimilation de données géomagnétiques, avec l'apparition de biais importants et une sous-estimation des erreurs a posteriori lorsque ces erreurs sont négligées.Finalement, le travail présenté tout au long de ce manuscrit restant préliminaire, il ouvre la voie vers une utilisation accrue des mesures géomagnétiques, avec notamment la future publication d'un code libre qui permettra la comparaison systématique des résultats obtenus avec ceux de la communauté
This thesis, entitled {sc Data Assimilation and Stochastic Modelling in Geomagnetic Satellite Data Reanalysis}, intends to retrieve information on the state of the Earth's core at the Core-Mantle-Boundary, by combining, first, spatial constraints coming from direct numerical simulations, and second, temporal information coming from stochastic equations.This purpose is achieved through inverse methods and a data assimilation augmented state algorithm.The proposed algorithm is designed to be flexible, textit{i.e.} able to integrate several types of data or constraints, and to be simple, textit{i.e.} with low computation time and easy to modify.This work fits in with the other studies on the geomagnetic data assimilation of the community, and with the opportunity to use the last satellite data from Swarm spacecraft (2014-....).We have worked in collaboration with Julien Aubert (IPGP), who has provided the spatial constraints from Coupled-Earth dynamo, and with Christopher C. Finlay (DTU) and Magnus Hammer (DTU), who have provided the satellites and ground observatories data.The major outcomes of this thesis are the design of a functional algorithm, validated through synthetic twin experiments (published), and applied, first, to the Gauss coefficients of a geomagnetic model, and second, to the measures of the CHAMP and Swarm missions.My algorithm is able to retrieve information, not only on the measured quantities, but also on the unobserved quantities like the core flows or the magnetic diffusion.This work has led to the production of a magnetic field and core flows model at the core surface which is not classically regularized.The geomagnetic field model shows results that are globally similar to the CHAOS-6 reference field model, and that are coherent with the other studies of the community.Thus, the maps of the magnetic field and the velocity field obtained, confirm that the dipole decay is principally driven by advection, and display the persistent presence of the Atlantic gyre associated with a Pacific hemisphere less energetic.The inverted magnetic diffusion is concentrated under Indonesia and Indian Ocean.Fundamentally, my thesis demonstrate the importance of taking into account the modelling errors in the geomagnetic data assimilation, which leads to strong biases and an underestimation of the textit{a posteriori} errors when those errors are neglected.Finally, the work presented in this manuscript is preliminary, and it paves the way toward an increased use of the satellite data, with in particular, the free release of my code in order to compared the results with the ones obtained by the community
Styles APA, Harvard, Vancouver, ISO, etc.
30

Zouaoui, Marouene. « Etude numérique et caractérisations expérimentales d’un matériau architecturé issu de la fabrication additive ». Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0035.

Texte intégral
Résumé :
Une méthode de structuration des trajectoires par un dépôt de filament contrôlé en fabrication additive permet d’élaborer des matériaux architecturés capables de répondre à des fonctionnalités prédéfinies. Des études expérimentales antérieures dans le domaine de la rupture, reportent un gain de rigidité structurale et une augmentation de la ténacité grâce à cette structuration. Dans cette thèse, des essais de traction ont été menés avec différentes orientations de filament afin d’étudier leurs effets sur le comportement de la structure. Ils montrent que le comportement élastique du matériau architecturé est quasi isotrope. Cependant, une anisotropie prononcée est observée au niveau de sa limite élastique et sa résistance en traction. À la suite de cette première étape d’investigation, nous proposons un modèle par Éléments Finis basé sur l’attribution des repères locaux dans des éléments de maillage. Lors de cette recherche, le comportement mécanique a été modélisé avec une loi transverse isotrope dans le domaine élastique et une norme de Hill pour décrire son écoulement anisotrope. Un premier modèle numérique se montre capable de prédire le comportement en traction sans calculer l‘air gaps alors que celui-ci s’est avéré insuffisant pour prédire le gain de rigidité. Une analyse des trajectoires de dépôt et de leurs recouvrements permet d’expliquer leur influence sur la rigidité structurale à un niveau mésoscopique. Un dernier modèle numérique a été ainsi configuré afin de mieux simuler l’effet de la structuration sur le comportement mécanique
A trajectory structuring method in additive manufacturing makes it possible to develop architectured materials capable of responding to predefined functionalities. In this thesis, we are interested in the modeling of an architectured material obtained by fused filament fabrication. Previous experimental studies in the field of fracture report a gain in structural rigidity and an increase in fracture toughness thanks to this structuring method. Tensile tests were carried out with different filaments orientations in order to study the effect on the behavior of the structure. They show that the elastic behavior of the architectured material is quasi-isotropic. However, anisotropy is observed at its elastic limit and tensile strength. Following this first stage of investigation, we propose a first Finite Element model based on local references assignment in mesh elements. During this research, the mechanical behavior was modeled using a transverse isotropic law in the elastic domain and a Hill criterion to describe its anisotropic yielding. This model is proven able of simulating the tensile behavior without calculating the porosity nevertheless it is insufficient to predict the rigidity enhancement. An analysis of the deposition trajectories correlates the effect of the trajectories crossings on the structural rigidity at a mesoscopic scale. A last digital model was thus configured to incorporate the effect of the structured trajectories on the mechanical behavior
Styles APA, Harvard, Vancouver, ISO, etc.
31

Rapani, Michela <1980&gt. « I consumi alimentari nelle fasce deboli della popolazione ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amsdottorato.unibo.it/2492/1/Rapani-Michela-I_consumi_alimentari_nelle_fasce_deboli_della_popolazione.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
32

Salih, Alj Yassine. « Conception d'un système d'acquisition GPS rapide / ». Montréal : École de technologie supérieure, 2003. http://wwwlib.umi.com/cr/etsmtl/fullcit?pMQ86823.

Texte intégral
Résumé :
Thèse (M. Ing.)--École de technologie supérieure, Montréal, 2003.
"Mémoire présenté à l'École de technologie supérieure comme exigence partielle à l'obtention de la maîtrise en génie électrique". Bibliogr.: f. [103]-106. Également disponible en version électronique.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Salih, Alj Yassine. « Conception d'un système d'acquisition GPS rapide ». Mémoire, École de technologie supérieure, 2003. http://espace.etsmtl.ca/764/1/SALIH_ALJ_Yassine.pdf.

Texte intégral
Résumé :
Dans ce travail plulsieurs techniques nouvelles pour le GPS ont été explorées et appliquées. La première est la technique de traitement par blocs qui est utilisée habituellement dans le domaine du traitement d'images. Cette méthode a été appliquée pour le traitement du signal GPS et a démontré des résultats encourageants. Elle est basée sur l'utilisation de FFT permettant de calculer la fonction de corrélation rapidement par une simple multiplication dans le domaine fréquentiel. L'architecture proposée sur la base de cette méthode a été retenue selon ses performances démontrées, et ce pour remplacer la structure actuelle du récepteur GPS. Une autre méthode étudiée, consiste en l'application d'un algorithme complexe basé sur la transformée de Walsh Hadamard. Cette dernière permettrait d'accélérer 26 fois le calcul de la fonction corrélation, et ce par rapport à la transformée de Fourier rapide FFT. Malheureusement, cette transformée n'est pas directement applicable aux séquences de Gold utilisées en GPS. Ainsi cette technique n'a pas été retenue pour cette application. La troisième technique utilisée est une méthode de conception connue dans le domaine de la microélectronique, à savoir la structure systolique. Ce nouveau mécanisme parallélisé a été appliqué et testé pour l'acquisition du signal GPS. En terme de rapidité et de complexité, cette technique est fort avantageuse. Le système d'acquisition proposé qui est à la base de sa conception et de son mécanisme de fonctionnement se distingue par son architecture simple et compacte, une vitesse de traitement de l'ordre de 1 ms et des performances d'estimation remarquables. Donc, cette méthode a été considérée comme étant la meilleure solution pour remplacer la structure du récepteur GPS actuel. Finalement, l'évaluation de la complexité des deux architectures retenues a confirmé l'efficacité de la nouvelle architecture proposée, basée sur le mécanisme systolique. Sa complexité pour une implémentation directe, ne consomme pas plus de 54% des ressources d'une puce Virtex-II Pro XC2VP125. Cette complexité peut être réduite permettant ainsi l'utilisation de puces de plus petite taille telle que la Virtex-II Pro XC2VP7, et ce au prix de l'utilisation d'une horloge plus rapide. Ceci est réalisable en effectuant un traitement par blocs qui permettra d'emmagasiner les bits entrants dans des tampons pour pouvoir alimenter ensuite un nombre réduit de cellules dans le corrélateur systolique. Pour un réseau avec un nombre de cellules réduit à 100, l'horloge utilisée doit être dix fois plus rapide. Ceci permet de conserver le même temps de réponse du système d'acquisition, mais avec une complexité dix fois plus petite en terme de "slices". Dans ce cas, une puce aussi petite que la Virtex-II Pro XC2VP4 pourrait suffire, et ce avec une exploitation de moins de 4.76% de ses ressources de mémoires RAM. La méthode proposée a permis d'améliorer davantage les performances du récepteur GPS qui y est issu, et ce en terme de vitesse de traitement, de qualité des estimations et de flexibilité d'implémentation. L'architecture qui découle de la première technique basée sur l'utilisation des FFT, nécessite une plus grande surface de silicium, et exige ainsi d'utiliser plus d'une puce programmable FPGA pour l'implémentation complète du système d'acquisition.
Styles APA, Harvard, Vancouver, ISO, etc.
34

HAMPIKIAN, PASCAL DENIS. « Diode rapide de puissance haute tension ». Paris 11, 1991. http://www.theses.fr/1991PA112194.

Texte intégral
Résumé :
Cette these presente l'etude et la realisation de redresseurs rapides haute tension sur silicium du type pin. Ces diodes fonctionnent sous controle d'injection. La charge electrique presente dans la zone centrale pendant la phase de conduction est limitee par la structure des emetteurs n et p. Ce mode de fonctionnement n'est assure qu'avec des emetteurs dont la dose des proches de 2. E+12 cm##2. Cela necessite alors de travailler avec des jonctions courtes inferieures a 400 nm pour garantir a la fois cette dose faible et une concentration en surface indispensable a une bonne prise de contact. Pour eviter une chute en direct trop importante, due a la faible quantite de porteurs injectes, la zone centrale doit avoir une duree de vie elevee et une epaisseur minimum. Pour une tension de claquage de 1000 v et a partir d'un substrat de 40-50 ohm. Cm, le composant est fabrique sur un voile mince de silicium de 0,1 mm, obtenu grace a un assemblage de deux technologies: autosoudage et gravure anisotropique du silicium. Pour une diode de 10 mm#2 ayant une tension de claquage de 1000 v, la chute en direct est de 1,25 v a 20 a. Le temps de recouvrement, pour 20 a commute est de 150 ns. Cette diode n'ayant pas besoin de diffusion metallique, la temperature a moins d'influence sur les performances electriques
Styles APA, Harvard, Vancouver, ISO, etc.
35

Hamdi, Oussama. « Architecture d’échantillonnage rapide pour l’imagerie RADAR ». Thesis, Limoges, 2019. http://www.theses.fr/2019LIMO0120.

Texte intégral
Résumé :
Les systèmes Radar ULB utilisent des signaux dont le spectre dépasse une décade et se situe dans la bande 100MHz-10GHz. L’imagerie Radar ULB s’est beaucoup développée ces dernières années. Elle couvre un large champ applicatif : la défense, la sécurité civile, le biomédical. Elle permet en effet de pénétrer à travers les matériaux non conducteurs avec une résolution centimétrique. Dans les radars à impulsions ULB, la bande passante peut atteindre plusieurs GHz, de sorte qu'un Convertisseur Analogique-Numérique (CAN) pouvant échantillonner à cette vitesse avec une résolution de 10 à 14 bits est très difficile à concevoir. Il est toutefois possible de mesurer directement un signal Radar ULB reçu dans le domaine temporel en associant un CAN avec un T&HA avec une fréquence d’échantillonnage maximale de plusieurs GSa/s. Ces travaux portent sur le développement d’un démonstrateur Radar SAR ULB qui repose sur l’utilisation d’une technique de sous-échantillonnage cohérent pour la mesure des signaux Radar ULB. Ce démonstrateur Radar ULB est construit autour d’un CAN rapide (500 MS/s), d’un FPGA,et d’un T&HA ultra-large bande (5 GHz). Il permet ainsi la détection decibles en trois dimensions grâce à un algorithme de backpropagation
Typically, the waveforms transmitted by UWB radar cover a spectrum higher than a decade, in the 100MHz-10GHz frequency range. UWB Radar imaging has grown significantly in recent past years and is used for a large number of applications as defence, civil security and biomedical. One of their advantages lies in the fact that microwaves are able to penetrate through non-conductive materials with centimeter resolution. In UWB pulse radar, the bandwidth can reach several GHz, so that an Analog-to-Digital Converter (ADC) needs a high sampling rate and with a high resolution (>12 bits) to guarantee enough dynamic range. However, it is now possible to directly measure time-domain radar signal by associating an ADC with a Track and Hold Amplifier T&HA with wide RF bandwidth and with a maximum sampling frequency of several GSa/s. This work involves the development of a UWB SAR Radar demonstrator based on the use of a coherent sub-sampling technique for measuring UWB Radar signals. This UWB Radar demonstrator is built around a fast ADC (500 MS/s), an FPGA, and an ultra-wideband T&HA (5 GHz). It allows target detection by processing based on the use of a Radar image reconstruction algorithm
Styles APA, Harvard, Vancouver, ISO, etc.
36

KANJI, NANJI ANIS. « Modelisation du beton en dynamique rapide ». Nantes, 1999. http://www.theses.fr/1999NANT2112.

Texte intégral
Résumé :
La connaissance du comportement du beton sous sollicitations de type choc ou explosion est necessaire pour dimensionner les structures telles que les abris militaires ou les centrales nucleaire. Une etude bibliographique sur le comportement du beton non confine sous impact met en evidence l'effet de vitesse sur les caracteristiques du materiau et son caractere de fragile. Pour generer des gammes de vitesse de deformation superieures a 10s 1, le dispositif experimental des barres de hopkinson est en general utilise. Une etude numerique est realisee sur ce dispositif pour comprendre les phenomenes de propagation d'ondes dans le systeme, pour analyser le depouillement des essais et pour orienter notre choix de modelisation numerique. Les resultats de l'etude montrent que la masse mise en mouvement n'engendre pas de perturbation suffisante pour expliquer les effets de vitesse constates experimentalement et qu'une simulation directe de l'eprouvette suffit pour identifier les parametres d'un modele. Dans ce travail, le materiau beton est modelise par un modele de comportement visco-endommageable elabore au lmt cachan pour de faibles vitesses de deformation ( 12s 1). Apres modification de la loi d'endommagement, le modele est valide pour les fortes gammes de vitesse de deformation (300 s 1 <<600s 1) sur des essais de compression non confines sur barres de hopkinson. Cette validation a necessite le developpement d'une methode d'identification, basee sur l'analyse inverse, couplee a la methode des elements finis pour determiner les parametres materiels par simulation des essais. L'analyse du comportement du beton confine sur des essais aux barres de hopkinson met en evidence la transition d'un domaine fragile vers un domaine ductile et egalement l'effet de vitesse. En effet, sous forte pression hydrostatique, le beton, initialement fragile, se rigidifie suite a une fermeture des pores. Le comportement du beton confine en dynamique est modelise dans ce travail a partir de la theorie de la viscoplasticite. La traction, la compression et la compaction du materiau sont pris en compte par une unique surface seuil de charge. L'evolution de la traction est modelisee par analogie au modele de mazars, l'adoucissement en compression simple est considere selon un ecrouissage lineaire decroissant et la compaction est caracterise par l'evolution de la porosite du materiau.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Mou, Zhi-Jian. « Filtrage RIF rapide : algorithmes et architectures ». Paris 11, 1989. http://www.theses.fr/1989PA112406.

Texte intégral
Résumé :
Le filtre à réponse impulsionnelle finie (RIF) joue un rôle des plus importants dans le traitement numérique du signal et représente souvent la principale charge de calcul dans une application soit en logiciel soit en matériel. Cette thèse est divisée en deux parties. La première partie de la thèse traite le problème de la réduction de la complexité arithmétique du filtre RIF. Nous fournissons un ensemble d'algorithmes permettant de 'casser' le filtre habituel en plusieurs sous-filtres échantillonnés, de telle manière que le nombre d'opérations à effectuer se trouve réduit. La deuxième partie étudie non seulement l'implantation de ces sous-filtres mais plus généralement l'architecture des filtres RIF en vue de leur intégration VLSI. Nous présentons une approche unifiée pour tous les algorithmes rapides de filtrage RIF. Le théorème du reste chinois (TRC) constitue la base de l'approche. Tout d'abord nous formulons le filtrage RIF comme un produit polynomial. Ensuite l'application du TRC se fait en trois étapes : 1) interpolation ; 2) filtrage ; 3) reconstruction. L'approche se termine par recouvrement. Sous une présentation pseudocyclique, il est facile de démontrer quelques propriétés utiles des algorithmes. Les algorithmes classiques sont examinés dans ce cadre. Mais l'unification de ces algorithmes n'est pas notre seul objectif. Nous présentons aussi des nouvelles possibilités apportées par cette approche, qui permet d'établir en particulier tous les algorithmes intermédiaires entre traitements temporels et fréquentiels. Nous traitons les algorithmes de petite longueur en détail. Ces algorithmes permettent de réduire la complexité arithmétique en gardant comme brique de base des filtres RIF d'ordre plus petit. Ils sont donc ouverts à diverses implantations. Nous étudions ensuite l'aspect arithmétique du multiplieur-accumulateur d'une part, et de nouvelles architectures d'autre part. Une conception compacte et régulière de l'arbre de Wallace est proposée pour surmonter les difficultés qui empêchaient l'application de cette structure par ailleurs très efficace au niveau du temps de calcul. Nous présentons quelques nouveaux accumulateurs rapides. L'architecture du filtre RIF par l'arithmétique distribuée est analysée en détail. Nous présentons de nouvelles structures ayant les caractéristiques suivantes : sans ROM ; avec l'additionneur carry-save comme brique de base; avec accumulation rapide. En particulier, un nouveau codage est proposé pour profiter de la symétrie des coefficients afin de réduire la quantité de matériel et d'accélérer le calcul.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Dufaud, Olivier. « Prototypage rapide de composites céramiques fonctionnels ». Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPL048N.

Texte intégral
Résumé :
La stéréolithographie (SPL) est un procédé de prototypage rapide, basé sur la photopolymérisation d'un monomère liquide en un polymère solide à l'aide d'un faisceau laser. Cette technique de prototypage rapide a été mise en œuvre dans le but de fabriquer des composites polymère/céramiques piézoélectriques (PZT). La caractérisation des propriétés rhéologiques et photochimiques des suspensions a conduit au choix de deux formulations compatibles avec le procédé de SPL. Leur emploi est fonction de leur charge massique en céramique qui varie de 50 à 85%. Ces expériences ont également montré que les dispersions de PZT absorbaient fortement le rayonnement UV, ce qui implique de faibles épaisseurs polymérisées. De plus, l'influence de l'oxygène sur la résolution du procédé de SPL a été mise en évidence. Par conséquent, une modification du procédé a été nécessaire afin de réduire l'épaisseur de couche déposée à 10[micro]m, dans le but d'assurer une bonne cohésion des objets. Dans cette optique, un nouveau système de déposition de couches de céramiques, constitué d'une buse d'injection d'azote, a été développé. Par ailleurs, l'ensemble du procédé de SPL a été transformé afin de permettre la mise en forme de céramiques piézoélectriques. Grâce à ces améliorations, des films épais de PZT, des piézocomposites 1-3 et d'autres pièces fortement chargées en céramiques fonctionnelles ont été réalisées. La mise en forme par SPL est suivie d'un traitement thermique durant lequel le polymère est éliminé. Des mesures ont montré que les échantillons frittés possédaient des densités voisines de 96% de la densité théorique. Enfin, les céramiques ont été métallisées puis polarisées afin d'étudier leurs propriétés ferroélectriques et piézoélectriques. Ces analyses ont démontré la fonctionnalité des zircono-titanates de plomb fabriqués par SPL et leur intégration possible au sein de microsystèmes (MEMS). Les applications couvertes par ce type d'objets sont nombreuses et vont du microactionneur au capteur. . .
Styles APA, Harvard, Vancouver, ISO, etc.
39

Sylvestre, Pierre-Luc. « Prototypage rapide des systèmes MIMO-CDMA ». Thèse, Université du Québec à Trois-Rivières, 2009. http://depot-e.uqtr.ca/1886/1/030096577.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
40

Larrieu, Robin. « Arithmétique rapide pour des corps finis ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX073/document.

Texte intégral
Résumé :
La multiplication de polynômes est une opération fondamentale en théorie de la complexité. En effet, pour de nombreux problèmes d’arithmétique, la complexité des algorithmes s’exprime habituellement en fonction de la complexité de la multiplication. Un meilleur algorithme de multiplication permet ainsi d’effectuer les opérations concernées plus rapidement. Un résultat de 2016 a établi une meilleure complexité asymptotique pour la multiplication de polynômes dans des corps finis. Cet article constitue le point de départ de la thèse ; l’objectif est d’étudier les conséquences à la fois théoriques et pratiques de la nouvelle borne de complexité.La première partie s’intéresse à la multiplication de polynômes à une variable. Cette partie présente deux nouveaux algorithmes censés accélérer le calcul en pratique (plutôt que d’un point de vue asymptotique). S’il est difficile dans le cas général d’observer l’amélioration prévue, certains cas précis sont particulièrement favorables. En l’occurrence, le second algorithme proposé, spécifique aux corps finis, conduit à une meilleure implémentation de la multiplication dans F_2[X], environ deux fois plus rapide que les logiciels précédents.La deuxième partie traite l’arithmétique des polynômes à plusieurs variables modulo un idéal, telle qu’utilisée par exemple pour la résolution de systèmespolynomiaux. Ce travail suppose une situation simplifiée, avec seulement deux variables et sous certaines hypothèses de régularité. Dans ce cas particulier, la deuxième partie de la thèse donne des algorithmes de complexité asymptotiquement optimale (à des facteurs logarithmiques près), par rapport à la taille des entrées/sorties. L’implémentation pour ce cas spécifique est alors nettement plus rapide que les logiciels généralistes, le gain étant de plus en plus marqué lorsque la taille de l’entrée augmente
The multiplication of polynomials is a fundamental operation in complexity theory. Indeed, for many arithmetic problems, the complexity of algorithms is expressed in terms of the complexity of polynomial multiplication. For example, the complexity of euclidean division or of multi-point evaluation/interpolation (and others) is often expressed in terms of the complexity of polynomial multiplication. This shows that a better multiplication algorithm allows to perform the corresponding operations faster. A 2016 result gave an improved asymptotic complexity for the multiplication of polynomials over finite fields. This article is the starting point of the thesis; the present work aims to study the implications of the new complexity bound, from a theoretical and practical point of view.The first part focuses on the multiplication of univariate polynomials. This part presents two new algorithms that should make the computation faster in practice (rather than asymptotically speaking). While it is difficult in general to observe the predicted speed-up, some specific cases are particularly favorable. Actually, the second proposed algorithm, which is specific to finite fields, leads to a better implementation for the multiplication in F 2 [X], about twice as fast as state-of-the-art software.The second part deals with the arithmetic of multivariate polynomials modulo an ideal, as considered typically for polynomial system solving. This work assumes a simplified situation, with only two variables and under certain regularity assumptions. In this particular case, there are algorithms whose complexity is asymptotically optimal (up to logarithmic factors), with respect to input/output size. The implementation for this specific case is then significantly faster than general-purpose software, the speed-up becoming larger and larger when the input size increases
Styles APA, Harvard, Vancouver, ISO, etc.
41

Brunel, Jean. « Nicolas Rapin (1539-1608) : un Poitevin poète, humaniste et soldat à l'époque des guerres de religion : la carrière, les milieux, l'oeuvre / ». Paris : H. Champion, 2002. http://catalogue.bnf.fr/ark:/12148/cb38823285r.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
42

Bouffault, François. « Conception et réalisation de chaînes d'acquisition vidéo-rapides incluant une compression d'images temps réel, conception d'un capteur ASIC dédié à la vidéo-rapide, application à la biologie ». Nice, 1996. http://www.theses.fr/1996NICE4972.

Texte intégral
Résumé :
La recherche proposée ici concerne le développement de chaînes d'acquisition vidéo-rapide adaptées aux études biologiques et a un coût permettant leur utilisation en routine dans des laboratoires de recherche. Cette étude comprend plusieurs approches complémentaires. Nous avons tout d'abord conçu et réalisé, à partir de composants commerciaux, des caméras vidéo-rapides en technologie CCD et leurs systèmes de mémorisation numériques. Des composants de type FPGA ont été systématiquement choisis pour la partie logique. Les performances de ces chaînes d'acquisition sont les suivantes: 625 im/s à une résolution de 122x190 pixels, une quarantaine d'images pouvant être stockées. Dans la deuxième partie, nous proposons l'étude d'un nouveau type de capteur vidéo-rapide sous la forme de circuits ASIC en technologie CMOS standard. Ce capteur est divisé en plusieurs zones lues en parallèle, le système de lecture diffère de celui adopté en technologie CCD. Il permet un accès aléatoire à chacun des pixels. Dans la troisième partie, pour accroître la capacité de stockage, nous réalisons une carte de compression temps réel (10mhz) venant s'insérer entre la camera et le système de mémorisation. L'algorithme original implanté sur cette carte a été conçu en fonction de l'adéquation algorithme architecture. Cet algorithme réalise une décomposition de l'image par bloc et une reconstruction pyramidale permettant de contrôler le degré de dégradation de l'image. Les calculs sont effectués par un FPGA. La dernière partie concerne l'adaptation des matériels précédemment décrits aux problèmes spécifiques de la vidéo rapide en biologie. Nous discutons plus particulièrement des contraintes imposées par l'application biologique et du compromis entre rapidité, sensibilité et résolution. La validité du choix de l'algorithme de compression est contrôlée par un test psychovisuel.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Luu, Trong Hoang. « Méthodes d'approximations pour l'optimisation en dynamique rapide ». Paris 6, 2002. http://www.theses.fr/2002PA066434.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
44

Deng, Sihao. « Programmation robotique hors-ligne et contrôle en temps réel des trajectoires : développement d’une extension logicielle de "Robotstudio" pour la projection thermique ». Besançon, 2006. http://www.theses.fr/2006BESA2035.

Texte intégral
Résumé :
Cette étude s’inscrit dans le cadre de l’amélioration et de la maîtrise de l’utilisation d’un robot appliquée à la projection thermique sur des formes de géométrie complexe. Différentes voies ont été étudiées pour mener à bien ce projet. Sur la base d’une structure logicielle dénommée (RobotStudio™), une trousse à outil dédiée à la projection thermique dite « Thermal Spray Toolkit » a été développée. Cette trousse à outil comporte trois modules (« PathKit », « MonitorKit », « ProfileKit ») qui fournissent respectivement les créations de la trajectoire robot, le contrôle du robot en ligne et l’analyse du profil du dépôt dans un environnement de projection thermique. Dans un premier temps, les principes de l’extension logicielle pour RobotStudio™ ont été étudiés et la structure globale du programme d’extension a été établie. Puis, des méthodes et protocoles de communication ont été analysés et testés pour la connexion avec le robot. Plusieurs expérimentations ont été effectuées pour tester les fonctionnalités et la stabilité du logiciel développé. Les résultats présentés montrent que ce développement est bien adapté à la génération et l’optimisation de trajectoires robot hors-ligne pour la projection thermique
The aim of this study was to improve robot trajectories control during the thermal spraying process on complex geometric objects. Many researches have been done to support this project. A commercial software (RobotStudio™) has been installed and the robot off-line programming has been tested and achieved. A toolkit dedicated to thermal spray called “Thermal Toolkit Spray” was developed on the platform “RobotStudio™”. This toolkit consists of three modules (“PathKit”, “MonitorKit”, “ProfileKit”) which respectively provide the generation of the robot trajectory, the real-time monitoring of the robot and the analysis of the profile of the deposit. Initially, the principles of the add-in program for RobotStudio™ were studied and the structure of the software was established. Then, the methods and communication protocols were analyzed and tested for the connection with the robot. Several experiments were carried out to test the software functions and its stability. The results show that this development can perfectly be used to create, optimize and monitor the robot program in the whole process of thermal spraying
Styles APA, Harvard, Vancouver, ISO, etc.
45

Delebecque, Benoît. « Intégration de fonctions avancées à l’inter-strate de pièces réalisées par le procédé de Stratoconception : méthodologie et développement des outils associés ». Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10102/document.

Texte intégral
Résumé :
Nos travaux de recherche s’inscrivent dans le contexte du prototypage rapide, plus particulièrement dans celui de la Stratoconception. Ce procédé consiste en la décomposition automatique de l’objet en une série de couches élémentaires appelées strates. Chacune de ces strates est directement fabriquée par micro-fraisage rapide 2,5 axes à partir de matériaux en plaques. Tous ces éléments sont ensuite assemblés afin de reconstituer la pièce finale. Si l’usinage est entièrement automatisé, l’assemblage est une opération qui demande encore une intervention manuelle. Un bilan des méthodes actuelles utilisées pour l'assemblage des strates montre les inconvénients et les limitations de ces techniques. Notre contribution porte sur une nouvelle méthode d’assemblage, l’emboîtement. Elle permet l’intégration d’entités d’assemblage au sein des couches. Pour cela, nous avons développé un système de génération automatique des entités dans le processus. Les outils et méthodes logicielles permettent d’automatiser cette opération, en définissant les entités d’assemblage, leur forme, leur dimensionnement et surtout leur positionnement au sein des couches. Nous présentons diverses approches de localisation de ces entités au travers d’algorithmes de placement par grilles, par forces de répulsion ou par un algorithme génétique de recherche du k-gon maximum inscrit. Le développement d’un algorithme original de localisation automatique des entités par squelettisation a permis d’optimiser le placement des entités par rapport à la géométrie des couches. Une seconde approche est proposée : l’emboîtement complet. La génération de l’emboîture à partir des contours de l’inter-strate induit la problématique des formes imbricables, c’est-à-dire la création de formes mâles et femelles complémentaires et réalisables par l’outil d’usinage. Enfin, nous concluons le mémoire en mettant en évidence les premiers résultats industriels au travers des outils implémentés dans le logiciel du procédé et des pièces réalisées par cette nouvelle méthode
Our research works are related to rapid prototyping, and specially to the Stratoconception process. The process consists in automatically decomposing the object into a series of elementary layers, called strata. Each of these strata is directly manufactured using high-speed 2.5 axis micro-milling of slabs of material. All of these elements are then assembled in order to reconstruct the final part. If machining is automated, assembling is a manual task. An assessment of the current used methods for layers assembly show the disadvantages and the limitations of these techniques. Our contribution relates to a new assembly method: jointing. It allows the integration of assembly features into layers, it improves fixing and reduces the manufacturing time and costs. We developed a process planning system in the process to generate this features. The software tools are abled to automate this operation, by generating assembly features, their form, their dimensioning and especially their location into layers. We present various approaches of localization of these features through placement algorithms based on grids, forces of repulsion or genetic algorithm. The development of an original localization skeleton-based algorithm made it possible to optimize the placement of the features taking into account layers geometry. One second approach is proposed: complete jointing. The joint is generated from inter-layers contours induced the build-in shape problem, i.e. male and female complementary shapes machining by the tool. Lastly, we conclude the manuscript by highlighting the first industrial results through the tools integrated into the process software and the parts manufactured by this new method
Styles APA, Harvard, Vancouver, ISO, etc.
46

Fernandez, Ricardo E. « A Case Study of a Six-Time Convicted Serial Rapist : The Search for Explanation ». ScholarWorks@UNO, 2017. http://scholarworks.uno.edu/td/2320.

Texte intégral
Résumé :
This case study discusses rape theories by performing a case study of a convicted serial rapist, hereafter referred to as “Carl Criminal.” This pseudonym has been used throughout this research effort in order to avoid the additional contributing to the celebrity status of the true rapist who has committed these vicious sexual assaults. Locations have also been changed in order to prevent contribution of further clues that may help identify the rapist and avoid embarrassment, humiliation, and further mental anguish for the rape victims. On January 18, 1999, Carl Criminal, a 38-year-old white male Sheriff’s Deputy with a local sheriff’s office was arrested and initially charged with five counts of aggravated rape. The charges were later amended to include a sixth charge of aggravated rape. At the time of his arrest, Carl Criminal was a veteran law enforcement officer for over nineteen years and had served as a plainclothes sergeant with the Juvenile Division. Carl Criminal’s arrest ended an extensive years-long rape task force investigation into a series of rapes that occurred between 1986 and 1997. Carl Criminal, upon being interviewed at his place of incarceration, admitted that he committed eleven rapes during the period of his criminal activity while serving as a sheriff’s deputy. This research project explores Carl Criminal’s history and chronicles his career as a law enforcement officer and as a rapist. The project represents a searched for possible explanations, causation, and motivation for his criminal behavior. This study attempts to dissect his aberrant behavior and analyze potential causes related to his nurturing. Furthermore, the study examines his relationships and attempted to discern early patterns of social deviance. Carl Criminal himself stated, “I wish someone could tell me what’s wrong with me.” This research study attempts to furnish answers to his question. This case study explores Carl Criminal’s current thoughts regarding the trauma he brought to his victims’ lives. Carl Criminal lamented the pain he now realizes his victims experienced. The research identified incidents in Carl Criminal’s youth that may now serve as markers to assist in identifying potential criminal behavior in the lives of other adolescents.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Di, Patrizio Nicolas. « Précipitation continue de produits minéraux : étude de l'influence des conditions de mélange à la précipitation sur les caractéristiques d'oxydes mixtes de cérium et de zirconium ». Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0001/document.

Texte intégral
Résumé :
Une installation de mélange rapide entièrement automatisée permet d'étudier l'influence des conditions de mélange sur la co-précipitation d'oxydes mixtes de cérium et de zirconium. L'intensité du mélange est contrôlée par le débit d'entrée des solutions réactives. Un modèle d'engouffrement à iso-volume a permis d'estimer le temps de mélange à partir de la mesure d'un indice de ségrégation par le système de Villermaux Dushman pour trois mélangeurs Hartridge Roughton de géométries différentes. Pour une même puissance spécifique dissipée, le mélange est plus intense lorsqu'un rétrécissement est présent. L'intensification du mélange diminue la température maximale de réductibilité et augmente les contraintes du réseau cristallin des oxydes mixtes synthétisés et calcinés à 1100 °C. Cela est interprété par une meilleure homogénéité des particules. L'étude des particules directement en sortie du mélangeur rapide montre que pour les débits étudiés le mélange parfait avant précipitation n'est pas atteint. Une partie des particules se forme en milieu acide, incorporant des nitrates dans leur structure. Une modélisation simple des phénomènes de mélange couplée à une prise en compte des équilibres chimiques confirme ce résultat expérimental
An automated experimental set-up with rapid mixers is used to study the influence of mixing conditions on the co-precipitation of cerium-zirconium mixed oxides. The intensity of mixing is controlled by the inlet flowrates of the reacting solutions. An engulfment model is used to estimate a mixing time from the measurement of a segregation index by the Villermaux-Dushman reaction system. Three geometries of Hartridge Roughton mixers are compared. Mixing performance is better when a separate mixing chamber upstream of a narrower outlet pipe is present. A better mixing decreases the maximal reducibility temperature of the material and increases the crystal strains of the particles calcined at 1100 °C. This is probably due to a better homogenization of the particles content. The important incorporation of nitrates in the particle at the outlet of the mixers shows precipitation occurs while the mixing process is not finished. This experimental result was confirmed by numerical simulation and an estimation of sursaturations during the mixing process
Styles APA, Harvard, Vancouver, ISO, etc.
48

Hulliger, Pascal Hulliger P. « Commande adaptive pour systèmes à dynamique rapide / ». [S.l.] : [s.n.], 1987. http://library.epfl.ch/theses/?nr=687.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
49

Kesserwan, Hasan. « Dynamique d'aimantation ultra-rapide de nanostructures magnétiques ». Phd thesis, Université de Strasbourg, 2011. http://tel.archives-ouvertes.fr/tel-00637078.

Texte intégral
Résumé :
Divisé en deux parties, cette thèse décrit la dynamique d'aimantation de nanoparticules magnétiques. Dans la première partie, nous avons décrit une étude expérimentale détaillée de la dynamique d'aimantation dans des nanoparticules de CoPt sous forme de cœur/coquille. Pour cela, nous avons effectué des mesures d'effet Kerr magnéto-optique résolues en temps utilisant une pompe de 150 fs à 400 nm et une sonde de 150 fs à 800 nm. Nous avons étudié les différents processus qui ont lieu sur des échelles de temps bref: comme la démagnétisation ultrarapide et la précession du vecteur d'aimantation. Les résultats obtenus indiquent une possibilité d'induire un ordre supra-cristallin des nanoparticules par un recuit doux effectué par le faisceau laser absorbé par les nanoparticules. Nous avons montré qu'il y a une influence importante du recuit thermique sur les propriétés magnétiques des nanoparticules. Par exemple, ce recuit induit une transition de phase magnétique de super paramagnétique à ferromagnétique au dessus de la température ambiante. Ce ferromagnétisme se manifeste comme une augmentation de l'anisotropie magnétique des nanoparticules et par une précession du vecteur d'aimantation. La deuxième partie est consacrée à la simulation numérique des processus de renversement d'aimantation dans des nanoparticules isolées et en interaction. Dans les nanoparticules isolées, les temps de relaxation suivent la loi d'Arrhenius donnée par le modèle de Néel-Brown. Pour prendre en compte l'interaction magnétique dipolaire, nous avons introduit un modèle simple et efficace basé sur l'approximation de champ moyen. D'une manière générale, nous avons montré que l'interaction dipolaire accélère le processus de renversement d'aimantation.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Klughertz, Guillaume. « Dynamique d'aimantation ultra-rapide de nanoparticules magnétiques ». Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAE004/document.

Texte intégral
Résumé :
L’objectif de cette thèse est d’explorer analytiquement et numériquement la dynamique d’aimantation de nanoparticules magnétiques. Nous montrons qu’il est possible de contrôler efficacement le retournement d’aimantation d’une nanoparticule à l’aide d’une excitation autorésonante. Cette étude révèle que l’amortissement de Gilbert et la température altèrent l’efficacité de ce procédé, tandis que les interactions dipolaires peuvent le faciliter. Les propriétés stationnaires d’une monocouche de nanoparticules sont également étudiées en reproduisant numériquement des courbes ZFC. Nous observons ainsi qu’un désordre structurel ne modifie pas la température de blocage. Enfin, nous étudions le comportement d’un ensemble de nanoparticules en interaction dans un fluide à l’aide de simulations de dynamique moléculaire. Nous retrouvons les configurations à l’équilibre en forme de chaînes et d’anneaux, puis nous examinons les aspects dynamiques en mettant en évidence l’existence d’ondes de spins
The goal of this thesis is to explore analytically and numerically the magnetization dynamics in magnetic nanoparticles. Firstly, we study the Néel dynamics of fixed. We show that one can efficiently control the magnetization reversal of a nanoparticle by using a chirped excitation (autoresonance). This study reveals that the Gilbert damping and the temperature alter the efficiency of the reversal, while dipolar interactions can improve it. The stationary properties of a monolayer of nanoparticles are then examined by computing ZFC curves with a Monte Carlo method. We observe that structural disorder has no effect on the blocking temperature. Finally, we investigate the behavior of an ensemble of interacting nanoparticles moving in a fluid with a molecular dynamics approach. Our numerical simulations reproduce the usual chain and ring-like equilibrium configurations. We then study the dynamics of these structures and show the existence of super-spin waves
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie