Dissertations / Theses on the topic 'Œuvre numérique'

To see the other types of publications on this topic, follow the link: Œuvre numérique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 39 dissertations / theses for your research on the topic 'Œuvre numérique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Sahili, Jihad. "Mise en œuvre numérique des applications des inverses généralisées en calcul des structures." Dijon, 2004. http://www.theses.fr/2004DIJOS029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La contribution de cette thèse concerne la mise en œuvre numérique pour des calculs à hautes performances de l'inverse généralisée pour l'analyse des structures mécaniques. Ces applications conduisent à la résolution de grands systèmes linéaires creux. On a visé des problèmes discrétisés par éléments finis 1D, 2D et 3D, pour lesquelles la taille de la matrice résultante est fortement liée au degré de raffinement de maillage, et peut atteindre une taille très grande. Le calcul de l'inverse généralisée a rendu nécessaire l'utilisation aussi bien des formules de calcul de S optimales que l'utilisation des solveurs creux pour les systèmes linéaires. Ces solveurs, de plus en plus indispensables dans de nombreuses autres applications, doivent répondre aux exigences de performances, notamment pour le temps de calcul, la taille mémoire mise en jeu ainsi que pour la précision des résultats obtenus. Le travail porte sur trois techniques numériques différentes : directes, itératives et parallèles. Dans chacune de ces trois techniques, nous avons traité le problème avec des moyens d'optimisation appropriés aux particularités de notre problème en comparant ces différentes techniques numériques
The computation of the generalized inverse of mechanical structures requires actually systems with high performances, which must meet the needs of the requirements in numerical methods of calculation. These kinds of applications lead to the resolution of the large sparse linear systems. In this work, we have aimed to solve problems discretized by finite elements 1D, 2D and 3D, for which the size of the resulting matrix is strongly related to the degree of refinement of grid, and can reach a very large size. The calculation of the generalized inverse made necessary the use as well of the optimal formulas of calculation of S as the use of the sparse solvers for the linear systems. These solvers increasingly essential in many other applications must fulfill the requirements of performances, in particular computing the time, the size memory brought into play as well as the precision of the results obtained. The work concerns three different numerical techniques: direct, iterative and parallel. In each one of these three techniques, we dealt with the problem with average optimization suitable for the characteristics of our problem by comparing these various numerical techniques
2

Verfaille, Vincent. "Effets audionumériques adaptatifs : théorie, mise en œuvre et usage en création musicale numérique." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2003. http://tel.archives-ouvertes.fr/tel-00004448.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse porte sur la théorie, la mise en œuvre et les applications musicales des effets audionumériques adaptatifs. Dans la première partie, nous plaçons le sujet dans le contexte des transformations sonores. Un grand nombre de techniques de traitement du signal sonore numérique se complètent et fournissent un ensemble d'algorithmes permettant de transformer le son. Ces transformations sont appliquées selon les dimensions perceptives du son musical, à savoir la dynamique, la durée, la hauteur, la spatialisation et le timbre. Pour quelques effets, les contrôles évoluent de manière automatique ou périodique, et ce contrôle est intégré à l'algorithme. Le contrôle offert à l'utilisateur porte sur les valeurs de certains paramètres de l'algorithme. Il se réalise à l'aide de contrôleurs réels, tels des potentiomètres, des interrupteurs, ou à l'aide de contrôleurs virtuels, telles les interfaces graphiques sur écran d'ordinateur. En synthèse sonore, l'un des sujets majeurs d'étude à l'heure actuelle est le mapping : il s'agit de savoir comment mettre en correspondance les paramètres d'un contrôleur gestuel et les paramètres d'un algorithme de synthèse. Notre étude se situe à l'intersection entre les effets audionumériques, le contrôle adaptatif et gestuel, et la description de contenu sonore. Dans la seconde partie, nous présentons les effets audionumériques adaptatifs tels que nous les avons formalisés et développés. Ce sont des effets dont le contrôle est automatisé en fonction de descripteurs sonores. Nous avons étudié puis utilisé de nombreux algorithmes de traitement, certains en temps-réel et d'autres hors temps-réel. Nous les avons améliorés afin de permettre l'utilisation de valeurs de contrôle variables. Une réflexion a été menée pour choisir une classification des effets qui ait du sens pour le musicien ; elle a logiquement abouti à la taxonomie perceptive. Parallèlement, nous avons étudié les descripteurs sonores et les moyens de contrôle d'un effet, par le son et par le geste. Nous avons rassemblé de nombreux descripteurs sonores, utilisés en psychoacoustique, en analyse-synthèse, pour la segmentation et la classification d'extraits sonores, et pour la transcription automatique de partition. Nous proposons un contrôle généralisé pour les effets adaptatifs, hiérarchisé en deux niveaux. Le premier niveau de contrôle est le niveau d'adaptation : le contrôle de l'effet est effectué par des descripteurs du son, à l'aide de fonctions de mapping. Nous indiquons des fonctions de conformation (fonctions de transfert non linéaires) permettant de transformer la courbe d'évolution temporelle d'un descripteur, des fonctions de combinaisons des descripteurs ainsi que des fonctions de conformations spécifiques des paramètres de contrôle. Le second niveau de contrôle est celui du contrôle gestuel : le geste agit sur les fonctions de mapping, soit sur la combinaison, soit sur la conformation spécifique des contrôles. De cette étude, il ressort non seulement une généralisation du contrôle des effets audionumériques, mais aussi la réalisation d'outils pour la composition, et leur utilisation en situation musicale. De nombreuses expériences et illustrations sonores ont été réalisées, parmi lesquelles une spatialisation adaptative contrôlée par une danseuse, et un équalisateur stéréophonique adaptatif. Les expériences confirment l'intérêt d'un tel contrôle adaptatif et gestuel, notamment pour modifier l'expressivité d'une phrase musicale, ou pour créer des sons inouïs.
3

Lorentz, Eric. "Lois de comportement à gradients de variables internes : construction, formulation variationnelle et mise en œuvre numérique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 1999. http://tel.archives-ouvertes.fr/tel-00474024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des observations expérimentales montrent que les modélisations locales ne suffisent pas pour décrire le comportement de matériaux sollicités par de forts gradients des champs mécaniques, qui résultent, par exemple, de la localisation des déformations. On propose ici une démarche constructive qui étend les lois locales de type standard généralisé pour rendre compte des effets de gradients. Elle se fonde, d'une part, sur une méthode d'homogénéisation pour construire une loi à gradients de variables internes à l'échelle du point matériel, et d'autre part, sur une formulation de cette loi à l'échelle de la structure, où les variables sont dorénavant les champs de variables internes. Cette formulation variationnelle du comportement offre un cadre adéquat pour examiner des questions telles que l'existence de solutions au problème d'évolution, le choix des espaces fonctionnels pour les variables internes ou encore le lien entre modèles locaux et modèles à gradients. Par ailleurs, après discrétisation temporelle, la loi de comportement s'exprime comme la minimisation d'une énergie, problème d'optimisation qui est résolu ici au moyen d'un algorithme de lagrangien augmenté. Ce choix permet de confiner les fortes non linéarités – dont le caractère non différentiable de l'énergie – au niveau des points d'intégration, ce qui autorise une introduction aisée de ces développements dans un code de calcul préexistant, le Code_Aster® en l'occurrence. Trois applications permettent alors de mettre en lumière les potentialités de la démarche. Tout d'abord, un modèle élastique fragile illustre son caractère constructif et opérationnel, depuis la construction du modèle jusqu'aux simulations numériques. Ensuite, l'insertion dans ce cadre variationnel des modèles de plasticité à gradients, abondamment employés dans la littérature, démontre le degré de généralité de la formulation. Enfin, son application à la loi de Rousselier pour modéliser un mécanisme de rupture ductile des aciers permet d'examiner l'interaction entre grandes déformations plastiques, d'une part, et comportement non local, d'autre part.
4

Sfar, Hedi. "Approches numérique et expérimentale du dudgeonnage en vue d'optimiser les paramètres de mise en œuvre industrielle." Compiègne, 1997. http://www.theses.fr/1997COMP994S.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette étude est d'optimiser les paramètres de dudgeonnage des tubes en cuivre sur des plaques en acier pour assurer une meilleure étanchéité de l'assemblage au moyen de simulations numériques associées a des essais expérimentaux. L'hypothèse de départ, qui a été vérifiée par la suite, est que l'étanchéité dépend du niveau de la pression résiduelle à l'interface tube/plaque. Pour réaliser les différentes simulations numériques, nous avons d'une part utilisé le code de calcul par éléments finis castor-EVP2D du Cetim, et d'autre part nous avons développé une simulation axisymétrique en contraintes planes de l'opération. Cette dernière simulation présente l'avantage d'être facile à utiliser et rapide d'exécution. En utilisant ces outils numériques, nous avons mis en évidence et analysé l'influence des différents paramètres opératoires sur l'opération de dudgeonnage (la géométrie du tube, le jeu tube/plaque, le pas entre tubes, les caractéristiques mécaniques des tubes en cuivre et le taux de dudgeonnage). Des essais d'étanchéité sur des éprouvettes dudgeonnées ont permis de définir un critère d'étanchéité monotube que nous avons appliqué aux différents cas industriels. L'analyse des résultats des simulations multitubes a permis de proposer un critère d'étanchéité numérique. L'ensemble des résultats a été rassemblé dans divers tableaux.
5

Rebai, Chiheb. "Contribution à la caractérisation des convertisseurs analogiques numériques haute performances : Mise en œuvre de nouveaux systèmes de traitement du signal pour le test in-situ." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12597.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'augmentation à la fois de la résolution et de la vitesse des CANs nécessite des moyens de test de plus en plus sophistiqués. Dans le cadre de nos travaux, une nouvelle approche qui réside en l'intégration des méthodes de caractérisation in-situ avec le CAN est présentée. L'étude du BIST est séparée en deux parties : la première traite la génération d'un signal intégré et la seconde étudie l'estimation des paramètres spectraux. Une nouvelle structure basée sur l'utilisation de la modulation Epsilon-Delta numérique est utilisée pour la conception de l'oscillateur. Nous avons présenté une méthodologie originale de conception du modulateur Epsilon-Delta d'ordre élevé tout en assurant la stabilité et en optimisant sa structure. Dans une deuxième étape, nous proposons une nouvelle méthode d'analyse basée sur un banc de filtres numériques. Le banc sépare les composantes spectrales du signal issue du CAN. L'estimation des paramètres spectraux, comme le SINAD, THD et le SNR, est réalisée par une unité de calcul.
6

Illoul, Amran-Lounès. "Mise en œuvre de la méthode des éléments naturels contrainte en 3D Application au Cisaillage adiabatique." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2008. http://tel.archives-ouvertes.fr/tel-00362610.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail porte sur la mise en oeuvre en 3D de la méthode des éléments naturels contrainte CNEM en vue de son utilisation pour la simulation du cisaillage à grande vitesse. La CNEM est une approche à mi-chemin des approches sans maillage et des éléments finis. La construction de son interpolation utilise le diagramme de Voronoï contraint (dual du maillage de Delaunay contraint) associé à un nuage de noeuds répartis sur le domaine étudié muni d'une description de sa frontière. La mise en oeuvre de la CNEM comporte trois aspects principaux : i) la construction du diagramme de Voronoï contraint, ii) le calcul des fonctions de forme éléments naturels Sibson, iii) la discrétisation d'une formulation variationnelle générique par utilisation de l'intégration nodale stabilisée conforme, SCNI, introduite par Chen et Al en 2001. Une partie importante de ce travail concerne les deux derniers points. Pour le calcul des fonctions de formes Sibson 3D cinq algorithmes sont présentés, dont deux développés au cours de la thèse, et sont comparés en terme de performance. Par ailleurs, une discrétisation est proposée pour être applicable au cas des domaines fortement non convexes. La mise en oeuvre proposée est validée sur des exemples en élasticité linéaire 3D en petites perturbations (vis à vis de solutions analytiques et de résultats éléments finis) puis en grandes transformations (test de la barre de Taylor). L'application de la CNEM au cisaillage grande vitesse est finalement abordée. Les développements effectués ont été intégrés à la plateforme logicielle Nessy. Cette plateforme a pour objectif la capitalisation du savoir faire du LMSP en simulation numérique.
7

Low, Marc. ""L'impact des nouvelles technologies dans les processus mis en œuvre par la profession de conseil en recrutement, de la congruence à la dyssynchronie d'un système"." Paris 8, 2011. http://octaviana.fr/document/161048196#?c=0&m=0&s=0&cv=0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les cabinets de conseil en recrutement en France présentent une très grande diversité dans leur taille et dans leurs fonctionnements. Sur les 1. 500 recensés en France, plus de 80% sont des microstructures. Cette profession relativement jeune a traversé trois grandes crises au cours des vingt dernières années, chacune d'elle a vu disparaître environ la moitié des acteurs du secteur d'activité. L'issue de chacune d'elle a vu autant de cabinets se reformer. Ce marché pris dans son ensemble pourrait donc apparaître finalement comme immuable. Pourtant de profonds changements sont en cours. Les raisons en sont multiples : démographiques tout d'abord, aboutissant à une situation de pénurie des cadres ; le rapport au travail connaît des mutations durables, entraînant de nouveaux comportements, un phénomène amplifié par une rupture générationnelle inédite ; enfin, et au centre de cette réflexion, le développement des nouvelles technologies apporte aussi des bouleversements dans des pratiques qui n'avaient évolué qu'à la marge. Dans un système de l'offre et de la demande d'emploi défini comme congruent, les cabinets n'ont jamais eu véritablement à fournir d'efforts d'adaptation. La combinaison de tous les facteurs du nouvel environnement crée une dyssynchronie du système. Ce nouvel état va nécessiter la mise en œuvre de nouvelles pratiques info-communicationnelles de la part de la profession, et qui concernera aussi bien chaque consultant que les cabinets dans lesquels ils opèrent
In France, we can observe a great diversity among recruitment agencies as regard size and process. More than 80% among the 1,500 agencies registered in France are microstructures. This profession is rather recent, and has experienced three major crisis during the last twenty years. Each of those crisis has seen the closing of half these recruitment agencies. At the end of each crisis the same number of firms has been recreated. This market as a whole could eventually appear as everlasting. However major changes are on the way. There are many reasons to explain that : from a demographic point of view, there is a lack of executive profiles ; the relationship to work is definitely changing, the consequences are new behaviors, and the phenomenon is amplified by a generation gap never seen before. Finally, in the center of this reflection, the development of new technologies also bring changes in the practices that had previously not changed that much. In a system of supply and demand of job defined as congruent, recruitment firms have never really had to make any efforts to cope with the situation. The combination of all factors in the new environment creates a "dyssynchrony". This new organization will require the implementation of new info-communicational practices the professionals will have to take into account. This will concern every consultant and the firms in which he works
8

Brouri, Cherif. "Aide à la mise en œuvre des machines outil a commande numérique : conception et réalisation d'un support de formation." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les processus courants de fabrication de pièces mécaniques ont peu évolué quant au procédé physique employé. Cependant, à travers des procédures de commande et de contrôle, le contexte de mise en œuvre a totalement changé. Les directeurs de commande numérique sont de plus en plus complexes. La programmation CN doit être optimisée et contrôlée. Cette évolution nécessite le développement d'interface homme - machine interactive et conviviale, cela induit des contraintes en formation et en utilisation. A travers l'élaboration d'un didacticiel destiné à acquérir la maîtrise de la programmation des machines-outils à commande numérique en langage ISO, on a abordé la dimension pédagogique d'un des domaines de la mécanique. Par ailleurs, une vérification de la justesse des programmes CN est réalisée. Le contexte opérationnel (spécificité du directeur de commande, choix des outils) a été traité afin de mettre l'opérateur en situation. Une interface conviviale, secondée par différents modes d'aides, autorise l'emploi de ce module par des usagers débutants ou confirmés. Une analyse syntaxique, lexicale et grammaticale des informations saisies est effectuée en temps réel de manière à adresser à l'utilisateur des messages pertinents adaptés à son niveau. Le module d'analyse utilise un moteur d'inférence spécifique et des structures algorithmiques en langage C++. Développé en liaison avec des partenaires industriels, le didacticiel réalisé montre la faisabilité de produits fortement interactifs intégrant les contraintes réelles du monde industriel
Current manufacturing process of mechanical pieces have shortly evolved in relation to the used physical process. However, through procedures of control, the context of implementation has totally changed. CNC are increasingly complex. The NC programming has to be optimised and controlled. This evolution necessitates the development of convivial and interactive Human/machine interfaces that induced constraints in training and in utilisation. Through the elaboration of a teaching software destined for acquire the ability to programme CNC machine tool with ISO language, we approached the pedagogical dimension of mechanic. Furthermore, a verification of the precision of CNC programs is realised. The operational context (Characteristic of CNC, choice of tools) has been processed so as to put the operator in the context. A convivial interface, seconded by different types of help, authorises the use of this module by beginners or by experts. Syntactic, lexical and grammatical analysis of typed information's is undertaken in real manner time in order to address to the user relevant messages adapted at its level. The analysis module uses an inference method and algorithmic one, they are developed in C++ language. Developed with collaboration of industrial partners, the software realised shows the feasibility of strongly interactive products integrating real constraints of the industrial world
9

Bellahcene, Mohammed. "Contribution à la mise en œuvre d'applications à base de processeurs de traitement numérique du signal en analyse spectrale : application à l'analyse vibratoire." Nancy 1, 1990. http://www.theses.fr/1990NAN10373.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée au traitement numérique du signal dans le cadre de l'analyse spectrale numérique. La première partie est consacrée à une étude générale des processeurs de traitement de signal. Elle est conclue par la réalisation d'une carte materielle à base du processeur DSP56001 de Motorola que nous avons dénommée Psitel. Dans une deuxième partie, l'arithmétique à virgule fixe utilisée par le DSP56001 est analysée en détail. En particulier, les problèmes de quantification des coefficients des filtres de Butterworth,Tchebycheff et Cauer sont analysés et des résultats de simulations sont présentés. Enfin, l'utilisation de la virgule flottante par bloc est étudiée et testée comme une alternative à virgule fixe. Dans une troisième partie, nous décrivons les différentes techniques de synthèse de filtres numériques non récursifs (FIR) et récursifs (IIR). Enfin, la dernière partie présente les estimateurs spectraux étudiés ainsi que les algorithmes d'analyse spectrale mis en œuvre sur Psitel pour la réalisation d'un analyseur de spectre numérique ainsi que dans une application de surveillance vibratoire permanente de machines tournantes
10

Leredde, Alexandre. "Etude, commande et mise en œuvre de nouvelles structures multiniveaux." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0094/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les structures de conversion multiniveaux permettent de convertir en moyenne tension et forte puissance. Celles-ci sont construites à partir de cellules de commutations et permettent d’augmenter le courant et la tension en entrée ou en sortie. Ces structures sont appelées multiniveaux car les formes d’ondes des tensions en sortie permettent d’avoir plus de deux niveaux de tension différents. Les différentes structures peuvent être classées dans différentes catégories tel que la mise en série de pont en H, les convertisseurs multicellulaires série ou parallèle ou encore les structures utilisant le fractionnement du bus continu. Toutes ces structures ont des propriétés et applications différentes, même si certaines structures ont des propriétés communes. Il est aussi possible de créer de nouvelles structures en mixant les différentes structures de bases des différentes familles de convertisseurs multiniveaux ou en assemblant les structures de base de la conversion statique. Même si l’utilisation de structure de conversion multiniveaux permet de convertir à forte puissance, celle-ci n’est pas toujours aisée. En effet l’augmentation du nombre de niveaux ou de la tension d’entrée implique également une augmentation du nombre de composants semiconducteurs. Ceci peut être un frein à l’utilisation de convertisseur multiniveaux. Pour cela une nouvelle structure utilisant des composants partagés entre les différentes phases est proposée afin de limiter leur nombre. Un autre problème important lié aux convertisseurs multiniveaux est l’équilibrage des tensions des condensateurs du bus continu si celui-ci est composé de plus de deux condensateurs mis en série. Pour cela plusieurs solutions sont possibles : soit en utilisant une commande spécifique utilisant la modulation vectorielle, soit en utilisant des structures auxiliaires qui ont pour but d’équilibrer les différentes tensions des condensateurs. Dans une dernière partie ont été proposées de nouvelles structures qui permettent à la fois d’augmenter le courant de sortie et la tension en entrée en utilisant les principes des structures de base des convertisseurs multicellulaires série et parallèle. De plus, ces structures ont des propriétés intéressantes sur les formes d’ondes de sortie. De ces structures a été conçu un prototype permettant de valider les résultats de simulation. Une commande numérique implantée sur FPGA a été réalisée et a permis d’avoir des résultats expérimentaux intéressants
This PhD Thesis deals with the study of new multilevel structures. At the beginning of this work, a new methodology to create new multilevel structures has been conceived. To evaluate the performances of these structures, there are many possibilities: number of output voltage levels, number of components, and the quality of the converters’ output waveforms. The list of criteria is not exhaustive. One technique to obtain an output multilevel waveform is to split the DC link in several capacitors. There is a limitation since putting more than two capacitors in serial connection leads to an unbalancing of these voltage capacitors. Several solutions are possible to balance these voltages. The first one uses the control of the structure in a three phase application, using a space vector modulation and minimizing the energy stored in the DC link. The second solution consists in using auxiliary circuits, which realize an energy transfer between one capacitor to another through an inductor. The drawback of this method is the high number of components. This problem can be reduced sharing some components between the three phases of the converter. The third part of this study is related to multicell converters, structures with very interesting good properties. New converter structures mix serial and parallel multicell converters, to obtain a hybrid converter with similar performances to the two basic converters. An experimental prototype was built to validate the results of the PhD. The digital control of this hybrid structure was made with a FPGA where two DSP processors were implemented
11

Parent, Guillaume. "Mise en œuvre d'une technique de projection de grandeurs discrètes : applications aux couplages magnétothermique et magnétomécanique." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10094/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour étudier les systèmes électromagnétiques, mécaniques ou thermiques, on a de plus en plus recours à la modélisation numérique. Pour la résolution des différents modèles mathématiques, la méthode des éléments finis est généralement utilisée. Dans le cas de couplages multi-physiques, les particularités de chacune des grandeurs étudiées impliquent l'utilisation d'un maillage commun le plus souvent important en termes de nombre d'éléments. L'objectif de ce travail est de proposer et de mettre en oeuvre une méthode de projection de grandeurs discrètes permettant l'utilisation de maillages dédiés pour chacun des domaines de la physique. Dans le premier chapitre, les modèles mathématiques décrivant les phénomènes de l'électromagnétisme, de la thermique et de la mécanique, ainsi que les espaces de discrétisation des différentes inconnues sont exposés. Dans la seconde partie, la méthode de projection est introduite à l'aide d'une interprétation géométrique de la méthode des éléments finis, puis est développée, tout d'abord dans le cas général, puis pour chacun des domaines de la physique étudiés. Des exemples académiques sont également traités dans cette partie afin de valider la démarche utilisée. Enfin, dans le troisième chapitre, la méthode de projection est employée pour modéliser des dispositifs électromagnétiques dans le cas de couplages magnétothermique et magnétomécanique
To study electromagnetic, mechanical or thermal systems, numerical modelling is more and more used. Generally, to numerically solve the mathematical models, the finite element method is used. ln the case of multi-physical coupling, the properties of each of the studied quantities imply the use of a common meshing which is mostly important in terms of number of elements. The aim of this work is to propound and use a projection method for discrete quantities allowing using dedicated meshes for each phenomenon. ln the first chapter, the mathematical models describing the electromagnetic, thermal and mechanical phenomena, as well as the discretization spaces of each unknown are exposed. ln the second chapter, the projection method is presented through a geometrical interpretation of the finite element method, and then is developed in a general way and for every physical phenomenon. Academicals examples are also modelled to validate the method. Finally, in the third chapter, the projection method is used for the modelling of electromagnetic systems in the case of magnetothermal and magnetomechanical couplings
12

Daveau, Christian. "Etablissement d'une formulation variationnelle en champ pour la magnétostatique : mise en œuvre numérique dans le cas tridimensionnel par associations d'éléments finis et d'intégrale de frontière." Tours, 1994. http://www.theses.fr/1994TOUR4010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons établi une formulation mixte de la magnétostatique. Nous avons pénalisé la formulation puis par une méthode intégrale, nous avons transformé le problème dont l'inconnue est le champ magnétique à l'intérieur des matériaux. Nous faisons alors apparaitre une matrice de rigidité extérieure que nous calculons en faisant intervenir un opérateur de nature intégrale. La mise en œuvre numérique de la méthode des éléments finis s'est effectuée en trois étapes: 1) construction d'un système dont la matrice est la plupart du temps symétrique; 2) traitement des symétries du domaine ou l'on veut calculer le champ; 3) résolution de ce système au moyen d'une méthode de type gradient conjugué. Nous avons validé la méthode d'abord sur un cas simple, puis sur un problème plus complexe ou la perméabilite des matériaux est non linéaire. Pour le premier test, nous avons utilisé des éléments de classe (H1 (omega)3 ; ce qui nous a permis de calculer div(uh) pour dégager une règle claire pour le choix du paramètre de pénalisation. Le problème non linéaire a été traité avec les mêmes éléments finis et avec les éléments de Nédélec. Nous avons etabli une méthode itérative sur la perméabilité pour tenir compte de la non-linéarité des matériaux. La comparaison des résultats numériques et des mesures expérimentales est tout à fait satisfaisante
13

Benkais, Mohammed. "Méthodologie de caractérisation des circuits de conversion de données : application aux convertisseurs analogique-numérique à facteur de mérite élevé : Mise en œuvre dans le système CanTest." Bordeaux 1, 1993. http://www.theses.fr/1993BOR10555.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Marih, Mohamed. "Mise en œuvre de l'approximation diffuse et de la méthode des éléments diffus pour la résolution des problèmes de mécanique." Compiègne, 1994. http://www.theses.fr/1994COMPD767.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un premier objectif de cette thèse consiste à préciser les bases et montrer les difficultés d'une nouvelle méthode d'approximation "approximation diffuse" (présentation algébrique, approche statistique, unisolvance, fonctions d'atténuation,. . . ), ainsi que les algorithmes de sa mise en œuvre pratique. On s'appuie ici sur la méthode des plus proches voisins. Des applications aux problèmes mécaniques vont permettre de procéder ensuite à une étude paramétrique, afin d'évaluer l'influence des différents paramètres de cette approximation (nombre de voisins, ordre d'approximation, fonctions d'atténuation,. . . ), tant sur le plan qualitatif que quantitatif. Un deuxième objectif de ce travail consiste à construire un modèle numérique issu de cette approximation, dit "modèle éléments diffus", sans faire de maillage. Nous nous proposons ici de construire une méthode de résolution des équations différentielles de la physique en utilisant l'approximation diffuse pour discrétiser les formulations variation elles correspondantes. Ceci conduit à la "méthode des éléments diffus". Cette méthode conserve la majorité des avantages de la méthode des éléments finis (généralité standardisation, caractère local,. . . ), mais utilise seulement un nuage de points de discrétisation (pas d'élément ou sous domaines explicites), et peut fournir des solutions continues et à dérivées successives continues. Pour une formulation variationelle l'intégration numérique nécessaire se fait sur un découpage simple du domaine de type "quadtrees". Un outil de génération automatique de nuages de points en bidimensionnel a été développé ; il a permis de traiter plusieurs problèmes de mécanique, et d'évaluer l'influence des différents paramètres géométriques (qualité du nuage de points, choix du support d'intégration,. . . ) et numériques (nombre de voisins, ordre d'approximation,. . . ) sur la qualité des résultats. Plusieurs tests ont été effectués afin de vérifier la convergence et la stabilité de la méthode. Des comparaisons avec la méthode des éléments finis feront l'objet d'une partie de ce travail.
15

Traore, Papa Silly. "Introduction des techniques numériques pour les capteurs magnétiques GMI (Giant Magneto-Impedance) à haute sensibilité : mise en œuvre et performances." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT061/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La Magneto-Impédance Géante (GMI) consiste en une forte variation de l’impédance d’un matériau ferromagnétique doux parcouru par un courant d’excitation alternatif haute fréquence lorsqu’il est soumis à un champ magnétique extérieur. Ce travail de thèse introduit de nouvelles techniques numériques et les pistes d’optimisation associées pour les capteurs GMI à haute sensibilité. L'originalité réside dans l'intégration d'un synthétiseur de fréquence et d'un récepteur entièrement numérique pilotés par un processeur de traitement de signal. Ce choix instrumental se justifie par le souhait de réduire le bruit de l’électronique de conditionnement qui limite le niveau de bruit équivalent en champ. Ce dernier caractérise le plus petit champ mesurable par le capteur. Le système de conditionnement conçu est associé à la configuration magnétique off-diagonal pour accroître la sensibilité intrinsèque de l’élément sensible. Cette configuration magnétique consiste en l’utilisation d’une bobine de détection autour du matériau ferromagnétique. Cette association permet en outre d’obtenir une caractéristique impaire de la réponse du capteur autour du champ nul, et par conséquent de pouvoir mettre en œuvre et d’utiliser le capteur sans avoir recours à une polarisation magnétique. Ce choix permet ainsi d’éliminer, ou au moins de minimiser les problématiques liées aux offsets des dispositifs GMI, tout en validant l’intérêt de cette configuration magnétique, notamment sur le choix du point de fonctionnement. Une modélisation des performances en bruit de toute la chaîne de mesure, incluant le système de conditionnement numérique, est réalisée. Une comparaison entre les niveaux de bruit équivalent en champ attendus par le modèle et mesurés est effectuée. Les résultats obtenus ont permis de dégager des lois générales d’optimisation des performances pour un capteur GMI numérique. Partant de ces pistes d’optimisation, un prototype de capteur complet et optimisé a été implémenté sur FPGA. Ce capteur affiche un niveau de bruit équivalent en champ de l’ordre de 1 pT/√Hz en zone de bruit blanc. En outre, ce travail permet de valider l’intérêt des techniques numériques dans la réalisation de dispositifs de mesure à haute sensibilité
The Giant Magneto-Impedance (GMI) is a large change of the impedance of some soft ferromagnetic materials, supplied by an alternating high-frequency excitation current, when they are submitted to an external magnetic field. This thesis presents the design and performance of an original digital architecture for high-sensitivity GMI sensors. The core of the design is a Digital Signal Processor (DSP) which controls two other key elements: a Direct Digital Synthesizer (DDS) and a Software Defined Radio (SDR) or digital receiver. The choice of these digital concepts is justified by the will to reduce the conditioning electronics noise that limits the equivalent magnetic noise level. The latter characterizes the smallest measurable field by the sensor. The developed conditioning system is associated with the off-diagonal magnetic configuration in order to increase the intrinsic sensitivity of the sensitive element. This magnetic configuration consists of the use of an additional a pick-up coil wound around the ferromagnetic material. This association also makes it possible to obtain an asymmetrical characteristic (odd function) of the sensor response near the zero-field point and to consequently allow for sensor implementation and use without any bias magnetic field. Thus, this choice eliminates, or at least minimizes, the problems related to the offset cancelling of the GMI devices. Also, it validates the advantage of this magnetic configuration, especially the choice of the operating point. Modeling of the noise performance of the entire measurement chain, including the digital conditioning, is performed. A comparison between the expected and measured equivalent magnetic noise levels is then carried out. The results yield general optimization laws for a digital GMI sensor. Using these laws, an optimized prototype of a GMI sensor is designed and implemented on FPGA. An equivalent magnetic noise level in a white noise zone region of approximately 1 pT/√ Hz is obtained. Furthermore, this work also makes it possible to validate the interest of digital techniques in the realization of a high-sensitivity measuring devices
16

Gazave, Julien. "Contribution à la mise en œuvre de moyens de simulation numérique pour l’étude de la vulnérabilité des systèmes électriques soumis à l’environnement radiatif et électromagnétique du Laser Mégajoule." Limoges, 2007. https://aurore.unilim.fr/theses/nxfile/default/26195fe5-1740-4532-a7b9-e1658e3c2248/blobholder:0/2007LIMO4045.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les expériences de fusion par confinement inertiel qui seront réalisées dans l’enceinte de la chambre d’expériences du Laser Mégajoule (LMJ) engendreront une ambiance radiative et électromagnétique à laquelle seront sensibles tous les équipements électriques situés à proximité. La première partie du travail a été de mettre en oeuvre une démarche de simulation numérique permettant d’évaluer l’intensité des signaux parasites qui seront induits dans les câbles coaxiaux, puis de la confronter à l’expérience. La seconde partie a consisté à évaluer la possibilité de modélisation numérique d’une grande structure 3D, telle que la chambre d’expérience du LMJ, en électromagnétisme transitoire par la méthode FDTD. Ce type de modélisation nécessitant des ressources informatiques trop importantes pour la méthode FDTD classique, on propose l’utilisation d’un algorithme de raffinement de maillage spatio-temporel stable pour la FDTD en 3D ainsi que la réalisation de calculs massivement parallèles
When fusion ignition will be attained inside the target chambers of high energy laser facilities (LMJ-France and NIF-USA), a harsh environment, composed of nuclear particles and an electromagnetic pulse (EMP) will be induced. All electronic devices located in the vicinity will be sensitive to this environment. In the first part of this work, a simulation method has been developed to evaluate transient currents that will be induced in coaxial cables. The relevance of this model is then discussed thanks to comparisons with experimental results. In a second part, the possibility to simulate the propagation of the EMP, inside and outside such a big structure as a target chamber, using the FDTD method is evaluated. The use of a classic FDTD method is impossible for this kind of simulation because of the huge computer resources needs. It is the reason why a 3D space-time subgridding method for FDTD has been developed and some massively parallel FDTD calculations have also been performed
17

Khalfallah, Moussa. "Etude expérimentale et modélisation numérique du comportement thermomécanique d’un sandwich agrocomposite à base de fibres longues de lin." Thesis, Reims, 2015. http://www.theses.fr/2015REIMS003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin de réduire les déchets et les émissions de CO2, la demande des constructeurs automobiles a évolué vers l'utilisation de nouveaux matériaux biosourcés permettant d'alléger les véhicules et diminuer leur consommation en carburant. Dans ce contexte, la thèse a eu pour objectif de réaliser un panneau sandwich léger et résistant renforcé par des fibres longues de lin pour des applications semistructurelles automobiles. Outre la recherche bibliographique, le travail est réparti en trois volets : la mise en œuvre, la caractérisation et la modélisation du comportement mécanique du panneau sandwich. Les peaux composites sont renforcées par un nouveau renfort « Flaxtape », qui est un voile de fibres longues de lin unidirectionnelles et ne contenant aucune filature en trame. La matrice est une résine thermodurcissable aqueuse permettant un temps de réticulation très court et une bonne processabilité. Les peaux composites et les panneaux sandwichs dérivés sont élaborés à l'aide d'un procédé de thermocompression respectant des cycles de fabrication industriels. La compréhension et l'optimisation des paramètres entrant en jeu dans leur élaboration et leur mise en œuvre (cycle de cuisson, température, séchage, densification, fraction volumique de fibres, taux de réticulation et séquence d'empilement) passent par une série de caractérisations thermomécaniques et physicochimiques. Les résultats obtenus montrent les bonnes propriétés mécaniques spécifiques du panneau sandwich à différentes températures. D'autre part, le panneau sandwich en Flaxpreg est destiné à la réalisation d'un plancher de coffre de véhicule. La modélisation numérique du comportement mécanique du panneau sandwich a permis de prédire sa réponse mécanique lorsqu'il est mis en service à différentes positions dans le coffre. Afin de simplifier la géométrie du panneau sandwich et de réduire le temps de calcul, un modèle d'homogénéisation analytique de l'âme en nid d'abeille a été utilisé pour réaliser cette étude
To reduce waste and CO2 emissions, car manufacturers use more and more new bio-sourced materials to lighten vehicles and reduce fuel consumption. In this context, this thesis aimed at processing a lightweight sandwich panel reinforced by long flax fibers for automotive semi-structural applications.In addition to the literature state of the art, the work is divided into three parts: the material processing, characterization and modeling of the mechanical behavior of the sandwich panel. The composite skins are reinforced by a new reinforcing material "Flaxtape", which is a veil of long unidirectional flaxfibers withouth any weft spinning. The matrix is an aqueous thermosetting resin with a very short cure time and good processability. The composite skins and derived sandwich panels are processed by a thermocompression technique respecting industrial production cycles. Thermomechanical and physicochemical characterizations are used to understand and optimize the parameters involved in their development (cooking cycle, temperature, drying, densification, fiber volume fraction, degree of crosslinking and stacking sequence). Our results highlight good specific mechanical properties of the sandwich panels at different temperatures.Furthermore, the Flaxpreg sandwich panel has been used for the achievement of a vehicle compartment floor. Numerical modeling of the mechanical behavior of the sandwich panel was used to predict the sandwich panel mechanical response at different positions in the trunk. To simplify the geometry of the sandwich panel and reduce the computation time, an analytical model of the homogenized honeycomb was used in this study
18

Merrouche, Ahmed. "Vers une mise en œuvre automatique de la conception optimale : architecture de systèmes et outils logiciels pour l'optimisation de forme de pièces 3D." Compiègne, 1997. http://www.theses.fr/1997COMP1042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent travail s'inscrit dans une perspective d'aide à l'automatisation de processus. Les systèmes de CAO/CFAO sont aujourd'hui performants et permettent un gain de productivité considérable en intégrant plusieurs étapes du processus de conception et de fabrication d'un produit industriel. Mais l'intervention de l'ingénieur reste encore considérable pour le choix de la conception répondant au mieux à ses besoins : la conception optimale. Cette étude introduit une nouvelle architecture de système ouvert et distribué, basée sur un noyau pilote (système pilote). Elle spécifie les fonctionnalités générales du noyau, les données qu'il doit manipuler et son interaction avec les applications qu'il contrôle. L'étude propose une méthode générale pour l'organisation et la gestion d'un processus basée sur une approche collaborative. Une analyse des besoins pour l'optimisation dans le domaine du calcul de structures a permis une validation de l'architecture proposée pour définir un système dédié à l'optimisation de formes de pièces 3D. Elle spécifie les interfaces fonctionnelles des applications impliquées dans un processus d'optimisation et met en évidence la nature et les besoins d'échange d'informations dans l'environnement d'outils utilisé. L'étude propose également de nouvelles solutions relatives aux problèmes d'adaptation et d'habillage de maillages. Elle met en œuvre une extension 3D d'un algorithme de raffinement (Rivara) en traitant des problèmes de conformité et de qualité spécifiques au 3D. Le principe de l'approche proposée est d'exploiter au maximum les outils logiciels existants qui assurent bien des fonctionnalités requises. Le pilote assure le déroulement automatique d'un processus : l'intervention de l'opérateur est limitée à la tâche de supervision uniquement. Une maquette opérationnelle de l'ensemble du système a été réalisé. Elle gère huit applications distribuées sur cinq machines. La maquette réalisée a été validée sur plusieurs exemples industriels.
19

Le, Bouteiller Madeleine. "Instruments numériques et performances musicales : enjeux ontologiques et esthétiques." Thesis, Strasbourg, 2020. http://www.theses.fr/2020STRAC002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les ordinateurs et instruments numériques sont-ils des instruments de musique ? Selon des définitions traditionnelles, la réponse est négative. Pourtant, de nombreux outils numériques sont aujourd’hui utilisés pour jouer de la musique. L’objectif de cette thèse est d’approfondir, au moyen d’une enquête ontologique et d’une réflexion esthétique, le statut de ce genre d’instruments et des performances qu’ils mettent en œuvre. Nous étudions des systèmes musicaux caractérisés par l’élaboration numérique et algorithmique du son : des instruments à interfaces gestuelles, des contrôleurs MIDI, des logiciels de création musicale, des performances d’orchestres d’ordinateurs et de live coding. Nous cherchons à montrer que, sous certaines conditions, il est possible de les considérer comme de véritables instruments de musique. Nous explorons les dynamiques qu’ils font émerger ainsi que leurs productions : des œuvres musicales particulièrement orientées vers la performance, proposant une expérience sonore mais aussi fortement visuelle. Par leur rapport au temps et à l’espace de la scène, les instruments numériques sont intimement liés à leurs performances
Can we claim that computers and digital instruments are real musical instruments ? According to classical definitions, we cannot. However, nowadays many digital systems are being used to play music, calling for a reconsideration of the classical definitions of a musical instrument. This thesis investigates the ontological status of digital instruments and the aesthetics offered by them in music performances. We examine digital systems involving digital and algorithmic sound generation, including instruments with gestural interfaces, MIDI controllers, music software, laptop orchestra performances, and live coding. We seek to determine the conditions under which digital instruments can be considered real musical instruments. We explore the new dynamics emerging through the use of these new instruments. Digital instruments lead to the production of musical works particularly oriented towards performances, in which the visual component is an integral part of the experience. Digital instruments relate to temporality and space on the stage in a novel way, and there is a tight connection between digital instruments and the performances produced with them
20

Pan, Cihui. "Diffraction électromagnétique par des réseaux et des surfaces rugueuses aléatoires : mise en œuvre deméthodes hautement efficaces pour la résolution de systèmes aux valeurs propres et de problèmesaux conditions initiales." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLV020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions la diffraction électromagnétique par des réseau et surfaces rugueuse aléatoire. Le méthode C est une méthode exacte développée pour ce but. Il est basé sur équations de Maxwell sous forme covariante écrite dans un système de coordonnées non orthogonal. Le méthode C conduisent à résoudre le problème de valeur propre. Le champ diffusé est expansé comme une combinaison linéaire des solutions propres satisfaisant à la condition d’onde sortant.Nous nous concentrons sur l’aspect numérique de la méthode C, en essayant de développer une application efficace de cette méthode exacte. Pour les réseaux, nous proposons une nouvelle version de la méthode C qui conduit `a un système différentiel avec les conditions initiales. Nous montrons que cette nouvelle version de la méthode C peut être utilisée pour étudier les réseaux de multicouches avec un médium homogène.Nous vous proposons un algorithme QR parallèle conçu spécifiquement pour la méthode C pour résoudre le problème de valeurs propres. Cet algorithme QR parallèle est une variante de l’algorithme QR sur la base de trois tech- niques: “décalage rapide”, poursuite de renflement parallèle et de dégonflage parallèle agressif précoce (AED)
We study the electromagnetic diffraction by gratings and random rough surfaces. The C-method is an exact method developed for this aim. It is based on Maxwell’s equations under covariant form written in a nonorthogonal coordinate system. The C-method leads to an eigenvalue problem, the solution of which gives the diffracted field.We focus on the numerical aspect of the C-method, trying to develop an efficient application of this exact method. For gratings, we have developed a new version of C-method which leads to a differential system with initial conditions. This new version of C-method can be used to study multilayer gratings with homogeneous medium.We implemented high performance algorithms to the original versions of C-method. Especially, we have developed a specifically designed parallel QR algorithm for the C- method and spectral projection method to solve the eigenvalue problem more efficiently. Experiments have shown that the computation time can be reduced significantly
21

Khalfallah, Riahi Sonia. "Performance dansée augmentée et installation interactive performative : possibilités et limites de la co-création." Electronic Thesis or Diss., Paris 8, 2021. http://www.theses.fr/2021PA080069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les œuvres numériques interactives remettent en question le rôle du spectateur. Il est sollicité physiquement et sensoriellement afin de l’inciter à être actif. Dans ce projet de thèse, nous mettons en avant le potentiel créatif enfui dans chaque participant à travers sa gestualité interactive dans la co-création de l’œuvre.À partir de l’exploration des différents gestes performatifs à travers les courants et les disciplines artistiques existants sous forme de performances et d’installations, nous avons identifié et créé le geste performatif recherché dans nos créations artistiques : la gestualité interactive créative et performative. Par ailleurs, dans le cadre de cette recherche-création, la réalisation de performances dansées augmentées et d’installations interactives performatives a été consolidée par l’observation et l’étude des comportements des participants afin de déterminer les possibilités et les limites de la co-création des œuvres réalisées
Interactive digital artworks question the role of the spectator. They solicit him physically and sensually in order to make him active.In this thesis project, we highlight the creative potential embedded in each participant through their interactive gestures in the co-creation of the artwork.Thanks to the exploration of the different performative gestures through existing art movement and disciplines in the form of performances and installations, we identified and created the sought performative gesture in our artistic creations : creative and performative interactive gestures. Moreover, as part of this research-creation, the realization of augmented dance performances and performative interactive installations was consolidated through the observation and the study of the participants’ behavior in order to depict the possibilities and the limits of co-creation in the created artworks
22

Acerra, Eleonora. "Les applications littéraires pour la jeunesse : œuvres et lecteurs." Thesis, Montpellier 3, 2019. http://www.theses.fr/2019MON30106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Combinant une perspective théorique e-littéraire et une dimension éducative, cette étude s’attache à décrire un objet très récent et encore peu connu, malgré l’intérêt vif de la communauté académique et du monde éditorial : l’application littéraire pour la jeunesse. Afin de contribuer à sa caractérisation et à la connaissance de ses enjeux pour la formation multilittéracique des jeunes contemporain·e·s, deux objectifs sont poursuivis : décrire et analyser les œuvres actuellement à disposition, en les interrogeant en tant que « techno-textes » [Hayles, 2002] littéraires à destination d’un public bien précis, constitué d’enfants en formation ; analyser des aspects de la réception, en se focalisant sur les processus de compréhension et d’interprétation, tels qu’ils se manifestent dans l’actualisation d’un parcours de navigation sur écran et dans la restitution a posteriori du parcours effectué. Le premier volet de la thèse se propose ainsi, d’une part, de cerner l’objet en dressant un portrait de l’offre éditoriale contemporaine, d’autre part, de décrire plus finement les caractéristiques des œuvres et les différentes manières par lesquelles elles construisent leur message. Le deuxième volet est dédié à l’observation de divers échantillons de lecteur·rice·s empiriques et se propose de vérifier comment il·elle·s abordent l’œuvre littéraire numérique, se l’approprient et répondent à ses requêtes d’interaction par des « interprétations actualisées » [Jeanneret, 2000], qui découlent d’une réception subjective du texte
This dissertation focuses on a very recent and still unestablished digital artifact: children’s literary applications. From a perspective that combines literary education and digital literary theory, we develop two research lines, aimed at defining both the structures of the apps and their potential role in promoting young readers’ multiliteracy competencies. Two main objectives are thus pursued: describing and analyzing the apps, by questioning them as literary “technotexts” [Hayles, 2002] intended for a specific audience; analyzing their actual reception and, more particularly, their comprehension and interpretation among children, observing both their actuals manipulations on the screen and their retrospective recalls of the stories. Therefore, the first part of this study offers, on the one hand, a broad view on the editorial offer and, on the other hand, a close reading of its main features and literary “figures”. The second part is dedicated to the observation of five groups of empirical readers and is aimed at verifying how they approach and understand digital literary works, thereby responding to their interaction requests with an “actualized interpretation” [Jeanneret, 2000] that results from a subjective reception of the text
23

Storer, Brigitte. "Contribution à l'étude des transitions guide rectangulaire-ligne de transmission planaire par une nouvelle approche modale." Toulouse, ENSAE, 1996. http://www.theses.fr/1996ESAE0026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail est consacré au développement de méthodes numériques pour la caractérisation des transitions guide rectangulaire ligne de transmission planaire de type octopôle ou hexapôle. L'aspect complexe de telles structures pourrait imposer une modélisation à l'aide des éléments finis (éléments finis de surface ou de volume). Cependant, ces méthodes ne sont pas appropriées pour l'optimisation d'un circuit car elles nécessitent des temps de calcul importants. Dans ce travail, la procédure adoptée ramène l'étude d'une structure multiaxiale à un problème uniaxial. Nous proposons une nouvelle approche modale pour déterminer la matrice admittance de la jonction, n'impliquant pas une mise en oeuvre lourde. Cette méthode est basée sur des considérations de symétrie et sur l'introduction d'une source de champ excitatrice particulière. Cette source permet de considérer la jonction comme une simple discontinuité uniaxiale. L'élaboration d'un quadripôle de couplage spécifique permet ensuite d'extraire les caractéristiques réelles. La structure a été fabriquée dans le cas d'une transition ligne microruban-guide rectangulaire. Des mesures ont été effectuées sur les deux types de transition : octopôle et hexapôle afin de comparer résultats expérimentaux et théoriques. Pour la transition en octopôle plusieurs largeurs de ruban ont été testées sur la bande de fréquence 7-10 GHz afin d'optimiser le couplage d'un accès en guide vers la ligne de transmission planaire. L'effet d'un paramètre supllémentaire, la longueur du plongeur, est considéré pour l'hexapôle. Un court-cicuit variable coulissant sur une des entrées du guide rectangulaire permet d'optimiser la position ou de largeur de bande de la transition.
24

Sabri, Mohamed. "Filtrage et restauration en traitement des images numériques : recherche d'une mise en œuvre automatique." Rennes 1, 1991. http://www.theses.fr/1991REN10027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème de restitution d’une scène à partir d’une image numérique dégradée, sans information à priori, pose des difficultés d’ordre théorique et pratique, dues aux bruits sur les données. Ce mémoire présente une contribution à l’automatisation des opérations d’identification des sources de dégradation, de filtrage et de restauration, à partir de l’image observée seule. La modélisation des sources de dégradation par l’étude du mécanisme de formation de l’image d’une part, et la modélisation des images 2-D par des champs stochastiques d’autre part servent de base à l’élaboration d’un outil d’analyse et au développement d’algorithmes de traitement. Des algorithmes de filtrage de bruits, de natures diverses et plus particulièrement les bruits multiplicatifs, ont été étudiés. L’utilisation d’opérateurs locaux nous a permis de tenir compte de l’aspect préservation des contours. Plusieurs méthodes de restauration d’images floues, notamment un filtrage de Kalman 2-D semi-récursifs, ont été prospectées. Une identification du flou basée sur celle d’un processus ARMA, et une estimation de la nature du bruit basée sur la notion d’homogénéité locale sont proposées ; un traitement optimal approprié est ensuite appliqué. Nos résultats sont comparés avec ceux obtenus à partir d’algorithmes connus en traitement d’image.
25

Duvillié, Tiphaine. "Droit, œuvres culturelles et évolutions numériques : essai sur l’adaptation du cadre juridique « des livres »." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0286/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le droit du livre est constitué d’éléments juridiques issus du droit privé et du droit public. En effet, il s’agit de concilier à la fois les aspects économiques du livre avec les aspects culturels. En tant que support de la connaissance, il convient de trouver un juste équilibre entre les droits d’auteur et les droits du lecteur. Ainsi, l’étude du droit du livre implique de confronter, entre autre, le droit des contrats, le droit de la concurrence et le droit de la propriété intellectuelle avec le droit au prêt public. Avec les nouvelles technologies de l’information et de la communication, l’accès du public au livre prend une nouvelle dimension. En effet, le numérique est rapidement assimilé à la gratuité des contenus. En conséquence, les représentants des professionnels du livre tentent de prendre les mesures nécessaires à maintenir la chaîne du livre : auteur – éditeur – imprimeur – diffuseur – distributeur – bibliothèque – public. Toutefois, le format dématérialisé de l’œuvre invite à une réflexion sur l’adaptation du cadre juridique « des livres ». La problématique autour des livres consiste à déterminer comment maintenir l’économie du livre, alors que le réseau internet facilite d’une part, l’implantation des multinationales dans les relations commerciales de biens culturels et, d’autre part, la transmission des données. Ces nouvelles modalités sont notamment l’occasion pour les géants de l’Internet de se saisir de l’écrit numérique et de le diffuser selon des techniques moins contraignantes que le commerce traditionnel de livres imprimés établi sur le territoire français. Pour répondre à cette problématique, la question a été scindée en deux parties. La première envisage les modalités de diffusion économique du livre. La seconde revient sur l’aspect culturel du livre et en quoi le numérique peut permettre de maintenir une juste répartition des droits entre ceux de l’auteur et ceux de l’usager des contenus. À travers ces deux conceptions du fichier livre, il est possible de proposer des mécanismes de diffusion de livres numériques et numérisés dans lesquels l’usager est pris en considération. Pour autant, la prise en compte du public dans les choix législatifs n’est pas de nature à remettre en cause l’ensemble du droit de propriété intellectuelle. Le mouvement Libre, particulièrement connu dans les domaines informatiques, peut apparaître comme un des compromis entre la rémunération de l’auteur ou des ayants droit et l’accès du public à l’écrit littéraire, artistique et scientifique. Le mécénat, les partenariats publics/privés, les gestions collectives des droits sont autant de modalités d’exploitation qui peuvent permettre l’exploitation tant économique que culturel des livres numériques et numérisés. Ce sont ces éléments qui seront développés tout au long de ce projet
Book law is made up of legal elements from private and public law. It is necessary to bring together both the economical and cultural aspects of books. As a support for knowledge, one must find the right balance between authors' rights and readers' rights. Therefore, studying book law implies looking at contract law, competition law, and intellectual property law with rights to public loan, among others. The public's access to books takes on a new dimension with new information and communication technologies. Digital content is quickly associated with free content. Consequently, representatives of book professionals try to take the necessary means to maintaining the book chain : author, editor, printer, publisher, distributor, library, public. However, the dematerialized format of the work invites one to think about adapting the legal framework « of books ».The problem concerning books is in determining how to maintain the economy of books, while the internet makes it easier for multinationals to implant themselves in commercial relations of cultural goods on one hand, and makes data transmission easier on the other hand. These new modes are the occasion for the Internet giants to get hold of digital scripture and to broadcast it using less restrictive techniques than the traditional book trade established in France. In order to deal with this problem, the question has been divided into two parts. The first one is to consider the modes of economic book distribution. The second one is to look back at the the cultural aspect of books and how the digital world could maintain a fair sharing of rights between those of the author and those of the contents user.Via these two conceptions of the book file, it is possible to suggest distribution mechanisms for digital and scanned books in which the user is taken into consideration. However, taking the public into account for legislative choices is not likely to call all intellectual property law into question. The Open movement, particularly well-known in the field of I.T, might come across as a compromise between paying the author, or beneficiary, and the public's access to literary, artistic and scientific writings. Patronage, public/private partnerships, and collective management of rights are all modes of exploitation which could allow for both economic and cultural exploitation of digital and scanned books. These are elements which will be developped all throughout this project
26

Dallet, Dominique. "Contribution à la caractérisation des convertisseurs analogiques-numériques : évaluation des méthodes et mise en œuvre de nouveaux procédés." Bordeaux 1, 1995. http://www.theses.fr/1995BOR10507.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Apres une description des principales methodes utilisees pour la caracterisation dynamique des convertisseurs analogiques numeriques, la robustesse des differents algorithmes est etudiee, notamment ceux lies a l'analyse statistique et temporelle. De nouvelles methodes sont ensuite proposees permettant une meilleure approche de certains parametres (non-linearites, nombre de bits effectifs et gigue). On introduit enfin l'erreur de bits de can a approximations successives et l'on met en uvre la transformee de walsh pour sa determination
27

Samahi, Abdelhalim. "Contribution à la mise en œuvre d’une plate-forme de prototypage rapide pour la conception des systèmes sur puce." Dijon, 2007. http://www.theses.fr/2007DIJOS054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse, menés dans le cadre du projet STARSoC (Synthesis Tool for Adaptive and Reconfigurable System-On-Chip), consistent à la mise en \oe{}uvre d'une méthodologie de conception de plates-formes SoC, basée sur un langage de description de haut niveau. Cette méthodologie propose un environnement de conception haut-niveau, basé sur des processus logiciels/matériels parallèles communicants. Un modèle Architectural multiprocesseur de référence est proposé. Ce modèle intègre des composants logiciels (processeurs) et des composants matériels (accélérateurs). Ces composants sont connectés au bus de communication via des interfaces génériques de communication. Un flot de conception complet composé principalement d'un générateur de logiciel et d'un générateur de matériel. Le générateur de logiciel permet d'extraire les programmes qui vont être exécutés par les processeurs, le générateur de matériel est dédié pour synthétiser la plate-forme matérielle. Ce dernier a pour rôle de générer les bus hiérarchiques en fonction des besoins de l'application avec les interfaces de communication nécessaires et de connecter les IPs (processeurs, accélérateurs, contrôleurs, etc. ) autour du bus de communication. La méthodologie utilisée par l'outil STARSoC permet de réduire significativement le temps de conception de plate-formes multiprocesseur sur puce (MPSoC) intégrant des parties logicielles et matérielles. Plusieurs applications de traitement du signal et des images ont été développées pour valider l'efficacité de cette méthodologie
The work of this PhD has been carried out within the framework of the STARSoC (Synthesis Tool for Adaptive and Reconfigurable System-On-Chip) project and relies on component aspects integrated within a SoC platform design methodology, which is based on the high-level language. This methodology proposes a high-level design framework based on the communicating parallel software/hardware processes. A reference multiprocessor architectural model is proposed. This model integrates software (processors) and hardware (accelerators) components. These components are connected to the communication bus by means of generic communication interfaces. A complete design flow consists mainly of a software generator and a hardware generator. The software generator allows to extract the programs which will be executed by the processors, the hardware generator is dedicated to generate the hardware platform. This last is designed at the same time to generate an hierarchical buses according to the application needs with the corresponding communication interfaces, and to connect the IPs (processors, accelerators, controllers, etc) around the communication bus
28

Robin, Frédéric. "Etude d'architectures vlsi numériques parallèles et asynchrones pour la mise en œuvre de nouveaux algorithmes d'analyse et rendu d'images." Paris, ENST, 1997. http://www.theses.fr/1997ENST0021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le contexte des applications de communication visuelle évolue vers l'introduction de fonctionnalités qui dépassent la simple compression d'images : accès universel, interactivité basée-contenu, intégration de contenus hybrides synthétiques-naturels. Une brève introduction au codage avance d'images permet d'entrevoir l'évolution de la puissance de calcul et de la généricité requises pour l'implémentation de ces systèmes de deuxième génération. Une synthèse sur l'évolution des circuits vlsi dédiés à l'analyse, la compression et le rendu d'images permet une réflexion sur les limitations architecturales des processeurs multimédia. Cette thèse propose de combiner le parallélisme massif et l'asynchronisme à grain fin pour apporter de nouvelles perspectives de conception conjointe d'algorithmes et d'architectures vlsi numériques. Une introduction aux différentes notions d'asynchronisme, aux niveaux langage, algorithme, architecture, circuit vlsi, permet de mieux cerner leur sens et les potentiels qu'elles offrent. L'application d'un asynchronisme fonctionnel au filtrage morphologique d'images a abouti à la réalisation d'un réseau vlsi cellulaire asynchrone spécifique comprenant 800. 000 transistors en technologie cmos 0. 5. La combinaison du parallélisme et de l'asynchronisme est finalement généralisée à travers la définition d'une architecture de coprocesseur programmable pour l'analyse-rendu d'images. L'évaluation de plusieurs primitives algorithmiques originales, basées sur un contrôle mixte spmd-cellulaire-associatif-flot de données, illustre l'utilisation conjointe de l'asynchronisme a différents niveaux. Ce travail démontre que le relâchement des contraintes de synchronisation et de séquencement, de la spécification a la réalisation matérielle, favorise l'exploitation du parallélisme inhérent aux algorithmes et des potentiels des technologies vlsi.
29

Catrou, Sylvie. "Étude et mise en œuvre d'un système de décorrélation hybride d'images guidé par apprentissage." Compiègne, 1991. http://www.theses.fr/1991COMPD343.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En analyse comme en compression d'images, l'extraction des composantes d'une image ou leur modélisation compacte relève d'un problème essentiel : la décorrélation d'images. Le travail présenté a pour objectif de reproduire une décorrélation perçue par le système visuel. Un système de décorrélation d'images guidé par apprentissage est proposé. La décorrélation perçue par le système visuel est modélisée par une désignation, générée manuellement sur l'image originale. Cette désignation est une partition en régions. Un algorithme dynamique de segmentation en régions, régi par des critères hybrides de luminance et de texture, constitue le moteur du système de décorrélation. La solution au problème de décorrélation, posé par la désignation, est une séquence de critères de décorrélation permettant de former les régions désignées. La résolution comprend trois étapes de traitement : l'identification du problème de décorrélation, son interprétation, et la décision des critères de résolution. L'identification du problème de décorrélation, son interprétation, et la décision des critères de résolution. L'identification du problème met en correspondance la désignation avec la participation initiale de segmentation. Elle génère le contexte de résolution. Ensuite, des règles d'interprétation du contexte de résolution sont élaborées. Ces règles évaluent la qualité de la désignation et la validité des mesures de décorrélation. Chaque mesure de décorrélation est alors définie par ses conditions d'applicabilité. Enfin, la décision dynamique détermine à chaque itération du système, la mesure à employer et son seuil. La décision intègre des règles d'expertise d'utilisation de l'algorithme de segmentation. Le système de décorrélation hybride se positionne comme un outil général d'analyse d'images. Sa paramétrisation automatique, le rend particulièrement adapté aux applications itératives de reconnaissance de formes à base de segmentation. En analyse et en compression d'images, la transposition des critères de décorrélation, issus du système, en contraintes de conception peut permettre de déterminer les meilleurs modèles de traitement.
30

Chevalier, Cédric. "Conception et mise en œuvre d'outils efficaces pour le partitionnement et la distribution parallèles de problèmes numériques de très grande taille." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13434.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le partitionnement parallèle de graphes et essentiellement sur son application à la renumérotation de matrices creuses. Nous utilisons pour résoudre ce problème un schéma multi-niveaux dont nous avons parallélisé les phases de contraction et d'expansion. Nous avons ainsi introduit pour la phase de contraction un nouvel algorithme de gestion des conflits d'appariements distants, tout en améliorant les algorithmes déjà existants en leur associant une phase de sélection des communications les plus utiles. Concernant la phase d'expansion, nous avons introduit la notion de graphe bande qui permet de diminuer de manière très conséquente la taille du problème à traiter par les algorithmes de raffinement. Nous avons généralisé l'utilisation de ce graphe bande aux implantations séquentielles et parallèles de notre outil de partitionnement SCOTCH. Grâce à la présence du graphe bande, nous avons proposé une utilisation nouvelle des algorithmes génétiques dans le cadre de l'expansion en les utilisant comme heuristiques parallèles de raffinement de la partition.
31

Lesueur, François. "Autorité de certification distribuée pour des réseaux Pair-à-Pair structurés : modèle, mise en œuvre et exemples d'applications." Rennes 1, 2009. https://tel.archives-ouvertes.fr/tel-00443852.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes pair-à-pair permettent de concevoir des systèmes de très grande taille à forte disponibilité, tout cela à faible coût. Au contraire des clients dans un système client-serveur, les pairs d'un réseau pair-à-pair jouent un rôle actif dans le fonctionnement du réseau et fournissent leur bande passante, leur puissance de calcul et leur capacité de stockage : la présence de pairs malveillants ou ne se conformant pas au comportement attendu peut rompre le service proposé. L'obtention de propriétés de sécurité dans un réseau pair-à-pair pose de nouveaux problèmes car, au contraire des systèmes actuels dans lesquels, le plus souvent, une autorité ponctuelle autorise ou non les opérations demandées, aucun pair ne doit avoir un rôle critique pour le système entier. La contribution principale de cette thèse est une autorité de certification distribuée qui permet la signature distribuée de certificats. Au contraire des autorités de certification centralisées actuellement utilisées, y compris dans des réseaux pair-à-pair, l'autorité que nous proposons est entièrement distribuée dans le réseau pair-à-pair et ce sont les pairs eux-mêmes qui prennent les décisions, par l'accord d'un pourcentage fixé d'entre eux. Nous présentons dans ce mémoire les mécanismes cryptographiques mis en œuvre ainsi que deux applications de cette autorité, afin de limiter l'attaque sybile et de nommer les utilisateurs de manière sécurisée
Peer-to-peer networks allow to design low cost and high availability large systems. Contrary to clients in client-server systems, peers of a peer-to-peer network play an active role in the network and give some bandwidth, computation power and storage to the network : the presence of attackers or misbehaving peers can break the proposed service. Guaranteeing security properties in peer-to-peer networks yields new problems since, contrary to current systems where, most of the times, a central authority allows or not asked operations, no peer should have a critical role for the whole network. The main contribution of this thesis is a distributed certification authority which allows the distributed signature of certificates. Contrary to currently used centralized certification authorities, even in peer-to-peer networks, the authority we propose is fully distributed in the peer-to-peer network and the peers themselves take the decisions, through the cooperation of a fixed percentage of them. We present in this thesis the cryptographic mechanisms used as well as two applications of this authority, in order to limit the sybil attack and to securely name users
32

Ebrahemyan, Masihi Anita. "Conception et mise en œuvre d'un convertisseur DC/DC 4.2V en technologie CMOS 0.18 um." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/68406.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Leterrier, Hervé. "Méthodes intérieures en programmation linéaire : élaboration et mise en œuvre d'algorithmes rapides et robustes ; comparaisons des performances numériques avec les meilleurs algorithmes actuels." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse consiste en la comparaison et l'amélioration des algorithmes de résolution de programmes linéaires fondés sur le principe de cheminement à l'intérieur strict du polytope des points réalisables. Ceci nous conduit tout d'abord à faire un état de l'art des méthodes intérieures en programmation linéaire proposées depuis 1947, et à en extraire celles qui semblent avoir, selon la littérature, les meilleures performances ou susceptibles d'être sensiblement améliorées : c'est à dire, les méthodes duales purement affines, les méthodes affines utilisant une fonction potentielle, et les méthodes primales-duales de path-following, simple et prédictive-corrective de type S. Mehrotra, qui est actuellement l'une des plus rapides. Plus précisément, en nous basant sur les travaux d'Adler et al. , l'algorithme dual affine de I. I. Dikin ainsi que l'algorithme polynomial affine de C. C. Gonzaga ont été implémentés avec la bibliothèque fortran IPMLO. Pour les méthodes de path-following, nous avons utilise le code PDLBM de la méthode primale-duale avec fonction barrière logarithmique de McShane et al. , ainsi que 2 codes de la méthode primale-duale prédictive-corrective : l'excellent code universitaire HOPDM 2. 13 de J. Gondzio et le code professionnel CPLEX 3. 0 qui sont parmi les plus rapides et les plus précis existants. Pour effectuer des comparaisons plus pertinentes des algorithmes expérimentés, nous nous plaçons dans un contexte unique de programmation adapté aux besoins actuels de la recherche : notamment, d'une part, nous raffinons les critères de performances existants, en proposons de nouveaux et comparons les performances des codes pour l'obtention de solutions approchées. Pour éprouver plus sévèrement les algorithmes, nous simulons des conditions expérimentales particulièrement défavorables et difficiles pour une approche intérieure. D'autre part, la rapidité de convergence des méthodes intérieures étant toujours et particulièrement sensible au choix des initialisations -celles ci n'étant pas déterminées d'une manière parfaite- il nous a aussi paru important de tester la robustesse des performances et de nos comparaisons numériques des codes, en faisant varier la position du point de départ dans le polyèdre. A notre connaissance, de tels tests de robustesse n'avaient pas été encore entrepris. Par ailleurs, lors d'une 1ère série d'expérimentations, nous mettons en évidence les points faibles des méthodes duales affines et des méthodes primales-duales déjà existantes : le problème de convergence trop lente ou de convergence non polynomiale de la méthode duale affine, et le manque de robustesse de la méthode primale-duale. Pour y remédier, nous proposons et mettons en œuvre quatre améliorations importantes de la méthode duale ; notamment, une méthode de recentrage du premier point réalisable sous une contrainte plancher, ainsi qu'une adaptation de la méthode polynomiale de Gonzaga, qui vont constituer deux codes particulièrement efficaces : REO2affine et GONZédal. L'une de ces deux méthodes pourra améliorer la robustesse des méthodes primales-duales. Avec notre nouveau protocole expérimental et grâce à nos améliorations de la méthode duale, nous mettons en évidence des phénomènes numériques tout à fait intéressants, inconnus jusqu'alors, qui vont remettre en question les conclusions établies par la communauté scientifique. Lors de tests numériques très poussés, nous confirmons que les meilleures méthodes primales-duales sont incontestablement plus rapides que les meilleures méthodes duales, mais dans des proportions bien moindres qu'il n'y paraissait. De plus, les codes duaux se sont avérés nettement plus robustes que les codes primaux-duaux. En conclusion, nous nous demandons alors légitimement, lorsque l'on conçoit un logiciel - que l'on veut efficace - de programmation mathématique, s'il n'est pas préférable de lui donner à la fois des qualités de rapidité et de robustesse plutôt que seulement la première de celles-ci.
34

Maumus, Sandy. "Approche de la complexité du syndrome métabolique et de ses indicateurs de risuqe par la mise en œuvre de méthodes numériques et symboliques de fouille de données." Nancy 1, 2005. http://www.theses.fr/2005NAN12506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le syndrome métabolique (SM) est un concept complexe caractérisé par un ensemble de facteurs de risque cardiovasculaire dont l'origine est la résultante d'interactions mettant en jeu des facteurs génétiques et environnementaux. Le travail présenté dans cette thèse a porté sur l'étude du SM dans une population de familles supposées saines: la cohorte STANISLAS. Pour appréhender la complexité du SM nous avons utilisé les méthodes statistiques et la fouille de données, soit séparément, soit en combinaison. Nous avons mis au point une méthodologie pour la fouille de cohortes qui, à partir de l'extraction de motifs fréquents et de règles d'associations, permet à l'expert du domaine de générer de nouvelles hypothèses de recherche à valider par des tests statistiques ou par de nouvelles expériences en biologie. Par ailleurs, étant donné que les connaissances intéressantes pour l'expert concernent le SM, un état qui reste peu fréquent ( ou exceptionnel) chez les individus apparemment sains de la cohorte STANISLAS, nous avons posé les prémisses d'un nouvel algorithme qui recherche les motifs rares. Ainsi, les principaux résultats de cette thèse ont été obtenus par la mise en oeuvre d'études épidémiologiques et/ou de méthodes de fouille de données, en considérant l' entité SM dans son ensemble ou en prenant ses facteurs associés(insulino-résistance, dyslipidémie, inflammation) séparément. Après avoir mené une analyse descriptive du SM dans la cohorte STANISLAS, nous avons réalisé une étude longitudinale tenant compte de deux visites. Nos résultats font état d'un pourcentage non négligeable d'individus présentant un SM de la cohorte STANISLAS. La prévalence du SM (définition NCEP-ATPIII) est de 5,9% et 2,1% à l'inclusion et atteint 7,2% et 5,4% cinq ans plus tard, chez les hommes et chez les femmes respectivement. Par ailleurs, chez un enfant, la présence d'un SM chez un des parents semble être prédictive de valeurs plus importantes pour les concentrations en TNF-a et moins importantes pour les concentrations en HDL-C, deux indicateurs majeurs du risque cardiovasculaire. Partant du constat que les définitions disponibles du SM ne sont pas adaptées à l'étude de la cohorte STANISLAS, nous avons cherché les paramètres qui séparent le mieux les individus selon leur statut SM, pour les définitions EGIR, NCEP-ATPIII et OMS grâce à une série d'analyses discriminantes. De plus, une analyse factorielle a permis de donner une vue globale des facteurs associés au SM. La suite des expérimentations a considéré l'étude séparée des processus d'insulinorésistance (IR), de dyslipidémie et d'inflammation. L'IR a été abordée à travers l'étude de la concentration en insuline à jeun. Nous avons déterminé les facteurs biologiques et génétiques influençant la concentration en insuline chez les individus de la cohorte STANISLAS et établi des valeurs de référence de l'insulinémie dans cette population. Nos résultats suggèrent un rôle important pour le polymorphisme -455G/A du gène du fibrinogène dans l'insulinémie chez les hommes et les femmes, soit directement soit par l'intermédiaire d'interactions avec l'environnement. Les résultats concernant le processus de dyslipidémie ont été obtenus grâce à des hypothèses générées à l'aide de la fouille de données et validées par les statistiques. Des interactions impliquant des polymorphismes génétiques du métabolisme lipidique (APOE codons 112/158 et APOB Thr71Ile) et l' environnement ont été mises en évidence. Par ailleurs, nous avons trouvé une association entre le polymorphisme APOB Thr71Ile et le risque de développer un SM. Enfin, nous avons considéré l'état pro-inflammatoire existant dans le SM par l'étude du TNF-a et de l'IL-6. Nous avons recherché les facteurs de variation biologiques de ces deux cytokines, établi leur ressemblance familiale et analysé les associations potentielles entre les polymorphismes génétiques de ces deux cytokines et les concentrations de leurs protéines correspondantes. En conclusion, nous avons montré que même les individus d'une population apparemment saine peuvent être atteints d'un SM. Nous avons essayé d'apporter des premiers éléments de réponse concernant la complexité du SM et de ses facteurs associés grâce à l'utilisation combinée de méthodes de fouille de données et de statistiques. La méthodologie proposée pour la fouille de cohortes et pour la découverte de motifs rares se veut ouverte et applicable à d'autres cadres d'étude, que ce soit en biologie ou dans d'autres domaines.
35

Maumus, Sandy. "Approche de la complexité du syndrome métabolique et de ses indicateurs de risuqe par la mise en œuvre de méthodes numériques et symboliques de fouille de données." Nancy 1, 2005. http://www.theses.fr/2005NAN10209.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le syndrome métabolique (SM) est un concept complexe caractérisé par un ensemble de facteurs de risque cardiovasculaire dont l'origine est la résultante d'interactions mettant en jeu des facteurs génétiques et environnementaux. Le travail présenté dans cette thèse a porté sur l'étude du SM dans une population de familles supposées saines: la cohorte STANISLAS. Pour appréhender la complexité du SM nous avons utilisé les méthodes statistiques et la fouille de données, soit séparément, soit en combinaison. Nous avons mis au point une méthodologie pour la fouille de cohortes qui, à partir de l'extraction de motifs fréquents et de règles d'associations, permet à l'expert du domaine de générer de nouvelles hypothèses de recherche à valider par des tests statistiques ou par de nouvelles expériences en biologie. Par ailleurs, étant donné que les connaissances intéressantes pour l'expert concernent le SM, un état qui reste peu fréquent ( ou exceptionnel) chez les individus apparemment sains de la cohorte STANISLAS, nous avons posé les prémisses d'un nouvel algorithme qui recherche les motifs rares. Ainsi, les principaux résultats de cette thèse ont été obtenus par la mise en oeuvre d'études épidémiologiques et/ou de méthodes de fouille de données, en considérant l' entité SM dans son ensemble ou en prenant ses facteurs associés(insulino-résistance, dyslipidémie, inflammation) séparément. Après avoir mené une analyse descriptive du SM dans la cohorte STANISLAS, nous avons réalisé une étude longitudinale tenant compte de deux visites. Nos résultats font état d'un pourcentage non négligeable d'individus présentant un SM de la cohorte STANISLAS. La prévalence du SM (définition NCEP-ATPIII) est de 5,9% et 2,1% à l'inclusion et atteint 7,2% et 5,4% cinq ans plus tard, chez les hommes et chez les femmes respectivement. Par ailleurs, chez un enfant, la présence d'un SM chez un des parents semble être prédictive de valeurs plus importantes pour les concentrations en TNF-a et moins importantes pour les concentrations en HDL-C, deux indicateurs majeurs du risque cardiovasculaire. Partant du constat que les définitions disponibles du SM ne sont pas adaptées à l'étude de la cohorte STANISLAS, nous avons cherché les paramètres qui séparent le mieux les individus selon leur statut SM, pour les définitions EGIR, NCEP-ATPIII et OMS grâce à une série d'analyses discriminantes. De plus, une analyse factorielle a permis de donner une vue globale des facteurs associés au SM. La suite des expérimentations a considéré l'étude séparée des processus d'insulinorésistance (IR), de dyslipidémie et d'inflammation. L'IR a été abordée à travers l'étude de la concentration en insuline à jeun. Nous avons déterminé les facteurs biologiques et génétiques influençant la concentration en insuline chez les individus de la cohorte STANISLAS et établi des valeurs de référence de l'insulinémie dans cette population. Nos résultats suggèrent un rôle important pour le polymorphisme -455G/A du gène du fibrinogène dans l'insulinémie chez les hommes et les femmes, soit directement soit par l'intermédiaire d'interactions avec l'environnement. Les résultats concernant le processus de dyslipidémie ont été obtenus grâce à des hypothèses générées à l'aide de la fouille de données et validées par les statistiques. Des interactions impliquant des polymorphismes génétiques du métabolisme lipidique (APOE codons 112/158 et APOB Thr71Ile) et l' environnement ont été mises en évidence. Par ailleurs, nous avons trouvé une association entre le polymorphisme APOB Thr71Ile et le risque de développer un SM. Enfin, nous avons considéré l'état pro-inflammatoire existant dans le SM par l'étude du TNF-a et de l'IL-6. Nous avons recherché les facteurs de variation biologiques de ces deux cytokines, établi leur ressemblance familiale et analysé les associations potentielles entre les polymorphismes génétiques de ces deux cytokines et les concentrations de leurs protéines correspondantes. En conclusion, nous avons montré que même les individus d'une population apparemment saine peuvent être atteints d'un SM. Nous avons essayé d'apporter des premiers éléments de réponse concernant la complexité du SM et de ses facteurs associés grâce à l'utilisation combinée de méthodes de fouille de données et de statistiques. La méthodologie proposée pour la fouille de cohortes et pour la découverte de motifs rares se veut ouverte et applicable à d'autres cadres d'étude, que ce soit en biologie ou dans d'autres domaines.
36

Souliotou, Anastasia Zoé. "Art en réseaux : la structure des réseaux comme une nouvelle matrice pour la production des œuvres artistiques." Electronic Thesis or Diss., Paris 8, 2015. http://www.theses.fr/2015PA080121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique de ce doctorat est : comment la structure des réseaux constitue une nouvelle matrice pour la production d’oeuvres artistiques. Pour répondre à cette question, nous commencerons en étudiant l’évolution de la notion de « réseau » de l’antiquité jusqu’à aujourd’hui ; les théories des réseaux concernant leur structure et/ou leur dynamique. Ensuite nous présenterons les applications –de la notion ou des théories de réseaux– tant dans les sciences que dans l’art. Nous listerons et nous analyserons huit types de réseaux et puis nous mentionnerons des oeuvres artistiques qui ont été inspirées par ces types de réseaux et/ou qui utilisent certains (types de) réseaux comme matrice pour leur création. Nous proposerons le projet Lignes Imaginaires, un modèle 3D qui se fonde sur la conception d’un métro de lignes imaginaires, voire de lignes dynamiques et/ou paradoxales qui sont en mouvement, apparaissent/disparaissent, créent de l’infrastructure supplémentaire. L’analyse du métro Lignes Imaginaires dévoile l'importance de la géographie et de la spatialité des réseaux, tandis que leur représentation graphique topologique reste insuffisante pour la représentation précise et pour la compréhension de leur structure (paradoxale). En outre, l’innovation du métro Lignes Imaginaires est que son infrastructure est dynamique et auto-organisée, contrairement aux métros traditionnels où les lignes et leurs itinéraires sont fixes. L’objectif du projet artistique Lignes Imaginaires est de visualiser un concept en créant un métro hors du commun qui pourrait aussi proposer des formes alternatives des réseaux de transports dans le contexte urbain
This thesis examines and shows ways in which the structure of networks can provide a new matrix for the production of artworks. In order to answer this question we start by studying: the evolution of the term ‘network’ from the ancient times up to nowadays; the theories that refer to network structure or network dynamics. Then we present the applications of these theories into both art and science. We list and analyze eight different types of networks and then we feature artworks which have been inspired by these network types or have used the network structure of a certain type as a matrix for art making. We propose the Imaginary Lines project, a three-dimensional network model which is based on the concept of a metro composed of imaginary lines. More precisely Imaginary Lines metro network encompasses seven paradoxical lines which move, (dis)appear and produce supplementary infrastructure. The Imaginary Lines metro unveils the importance of geography and spatiality, in contrast with topological network graphic representations, which remain insufficient, in terms of utmost accuracy in representation and comprehension of network structure. Additionally, the Imaginary Lines network innovation lays in its infrastructure dynamics as well as in its self-organisation. The objective of the Imaginary Lines artistic project is to visualise a concept by creating an unusual metro, which goes beyond traditional fixed-route transport networks and can support alternative forms of urban transport development
37

Souliotou, Anastasia Zoé. "Art en réseaux : la structure des réseaux comme une nouvelle matrice pour la production des œuvres artistiques." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique de ce doctorat est : comment la structure des réseaux constitue une nouvelle matrice pour la production d’oeuvres artistiques. Pour répondre à cette question, nous commencerons en étudiant l’évolution de la notion de « réseau » de l’antiquité jusqu’à aujourd’hui ; les théories des réseaux concernant leur structure et/ou leur dynamique. Ensuite nous présenterons les applications –de la notion ou des théories de réseaux– tant dans les sciences que dans l’art. Nous listerons et nous analyserons huit types de réseaux et puis nous mentionnerons des oeuvres artistiques qui ont été inspirées par ces types de réseaux et/ou qui utilisent certains (types de) réseaux comme matrice pour leur création. Nous proposerons le projet Lignes Imaginaires, un modèle 3D qui se fonde sur la conception d’un métro de lignes imaginaires, voire de lignes dynamiques et/ou paradoxales qui sont en mouvement, apparaissent/disparaissent, créent de l’infrastructure supplémentaire. L’analyse du métro Lignes Imaginaires dévoile l'importance de la géographie et de la spatialité des réseaux, tandis que leur représentation graphique topologique reste insuffisante pour la représentation précise et pour la compréhension de leur structure (paradoxale). En outre, l’innovation du métro Lignes Imaginaires est que son infrastructure est dynamique et auto-organisée, contrairement aux métros traditionnels où les lignes et leurs itinéraires sont fixes. L’objectif du projet artistique Lignes Imaginaires est de visualiser un concept en créant un métro hors du commun qui pourrait aussi proposer des formes alternatives des réseaux de transports dans le contexte urbain
This thesis examines and shows ways in which the structure of networks can provide a new matrix for the production of artworks. In order to answer this question we start by studying: the evolution of the term ‘network’ from the ancient times up to nowadays; the theories that refer to network structure or network dynamics. Then we present the applications of these theories into both art and science. We list and analyze eight different types of networks and then we feature artworks which have been inspired by these network types or have used the network structure of a certain type as a matrix for art making. We propose the Imaginary Lines project, a three-dimensional network model which is based on the concept of a metro composed of imaginary lines. More precisely Imaginary Lines metro network encompasses seven paradoxical lines which move, (dis)appear and produce supplementary infrastructure. The Imaginary Lines metro unveils the importance of geography and spatiality, in contrast with topological network graphic representations, which remain insufficient, in terms of utmost accuracy in representation and comprehension of network structure. Additionally, the Imaginary Lines network innovation lays in its infrastructure dynamics as well as in its self-organisation. The objective of the Imaginary Lines artistic project is to visualise a concept by creating an unusual metro, which goes beyond traditional fixed-route transport networks and can support alternative forms of urban transport development
38

Dulong, de Rosnay Melanie. "La mise à disposition des œuvres et des informations sur les réseaux : régulation juridique et régulation technique." Phd thesis, Université Panthéon-Assas - Paris II, 2007. http://tel.archives-ouvertes.fr/tel-00666307.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les développements techniques entraînent une croissance exponentielle de la circulation des œuvres et informations sur les réseaux. Les modèles de régulation de l'ère analogique élaborés sur la rareté du support sont remis en question par le numérique, fondé sur les paradigmes de la copie, de la réappropriation et du partage. Le droit d'auteur a été développé et adapté au rythme des innovations techniques de reproduction et de diffusion des œuvres, comme un correctif artificiel accordant une exclusivité temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord été pensés de manière indépendante. Les processus d'élaboration des normes et standards techniques et l'extension des droits exclusifs entraînent des tensions entre les industries culturelles et le public. Cette conception conduit à un enchevêtrement de lois et mesures techniques de protection au profit de la régulation technique. Nous proposons donc, dans la lignée de la lex informatica, un modèle fondé sur l'influence réciproque entre les disciplines, vers la reconception des catégories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le développement d'applications, d'ontologies et de métadonnées juridiques permet une automatisation de la régulation des échanges d'œuvres et d'informations. Mettant en œuvre une intégration plus équilibrée du droit et de la technique, ce modèle est notamment fondé sur l'analyse de licences et modèles contractuels qui se développent sur Internet, entre contrôle d'accès et biens communs.
39

Thibault, Dominic. "Vers une musique numérique vivante : Regard sur le processus créatif de quatre œuvres musicales." Thèse, 2011. http://hdl.handle.net/1866/5294.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Ce mémoire présente quatre œuvres musicales composées dans le cadre d'une exploration des musiques numériques. La description de leur contexte de création et leur analyse témoignent d’une démarche méthodologique inspirée par l’improvisation, la collaboration et l’interprétation des musiques. Une introduction précise d’abord mon parcours musical et mes sources d’inspiration en plus de décrire les origines et les objectifs de mon projet. Le premier chapitre présente le contexte de création des quatre œuvres qui composent mon corpus. De velours et d’acier est une pièce acousmatique inspirée de la musique métal qui s’organise autour de matériaux sonores référentiels. Un pied dans ma poubelle est une pièce musicale mixte composée expressément pour l'ensemble de jazz contemporain [iks]. Sa composition a grandement fait évoluer ma conception de l’improvisation. La pièce Enfant Robot au cœur fondant est une recherche sur l’intégration des composantes électroacoustique et instrumentale dans une même musique. Druckabfall est une musique acousmatique qui a vu le jour suite à une collaboration théâtrale. Un deuxième chapitre offre une discussion sur la musique mixte et ses implications dans le processus créatif. Un ultime chapitre aborde de façon critique mon corpus en plus d’en extraire certaines préoccupations. Je propose alors une méthodologie de composition en plus de discuter de l’improvisation et de la collaboration comme moyens de développer mon processus créatif. Cette discussion d’ordre esthétique me permet d'établir des perspectives d’avenir pour ma création musicale.
This Master's thesis presents four musical works composed whilst researching numeric music. The description of their context of creation and their analysis indicate a methodological approach inspired by improvisation, collaboration and interpretation of music. First, an introduction describes my musical background and sources of inspiration in addition to describing the origins and objectives of my project. The first chapter presents the context, within which the four musical works were created. De velours et d’acier is an acousmatic work inspired by metal music. It is organized around a set of referential sounds. Un pied dans ma poubelle is a mixed music work composed specifically for the contemporary jazz band [iks]. My understanding of improvisation has greatly evolved with the composition of this work. The piece called Enfant Robot au cœur fondant was made during my research for integrating electroacoustic and instrumental components within a united music. Druckabfall is an acousmatic work born after a collaboration within the world of theater. The second chapter provides a discussion on mixed music and its implications in the creative process. The final chapter looks critically across my corpus to extract some aesthetic concerns. I then propose a methodology of composition and discuss the improvisation and collaboration as means to develop my creative process. This discussion allows me to enunciate my future musical pratices.

To the bibliography