Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Modélisation par modèle de substitution.

Дисертації з теми "Modélisation par modèle de substitution"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Modélisation par modèle de substitution".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Guelilia, Zakaria. "Modélisation électromagnétique rapide de problèmes multi-échelles incluant une partie variable - Application à la dosimétrie numérique et au couplage entre antennes." Thesis, Rennes, INSA, 2014. http://www.theses.fr/2014ISAR0006/document.

Повний текст джерела
Анотація:
La simulation numérique est un outil indispensable pour la résolution de problèmes électromagnétiques. Le temps de calcul ainsi que la précision des résultats dépendent du niveau de description utilisé et des dimensions électriques du problème analysé. Dans le cas de figure où il est nécessaire de modéliser un environnement électriquement grand, l'emploi de méthodes classiques comme la méthode des différences finies dans le domaine temporel (FDTD) se heurte à des difficultés en termes de temps de simulation. Cet aspect devient particulièrement problématique quand l'analyse doit être menée pour plusieurs valeurs d'un ou plusieurs paramètres définissant le problème étudié. Face à cette variabilité et afin d'éviter la multiplication de simulations coûteuses, Il est nécessaire d'opter pour des méthodes appropriées. Les travaux de cette thèse sont consacrés au développement d'une nouvelle approche permettant de résoudre de manière efficace l'aspect variable rencontré dans un problème multiéchelle. Cette nouvelle méthode issue de l'association de la FDTD à Grille Double (DG-FDTD) avec un modèle de substitution se nomme la MM-DG-FDTD (Macro-Modèle basé sur la DG-FDTD). L'emploi de la DG-FDTD vise à traiter l'aspect multi-échelle en divisant le problème étudié en sous-volumes FDTD possédant chacun ses propres paramètres de simulation. L'utilisation d'un modèle de substitution rapide construit en peu de simulations électromagnétiques permet de remplacer rigoureusement et rapidement la dernière simulation de la DGFDTD. Après avoir validé le bon fonctionnement du modèle de substitution sur des cas simples, une utilisation de la MM-DGFDTD est effectuée sur deux applications inscrites dans deux contextes : la dosimétrie numérique et le couplage entre antennes. La première propose d'estimer la valeur du champ électrique à l'intérieur de l'oeil gauche d'un modèle de corps humain. Ce dernier est soumis au rayonnement électromagnétique d'une antenne localisée sur un véhicule. Cette étude est effectuée pour un grand nombre de positions du corps autour du véhicule. La seconde application consiste à évaluer la valeur du coefficient de transmission entre deux antennes ULB (Ultra-Large Bande). La position de l'antenne de réception évolue au sein d'un grand environnement. Pour ces deux études, la MM-DG-FDTD montre sa capacité à donner des résultats rapides et précis en comparaison d'une utilisation classique de la DG-FDTD
Numerical modelling is an essential tool for solving electromagnetic problems. The computation time and the accuracy of the results depend on the description level used and electrical dimensions of the analyzed problem. When it is necessary to model an electrically large environment, the use of conventional methods such as the finite difference time domain (FDTD) face difficulties in terms of simulation time. This becomes particularly problematic when the analysis must be carried out for several values of one or more parameters defining the studied problem. Considering this variability aspect and in order to avoid multiplication of costly simulations, it is necessary to choose suitable methods. This thesis aims to develop a new approach to solve effectively the variable feature encountered in some multi-scale problems. This new method called the MM-DG-FDTD (MacroModel based Dual Grid-FDTD) results from the association of the Dual Grid- FDTD (DG-FDTD) method with a substitution model. The use of the DG-FDTD permits to treat multiscale aspect dividing the studied problem into FDTD sub-volumes. Each step has its own simulation parameters. The fast substitution model built in few electromagnetic simulations replaces in a rigorous and efficient way the last expensive DG-FDTD simulation. The proper operation of the substitution model is firstly validated using simple cases. Next, a use of the MM-DG-FDTD is performed on two applications belonging to two contexts: numerical dosimetry and antennas coupling. The first one proposes to estimate the value of the electric field inside the left eye of a human body model. It receives electromagnetic radiation from an antenna located onboard a vehicle. This study is carried out for a large number of positions of the body around the vehicle. The second application is to assess the value of the transmission coefficient between two UWB (Utra-Wide Band) antennas. The position of the receiving antenna changes in a large environment. For both studies, MM-DG-FDTD shows its ability to give fast and accurate results compared to a classic use of the DG-FDTD
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Goutierre, Emmanuel. "Machine learning-based particle accelerator modeling." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG106.

Повний текст джерела
Анотація:
Les accélérateurs de particules reposent sur des simulations de haute précision pour optimiser la dynamique du faisceau. Ces simulations sont coûteuses en ressources de calcul, rendant leur analyse en temps réel difficilement réalisable. Cette thèse propose de surmonter cette limitation en explorant le potentiel de l'apprentissage automatique pour développer des modèles de substitution des simulations d'accélérateurs de particules. Ce travail se concentre sur ThomX, une source Compton compacte, et introduit deux modèles de substitution : LinacNet et Implicit Neural ODE (INODE). Ces modèles sont entraînés sur une base de données développée dans le cadre de cette thèse, couvrant une grande variété de conditions opérationnelles afin d'assurer leur robustesse et leur capacité de généralisation. LinacNet offre une représentation complète du nuage de particules en prédisant les coordonnées de toutes les macro-particules du faisceau plutôt que de se limiter à ses observables. Cette modélisation détaillée, couplée à une approche séquentielle prenant en compte la dynamique cumulative des particules tout au long de l'accélérateur, garantit la cohérence des prédictions et améliore l'interprétabilité du modèle. INODE, basé sur le cadre des Neural Ordinary Differential Equations (NODE), vise à apprendre les dynamiques implicites régissant les systèmes de particules sans avoir à résoudre explicitement les équations différentielles pendant l'entraînement. Contrairement aux méthodes basées sur NODE, qui peinent à gérer les discontinuités, INODE est conçu théoriquement pour les traiter plus efficacement. Ensemble, LinacNet et INODE servent de modèles de substitution pour ThomX, démontrant leur capacité à approximer la dynamique des particules. Ce travail pose les bases pour développer et améliorer la fiabilité des modèles basés sur l'apprentissage automatique en physique des accélérateurs
Particle accelerators rely on high-precision simulations to optimize beam dynamics. These simulations are computationally expensive, making real-time analysis impractical. This thesis seeks to address this limitation by exploring the potential of machine learning to develop surrogate models for particle accelerator simulations. The focus is on ThomX, a compact Compton source, where two surrogate models are introduced: LinacNet and Implicit Neural ODE (INODE). These models are trained on a comprehensive database developed in this thesis that captures a wide range of operating conditions to ensure robustness and generalizability. LinacNet provides a comprehensive representation of the particle cloud by predicting all coordinates of the macro-particles, rather than focusing solely on beam observables. This detailed modeling, coupled with a sequential approach that accounts for cumulative particle dynamics throughout the accelerator, ensures consistency and enhances model interpretability. INODE, based on the Neural Ordinary Differential Equation (NODE) framework, seeks to learn the implicit governing dynamics of particle systems without the need for explicit ODE solving during training. Unlike traditional NODEs, which struggle with discontinuities, INODE is theoretically designed to handle them more effectively. Together, LinacNet and INODE serve as surrogate models for ThomX, demonstrating their ability to approximate particle dynamics. This work lays the groundwork for developing and improving the reliability of machine learning-based models in accelerator physics
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Descorps-Declere, Stéphane. "Modélisation du processus d'annotation par une architecture blackboard." Paris 6, 2006. http://www.theses.fr/2006PA066165.

Повний текст джерела
Анотація:
Devant la multiplication des projets de séquençage de génomes complets, il est aujourd’hui essentiel de disposer d’outils informatiques performants capables d'aider l’utilisateur biologiste vers un meilleur usage des méthodes d’analyses. Ceci s’avère particulièrement important en raison des très nombreuses méthodes d’analyse disponibles ainsi que des grandes quantités de données concernées. Ce travail vise à apporter une contribution à cette problématique, par l’élaboration d’un modèle bio-informatique adapté à l’annotation de génomes complets. Avec l’étude de l’état de l’art, nous avons dégagé l’existence de deux approches différentes pour modéliser le processus d'annotation. Cette constatation nous a permis, dans un premier temps, de re-formaliser la démarche d’annotation de séquences génomiques. Puis, dans un second temps, de proposer une nouvelle architecture logicielle adéquate afin de traiter la question ainsi reformulée : l’architecture blackboard
Because of the huge increase in sequencing projects of complete genomes, it is essential today to have powerful computer softwares able to help biologists towards a better use of analysis methods. This is particularly important because there exists many methods of analysis as well as a great amount of data. In order to solve this issue, we propose in this thesis to develop of a new bioinformatic model suitable for the annotation of complete genomes. From studying the "state of the art", we concluded that we could approach the modelisation of the annotation process of two different ways. This enabled us to propose a new model based on this analysis. We then decided to re-formalize the annotation process; it gave us the opportunity to propose an adequate software architecture in order to handle the process thus reformulated. The thesis is then a double contribution : it is both a modelisation of the annotation process, and a technical proposal based on a blackboard architecture
Стилі APA, Harvard, Vancouver, ISO та ін.
4

El, Hajj Chehade Wassim. "Déploiement Multiplateforme d'Applications Multitâche par la Modélisation." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00671383.

Повний текст джерела
Анотація:
Face à la complexité des logiciels multitâches, liée aux contextes économique et concurrentiel très pressants, la portabilité des applications et la réutilisabilité des processus de déploiement sont devenues un enjeu majeur. L'ingénierie dirigée par les modèles est une approche qui aspire répondre à ces besoins en séparant les préoccupations fonctionnelles des systèmes multitâches de leurs préoccupations techniques, tout en maintenant la relation entre eux. En pratique, cela se concrétise par des transformations de modèles capables de spécialiser les modèles pour des plates-formes cibles. Actuellement, les préoccupations spécifiques à ces plates-formes sont décrites implicitement dans les transformations eux même. Par conséquence, ces transformations ne sont pas réutilisables et ne permettent pas de répondre aux besoins hétérogènes et évolutifs qui caractérisent les systèmes multitâches. Notre objectif est alors d'appliquer le principe de séparation de préoccupation au niveau même de la transformation des modèles, une démarche qui garantie la portabilité des modèles et la réutilisabilité des processus de transformation.Pour cela, cette étude propose premièrement une modélisation comportementale détaillée des plates-formes d'exécutions logicielles. Cette modélisation permet d'extraire les préoccupations spécifiques à une plate-forme de la transformation de modèle et les capturer dans un modèle détaillé indépendant et réutilisable. Dans un second temps, en se basant sur ces modèles, elle présente un processus générique de développement des systèmes concurrents multitâches. L'originalité de cette approche réside dans une véritable séparation des préoccupations entre trois acteurs à savoir le développeur des chaînes de transformation, qui spécifient une transformation de modèle générique, les fournisseurs des plates-formes qui fournissent des modèles détaillés de leurs plates-formes et le concepteur des applications multitâche qui modélise le système. A la fin de cette étude, une évaluation de cette approche permet de montrer une réduction dans le coût de déploiement des applications sur plusieurs plates-formes sans impliquer un surcoût de performance.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Mély, Hubert. "Modélisation de la transformation de biomatériaux par un modèle de percolation." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00672081.

Повний текст джерела
Анотація:
Les biomatériaux interviennent dans de nombreuses applications médicales. La connaissance de leur évolution une fois implantés dans l'organisme est primordiale pour les améliorer et en créer de nouveaux. Dans cette optique, nous avons réalisé une modélisation à deux dimensions de la transformation d'un biomatériau en os. Pour cette modélisation, nous utilisons la théorie de la percolation. Celle-ci traite de la transmission d'information à travers un milieu où sont distribués un très grand nombre de sites pouvant localement relayer cette information. Nous présentons un modèle de double percolation sites-liens, pour prendre en compte d'une part la vascularisation (et/ou résorption) du biomatériau de l'implant dans un os, et d'autre part sa continuité mécanique. Nous identifions les paramètres pertinents pour d'écrire l'implant et son évolution, qu'ils soient d'origine biologique, chimique ou physique. Les différents phénomènes sont classés suivant deux régimes, percolant ou non-percolant, qui rendent compte des phases avant et après vascularisation de l'implant. Nous avons testé notre simulation en reproduisant les données expérimentales obtenues pour des implants de corail. Nous avons réalisé une étude des différents paramètres de notre modèle, pour déterminer l'influence de ceux-ci sur chaque phase du processus. Cette simulation est aussi adaptable à différents systèmes d'implants. Nous montrons la faisabilité d'une modélisation à trois dimensions en transposant la partie statique de notre simulation.
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Labois, Mathieu. "Modélisation des déséquilibres mécaniques pour les écoulements diphasiques : approches par relaxation et par modèle réduit." Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00338818.

Повний текст джерела
Анотація:
Cette thèse porte sur l'utilisation de modèles hyperboliques pour la simulation des écoulements diphasiques compressibles, pour trouver des alternatives au modèle bifluide classique. Nous établissons tout d'abord une hiérarchie des modèles diphasiques, obtenue selon des hypothèses d'équilibres des variables physiques entre chaque phase. L'utilisation de développements de Chapman-Enskog permet de relier entre eux les différents modèles existants. De plus, des modèles prenant en compte de petits déséquilibres physiques sont obtenus par des développements à l'ordre un. La deuxième partie de cette thèse porte sur la simulation des écoulements caractérisés par des déséquilibres de vitesses et des équilibres de pression, que nous modélisons de deux manières différentes. Tout d'abord, un modèle à deux vitesses et deux pressions est utilisé, avec l'application de relaxations des vitesses et pressions à temps finis afin d'obtenir un retour à l'équilibre de ces grandeurs. On propose ensuite un nouveau modèle dissipatif à une vitesse et une pression, où l'apparition de termes du second ordre permet de prendre en compte les déséquilibres de vitesse entre les phases. Une méthode numérique basée sur une approche par pas fractionnaires est développée pour ce modèle.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Labois, Mathieu. "Modélisation des déséquilibres mécaniques dans les écoulements diphasiques : approches par relaxation et par modèle réduit." Aix-Marseille 1, 2008. http://www.theses.fr/2008AIX11039.

Повний текст джерела
Анотація:
Cette thèse porte sur l'utilisation de modèles hyperboliques pour la simulation des écoulements diphasiques compressibles, pour trouver des alternatives au modèle bifluide classique. Nous établissons tout d'abord une hiérarchie des modèles diphasiques, obtenue selon des hypothèses d'équilibres des variables physiques entre chaque phase. L'utilisation de développements de Chapman-Enskog permet de relier entre eux les différents modèles existants. De plus, des modèles prenant en compte de petits déséquilibres physiques sont obtenus par des développements à l'ordre un. La deuxième partie de cette thèse porte sur la simulation des écoulements caractérisés par des déséquilibres de vitesses et des équilibres de pression, que nous modélisons de deux manières différentes. Tout d'abord, un modèle à deux vitesses et deux pressions est utilisé, avec l'application de relaxations des vitesses et pressions à temps finis afin d'obtenir un retour à l'équilibre de ces grandeurs. On propose ensuite un nouveau modèle dissipatif à une vitesse et une pression, où l'apparition de termes du second ordre permet de prendre en compte les déséquilibres de vitesse entre les phases. Une méthode numérique basée sur une approche par pas fractionnaires est développée pour ce modèle
This thesis deals with hyperbolic models for the simulation of compressible two-phase flows, to find alternatives to the classical bifluid model. We first establish a hierarchy of two-phase flow models, obtained according to equilibrium hypothesis between the physical variables of each phase. The use of Chapman-Enskog expansions enables us to link the different existing models to each other. Moreover, models that take into account small physical unbalances are obtained by means of expansion to the order one. The second part of this thesis focuses on the simulation of flows featuring velocity unbalances and pressure balances, in two different ways. First, a two-velocity two-pressure model is used, where non-instantaneous velocity and pressure relaxations are applied so that a balancing of these variables is obtained. A new one-velocity one-pressure dissipative model is then proposed, where the arising of second-order terms enables us to take into account unbalances between the phase velocities. We develop a numerical method based on a fractional step approach for this model
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Christy, Stéphane. "Localisation et modélisation tridimensionnelles par approximations successives du modèle perspectif de caméra." Phd thesis, Grenoble INPG, 1998. http://tel.archives-ouvertes.fr/tel-00004885.

Повний текст джерела
Анотація:
Dans le cadre de cette thèse, nous proposons un algorithme générique permettant de résoudre le problème de calcul de pose et le problème de reconstruction avec un modèle perspectif de caméra. Étant donnés une image et un modèle 3D de la scène (ou objet) visible dans l'image, le calcul de pose consiste à calculer la position et l'orientation de la caméra par rapport à la scène. Nous étudions successivement le cas de correspondances 2D 3D de points, et le cas des droites. La méthode proposée améliore de manière itérative la pose calculée avec un modèle affine de caméra (orthographique à l'échelle ou paraperspectif) pour converger, à la limite, vers une estimation de la pose calculée avec un modèle perspectif de caméra. Nous étudions les relations mathématiques et géométriques existant entre les modèles orthographique à l'échelle, paraperspectif et perspectif de caméra. Nous introduisons une façon simple de prendre en compte la contrainte d'orthogonalité associée à une matrice de rotation. Nous analysons la sensibilité de la méthode par rapport aux erreurs d'étalonnage de la caméra et nous définissons les conditions expérimentales optimales par rapport à un étalonnage imprécis. Nous étudions la convergence de la méthode sur la base de considérations numériques et expérimentales et nous testons son efficacité avec des données synthétiques et réelles. Dans un second temps, nous étendons les algorithmes de calcul de pose précédents au problème de la reconstruction euclidienne avec un modèle perspectif de caméra, à partir d'une séquence d'images. La méthode proposée converge en quelques itérations, est efficace du point de vue calculatoire, et ne souffre pas de la nature non linéaire du problème traité. Comparativement à des méthodes telles que la factorisation ou les invariants affines, notre méthode résout le problème de l'ambiguïté de signe d'une façon très simple et fournit des résultats bien plus précis. Nous décrivons la nouvelle méthode en détail, et comparons la complexité de la méthode proposée avec une méthode de minimisation non linéaire. Nous présentons ensuite une seconde approche du problème de reconstruction euclidienne en considérant un modèle affine de caméra non étalonnée montée sur le bras d'un robot. Nous montrons comment utiliser l'information euclidienne fournie par le déplacement du robot afin d'obtenir une reconstruction euclidienne, et expliquons comment obtenir l'étalonnage du modèle affine de caméra ainsi que l'étalonnage caméra-pince. Afin de pouvoir utiliser en pratique ces algorithmes de reconstruction, nous présentons une méthode de poursuite de points caractéristiques sur une séquence monoculaire d'images, puis sur une séquence stéréoscopique. Nous proposons également une méthode pour obtenir une précision sous-pixellique des positions des points dans les images pour un faible coût calculatoire.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Léonard, Mathieu. "Modélisation par éléments finis du muscle strié." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6188.

Повний текст джерела
Анотація:
Ce présent projet de recherche a permis de créer un modèle par éléments finis du muscle strié humain dans le but d’étudier les mécanismes engendrant les lésions musculaires traumatiques. Ce modèle constitue une plate-forme numérique capable de discerner l’influence des propriétés mécaniques des fascias et de la cellule musculaire sur le comportement dynamique du muscle lors d’une contraction excentrique, notamment le module de Young et le module de cisaillement de la couche de tissu conjonctif, l’orientation des fibres de collagène de cette membrane et le coefficient de poisson du muscle. La caractérisation expérimentale in vitro de ces paramètres pour des vitesses de déformation élevées à partir de muscles striés humains actifs est essentielle pour l’étude de lésions musculaires traumatiques. Le modèle numérique développé est capable de modéliser la contraction musculaire comme une transition de phase de la cellule musculaire par un changement de raideur et de volume à l’aide des lois de comportement de matériau prédéfinies dans le logiciel LS-DYNA (v971, Livermore Software Technology Corporation, Livermore, CA, USA). Le présent projet de recherche introduit donc un phénomène physiologique qui pourrait expliquer des blessures musculaires courantes (crampes, courbatures, claquages, etc.), mais aussi des maladies ou désordres touchant le tissu conjonctif comme les collagénoses et la dystrophie musculaire. La prédominance de blessures musculaires lors de contractions excentriques est également exposée. Le modèle développé dans ce projet de recherche met ainsi à l’avant-scène le concept de transition de phase ouvrant la porte au développement de nouvelles technologies pour l’activation musculaire chez les personnes atteintes de paraplégie ou de muscles artificiels compacts pour l’élaboration de prothèses ou d’exosquelettes.
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Kreuawan, Sangkla. "Modélisation et conception optimale pour les applications ferroviaires." Phd thesis, Ecole Centrale de Lille, 2008. http://tel.archives-ouvertes.fr/tel-00363633.

Повний текст джерела
Анотація:
La conception d'un système électrique de transport ferroviaire est une tâche complexe qui fait appel simultanément à des experts de domaines de compétence différents. Les constructeurs ferroviaires gèrent cette complexité ce qui leurs permet de fabriquer des équipements performants. Néanmoins, dans un marché global, tout gain méthodologique peut se traduire en avantage concurrentiel.

La conception systémique optimale de composant électrotechnique est abordée dans cette thèse. Une chaîne de traction électrique est choisie comme exemple représentatif d'un système complexe. La démarche et les outils sont mis en œuvre sur deux applications: la conception d'un moteur de traction et la conception simultanée de plusieurs composants clés.

Pour concevoir un moteur de traction, le cycle de fonctionnement et le comportement thermique transitoire sont primordiaux. La bonne adaptation du moteur à sa mission permet de réduire considérablement sa masse. L'approche multidisciplinaire est utilisée pour gérer les interactions entre modèles de disciplines différentes au sein d'un même processus d'optimisation. Suivant la méthode employée, le temps d'optimisation peut être réduit grâce à la répartition des taches par domaine physique et d'en paralléliser l'exécution. Des optimisations multiobjectif ont également été appliquées. Des fronts de Pareto sont obtenus malgré l'utilisation d'un modèle précis mais coûteux, le modèle éléments finis.

L'approche décomposition hiérarchique de la méthode "Target Cascading" est appliquée au problème de conception de la chaîne de traction. Le système et ses composants sont conjointement conçus. Cette méthode est bien adaptée à la démarche de conception optimale des systèmes complexes, tout en respectant l'organisation par produit de l'entreprise.
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Phan, Mélanie. "Modélisation et améliorations vibro-acoustiques d'un bateau sport par la méthode S.E.A." Mémoire, Université de Sherbrooke, 2009. http://hdl.handle.net/11143/5501.

Повний текст джерела
Анотація:
La volonté d'améliorer le confort acoustique à bord des bateaux sport est à l'origine de cette étude. Pour trouver des améliorations, des modèles S.E.A. ont été utilisés. Ils sont basés sur des modèles numériques d'ensemble coque-carrosserie.La validation des modèles S.E.A. développés est nécessaire pour trouver des solutions d'optimisation. Une fois que les modèles ont été validés, ils sont considérés comme fiables et pourront être appliqués à de nouveaux bateaux similaires.
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Kone, Joël-Louis. "Modélisation et suivi du vieillissement d’accumulateurs Li-ions par couplage avec modèle Dual-tank." Thesis, Université Grenoble Alpes, 2021. http://www.theses.fr/2021GRALI003.

Повний текст джерела
Анотація:
Les modèles de batterie utilisés dans les études systèmes sont généralement basés sur des modèles électriques à un seul réservoir (« one tank »), auxquels sont couplés des modèles de vieillissement semi-empiriques prédisant l’évolution de la capacité de ce réservoir.Dans ces modèles, l’état de santé d’une cellule est donc représenté par une seule valeur, ce qui est trop limitant. Par ailleurs, ces approches permettent difficilement d’appréhender les phénomènes de ruptures de pentes observés expérimentalement.Dans cette thèse, des modèles de vieillissement empiriques ou inspirés de la physique sont couplés à un modèle électrique à deux électrodes. La première approche empirique vise à prédire directement l’évolution de l’état de chaque électrode et du décalage entre électrodes. La deuxième, inspirée de la physique, introduit la notion de courant parasite à l’origine de la perte de lithium cyclable.Ces différentes approches sont mises en œuvre avec la base de résultats expérimentaux calendaires du projet MOBICUS
The battery models used in system studies are generally based on electrical models with a single tank ("one tank model"), to which are coupled semi-empirical aging models predicting the evolution of the capacity of this one tank model.In these models, the state-of-health of a cell is therefore represented by a single value, which is too limiting. Moreover, these approaches make it difficult to understand the phenomena of capacity slope failures observed experimentally.In this thesis, empirical or physics-based aging models are coupled to a dual tank model. The first empirical approach aims to directly predict the evolution of the capacity of each electrode and the offset between electrode potential signals. The second, inspired by the physical phenoma that can occur within the battery, introduces the notion of parasitic current at the origin of the loss of cycling lithium.These different approaches are implemented using experimental calendar results from the MOBICUS project
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Cottret, Maxime. "Exploration visuelle d'environnement intérieur par détection et modélisation d'objets saillants." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2007. http://tel.archives-ouvertes.fr/tel-00289380.

Повний текст джерела
Анотація:
Un robot compagnon doit comprendre le lieu de vie de l'homme pour satisfaire une requête telle que "Va chercher un verre dans la cuisine" avec un haut niveau d'autonomie. Pour cela, le robot doit acquérir un ensemble de représentations adaptées aux différentes tâches à effectuer. Dans cette thèse, nous proposons d'apprendre en ligne un modèle d'apparence de structures locales qui pourront être nommées par l'utilisateur. Cela permettra ensuite de caractériser un lieu topologique (ex: la cuisine) par un ensemble de structures locales ou d'objets s'y trouvant (réfrigérateur, cafetière, evier, ...). Pour découvrir ces structures locales, nous proposons une approche cognitive, exploitant des processus visuels pré-attentif et attentif, mis en oeuvre à partir d'un système sensoriel multi-focal. Le processus pré-attentif a pour rôle la détection de zones d'intérêt, supposées contenir des informations visuelles discriminantes: basé sur le modèle de 'saillance' de Itti et Koch, il détecte ces zones dans une carte de saillance, construite à partir d'images acquises avec une caméra large champ; une zone détectée est ensuite suivie sur quelques images afin d'estimer grossièrement la taille et la position 3D de la structure locale de l'environnement qui lui correspond. Le processus attentif se focalise sur la zone d'intérêt: le but est de caractériser chaque structure locale, par un modèle d'apparence sous la forme de mémoires associatives vues-patches-aspects. De chaque image sont extraits des points d'intérêt, caractérisés par un descripteur d'apparence local. Après cette phase d'exploration, l'homme peut annoter le modèle en segmentant les structures locales en objets, en nommant ces objets et en les regroupant dans des zones (cuisine&). Ce modèle d'apparence sera ensuite exploité pour la reconnaissance et la localisation grossière des objets et des lieux perçus par le robot
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Bouayed, Mohamed Amine. "Modélisation stochastique par éléments finis en géomécanique." Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL087N.

Повний текст джерела
Анотація:
Ce travail porte sur l'application de la méthode des éléments finis stochastiques aux problèmes géomécaniques et sur l'évaluation de son utilité pour l'ingénieur. Nous présentons tout d'abord divers rappels sur la théorie des probabilités et nous essayons d'éclaircir certains points particuliers concernant la description des milieux géotechniques au moyen de variables aléatoires et de champs stochastiques. Après un bref rappel sur la méthode des éléments finis traditionnelle, nous analysons deux aspects de la méthode des éléments finis stochastiques (MEFS). Le premier traite des techniques de discrétisation des champs aléatoires et le second des techniques probabilistes utilisées pour formuler la MEFS. Quatre méthodes sont présentées (Monte-Carlo, Rosenblueth, perturbations et premier ordre-seconds moments avec ses variantes : les méthodes numériques d'Evans et des rapports polynomiaux). Nous donnons ensuite une description des logiciels développés dans le cadre de cette thèse. Des exemples allant des plus simples (solides élémentaires) aux plus complexes (barrages) sont traités à l'aide de ces logiciels afin d'illustrer les résultats typiques donnés par la méthode. L'interprétation de ces résultats est discutée. Nous abordons dans la dernière partie l'application de la MEFS aux analyses non linéaires. Cette application est illustrée par l'analyse de deux ouvrages géotechniques dont les matériaux suivent la loi rhéologique de Duncan-Kondner. On montre que la MEFS permet l'évaluation systématique de l'importance des différents paramètres du modèle de comportement retenu. Nous présentons finalement nos conclusions concernant l'interprétation, toujours délicate, des résultats donnés par la méthode et sur son utilité pour l'ingénieur.
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Maachou, Vaxelaire Asma. "Identification par modèle non entier non linéaire : application à la modélisation de la diffusion thermique." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14725/document.

Повний текст джерела
Анотація:
Les modèles linéaires non entiers ont prouvé leur efficacité dans la modélisation de la diffusion thermique pour de faibles variations de température. Cependant, pour de grandes variations de température, les paramètres thermiques dépendent de la température. Par conséquent, la diffusion thermique est régie par un modèle non linéaire non entier. Dans cette thèse, une classe de modèles non linéaires non entiers, basée sur les séries de Volterra non entières, est proposée. Les paramètres non linéaires, tels que les s^n-pôles et l’ordre commensurable, sont estimés au même titre que les coefficients linéaires. Ensuite, le comportement thermique d’un échantillon de fer ARMCO est modélisé pour de grandes variations de température
Linear fractional differentiation models have proven their efficacy in modeling thermaldiffusive phenomena for small temperature variations. However, for large temperature variations,the thermal parameters are no longer constant but vary along with the temperatureitself. Consequently, the thermal system could be modeled by non linear fractional differentialmodels. Volterra series are first extended to fractional derivatives. Volterra seriesare then used for modeling a non linear thermal system, constituted of an ARMCO iron sample,for large temperature variations
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Deschênes, Jean-Daniel. "Modélisation interactive : amélioration du processus de reconstruction d'un modèle 3D par la compression temps réel." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25372/25372.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Jamois-Tremier, Anne. "Modélisation d'un traitement par compostage : développement d'outils expérimentaux d'étude du procédé et conception du modèle." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11008.

Повний текст джерела
Анотація:
Les politiques environnementales actuelles tendent à favoriser les filières de traitement biologique comme le compostage. Leur avenir est néanmoins lié à la qualité du produit fini et à l'innocuité du traitement pour l'environnement. Devant la difficulté à interpréter les résultats obtenus dans des conditions expérimentales, la modélisation du procédé paraît être l'outil le plus adapté pour mieux comprendre et gérer les processus réactionnels déterminant la qualité des produits et les impacts environnementaux du traitement. Ce travail de thèse avait pour objectif la conception d'un modèle de traitement par compostage en réacteur-pilote. Premièrement, les cinétiques biologiques de dégradation de la matière organique ont été étudiées par une méthode respirométrique et modélisées par un processus de croissance et déclin des micro-organismes. Ce modèle permet d'évaluer la biodégradabilité des substrats et de tester l'influence de paramètres tels que la température et l'humidité sur les cinétiques. Deuxièmement, les caractéristiques de l'écoulement gazeux au sein du réacteur de compostage ont été étudiées à l'aide d'une méthode de traçages des gaz et modélisées selon un flux de nature piston dispersion, orientant l'écriture des transferts de masse et de chaleur via le flux gazeux. Enfin, le modèle biologique et les modèles de transferts de masse et de chaleur ont été intégrés dans des bilans massiques et énergétiques afin de concevoir un modèle global de compostage à une dimension. L'application du modèle montre que l'évolution des paramètres simulés est cohérente avec les réultats expérimentaux. Le modèle doit encore être validé sur de nouvelles données.
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Boutelier, Timothé. "Modélisation dépendante du temps des blazars du TeV par un modèle de jet stratifié inhomogène." Grenoble 1, 2009. http://www.theses.fr/2009GRE10063.

Повний текст джерела
Анотація:
L'étude des mécanismes d'émission et de variabilité des blazars du TeV est l'objet d'intenses recherches depuis de nombreuses années. Les modèles courants d'émission une zone homogène utilisés posent de nombreux problèmes, notamment à cause des grands facteurs de Lorentz qu'ils requièrent et qui sont en contradiction avec les contraintes dérivées des observations radio des jets. Dans cette thèse je décris une approche multizone inhomogène dépendante du temps, dans le cadre du modèle du two-flow. Je calcule l'émission d'un jet complet, dans lequel se propagent des paires électron-positron relativistes distribuées en pileup. L'évolution et l'émission du plasma de paires est calculée en tenant compte d'un terme de chauffage turbulent, du refroidissement radiatif, ainsi que d'un terme de production de paires par photo-annihilation. Appliqué à PKS 2155-304, ce modèle permet de reproduire le spectre complet, ainsi que la variabilité simultanée multi longueur d'onde, avec un faible facteur de Lorentz. La variabilité est expliquée par l'instabilité de la création de paires dans le jet. La valeur du facteur de Lorentz est néanmoins trop élevée pour être en accord avec les observations radio et la statistique de détection de ces objet. Je montre à la fin de ma thèse,comment, en tenant compte de l'ouverture géométrique des jets, peut on réconcilier de grands acteur de Lorentz avec l'absence de mouvement superluminique observé en radio, ainsi que a relative abondance de ce tVDe de source
The study of the emission and variability mechanisms of TeV blazars has been the subject of intensive research for years. The homogeneous one-zone model commonly used is puzzling since it yields very high Lorentz factor, in contradiction with other observational evidences. Ln this work, 1 describe a new time dependent multi-zone approach, in the framework of the two¬ flow model. 1 compute the emission of a full jet, where relativistic electron-positron pairs distributed in pileup propagate. The evolution and the emission of the plasma is computed taking into account a turbulent heating term, some radiative cooling, and a pair production term due to photo-annihilation process. Applied to PKS 2155-304, the model allows to reproduce the full spectra, as weil as the simultaneous multi wavelength variability, with a relatively small Lorentz factor. The variability is explained by the instability of the pair creation process. Nonetheless, the value is still high to agree with other observational evidences in radio. Hence, 1 show in the last part of this work how to conciliate high l. !>rentz factor with the absence of apparent superluminal movement in radio, by taking into account the effect of the opening angle on the appearance of relativistic jets
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Bon-Bierel, Évelyne. "Contribution à l'intégration des modèles de systèmes de production manufacturière par méta-modélisation." Nancy 1, 1998. http://www.theses.fr/1998NAN10280.

Повний текст джерела
Анотація:
Dans le processus de conception d'un système automatisé de production (SAP), la modélisation revêt une importance fondamentale. Exploitée comme un moyen permettant d'appréhender la complexité du système, elle est aussi un instrument de dialogue, permettant aux spécialistes d'échanger des vues du système. Néanmoins il n'existe pas de modèle universel, utilisable à tout moment dans le cycle de vie du système, et pour chaque niveau d'abstraction de la description. Aujourd’hui, la solution est d'exploiter différents modèles supportant unitairement une vue partielle du système. La qualité de la conception du SAP dépend alors fortement des moyens mis en œuvre pour que les acteurs puissent partager ces modèles. Le travail présenté dans ce mémoire s'inscrit dans ce contexte, en cherchant à contribuer à la définition d'un environnement intégré de modélisation. Après une étude préalable d'un ensemble de cadres et techniques d'intégration, la proposition d'intégration est axée sur les formalismes de modélisation supportant la construction de ces modèles. L’objectif est de proposer une intégration forte des modèles utilises en conception des SAP, par la définition d'un cadre d'intégration général des formalismes de modélisation. Cette structure permet de représenter l'ensemble des formalismes de modélisation nécessaires à la conception d'un SAP, et les règles de passage d'un formalisme à l'autre. Pour supporter cette intégration, des techniques de méta-modélisation sont utilisées. La démarche d'intégration ascendante proposée se traduit par la modélisation, sous forme de méta-modèles, d'un ensemble de formalismes représentatifs des trois axes de modélisation : fonctionnel, informationnel et comportemental. Un méta-méta-modèle est enfin construit à partir de ces méta-modèles pour représenter un ensemble de concepts, formalismes et règles spécifiques au génie automatique. À l'issue de ces travaux, nous proposons quelques spécifications de conception d'un méta-atelier.
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Khemiri, Houssemeddine. "Approche générique appliquée à l'indexation audio par modélisation non supervisée." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0055/document.

Повний текст джерела
Анотація:
La quantité de données audio disponibles, telles que les enregistrements radio, la musique, les podcasts et les publicités est en augmentation constance. Par contre, il n'y a pas beaucoup d'outils de classification et d'indexation, qui permettent aux utilisateurs de naviguer et retrouver des documents audio. Dans ces systèmes, les données audio sont traitées différemment en fonction des applications. La diversité de ces techniques d'indexation rend inadéquat le traitement simultané de flux audio où différents types de contenu audio coexistent. Dans cette thèse, nous présentons nos travaux sur l'extension de l'approche ALISP, développé initialement pour la parole, comme une méthode générique pour l'indexation et l'identification audio. La particularité des outils ALISP est qu'aucune transcription textuelle ou annotation manuelle est nécessaire lors de l'étape d'apprentissage. Le principe de cet outil est de transformer les données audio en une séquence de symboles. Ces symboles peuvent être utilisés à des fins d'indexation. La principale contribution de cette thèse est l'exploitation de l'approche ALISP comme une méthode générique pour l'indexation audio. Ce système est composé de trois modules: acquisition et modélisation des unités ALISP d'une manière non supervisée, transcription ALISP des données audio et comparaison des symboles ALISP avec la technique BLAST et la distance de Levenshtein. Les évaluations du système proposé pour les différentes applications sont effectuées avec la base de données YACAST et avec d'autres corpus disponibles publiquement pour différentes tâche de l'indexation audio
The amount of available audio data, such as broadcast news archives, radio recordings, music and songs collections, podcasts or various internet media is constantly increasing. Therefore many audio indexing techniques are proposed in order to help users to browse audio documents. Nevertheless, these methods are developed for a specific audio content which makes them unsuitable to simultaneously treat audio streams where different types of audio document coexist. In this thesis we report our recent efforts in extending the ALISP approach developed for speech as a generic method for audio indexing, retrieval and recognition. The particularity of ALISP tools is that no textual transcriptions are needed during the learning step. Any input speech data is transformed into a sequence of arbitrary symbols. These symbols can be used for indexing purposes. The main contribution of this thesis is the exploitation of the ALISP approach as a generic method for audio indexing. The proposed system consists of three steps; an unsupervised training to model and acquire the ALISP HMM models, ALISP segmentation of audio data using the ALISP HMM models and a comparison of ALISP symbols using the BLAST algorithm and Levenshtein distance. The evaluations of the proposed systems are done on the YACAST and other publicly available corpora for several tasks of audio indexing
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Bourgana, Mohamed Taoufik. "Modélisation et validation expérimentale d'un modèle vibroacoustique d'un silencieux d'une motoneige." Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/9862.

Повний текст джерела
Анотація:
Ce mémoire traite la modélisation et la validation expérimentale du bruit d’un silencieux de motoneige. La première phase du projet consiste à modéliser numériquement le système d’échappement avec les méthodes numériques suivantes : éléments finis et éléments finis de frontière, afin d’évaluer ses performances acoustiques : perte par transmission, bruit de bouche et bruit de paroi. Une deuxième phase du projet consiste à valider expérimentalement les performances acoustiques calculées numériquement. La dernière phase du projet se consacrera à une étude paramétrique expérimentale d’un silencieux sur banc moteur. En conclusion, les résultats des modèles numériques mis en œuvre concordent bien avec les résultats expérimentaux. Cependant, les aspects non linéaires rencontrés à la dernière phase du projet n’ont pas été étudiés davantage.
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Costin, Claudiu. "Modélisation d'une décharge magnétron DC dans l'argon et en mélanges argon-oxygène par un modèle fluide." Paris 11, 2005. http://www.theses.fr/2005PA112275.

Повний текст джерела
Анотація:
Cette thèse est dédiée à la modélisation d'une décharge magnétron en courant continu (DC) par un modèle de fluide. La motivation de ce travail de recherche est l'extension de cette approche aux décharges basse pression magnétisées, dont l'intérêt est le temps de calcul réduit par rapport aux d'autres techniques de simulation numériques (particulaires, hybride}. Le transport d'espèces chargées est décrit, dans un modèle bidimensionnel 2D (radial-axial) par les trois premiers moments de l'équation de Bolfemann alors que le transport de neutres est traité par la théorie de diffusion généralisée multi-composantes. Une approche originale pour récriture des flux de particules chargées permet aisément de linéariser le système d'équations fluide. Cependant les difficultés de ce traitement des magnétrons sont dues à la basse pression de travail de ces décharges et au champ magnétique cathodique, fortement inhomogène et anisotrope. Le modèle a été appliqué pour un magnétron fonctionnant en argon et en mélange argon-oxygène. Les principaux paramètres plasma (potentiel, champ électrique, densités, flux,…) issus du modèle rend bien compte des phénomènes essentiels identifiés antérieurement dans ces décharges. Particulièrement sont discutées les tendances d'évolution du système en fonction de la tension appliquée sur la cible, la pression de travail, la fraction de gaz réactif dans le mélange Ar/O2. De plus, le modèle permet d'obtenir une expression analytique du coefficient d'émission d'électrons secondaires induite par bombardement ionique à la cathode. Il est remarquable que le modèle fluide puisse rendre compte de la variation de ce coefficient avec les paramètres de décharge, uniquement en introduisant la réflexion d'électrons à la paroi, comme paramètre externe. En mode réactif à basse pression, la densité de particules lourdes présente un caractère non-local. L'approche développée est validée par la comparaison directe des résultats de ce modèle d'autres simulations numériques (PIC-MC, hybride) et des mesures expérimentales. Cette validation justifie a posteriori l'extension de l'applicabilité du modèle fluide utilisé pour la première fois en 2D à la modélisation des réacteurs magnétrons
This thesis is dedicated to the modeling of a DC magnetron discharge using the fluid model. The motivation of this research is the extension of this approach to the magnetized low-pressure discharges, having the advantage of a reduced CPU time comparing to other numerical simulations (particles, hybrid). The transport of the charged species is described following two space dimensions (2D, radial-axial) through the first three moments of Boltzmann equation, while the transport of the neutral particles is treated in the generalized diffusion theory of multi-species. An original approach for the charged particle fluxes facilitates the linearization of the equations system. Hence, the use of this treatment to magnetrons is difficult and complex due to the low working pressure and to the presence of the magnetic field, strongly inhomogeneous and anisotropic. The model was applied to an Ar and Ar/O2 magnetron. The principal plasma parameters (potential, electric field densities fluxes,… ) issued from the model are property described allowing to identify the essential phenomena previously reported for these discharges. In particular, there are discussed the evolution tendencies of the system versus external discharge parameters, such as applied voltage, working pressure, oxygen fraction in Ar/O2 mixture, etc. The model permits as well to obtain an analytic expression for the coefficient of the secondary electron emission induced by ion bombardment at the cathode. It is remarkable that the fluid model is able to describe the variation of this coefficient as a function of the discharge parameters, considering an unique external parameter which is the electron reflection at the surface. In the reactive mode, at low pressure, the heavy species exhibit a non-local behavior. The present approach is validated by direct comparison of the model results with others obtained from different numerical simulations (PIC-MC, hybrid) and experimental measurements. This validation justifies a posteriori the extension of the fluid model applicability, used for the first time in 2D for magnetron discharges modeling
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Martin, Victorin. "Modélisation probabiliste et inférence par l'algorithme Belief Propagation." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://tel.archives-ouvertes.fr/tel-00867693.

Повний текст джерела
Анотація:
On s'intéresse à la construction et l'estimation - à partir d'observations incomplètes - de modèles de variables aléatoires à valeurs réelles sur un graphe. Ces modèles doivent être adaptés à un problème de régression non standard où l'identité des variables observées (et donc celle des variables à prédire) varie d'une instance à l'autre. La nature du problème et des données disponibles nous conduit à modéliser le réseau sous la forme d'un champ markovien aléatoire, choix justifié par le principe de maximisation d'entropie de Jaynes. L'outil de prédiction choisi dans ces travaux est l'algorithme Belief Propagation - dans sa version classique ou gaussienne - dont la simplicité et l'efficacité permettent son utilisation sur des réseaux de grande taille. Après avoir fourni un nouveau résultat sur la stabilité locale des points fixes de l'algorithme, on étudie une approche fondée sur un modèle d'Ising latent où les dépendances entre variables réelles sont encodées à travers un réseau de variables binaires. Pour cela, on propose une définition de ces variables basée sur les fonctions de répartition des variables réelles associées. Pour l'étape de prédiction, il est nécessaire de modifier l'algorithme Belief Propagation pour imposer des contraintes de type bayésiennes sur les distributions marginales des variables binaires. L'estimation des paramètres du modèle peut aisément se faire à partir d'observations de paires. Cette approche est en fait une manière de résoudre le problème de régression en travaillant sur les quantiles. D'autre part, on propose un algorithme glouton d'estimation de la structure et des paramètres d'un champ markovien gaussien, basé sur l'algorithme Iterative Proportional Scaling. Cet algorithme produit à chaque itération un nouveau modèle dont la vraisemblance, ou une approximation de celle-ci dans le cas d'observations incomplètes, est supérieure à celle du modèle précédent. Cet algorithme fonctionnant par perturbation locale, il est possible d'imposer des contraintes spectrales assurant une meilleure compatibilité des modèles obtenus avec la version gaussienne de Belief Propagation. Les performances des différentes approches sont illustrées par des expérimentations numériques sur des données synthétiques.
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Vigan, Marie. "Modélisation de données longitudinales et de données d'événements répétés par des modèles non linéaires à effets mixtes : application à la maladie de Gaucher." Paris 7, 2014. http://www.theses.fr/2014PA077164.

Повний текст джерела
Анотація:
La maladie de Gaucher (MG) est une maladie génétique rare. Différents biomarqueurs sont altérés et les patients présentent également des événements osseux (EO). Un traitement enzymatique substitutif est disponible. Pour analyser l'évolution des biomarqueurs, des modèles non linéaires à effets mixtes sont utilisés et pour la survenue d'EO des modèles à fragilité. Ces modèles nécessitent des méthodes d'estimation particulières que nous avons évaluées par simulation. Nous avons comparé l'algorithme SAEM implémenté dans Monolix à la quadrature de Gauss adaptative (AGQ) implémenté dans SAS pour des modèles à fragilité. Nous avons aussi évalué les puissances du test de Wald et du test du rapport de vraisemblance d'une covariable binaire. Puis nous avons évalué l'algorithme SAEM pour des modèles joints de données longitudinales et d'événements répétées ainsi que la puissance des tests à détecter le lien entre les données longitudinales et les événements répétés. Les résultats obtenus pour l'estimation des paramètres nous donnent peu de biais et pour les modèles de fragilité des résultats comparables entre SAEM et AGQ. Nous avons réalisé une description épidémiologique du registre français de la MG. Sur le groupe de patients traités, nous avons décrit l'évolution des biomarqueurs sous traitement par un modèle physiopathologique et avons analysés la survenue des EO répétés. Le lien entre les biomarqueurs et la survenue des EO a été évalué. Le fait d'avoir un EO avant traitement multiplie par trois le risque sous traitement. Nous allons poursuivre ces travaux par l'utilisation du modèle développé afin d'individualiser les posologies du traitement
Gaucher disease (GD) is a rare genetic disease. Different biomarkers are altered and patients also have bone events (BE). An enzymatic substitution treatment is available. To analyze the evolution of biomarkers, nonlinear mixed effects models are used and, for BE, frailty models. Those models require specific estimation methods that we assessed by simulation. For frailty models, we compared SAEM algorithm implemented in Monolix to the adaptative Gaussian quadrature (AGQ) implemented in SAS. We also evaluated the powers of the Wald test and the likelihood ratio test of a binary covariate. We then evaluated SAEM algorithm for joint models of longitudinal data and repeated events and evalue the power to detect the link between longitudinal data and repeated events. Results obtained for the estimation of parameters give us few biases and, for frailty models, results are comparable between SAEM and AGQ. We performed an epidemiological description of the French registry of GD. In treated patients, we used a pathophysiological model to describe the evolution of biomarkers under treatment and we analyzed the occurrence of repeated BE. We tested the link between biomarkers and the occurrence of BE. To have a BE before treatment increased three-fold the risk during treatment. We will continue this work with the use of the model we developed to individualize treatment doses
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Toufik, Bennouas. "Modélisation de parcours du Web et calcul de communautés par émergence." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2005. http://tel.archives-ouvertes.fr/tel-00137084.

Повний текст джерела
Анотація:
Le graphe du Web, plus précisément le crawl qui permet de l'obtenir et les communautés qu'il contient est le sujet de cette thèse, qui est divisée en deux parties.
La première partie fait une analyse des grand réseaux d'interactions et introduit un nouveau modèle de crawls du Web. Elle commence par définir les propriétés communes des réseaux d'interactions, puis donne quelques modèles graphes aléatoires générant des graphes semblables aux réseaux d'interactions. Pour finir, elle propose un nouveau modèle de crawls aléatoires.
La second partie propose deux modèles de calcul de communautés par émergence dans le graphe du Web. Après un rappel sur les mesures d'importances, PageRank et HITS est présenté le modèle gravitationnel dans lequel les nœuds d'un réseau sont mobile et interagissent entre eux grâce aux liens entre eux. Les communautés émergent rapidement au bout de quelques itérations. Le second modèle est une amélioration du premier, les nœuds du réseau sont dotés d'un objectif qui consiste à atteindre sa communautés.
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Serwatka, Agnieszka. "Contribution à la modélisation et à la simulation de vêtements sur mannequin adaptatif." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10029/document.

Повний текст джерела
Анотація:
Ce travail s'inscrit dans une politique de réorganisation de la chaîne de confection pour le secteur du textile habillement. L'objectif principal est de développer un nouveau concept de création de vêtements afin de réduire les temps et coûts de développement des produits. Deux marchés industriels ont été analysés, celui du prêt-à-porter (Mass production) et celui du sur-mesure (Mass customisation). On remarque que les effets de la mondialisation entraînent de produire vite pour éviter la copie et imposent un renouvellement constant des collections dans un délai très court. La production n'étant plus de proximité, il est impératif maintenant de communiquer les données par la voix de l'internet sous une forme numérique. Cette analyse du métier de la confection montre la nécessité d'évoluer vers un monde virtuel 3D corrélé avec les besoins industriels évoqués lors des campagnes de mensuration internationales. Ces dernières conseillent de travailler avec des mannequins virtuels 3D respectant les morphologies du corps humain pour éviter les retours d'invendus. Ce besoin a transformé la notion de taille en concept de morphotype à forte segmentation. Pour satisfaire à l'ensemble de ces critères, les méthodes de travail doivent changer, les concepteurs doivent s'adapter au monde moderne du virtuel 3D par l'intemet. Aussi, nous proposons un concept original de création de vêtements virtuels en 3D sur mannequin morphotype adaptatif. Le premier chapitre présente l'état de l'art du sujet dans les différents domaines représentatifs de l'étude, c'est-à-dire : l'anthropométrie, la biométrie et ces moyens de mesure, la conception de vêtements virtuels fortement orientée essayage virtuel. Le second chapitre est consacré à la modélisation du corps humain par la concrétisation et le développement d'un mannequin morphotype adaptatif. Le troisième chapitre propose un modèle de vêtement virtuel 3D associé au précédent mannequin. Un modèle d'aisance paramétré est intégré en amont de la modélisation pour contrôler le bien aller et le tombé du vêtement. Une orientation de l'application vers un procédé mass customisé a permis d'ajuster précisément les paramètres d'aisance par les outils de traitement d'images. Le dernier chapitre représente notre contribution à l'extension du modèle dynamique de vêtement par la mise en place d'un modèle de tissu non linéaire dont la valeur des paramètres est calculée par les algorithmes génétiques avec une méthodologie adaptée au processus à identifier
This work is part of a reorganization of the chain of c10thing for the textile c10thing sector. The main objective is to develop a new concept of creating c10thing to reduce time and costs of product development. Among other things, recent international campaigns surveying advise working with 3D virtual models respecting the morphologies of the human body to minimize the losses caused unsold clothes. Also, we propose an original concept of creating virtual clothing 3D on an adaptive mannequin morphotype. The first chapter sets the state of the art of the subject in different areas representative of the study, i.e.: anthropometry, biometrics and its means of measurement, design virtual clothing strongly oriented virtual trying-on. The second chapter is devoted ta modelling the human body by the realization and development of an adaptive mannequin morphotype. The third chapter provides a model of 3D virtual clothing associated with the model presented in previous chapter. A parametric ease model is integrated upstream from modelling to control the weil fitting and c10thing drape. An orientation of the application process ta a mass customized market led to highly précised ease parameters adjustment with the help of tools of image treatment. The last chapter represents our contribution to the extension of the dynamic model c10thes by setting up a model of non-linear fa bric who's the parameters value is calculated by genetic algorithms with a suitable methodology for the process to identify
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Charpiot, Anne. "Développement et validation d’un modèle tridimensionnel par éléments finis d’un canal semi-circulaire de l’oreille interne humaine." Strasbourg, 2010. http://www.theses.fr/2010STRA6248.

Повний текст джерела
Анотація:
Ce travail a permis de développer un outil numérique pour l'étude du comportement normal et pathologique de l'un des accéléromètres de l'oreille interne chez l'homme (application aux vertiges). La première étape du projet est la modélisation d’un canal semi-circulaire pour simuler des rotations rapides de la tête : -Développement d'un modèle tridimensionnel par éléments finis (canal membraneux rempli de liquide, interrompu par un diaphragme solide: la cupule): le maillage comporte 18882 éléments. Les solides sont considérés comme élastiques linéaires, les fluides visqueux quasi-incompressibles. Le couplage fluide/structure utilise la méthode ALE. -Validation au cours d'une accélération rotatoire (1800°. S-2 pendant 0,1 seconde) autour du centre de la tête (arrêt brusque, physiologique). Le déplacement transversal maximal de la cupule est calculé à 17 µm (valeur théorique attendue 21µm), son temps de relaxation calculé à 5,2 secondes (valeur théorique 15 secondes). -Étude paramétrique portant sur le comportement des membranes et de la cupule. Les premiers résultats montrent l'influence de l'élasticité des membranes sur le comportement global du système. Le déplacement de la cupule présente deux directions principales: transversale (normale au plan de la cupule) et longitudinale (dans le plan de la cupule suivant son grand axe). Ce déplacement longitudinal avait été décrit en conditions statiques (au cours de l’hydrops: augmentation de la pression du compartiment endolymphatique) mais jamais en conditions dynamiques. Ce modèle « normal » va être utilisé pour simuler des causes fréquentes de vertiges (cristaux bloqués dans le canal, obstruction chirurgicale du canal, etc. )
This thesis exposes the development of a finite element model of one of the accelerometers of the human inner ear (a semicircular canal). The simulations of normal and pathological conditions will find clinical applications to the study and treatment of vertigo. The first step of this research is the development and validation of a 3D finite element model of one semicircular canal: -The mesh totalises 18882 elements, with linear elastic solids and viscous fluid, using ALE fluid/structure coupling. -The validation test is a physiological rotation with short stop, acceleration of 1800°. S-2 during 0. 1 second. The maximal calculated displacement of the cupula is of 17 µm (expected value : 21µm), the relaxation of the cupula needs 5. 2 seconds (expected: 15 seconds). -A parametric study has concerned the membranes and cupula parameters. The first results show that the elasticity of the membranous canal has to be taken in count. The cupula presents a transversal and a longitudinal displacement. This longitudinal displacement had previously been described in static conditions (during hydrops: inflation of the endolymphatic pressure), but had never been considered before in dynamic conditions. The “normal” model that has been developed will further be used to simulate different pathological situations of vertigo (otoconia blocked in the canal, plugged canal in Menière disease, etc. )
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Loffler, Christophe. "Modélisation, simulation et conduite d'un atelier de distillation extractive." Nancy 1, 1990. http://www.theses.fr/1990NAN10395.

Повний текст джерела
Анотація:
Ce travail présente l'élaboration d'un schéma de conduite avancée d'un atelier de distillation extractive. L'idée générale de cette étude est de montrer l'apport des procédures de modélisation, d'identification et de simulation lors de l'établissement du schéma de conduite d'une unité industrielle. La première partie présente l'atelier de distillation extractive : les trois colonnes de distillation, l'instrumentation, la procédure de conduite. La seconde partie expose les hypothèses et approximations retenues puis les équations du modèle de connaissance dynamique proposé. Celui-ci, du type multi-entrées, multi-sorties, se présente sous la forme d'un système explicite algebro-differentiel non linéaire. La troisième partie décrit la phase d'acquisition de mesures nécessaires à l'étude des régimes transitoires de l'atelier et à la détermination des paramètres caractéristiques du modèle de représentation de l'unité. Quelques régimes transitoires naturels sont exploités. Les variables sensibles de l'unité sont étudiées lors d'essais et le schéma fonctionnel de l'unité, directement exploitable pour la conduire avancée, est établi. La quatrième partie expose certaines méthodes numériques d'intégration de systèmes algebro-différentiels explicites. Le problème de cohérence du système d'équations y est étudié. Un logiciel de simulation de systèmes dynamiques est développé. Disposant des paramètres caractéristiques du modèle de représentation de l'unité et utilisant la simulation dynamique, on élabore, dans la cinquième et dernière partie, le schéma de conduite avancée de l'unité. La correction de systèmes présentant d'importants temps morts est abordée. La mise en place du nouveau schéma est réalisée pour une période d'essais, et ses performances sont évaluées
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Agbodan, Dago. "Nomination persistante dans un modèle paramétrique : identification non-ambigue͏̈ et appariement générique d'entités topologiques." Poitiers, 2002. http://www.theses.fr/2002POIT2313.

Повний текст джерела
Анотація:
Les modèles paramétriques ont une structure duale où une représentation abstraite (la spécification paramétrique) référence une représentation explicite (la géométrie). Le problème de la nomination persistante est de maintenir les références entre ces deux représentations afin de pouvoir réévaluer la seconde à partir de la première, malgré les modifications. Il s'agit d'identifier une entité dans un modèle initial puis de la retrouver dans un modèle réévalué. Nous proposons de représenter dans un graphe les évolutions des coques et faces des objets modélisés. Chaque entité référencée par la spécification est caractérisée en termes des nœuds du graphe, et d'un lien vers la géométrie courante. La mise en correspondance des graphes initial et réévalué, ainsi que leur parcours à la recherche d'éléments communs, permettent de réévaluer les références et donc de maintenir le lien entre la spécification et la géométrie dans l'objet réévalué, assurant de la sorte une nomination persistante
Parametric models have a dual structure where an abstract representation (the parametric specification) references an explicit representation (the geometry). The persistent naming problem is to maintain the references between these two representations in order to be able to reevaluate the second starting from the first, in spite of modifications. The problem is to identify an entity in an initial model, then to find it in a reevaluated model. We propose to represent evolutions of the shells and faces of the modeled objects in a graph. Each entity referenced by the specification is characterized in terms of the graph nodes, and by a link to the current geometry. Matching the initial graph and a reevaluated graph throughout a revaluation, and then, searching common elements in these graphs, allows us to interpret the references and thus to maintain the link between the parametric specification and the geometry in the reevaluated object, ensuring a persistent naming
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Tian, Simiao. "Prédiction de la composition corporelle par modélisation locale et les réseaux bayésiens." Thesis, Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0068/document.

Повний текст джерела
Анотація:
La composition corporelle est importante pour évaluer l'état de santé et le statut nutritionnel d'individus. Le surpoids et l'obésité deviennent des problèmes de santé à l'échelle mondiale. L'accroissement de la masse grasse, notamment celle du tronc, a été associée à une augmentation du risque de maladies métaboliques, telles que le diabète de type 2 et les maladies cardiovasculaires. La masse musculaire, en particulier appendiculaire, est également un indice de santé, et est liée au taux de mortalité. En outre, le vieillissement s'accompagne de changements importants dans la composition corporelle. La masse maigre diminue (Kyle et al., 2001) et la masse grasse augmente, liée à une accumulation de tissus adipeux, en particulier dans la région abdominale (Kuk et al., 2009). Il est donc important d'étudier ces changements en fonction de l'âge pour tenter d'établir un pré-diagnostic et aider à la prévention de la morbidité et de mortalité. La composition corporelle se mesure par différentes méthodes, telles que le pesage sous l'eau ou l'absorption bi-photonique à rayons X (DXA). Cependant, ces méthodes de mesure ne sont pas adaptées pour des populations de taille très grande, car elles nécessitent un équipement fixe, demandent des manipulations longues et sont coûteuses. En revanche, le potentiel de méthodes de prédiction statistique a été mis en évidence pour estimer la composition corporelle (Snijder et al., 2006), et plusieurs modèles ont été proposés pour prédire la composition corporelle, notamment le pourcentage de la masse grasse (BF%) (Gallagher et al.,2000a; Jackson et al., 2002; Mioche et al., 2011b). Le premier objectif de cette thèse est de développer un modèle multivarié à partir de covariables anthropométriques pour prédire simultanément les masses grasse et maigre de différents segments du corps. Pour cela, nous avons proposé une régression linéaire multivariable publiée dans le British Journal of Nutrition. Notre proposition multivariée présente deux avantages principaux. Le premier avantage consiste à utiliser les covariables très simples que sont l'âge, le poids et la taille dont la mesure est facile et peu coûteuse. L'utilité d'ajouter comme covariable le tour de taille a été évaluée. Le deuxième avantage est que l'approche multivariée prend en compte la structure de corrélation entre les variables, ce qui est utile pour certaines études d'inférence où on s'intéresse à des fonctions des variables prédites. La qualité de la précision multivariée a été évaluée par comparaison avec celle des modèles univariés déjà publiés. Nous avons montré que la prédiction multivariée est bonne et que notre approche peut donc être utilisée pour des études de risques métaboliques en grandes populations. Le second objectif de cette thèse est d'étudier l'évolution de la composition corporelle au cours du vieillissement, en tenant compte des covariables anthropométriques. Deux modélisations bayésiennes ont été retenues et développées. Un des avantages principaux de nos propositions est, grâce à une modélisation, de réaliser une analyse longitudinale à partir de données transversales. En outre, la modélisation bayésienne permet de fournir une distribution prédictive, et non pas une simple valeur prédite, ce qui permet d'explorer l'incertitude de la prédiction. Également, des résultats antérieurs ou publiés peuvent être incorporés dans la distribution priore, ce qui conduit à des conclusions plus précises. Les prédictions précédentes sont fondées sur des modèles où la structure de corrélation entre les variables est laissée libre, le troisième objectif de notre travail a été d'imposer une structure de corrélation particulière adaptée au problème. L'avantage est l'utilisation d'un sous-modèle parcimonieux du modèle multivarié précédent. Cette structure est décrite au moyen d'un réseau bayésien gaussien (GBN). [...] Suite et fin du résumé dans la thèse
The assessment of human body composition is important for evaluating health and nutritional status. Among health issues, overweight and obesity are worldwide problems. Increased fat mass, especially in the trunk location, has been associated with an increased risk of metabolic diseases, such as type 2 diabetes and cardiovascular disease. The lean body mass, especially appendicular muscle mass, is also directly related to health and particularly with the mortality rate. Also, aging is associated with substantial changes in body composition. Reduction in body lean or body fat-free mass occurs during aging (Kyle et al., 2001) together with an increase of body fat related to accumulation of adipose tissues, particularly in abdominal region (Kuk et al., 2009); therefore assessing these changes in segmental body composition may be important because the study will lead to a pre-diagnosis for the prevention of morbidity and mortality risk. Accurate measurements of body composition can be obtained from different methods, such as underwater weighing and dual-energy X-ray absorptiometry (DXA). However, their applications are not always convenient, because they require fixed equipment and they are also time consuming and expensive. As a result, they are not convenient for use as a part of routine clinical examinations or population studies. The potential uses of statistical methods for body composition assessment have been highlighted (Snijder et al., 2006), and several attempts to predict body composition, particularly body fat percentage (BF%), have been made (Gallagher et al., 2000a; Jackson et al., 2002; Mioche et al., 2011b).The first aim in this thesis was to develop a multivariate model for predicting simultaneously body, trunk and appendicular fat and lean masses from easily measured anthropometric covariables. We proposed a linear solution published in the British Journal of Nutrition. There are two main advantages in our proposed multivariate approach. The first consists in using very simple covariables, such as body weight and height, because these measurements are easy and not expensive. The usefulness of waist circumference is also investigated and combined with age, height and weight as predictor variables. The second advantage is that the multivariate approach enables to take into account the correlation structure between the responses into account, which is useful for a number of inference tasks, e.g., to give simultaneous confidence regions for all the responses together. Then the prediction accuracy of the multivariate approach is justified by comparing with that of the available univariate models that predict body fat percentage (BF%). With a good accuracy, the multivariate outcomes might then be used in studies necessitating the assessment of metabolic risk factors in large populations.The second aim in this thesis was to study age-related changes in segmental body compositions, associated with anthropometric covariables. Two Bayesian modeling methods are proposed for the exploration of age-related changes. The main advantage of these methods is to propose a surrogate for a longitudinal analysis from the cross-sectional datasets. Moreover, the Bayesian modeling enables to provide a prediction distribution, rather than a simple estimate, this is more relevant for exploring the uncertainty or accuracy problems. Also we can incorporate the previous findings in the prior distribution, by combining it with the datasets, we could obtain more suitable conclusions.The previous predictions were based on models supposing any correlation structure within the variables, the third aim in this thesis was to propose a parsimonious sub-model of the multivariable model described by a Gaussian Bayesian network (GBN), more precisely Crossed Gaussian Bayesian Networks (CGBN). Last and final summary in the thesis
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Khemiri, Houssemeddine. "Approche générique appliquée à l'indexation audio par modélisation non supervisée." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0055.

Повний текст джерела
Анотація:
La quantité de données audio disponibles, telles que les enregistrements radio, la musique, les podcasts et les publicités est en augmentation constance. Par contre, il n'y a pas beaucoup d'outils de classification et d'indexation, qui permettent aux utilisateurs de naviguer et retrouver des documents audio. Dans ces systèmes, les données audio sont traitées différemment en fonction des applications. La diversité de ces techniques d'indexation rend inadéquat le traitement simultané de flux audio où différents types de contenu audio coexistent. Dans cette thèse, nous présentons nos travaux sur l'extension de l'approche ALISP, développé initialement pour la parole, comme une méthode générique pour l'indexation et l'identification audio. La particularité des outils ALISP est qu'aucune transcription textuelle ou annotation manuelle est nécessaire lors de l'étape d'apprentissage. Le principe de cet outil est de transformer les données audio en une séquence de symboles. Ces symboles peuvent être utilisés à des fins d'indexation. La principale contribution de cette thèse est l'exploitation de l'approche ALISP comme une méthode générique pour l'indexation audio. Ce système est composé de trois modules: acquisition et modélisation des unités ALISP d'une manière non supervisée, transcription ALISP des données audio et comparaison des symboles ALISP avec la technique BLAST et la distance de Levenshtein. Les évaluations du système proposé pour les différentes applications sont effectuées avec la base de données YACAST et avec d'autres corpus disponibles publiquement pour différentes tâche de l'indexation audio
The amount of available audio data, such as broadcast news archives, radio recordings, music and songs collections, podcasts or various internet media is constantly increasing. Therefore many audio indexing techniques are proposed in order to help users to browse audio documents. Nevertheless, these methods are developed for a specific audio content which makes them unsuitable to simultaneously treat audio streams where different types of audio document coexist. In this thesis we report our recent efforts in extending the ALISP approach developed for speech as a generic method for audio indexing, retrieval and recognition. The particularity of ALISP tools is that no textual transcriptions are needed during the learning step. Any input speech data is transformed into a sequence of arbitrary symbols. These symbols can be used for indexing purposes. The main contribution of this thesis is the exploitation of the ALISP approach as a generic method for audio indexing. The proposed system consists of three steps; an unsupervised training to model and acquire the ALISP HMM models, ALISP segmentation of audio data using the ALISP HMM models and a comparison of ALISP symbols using the BLAST algorithm and Levenshtein distance. The evaluations of the proposed systems are done on the YACAST and other publicly available corpora for several tasks of audio indexing
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Gavazza, Giuseppe. "La synthèse par modèle physique comme outil de formalisation musicale." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAS041.

Повний текст джерела
Анотація:
La synthèse pour par modèles physiques propose une approche à de la création musicale alternative à de celui celle plus habituelle du traitement du signal. En prenant en considération le phénomène musical comme un unicum émergeant de l'interaction entre le musicien et les instruments à sa disposition, on expérimente et donne corps phénoménologique et sensible aux actions créatrices.En ne considérant pas comme entités distinctes la matière sonore et la structure musicale, on oriente les potentialités de l'ordinateur et crée une dialectique originale et féconde entre le formel (structurel) et le perceptif (cognitif).Le champ d'action envisagé dans cette thèse concerne le développement, la formalisation et la catégorisation des modèles physiques réalisés à l’aide du formalisme CORDIS-ANIMA de structures - créées par modélisation physique - utiles pour la composition musicale, dans la perspective de mettre en évidence la fonction de formalisation musicale associée portée au par ce paradigme. de simulation par modèle physique CORDIS-ANIMA.Le point de départ est ma pratique personnelle de près de 20 années, en tant que compositeur, avec le logiciel de création sonore GENESIS du laboratoire ACROE-ICA. Cette pratique, à travers des travaux à la fois scientifiques (en modélisation) et artistiques (en composition musicale), m'a conduit à considérer cet environnement non pas comme un synthétiseur, mais comme un instrument " organique " permettant de créer une composition musicale complète couvrant les trois échelles de catégorisation usuelle de l'acoustique et de la musique : micro-formelle (le timbre, l'harmonie, l'orchestration), mezzo-formelle (le rythme, la mélodie et les séquences / structures harmoniques de premier niveau) et macro-formelle (la structure harmonique de niveau supérieur, le schéma formel de la composition complète).L'objectif ne consiste pas à proposer le cadre d'une "nouvelle musique" ou d'une nouvelle esthétique, mais à "bien tempérer" les instruments pour une nouvelle pratique de la création musicale explorant et exploitant au mieux les potentialités de l'ordinateur et des technologies numériques, aussi dans la direction d'un élargissement de la dialectique instrumentalité - écriture musicale vers une "supra instrumentalité" [Cadoz6] et vers des perspectives "post-scriptiques" de la création musicale [Cadoz7]
Physical model synthesis offers an approach to composition alternative to the more usual signal processing. Considering the musical phenomenon as a "unicum" emerging from the interaction between the musicians and their instruments the physical model synthesis realizes and gives phenomenological and sensitive corporeality to the creative actions. By conceiving not as separate entities sound material and musical structure directs the potentialities of the computer and creates an original and fruitful dialectic between the formal (structural) and perceptual (cognitive).The sphere of action for my PhD concerns the development, formalisation and categorisation of structural models – created by physical modelling – useful for musical composition in the perspective to highlight the musical formalisation function associated with the CORDIS-ANIMA physical model simulation paradigm.The starting point for this work is 20 years of personal use as a composer, of the GENESIS physical model musical creation software developed by the ACROE-ICA laboratory.This experience has led me, through works both scientific (modelling) and artistic (music composition), to consider this environment not as a synthesis tool, but as a complex instrument, which allows to create a complete musical composition covering all three usual categories of acoustics and music: micro-formal (the tone, harmony, orchestration), mezzo-formal (the rhythm, melody, and the basic sequences/harmonic structures) and macro-formal (the higher level harmonic structure, the formal outline of the entire composition).My goal is not to propose the framework of a new music or a new aesthetic, but develop "well-tempered" instruments for a new practice of music creativity that explores and accomplishes better the potentialities of computer and digital technology. This also leads in the direction of broadening the dialectic instrumentality - writing music to a "supra instrumentality" [Cadoz6] and to post-scriptic outlook on musical creation [Cadoz7]
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Gonzalez-Ramirez, José Enrique. "Contribution au contrôle par la modélisation d'un procédé de cristallisation en continu." Phd thesis, AgroParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00876943.

Повний текст джерела
Анотація:
L'étape de pré-cristallisation au sein d'un échangeur à surface raclée est une étape clé du procédé de production de crème glacée et a une forte influence sur la qualité finale du produit. Ce travail de thèse, effectué dans le cadre du projet européen CAFE, est dédié à la caractérisation et la modélisation de ce procédé de cristallisation afin de contribuer au développement d'un contrôleur. Une caractérisation expérimentale du procédé a été effectuée et a permis de déterminer l'influence des différentes variables de contrôle sur des critères tels que la fraction de glace, le diamètre moyen des particules et la performance énergétique du procédé. Un modèle dynamique adapté au contrôle, basé sur la résolution du bilan de population par la méthode des moments, a été développé et a été validé expérimentalement. Enfin, une analyse du coût énergétique et des pistes d'améliorations de la performance sont également proposées.
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Azab, Marc. "Caractérisation par corrélation d'images et modélisation par zones cohésives du comportement mécanique des interfaces." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI102.

Повний текст джерела
Анотація:
Ce travail concerne l'étude de l'intégrité des matériaux ou des structures assemblées en s'intéressant à la modélisation du mécanisme de rupture à l'aide des modèles de zones cohésives (MZC). Cette approche présente l'avantage d'incorporer une longueur caractéristique dans la description de la rupture, ce qui permet notamment d'évaluer des effets de taille. Trois paramètres caractérisent ces MZC : la contrainte de traction Tmax à laquelle l'interface ou le matériau peut résister avant d'amorcer sa décohésion, l'ouverture critique à partir de laquelle une fissure est créée localement et finalement une loi traction-ouverture qui décrit la répartition des efforts cohésifs selon le mécanisme opérant.L'objectif principal de cette thèse est d'identifier les paramètres cohésifs caractérisant la rupture interfaciale dans un joint de colle ou cohésif dans un matériau. Pour cela, une première étape était d'élaborer un modèle analytique, décrivant correctement la cinématique d'un essai DCB ou Wedge, pour caractériser la rupture mode I. Bien que le mode d'ouverture soit opérant, le champ de déplacement au voisinage de l'entaille n'est pas K-dominant pour ces essais, du moins pas toujours. Plusieurs lois de traction-ouverture ont été considérées afin d'étudier leur influence sur la réponse locale et globale de l'essai. Une méthodologie d'identification inverse a été proposée à partir d'un modèle analytique, qui consiste à extraire les paramètres cohésifs en minimisant l'erreur au sens des moindres carrés entre les déflections analytique et numérique. Une fois validée, elle a été par la suite appliquée à un cas réel, qui est l'essai d'insertion de lame. La mesure du champ de déplacement expérimental est possible grâce à une mesure du champ de déplacement par corrélation d'image.Une analyse approfondie a été aussi consacrée à l'étude de la "Process Zone" pour un essai DCB ou Wedge. Cette étude met en évidence la variation de Lcz en fonction de la géométrie des éprouvettes, des propriétés de la zone cohésive, des propriétés mécaniques du matériau ou encore la forme de la loi traction-ouverture utilisée. Une nouvelle expression pour estimer Lcz est établie pour les zones cohésives rectangulaires et triangulaires.Une deuxième approche d’identification locale, basée sur le travail de Réthoré et Estevez (2013), a été aussi proposée et discutée. Elle a été mise en oeuvre pour un essai d'insertion de lame, avant d'être appliquée à un essai de flexion 4 points entaillé. Un aller-retour entre simulation numérique et résultat expérimental permet d'identifier les propriétés cohésives du matériau ou de l'interface
This work concerns the study of materials and assemblies structures integrity using cohesive zone model (CZM) to analyze fracture. These models have the advantage to incorporate a characteristic length in the description of fracture initiation and propagation, which can lead to size effects studies. Three parameters characterize the CZM : the maximal cohesive traction Tmax to which the interface or the material can resist before the onset of debonding, the critical crack opening from which a crack is created locally and finally the traction-separation law which describe the cohesive traction distribution depending on fracture process.The main purpose of this thesis is to identify the cohesive zone parameters describing fracture at the interface or in the material. The first step was to elaborate an analytical model which can describe properly the DCB or Wedge Test kinematic, to characterize mode I fracture. Despite the fact of mode I fracture, the displacement field near the crack-tip is not K-dominant for these tests, at least not always. Various traction-separation laws were considered in order to study their influence on the local and global response of the test. An inverse identification methodology has been proposed from the analytical model, which can extract cohesive parameters through a least square error minimization between numerical and analytical deflection. Once validated, it was subsequently applied to a real Wedge test. The experimental displacement field measurement was done due to digital image correlation measurement.A deep analysis to evaluate the fracture process zone length has been also dedicated in the case of Wedge or DCB Tests. This analysis shows that Lcz is not an intrinsic interface or materials property and it can vary depending on the sample's geometry, the cohesive zone properties or the traction-separation law. A new expression to determine Lcz was established for rectangular and triangular cohesive zone.A second local identification approach, based on the work of Réhoré and Estevez (2013), has been also proposed. It was implemented to analyze the Wedge test, before applying it to a notched four points bending test. A round trip between numerical simulations and experimental results allow identifying the cohesive properties in the materiel or at the interface
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Saison-Francioso, Ophélie. "Étude théorique et modélisation par la méthode FDTD de nanostructures plasmoniques : application à la conception de biocapteurs." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10189/document.

Повний текст джерела
Анотація:
Ce travail de thèse est une contribution à l’étude des propriétés optiques de structures plasmoniques composées de nanoparticules métalliques. Il s’appuie sur diverses simulations numériques réalisées à l’aide de la méthode des différences finies dans le domaine temporel ou FDTD (Finite-Difference Time-Domain). La première partie de ce travail concerne l’étude d’un réseau périodique de nanofils d’or, de section droite rectangulaire, situé au sein d’un environnement diélectrique multi-couches. L’influence des paramètres géométriques des nanofils, de la période du réseau et de l’épaisseur de diélectrique recouvrant les nanofils sur la position spectrale de la résonance plasmonique a été explorée. Cette étude a démontré que la longueur d’onde de résonance oscille quand l’épaisseur du diélectrique recouvrant les nanofils varie. Un modèle analytique simple a été développé afin de mieux appréhender l’origine de ces oscillations. L’influence des indices de réfraction de la matrice diélectrique sur les paramètres de l’oscillation a également été analysée. La deuxième partie de ce travail a été consacrée à la détermination et à l’étude de facteurs contrôlant la sensibilité des capteurs à résonance de plasmons de surface localisés. Différentes formes de nanoparticules et différents types de nanofils ont été analysés. De plus, trois grands thèmes ont été abordés :- l’influence sur la sensibilité du substrat sur lequel sont déposées les nanoparticules,- l’influence sur la sensibilité du matériau recouvrant les nanoparticules et,- l’origine du lien existant entre la longueur d’onde de résonance plasmonique et la sensibilité des nanoparticules à un changement d’indice de réfraction
This thesis is a contribution to the optical properties study of plasmonic structures composed by metallic nanoparticles. This study is based on numerical simulation results obtained by the Finite-Difference Time-Domain method (FDTD).The first part of this work is related to the analysis of gold nanowires periodic arrays, which section is rectangular, placed in a multi-layered dielectric environment. The influence of the nanowires geometrical parameters, of the array period and of the dielectric thickness covering the nanowires on the Localized Surface Plasmon Resonance (LSPR) spectral position has been explored. This study especially demonstrated that the resonance wavelength oscillates when the dielectric thickness covering the nanowires is varying. A simple analytical model has been developed in order to better understand the oscillations origin. The influence of the refractive indexes of the dielectric matrix on the oscillation parameters has been analyzed too.The second part of this work concerns the determination and the study of factors controlling LSPR sensors sensitivity. Different shapes of nanoparticles and different kinds of nanowires have been considered. Moreover, three wide topics have been approached in this part:- the influence of the nanoparticles substrate on the sensitivity,- the influence of the material covering the nanoparticles on the sensitivity and,- the origin of the relationship between the LSPR wavelentgh and the refractive index sensitivity of the nanoparticles
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Bourgeault, Adeline. "Bioaccumulation par Dreissena polymorpha: quel reflet de la contamination chimique du milieu ? : Expérimentation – Observation – Modélisation." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00546985.

Повний текст джерела
Анотація:
Dans le contexte réglementaire de la Directive Cadre sur l'Eau, il est nécessaire d'évaluer l'impact de la contamination métallique sur les milieux aquatiques pour pouvoir établir un diagnostic des masses d'eau. Intégrer dans ce diagnostic, la biodisponibilité des métaux par une mesure de la bioaccumulation dans des organismes modèles, permet d'évaluer plus finement le risque pour l'environnement. Cependant le lien entre la bioaccumulation et la contamination chimique du milieu reste difficile à établir puisqu'il dépend de paramètres physico-chimiques et physiologiques. Afin de faire ce lien chez la moule zébrée, nous avons utilisé un modèle cinétique de bioaccumulation: le modèle biodynamique. Des expositions en laboratoire ont permis d'étudier l'influence de la physico-chimie de l'eau (concentration en calcium, zinc et matière organique dissoute) sur les constantes d'accumulation du modèle par voie dissoute et de mettre au point un protocole d'exposition permettant de déterminer les constantes d'assimilation par voie trophique. L'effet compétiteur des ions (Ca et Zn) sur l'accumulation du Cd et du Ni par voie dissoute a été mis en évidence et intégré au modèle biodynamique par une approche s'inspirant du modèle du ligand biologique (BLM). Des suivis de contamination de dreissènes transplantées, de 2 mois et 1 an, ont mis en évidence la capacité du modèle à relier la contamination métallique du milieu à celle des organismes, en prenant en compte la physicochimie du milieu (notamment le niveau trophique) et la physiologie de l'organisme (taux de filtration, taux de croissance).
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Hassen, Ghazi. "Modélisation multiphasique pour le calcul des ouvrages renforcés par inclusions rigides." Phd thesis, Ecole des Ponts ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001996.

Повний текст джерела
Анотація:
La technique de renforcement des sols par inclusions linéaires rigides, c'est-à-dire capables de reprendre des efforts de flexion et cisaillement, connaît depuis quelques décennies un essor important bien que la simulation et le calcul de tels ouvrages reste un problème difficile, en raison de la très forte hétérogénéité du sol renforcé combinée au grand nombre d'inclusions mis en jeu dans de tels ouvrages. Une modélisation multi phasique a récemment été développée permettant d'aborder le dimensionnement de tels ouvrages de géotechnique avec des temps de calcul considérablement réduits par rapport à ceux d'une modélisation numérique classique, où les inclusions de renforcement doivent être discrétisées individuellement. On s'intéresse dans le cadre de ce travail à la mise en oeuvre de ce modèle dans le cadre du comportement élastoplastique des différents constituants, lorsque les effets de flexion et de cisaillement des inclusions sont pris en compte. Après avoir développé un certain nombre de solutions analytiques de référence, un outil numérique basé sur la méthode des éléments finis est mis au point, puis appliqué à la simulation du comportement de différentes structures renforcées, telles que les radiers de fondation sur groupes de pieux, ou la stabilisation de pentes instables par l'incorporation de telles inclusions.
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Maquinghen, Anne-Pascale. "Modélisation géométrique et cinématique 3D du rachis scoliotique pour la réalisation d'un outil d'aide au medecin." Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/ef98d2a0-b271-4070-b83c-e130440c9fe6.

Повний текст джерела
Анотація:
L'objet de cette thèse est la réalisation d'un logiciel d'aide au chirurgien pour l'orthopédie rachidienne. Dans une première étape, ce logiciel permet de visualiser un modèle géométrique tridimensionnel du rachis sur écran graphique. Les paramètres de ce modèle sont identifiés, sur les radiographies frontale et latérale du rachis, par digitalisation de points particuliers situés sur les vertèbres et le socle pelvien. Un calcul de stéréocorrespondance, adapté à ce cas, fournit les coordonnées 3D de ces points ; l'incertitude sur la position vertébrale est estimée inferieure au centimètre. Un traitement numérique sur les paramètres du modèle permet de calculer les variables et indices caractéristiques de la scoliose. Dans une seconde étape, le modèle du rachis est formulé comme une chaine cinématique générale 3D dont les paramètres sont identifiés à partir de mesures de position et d'inclinaison sur des radiographies du patient en flexion corrective extrême. Cette formulation permet une recherche automatique de la forme rachidienne optimale que peut atteindre un patient. L'algorithme de recherche de l'optimalité consiste à imposer la correction maximale admissible de la courbure principale et une correction uniforme et partielle des contre-courbures. Le travail effectue fait partie de l'étude d'un système général d'aide au chirurgien entreprise en collaboration avec quatre équipes régionales dans le cadre du pole G. B. M.
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Bergot, Thierry. "Modélisation du brouillard à l'aide d'un modèle 1D forcé par des champs mésoéchelle : application à la prévision." Toulouse 3, 1993. http://www.theses.fr/1993TOU30281.

Повний текст джерела
Анотація:
Les brouillards denses sont des phenomenes meteorologiques tres dangereux, et de plus tres frequents l'hiver sur certaines regions, comme la region nord-pas de calais. Cependant, leur prevision par les services meteorologiques est delicate. Ainsi, une etude statistique menee sur les trois hivers 89-90, 90-91 et 91-92 a montre que la qualite de la prevision etait du meme ordre de grandeur que la prevision par persistance. Les cas d'erreurs se composent pour un tiers de non detection et pour deux tiers de fausses alertes. Afin d'essayer d'ameliorer la prevision des brouillards denses a courte echeance (12 heures a l'avance), une methode numerique de prevision associant un modele unidimensionnel (1d) et le modele de prevision operationnel de meteo-france peridot est testee. Le modele peridot fournit les termes mesoechelles (vent geostrophique, advections horizontales de temperature et d'humidite). Le modele 1d, appele cobel, est un modele de couche limite nocturne incluant une parametrisation microphysique implicite, une parametrisation du depot de rosee et de gelee, et une parametrisation des longueurs de melanges dans les cas stables et instables. Une etude de sensibilite a montre que le forcage mesoechelle et les conditions initiales n'avaient pas la meme influence selon le moment ou se formait le brouillard. Ainsi, en debut de nuit, periode de fort refroidissement, les termes locaux sont preponderant devant les termes mesoechelles et l'heure de formation du brouillard est peu sensible aux erreurs. Par contre, le developpement vertical du brouillard est toujours tres sensible aux termes advectifs. L'influence du depot de rosee a aussi ete mise en evidence. La simulation des cas observes lors des campagnes d'observation intensive lille88 et lille91 a permis de montrer que le modele cobel etait capable de reproduire correctement les principaux processus mis en jeu dans le brouillard et de poser les premieres limites d'applications de la methode de prevision des brouillards denses
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Marquot, Aurélien. "Modélisation du traitement de l'azote par boues activées en sites réels : calage et évaluation du modèle ASM1." Pau, 2006. http://www.theses.fr/2006PAUU3016.

Повний текст джерела
Анотація:
La dépollution des eaux usées par les boues activées a été progressivement maîtrisée pour permettre de traiter non seulement les composés carbonés mais aussi l'azote et le phosphore. Parallèlement, des modèles mathématiques ont été développés pour représenter les processus complexes impliqués par l'activité de la biomasse. L'aboutissement de ces modèles à une description complète du traitement du carbone et de l'azote par boue activées a été apporté avec le modèle ASM1 (1987). Ce modèle, ainsi que ceux qui l'ont suivi sont désormais intégrés à des logiciels de simulation qui sont de véritables outils de dimensionnement et d'aide à la gestion pour les stations d'épuration. Cependant l'utilisation de la simulation dans le domaine des eaux usées requiert encore un niveau d'expertise élevé. De plus la recherche doit se poursuivre tant sur le plan du développement des modèles que sur les protocoles qui permettent leur utilisation pertinente. C'est dans ce contexte que cette thèse a été réalisée, avec les buts parallèles d'actualiser les recommandations du Cemagref pour le dimensionnement et la gestion des stations d'épuration en France, et de participer à la recherche internationale qui est actuellement représentée par le groupe de travail IWA “Guidelines for Use of Activated Sludge Models”. Ce document présente donc le traitement de l'azote par boues activées et les modèles qui y sont associés. Le modèle ASM1 a été sélectionné pour une étude sur site réel. Cette étude de 22 mois a eu pour objectif d'obtenir un calage des paramètres du modèle. Les caractéristiques du site réel ont fortement influencé le développement des méthodes de suivi avec un protocole spécifique aux systèmes d'aération intermittente. Parallèlement, des tests complémentaires en laboratoire et un protocole propre au calage du modèle et à sa validation ont été élaborés. Les résultats obtenus ont permis d'évaluer d'une part la robustesse d'un calage et d'autre part la capacité du modèle à représenter le fonctionnement réel de la station, notamment lorsque des contraintes fortes comme une inhibition de la nitrification sont survenues. Les connaissances acquises lors de l'étude sur site réel ont ensuite été valorisées par des travaux de simulation sur des " scénarios avancés ". Ces scénarios ont permis d'appréhender l'apport de la simulation par rapport aux méthodes de dimensionnement conventionnelles. Ils ont également permis d'étudier de manière approfondie les mécanismes du modèle et leurs limitations. Enfin des scénarios prospectifs ont amené à discuter différentes options de dimensionnement et de gestion face à des situations de crise (problèmes de gestion de la boue, temps de pluie ou inhibition)
Wastewater treatment by activated sludge was progressively improved in order to remove not only carbonaceous pollutants but also nitrogen and phosphorus. In parallel, mathematical models were developed to represent the complex processes resulting from the biomass activity. This led to the complete description of carbon and nitrogen removal by the Activated Sludge Model n°1 (ASM1, 1987). This model, and all the following ones, are nowadays implemented in simulation software and used as design and operation support tools. Nevertheless the use of simulation in the wastewater treatment field requires high expertise. Furthermore, research must be continued on both models development and protocol for their calibration. In this context the PhD was carried out with the goals of updating Cemagref's recommendations for design and operation of French wastewater treatment plants, and participating to the international research presently carried out by the IWA task group “Guidelines for Use of Activated Sludge Models”. This document first introduces nitrogen removal by activated sludge and the corresponding models. ASM1 was selected for a full-scale survey. This 22-month study aimed at obtaining a calibration of the model parameters. Site characteristics have strongly influenced the development of monitoring methods and calibration/validation procedures adapted for intermittent aeration system. In parallel, laboratory experiments were performed to determine additional model parameters. The results allowed the evaluation of both the model robustness through several calibration campaigns and its capacity to represent real operation of the plant, especially under strong constraints such as nitrification inhibition. This modelling experience with full-scale data was used to simulate “advanced scenarios”. These scenarios aimed at understanding the advantages of simulation compared to conventional design methods. They also allowed deeper assessment of the model mechanisms and limitations. Finally, prospective scenarios compare several design and operation strategies when facing crisis event, such as erratic sludge wastage, rain events, or inhibition of nitrification
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Teghbit, Saliha. "Contribution à la modélisation floue, minimisation de l'écart modèle-système par réduction du contour du graphe flou." Valenciennes, 1995. https://ged.uphf.fr/nuxeo/site/esupversions/5142ac51-a8ff-4d6b-8979-acb9641b3abc.

Повний текст джерела
Анотація:
La formulation et la conception d'un modèle sous-entend le recensement des différentes variables du système et leur mise en relation. La prise en compte de la composante humaine dans la conception des systèmes nécessite l'utilisation d'outils particuliers de traitement et de représentation d'informations vagues. L’operateur humain exprime sa connaissance, sur un système donné, par une description sous forme de règles linguistiques du type si x est a alors y est b, la modélisation floue donne un modèle du comportement d'un système, par application de la théorie des sous-ensembles flous. La mise en relation des variables du système se fait par application d'opérateurs d'implication. La relation floue, r, est vue comme un graphe, g, ou se trouve l'ensemble des solutions (x, y) compatibles avec la relation r, lorsque x est compatible avec le prédicat a et y est compatible avec le prédicat b. La réduction du contour du graphe g restreint donc le champ de recherche des solutions possibles. La première réduction se fait par minimisation du support de la relation floue. Le support du graphe g est fonction des supports des prédicats a et b, s#g = s#a x s#b, réduire le support s#g revient à réduire les supports s#a et s#b. Une étude plus détaillée de la relation floue, montre que, selon l'enchainement des règles, la solution peut être recherchée dans des zones bien définies du graphe, plutôt que sur tout le graphe. Une ligne directrice permet de définir l'allure globale et la direction de la caractéristique du modèle. La caractéristique est alors recherchée dans le graphe ainsi réduit.
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Lingua, Hugo. "SH2 sur les dialkylzincs par les radicaux α-alcoxycarbonyle, carbozincations et additions radicalaires impliquant des ynamides : approches expérimentales et théoriques". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0564.

Повний текст джерела
Анотація:
La réactivité de l’α-bromoacrylate d’éthyle et du benzylidène malonate d’éthyle vis à vis des dialkylzincs en milieu aérobie a été étudiée afin d’évaluer la capacité des radicaux α-alcoxycarbonyle tertiaires à évoluer par SH2 sur le métal pour conduire à un énolate de zinc. Le travail expérimental réalisé à partir de l’α-bromoacrylate d’éthyle a permis la synthèse de cyclopropanes et de céto-esters. Dans le cas des benzylidène malonates la réversibilité de l’addition du diéthylzinc sur le substrat, a été mise en évidence. L’effet inhibiteur d’additifs tels que TMSCl ou CuCl concourt à indiquer que les peroxydes de zinc formés dans le milieu pourraient y tenir un rôle clé. L’étude théorique a mis en évidence pour les 2 substrats étudiés, le rôle crucial de la stabilisation de l’énolate formé sous la forme d’un chélate à 5 ou 6 chaînons. Les carbozincations d’ynamides via le CuI ou le FeCl2 en présence de dialkylzincs ont été étudiées pour la synthèse régio-et stéréosélective d'énamides tri- ou tétrasubstitués. Le CuI s’est montré plus performant et moins substrat-dépendant que FeCl2. Une étude théorique a été réalisée afin de mieux comprendre ce phénomène. Enfin, l'addition intermoléculaire des radicaux sulfanyle sur les ynamides a été revisitée. Les calculs théoriques et les résultats expérimentaux montrent que la régio- et stéréosélectivité de la réaction dépendent de la nature du substituant porté par le carbone en β de l’atome d’azote et des conditions expérimentales. L’addition intermoléculaire inédite d’un radical carboné électrophile sur ces substrats a pu être décrite et ouvre de nouvelles perspectives quant à la synthèse d’énamides tétrasubstitués originaux
The reactivity of ethyl α-bromoacrylate and ethyl benzylidene malonate towards dialkylzincs in aerobic medium was studied in order to evaluate the capacity of tertiary α-alcoxycarbonyl radicals to undergo SH2 at zinc leading to a zinc enolate. The use of ethyl α-bromoacrylate allowed the synthesis of cyclopropanes and keto-esters. With the second substrate, the addition of the alkyl group was shown to be reversible. The inhibitor effect of additives like TMSCl or CuCl suggested that zinc peroxydes formed in situ could play a key role in the process. Theoretical studies highlighted the crucial role of the stabilization of the zinc enolate through the formation of a 5 or 6-membered chelate. Regio- and stereoselective synthesis of tri- and tetra-substituted enamides was achieved through the carbozincation of ynamides in the presence of dialkylzincs and CuI or FeCl2 as catalyst. CuI was shown to be more efficient and less substrate-dependent than FeCl2. Molecular modelings were performed to better understand this phenomen. Finally, intermolecular addition of sulfanyl radicals onto ynamides was revisited. Theoretical calculations and experimental results showed that the regio- and stereo-selectivity of the process depended on the nature of the substituent on the carbon in β position of the nitrogen atom and on experimental conditions. Unprecedented intermolecular addition of a carbon-centered radical has been described and opened new perspectives for the synthesis of original tetrasubstituted enamides
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Kalantari, Saman. "Introduction de fonctionnalités de changements d'états topologiques dans le formalisme de modélisation et de simulation CORDIS-ANIMA." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENS004.

Повний текст джерела
Анотація:
Dans cette recherche, nous étudions les problèmes de modélisation de discontinuités topologiques d'objets physiques déformables. Parmi toutes les discontinuités topologiques possibles, nous nous intéressons à celles que nous avons qualifiées de « discontinuités de 1 vers N » dans le contexte de la modélisation physique. Entrent dans cette catégorie les phénomènes de fractures, de cassures, de déchirures et de fissures. De nombreux travaux se sont intéressés à la modélisation et la simulation de ce type de phénomènes. Plusieurs méthodes ont été proposées, à partir de systèmes de modélisation différents parmi lesquels les plus courants sont : modélisation masses – ressorts sur maillages, méthodes d'éléments finis avec et sans maillage. Une question commune qui se pose dans toutes les méthodes discutées dans cette thèse est la question des endroits fonctionnels où apparaissent et se propagent les discontinuités topologiques. Nous étudions ce problème à travers plusieurs approches sur la modélisation physique de discontinuités topologiques. Nous proposons ensuite notre approche, qui se fonde sur le formalisme masses – interactions. Nous montrons en quoi ce type de modélisation offre certaines propriétés natives pour traiter cette question. En particulier, le fait qu'elles soient par principe affranchies de toute notion de contigüité spatiale et de continuité matérielle leur permet de poser de manière très générale la question des changements d'état physique à l'origine des discontinuités topologiques observées. Nous montrons qu'une très grande majorité de changements d'états physiques peuvent se modéliser par des variations des paramètres physiques d'interactions physiques non linéaires en lieu et place de changements structurels adoptés dans majorité des travaux menés par des méthodes courante et qui conduisent à des modifications très importantes et complexes du modèle physique. Néanmoins, cela induit, des effets d'enlèvements de matière aux endroits du changement d'état puisque celui –ci est porté par l'interaction, c'est à dire une contrainte physique qui est placée entre les points matériels. Pour s'affranchir de ces effets, nous proposons alors une nouvelle méthode, qui consiste à modéliser les discontinuités topologiques sur un élément de masse physique et non pas sur un élément de contrainte physique. Nous appelons ce dispositif « MAT éclatable ». Le processus de modélisation avec les MAT éclatables s'inscrit dans le processus de modélisation masses-interactions tel que défini dans le formalisme de modélisation et de simulation de CORDIS – ANIMA. La méthode proposée permet d'effectuer des changements topologiques par modèle physique par changements structurels, mais différemment de ceux plus couramment effectuées dans les méthodes usuelles (tels que par exemple, ajout ou suppression de ressorts ou de masses), la méthode des MAT éclatables permet de maîtriser le fonctionnement du modèle physique en termes d'optimalité des transformations, de stabilité du temps de calcul et de stabilité numérique. La méthode des MAT éclatables a été développée sous forme d'un dispositif de modélisation, destiné aux utilisateurs de notre outil de modélisation CORDIS-ANIMA. Pour illustrer et valider la méthode, nous proposons un ensemble de modèles physiques modélisation des fractures et déchirures multiples apparaissant et se propageant dans des objets très déformables, des effilochures, ou des fragmentations
L'auteur n'a pas fourni de résumé en anglais
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Ben, Ettouil Fadhel. "Modélisation rapide du traitement de poudres en projection par plasma d'arc." Phd thesis, Université de Limoges, 2008. http://tel.archives-ouvertes.fr/tel-00345752.

Повний текст джерела
Анотація:
Ce travail est consacré au modèle rapide du procédé de déposition par projection thermique en plasma d'arc soufflé. Il est plus particulièrement consacré au traitement d'une particule isolée ou d'un lot de particules échantillon représentatif d'une poudre.
Le procédé de projection par plasma d'arc soufflé et les principaux phénomènes qui régissent la formation du jet de plasma, les échanges thermiques et dynamiques entre la particule et l'écoulement du jet gazeux et la construction du dépôt sont examinés. Nous avons fait une étude bibliographique des modèles développées par ailleurs pour simuler les différentes fonctionnalités du procédé.
Les fondements et les caractéristiques du logiciel « Jets&Poudres » sont exposés, avant de présenter le modèle du transfert plasma-particule qui prend en compte la conduction interne à la particule et les déplacements des fronts de changement de phase. Dans ce modèle le calcul de l'évaporation de la particule est découplé du problème de la dynamique du gaz dans le jet et nous exploitons les résultats de J. C. Knight et le modèle de « Pression en retour » (Back Pressure) qu'il a développé. Une étude qualitative est consacrée à l'effet des paramètres de dispersion de la poudre en sortie de l'injecteur sur le traitement d'une particule isolée et sur la construction du dépôt. Ces effets mis en évidences, nous exposons un modèle de transport d'un lot de particules représentatif d'une poudre dans l'injecteur afin d'évaluer la dispersion en masse, taille et vitesse avant l'entrée dans le jet. Ce modèle complexe prend ent compte les collisions particule-parois et les colisions binaires particule- particule.
Les résultats de ces deux modèles sont discutés. Le traitement dynamique et thermique de la particule isolée est en bon accord avec ceux de la littérature. Ce qui autorise l'étude des conditions opératoires et des paramètres des différentes composantes fonctionnelles du procédé (torche, gaz plasmagène, injecteur, poudre...) sur le traitement des particules et leurs histoires thermique et dynamique.
Le modèle a été utilisé pour évaluer la quantité de matière nanostructurée conservée en fin de traitement et avant impact sur le substrat. Nous avons également exploité le modèle de dispersion de poudre pour la simuler la tache-dépôt formée par la projection ‘statique' de poudres de différents matériaux et de différentes granulométries.
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Morscheidt, Willy. "Modélisation d'un réacteur RF à couplage capacitif en mélange Ar-O2 dans les conditions utilisées pour le procédé de dépôt par voie plasma d'oxyde d'étain." Paris 6, 2002. http://www.theses.fr/2002PA066266.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Azzabi, Zouraq Brahim. "Optimisation du procédé de contrôle non destructif par thermographie inductive pour des applications du domaine nucléaire." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4023/document.

Повний текст джерела
Анотація:
Les travaux de cette thèse traitent d’une technique de contrôle non destructif (CND) novatrice et de son adaptation au domaine du nucléaire civil. L’outil numérique est utilisé à cette fin. Une présentation exhaustive des modèles numériques adaptés à la problématique est tout d’abord faite. Ces outils sont par la suite implémentés et leurs performances comparées. Ceci a permis de mettre en place un outil numérique rapide et capable de prendre en comptes différentes contraintes de modélisation. Il s’agit plus essentiellement de la prise en compte du circuit, d’alimentation du système de chauffe, de la modélisation des régions à effet de peau prononcé, ainsi que la modélisation des défauts fins. Ceci est suivi par une validation expérimentale des performances numériques. L’outil implémenté est validé et exploité dans le cadre d’une démarche d’évaluation de fiabilité basé sur une approche MAPOD. Dans ce cadre tout un système de tirage de données d’entrée et de gestion de données de sortie est établi. Le fruit de ceci est un outil logiciel fiable et rapide dédié à l’évaluation de la sensibilité de la technique thermo-inductive
The work of this thesis deals with an innovative non-destructive testing (NDT) technique and its adaptation to the civil nuclear field. The numerical tool is used for this purpose. An exhaustive presentation of numerical models adapted to our problematic is made at first. These tools are then implemented and their performance compared. This made it possible to set up a fast digital tool capable of taking into account different modeling constraints such as circuit coupling, modeling of pronounced skineffect regions, as well as modeling of thin defects. This was followed by an experimental validation of the performances. Once the tool implemented and validated, it was exploited as part of a reliability assessment approach based on a MAPOD approach. In this context, an entire system for drawing input data and managing output data will be established. The result of this is a reliable and fast software tool dedicated to the evaluation of the sensibility of the thermoinductive technique
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Xhuvani, Aleksander P. "Modélisation et identification des paramètres d'une machine synchrone destinée à être alimentée par un convertisseur statique." Toulouse, INPT, 1989. http://www.theses.fr/1989INPT055H.

Повний текст джерела
Анотація:
Mise en equations d'etat, de plusieurs types de machine synchrone en utilisant le modele du flux commun. Differents modeles d'etat ont ete elabores de facon a prendre eventuellement en compte le taux de saturation du circuit magnetique soit de maniere simple soit en considerant l'influence croisee de saturation. Cette etude est appuyee par une simulation du fonctionnement de ces machines alimentees en tension par des sources de nature differente, tant en regime permanent qu'en regime transitoire. Les modeles d'etat obtenus sont ensuite utilises pour identifier les parametres de ces machines par la methode du modele de reference. Dans un premier temps l'auteur definit la nature des essais experimentaux a effectuer a l'aide de la simulation. Il presente ensuite la mise en uvre de la procedure d'identification sur un systeme reel constitue d'une machine a aimants permanents alimentee par un onduleur mli. Les resultats experimentaux obtenus valident parfaitement cette etude
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Richard, Marie Anne. "Modélisation pharmacocinétique en imagerie par résonance magnétique et en tomographie d’émission par positrons appliquée à un modèle de glioblastome chez le rat." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9709.

Повний текст джерела
Анотація:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Abstract : In medical imaging, different modalities are frequently combined in order to obtain complementary information. For example, positron emission tomography (PET) can be associated with magnetic resonance imaging (MRI) to derive both anatomical and biological information. This project explores the synergies between MRI and PET for pharmacokinetic modeling. Specifically, it exploits the high spatial resolution of MRI as well as the information about perfusion and vascular permeability derived from dynamic contrast-enhanced studies to better assess these parameters in a PET radiotracer injected shortly after the MRI examination. This more precise assessment of perfusion is thought to improve metabolism quantification for the radiotracer and to discriminate between its specific and non-specific accumulation. The present work focussed on 2 PET radiotracers, (18F-fluorodeoxyglucose [FDG] and 18F-fluoroethyltyrosine [FET]) as well as a MRI contrast agent (gadopentetic acid [Gd-DTPA]) applied to a rat glioblastoma model. Images were acquired using a sequential MRI-PET protocol and blood was drawn to derive the arterial input function (AIF) for each molecule. PET and MR images were subsequently registered and pharmacokinetic modeling was performed on regions of interest (ROI) or voxel-wise. For FDG, an irreversible 3 compartments (2-tissue) model was used in accordance to the literature. For FET, it was determined that an irreversible 2-tissue model is applicable for the brain and the tumor and a reversible 2-tissue model is preferred for the muscles. AIF (blood or image-derived) conversion between Gd-DTPA and FET, or vice versa, was also considered and proved feasible for the blood AIF derived from the caudal artery, similar to FDG. Finally, combined kinetic modeling for MRI and PET showed a relationship between the perfusion of FDG, or FET, and that of Gd-DTPA in muscle. Important disparities were noted for the tumor. These results illustrate the complexity of the tumor microenvironment (e.g. presence of various transport mechanisms for the same molecule) and the numerous challenges encountered during its characterization in small animals.
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Le, Dref John. "Contribution à la modélisation du perçage assisté par vibration et à l’étude de son impact sur la qualité d’alésage : application aux empilages multi-matériaux." Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/13546/1/le_dref.pdf.

Повний текст джерела
Анотація:
Le perçage assisté par vibration est un procédé récent et industrialisé, de plus en plus utilisé pour le perçage des métaux et des empilages multi-matériaux. Il consiste en l’ajout d’oscillations au mouvement d’avance constant de l’outil en perçage classique. Ceci permet alors de générer une variation de la hauteur de coupe et de provoquer la fragmentation du copeau. L’objectif de cette thèse est d’apporter des connaissances sur les phénomènes de coupe présents lors du perçage et qui sont influencés par l’utilisation d’une assistance vibratoire. Pour cela, il s’agit d’étudier la cinématique du perçage assisté par vibration, c’est-à-dire les trajectoires des arêtes de coupe, afin de proposer une modélisation des actions mécaniques générées lors du perçage. Les observations de la cinématique réelle en bout d’outil mettent en exergue une différence entre la cinématique théorique et la cinématique réelle. Ces différences sont intégrées dans le modèle cinématique corrigé sur lequel s’appuient les modèles d’effort axial et de moment. Un modèle à comportement local est proposé afin de modéliser l’effort axial généré. Ce modèle est défini à partir de données issues de perçage classique. La seconde partie de l’étude se consacre à l’étude de la qualité du trou dans les multi-matériaux obtenue en perçage assisté par vibration. Dans cette partie sont analysées les bavures dans les métaux, l’état de surface et l’écaillage des matériaux composites. Il est ainsi comparé l’endommagement du trou percé en perçage assisté par vibration et en perçage classique dans les configurations d’essais identiques. Un lien entre les actions mécaniques générées lors de la coupe et les défauts engendrés en perçage assisté par vibration reste à étudier.
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Aoun, Mhamad. "Elaboration et validation d’un modèle de l’articulation temporo-mandibulaire par éléments finis." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14034/document.

Повний текст джерела
Анотація:
Cette thèse s’inscrit dans un projet à long terme de conception de nouvelle prothèse de l’Articulation Temporo-Mandibulaire (ATM). Afin de faciliter une caractérisation non invasive de l’ATM, elle a conduit à l’élaboration d’un modèle élément finis plan de l’ATM. Le modèle, construit à partir de relevés IRM, intègre le ménisque ainsi que les insertions musculaires et ligamentaires. Il est commandé en déplacements imposés tout d’abord et en efforts imposés ensuite. Les déplacements ont été mesurés par analyse vidéo 3D et les efforts musculaires ont été évalués par EMG au cours de travaux antérieurs réalisés au sein du laboratoire. Le modèle est ici exploité pour simuler un mouvement d’ouverture et un serrage inter-incisives dans trois configurations qui correspondent à des ouvertures de 5 mm, 25 mm et 30 mm. Les résultats de ces simulations, validés par IRM, ont permis de caractériser le rôle du disque articulaire de l’ATM dans la réalisation des déplacements et la transmission des efforts. L’étude souligne la nécessité de rechercher des solutions technologiques de remplacement du disque articulaire lors de la conception d’une nouvelle prothèse
This study presents a part of a long-term project that aims to design a new prosthesis for the Temporomandibular Joint (TMJ). In order to facilitate a non-invasive characterization of the TMJ, a plane finite element model of the joint has been elaborated starting from MRI images. The model integrates the meniscus as well as the principal ligaments and the main muscular insertions. It has been driven firstly with displacements and then with forces. The displacements have been measured using a 3D motion analysis system and the muscles forces have been taken from anterior former EMG studies led in the laboratory. An opening movement and inter-incisors clenching in three configurations which correspond to openings of 5, 25 and 30 mm have been simulated. The results of these simulations, validated by MRI, made it possible to characterize the function of the articular disk during the movement and the transmission of actions. This study underlines the necessity of seeking technological solutions to replace the meniscus when designing a new prosthesis
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії