Rozprawy doktorskie na temat „Méthode ComBat”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Méthode ComBat.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 17 najlepszych rozpraw doktorskich naukowych na temat „Méthode ComBat”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Li, Yingping. "Artificial intelligence and radiomics in cancer diagnosis". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG053.

Pełny tekst źródła
Streszczenie:
L'intelligence artificielle (IA) est très utilisée pour le diagnostic et le traitement de données médicales, donnant lieu à la médecine personnalisée assistée par l'IA. Ce manuscrit se concentre sur la proposition et l'analyse de méthodes d'IA, notamment l'apprentissage profond et la radiomique, pour le diagnostic du cancer. Tout d'abord, une approche efficace de segmentation automatique est essentielle pour mettre en place une méthode de diagnostic par IA, car c'est un préalable à une analyse par radiomiques. Nous avons proposé une nouvelle approche pour la segmentation automatique des lésions dans les images échographiques, basée sur des données multicentrique et multipathologique présentant différents types de cancers. En introduisant la convolution de groupe, nous avons proposé un réseau U-net léger en mémoire sans sacrifier les performances de segmentation. Deuxièmement, nous nous sommes intéressés au traitement de données d'imagerie par résonance magnétique (IRM) pour prédire de manière non invasive le sous-type de gliome, défini par le grade de la tumeur, la mutation de l'isocitrate déshydrogénase (IDH) et la codélétion 1p/19q. Nous proposons une approche par radiomiques. La performance de prédiction s'est améliorée de manière significative en optimisant différents paramètres de notre modèle. Les caractéristiques des éléments radiomiques qui distinguent le mieux les sous-types de gliome ont également été analysées. Ce travail a non seulement fourni un pipeline qui fonctionne bien pour prédire le sous-type de gliome, mais il a également contribué au développement et à l'interprétabilité du modèle radiomique. Troisièmement, nous nous intéressons à la problématique de reproductibilité des approches basées sur les radiomiques. Nous avons donc étudié l'impact de différentes méthodes de prétraitement d'images et de méthodes d'harmonisation (y compris la normalisation de l'intensité et l'harmonisation ComBat) sur la reproductibilité des caractéristiques radiomiques en IRM. Nous avons montré que la méthode ComBat est essentielle pour éliminer la variation non biologique causée par les différents paramètres d'acquisition d'image (à savoir, les effets du scanner) et améliorer la reproductibilité des caractéristiques dans les études radiomiques. Nous avons illustré l'importance de la normalisation de l'intensité, car elle permet d'obtenir des images IRM plus comparables et des résultats plus robustes. Enfin, nous avons cherché à améliorer la méthode ComBat en modifiant l'hypothèse classique, à savoir que les effets du scanner sont différents pour différentes classes (comme les tumeurs et les tissus normaux). Bien que le modèle proposé donne des résultats encore décevants, sûrement en raison du manque de contraintes appropriées pour aider à identifier les paramètres, il a néanmoins ouvert la voie à des perspectives intéressantes
Artificial intelligence (AI) has been widely used in the research field of AI-assisted diagnosis, treatment, and personalized medicine. This manuscript focuses on the application of artificial intelligence methods including deep learning and radiomics in cancer diagnosis. First, effective image segmentation is essential for cancer diagnosis and further radiomics-based analysis. We proposed a new approach for automatic lesion segmentation in ultrasound images, based on a multicentric and multipathology dataset displaying different types of cancers. By introducing the group convolution, we proposed a lightweight U-net network without sacrificing the segmentation performance. Second, we processed the clinical Magnetic Resonance Imaging (MRI) images to noninvasively predict the glioma subtype as defined by the tumor grade, isocitrate dehydrogenase (IDH) mutation and 1p/19q codeletion status. We proposed a radiomics-based approach. The prediction performance improved significantly by tuning different settings in the radiomics pipeline. The characteristics of the radiomic features that best distinguish the glioma subtypes were also analyzed. This work not only provided a radiomics pipeline that works well for predicting the glioma subtype, but it also contributed to the model development and interpretability. Third, we tackled the challenge of reproducibility in radiomics methods. We investigated the impact of different image preprocessing methods and harmonization methods (including intensity normalization and ComBat harmonization) on the radiomic feature reproducibility in MRI radiomics. The conclusion showed that ComBat method is essential to remove the nonbiological variation caused by different image acquisition settings (namely, scanner effects) and improve the feature reproducibility in radiomics studies. Meanwhile, intensity normalization is also recommended because it leads to more comparable MRI images and more robust harmonization results. Finally, we investigated improving the ComBat harmonization method by changing its assumption to a very common case that scanner effects are different for different classes (like tumors and normal tissues). Although the proposed model yielded disappointing results, surely due to the lack of enough proper constraints to help identify the parameters, it still paved the way for the development of new harmonization methods
Style APA, Harvard, Vancouver, ISO itp.
2

Masson, Anne-Sophie. "Le droit de la guerre confronté aux nouveaux conflits asymétriques : généralisation à partir du conflit Afghan (2001-2013)". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMLH03.

Pełny tekst źródła
Streszczenie:
Le conflit afghan (à partir de 2001) peut être considéré comme un nouveau conflit asymétrique reprenant les caractéristiques des conflits asymétriques classiques (rapport de force disproportionné entre les belligérants) à l’exception de la territorialisation, remplacée par l’appartenance à une idéologie commune. En conséquence, le champ de bataille y est devenu secondaire, la guerre est devenue cognitive. La séparation entre la paix et la guerre s’est atténuée à tel point qu’il est devenu impossible de compartimenter le droit de la guerre en fonction de l’intensité du conflit ou de son internationalisation. Faute de s’y être adapté, le droit de la guerre a cessé de faciliter le rétablissement de la paix et a été perçu par les militaires occidentaux comme une entrave aux combats. C’est pourquoi, certains belligérants ont tenté de s’en affranchir en ayant recours à des méthodes de combats illégitimes. Ces effets ont été médiatisés et ont participé à la perte de légitimité des Etats occidentaux allant jusqu’à remettre en question la division du monde en Etats souverains. L’absence de résolution de ces conflits pourrait conduire à une guerre civile globalisée. En réponse, l’harmonisation du droit de la guerre autour de la garantie inconditionnelle des droits inaliénables doit être affirmée par les Etats et les nouveaux acteurs internationaux. Elle pourrait émerger d’un « Parlement mondial », garant du droit international. De plus, l’irréprochabilité morale des belligérants est attendue. Le droit et la place des armées au sein de la société doivent le refléter
The Afghan war (since 2001) may be seen as a new asymmetric conflict. It has all characteristics of the former asymmetric conflicts except territoriality, which has been replaced by ideology. Therefore, the battlefields have been displaced to the cognitive war. The distinction between war and peace became so small that it is now impossible to distinguish the law of war in regard to its intensity or to the implication of several states. The law of wars, due to its lack of adaptation stopped to ease the peace recovery, becoming a hindrance to combat. In consequence, some warriors have been tempted to use forbidden combat methods. Whose effects have been mediatized and took part of the western states legitimacy crisis (and questionning the World division in sovereign states). The lack of conflicts settlement could lead to a worldwide civil war. Unless, law of wars are harmonized through universal core rights mandatory for states and new international actors; a “World Parliament” could protect them. Furthermore, moral integrity of warriors is expected, it may be reflected into the military laws and their position into the civil society
Style APA, Harvard, Vancouver, ISO itp.
3

Lamouroux, Raphaël. "Méthodes compactes d’ordre élevé pour les écoulements présentant des discontinuités". Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0035/document.

Pełny tekst źródła
Streszczenie:
Dans le cadre du développement récent des schémas numériques compacts d’ordre élevé, tels que la méthode de Galerkin discontinu (discontinuous Galerkin) ou la méthode des différences spectrales (spectral differences), nous nous intéressons aux difficultés liées à l’utilisation de ces méthodes lors de la simulation de solutions discontinues.L’utilisation par ces schémas numériques d’une représentation polynomiale des champs les prédisposent à fournir des solutions fortement oscillantes aux abords des discontinuités. Ces oscillations pouvant aller jusqu’à l’arrêt du processus de simulation, l’utilisation d’un dispositif numérique de détection et de contrôle de ces oscillations est alors un prérequis nécessaire au bon déroulement du calcul. Les processus de limitation les plus courants tels que les algorithmes WENO ou l’utilisation d’une viscosité artificielle ont d’ores et déjà été adaptés aux différentes méthodes compactes d’ordres élevés et ont permis d’appliquer ces méthodes à la classe des écoulements compressibles. Les différences entre les stencils utilisés par ces processus de limitation et les schémas numériques compacts peuvent néanmoins être une source importante de perte de performances. Dans cette thèse nous détaillons les concepts et le cheminement permettant d’aboutir à la définition d’un processus de limitation compact adapté à la description polynomiale des champs. Suite à une étude de configurations monodimensionnels, différentes projections polynomiales sont introduites et permettent la construction d’un processus de limitation préservant l’ordre élevé. Nous présentons ensuite l’extension de cette méthodologie à la simulation d’écoulements compressibles bidimensionnels et tridimensionnels. Nous avons en effet développé les schémas de discrétisation des différences spectrales dans un code CFD non structuré, massivement parallèle et basé historiquement sur une méthodologie volumes finis. Nous présentons en particulier différents résultats obtenus lors de la simulation de l’interaction entre une onde de choc et une couche limite turbulente
Following the recent development of high order compact schemes such as the discontinuous Galerkin or the spectraldifferences, this thesis investigates the issues encountered with the simulation of discontinuous flows. High order compactschemes use polynomial representations which tends to introduce spurious oscillations around discontinuities that can lead to computational failure. To prevent the emergence of these numerical issues, it is necessary to improve the schemewith an additional procedure that can detect and control its behaviour in the neighbourhood of the discontinuities,usually referred to as a limiting procedure or a limiter. Most usual limiters include either the WENO procedure, TVB schemes or the use of an artificial viscosity. All of these solutions have already been adapted to high order compact schemes but none of these techniques takes a real advantage of the richness offered by the polynomial structure. What’s more, the original compactness of the scheme is generally deteriorated and losses of scalability can occur. This thesis investigates the concept of a compact limiter based on the polynomial structure of the solution. A monodimensional study allows us to define some algebraic projections that can be used as a high-order tool for the limiting procedure. The extension of this methodology is then evaluated thanks to the simulation of different 2D and 3D test cases. Those results have been obtained thanks to the development of a parallel solver which have been based on a existing unstructured finite volume CFD code. The different exposed studies detailed end up to the numerical simulation of the shock turbulent boundary layer
Style APA, Harvard, Vancouver, ISO itp.
4

Andres, Nicolas. "Optimisation de la chaîne d'analyse MBTA et développement d'une méthode d'étalonnage de la réponse fréquentielle du détecteur d'onde gravitationnelle Virgo". Electronic Thesis or Diss., Chambéry, 2023. http://www.theses.fr/2023CHAMA029.

Pełny tekst źródła
Streszczenie:
La collaboration LIGO Virgo a marqué les débuts de l'astronomie gravitationnelle en apportant une preuve directe de leur existence en Septembre 2015. Ce domaine connaît depuis un bel essor dont chaque découverte permet une avancée dans les disciplines telles que l'astrophysique, la cosmologie et la physique fondamentale. À l'issue de chaque période d'observation, les détecteurs sont arrêtés et de nombreux aspects sont améliorés. Ce travail s'inscrit durant la phase de préparation entre la période O3 et O4 débutant en mai 2024 visant à configurer les interféromètres dans leurs états avancés en optimisant leurs sensibilités. L'étalonnage devient alors crucial afin de reconstruire avec précision le signal contenant l'information sur les ondes gravitationnelles, permettant les détections et la production de résultats scientifiques comme la mesure de la constante de Hubble, etc. Un travail d'instrumentation a été mené, permettant une mesure précise et régulière de l'horodatage du signal de l'interféromètre, qui doit être maitrisé à mieux que 0.01 ms près dans le but d'une analyse conjointe des données du réseau de détecteurs.De nombreux dispositifs permettant l'étalonnage de l'interféromètre reposent sur la lecture de signaux de contrôles par des photo-détecteurs dont la réponse fréquentielle a été supposée constante. Afin d'éviter tout biais introduit dans la reconstruction du signal, une méthode de mesure se doit d'être développée en vue d'une calibration en fréquence de chaque photo-détecteur impliqué. Deux méthodes sont ici comparées en vue d'une utilisation pour la période O5.Par ailleurs, la sensibilité accrue des détecteurs est synonyme de détections plus nombreuses. Les chaînes d'analyse de la collaboration se doivent de suivre les améliorations instrumentales en développant de nouveaux outils afin d'optimiser la recherche de signal en temps réel. La chaîne d'analyse à faible latence MBTA est un des 4 pipelines d'analyse de la collaboration se concentrant sur la recherche de coalescences de binaires compactes en combinant une analyse indépendante des données des 3 détecteurs. Elle dispose de nombreux outils de réjection de bruit performants, mais ne prend en compte aucune information astrophysique à priori. Grâce à l'accumulation de données dans les périodes d'observation précédentes, la collaboration a pu établir des modèles de distribution de masses plus précis pour les populations de coalescences de binaires compactes. Durant ma thèse un nouvel outil a été développé par l'équipe MBTA en utilisant ces nouvelles informations, visant à estimer la probabilité d'origine des événements (astrophysique ou non) ainsi qu'à en classifier la nature de la source astrophysique. Cet outil a finalement permis de restructurer la chaîne d'analyse globale en l'utilisant comme paramètre principal pour classer les événements selon leur niveau de significativité. La collaboration produit des alertes publiques à faible latences pour l'astronomie multi-messager, dans lesquelles sont fournies des informations liées aux signaux détectés communes aux différents pipelines d'analyses. Ne sachant pas à l'avance les préférences des différentes expériences partenaires de la collaboration LIGO Virgo pour définir les paramètres optimaux permettant un suivi multi-messagers, il a été décidé de tester une autre méthode permettant l'implémentation d'information astrophysique similaires dans la chaîne d'analyse MBTA. Une technique permettant d'inclure l'information astrophysique directement dans le paramètre définissant le classement par niveau de significativité des événements candidats est présentée. Cette méthode permet d'améliorer la recherche en fournissant une meilleure discrimination entre les événements astrophysiques et ceux provenant du bruit d'arrière-plan. En considérant la période d'observation O3 cette méthode permet d'augmenter le nombre de détection de 10% avec MBTA , détections qui ont été confirmés par les autres chaînes d'analyses
The LIGO Virgo collaboration marked the beginnings of gravitational astronomy by providing direct evidence of their existence in September 2015. The detection of gravitationnal wave coming from a binary black holes merger led to the physic's Nobel price. This field has since experienced a great growth, each discovery of which allows an advance in disciplines such as astrophysics, cosmology and fundamental physics. At the end of each observation period, the detectors are stopped and many aspects are improved. This work is part of the preparation phase between period O3 and O4 beginning in May 2024 to configure interferometers in their advanced states in order to optimize their sensitivities. Calibration then becomes crucial in order to accurately reconstruct the signal containing gravitational wave information, allowing detection and the production of scientific results such as the measurement of the Hubble constant, etc. An instrumentation work has been carried out, allowing an accurate and regular measurement of the time stamp (timing) of the readout sensing chain of the interferometer signal, which must be mastered better than 0.01 ms for the purpose of a joint analysis of the detectors network data.Many devices for the calibration of the interferometer rely on the reading of control signals by photodetectors whose frequency response has been assumed to be flat. In order to avoid any bias introduced in the reconstruction of the signal, a measurement method must be developed for a frequency calibration of each photo detector involved. Two methods are compared for use in the O5 period.In addition, the increasing sensitivity of the detectors means more detections. Collaboration analysis chains need to follow instrumental improvements by developing new tools to optimize real-time and off-ligne signal search. The MBTA Low Latency Analysis Chain is one of 4 collaboration analysis pipelines focusing on the search for compact binary coalescences by combining independent data analysis from all 3 detectors. It has many powerful noise rejection tools, but does not take into account any astrophysical information a priori. Through the accumulation of data in previous observation periods, the collaboration was able to establish more accurate mass distribution models for compact binary coalescence populations. During my thesis, a new tool was developed by the MBTA team using this new information, aimed at estimating the probability of origin of events (astrophysics or not) and at classifying the nature of the astrophysical source. This tool finally made it possible to restructure the global analysis chain by using it as the main parameter for classifying events according to their level of significance. The collaboration produces low-latency public alerts for multi-messenger astronomy, providing information related to detected signals common to the different analytical pipelines. Not knowing in advance the preferences of the different experiences partners of the LIGO Virgo collaboration to define the optimal parameters allowing multi-messenger detections, it was decided to test another method to implement similar astrophysical information in the MBTA analysis chain. A technique for including astrophysical information directly in the parameter defining the ranking by significance level of candidate events is presented. This method makes it possible to improve research by providing better discrimination between astrophysical and background noise events. By considering the observation period O3 this method makes it possible to increase the number of detection by 10% with MBTA , detections that have been confirmed by the other chains of analysis
Style APA, Harvard, Vancouver, ISO itp.
5

Bouhaya, Lina. "Optimisation structurelle des gridshells". Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00583409.

Pełny tekst źródła
Streszczenie:
Le terme gridshell désigne une coque discrète qui est obtenue par déformation élastique d'une grille bidirectionnelle continue plane sans rigidité en cisaillement puis rigidifiée par une troisième direction de barres. Ainsi défini, un gridshell a un potentiel structural intéressant et peut répondre à des exigences architecturales complexes. La recherche de forme de ces structures a été menée à travers l'histoire principalement par deux méthodes, la méthode du filet inversé et la relaxation dynamique. Ces deux méthodes permettent d'obtenir une forme approchée de celle proposée par l'architecte, dérivant d'une grille à plat et de conditions aux limites partiellement ou complètement imposées. Dans le cadre de cette thèse, nous nous sommes intéressés à générer un gridshell sur une surface à forme et contours imposés. Un outil numérique se basant sur la méthode du compas a été développé. Il permet de mailler un réseau de Tchebychev sur une surface connaissant son équation cartésienne. Un autre outil permettant le maillage se basant sur un calcul en éléments finis explicite a été mis en œuvre. La particularité de cette technique est de pouvoir tenir en compte des propriétés mécaniques de la structure et de simuler le comportement du gridshell. Des applications des deux méthodes sur des formes architecturalement intéressantes ont permis de voir les limitations de la possibilité de mailler une forme avec un réseau de Tchebychev. La méthode du compas a ensuite été couplée à des algorithmes métaheuristiques types génétiques. L'algorithme résultant permet d'optimiser un gridshell en minimisant la courbure dans les barres et donc les contraintes dans la structure introduites lors de la mise en forme. Il a été mis en œuvre et testé pour plusieurs surfaces
Style APA, Harvard, Vancouver, ISO itp.
6

Hocine, Farida. "Approximation spectrale d'opérateurs". Saint-Etienne, 1993. http://www.theses.fr/1993STET4007.

Pełny tekst źródła
Streszczenie:
Il est bien connu que la convergence fortement stable est une condition suffisante de convergence des éléments spectraux approchées, i. E. Les valeurs propres non nulles, isolées et de multiplicité algébrique finie et les sous-espaces invariants maximaux qui leur sont associés, d'opérateurs linéaires bornés définis sur des espaces de Banach complexes. Dans ce travail, nous commençons par proposer une nouvelle notion de convergence : la convergence spectrale, que l'on montre être une condition nécessaire de convergence fortement stable et suffisante de convergence des éléments spectraux approchés. Nous donnons ensuite des conditions suffisantes de convergence spectrale moins restrictives que celles habituellement utilisées. Nous montrons également la convergence de quelques schémas de raffinement itératif pour l'approximation des bases de sous-espaces invariants maximaux, dans le cadre des méthodes de Newton inexactes et des séries de Rayleigh-Schrodinger, sous certaines des conditions suffisantes de convergence spectrale proposées. Nous donnons ensuite les résultats de quelques essais numériques
Style APA, Harvard, Vancouver, ISO itp.
7

Grimich, Karim. "Schémas compacts basés sur le résidu d'ordre élevé pour des écoulements compressibles instationnaires. Application à de la capture de fines échelles". Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0033/document.

Pełny tekst źródła
Streszczenie:
Les solveurs de calcul en mécanique des fluides numérique (solveurs CFD) ont atteint leur maturité en termes de précision et d'efficacité de calcul. Toutefois, des progrès restent à faire pour les écoulements instationnaires surtout lorsqu'ils sont régis par de grandes structures cohérentes. Pour ces écoulements, les solveurs CFD actuels n'apportent pas de solutions assez précises à moins d'utiliser des maillages très fins. De plus, la haute précision est une caractéristique cruciale pour l'application des stratégies avancées de simulation de turbulence, comme la Simulation des Grandes Echelles (LES). Afin d'appliquer les méthodes d'ordre élevé pour les écoulements instationnaires complexes plusieurs points doivent être abordés dont la robustesse numérique et la capacité à gérer des géométries complexes.Dans cette thèse, nous étudions une famille d'approximations compactes qui offrent une grande précision non pour chaque dérivée spatiale traitée séparement mais pour le résidu r complet, c'est à dire la somme de tous les termes des équations considérées. Pour des problèmes stationnaires résolus par avancement temporelle, r est le résidu à l'état stationnaire ne comprenant que des dérivées spatiales; pour des problèmes instationnaires r comprend également la dérivée temporelle. Ce type de schémas sont appelés schémas Compacts Basés sur le Résidu (RBC). Plus précisément, nous développons des schémas RBC d'ordre élevé pour des écoulements instationnaires compressibles, et menons une étude approfondie de leurs propriétés de dissipation. Nous analysons ensuite les erreurs de dissipation et la dispersion introduites par les schémas RBC afin de quantifier leur capacité à résoudre une longueur d'onde donnée en utilisant un nombre minimal de points de maillage. Les capacités de la dissipation de RBC à drainer seulement l'énergie aux petites échelles sous-résolues sont également examinées en vue de l'application des schémas RBC pour des simulations LES implicites (ILES). Enfin, les schémas RBC sont étendus à la formulation de type volumes finis (FV) afin de gérer des géométries complexes. Une formulation FV des schémas RBC d'ordre trois préservant une précision d'ordre élevé sur des maillages irréguliers est présentée et analysée. Des applications numériques, dont la simulation d'écoulements instationnaires complexes de turbomachines régis par les équations de Navier-Stokes moyennées et des simulations ILES d'écoulements turbulents dominés par des structures cohérentes dynamiques ou en décroissance, confirment les résultats théoriques
Computational Fluid Dynamics (CFD) solvers have reached maturity in terms of solution accuracy as well as computational efficiency. However, progress remains to be done for unsteady flows especially when governed by large, coherent structures. For these flows, current CFD solvers do not provide accurate solutions unless very fine mesh are used. Moreover, high-accuracy is a crucial feature for the application of advanced turbulence simulation strategies, like Large Eddy Simulation (LES). In order to apply high-order methods to complex unsteady flows several issues needs to be addressed among which numerical robustness and the capability of handling complex geometries.In the present work, we study a family of compact approximations that provide high accuracy not for each space derivative treated apart but for the complete residual r, i.e. the sum of all of the terms in the governing equations. For steady problems solved by time marching, r is the residual at steady state and it involves space derivatives only; for unsteady problems, r also includes the time derivative. Schemes of this type are referred-to as Residual-Based Compact (RBC). Precisely, we design high-order finite difference RBC schemes for unsteady compressible flows, and provide a comprehensive study of their dissipation properties. The dissipation and dispersion errors introduced by RBC schemes are investigated to quantify their capability of resolving a given wave length using a minimal number of grid-points. The capabilities of RBC dissipation to drain energy only at small, ill-resolved scales are also discussed in view of the application of RBC schemes to implicit LES (ILES) simulations. Finally, RBC schemes are extended to the Finite Volume (FV) framework in order to handle complex geometries. A high-order accuracy preserving FV formulation of the third-order RBC scheme for general irregular grids is presented and analysed. Numerical applications, including complex Reynolds-Averaged Navier-Stokes unsteady simulation of turbomachinery flows and ILES simulations of turbulent flows dominated by coherent structure dynamics or decay, support the theoretical results
Style APA, Harvard, Vancouver, ISO itp.
8

Outtier, Pierre-Yves. "Architecture novatrice de code dynamique : application au développement d'un solveur compact d'ordre élevé pour l'aérodynamique compressible dans des maillages recouvrants". Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0029.

Pełny tekst źródła
Streszczenie:
L'utilisation de schémas numériques d'ordre élevé est généralement restreinte à des applications de recherche mettant en jeu des phénomènes physiques complexes mais des géométries simples à l'aide de maillages Cartésiens ou faiblement déformés. Il existe une demande pour une nouvelle génération de codes industriels ayant une précision accrue. Dans ce travail, nous avons été amenés à répondre à la question générale sur la façon de concevoir l'architecture d'un code CFD pouvant prendre en compte une variété de configurations géométriquement complexes, restant assez simple et permettant facilement l'implantation de nouvelles idées (méthodes numériques, modèles) avec un effort de développement minimal, et utilisant des schémas numériques d'ordre élevé ainsi que des modèles physiques avancés. Cela a nécessité des choix innovants en termes de langages de programmation, structure de données et stockage, et sur l'architecture de code, choix qui vont au-delà du simple développement d'une famille spécifique de schémas numériques. Une solution (code DynHoLab) alliant les langages Python et Fortran est proposé avec les détails sur les concepts à la base de l'architecture du code. Les méthodes numériques implantées dans le code sont validées sur des cas-tests de complexité croissante, démontrant en passant la variété des physiques et géométries actuellement réalisables avec DynHoLab. Puis, basé sur ce code, ce travail présente un moyen de gérer des géométries complexes tout en augmentant le degré de précision des méthodes numériques. Afin d'appliquer les régimes d'ordre élevé RBC à des géométries complexes, la stratégie actuelle consiste en une mise en œuvre multi-domaine sur des maillages recouvrants
High-order numerical schemes are usually restricted to research applications, involving highly complex physical phenomena but simple geometries, and regular Cartesian or lowly deformed meshes. A demand exists for a new generation of industrial codes of increased accuracy. In this work, we were led to address the general question of how to design a CFD code architecture that: can take into account a variety of possibly geometrically complex configurations; remains simple and modular enough to facilitate the introduction and testing of new ideas (numerical methods, models) with a minimal development effort; use high-order numerical discretizations and advanced physical models. This required some innovative choices in terms of programming languages, data structure and storage, and code architecture, which go beyond the mere development of a specific family of numerical schemes. A solution mixing Python and Fortran languages is proposed with details on the concepts at the basis of the code architecture. The numerical methods are validated on test-cases of increasing complexity, demonstrating at the same time the variety of physics and geometry currently achievable with DynHoLab. Then, based on the computational framework designed, this work presents a way to handle complex geometries while increasing the order of accuracy of the numerical methods. In order to apply high-order RBC schemes to complex geometries, the present strategy consists in a multi-domain implementation on overlapping structured meshes
Style APA, Harvard, Vancouver, ISO itp.
9

Gérald, Sophie. "Méthode de Galerkin Discontinue et intégrations explicites-implicites en temps basées sur un découplage des degrés de liberté : Applications au système des équations de Navier-Stokes". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00943621.

Pełny tekst źródła
Streszczenie:
En mécanique des fluides numérique, un enjeu est le développement de méthodes d'approximation d'ordre élevé, comme celles de Galerkin Discontinues (GD). Si ces méthodes permettent d'envisager la simulation d'écoulements complexes en alternative aux méthodes usuelles d'ordre deux, elles souffrent cependant d'une forte restriction sur le pas de temps lorsqu'elles sont associées à une discrétisation explicite en temps. Ce travail de thèse consiste à mettre en œuvre une stratégie d'intégration temporelle explicite-implicite efficace, associée à une discrétisation spatiale GD d'ordre élevé, pour les écoulements instationnaires à convection dominante de fluides visqueux compressibles modélisés par le système des équations de Navier-Stokes. La discrétisation spatiale de la méthode GD est associée à des flux numériques de fluides parfaits et visqueux à stencil compact. En présence de frontières matérielles courbes, l'ordre élevé est garanti par la discrétisation du domaine de calcul à l'aide d'une représentation iso-paramétrique. La stratégie d'intégration temporelle repose sur une décomposition d'opérateurs de Strang, où les termes de convection sont résolus explicitement et ceux de diffusion implicitement. Son efficacité résulte d'une simplification du schéma implicite, où le calcul de la matrice implicite est approché avec une méthode sans jacobienne et où les degrés de liberté du schéma sont découplés. De fait, la taille du système linéaire à résoudre et le temps de calcul de la résolution sont significativement réduits. Enfin, la validation et l'évaluation des performances du schéma numérique sont réalisées à travers cinq cas tests bien référencés en deux dimensions d'espace.
Style APA, Harvard, Vancouver, ISO itp.
10

Znidarcic, Anton. "Un nouvel algoritme pour la simulation DNS et LES des ecoulements cavitants". Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0056/document.

Pełny tekst źródła
Streszczenie:
Le couplage diphasique-turbulence est une propriété clé des écoulements cavitants, qui est un frein important à l’amélioration des modèles de cavitation et de turbulence. Réaliser des simulations directes (DNS) est le moyen proposé ici pour s’affranchir du modèle de turbulence et obtenir des informations nouvelles sur les phénomènes mis en jeu. Ce type de simulation est exigeant sur le plan numérique, et requiert le développement d’un solveur spécifique intégrant les spécificités des modèles de cavitation. Cela inclue notamment des schémas de discrétisation d’ordre élevé, un solveur direct, et une résolution multi-domaines associée à une parrallélisation efficace. Une discrétisation par différences compactes finies s’avère être le meilleur choix. La contrainte de rapidité et de parrallélisation impose un algorithme où les systèmes résoudre n’impliquent des multiplications des variables implicites que par des coefficients invariants au cours du calcul. Un nouvel algorithme réunissant ces critères a été développé durant cette thèse, à partir de la combinaison de la méthode de Concus & Golub et d’une méthode de projection, qui permet de résoudre les équations associées à la modélisation homogène de la cavitation. Une nouvelle approche de vérification de ce nouvel algorithme est également proposée et mise en œuvre sur la base de la méthode des solutions manufacturées (MMS)
Cavitation-turbulence interactions are problematic aspect of cavitating flows which imposes limitations in development of better cavitation and turbulence models. DNS simulations with homogeneous mixture approach are proposed to overcome this and offer more insight into the phenomena. As DNS simulations are highly demanding and a variety of cavitation models exists, a tool devoted specifically to them is needed. Such tools usually demand application of highly accurate discretization schemes, direct solvers and multi domain methods enabling good scaling of the codes. As typical cavitating flow geometries impose limits on suitable discretization methods, compact finite differences offer the most appropriate discretization tool. The need for fast solvers and good code scalability leads to request for an algorithm, capable of stable and accurate cavitating flow simulations where solved systems feature multiplication of implicitly treated variables only by constant coefficients. A novel algorithm with such ability was developed in the scope of this work using Concus and Golub method introduced into projection methods, through which the governing equations for homogeneous mixture modeling of cavitating flows can be resolved. Work also proposes an effective and new approach for verification of the new and existing algorithms on the basis of Method of Manufactured Solutions
Style APA, Harvard, Vancouver, ISO itp.
11

Zenoni, Florian. "Study of Triple-GEM detectors for the CMS muon spectrometer upgrade at LHC and study of the forward-backward charge asymmetry for the search of extra neutral gauge bosons". Doctoral thesis, Universite Libre de Bruxelles, 2016. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/229354.

Pełny tekst źródła
Streszczenie:
Cette thèse de doctorat a pour cadre l’expérience CMS auprès du grand collisionneur de protons du CERN, le LHC. Le LHC, qui a permis la découverte en 2012 du boson de Brout-Englert-Higgs, est destiné à fonctionner pour encore 20 ans, avec une luminosité qui croîtra progressivement pour atteindre d’ici 2025 la valeur de 7.5 x 10^34 cm^-2 s^-1, c'est à dire environ cinq fois la valeur initialement prévue. Ceci a pour conséquence que les expériences doivent s’adapter et mettre à niveau une série de leurs composants et détecteurs. Une des prochaines mises à niveau de l’expérience CMS concerne les détecteurs Triple Gas Electron Multiplier (GEM) qui sont actuellement en développement pour la partie avant du spectromètre à muons de l’expérience. Ces détecteurs seront installés dans CMS durant le deuxième long arrêt du LHC, en 2018-2019, appelé LS2. Cette mise à niveau a pour but de contrôler les taux de déclenchement d’événements pour la détection de muons, grâce à la haute performance de ces détecteurs Triple GEM en présence de taux de particules extrêmement élevés (>1 kHz/cm^2). De plus, grâce à sa très bonne résolution spatiale (~250 um), la technologie GEM peut améliorer la reconstruction des traces de muons et la capacité d’identification du détecteur avant.Le but de mon travail de recherche est d’estimer la sensitivité des Triple GEMs à l’environnement de radiation hostile dans CMS, essentiellement composé de neutrons et de photons produits lors des interactions entre les particules et les détecteurs constituant l’expérience CMS. L’estimation précise de cette sensitivité est très importante, car une sous-estimation pourrait avoir des effets désastreux pour l’efficacité des Triple GEMs une fois installés dans CMS. Pour valider mes simulations, j’ai également reproduit des résultats expérimentaux obtenus avec d’autres détecteurs similaires déjà installés dans CMS, tels que les Resistive Plate Chambers (RPC).La deuxième partie de mon travail concerne l’étude de la capacité de l’expérience CMS à discerner différents modèles de nouvelle physique prédisant l’existence de bosons vecteurs, appelés Z'. Ces modèles font partie des extensions plausibles du Modèle Standard. En particulier, l’analyse se concentre sur des simulations dans lesquelles le Z' se désintègre en deux muons, et sur l’impact que les mises à niveau avec les détecteurs Triple GEM apporteront à ces mesures tout le long de la phase de haute intensité du LHC. Mes simulations montrent que plus de 20% des événements simulés comptent au moins un muon dans la région en pseudo-rapidité (eta) de CMS couverte par les détecteurs Triple GEM. Les résultats préliminaires démontrent que, dans le case de modèles à 3 TeV/c^2, il sera possible dès la fin de la Phase I de distinguer un Z'I d'un Z'SSM avec un niveau de signification alpha > 3 sigma.
This PhD thesis takes place in the CMS experiment at CERN's Large Hadron Collider (LHC). The LHC allowed the discovery of the Brout-Englert-Higgs boson in 2012, and is designed to run for at least 20 years, with an increasing luminosity that will reach by 2025 a value of 7.5 x 10^34 cm^-2 s^-1, that is a yield five times greater than the one initially intended. As a consequence, the experiments must adapt and upgrade many of their components and particle detectors. One of the foreseen upgrades of the CMS experiment concerns the Triple Gas Electron Multiplier (GEM) detectors, currently in development for the forward muon spectrometer. These detectors will be installed in CMS during the second long LHC shutdown (LS2), in 2018-2019. The aim of this upgrade is to better control the event trigger rate at Level 1 for muon detection, thanks to the high performance of these Triple GEM detectors, in presence of very high particle rates (>1 kHz/cm^2). Moreover, thanks to its excellent spatial resolution (~250 um), the GEM technology can improve the muon track reconstruction and the identification capability of the forward detector.The goal of my research is to estimate the sensitivity of Triple GEMs to the hostile background radiation in CMS, essentially made of neutron and photons generated by the interaction between the particles and CMS detectors. The accurate evaluation of this sensitivity is very important, as an underestimation could have ruinous effects of the Triple GEMs efficiency, once they are installed in CMS. To validate my simulations, I have reproduced experimental results obtained with similar detectors already installed in CMS, such as the Resistive Plate Chambers (RPC).The second part of my work regards the study of the CMS experiment capability to discriminate between different models of new physics predicting the existence of neutral vector bosons called Z'. These models belong to plausible extensions of the Standard Model. In particular, the analysis is focused on simulated samples in which the Z' decays in two muons, and on the impact that the Triple GEM detectors upgrades will bring to these measurements during the high luminosity phase of the LHC, called Phase II. My simulations prove that more than 20% of the simulated events see at least one muon in the CMS pseudo-rapidity (eta) region covered by Triple GEM detectors. Preliminary results show that, in the case of 3 TeV/c^2 models, it will be possible already at the end of Phase I to discriminate a Z'I from a Z'SSM with a significance level alpha > 3 sigma.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
Style APA, Harvard, Vancouver, ISO itp.
12

Ghaffari, Dehkharghani Seyed Amin. "Simulations numériques d’écoulements incompressibles interagissant avec un corps déformable : application à la nage des poissons". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4369/document.

Pełny tekst źródła
Streszczenie:
Une méthode numérique précise et efficace est proposée pour la simulation de corps déformables interagissant avec un écoulement incompressible. Les équations de Navier-Stokes, considérées dans leur formulation vorticité fonction de courant, sont discrétisées temporellement et spatialement à l'aide respectivement d'un schéma d'ordre 4 de Runge-Kutta et par des différences finies compactes. Grâce à l'utilisation d'un maillage uniforme, nous proposons un nouveau solveur direct au quatrième ordre pour l'équation de Poisson, permettant de garantir l'incompressibilité au zéro machine sur une grille optimale. L'introduction d'un corps déformable dans l'écoulement de fluide est réalisée au moyen d'une méthode de pénalisation de volume. La déformation du corps est imposée par l'utilisation d'un maillage lagrangien structuré mobile qui interagit avec le fluide environnant en raison des forces hydrodynamiques et du moment (calculés sur le maillage eulérien de référence). Une loi de contrôle efficace de la courbure d'un poisson anguilliforme nageant vers une cible prescrite est proposée. La méthode numérique développée prouve son efficacité et précision tant dans le cas de la nage du poisson mais aussi plus d'un grand nombre de problèmes d'interactions fluide-structure
We present an efficient algorithm for simulation of deformable bodies interacting with two-dimensional incompressible flows. The temporal and spatial discretizations of the Navier--Stokes equations in vorticity stream-function formulation are based on classical fourth-order Runge--Kutta and compact finite differences, respectively. Using a uniform Cartesian grid we benefit from the advantage of a new fourth-order direct solver for the Poisson equation to ensure the incompressibility constraint down to machine zero over an optimal grid. For introducing a deformable body in fluid flow, the volume penalization method is used. A Lagrangian structured grid with prescribed motion covers the deformable body which is interacting with the surrounding fluid due to the hydrodynamic forces and the torque calculated on the Eulerian reference grid. An efficient law for controlling the curvature of an anguilliform fish, swimming toward a prescribed goal, is proposed which is based on the geometrically exact theory of nonlinear beams and quaternions. Validation of the developed method shows the efficiency and expected accuracy of the algorithm for fish-like swimming and also for a variety of fluid/solid interaction problems
Style APA, Harvard, Vancouver, ISO itp.
13

Chevillon, Nicolas. "Etude et modélisation compacte du transistor FinFET ultime". Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00750928.

Pełny tekst źródła
Streszczenie:
Une des principales solutions technologiques liées à la réduction d'échelle de la technologie CMOS est aujourd'hui clairement orientée vers les transistors MOSFET faiblement dopés à multiples grilles. Ceux-ci proposent une meilleure immunité contre les effets canaux courts comparés aux transistors MOSFET bulk planaires (cf. ITRS 2011). Parmi les MOSFETs à multiples grilles, le transistor FinFET SOI est un candidat intéressant de par la similarité de son processus de fabrication avec la technologie des transistors planaires. En parallèle, il existe une réelle attente de la part des concepteurs et des fonderies à disposer de modèles compacts efficaces numériquement, précis et proches de la physique, insérés dans les " design tools " permettant alors d'étudier et d'élaborer des circuits ambitieux en technologie FinFET. Cette thèse porte sur l'élaboration d'un modèle compact orienté conception du transistor FinFET valide aux dimensions nanométriques. Ce modèle prend en compte les effets canaux courts, la modulation de longueur de canal, la dégradation de la mobilité, leseffets de mécanique quantique et les transcapacités. Une validation de ce modèle est réalisée par des comparaisons avec des simulations TCAD 3D. Le modèle compact est implémenté en langage Verilog-A afin de simuler des circuits innovants à base de transistors FinFET. Une modélisation niveau-porte est développée pour la simulation de circuits numériques complexes. Cette thèse présente également un modèle compact générique de transistors MOSFET SOI canaux long faiblement dopés à multiple grilles. La dépendance à la température est prise en compte. Selon un concept de transformation géométrique, notre modèle compact du transistor MOSFET double grille planaire est étendu pour s'appliquer à tout autre type de transistor MOSFET à multiple grille (MuGFET). Une validation expérimentale du modèle MuGFET sur un transistor triple grille est proposée. Cette thèse apporte enfin des solutions pour la modélisation des transistors MOSFET double grille sans jonction.
Style APA, Harvard, Vancouver, ISO itp.
14

Bouffanais, Yann. "Bayesian inference for compact binary sources of gravitational waves". Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC197/document.

Pełny tekst źródła
Streszczenie:
La première détection des ondes gravitationnelles en 2015 a ouvert un nouveau plan d'étude pour l'astrophysique des étoiles binaires compactes. En utilisant les données des détections faites par les détecteurs terrestres advanced LIGO et advanced Virgo, il est possible de contraindre les paramètres physiques de ces systèmes avec une analyse Bayésienne et ainsi approfondir notre connaissance physique des étoiles binaires compactes. Cependant, pour pouvoir être en mesure d'obtenir de tels résultats, il est essentiel d’avoir des algorithmes performants à la fois pour trouver les signaux de ces ondes gravitationnelles et pour l'estimation de paramètres. Le travail de cette thèse a ainsi été centré autour du développement d’algorithmes performants et adaptées au problème physique à la fois de la détection et de l'estimation des paramètres pour les ondes gravitationnelles. La plus grande partie de ce travail de thèse a ainsi été dédiée à l'implémentation d’un algorithme de type Hamiltonian Monte Carlo adapté à l'estimation de paramètres pour les signaux d’ondes gravitationnelles émises par des binaires compactes formées de deux étoiles à neutrons. L'algorithme développé a été testé sur une sélection de sources et a été capable de fournir de meilleures performances que d'autres algorithmes de type MCMC comme l'algorithme de Metropolis-Hasting et l'algorithme à évolution différentielle. L'implémentation d'un tel algorithme dans les pipelines d’analyse de données de la collaboration pourrait augmenter grandement l'efficacité de l'estimation de paramètres. De plus, il permettrait également de réduire drastiquement le temps de calcul nécessaire, ce qui est un facteur essentiel pour le futur où de nombreuses détections sont attendues. Un autre aspect de ce travail de thèse a été dédié à l'implémentation d'un algorithme de recherche de signaux gravitationnelles pour les binaires compactes monochromatiques qui seront observées par la future mission spatiale LISA. L'algorithme est une mixture de plusieurs algorithmes évolutionnistes, avec notamment l'inclusion d'un algorithme de Particle Swarm Optimisation. Cette algorithme a été testé dans plusieurs cas tests et a été capable de trouver toutes les sources gravitationnelles comprises dans un signal donné. De plus, l'algorithme a également été capable d'identifier des sources sur une bande de fréquence aussi grande que 1 mHz, ce qui n'avait pas été réalisé au moment de cette étude de thèse
The first detection of gravitational waves in 2015 has opened a new window for the study of the astrophysics of compact binaries. Thanks to the data taken by the ground-based detectors advanced LIGO and advanced Virgo, it is now possible to constrain the physical parameters of compact binaries using a full Bayesian analysis in order to increase our physical knowledge on compact binaries. However, in order to be able to perform such analysis, it is essential to have efficient algorithms both to search for the signals and for parameter estimation. The main part of this thesis has been dedicated to the implementation of a Hamiltonian Monte Carlo algorithm suited for the parameter estimation of gravitational waves emitted by compact binaries composed of neutron stars. The algorithm has been tested on a selection of sources and has been able to produce better performances than other types of MCMC methods such as Metropolis-Hastings and Differential Evolution Monte Carlo. The implementation of the HMC algorithm in the data analysis pipelines of the Ligo/Virgo collaboration could greatly increase the efficiency of parameter estimation. In addition, it could also drastically reduce the computation time associated to the parameter estimation of such sources of gravitational waves, which will be of particular interest in the near future when there will many detections by the ground-based network of gravitational wave detectors. Another aspect of this work was dedicated to the implementation of a search algorithm for gravitational wave signals emitted by monochromatic compact binaries as observed by the space-based detector LISA. The developed algorithm is a mixture of several evolutionary algorithms, including Particle Swarm Optimisation. This algorithm has been tested on several test cases and has been able to find all the sources buried in a signal. Furthermore, the algorithm has been able to find the sources on a band of frequency as large as 1 mHz which wasn’t done at the time of this thesis study
Style APA, Harvard, Vancouver, ISO itp.
15

Pujol, Hadrien. "Antennes microphoniques intelligentes : localisation de sources acoustiques par Deep Learning". Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC025.

Pełny tekst źródła
Streszczenie:
Pour ma thèse de doctorat, je propose d’explorer la piste de l’apprentissage supervisé, pour la tâche de localisation de sources acoustiques. Pour ce faire, j’ai développé une nouvelle architecture de réseau de neurones profonds. Mais, pour optimiser les millions de variables d’apprentissages de ce réseau, une base de données d’exemples conséquente est nécessaire. Ainsi, deux approches complémentaires sont proposées pour constituer ces exemples. La première est de réaliser des simulations numériques d’enregistrements microphoniques. La seconde, est de placer une antenne de microphones au centre d’une sphère de haut-parleurs qui permet de spatialiser les sons en 3D, et d’enregistrer directement sur l’antenne de microphones les signaux émis par ce simulateur expérimental d’ondes sonores 3D. Le réseau de neurones a ainsi pu être testé dans différentes conditions, et ses performances ont pu être comparées à celles des algorithmes conventionnels de localisation de sources acoustiques. Il en ressort que cette approche permet une localisation généralement plus précise, mais aussi beaucoup plus rapide que les algorithmes conventionnels de la littérature
For my PhD thesis, I propose to explore the path of supervised learning, for the task of locating acoustic sources. To do so, I have developed a new deep neural network architecture. But, to optimize the millions of learning variables of this network, a large database of examples is needed. Thus, two complementary approaches are proposed to constitute these examples. The first is to carry out numerical simulations of microphonic recordings. The second one is to place a microphone antenna in the center of a sphere of loudspeakers which allows to spatialize the sounds in 3D, and to record directly on the microphone antenna the signals emitted by this experimental 3D sound wave simulator. The neural network could thus be tested under different conditions, and its performances could be compared to those of conventional algorithms for locating acoustic sources. The results show that this approach allows a generally more precise localization, but also much faster than conventional algorithms in the literature
Style APA, Harvard, Vancouver, ISO itp.
16

Dinh, Van Duong. "Strichartz estimates and the nonlinear Schrödinger-type equations". Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30247/document.

Pełny tekst źródła
Streszczenie:
Cette thèse est consacrée à l'étude des aspects linéaires et non-linéaires des équations de type Schrödinger [ i partial_t u + |nabla|^sigma u = F, quad |nabla| = sqrt {-Delta}, quad sigma in (0, infty).] Quand $sigma = 2$, il s'agit de l'équation de Schrödinger bien connue dans de nombreux contextes physiques tels que la mécanique quantique, l'optique non-linéaire, la théorie des champs quantiques et la théorie de Hartree-Fock. Quand $sigma in (0,2) backslash {1}$, c'est l'équation Schrödinger fractionnaire, qui a été découverte par Laskin (voir par exemple cite{Laskin2000} et cite{Laskin2002}) en lien avec l'extension de l'intégrale de Feynman, des chemins quantiques de type brownien à ceux de Lévy. Cette équation apparaît également dans des modèles de vagues (voir par exemple cite{IonescuPusateri} et cite{Nguyen}). Quand $sigma = 1$, c'est l'équation des demi-ondes qui apparaît dans des modèles de vagues (voir cite{IonescuPusateri}) et dans l'effondrement gravitationnel (voir cite{ElgartSchlein}, cite{FrohlichLenzmann}). Quand $sigma = 4$, c'est l'équation Schrödinger du quatrième ordre ou biharmonique introduite par Karpman cite{Karpman} et par Karpman-Shagalov cite{KarpmanShagalov} pour prendre en compte le rôle de la dispersion du quatrième ordre dans la propagation d'un faisceau laser intense dans un milieu massif avec non-linéarité de Kerr. Cette thèse est divisée en deux parties. La première partie étudie les estimations de Strichartz pour des équations de type Schrödinger sur des variétés comprenant l'espace plat euclidien, les variétés compactes sans bord et les variétés asymptotiquement euclidiennes. Ces estimations de Strichartz sont utiles pour l'étude de l'équations dispersives non-linéaire à régularité basse. La seconde partie concerne l'étude des aspects non-linéaires tels que les caractères localement puis globalement bien posés sous l'espace d'énergie, ainsi que l'explosion de solutions peu régulières pour des équations non-linéaires de type Schrödinger. [...]
This dissertation is devoted to the study of linear and nonlinear aspects of the Schrödinger-type equations [ i partial_t u + |nabla|^sigma u = F, quad |nabla| = sqrt {-Delta}, quad sigma in (0, infty).] When $sigma = 2$, it is the well-known Schrödinger equation arising in many physical contexts such as quantum mechanics, nonlinear optics, quantum field theory and Hartree-Fock theory. When $sigma in (0,2) backslash {1}$, it is the fractional Schrödinger equation, which was discovered by Laskin (see e.g. cite{Laskin2000} and cite{Laskin2002}) owing to the extension of the Feynman path integral, from the Brownian-like to Lévy-like quantum mechanical paths. This equation also appears in the water waves model (see e.g. cite{IonescuPusateri} and cite{Nguyen}). When $sigma = 1$, it is the half-wave equation which arises in water waves model (see cite{IonescuPusateri}) and in gravitational collapse (see cite{ElgartSchlein}, cite{FrohlichLenzmann}). When $sigma =4$, it is the fourth-order or biharmonic Schrödinger equation introduced by Karpman cite {Karpman} and by Karpman-Shagalov cite{KarpmanShagalov} taking into account the role of small fourth-order dispersion term in the propagation of intense laser beam in a bulk medium with Kerr nonlinearity. This thesis is divided into two parts. The first part studies Strichartz estimates for Schrödinger-type equations on manifolds including the flat Euclidean space, compact manifolds without boundary and asymptotically Euclidean manifolds. These Strichartz estimates are known to be useful in the study of nonlinear dispersive equation at low regularity. The second part concerns the study of nonlinear aspects such as local well-posedness, global well-posedness below the energy space and blowup of rough solutions for nonlinear Schrödinger-type equations.[...]
Style APA, Harvard, Vancouver, ISO itp.
17

Scipioni, Angel. "Contribution à la théorie des ondelettes : application à la turbulence des plasmas de bord de Tokamak et à la mesure dimensionnelle de cibles". Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10125.

Pełny tekst źródła
Streszczenie:
La nécessaire représentation en échelle du monde nous amène à expliquer pourquoi la théorie des ondelettes en constitue le formalisme le mieux adapté. Ses performances sont comparées à d'autres outils : la méthode des étendues normalisées (R/S) et la méthode par décomposition empirique modale (EMD).La grande diversité des bases analysantes de la théorie des ondelettes nous conduit à proposer une approche à caractère morphologique de l'analyse. L'exposé est organisé en trois parties.Le premier chapitre est dédié aux éléments constitutifs de la théorie des ondelettes. Un lien surprenant est établi entre la notion de récurrence et l'analyse en échelle (polynômes de Daubechies) via le triangle de Pascal. Une expression analytique générale des coefficients des filtres de Daubechies à partir des racines des polynômes est ensuite proposée.Le deuxième chapitre constitue le premier domaine d'application. Il concerne les plasmas de bord des réacteurs de fusion de type tokamak. Nous exposons comment, pour la première fois sur des signaux expérimentaux, le coefficient de Hurst a pu être mesuré à partir d'un estimateur des moindres carrés à ondelettes. Nous détaillons ensuite, à partir de processus de type mouvement brownien fractionnaire (fBm), la manière dont nous avons établi un modèle (de synthèse) original reproduisant parfaitement la statistique mixte fBm et fGn qui caractérise un plasma de bord. Enfin, nous explicitons les raisons nous ayant amené à constater l'absence de lien existant entre des valeurs élevées du coefficient d'Hurst et de supposées longues corrélations.Le troisième chapitre est relatif au second domaine d'application. Il a été l'occasion de mettre en évidence comment le bien-fondé d'une approche morphologique couplée à une analyse en échelle nous ont permis d'extraire l'information relative à la taille, dans un écho rétrodiffusé d'une cible immergée et insonifiée par une onde ultrasonore
The necessary scale-based representation of the world leads us to explain why the wavelet theory is the best suited formalism. Its performances are compared to other tools: R/S analysis and empirical modal decomposition method (EMD). The great diversity of analyzing bases of wavelet theory leads us to propose a morphological approach of the analysis. The study is organized into three parts. The first chapter is dedicated to the constituent elements of wavelet theory. Then we will show the surprising link existing between recurrence concept and scale analysis (Daubechies polynomials) by using Pascal's triangle. A general analytical expression of Daubechies' filter coefficients is then proposed from the polynomial roots. The second chapter is the first application domain. It involves edge plasmas of tokamak fusion reactors. We will describe how, for the first time on experimental signals, the Hurst coefficient has been measured by a wavelet-based estimator. We will detail from fbm-like processes (fractional Brownian motion), how we have established an original model perfectly reproducing fBm and fGn joint statistics that characterizes magnetized plasmas. Finally, we will point out the reasons that show the lack of link between high values of the Hurst coefficient and possible long correlations. The third chapter is dedicated to the second application domain which is relative to the backscattered echo analysis of an immersed target insonified by an ultrasonic plane wave. We will explain how a morphological approach associated to a scale analysis can extract the diameter information
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii