Academic literature on the topic 'Méthode ComBat'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Méthode ComBat.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Méthode ComBat"

1

Dossa, Alfred Bothé Kpadé. "Lutte contre la dégradation des terres agricoles dans le département du Couffo au Bénin." International Journal of Biological and Chemical Sciences 14, no. 6 (October 6, 2020): 2147–59. http://dx.doi.org/10.4314/ijbcs.v14i6.17.

Full text
Abstract:
La dégradation des terres, causée par l’action des eaux et du vent, renforcée par les activités humaines, réduit le rendement et les revenus agricoles et fait baisser la croissance économique notamment dans les pays pauvres comme le Bénin. L’objectif de cette recherche était d’estimer le financement du programme de lutte contre la dégradation des terres dans le département du Couffo, au Sud-Ouest du Bénin. La méthode d’évaluation contingente (MEC) a permis d’obtenir le consentement à payer (CAP) des ménages à l’aide du modèle probit. Ensuite le modèle tobit (Tobin, 1958) est testé par la méthode à deux étapes de Heckman (1979) pour contrôler le biais de sélection de l’échantillon de 267 ménages. Les résultats de l’estimation donnent un CAP moyen de 1557 FCFA / mois / hectare. Pour une campagne agricole de 201 739 hectares en 2019, le CAP total est évalué à 3 769 291 476 FCFA/an. Ce montant permettra de lutter contre la dégradation des terres agricoles dans le Couffo au Bénin.Mots clés : Dégradation des terres, modèle de sélection, Couffo, Bénin. English Title: Fighting against agricultural land degradation in the Couffo division in BeninLand degradation, caused by the action of water and wind, reinforced by human activities, reduces agricultural yields and incomes and lowers economic growth, especially in poor countries like Benin. The objective of this research was to estimate the funding of the program to combat land degradation in the division of Couffo, in the southwest of Benin. The contingent valuation method (CVM) obtained households' willingness to pay (WTP) using the probit model. Then the tobit (Tobin, 1958) model is tested by Heckman's two-step method (Heckman, 1979) to control the sample selection bias of 267 households. The results of the estimate give an average WTP of 1,557 FCFA / month / hectare. For an agricultural campaign of 201,739 hectares in 2019, the total WTP is estimated at 3,769,291,476 FCFA / year. This amount will help combat the degradation of agricultural land in Couffo, Benin.Keywords: Land degradation, selection model, Couffo, Benin.
APA, Harvard, Vancouver, ISO, and other styles
2

Boulad-Ayoub, Josiane. "Diderot et d'Holbach: un système matérialiste de la nature." Dialogue 24, no. 1 (1985): 59–90. http://dx.doi.org/10.1017/s0012217300045996.

Full text
Abstract:
Je n'examinerai, au cours de cet article, que I'un des aspects du matérialisme de Diderot: la physionomie du théoricien de la nature, de l'auteur de I' Interprétation de la Nature (1753), du Rêve de d'Alembert (1769). Ces oeuvres versent au dossier du développement de la philosophie des sciences de la nature, une doctrine, le materialisme; une methodologie; un programme de recherche. Mais sur ce sujet on ne peut guere separer la réflexion de Diderot de celle de son ami d'Holbach, réflexion qui lui est complementaire. D'Holbach rencontre les thèses de Diderot et surtout les systématisent. L'enjeu principal de cette systématisation est la diffusion des idées et du programme du « parti des philosophes ». Il s'agit de mettre à la disposition du combat encyclopediste le nouveau Discours de la méthode des sciences expérimentales, sous forme manipulable d'un code, le Code de la Nature. « Système de la Nature », l'expression empruntee au titre de l'ouvrage célèbre du baron, paru en 1779, manifeste cette intention polémique/politique. D'Holbach nomme ainsi son ouvrage, même si à cette époque on entend par opposition au mathematisme cartésien, s'entenir, contre tout système, à l'expérience, à la leçon des faits.
APA, Harvard, Vancouver, ISO, and other styles
3

Dumont, Fernand. "Essor et déclin du Canada français." Recherche 38, no. 3 (April 12, 2005): 419–67. http://dx.doi.org/10.7202/057149ar.

Full text
Abstract:
Dès le lendemain de la parution de sa Genèse de la société québécoise, en 1993, Fernand Dumont s'attaquait à l'ouvrage qui devait en être la suite sous le titre L'avènement du Québec contemporain. Il savait l'entreprise extrêmement exigeante et, comme le révèlent ses mémoires, il avait lucidement envisagé qu'il pourrait ne pas la mener à terme, qu'elle demeurerait un chantier ouvert comme plusieurs autres projets d'écriture. Tout en menant son combat contre le cancer qui l'a emporté le V mai 1997, et en plus de rédiger Raisons communes, Une foi partagée et des mémoires, Fernand Dumont a tout de même réussi à compléter la rédaction de ce qui devait être le premier chapitre de L'avènement du Québec contemporain. C'est ce texte sur l'essor et le déclin du Canada français qui constitue la matière de l'article inséré dans ce numéro conçu pour rendre hommage à Fernand Dumont et à son œuvre. L'exposé forme un tout en soi, mais on aura sans doute intérêt à le lire en ayant à l'esprit les principes de méthode exposés dans l'appendice à la Genèse intitulé « Présupposés et justifications ». L'introduction qu'il avait rédigée à L'avènement du Québec contemporain indiquait que les mêmes principes inspiraient la conception de l'ouvrage mis en chantier.
APA, Harvard, Vancouver, ISO, and other styles
4

Rubinoff, Kailan R. "Toward a Revolutionary Model of Music Pedagogy." Journal of Musicology 34, no. 4 (2017): 473–514. http://dx.doi.org/10.1525/jm.2017.34.4.473.

Full text
Abstract:
Established in 1795 in the aftermath of the French Revolution, the Paris Conservatoire emerged from a training school for National Guard musicians. Aligned with the French Republic’s broader educational reforms, the Conservatoire was marked by its secularization, standardized curriculum, military-style discipline, and hierarchical organization. Among its most ambitious achievements was the publication of new instruction treatises from 1799 to 1814. Covering elementary theory, solfège, harmony, and all the major instruments, these methods articulated the Conservatoire’s pedagogy and circulated widely in nineteenth-century Europe. Hugot and Wunderlich’s Méthode de flûte (1804) exemplifies the Conservatoire’s approach, making a distinct break from methods published only a few years earlier: abstract technical drills predominate, evenness of tone quality in all key areas is emphasized, and the instruction of improvisation is curtailed. Airs, brunettes, and other pieces typical of ancien régime tutors are replaced with exercises demanding repetitive practicing. Meticulous instructions for the mastery of the flute’s four-key mechanism bear a striking resemblance to rifle-handling directions in contemporary military training and combat manuals by Jacques-Antoine-Hippolyte, Comte de Guibert, and others. The Conservatoire instruction manuals serve not only as guidebooks to historical fingerings and period performance style; they also can be read as social and political texts. Meant to advance a more rational music pedagogy, these treatises show the extent to which the military model permeated everyday life in post-revolutionary France. Further, they demonstrate a new conception of musical training beyond personal development toward the creation of professional musicians serving a patriotic, republican function. The treatise thus becomes what Michel Foucault calls a “simple instrument,” disciplining musicians’ bodies for the political goals of the state.
APA, Harvard, Vancouver, ISO, and other styles
5

Resta, Giorgio. "Les luttes de clocher en droit comparé." McGill Law Journal 62, no. 4 (February 2, 2018): 1153–99. http://dx.doi.org/10.7202/1043163ar.

Full text
Abstract:
Depuis la genèse du « comparatisme », attitude caractéristique du XIXe siècle, plusieurs disciplines scientifiques ont affirmées leur identité « comparative ». Toutefois, dans la plupart de ces disciplines la comparaison a été comprise et appliquée selon plusieurs variantes. Les différentes manières de comparer prennent alors la forme de « méthodes », chose qui génère inévitablement la controverse, en donnant lieu parfois à des « luttes de clocher ». Le cas du droit comparé est particulièrement intéressant. Depuis son apparition, cette discipline n’a jamais suivi une seule méthode, et cela, pour la simple raison qu’il n’a jamais eu un seul projet intellectuel sous-jacent et a servi plusieurs « clients ». En bref, il n’y a jamais eu de droit comparé, mais seulement plusieurs comparatismes. Ce texte propose un petit exercice d’« archéologie » de la comparaison juridique, en suivant quelques traces laissées par le passé, qui conditionnent toujours notre compréhension et notre exercice de la discipline. La prémisse de départ est que, si l’on veut réfléchir aux défis contemporains, il faudrait commencer par « historiciser » attentivement l’entreprise du droit comparé et les « combats pour la méthode » qui l’ont caractérisée, de façon à mieux comprendre ses transformations à travers le temps, ses réalisations et ses limites inhérentes.
APA, Harvard, Vancouver, ISO, and other styles
6

Finocchiaro, Maurice A. "procès de Galilée." Revue des questions scientifiques 190, no. 1-2 (January 1, 2019): 61–82. http://dx.doi.org/10.14428/qs.v190i1-2.69443.

Full text
Abstract:
Cet essai traite du procès de Galilée en esquissant un récit historique de ses faits clés et en proposant une analyse philosophique de ses principaux enjeux de méthodologie scientifique. Le récit aborde le conflit (de 1610 à 1633) qui opposa Galilée à l’Église catholique relatif à l’hypothèse de Copernic sur le mouvement de la Terre, et aussi quant au principe méthodologique qui postule que la Bible n’a pas autorité pour trancher des questions de science naturelle. Il implique également la controverse qui en découla et qui est toujours d’actualité quant aux causes, aux enseignements et à la justice du procès. L’un des enjeux fondamentaux est de savoir si le procès de Galilée démontre l’incompatibilité entre la science et la religion. Un autre enjeu central est de déterminer quels enseignements peuvent être tirés de Galilée en matière de rationalité, de méthode scientifique et de pensée critique. J’adopte ici une approche inspirée de Galilée, dans le sens où mon récit et mon analyse tentent d’appliquer les principes méthodologiques qu’il enseigna et mit en pratique au cours de son propre combat. * * * This essay discusses the trial of Galileo by sketching a historical account of its key facts and a philosophical analysis of its main scientific-methodological issues. The story involves the conflict (from 1610 to 1633) between Galileo and the Catholic Church over Copernicus’s hypothesis of the earth’s motion, and over the methodological principle that the Bible is not an authority on questions of natural science. The story also involves the subsequent and still ongoing controversy over the causes, lessons, and justice of the trial. One key issue is whether Galileo’s trial proves the incompatibility between science and religion. Another central issue is what can be learned from Galileo about rationality, scientific method, and critical thinking. I follow an approach inspired by Galileo, in the sense that my story and my analysis attempt to apply the methodological principles which he preached and practiced in his own struggle.
APA, Harvard, Vancouver, ISO, and other styles
7

Kara Terki, I., H. Hassaine, A. Kara Terki, B. Nadira, N. Kara Terki, S. Bellifa, I. Mhamedi, and M. Lachachi. "Effects of certain disinfectants and antibiotics on biofilm formation by Staphylococcus aureus isolated from medical devices at the University Hospital Center of Sidi Bel Abbes, Algeria." African Journal of Clinical and Experimental Microbiology 21, no. 4 (August 25, 2020): 304–10. http://dx.doi.org/10.4314/ajcem.v21i4.6.

Full text
Abstract:
Background: Staphylococcus aureus is one of the species of bacteria most frequently isolated from medical devices. The ability to produce biofilm is an important step in the pathogenesis of these staphylococci infection, and biofilm formation is strongly dependent on environmental conditions as well as antibiotics and disinfectants used in the treatment and prevention of infections.Methodology: In this study, 28 S. aureus isolated from medical devices at the University Hospital Center of Sidi Bel Abbes in Northwestern Algeria were tested for biofilm formation by culture on Red Congo Agar (RCA). The tube method (TM) and tissue culture plate (TCP) techniques were also used to investigate the effect of penicillin, ethanol and betadine on pre-formed biofilm.Results: Nineteen S. aureus isolates produced biofilm on the RCA and 7 produced biofilms by the tube method, 2 of which were high producer. In addition, 9 S. aureus isolates produced biofilm on polystyrene micro-plates, and in the presence of penicillin and ethanol, this number increased to 19 and 11 biofilm producing S. aureus isolates respectively. On the other hand, no biofilm was formed in the presence of betadine.Conclusion: It is important to test for biofilm formation following an imposed external constraint such as disinfectants and antibiotics in order to develop new strategies to combat bacterial biofilms but also to better control their formation. Keywords : Staphylococcus aureus, biofilm, medical device, disinfectant, antibiotic French Title: Effets de certains désinfectants et antibiotiques sur la formation de biofilms par Staphylococcus aureus isolé à partir de dispositifs médicaux au Centre Hospitalier Universitaire de Sidi Bel Abbès, Algérie Contexte: Staphylococcus aureus est l'une des espèces de bactéries les plus fréquemment isolées des dispositifs médicaux. La capacité de produire du biofilm est une étape importante dans la pathogenèse de ces infections à staphylocoques, et la formation de biofilm dépend fortement des conditions environnementales ainsi que des antibiotiques et des désinfectants utilisés dans le traitement et la prévention des infections. Méthodologie: Dans cette étude, 28 S. aureus isolés à partir de dispositifs médicaux au Centre hospitalier universitaire de Sidi Bel Abbès dans le nord-ouest de l'Algérie ont été testés pour la formation de biofilm par culture sur gélose rouge du Congo (RCA). La méthode des tubes (TM) et les techniques de plaques de culture tissulaire (TCP) ont également été utilisées pour étudier l'effet de la pénicilline, de l'éthanol et de la bétadine sur le biofilm préformé. Résultats: Dix-neuf isolats de S. aureus ont produit un biofilm sur le RCA et 7 ont produit des biofilms par la méthode des tubes, dont 2 étaient très productifs. De plus, 9 isolats de S. aureus ont produit du biofilm sur des microplaques en polystyrène, et en présence de pénicilline et d'éthanol, ce nombre est passé à 19 et 11 isolats de S. aureus producteurs de biofilm respectivement. En revanche, aucun biofilm ne s'est formé en présence de bétadine. Conclusion: Il est important de tester la formation de biofilm suite à une contrainte externe imposée comme les désinfectants et les antibiotiques afin de développer de nouvelles stratégies pour lutter contre les biofilms bactériens mais aussi pour mieux contrôler leur formation. Mots-clés: Staphylococcus aureus, biofilm, dispositif médical, désinfectant, antibiotique
APA, Harvard, Vancouver, ISO, and other styles
8

Djedidi, Amina. "Champs solides, méta-champs liquides : quels objets, méthodes et rapport au réel ?" Communication & management Vol. 20, no. 1 (September 11, 2023): 63–84. http://dx.doi.org/10.3917/comma.201.0063.

Full text
Abstract:
Cet article montre la manière dont la recherche académique aborde le sujet des champs solides (terrains digitaux stables et ancrés) et les méta-champs liquides (terrains variables et contingents). En se basant sur l’analyse de 422 articles, cette recherche présente un panorama de méthodes de collecte et d’analyse de données ainsi que leur lien avec le réel. Cette richesse de méthodes rappelle à la fois : (a) l’omniprésence des méthodes conventionnelles des sciences sociales, (b) l’éclectisme grâce à l’adoption des méthodes computationnelles et digitales, (c) l’enrichissement de certaines méthodes conventionnelles par la nécessité de contenir l’importante taille des données de masse.
APA, Harvard, Vancouver, ISO, and other styles
9

Bumona Zayukua, Espérance, Joachim di M’balu Umba, Charles Nzau Kusika, Thaddée Ndyanabo Masimango, and Jean Grâce Ndongala Lufimpadio. "Contribution à l’analyse microbiologique des poulets, des chinchards (Trachurus trachurus) et des poissons salés vendus à Kinshasa en vue de la sensibilisation à la méthode ISO- 22000 :2005 HACCP." Journal of Animal & Plant Sciences 42.2 (November 29, 2019): 7256–68. http://dx.doi.org/10.35759/janmplsci.v42-2.7.

Full text
Abstract:
La qualité des denrées alimentaires est devenue une préoccupation majeure pour les consommateurs des nombreux pays. En effet, ces dernières décennies, le monde a connu des cas d’encéphalopathie spongiforme bovine (ESB) au Royaume-Uni et d’autres problèmes alimentaires plus communs associés à la Salmonella, à l’Escherichia Coli enterohaemorrhagique, de tremblante du mouton, du poulet à la dioxine, de Listériose . Cette situation a amené les consommateurs avertis à exiger que les aliments qui leurs sont vendus, soient sans danger. Les surgelés comptent parmi les aliments les plus consommés dans les grandes villes de la RD Congo. Cependant, une bonne partie de ces produits subit une rupture de la chaîne de froid telle qu’elle se détériore et devient nuisible à la santé des consommateurs. Nous savons que le poisson est une denrée très périssable et nécessite le maintien en continu de la chaîne de froid. Or, les coupures de fournitures d’énergies sont récurrentes dans notre capitale. Et cela devient un dilemme pour les consommateurs kinois. Quel est l’impact de la rupture de la chaîne de froid sur la qualité de ces surgelés vendus sur les marchés de Kinshasa? Comment le consommateur kinois est-il protégé contre les dangers alimentaires de la fourche à la fourchette? L’objectif de la présente recherche basée sur les techniques d’isolements, d’identification et de dénombrement et conformément aux normes ISO spécifiques à chaque germe, est de faire une analyse microbiologique du poulet emballé, déballé et découpé, du poisson chinchard sorti du carton, exposé sur les étals et du poisson salé local, importé et poisson du fleuve Congo vendus sur quelques marchés de Kinshasa, étudier les enjeux de la sécurité sanitaire par la méthode ISO-22000 :2005 - HACCP et proposer à l’autorité publique l’application de ces principes d’assainissement, de les vulgariser et renforcer les mesures d’hygiène alimentaire dans les grandes agglomérations du pays au profit de la santé publique (accumulation de déchets dans les rues et congestion des égouts) et lutter contre les toxi-infections alimentaires collectives (TIAC). Il ressort de notre analyse que la fréquence de contamination de micro-organismes, les Proteus arrivent en tête avec 63%, suivis des Klebsiella 41 %, les Escherichia coli 21%, les Citrobacters et Enterobacters 20 % et Salmonella spp.et Shigella 8%. ABSTRACT Food quality has become a major concern for consumers in many countries. Indeed, in recent decades, the world has experienced cases of bovine spongiform encephalopathy (BSE) in the United Kingdom and other more common nutritional problems associated with Salmonella, enterohaemorrhagic Escherichia coli, scrapie, chicken with dioxin, listeriosis. This situation has led savvy consumers to demand that the food sold to them be safe. Frozen foods are among the most consumed foods in the big cities of DR Congo. However, a good part of these products undergo a break in the cold chain as it deteriorates and becomes harmful to the health of consumers. We know that fish is a very perishable commodity and requires the continuous maintenance of the cold chain. However, cuts in energy supplies are recurrent in our capital. And this becomes a dilemma for Kinshasa consumers. What is the impact of the break in the cold chain on the quality of these frozen foods sold in the Kinshasa markets? The objective of this research, based on isolation, identification and enumeration techniques and in accordance with the ISO standards specific to each germ, is to perform a microbiological analysis of the packaged, unpacked and cut chicken of the horse mackerel cardboard, exposed on stalls and local salted fish, imported and Congo River fish sold on some markets of Kinshasa, study the stakes of the safety by the method ISO-22000: 2005 - HACCP and propose to the public authority the application of these principles of sanitation, to popularize them and to reinforce food hygiene measures in the large agglomerations of the country for the benefit of public health (accumulation of waste on the streets and sewer congestion) and to combat the toxicities Collective food infections (TIAC). This study analysis shows that the frequency of contamination of micro-organisms, Proteus, top with 63%, followed by Klebsiella 41%, Escherichia coli 21%, Citrobacters and Enterobacters 20% and Salmonella spp. And Shigella 8%.
APA, Harvard, Vancouver, ISO, and other styles
10

Pasquier, P., C. Dubost, P. Laitselart, S. Vico, L. Franck, C. Bay, T. Villevieille, and S. Mérat. "Utilisation des méthodes de simulation médicale dans l’enseignement du sauvetage au combat." Annales Françaises d'Anesthésie et de Réanimation 32 (September 2013): A164. http://dx.doi.org/10.1016/j.annfar.2013.07.318.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Méthode ComBat"

1

Li, Yingping. "Artificial intelligence and radiomics in cancer diagnosis." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG053.

Full text
Abstract:
L'intelligence artificielle (IA) est très utilisée pour le diagnostic et le traitement de données médicales, donnant lieu à la médecine personnalisée assistée par l'IA. Ce manuscrit se concentre sur la proposition et l'analyse de méthodes d'IA, notamment l'apprentissage profond et la radiomique, pour le diagnostic du cancer. Tout d'abord, une approche efficace de segmentation automatique est essentielle pour mettre en place une méthode de diagnostic par IA, car c'est un préalable à une analyse par radiomiques. Nous avons proposé une nouvelle approche pour la segmentation automatique des lésions dans les images échographiques, basée sur des données multicentrique et multipathologique présentant différents types de cancers. En introduisant la convolution de groupe, nous avons proposé un réseau U-net léger en mémoire sans sacrifier les performances de segmentation. Deuxièmement, nous nous sommes intéressés au traitement de données d'imagerie par résonance magnétique (IRM) pour prédire de manière non invasive le sous-type de gliome, défini par le grade de la tumeur, la mutation de l'isocitrate déshydrogénase (IDH) et la codélétion 1p/19q. Nous proposons une approche par radiomiques. La performance de prédiction s'est améliorée de manière significative en optimisant différents paramètres de notre modèle. Les caractéristiques des éléments radiomiques qui distinguent le mieux les sous-types de gliome ont également été analysées. Ce travail a non seulement fourni un pipeline qui fonctionne bien pour prédire le sous-type de gliome, mais il a également contribué au développement et à l'interprétabilité du modèle radiomique. Troisièmement, nous nous intéressons à la problématique de reproductibilité des approches basées sur les radiomiques. Nous avons donc étudié l'impact de différentes méthodes de prétraitement d'images et de méthodes d'harmonisation (y compris la normalisation de l'intensité et l'harmonisation ComBat) sur la reproductibilité des caractéristiques radiomiques en IRM. Nous avons montré que la méthode ComBat est essentielle pour éliminer la variation non biologique causée par les différents paramètres d'acquisition d'image (à savoir, les effets du scanner) et améliorer la reproductibilité des caractéristiques dans les études radiomiques. Nous avons illustré l'importance de la normalisation de l'intensité, car elle permet d'obtenir des images IRM plus comparables et des résultats plus robustes. Enfin, nous avons cherché à améliorer la méthode ComBat en modifiant l'hypothèse classique, à savoir que les effets du scanner sont différents pour différentes classes (comme les tumeurs et les tissus normaux). Bien que le modèle proposé donne des résultats encore décevants, sûrement en raison du manque de contraintes appropriées pour aider à identifier les paramètres, il a néanmoins ouvert la voie à des perspectives intéressantes
Artificial intelligence (AI) has been widely used in the research field of AI-assisted diagnosis, treatment, and personalized medicine. This manuscript focuses on the application of artificial intelligence methods including deep learning and radiomics in cancer diagnosis. First, effective image segmentation is essential for cancer diagnosis and further radiomics-based analysis. We proposed a new approach for automatic lesion segmentation in ultrasound images, based on a multicentric and multipathology dataset displaying different types of cancers. By introducing the group convolution, we proposed a lightweight U-net network without sacrificing the segmentation performance. Second, we processed the clinical Magnetic Resonance Imaging (MRI) images to noninvasively predict the glioma subtype as defined by the tumor grade, isocitrate dehydrogenase (IDH) mutation and 1p/19q codeletion status. We proposed a radiomics-based approach. The prediction performance improved significantly by tuning different settings in the radiomics pipeline. The characteristics of the radiomic features that best distinguish the glioma subtypes were also analyzed. This work not only provided a radiomics pipeline that works well for predicting the glioma subtype, but it also contributed to the model development and interpretability. Third, we tackled the challenge of reproducibility in radiomics methods. We investigated the impact of different image preprocessing methods and harmonization methods (including intensity normalization and ComBat harmonization) on the radiomic feature reproducibility in MRI radiomics. The conclusion showed that ComBat method is essential to remove the nonbiological variation caused by different image acquisition settings (namely, scanner effects) and improve the feature reproducibility in radiomics studies. Meanwhile, intensity normalization is also recommended because it leads to more comparable MRI images and more robust harmonization results. Finally, we investigated improving the ComBat harmonization method by changing its assumption to a very common case that scanner effects are different for different classes (like tumors and normal tissues). Although the proposed model yielded disappointing results, surely due to the lack of enough proper constraints to help identify the parameters, it still paved the way for the development of new harmonization methods
APA, Harvard, Vancouver, ISO, and other styles
2

Masson, Anne-Sophie. "Le droit de la guerre confronté aux nouveaux conflits asymétriques : généralisation à partir du conflit Afghan (2001-2013)." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMLH03.

Full text
Abstract:
Le conflit afghan (à partir de 2001) peut être considéré comme un nouveau conflit asymétrique reprenant les caractéristiques des conflits asymétriques classiques (rapport de force disproportionné entre les belligérants) à l’exception de la territorialisation, remplacée par l’appartenance à une idéologie commune. En conséquence, le champ de bataille y est devenu secondaire, la guerre est devenue cognitive. La séparation entre la paix et la guerre s’est atténuée à tel point qu’il est devenu impossible de compartimenter le droit de la guerre en fonction de l’intensité du conflit ou de son internationalisation. Faute de s’y être adapté, le droit de la guerre a cessé de faciliter le rétablissement de la paix et a été perçu par les militaires occidentaux comme une entrave aux combats. C’est pourquoi, certains belligérants ont tenté de s’en affranchir en ayant recours à des méthodes de combats illégitimes. Ces effets ont été médiatisés et ont participé à la perte de légitimité des Etats occidentaux allant jusqu’à remettre en question la division du monde en Etats souverains. L’absence de résolution de ces conflits pourrait conduire à une guerre civile globalisée. En réponse, l’harmonisation du droit de la guerre autour de la garantie inconditionnelle des droits inaliénables doit être affirmée par les Etats et les nouveaux acteurs internationaux. Elle pourrait émerger d’un « Parlement mondial », garant du droit international. De plus, l’irréprochabilité morale des belligérants est attendue. Le droit et la place des armées au sein de la société doivent le refléter
The Afghan war (since 2001) may be seen as a new asymmetric conflict. It has all characteristics of the former asymmetric conflicts except territoriality, which has been replaced by ideology. Therefore, the battlefields have been displaced to the cognitive war. The distinction between war and peace became so small that it is now impossible to distinguish the law of war in regard to its intensity or to the implication of several states. The law of wars, due to its lack of adaptation stopped to ease the peace recovery, becoming a hindrance to combat. In consequence, some warriors have been tempted to use forbidden combat methods. Whose effects have been mediatized and took part of the western states legitimacy crisis (and questionning the World division in sovereign states). The lack of conflicts settlement could lead to a worldwide civil war. Unless, law of wars are harmonized through universal core rights mandatory for states and new international actors; a “World Parliament” could protect them. Furthermore, moral integrity of warriors is expected, it may be reflected into the military laws and their position into the civil society
APA, Harvard, Vancouver, ISO, and other styles
3

Lamouroux, Raphaël. "Méthodes compactes d’ordre élevé pour les écoulements présentant des discontinuités." Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0035/document.

Full text
Abstract:
Dans le cadre du développement récent des schémas numériques compacts d’ordre élevé, tels que la méthode de Galerkin discontinu (discontinuous Galerkin) ou la méthode des différences spectrales (spectral differences), nous nous intéressons aux difficultés liées à l’utilisation de ces méthodes lors de la simulation de solutions discontinues.L’utilisation par ces schémas numériques d’une représentation polynomiale des champs les prédisposent à fournir des solutions fortement oscillantes aux abords des discontinuités. Ces oscillations pouvant aller jusqu’à l’arrêt du processus de simulation, l’utilisation d’un dispositif numérique de détection et de contrôle de ces oscillations est alors un prérequis nécessaire au bon déroulement du calcul. Les processus de limitation les plus courants tels que les algorithmes WENO ou l’utilisation d’une viscosité artificielle ont d’ores et déjà été adaptés aux différentes méthodes compactes d’ordres élevés et ont permis d’appliquer ces méthodes à la classe des écoulements compressibles. Les différences entre les stencils utilisés par ces processus de limitation et les schémas numériques compacts peuvent néanmoins être une source importante de perte de performances. Dans cette thèse nous détaillons les concepts et le cheminement permettant d’aboutir à la définition d’un processus de limitation compact adapté à la description polynomiale des champs. Suite à une étude de configurations monodimensionnels, différentes projections polynomiales sont introduites et permettent la construction d’un processus de limitation préservant l’ordre élevé. Nous présentons ensuite l’extension de cette méthodologie à la simulation d’écoulements compressibles bidimensionnels et tridimensionnels. Nous avons en effet développé les schémas de discrétisation des différences spectrales dans un code CFD non structuré, massivement parallèle et basé historiquement sur une méthodologie volumes finis. Nous présentons en particulier différents résultats obtenus lors de la simulation de l’interaction entre une onde de choc et une couche limite turbulente
Following the recent development of high order compact schemes such as the discontinuous Galerkin or the spectraldifferences, this thesis investigates the issues encountered with the simulation of discontinuous flows. High order compactschemes use polynomial representations which tends to introduce spurious oscillations around discontinuities that can lead to computational failure. To prevent the emergence of these numerical issues, it is necessary to improve the schemewith an additional procedure that can detect and control its behaviour in the neighbourhood of the discontinuities,usually referred to as a limiting procedure or a limiter. Most usual limiters include either the WENO procedure, TVB schemes or the use of an artificial viscosity. All of these solutions have already been adapted to high order compact schemes but none of these techniques takes a real advantage of the richness offered by the polynomial structure. What’s more, the original compactness of the scheme is generally deteriorated and losses of scalability can occur. This thesis investigates the concept of a compact limiter based on the polynomial structure of the solution. A monodimensional study allows us to define some algebraic projections that can be used as a high-order tool for the limiting procedure. The extension of this methodology is then evaluated thanks to the simulation of different 2D and 3D test cases. Those results have been obtained thanks to the development of a parallel solver which have been based on a existing unstructured finite volume CFD code. The different exposed studies detailed end up to the numerical simulation of the shock turbulent boundary layer
APA, Harvard, Vancouver, ISO, and other styles
4

Andres, Nicolas. "Optimisation de la chaîne d'analyse MBTA et développement d'une méthode d'étalonnage de la réponse fréquentielle du détecteur d'onde gravitationnelle Virgo." Electronic Thesis or Diss., Chambéry, 2023. http://www.theses.fr/2023CHAMA029.

Full text
Abstract:
La collaboration LIGO Virgo a marqué les débuts de l'astronomie gravitationnelle en apportant une preuve directe de leur existence en Septembre 2015. Ce domaine connaît depuis un bel essor dont chaque découverte permet une avancée dans les disciplines telles que l'astrophysique, la cosmologie et la physique fondamentale. À l'issue de chaque période d'observation, les détecteurs sont arrêtés et de nombreux aspects sont améliorés. Ce travail s'inscrit durant la phase de préparation entre la période O3 et O4 débutant en mai 2024 visant à configurer les interféromètres dans leurs états avancés en optimisant leurs sensibilités. L'étalonnage devient alors crucial afin de reconstruire avec précision le signal contenant l'information sur les ondes gravitationnelles, permettant les détections et la production de résultats scientifiques comme la mesure de la constante de Hubble, etc. Un travail d'instrumentation a été mené, permettant une mesure précise et régulière de l'horodatage du signal de l'interféromètre, qui doit être maitrisé à mieux que 0.01 ms près dans le but d'une analyse conjointe des données du réseau de détecteurs.De nombreux dispositifs permettant l'étalonnage de l'interféromètre reposent sur la lecture de signaux de contrôles par des photo-détecteurs dont la réponse fréquentielle a été supposée constante. Afin d'éviter tout biais introduit dans la reconstruction du signal, une méthode de mesure se doit d'être développée en vue d'une calibration en fréquence de chaque photo-détecteur impliqué. Deux méthodes sont ici comparées en vue d'une utilisation pour la période O5.Par ailleurs, la sensibilité accrue des détecteurs est synonyme de détections plus nombreuses. Les chaînes d'analyse de la collaboration se doivent de suivre les améliorations instrumentales en développant de nouveaux outils afin d'optimiser la recherche de signal en temps réel. La chaîne d'analyse à faible latence MBTA est un des 4 pipelines d'analyse de la collaboration se concentrant sur la recherche de coalescences de binaires compactes en combinant une analyse indépendante des données des 3 détecteurs. Elle dispose de nombreux outils de réjection de bruit performants, mais ne prend en compte aucune information astrophysique à priori. Grâce à l'accumulation de données dans les périodes d'observation précédentes, la collaboration a pu établir des modèles de distribution de masses plus précis pour les populations de coalescences de binaires compactes. Durant ma thèse un nouvel outil a été développé par l'équipe MBTA en utilisant ces nouvelles informations, visant à estimer la probabilité d'origine des événements (astrophysique ou non) ainsi qu'à en classifier la nature de la source astrophysique. Cet outil a finalement permis de restructurer la chaîne d'analyse globale en l'utilisant comme paramètre principal pour classer les événements selon leur niveau de significativité. La collaboration produit des alertes publiques à faible latences pour l'astronomie multi-messager, dans lesquelles sont fournies des informations liées aux signaux détectés communes aux différents pipelines d'analyses. Ne sachant pas à l'avance les préférences des différentes expériences partenaires de la collaboration LIGO Virgo pour définir les paramètres optimaux permettant un suivi multi-messagers, il a été décidé de tester une autre méthode permettant l'implémentation d'information astrophysique similaires dans la chaîne d'analyse MBTA. Une technique permettant d'inclure l'information astrophysique directement dans le paramètre définissant le classement par niveau de significativité des événements candidats est présentée. Cette méthode permet d'améliorer la recherche en fournissant une meilleure discrimination entre les événements astrophysiques et ceux provenant du bruit d'arrière-plan. En considérant la période d'observation O3 cette méthode permet d'augmenter le nombre de détection de 10% avec MBTA , détections qui ont été confirmés par les autres chaînes d'analyses
The LIGO Virgo collaboration marked the beginnings of gravitational astronomy by providing direct evidence of their existence in September 2015. The detection of gravitationnal wave coming from a binary black holes merger led to the physic's Nobel price. This field has since experienced a great growth, each discovery of which allows an advance in disciplines such as astrophysics, cosmology and fundamental physics. At the end of each observation period, the detectors are stopped and many aspects are improved. This work is part of the preparation phase between period O3 and O4 beginning in May 2024 to configure interferometers in their advanced states in order to optimize their sensitivities. Calibration then becomes crucial in order to accurately reconstruct the signal containing gravitational wave information, allowing detection and the production of scientific results such as the measurement of the Hubble constant, etc. An instrumentation work has been carried out, allowing an accurate and regular measurement of the time stamp (timing) of the readout sensing chain of the interferometer signal, which must be mastered better than 0.01 ms for the purpose of a joint analysis of the detectors network data.Many devices for the calibration of the interferometer rely on the reading of control signals by photodetectors whose frequency response has been assumed to be flat. In order to avoid any bias introduced in the reconstruction of the signal, a measurement method must be developed for a frequency calibration of each photo detector involved. Two methods are compared for use in the O5 period.In addition, the increasing sensitivity of the detectors means more detections. Collaboration analysis chains need to follow instrumental improvements by developing new tools to optimize real-time and off-ligne signal search. The MBTA Low Latency Analysis Chain is one of 4 collaboration analysis pipelines focusing on the search for compact binary coalescences by combining independent data analysis from all 3 detectors. It has many powerful noise rejection tools, but does not take into account any astrophysical information a priori. Through the accumulation of data in previous observation periods, the collaboration was able to establish more accurate mass distribution models for compact binary coalescence populations. During my thesis, a new tool was developed by the MBTA team using this new information, aimed at estimating the probability of origin of events (astrophysics or not) and at classifying the nature of the astrophysical source. This tool finally made it possible to restructure the global analysis chain by using it as the main parameter for classifying events according to their level of significance. The collaboration produces low-latency public alerts for multi-messenger astronomy, providing information related to detected signals common to the different analytical pipelines. Not knowing in advance the preferences of the different experiences partners of the LIGO Virgo collaboration to define the optimal parameters allowing multi-messenger detections, it was decided to test another method to implement similar astrophysical information in the MBTA analysis chain. A technique for including astrophysical information directly in the parameter defining the ranking by significance level of candidate events is presented. This method makes it possible to improve research by providing better discrimination between astrophysical and background noise events. By considering the observation period O3 this method makes it possible to increase the number of detection by 10% with MBTA , detections that have been confirmed by the other chains of analysis
APA, Harvard, Vancouver, ISO, and other styles
5

Bouhaya, Lina. "Optimisation structurelle des gridshells." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00583409.

Full text
Abstract:
Le terme gridshell désigne une coque discrète qui est obtenue par déformation élastique d'une grille bidirectionnelle continue plane sans rigidité en cisaillement puis rigidifiée par une troisième direction de barres. Ainsi défini, un gridshell a un potentiel structural intéressant et peut répondre à des exigences architecturales complexes. La recherche de forme de ces structures a été menée à travers l'histoire principalement par deux méthodes, la méthode du filet inversé et la relaxation dynamique. Ces deux méthodes permettent d'obtenir une forme approchée de celle proposée par l'architecte, dérivant d'une grille à plat et de conditions aux limites partiellement ou complètement imposées. Dans le cadre de cette thèse, nous nous sommes intéressés à générer un gridshell sur une surface à forme et contours imposés. Un outil numérique se basant sur la méthode du compas a été développé. Il permet de mailler un réseau de Tchebychev sur une surface connaissant son équation cartésienne. Un autre outil permettant le maillage se basant sur un calcul en éléments finis explicite a été mis en œuvre. La particularité de cette technique est de pouvoir tenir en compte des propriétés mécaniques de la structure et de simuler le comportement du gridshell. Des applications des deux méthodes sur des formes architecturalement intéressantes ont permis de voir les limitations de la possibilité de mailler une forme avec un réseau de Tchebychev. La méthode du compas a ensuite été couplée à des algorithmes métaheuristiques types génétiques. L'algorithme résultant permet d'optimiser un gridshell en minimisant la courbure dans les barres et donc les contraintes dans la structure introduites lors de la mise en forme. Il a été mis en œuvre et testé pour plusieurs surfaces
APA, Harvard, Vancouver, ISO, and other styles
6

Hocine, Farida. "Approximation spectrale d'opérateurs." Saint-Etienne, 1993. http://www.theses.fr/1993STET4007.

Full text
Abstract:
Il est bien connu que la convergence fortement stable est une condition suffisante de convergence des éléments spectraux approchées, i. E. Les valeurs propres non nulles, isolées et de multiplicité algébrique finie et les sous-espaces invariants maximaux qui leur sont associés, d'opérateurs linéaires bornés définis sur des espaces de Banach complexes. Dans ce travail, nous commençons par proposer une nouvelle notion de convergence : la convergence spectrale, que l'on montre être une condition nécessaire de convergence fortement stable et suffisante de convergence des éléments spectraux approchés. Nous donnons ensuite des conditions suffisantes de convergence spectrale moins restrictives que celles habituellement utilisées. Nous montrons également la convergence de quelques schémas de raffinement itératif pour l'approximation des bases de sous-espaces invariants maximaux, dans le cadre des méthodes de Newton inexactes et des séries de Rayleigh-Schrodinger, sous certaines des conditions suffisantes de convergence spectrale proposées. Nous donnons ensuite les résultats de quelques essais numériques
APA, Harvard, Vancouver, ISO, and other styles
7

Grimich, Karim. "Schémas compacts basés sur le résidu d'ordre élevé pour des écoulements compressibles instationnaires. Application à de la capture de fines échelles." Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0033/document.

Full text
Abstract:
Les solveurs de calcul en mécanique des fluides numérique (solveurs CFD) ont atteint leur maturité en termes de précision et d'efficacité de calcul. Toutefois, des progrès restent à faire pour les écoulements instationnaires surtout lorsqu'ils sont régis par de grandes structures cohérentes. Pour ces écoulements, les solveurs CFD actuels n'apportent pas de solutions assez précises à moins d'utiliser des maillages très fins. De plus, la haute précision est une caractéristique cruciale pour l'application des stratégies avancées de simulation de turbulence, comme la Simulation des Grandes Echelles (LES). Afin d'appliquer les méthodes d'ordre élevé pour les écoulements instationnaires complexes plusieurs points doivent être abordés dont la robustesse numérique et la capacité à gérer des géométries complexes.Dans cette thèse, nous étudions une famille d'approximations compactes qui offrent une grande précision non pour chaque dérivée spatiale traitée séparement mais pour le résidu r complet, c'est à dire la somme de tous les termes des équations considérées. Pour des problèmes stationnaires résolus par avancement temporelle, r est le résidu à l'état stationnaire ne comprenant que des dérivées spatiales; pour des problèmes instationnaires r comprend également la dérivée temporelle. Ce type de schémas sont appelés schémas Compacts Basés sur le Résidu (RBC). Plus précisément, nous développons des schémas RBC d'ordre élevé pour des écoulements instationnaires compressibles, et menons une étude approfondie de leurs propriétés de dissipation. Nous analysons ensuite les erreurs de dissipation et la dispersion introduites par les schémas RBC afin de quantifier leur capacité à résoudre une longueur d'onde donnée en utilisant un nombre minimal de points de maillage. Les capacités de la dissipation de RBC à drainer seulement l'énergie aux petites échelles sous-résolues sont également examinées en vue de l'application des schémas RBC pour des simulations LES implicites (ILES). Enfin, les schémas RBC sont étendus à la formulation de type volumes finis (FV) afin de gérer des géométries complexes. Une formulation FV des schémas RBC d'ordre trois préservant une précision d'ordre élevé sur des maillages irréguliers est présentée et analysée. Des applications numériques, dont la simulation d'écoulements instationnaires complexes de turbomachines régis par les équations de Navier-Stokes moyennées et des simulations ILES d'écoulements turbulents dominés par des structures cohérentes dynamiques ou en décroissance, confirment les résultats théoriques
Computational Fluid Dynamics (CFD) solvers have reached maturity in terms of solution accuracy as well as computational efficiency. However, progress remains to be done for unsteady flows especially when governed by large, coherent structures. For these flows, current CFD solvers do not provide accurate solutions unless very fine mesh are used. Moreover, high-accuracy is a crucial feature for the application of advanced turbulence simulation strategies, like Large Eddy Simulation (LES). In order to apply high-order methods to complex unsteady flows several issues needs to be addressed among which numerical robustness and the capability of handling complex geometries.In the present work, we study a family of compact approximations that provide high accuracy not for each space derivative treated apart but for the complete residual r, i.e. the sum of all of the terms in the governing equations. For steady problems solved by time marching, r is the residual at steady state and it involves space derivatives only; for unsteady problems, r also includes the time derivative. Schemes of this type are referred-to as Residual-Based Compact (RBC). Precisely, we design high-order finite difference RBC schemes for unsteady compressible flows, and provide a comprehensive study of their dissipation properties. The dissipation and dispersion errors introduced by RBC schemes are investigated to quantify their capability of resolving a given wave length using a minimal number of grid-points. The capabilities of RBC dissipation to drain energy only at small, ill-resolved scales are also discussed in view of the application of RBC schemes to implicit LES (ILES) simulations. Finally, RBC schemes are extended to the Finite Volume (FV) framework in order to handle complex geometries. A high-order accuracy preserving FV formulation of the third-order RBC scheme for general irregular grids is presented and analysed. Numerical applications, including complex Reynolds-Averaged Navier-Stokes unsteady simulation of turbomachinery flows and ILES simulations of turbulent flows dominated by coherent structure dynamics or decay, support the theoretical results
APA, Harvard, Vancouver, ISO, and other styles
8

Outtier, Pierre-Yves. "Architecture novatrice de code dynamique : application au développement d'un solveur compact d'ordre élevé pour l'aérodynamique compressible dans des maillages recouvrants." Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0029.

Full text
Abstract:
L'utilisation de schémas numériques d'ordre élevé est généralement restreinte à des applications de recherche mettant en jeu des phénomènes physiques complexes mais des géométries simples à l'aide de maillages Cartésiens ou faiblement déformés. Il existe une demande pour une nouvelle génération de codes industriels ayant une précision accrue. Dans ce travail, nous avons été amenés à répondre à la question générale sur la façon de concevoir l'architecture d'un code CFD pouvant prendre en compte une variété de configurations géométriquement complexes, restant assez simple et permettant facilement l'implantation de nouvelles idées (méthodes numériques, modèles) avec un effort de développement minimal, et utilisant des schémas numériques d'ordre élevé ainsi que des modèles physiques avancés. Cela a nécessité des choix innovants en termes de langages de programmation, structure de données et stockage, et sur l'architecture de code, choix qui vont au-delà du simple développement d'une famille spécifique de schémas numériques. Une solution (code DynHoLab) alliant les langages Python et Fortran est proposé avec les détails sur les concepts à la base de l'architecture du code. Les méthodes numériques implantées dans le code sont validées sur des cas-tests de complexité croissante, démontrant en passant la variété des physiques et géométries actuellement réalisables avec DynHoLab. Puis, basé sur ce code, ce travail présente un moyen de gérer des géométries complexes tout en augmentant le degré de précision des méthodes numériques. Afin d'appliquer les régimes d'ordre élevé RBC à des géométries complexes, la stratégie actuelle consiste en une mise en œuvre multi-domaine sur des maillages recouvrants
High-order numerical schemes are usually restricted to research applications, involving highly complex physical phenomena but simple geometries, and regular Cartesian or lowly deformed meshes. A demand exists for a new generation of industrial codes of increased accuracy. In this work, we were led to address the general question of how to design a CFD code architecture that: can take into account a variety of possibly geometrically complex configurations; remains simple and modular enough to facilitate the introduction and testing of new ideas (numerical methods, models) with a minimal development effort; use high-order numerical discretizations and advanced physical models. This required some innovative choices in terms of programming languages, data structure and storage, and code architecture, which go beyond the mere development of a specific family of numerical schemes. A solution mixing Python and Fortran languages is proposed with details on the concepts at the basis of the code architecture. The numerical methods are validated on test-cases of increasing complexity, demonstrating at the same time the variety of physics and geometry currently achievable with DynHoLab. Then, based on the computational framework designed, this work presents a way to handle complex geometries while increasing the order of accuracy of the numerical methods. In order to apply high-order RBC schemes to complex geometries, the present strategy consists in a multi-domain implementation on overlapping structured meshes
APA, Harvard, Vancouver, ISO, and other styles
9

Gérald, Sophie. "Méthode de Galerkin Discontinue et intégrations explicites-implicites en temps basées sur un découplage des degrés de liberté : Applications au système des équations de Navier-Stokes." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00943621.

Full text
Abstract:
En mécanique des fluides numérique, un enjeu est le développement de méthodes d'approximation d'ordre élevé, comme celles de Galerkin Discontinues (GD). Si ces méthodes permettent d'envisager la simulation d'écoulements complexes en alternative aux méthodes usuelles d'ordre deux, elles souffrent cependant d'une forte restriction sur le pas de temps lorsqu'elles sont associées à une discrétisation explicite en temps. Ce travail de thèse consiste à mettre en œuvre une stratégie d'intégration temporelle explicite-implicite efficace, associée à une discrétisation spatiale GD d'ordre élevé, pour les écoulements instationnaires à convection dominante de fluides visqueux compressibles modélisés par le système des équations de Navier-Stokes. La discrétisation spatiale de la méthode GD est associée à des flux numériques de fluides parfaits et visqueux à stencil compact. En présence de frontières matérielles courbes, l'ordre élevé est garanti par la discrétisation du domaine de calcul à l'aide d'une représentation iso-paramétrique. La stratégie d'intégration temporelle repose sur une décomposition d'opérateurs de Strang, où les termes de convection sont résolus explicitement et ceux de diffusion implicitement. Son efficacité résulte d'une simplification du schéma implicite, où le calcul de la matrice implicite est approché avec une méthode sans jacobienne et où les degrés de liberté du schéma sont découplés. De fait, la taille du système linéaire à résoudre et le temps de calcul de la résolution sont significativement réduits. Enfin, la validation et l'évaluation des performances du schéma numérique sont réalisées à travers cinq cas tests bien référencés en deux dimensions d'espace.
APA, Harvard, Vancouver, ISO, and other styles
10

Znidarcic, Anton. "Un nouvel algoritme pour la simulation DNS et LES des ecoulements cavitants." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0056/document.

Full text
Abstract:
Le couplage diphasique-turbulence est une propriété clé des écoulements cavitants, qui est un frein important à l’amélioration des modèles de cavitation et de turbulence. Réaliser des simulations directes (DNS) est le moyen proposé ici pour s’affranchir du modèle de turbulence et obtenir des informations nouvelles sur les phénomènes mis en jeu. Ce type de simulation est exigeant sur le plan numérique, et requiert le développement d’un solveur spécifique intégrant les spécificités des modèles de cavitation. Cela inclue notamment des schémas de discrétisation d’ordre élevé, un solveur direct, et une résolution multi-domaines associée à une parrallélisation efficace. Une discrétisation par différences compactes finies s’avère être le meilleur choix. La contrainte de rapidité et de parrallélisation impose un algorithme où les systèmes résoudre n’impliquent des multiplications des variables implicites que par des coefficients invariants au cours du calcul. Un nouvel algorithme réunissant ces critères a été développé durant cette thèse, à partir de la combinaison de la méthode de Concus & Golub et d’une méthode de projection, qui permet de résoudre les équations associées à la modélisation homogène de la cavitation. Une nouvelle approche de vérification de ce nouvel algorithme est également proposée et mise en œuvre sur la base de la méthode des solutions manufacturées (MMS)
Cavitation-turbulence interactions are problematic aspect of cavitating flows which imposes limitations in development of better cavitation and turbulence models. DNS simulations with homogeneous mixture approach are proposed to overcome this and offer more insight into the phenomena. As DNS simulations are highly demanding and a variety of cavitation models exists, a tool devoted specifically to them is needed. Such tools usually demand application of highly accurate discretization schemes, direct solvers and multi domain methods enabling good scaling of the codes. As typical cavitating flow geometries impose limits on suitable discretization methods, compact finite differences offer the most appropriate discretization tool. The need for fast solvers and good code scalability leads to request for an algorithm, capable of stable and accurate cavitating flow simulations where solved systems feature multiplication of implicitly treated variables only by constant coefficients. A novel algorithm with such ability was developed in the scope of this work using Concus and Golub method introduced into projection methods, through which the governing equations for homogeneous mixture modeling of cavitating flows can be resolved. Work also proposes an effective and new approach for verification of the new and existing algorithms on the basis of Method of Manufactured Solutions
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Méthode ComBat"

1

Institut national d'histoire de l'art (France) and Collège de France, eds. André Chastel: Méthodes et combats d'un historien de l'art. Paris: Picard, 2015.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

LEE, BRUCE. Bruce Lee - Ma méthode de combat. Budo, 2015.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

LEE, BRUCE. Bruce Lee - Ma méthode de combat. Budo, 2015.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Lee, Bruce, and M. Uyehara. Ma méthode de combat , Jeet Kune Do 2. Entraînement de bas. Budostore, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lee, Bruce, and M. Uyehara. Bruce Lee, ma méthode de combat, Jeet Kune Do. L'entraînement approfondi. Budostore, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Lee, Bruce, and M. Uyehara. Bruce Lee, ma méthode de combat : Jeet kune do. 4, Techniques avancées. Budostore, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Ma méthode de combat, Jeet Kune Do, Tome 1. Le Self-Défense. Budostore, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Bergin, Mark. Dessiner les scènes de combat: Une méthode simple pour apprendre à dessiner. EYROLLES, 2016.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Lee, Bruce, and M. Uyehara. Bruce Lee, ma méthode de combat, édition spéciale, 4 livres en 1 volume. Budostore, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Antram, David. Dessiner les combats mangas: Une méthode simple pour apprendre à dessiner. EYROLLES, 2016.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Méthode ComBat"

1

JULIEN, H., A. ALLONNEAU, O. BON, and H. LEFORT. "Aspects actuels du triage, du combat à la catastrophe, essai de synthèse." In Médecine et Armées Vol. 46 No.3, 197–206. Editions des archives contemporaines, 2018. http://dx.doi.org/10.17184/eac.7334.

Full text
Abstract:
Conçu par les médecins et chirurgiens des armées pour répondre à l’afflux des soldats blessés de la Grande Guerre, le triage a été adapté aux urgences collectives et aux catastrophes. Ses critères et ses modalités ont répondu aux types d'agressions et aux spécificités de la filière civile de secours et de soins. Ses buts ont été précisés : prioriser les victimes, constituer des groupes homogènes, gérer les flux d’évacuation, dispenser les gestes de réanimation nécessaires. Acte thérapeutique guidé par une démarche diagnostique, le triage vise à organiser au mieux l’évacuation des victimes vers le plateau technique adapté. La multiplicité des situations d’urgences collectives, leurs volumes et leurs natures, les conditions de sécurité et de soutien logistique, ont diversifié la pratique du triage en milieu militaire ou civil. Des critères adaptés aux agressions traumatiques, toxiques et psychiques correspondent aux besoins de chaque spécialité. L’apparente variabilité des méthodes de triage, militaires ou civiles, françaises ou internationales, repose sur un socle commun dont les codes de couleurs sont une des composantes. Depuis des décennies le triage a répondu aux diverses situations exceptionnelles impliquant de nombreuses victimes en l’absence de fondements scientifiques. Sa mise en œuvre militaire sur les terrains de conflits et civile lors de « tuerie de masse » balistiques terroristes contribue à lui donner une base scientifique. Sa pratique, longtemps réservée aux seuls médecins est initiée par les secouristes à l’avant selon des critères plus simples. Le résultat recherché est la mise en œuvre de gestes élémentaires de sauvegarde afin de réduire le nombre de morts ainsi que la morbidité des victimes. Les événements récents ont renforcé la pertinence de former les populations et les professionnels de santé primo-intervenants à la réalisation de gestes simples dans le but de secourir et limiter drastiquement les morts évitables dans les toutes premières minutes. Le dénombrement et la traçabilité des victimes catégorisées puis triées médicalement nécessitent un support, papier ou informatique qui permet d’évaluer la qualité du triage et son degré de fiabilité.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography