Academic literature on the topic 'Compression avec pertes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Compression avec pertes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Compression avec pertes":

1

Benderradji, Razik, Hamza Gouidmi, and Abdelhadi Beghidja. "Etude numérique de transition RR / MR dans l’interaction onde de choc / choc de compression." Journal of Renewable Energies 19, no. 4 (October 17, 2023): 595–604. http://dx.doi.org/10.54966/jreen.v19i4.597.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La présente étude s’intéresse à la fois au développement de la couche limite turbulente en écoulement supersonique sur une plaque plane, à la distance requise pour qu’elle envahisse toute la section de la plaque, ainsi qu’aux effets de la taille de la zone d'interaction sur le développement de la même couche limite. L'augmentation de la force de l'interaction est une augmentation de la taille des zones d'interactions conduisant à la formation d'une bulle de re-circulation qui est une zone des pertes de charge importantes. Pour cette raison, on peut diminuer, puis augmenter le nombre de Mach pour voir une réflexion de Mach qui explique l'impact de l'onde de choc incident forte avec la couche limite. L'augmentation et la diminution du nombre de Mach a causé l'apparition d’une transition dans les interactions réflexion régulière (RR), réflexion de Mach (MR), qui est représenté par les iso contours des champs de la masse volumique. Ces études sont bien en accord par rapport à l'essai qui a été présenté par Délery et al. (2009). On a donné une autre contribution et des investigations du phénomène de l'interaction onde de choc/couche limite turbulente. Le modèle utilisé dans cette étude est le modèle kwSST, il est considéré comme étant le plus approprié pour ce genre de problème, avec un traitement spécial de la zone proche de la paroi. Des simulations numériques ont été faites à l’aide de logiciel FLUENT.
2

Koff, D., P. Bak, P. Brownrigg, A. Kiss, and L. Lepanto. "Compression des images medicales avec perte : le point sur le projet Canadien." Journal de Radiologie 89, no. 10 (October 2008): 1352. http://dx.doi.org/10.1016/s0221-0363(08)76059-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Kumar, Shailendra, Ismita Nautiyal, and Shikhar Shukla. "Some physical properties of delignified and compressed Melia dubia wood." BOIS & FORETS DES TROPIQUES 341 (July 20, 2019): 71. http://dx.doi.org/10.19182/bft2019.341.a31758.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude explore les effets de la délignification dans l’amélioration de quelques propriétés physiques du bois comprimé. Les billes de bois d’une plantation de six ans d’âge de Melia dubia (densité = 0,39 g/cm3) ont été délignifiées dans une solution alcaline de NaOH et Na2SO3 pendant 4 heures. Les billes de bois délignifiées ont été séchées jusqu’à contenir 12 % d’humidité, et comprimées à deux températures (120 °C et 150 °C) pendant 2 heures et 4 heures. Les améliorations dans la densité, la recouvrance de la compression (%) et la perte d’épaisseur (%) après la compression ont été observées et comparées avec des échantillons non délignifiés. La densité moyenne du bois délignifié et comprimé (DCW) était de 0,825 g/cm3 (SD = 0,109) ; pour le bois comprimé sans délignification (CW), la densité moyenne était de 0,889 g/cm3 (SD = 0,049). Ces densités diffèrent significativement : les échantillons de DCW ont montré une basse recouvrance de la compression (2,97 % à 5,22 %), tandis que, comparativement, les échantillons de bois CW ont montré une haute recouvrance de la compression (48,47 % à 38,05 %). La perte moyenne d’épaisseur (%) dans les échantillons de DCW a varié de 47,22 % à 52,26 %, et elle était approximativement de 10 % plus haute (58,77 % à 61,91 %) dans les échantillons de CW, sans délignification.
4

Cavaro-Menard, C. "Compression des images medicales avec et sans perte : aspects techniques et validation clinique." Journal de Radiologie 89, no. 10 (October 2008): 1352. http://dx.doi.org/10.1016/s0221-0363(08)76058-x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Fayolle, Jacky, and Françoise Milewski. "Un compromis monétaire favorable à l'Europe." Revue de l'OFCE 61, no. 2 (June 1, 1997): 5–92. http://dx.doi.org/10.3917/reof.p1997.61n1.0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Une fenêtre s'ouvre aujourd'hui pour que les pays européens puissent s'échapper de la « prison » de la déflation, si leurs politiques économiques s'avèrent suffisamment accommodantes. L'appréciation récente du dollar n'est pas une simple bulle destinée à se dégonfler à brève échéance. Elle traduit fondamentalement la prise en compte par les opérateurs internationaux de la continuité des performances de croissance américaines et leur confiance accrue dans le caractère soutenable de la position extérieure américaine. Si les politiques monétaires, en Europe et au Japon, maintiennent suffisamment longtemps de bas taux d'intérêt à court terme, la correction des changes pourrait être menée à terme et le dollar se stabiliser, fin 1997, au voisinage de 1,9 DM et 130 yens. Avec la normalisation des changes intra-européens, c'est un changement d'environnement significatif pour les entreprises européennes. Dans les dernières années, en effet, la contrainte de monnaie forte a constitué, pour nombre d'entre elles, un vecteur privilégié des influences déflationnistes, en poussant à la guerre des prix et à l'abaissement prioritaire des charges d'exploitation et d'investissement. Il résultera de ce changement des gains de parts de marché substantiels pour les entreprises européennes, mais aussi et surtout des signaux de prix plus favorables, qui devraient lever l'inhibition à produire et investir. Les politiques budgétaires européennes auront aussi leur rôle à jouer jians la consolidation de cet environnement, en évitant un durcissement exagéré au voisinage des prochaines échéances institutionnelles. La croissance internationale, qui bénéficiera en 1997 et 1998 d'une accélération du commerce international, pourrait être ainsi mieux partagée au sein de l'OCDE. La croissance américaine, toujours forte, bénéficie des effets du fort courant d'investissements sur le potentiel productif, si bien que les tensions inflationnistes sur les marchés de biens restent limitées. Les autorités monétaires ont les moyens de maîtriser la vitesse de l'expansion, sans avoir à verser dans un durcissement d'une sévérité telle qu'il s'avérerait déstabilisant. Les conditions de liquidité de l'économie américaine se sont en effet progressivement resserrées depuis 1994 et rendent efficace une nouvelle action marginale de la Réserve fédérale. La croissance américaine, encore vive en 1997 (2,8 %), ralentirait sans drame en 1998 (2 %). Le Japon bénéficie désormais de la décrue du yen mais s'apprête à subir un assainissement budgétaire qui amputera lourdement les ressources des ménages et fragilisera davantage une demande privée déjà versatile. C'est donc le maintien d'une politique monétaire accommodante, qui, à travers son impact sur le taux de change, aura la charge principale de placer le Japon sur un sentier d'expansion honorable. La contribution du commerce extérieur jouera un rôle essentiel pour permettre au Japon d'atteindre une croissance supérieure à 3 % en 1998. Le regain d'exportations n'a encore eu jusqu'à présent qu'un effet d'entraînement limité sur l'économie allemande. La consommation des ménages allemands pâtit de l'ajustement des emplois et des restructurations en cours. Ces restructurations améliorent progressivement la rentabilité des entreprises mais la confirmation de la détente concurrentielle est décisive pour que leur incitation à investir soit enfin libérée. En 1997, le programme d'économies sociales exercera une ponction contraignante sur les ressources des ménages. Mais si l'effort actuel parvient à ramener le déficit public au voisinage du critère de Maastricht, la politique budgétaire pourrait relâcher la pression sur les ménages en 1998 et devenir modérément expansionniste : ce serait bénéfique à l'expansion sans constituer un danger pour la maîtrise acquise du déficit. Une impulsion pourrait ainsi être donnée à la consommation des ménages et la demande interne relaierait enfin la reprise des exportations. C'est dans ces conditions que L'Allemagne pourrait renouer, après une année 1997 encore modeste (2,2 %), avec une expansion significative en 1998 (3,5 %). La croissance décrite pour la France (2,5 % cette année, 3,1 % l'an prochain) s'appuie sur l'hypothèse d'un changement de configuration monétaire et financière : la montée du dollar, passée et prévue, permettrait de conforter le regain des exportations, grâce au redressement du commerce mondial et aux gains de parts de marché. En même temps, les profits à l'exportation pourraient se redresser ; leur compression passée, pour limiter les pertes de compétitivité, pesait sur les salaires, les emplois, les investissements etc. Le rééquilibrage anticipé dans cette prévision modifierait les comportements. D'autant que la montée du dollar s'accompagne d'un rééquilibrage à l'intérieur même du SME. La détente des taux d'intérêt se maintiendrait et permettrait aussi que le contexte d'incertitudes soit en partie levé. La dynamique d'une reprise par l'extérieur pourrait ainsi se concrétiser : la fin des comportements restrictifs de dépenses des entreprises impliquerait l'arrêt du déstockage, la stabilisation des effectifs puis la reprise des embauches et enfin le redémarrage de l'investissement. Ainsi, la demande intérieure s'accélérerait : demande intérieure totale dès 1997 (du fait des stocks), demande intérieure finale en 1998 grâce à l'investissement. La politique économique reste contrainte par la satisfaction des critères de Maastricht : investissement et consommation des administrations sont limités et le seront d'autant plus si des risques de creusement du déficit apparaissent. L'investissement productif sera l'élément dynamique de la demande intérieure, tout particulièrement en 1998. Mais la consommation a peu de chance de s'intensifier car elle a été dopée en 1996 par les mesures de soutien à l'automobile : la baisse du taux d'épargne a déjà eu lieu. La croissance sera compatible avec un nouveau ralentissement de l'inflation (malgré la hausse du prix de l'énergie importée), une nouvelle extension de l'excédent commercial (grâce à l'industrie) et elle permettrait une inflexion à la baisse du chômage. Les créations d'emplois s'accentueraient progressivement et atteindraient en 1998 un rythme proche de celui de 1988-89, bien que la croissance du PIB soit plus faible : le ralentissement des gains de productivité, avec le développement du temps partiel, et le contrecoup des faibles créations d'emplois de 1994 dans l'industrie permettraient une reprise franche à court terme. Le revenu des ménages en sera peu affecté ; mais le chômage pourrait cesser de croître et même diminuer en 1998, sous l'hypothèse d'une neutralité de la politique de l'emploi. Enfin, les critères de Maastricht seraient respectés, les dépenses étant modérées (et, au besoin, gelées) et les recettes accrues si nécessaire.
6

Leclerc, Marc. "Traumatismes de la carapace chez la tortue : présentation de la technique de cerclage en huit." Le Nouveau Praticien Vétérinaire canine & féline 20, no. 85 (2023): 68–72. http://dx.doi.org/10.1051/npvcafe/2024011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les traumatismes de la carapace sont fréquemment rapportés chez tous les types de tortues. Sous les écailles se trouve un agencement de plaques osseuses qui protègent les organes de la cavité cœlomiques. Les poumons sont les organes les plus dorsaux, ils couvrent les autres viscères. Lors de traumatisme, il faut réaliser un bilan lésionnel complet, puis stabiliser cliniquement l’animal. Vient ensuite la bonne gestion des plaies, qui est un préambule essentiel à la stabilisation orthopédique. Les rinçages favorisent l’assainissement des plaies par détersion autolytique. Lors de perte de fragments, la reconstruction anatomique devient impossible, c’est alors la cicatrisation par seconde intention qui est favorisée jusqu’à l’obtention d’un tissu osseux. Une fois les plaies assainies, de nombreuses techniques de stabilisation ont été décrites (résines, colliers, plaques). Cependant une seule – le cerclage en huit avec effet de hauban – révèle sa supériorité en mêlant simplicité de la technique et limitation du traumatisme, le tout associé à une excellente stabilité liée à la mise en compression des abouts osseux. Après la réalisation d’un protocole anesthésique classique, cette technique est obtenue par la mise en place, perpendiculairement et à égale distance du trait de fracture, de 2 vis insérées avec des angles convergents. Ces vis sont reliées par un fil de cerclage en acier qui, lors du serrage, appliquera une force de compression par effet de hauban.
7

Vignes, S. "Lipœdème." Obésité 14, no. 3 (September 2019): 124–30. http://dx.doi.org/10.3166/obe-2019-0071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le lipœdème est une entité clinique mal connue, dont la prévalence est inconnue et qui est souvent confondue avec un lymphœdème. Il s’agit d’une répartition anormale du tissu adipeux, également pathologique, allant des hanches jusqu’aux chevilles en respectant les pieds. Il touche presque exclusivement les femmes obèses et débute généralement vers la puberté. Il s’accompagne de douleurs spontanées cutanées ou lors d’une stimulation modérée (pression, pincement), d’ecchymoses spontanées et d’œdèmes après orthostatisme prolongé. Le retentissement sur l’image corporelle et sur la qualité de vie est très important. Les examens complémentaires (scanner, IRM, lymphoscintigraphie) peuvent être utiles en cas de doute diagnostique ou pour confirmer le lipœdème. Après une longue évolution, le système lymphatique est atteint avec l’apparition d’un lipolymphœdème touchant alors le dos du pied et pouvant se compliquer d’érysipèle. La prise en charge n’est pas codifiée et comprend une perte de poids (qui améliore peu la morphologie des membres inférieurs), un soutien psychologique, la compression élastique, souvent mal tolérée et les activités physiques, en particulier en milieu aquatique. La liposuccion par tumescence réduit le volume, les douleurs spontanées et provoquées, les ecchymoses spontanées, et améliore l’apparence mais aussi la qualité de vie. La poursuite de la recherche clinique et physiopathologique du lipœdème est nécessaire pour pouvoir prendre en charge les femmes qui en sont atteintes.
8

Liu, Melody. "A Parametric Study Of The Parameters Governing Flow Incidence Angle Tolerance For Turbomachine Blades." Journal of Student Science and Technology 10, no. 1 (August 19, 2017). http://dx.doi.org/10.13034/jsst.v10i1.129.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Performance metrics quantifying the efficiency of various turbomachinery blades aid in the development of an optimal blade design. In this study, a metric was created to investigate the performance of 48 different compressor blades created with Octave and MISES software. Three input parameters were varied: leading edge radius, the location of maximum blade thickness, and the number of blades in a blade row. The objective was to determine which of these parameters most strongly affects the average loss and incidence range for the blade row. After a sensitivity analysis of the three input parameters was conducted, it was found that the number of blades had the largest effect on blade performance, followed by the leading edge geometry and lastly the location of maximum thickness. Les indicateurs de performance qui mesurent les ef cacités de plusieurs pales utilisées dans les turbomachines aident le développement d’une conception optimale des pales. Dans cet article, un indicateur a été créé pour étudier la performance de 48 pales de compresseurs axiaux différents qui ont été faites avec les logiciels Octave et MISES. Trois paramètres d’entrés ont été examinés : le rayon du bord d’attaque, l’endroit de l’épaisseur maximale de la pale et le nombre de pales dans la rangée. L’objectif était de déterminer lequel parmi ces paramètres a l’effet le plus important sur la perte moyenne et la gamme de l’incidence de la rangée de pales. Après une analyse de sensibilité des trois paramètres, les résultats ont montré que le nombre de pales dans la rangée a eu l’effet le plus important sur la performance des pales, suivie par la géométrie du bord d’attaque et en n l’endroit de l’épaisseur maximale.
9

Cervi, Andrea, Lisa Kim, Sriharsha Athreya, and Jason Cheung. "A Blue Leg: An Interventional Approach to a Limb-Threatening Deep Vein Thrombosis." Canadian Journal of General Internal Medicine 12, no. 2 (August 30, 2017). http://dx.doi.org/10.22374/cjgim.v12i2.238.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Phlegmasia cerulea dolens (PCD) is a rare complication of acute deep vein thrombosis (DVT) characterized by fulminant venous thrombosis that compromises arterial blood flow, resulting in tissue ischemia, venous gangrene, and possible loss of limb. A high rate of morbidity and mortality associated with PCD requires prompt recognition and treatment. An accepted therapeutic algorithm for the management of PCD does not currently exist. Acute reduction in clot burden can be achieved through catheter-directed thrombolysis (CDT) with lower rates of post-thrombotic symptoms, and there has been a recent trend toward use of CDT. We report the case of a 26-year-old female who presented with PCD of her left leg and underwent successful CDT, highlighting the benefits of rapid recognition of a rare complication of acute DVT, and the role for a multidisciplinary endovascular approach to managing fulminant limb-threatening venous thrombosis.La phlegmatia caerulea dolens (PCD) est une complication rare de la thrombose veineuse profonde (TVP) aiguë caractérisée par une thrombose veineuse foudroyante qui compromet le débit sanguin et résulte en une ischémie tissulaire, une évolution vers la gangrène et le risque de perte de membre. La PCD est associée à un taux élevé de morbidité et de mortalité et requiert une reconnaissance et un traitement rapides. Il n’existe actuellement pas de modèle défini d’intervention pour la prise en charge de la PCD. Une réduction rapide du caillot peut être obtenue par thrombolyse guidée par cathéter (TGC), intervention associée à un taux plus faible de symptômes post-thrombotiques. Le recours à la TGC est d’ailleurs plus fréquent depuis peu. Nous décrivons ici le cas d’une patiente âgée de 26 ans qui présentait une PCD à la jambe gauche et qui a été traitée avec succès par TGC. Ce cas fait ressortir l’importance de savoir reconnaître rapidement une complication rare de la TVP aiguë, ainsi que d’appliquer une approche endovasculaire multidisciplinaire dans la prise en charge d’une thrombose veineuse fulminante susceptible de causer la perte d’un membre.Phlegmasia cerulea dolens (PCD) is a rare manifestation of acute proximal deep vein thrombosis (DVT) in which extensive clot causes arterial insufficiency and compartment compression.1 This can result in venous gangrene, threatening limb viability, and requires acute intervention. Catheter-directed thrombolysis (CDT) entails selective infusion of a thrombolytic agent at the site of thrombus via a penetrating catheter under radiographic guidance. This approach is a viable therapeutic option in the management of PCD as it can rapidly restore limb perfusion while minimizing systemic bleeding complications.Clinical practice guidelines directing the use of CDT for treatment of lower limb DVTs are varied. The most recent 2016 American College of Chest Physicians’ guidelines provide a weak recommendation for CDT in carefully selected patients,2 whereas the Society of Interventional Radiology strongly advises consideration of CDT in patients with extensive iliofemoral DVT.3 Limited trial data has highlighted the efficacy of CDT in optimizing venous patency and mitigating the incidence of chronic DVT complications, namely post-thrombotic syndrome (PTS) and venous ulceration, in acute iliofemoral DVT.4–7 The immediate thromboreduction afforded by CDT may minimize the chronic venous remodelling that results from the presence of residual clot which underlies the pathophysiology of PTS. A full appreciation of the immediate and long-term complications of CDT is lacking, thus creating controversy surrounding its use.8 We report a case of PCD that was successfully treated with CDT, highlighting the need for rapid recognition of a rare complication of an acute DVT and the benefit of CDT in carefully selected patients.CASE DESCRIPTIONA 26-year-old female presented to the Emergency Department (ED) at one of our tertiary care, academic hospitals with an 8-hour history of acute-onset, non-resolving left leg pain, swelling, and discoloration. The patient had also been experiencing exertional dyspnea and gradually worsening pleuritic chest pain for the past 1.5 weeks. Thromboembolic risk factors included obesity and use of the oral contraceptive pill. There was no history of previous venous thromboembolism, autoimmune disease, pregnancy loss, or malignancy. Family history was positive for postpartum pulmonary embolism in the patient’s mother.The patient was hemodynamically stable in the ED although with a slightly elevated heart rate of 93 bpm on arrival at triage. Her physical examination revealed a left leg that was markedly edematous from proximal thigh to foot, with accompanying blue discoloration, and significant pain to palpation of her limb. The range of motion was limited due to pain. Although the leg’s neurovascular status was intact, distal pulses were weak and the leg was cooler compared to the other. A computed tomography pulmonary angiogram confirmed the presence of multiple large, acute pulmonary emboli in the interlobar, lobar, and segmental arteries bilaterally with associated lung infarcts and leftward bowing of the interventricular septum, suggestive of right heart strain. Doppler ultrasound of the patient’s leg revealed extensive occlusive thrombus extending distally from the left external iliac vein to the trifurcation (Figure 1). Weight-based low molecular weight heparin was initiated; however, given the extensive burden of clot, consultations with both the Hematologist and Interventional Radiologist led to the decision of pursuing CDT. Prior to initiation of CDT, an IVC filter was inserted given the extent of the patient’s pulmonary emboli. Figure 1. Venogram of left femoral vein (white arrow) demonstrating extensive thrombus (A). Proximal view of thrombus in left external iliac vein (B). Using ultrasound guidance, the extensive thrombus was pulse sprayed with tissue plasminogen activator (TPA) using an AngioJet device (Figure 2), followed by mechanical thrombectomy and balloon angioplasty of the external iliac vein. TPA and heparin infusions were continued at the site of the thrombus in conjunction with systemic anticoagulation using a heparin infusion protocol. Follow-up venogram 24 hours later demonstrated patency of the left superficial and common femoral veins with residual non-occlusive thrombus in the left common iliac vein, at which time the selective infusions of tPA and heparin were discontinued. The patient tolerated the procedure well with no complications and was discharged home on rivaroxaban four days later.Figure 2. Venograms during and 24 hours post-CDT. Angio Jet device in situ, with inferior catheter site holes for TPA release (A). Balloon angioplasty of stenosis in left external iliac vein (B). Venogram post-CDT, demonstrating patency in the left femoral and external iliac veins (C). DISCUSSIONClinical features that have been shown to optimize the success of endovascular therapy for DVTs include acute onset of symptoms, often within 14 days, iliofemoral location of clot, and low risk bleeding profile, 2 all of which were present in our patient and likely contributed to her favourable outcome. Moreover, our patient had extensive, flow-limiting thrombus on Doppler ultrasound that was clinically manifest as widespread limb edema, acute ischemic pain, and discoloration, consistent with a diagnosis of PCD. Rapid recognition of PCD is required to institute venous recanalization and salvage limb viability. Guidelines for the management of this scenario are currently lacking but there has been a recent trend toward use of more aggressive techniques such as CDT. 8,9 Ongoing (ATTRACT, DUTCHCAVA) multicentre trials will help to inform future decision-making regarding the possibility of broadening the use of endovascular therapy for management of acute DVT,10 as it currently remains highly individualized and centre-specific.Ultimately, this case illustrates the role for a multidisciplinary approach to the management of a limb-threatening DVT. Recognition of PCD and rapid referral to a centre that is capable of performing an interventional radiological procedure may help to prevent significant morbidity. REFERENCES1. Chinsakchai K, Duis T, Moll FL, et al. Trends in management of phlegmasia cerulea dolens. Vasc Endovascular Surg 2011;45(1):5–14.2. Kearon C, Akl EA, Ornelas J, et al. Antithrombotic therapy for VTE disease: CHEST guideline and expert panel report. Chest 2016;149(2):315–52.3. Vedantham S, Millward SF, Cardella JF, et al. Society of Interventional Radiology position statement: treatment of acute iliofemoral deep vein thrombosis with use of adjunctive catheter-directed intrathrombus thrombolysis. J Vasc Interv Radiol 2006;17:613–16.4. Elsharawy M and Elzayat E. Early results of thrombolysis vs. anticoagulation in iliofemoral venous thrombosis. A randomised clinical trial. Eur J Vasc Endovasc Surg 2002;24(3):209–14.5. Enden T, Klow NE, Sandvik L, et al. Catheter-directed thrombolysis vs. anticoagulant therapy alone in deep vein thrombosis: results of an open randomized, controlled trial reporting on short-term patency. J Thromb Haemost 2009;7(8):1268–75.6. Enden T, Haig Y, Klow NE, et al. Long-term outcome after additional catheter-directed thrombolysis versus standard treatment for acute iliofemoral deep vein thrombosis (the CaVenT study): a randomised controlled trial. Lancet 2012;379(9810):31–38.7. Haig Y, Enden T, Grotta O, et al. Post-thrombotic syndrome after catheter-directed thrombolysis for deep vein thrombosis (CaVenT): 5-year follow-up results of an open-label, randomised controlled trial. Lancet Haematol 2016;3(2):e64–71.8. Bashir R, Zack CJ, Zhao H, et al. Comparative outcomes of catheter-directed thrombolysis plus anticoagulation vs. anticoagulation alone to treat lower-extremity proximal deep vein thrombosis. JAMA Intern Med 2014;174(9):1494–501.9. Watson L, Broderick C, Armon MP. Thrombolysis for acute deep vein thrombosis. Cochrane Data Syst Rev 2014;1, Art. No.: CD002783.10. Liew A and Douketis J. Catheter-directed thrombolysis for extensive iliofemoral deep vein thrombosis: review of literature and ongoing trials. Expert Rev Cardiovasc Ther 2016;14(2):189–200.

Dissertations / Theses on the topic "Compression avec pertes":

1

Valade, Cédric. "Compression d'images complexes avec pertes : application à l'imagerie radar." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Installé à bord d'aéronefs ou de satellites, le Radar à Synthèse d'Ouverture (RSO) permet d'imager des zones à haute résolution. Les volumes de données générés sont très importants et les capacités limitées des canaux de transmission et/ou de stockage forment un sous-ensemble critique des systèmes d'observation. De ce fait, la solution classiquement retenue est de recourir à la compression des données. Le système radar cohérent génère des données de forte dynamique où les pixels issus de la formation de l'image sont des données complexes au sens mathématique du terme, c'est-à-dire constitués d'une valeur d'amplitude et de phase. La faible corrélation spatiale des pixels rend les techniques de compression répandues dans le domaine optique beaucoup moins efficaces. L'objectif de cette étude consiste à proposer un système de compression avec pertes adapté aux images RSO SLC (Single Look Complex) et prenant en compte le caractère complexe des pixels. Nous suggérons différents schémas de compression dépendants de la répresentation du signal dans le plan complexe (amplitude/phase ou partie réelle/imaginaire). Nous nous focalisons essentiellement sur des techniques de type multirésolution comme la transformée en ondelettes et paquets d'ondelettes discrètes. Un ensemble de modèles statistiques spécifiques à la caractérisation des images RSO permettra d'adapter diverses méthodes de quantification polaire à la problématique de la compression d'images complexes. Enfin, la dernière partie de cette étude sera consacrée à la présentation des résultats à traver l'utilisation d'un panel de critères objectifs avec notamment une évaluation de la qualité des images décompressées.
2

Valade, Cédric. "Compression d'images complexes avec pertes : application à l'imagerie radar /." Paris : École nationale supérieure des télécommunications, 2007. http://catalogue.bnf.fr/ark:/12148/cb41003215x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Liu, Yi. "Codage d'images avec et sans pertes à basse complexité et basé contenu." Thesis, Rennes, INSA, 2015. http://www.theses.fr/2015ISAR0028/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce projet de recherche doctoral vise à proposer solution améliorée du codec de codage d’images LAR (Locally Adaptive Resolution), à la fois d’un point de vue performances de compression et complexité. Plusieurs standards de compression d’images ont été proposés par le passé et mis à profit dans de nombreuses applications multimédia, mais la recherche continue dans ce domaine afin d’offrir de plus grande qualité de codage et/ou de plus faibles complexité de traitements. JPEG fut standardisé il y a vingt ans, et il continue pourtant à être le format de compression le plus utilisé actuellement. Bien qu’avec de meilleures performances de compression, l’utilisation de JPEG 2000 reste limitée due à sa complexité plus importe comparée à JPEG. En 2008, le comité de standardisation JPEG a lancé un appel à proposition appelé AIC (Advanced Image Coding). L’objectif était de pouvoir standardiser de nouvelles technologies allant au-delà des standards existants. Le codec LAR fut alors proposé comme réponse à cet appel. Le système LAR tend à associer une efficacité de compression et une représentation basée contenu. Il supporte le codage avec et sans pertes avec la même structure. Cependant, au début de cette étude, le codec LAR ne mettait pas en oeuvre de techniques d’optimisation débit/distorsions (RDO), ce qui lui fut préjudiciable lors de la phase d’évaluation d’AIC. Ainsi dans ce travail, il s’agit dans un premier temps de caractériser l’impact des principaux paramètres du codec sur l’efficacité de compression, sur la caractérisation des relations existantes entre efficacité de codage, puis de construire des modèles RDO pour la configuration des paramètres afin d’obtenir une efficacité de codage proche de l’optimal. De plus, basée sur ces modèles RDO, une méthode de « contrôle de qualité » est introduite qui permet de coder une image à une cible MSE/PSNR donnée. La précision de la technique proposée, estimée par le rapport entre la variance de l’erreur et la consigne, est d’environ 10%. En supplément, la mesure de qualité subjective est prise en considération et les modèles RDO sont appliqués localement dans l’image et non plus globalement. La qualité perceptuelle est visiblement améliorée, avec un gain significatif mesuré par la métrique de qualité objective SSIM. Avec un double objectif d’efficacité de codage et de basse complexité, un nouveau schéma de codage LAR est également proposé dans le mode sans perte. Dans ce contexte, toutes les étapes de codage sont modifiées pour un meilleur taux de compression final. Un nouveau module de classification est également introduit pour diminuer l’entropie des erreurs de prédiction. Les expérimentations montrent que ce codec sans perte atteint des taux de compression équivalents à ceux de JPEG 2000, tout en économisant 76% du temps de codage et de décodage
This doctoral research project aims at designing an improved solution of the still image codec called LAR (Locally Adaptive Resolution) for both compression performance and complexity. Several image compression standards have been well proposed and used in the multimedia applications, but the research does not stop the progress for the higher coding quality and/or lower coding consumption. JPEG was standardized twenty years ago, while it is still a widely used compression format today. With a better coding efficiency, the application of the JPEG 2000 is limited by its larger computation cost than the JPEG one. In 2008, the JPEG Committee announced a Call for Advanced Image Coding (AIC). This call aims to standardize potential technologies going beyond existing JPEG standards. The LAR codec was proposed as one response to this call. The LAR framework tends to associate the compression efficiency and the content-based representation. It supports both lossy and lossless coding under the same structure. However, at the beginning of this study, the LAR codec did not implement the rate-distortion-optimization (RDO). This shortage was detrimental for LAR during the AIC evaluation step. Thus, in this work, it is first to characterize the impact of the main parameters of the codec on the compression efficiency, next to construct the RDO models to configure parameters of LAR for achieving optimal or sub-optimal coding efficiencies. Further, based on the RDO models, a “quality constraint” method is introduced to encode the image at a given target MSE/PSNR. The accuracy of the proposed technique, estimated by the ratio between the error variance and the setpoint, is about 10%. Besides, the subjective quality measurement is taken into consideration and the RDO models are locally applied in the image rather than globally. The perceptual quality is improved with a significant gain measured by the objective quality metric SSIM (structural similarity). Aiming at a low complexity and efficient image codec, a new coding scheme is also proposed in lossless mode under the LAR framework. In this context, all the coding steps are changed for a better final compression ratio. A new classification module is also introduced to decrease the entropy of the prediction errors. Experiments show that this lossless codec achieves the equivalent compression ratio to JPEG 2000, while saving 76% of the time consumption in average in encoding and decoding
4

Jung, Ho-Youl. "Contribution a la compression sans pertes pour la transmission progressive des images : proposition de transformations avec arrondis." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse développe des méthodes de décorrélation pour la compression d’images sans pertes adaptées à la transmission progressive. Le schéma usuel, en compression sans pertes, est constitué de deux étapes: décorrélation puis codage entropique. Les données issues de la décorrélation doivent être représentées par des nombres entiers pour permettre le codage entropique. Dans ce but, de nouvelles techniques à base d’une paire d’opérations d’arrondis sont proposées, elles sont regroupées en deux classes: transformations par blocs et filtrages linéaires. Dans la classe des transformations par blocs, une nouvelle transformation, dite ‘Transformation par Arrondi (RT)’ est définie, elle convertit un vecteur d’entrée à composantes entières en un autre vecteur à composantes entières. Elle est appliquée à la compression des images sans pertes dans une structure de pyramide. Une définition unifiée de la transformation entière de Walsh-Hadamard (‘integer WHT’) est également proposée. Grâce à la RT, elle peut être représentée par une cascade de produits de matrices avec une paire d’opérations d’arrondis. Dans la classe des filtrages linéaires une contribution aux techniques de décomposition en sous-bandes est développée. Une extension de la RT, dite ‘Overlapping RT’ (ORT), est définie par un système de filtrage à deux entrées et deux sorties qui utilise une paire d’opérations d’arrondis. De plus, l’ORT, est généralisée à des dimensions quelconques et permet l’utilisation de nombreux bancs de filtres séparables ou non séparables avec M (>2) canaux. En dernier lieu, la compression d’images volumiques (3-D) sans pertes est évaluée. Pour cela, les propositions de cette thèse sont étendues au cas tridimensionnel
Lossless image compression often consists of two consecutive steps: lossless (reversible) decorrelation and entropy coding. The decorrelated data should be represented by integer number, as it will be entropy coded. In this dissertation, we develop new decorrelation methods, based on a pair of rounding operations, which are very effective for lossless and progressive image compression. The proposed methods are classified into two classes: block transform and linear filtering. In the class of block transform, a new reversible transform, called the Rounding Transform (RT), is proposed, which maps an integer vector onto another integer vector by using weighted average and difference filters followed by a rounding operation. The RT is applied to lossless pyramid structured coding with various elementary block sizes and filters. We also propose a unified definition for the integer Walsh-Hadamard Transform (WHT) which is represented by a cascade of matrix products with a rounding operation. This permits applying a large size WHT to the lossess pyramid structured coding. In the class of linear filtering, lossless subband coding systems are developed. We propose an extension of the RT, called the Overlapping RT (ORT), which is defined as a two-port input/two-port output FIR filtering system with a pair of rounding operations. The ORT is applied to develop lossless two-band subband coding system. In addition, the ORT is extended into a general size. This permits to develop lossless M (>2) band (non)-separable subband coding system. All the proposed methods are also extended into 3-D case and applied on volumetric medical images
5

Mary, David. "Techniques causales de codage avec et sans pertes pour les signaux vectoriels." Paris : École nationale supérieure des télécommunications, 2003. http://catalogue.bnf.fr/ark:/12148/cb39085235p.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Sun, Yifei. "Methodological approaches for Goal-oriented Communication." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un schémas de communication classique, le récepteur essaie de reconstituer une version la plus proche possible des données que l'émetteur souhaite lui transmettre. L'écart est habituellement évalué à l'aide d'une mesure de distorsion telle que l'erreur quadratique moyenne. Cette mesure n'est cependant pas forcément adaptée si l'on s'intéresse à l'usage qui sera fait des données transmises.Récemment, des schémas de communication orientés vers les objectifs devant être atteints grâce aux données transmises ont été développés. Ces schémas considèrent l'utilisation finale des données transmises. L'exploitation des données reconstruites au récepteur doit permettre d'obtenir des résultats se rapprochant le plus possible de ceux qui seraient obtenus à partir des données originales.Dans une première partie de cette thèse, l'objectif correspond à un problème d'optimisation sous contraintes dépendant d'un vecteur de paramètres transmis avec un budget limité. Un schéma de compression orienté vers les objectifs est proposé. Son but est de minimiser la perte d'optimalité. Des méthodes de précodage linéaire et non linéaire sont présentées. Un schéma de quantification orienté vers les objectifs est également introduit. Le schéma de compression complêt proposé est évalué sur un ensemble de données réelles et montre une réduction significative de la perte d'optimalité par rapport à des schémas classiques minimisant l'erreur quadratique moyenne de reconstruction.Une seconde partie de la thèse aborde les communications orientées vers les objectifs et plus spécifiquement le contrôle de puissance d'émission pour les systèmes opérés grâce à un contrôleur distant. Pour ce type de dispositifs, l'énergie dépensée dans les communications peut jouer un rôle important. L'objectif est de proposer et de caractériser un schéma permettant d'atteindre un compromis entre l'énergie liée au deséquilibre du système, l'énergie dépensée pour le contrôle du système, et l'énergie dépensée dans la communication d'information vers le contrôleur distant.Dans cette thèse, nous considérons un ensemble de paires système-contrôleur distant partageant le même canal radio. Les messages transmis interfèrent, ce qui conduit à des pertes de paquets. La probabilité de perte dépend de la puissance d'émission de chaque système. Dans le cas d'une paire système-contrôleur unique, et pour des systèmes dynamiques linéaires en l'entrée, nous exploitons la structure récursive de la fonction coût à optimiser pour trouver une politique optimale de contrôle de la puissance d'émission. Pour plusieurs paires système-contrôleur, une solution reposant sur la théorie des jeux est proposée
In a conventional communication scheme, the receiver tries to reconstruct a version as close as possible to what the sender wishes to transmit. The deviation is usually evaluated using a distortion measure such as the mean square error. This measure is not necessarily appropriate, however, if we are interested in the use that will be made of the transmitted data.Recently, communication schemes have been developed that focus on the objectives to be achieved with the data transmitted. These schemes consider the final use of the data transmitted. The exploitation of the reconstructed data at the receiver should enable results to be obtained that are as close as possible to those that would be obtained from the original data.In the first part of this thesis, the objective corresponds to a constrained optimization problem depending on a vector of parameters transmitted with a limited budget. A goal-oriented compression scheme is proposed. Its aim is to minimize the optimality loss. Linear and non-linear precoding methods are presented. A goal-oriented quantization scheme is also introduced. The proposed complete compression scheme is evaluated on a real data set and shows a significant reduction in optimality loss compared to conventional schemes minimizing the mean square reconstruction error.A second part of the thesis deals with goal-oriented communications and more specifically with transmit power control for systems operated by a remote controller. For this type of device, the energy consumed in communications can become significant. The aim is to propose and characterize a scheme that achieves a compromise between the energy related to system disequilibrium, the energy expended for system control, and the energy expended in communicating information to the remote controller.In this thesis, we consider a set of remote system-controller pairs sharing the same radio channel. Transmitted messages interfere, leading to packet loss. The loss probability depends on the transmission power of each system. In the case of a single system-controller pair, and for linear dynamics, we exploit the recursive structure of the cost function to be optimized to find an optimal transmission power control policy. For multiple system-controller pairs, a game-theoretic solution is proposed
7

KIM, Geun-Beom. "Recherche des sélectrons, neutralinos et squarks dans le cadre du modèle GMSB avec le détecteur CMS. Etude de la compression sans pertes de données provenant du calorimètre électromagnétique." Phd thesis, Université Louis Pasteur - Strasbourg I, 2001. http://tel.archives-ouvertes.fr/tel-00001120.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet de cette thèse est la recherche des sélectrons, neutralinos et squarks dans le cadre du modèle GMSB (Gauge Mediated Supersymmetry Breaking) avec le détecteur CMS et l?étude de la compression sans pertes des données. Avec une fréquence de 40 MHz des croisements des faisceaux de protons environ 10^9 interactions proton-proton par seconde se produisent à la luminosité nominale de 10^34 cm-2 s-1. La définition du système de déclenchement et d?acquisition de CMS impose des conditions très restrictives aux données sortantes. La fréquence moyenne des événements sortants doit être inférieure à 100 kHz. La taille moyenne d?un événement provenant du calorimètre électromagnétique doit être inférieure à 100 kilo octets. Cette thèse résumera dans quelle mesure il est possible d?appliquer aux données ainsi obtenues une réduction du volume des données supplémentaire en utilisant les techniques offertes par la compression de données sans pertes. Les grands objectifs du programme de physique du LHC est de comprendre l?origine des masses des particules et de tester l?hypothèse de l?existence d?une symétrie fondamentale entre les fermions et les bosons, la supersymétrie (SUperSYmmetry en anglais d?où SUSY). Dans cette thèse nous montrons comment expérimentalement nous pouvons rechercher, dans le cadre des modèles GMSB (Gauge Mediated SUSY Breaking), les particules supersymétriques au LHC.
8

Kim, Geun-Beom. "Recherche des sélectrons, neutralinos et squarks dans le cadre du modèle GMSB avec le détecteur CMS : étude de la compression sans pertes de données provenant du calorimètre électromagnétique." Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR13102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Babel, Marie. "Compression d'images avec et sans perte par la méthode LAR (Locally Adaptive Resolution)." Phd thesis, INSA de Rennes, 2005. http://tel.archives-ouvertes.fr/tel-00131758.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La diversité des standards actuels en compression d'images vise à la fois à proposer des schémas de codage efficaces et des fonctions de service adaptées à chaque type d'utilisation. Les travaux de cette thèse s'inscrivant dans ce contexte d'une telle compression, leur objectif majeur consiste en l'élaboration d'une méthode unifiée pour un codage avec et sans perte des images fixes et en séquences, intégrant des fonctionnalités avancées du type : scalabilité et représentation en régions hiérarchique, robustesse
aux erreurs.

La méthode LAR (Locally Adaptive Resolution) de base a été élaborée à des fins de compression avec pertes à bas-débits. Par l'exploitation des propriétés intrinsèques du LAR, la définition d'une représentation en régions auto-extractibles apporte une solution de codage efficace à la fois en termes de débit et en termes de qualité d'images reconstruites. Le codage à débit localement variable est facilité par l'introduction de la notion de région d'intérêt ou encore de VOP (Video Object Plane).

L'obtention d'un schéma de compression sans perte s'est effectuée conjointement à l'intégration de la notion de scalabilité, par l'intermédiaire de méthodes pyramidales. Associés à une phase de prédiction, trois codeurs différents répondant à ces exigences ont vu le jour : le LAR-APP, l'Interleaved S+P et le RWHT+P. Le LAR-APP (Approche Pyramidale Prédictive) se fonde sur l'exploitation d'un contexte de prédiction enrichi obtenu par un parcours original des niveaux de la pyramide construite. L'entropie des erreurs d'estimation résultantes (estimation réalisée dans le domaine spatial) s'avère ainsi réduite. Par la définition d'une solution opérant dans le domaine transformé, il nous a été possible d'améliorer plus encore les performances
entropiques du codeur scalable sans perte. L'Interleaved S+P se construit ainsi par l'entrelacement de deux pyramides de coefficients transformés. Quant à la méthode RWHT+P, elle s'appuie sur une forme nouvelle de la transformée Walsh-Hadamard bidimensionnelle. Les performances en termes d'entropie brute se révèlent bien supérieures à celles de l'état-de-l'art : des résultats tout à fait remarquables sont obtenus notamment sur les
images médicales.

Par ailleurs, dans un contexte de télémédecine, par l'association des méthodes pyramidales du LAR et de la transformée Mojette, un codage conjoint source-canal efficace, destiné à la transmission sécurisée des images médicales compressées sur des réseaux bas-débits, a été défini. Cette technique offre une protection différenciée intégrant la nature hiérarchique des flux issus des méthodes multirésolution du LAR pour une qualité de service exécutée de bout-en-bout.

Un autre travail de recherche abordé dans ce mémoire vise à l'implantation automatique des codeurs LAR sur des architectures parallèles hétérogènes multi-composants. Par le biais de la description des algorithmes sous le logiciel SynDEx, il nous a été possible en particulier de réaliser le prototypage de
l'Interleaved S+P sur des plate-formes multi-DSP et multi-PC.

Enfin, l'extension du LAR à la vidéo fait ici l'objet d'un travail essentiellement prospectif. Trois techniques différentes sont proposées, s'appuyant sur un élément commun : l'exploitation de la représentation en régions précédemment évoquée.
10

Rodriguez, Cancio Marcelino. "Contributions on approximate computing techniques and how to measure them." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S071/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La Computation Approximée est basée dans l'idée que des améliorations significatives de l'utilisation du processeur, de l'énergie et de la mémoire peuvent être réalisées, lorsque de faibles niveaux d'imprécision peuvent être tolérés. C'est un concept intéressant, car le manque de ressources est un problème constant dans presque tous les domaines de l'informatique. Des grands superordinateurs qui traitent les big data d'aujourd'hui sur les réseaux sociaux, aux petits systèmes embarqués à contrainte énergétique, il y a toujours le besoin d'optimiser la consommation de ressources. La Computation Approximée propose une alternative à cette rareté, introduisant la précision comme une autre ressource qui peut à son tour être échangée par la performance, la consommation d'énergie ou l'espace de stockage. La première partie de cette thèse propose deux contributions au domaine de l'informatique approximative: Aproximate Loop Unrolling : optimisation du compilateur qui exploite la nature approximative des données de séries chronologiques et de signaux pour réduire les temps d'exécution et la consommation d'énergie des boucles qui le traitent. Nos expériences ont montré que l'optimisation augmente considérablement les performances et l'efficacité énergétique des boucles optimisées (150% - 200%) tout en préservant la précision à des niveaux acceptables. Primer: le premier algorithme de compression avec perte pour les instructions de l'assembleur, qui profite des zones de pardon des programmes pour obtenir un taux de compression qui surpasse techniques utilisées actuellement jusqu'à 10%. L'objectif principal de la Computation Approximée est d'améliorer l'utilisation de ressources, telles que la performance ou l'énergie. Par conséquent, beaucoup d'efforts sont consacrés à l'observation du bénéfice réel obtenu en exploitant une technique donnée à l'étude. L'une des ressources qui a toujours été difficile à mesurer avec précision, est le temps d'exécution. Ainsi, la deuxième partie de cette thèse propose l'outil suivant : AutoJMH : un outil pour créer automatiquement des microbenchmarks de performance en Java. Microbenchmarks fournissent l'évaluation la plus précis de la performance. Cependant, nécessitant beaucoup d'expertise, il subsiste un métier de quelques ingénieurs de performance. L'outil permet (grâce à l'automatisation) l'adoption de microbenchmark par des non-experts. Nos résultats montrent que les microbencharks générés, correspondent à la qualité des manuscrites par des experts en performance. Aussi ils surpassent ceux écrits par des développeurs professionnels dans Java sans expérience en microbenchmarking
Approximate Computing is based on the idea that significant improvements in CPU, energy and memory usage can be achieved when small levels of inaccuracy can be tolerated. This is an attractive concept, since the lack of resources is a constant problem in almost all computer science domains. From large super-computers processing today’s social media big data, to small, energy-constraint embedded systems, there is always the need to optimize the consumption of some scarce resource. Approximate Computing proposes an alternative to this scarcity, introducing accuracy as yet another resource that can be in turn traded by performance, energy consumption or storage space. The first part of this thesis proposes the following two contributions to the field of Approximate Computing :Approximate Loop Unrolling: a compiler optimization that exploits the approximative nature of signal and time series data to decrease execution times and energy consumption of loops processing it. Our experiments showed that the optimization increases considerably the performance and energy efficiency of the optimized loops (150% - 200%) while preserving accuracy to acceptable levels. Primer: the first ever lossy compression algorithm for assembler instructions, which profits from programs’ forgiving zones to obtain a compression ratio that outperforms the current state-of-the-art up to a 10%. The main goal of Approximate Computing is to improve the usage of resources such as performance or energy. Therefore, a fair deal of effort is dedicated to observe the actual benefit obtained by exploiting a given technique under study. One of the resources that have been historically challenging to accurately measure is execution time. Hence, the second part of this thesis proposes the following tool : AutoJMH: a tool to automatically create performance microbenchmarks in Java. Microbenchmarks provide the finest grain performance assessment. Yet, requiring a great deal of expertise, they remain a craft of a few performance engineers. The tool allows (thanks to automation) the adoption of microbenchmark by non-experts. Our results shows that the generated microbencharks match the quality of payloads handwritten by performance experts and outperforms those written by professional Java developers without experience in microbenchmarking

To the bibliography