To see the other types of publications on this topic, follow the link: Sélection de fréquence maximale.

Dissertations / Theses on the topic 'Sélection de fréquence maximale'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 24 dissertations / theses for your research on the topic 'Sélection de fréquence maximale.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Taki, Nour. "Diagnosis of Soft Faults in Complex Wired Networks." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG004.

Full text
Abstract:
Les câbles électriques sont utilisés dans tous les secteurs pour transférer de l'énergie ou de l'information. Pendant le fonctionnement, les câbles peuvent être sujets à des défauts francs (circuit ouvert ou court-circuit) ou des défauts non-francs (endommagement de l'isolant, pincement, etc.) dus à une mauvaise utilisation, aux conditions environnementales ou au vieillissement. Ces défauts doivent être détectés à leur stade le plus précoce pour éviter une interruption de la fonction ou des conséquences plus graves. Parmi les méthodes de diagnostic des réseaux filaires qui ont été étudiées dans la littérature, la réflectométrie électrique a été considérée la plus efficace surtout dans le cas d'un défaut franc. Cependant, cette méthode s'avère moins fiable en présence d'un défaut non-franc caractérisé, généralement, par une signature de faible amplitude sur le réflectogramme qui dépend non seulement de la variation de l'impédance caractéristique du câble au niveau du défaut mais également de la configuration du signal de test telle que sa bande passante. En effet, l'augmentation de la fréquence maximale du signal de test améliore la résolution ''spatiale'' de l'information des défauts non-francs. Cependant, elle accentue, en même temps, les phénomènes d'atténuation et de dispersion du signal de test rendant ainsi la détection de ces défauts moins fiable, et surtout dans le cas des réseaux filaires complexes où la réflectométrie pourrait souffrir de problèmes d'ambiguïté liée à la localisation des défauts. Dans ce cadre, la réflectométrie distribuée où plusieurs capteurs sont installés aux extrémités du réseau sous test est appliquée entrainant l'apparition d'autres problématiques telles que le partage des ressources, la fusion de capteurs pour la prise de décision, la consommation d'énergie, etc.Dans ce contexte, cette thèse propose de développer deux approches : la première permet de choisie la meilleure fréquence maximale à appliquer au signal de test pour la détection des défauts non-francs. La seconde approche a pour objectif de choisir les capteurs les plus pertinents pour leur diagnostic dans les réseaux filaires complexes. Pour cela, une combinaison entre les données basées sur la réflectométrie et l'algorithme d'analyse en composantes principales (PCA) est utilisée. Le modèle de la PCA est développé pour détecter les défauts non francs existants. Associé à une analyse statistique basée sur Hotelling’s T² et Squared Prediction Error (SPE), les paramètres requis sont identifiés. Une étude expérimentale est réalisée, et une analyse de leurs performances en environnement bruité est effectuée
Electrical cables are used in all sectors to transfer energy or information. During operation, the cables may be subject to hard faults (open circuit, short circuit) or soft faults (isolation damage, pinching, etc.) due to misuse, environmental conditions, or aging. These faults must be detected at their earliest stage to avoid interruption of the function or more serious consequences. Even though several electric and non-electric wire diagnosis methods have been studied and developed throughout the last few decades, reflectometry-based techniques have provided effective results with hard faults. However, they have been shown to be less reliable whenever soft faults are addressed.Indeed, soft faults are characterized by a small impedance variation, resulting in a low amplitude signature on the corresponding reflectograms. Accordingly, the detection of these faults depends strongly on the test signal configuration, such as its bandwidth. Although the increase of the maximal frequency of the test signal enhances the soft fault's ''spatial'' resolution, its performance is limited by signal attenuation and dispersion. Moreover, although reflectometry offers good results in point-to-point topology networks, it suffers from ambiguity related to fault location in more complex wired networks (Multi-branched). As a solution, distributed reflectometry method, where sensors are implemented in the extremities of the network under test, is used. However, several issues are enforced, from the computing complexities and sensors fusion problems to the energy consumption.In this context, this Ph.D. dissertation proposes to develop two approaches: the first selects the best maximal frequency for soft fault detection, and the second selects the most relevant sensors to monitor and diagnose those faults in multi-branched wired networks. The proposed solution is based on a combination between reflectometry and Principal Component Analysis (PCA). The PCA model coupled with statistical analysis based on Hotelling’s T² and Squared Prediction Error (SPE) is used to detect the soft faults and select the required parameters. Experimental validation is carried out, and performance analysis in the presence of noise is investigated
APA, Harvard, Vancouver, ISO, and other styles
2

Tofan, Radu-Ionel. "Bordures : de la sélection de vues dans un cube de données au calcul parallèle de fréquents maximaux." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14073/document.

Full text
Abstract:
La matérialisation de vues est une technique efficace d'optimisation de requêtes. Dans cette thèse, nous proposons une nouvelle vision "orientée utilisateur" de solutions pour le problème de sélection de vues à matérialiser dans les entrepôt de données : l'utilisateur fixe le temps de réponse maximal. Dans cette vision nous proposons des algorithmes qui s'avèrent compétitifs avec les algorithmes de type "orienté système", dans lesquels les ressources, comme la mémoire, sont considérées comme la contrainte forte. L'approche "orientée utilisateur" est étudiée avec un contexte dynamique de système d'optimisation de requêtes. Nous analysons la stabilité de ce système par rapport à la dynamique de la charge de requêtes et des données qui sont insérées ou supprimées. Le concept clé de nos algorithmes de sélection de vues à matérialiser est la bordure. Ce concept a été très étudié en fouille de données dans le cadre du calcul des fréquents maximaux. Plusieurs algorithmes séquentiels ont été proposés pour résoudre ce problème. Nous proposons un nouvel algorithme séquentiel MineWithRounds, facilement parallélisable, qui se distingue des autres propositions par une garantie théorique d'accélération dans le cas de machines à plusieurs unités de calcul et à mémoire partagée
The materialization of views is an effective technique for optimizing queries. In this thesis, we propose a new vision, we qualify it as "user oriented", of the solutions to the problem of selecting views to materialize in data warehouses : the user fixes the maximum response time. In this vision, we propose algorithms that are competitive with the algorithms "oriented system" type, where resources such as memory, are considered as the major constraint. The "user oriented" approach is studied under a dynamic context. We analyze the stability of this system with respect to the dynamic query workload dynamic as well as data dynamic (insertions and deletions). The key concept of our algorithms for selecting views to materialize is the border. This concept has been widely studied in the data mining community under the maximal frequent itemset extration setting. Many sequential algorithms have been proposed. We propose a new sequential algorithm MineWithRounds, easily parallelizable, which differs from the others in that it guarantees a theoretical speed up in the case of multiprocessors shared memory case
APA, Harvard, Vancouver, ISO, and other styles
3

Boitel, Guillaume. "Efficience énergétique et modifications du mouvement propulseur lors d’une tâche de locomotion aquatique d’intensité maximale et sous-maximale : le cas de la monopalme de surface." Thesis, Toulon, 2012. http://www.theses.fr/2012TOUL0001/document.

Full text
Abstract:
L’objectif de ce travail est d’étudier la relation entre l’efficience énergétique et les modifications du mouvement propulseur lors de tâches d’intensité maximale et sous-maximale. Une analyse descriptive de l’activité monopalme a été préalablement réalisée, permettant de caractériser le profil bioénergétique des monopalmeurs de haut niveau (Etude 1). Ce premier travail montre que l’amplitude des réponses cardiorespiratoires et métaboliques est significativement moins importante chez des monopalmeurs réalisant une épreuve maximale in situ comparativement à un exercice réalisé surergocycle. Ces différences d’adaptations physiologiques aigues à l’exercice maximal entre les deux épreuves suggèrent une influence de la position spécifique du corps et de la faible masse musculaire recrutée en monopalme.L’étude 2 s’est intéressée à l’influence de la fréquence d’ondulation (FO comme paramètre du mouvement) sur le coût énergétique (CE) et les réponses métaboliques au cours d’épreuves de nage de durée constante et d’intensité sous-maximale. Les résultats mettent en évidence que le choix d’une fréquence d’ondulation élevée (> FO librement choisie, FOLC) en comparaison à un intervalle de basses fréquences induit une optimisation du CE, pouvant se traduire par une réduction des résistances hydrodynamiques à l’avancement. L’étude 3 s’est intéressée à l’effet de la fréquence d’ondulation sur l’évolution des indicateurs de l’efficience énergétique (CE et composante lente de la consommation d’oxygène, VO2CL ) au cours d’un temps limite (Tlim) effectué à intensité maximale. La sélection d’une fréquence basse et élevée (exprimée en % de la FOLC) est associée à une altération du Tlim alors qu’une amélioration de la performance est observée lors de la condition FOLC. L’absence de différences significatives des valeurs de CE et de VO2CL entre les conditions suggère que la performance est plus dépendante de la manipulation du mouvement que des réponses physiologiques induites. Des études ultérieures sont nécessaires pour identifier les mécanismes internes et externes (e.g. activité musculaire et/ou contrôle moteur) qui peuvent potentiellement affecter laperformance en monopalme de surface
The purpose of the present work was to examine the relationship between the metabolic efficiency and the modifications of the propeller movement during various tasks conducted at maximal and submaximal intensities. A descriptive analysis of the monofin-swiming activity was firstly performed, allowing to characterize the physiological profile of high-level monofin-swimmers (Study 1). This first work shows that the amplitude of the cardiorespiratory and metabolic responses to maximal monofin-swimming is significantly less important than that induced during cycling test. These differences in acute physiological adaptations to maximal exercise between the maximal tests suggest an influence of the specific position ofthe body and the low muscular mass recruited in monofin. The goal of the study 2 was investigate the influence of the kick frequency (KF as movement parameter) on the energy cost (Ec) and the metabolic responses during submaximal swimming sessions of constant duration. The findings highlight that the choice of a high KF ( > freely chosen KF, FCKF) as compared to an interval of low KF, results in an optimization of Ec parameter, possibly by the reduction of active drag.The aim of the study 3 was to focus in the effect of the KF on the indicators of the metabolic efficiency (Ec and slow component of the oxygen consumption , VO2SC ) during a time limit (Tlim) conducted at maximal intensity. The selection of a low and high KF (expressed in % of the FCKF) is associated with an alteration of Tlim whereas an improvement of the performance is observed during the FCKF condition. The lack of significant differences of Ec and VO2SC between the conditions suggests that the performance is more dependent on the manipulation of the movement than induced physiological responses. Further studies are necessary to identify the internal and external mechanisms (e.g. muscular activity and/or motor control)
APA, Harvard, Vancouver, ISO, and other styles
4

Le, Roux Patrick. "Suites Régulières d'Impulsions Radio-Fréquence en Résonance Magnétique. Application à l'IRM." Phd thesis, Université Paris Sud - Paris XI, 2006. http://tel.archives-ouvertes.fr/tel-00128349.

Full text
Abstract:
Des séquences d'impulsions radiofréquence régulièrement espacées telles que rencontrées en Résonance Magnétique Nucléaire peuvent être abordées par des algorithmes simples de type polynomial (transformée en Z). Une simplification supplémentaire est apportée par l'utilisation de spineurs pour caractériser les rotations. Une première application de la combinaison de ces deux outils est un algorithme de type effeuillage permettant la synthèse d'impulsions radiofréquence sélectives continues. Cet algorithme proposé originellement par l'auteur, a été utilisé depuis plusieurs années en IRM car permettant de s'affranchir facilement de la non linéarité des équations de Bloch. En plus d'une présentation nouvelle de cet algorithme, quelques détails d'implémentation non publiés et quelques compléments théoriques et conditions d'application sont donnés. Une rapide comparaison critique avec les algorithmes de type IST (Inverse Scattering Transform) est donnée.
On utilise ensuite les mêmes outils pour donner un modèle simplifié des séquences CPMG (Carr Purcell Meiboom Gill) et SSFP (Steady State Free Precession) . Pour cela on considère la rotation d'écho à écho et on explique la stabilisation naturelle des signaux par la dispersion de phase. Une caractérisation simplifiée mais d'usage assez large des processus de relaxation est obtenue. Un lien entre un algorithme polynomial de stabilisation des signaux de la séquence CPMG, et une version discrétisée du principe adiabatique est proposé. Ce principe d'adiabatisme un peu élargi est appliqué à la stabilisation des séquences SSFP .
Enfin un dernier chapitre aborde une séquence non-CPMG, basée sur une modulation quadratique de la phase du train d'impulsions, qui permet de s'affranchir de la sensibilité à la phase initiale de la séquence CPMG. Il est montré qu'une modulation quadratique étant équivalente après un changement de repère à un système stationnaire, il suffit d'amener l'état du système dans un sous-espace de vecteurs propres bien choisis pour obtenir un équilibre dynamique qui, pour certaines valeurs du paramètre caractérisant la modulation quadratique, donne des signaux de même amplitude quelles que soient les conditions initiales. La sensibilité à la phase initiale de l'aimantation est ainsi annulée.
Cette séquence est illustrée par une application clinique à l'imagerie de diffusion, pour laquelle le moindre mouvement du patient entraîne une variation incontrôlée de la phase de l'aimantation initiale.
Dans la conclusion de la thèse les limitations des solutions proposées au long des chapitres sont mentionnées et quelques pistes possibles pour tenter de résoudre les problèmes restés ouverts sont proposées.
APA, Harvard, Vancouver, ISO, and other styles
5

Lahiani, Emna. "Dynamique évolutive de la gynodioécie chez Silene nutans et conditions de son maintien en populations." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10045/document.

Full text
Abstract:
La gynodioécie – la coexistence d’individus femelles et hermaphrodites- est un des systèmes le plus commun après l’hermaphrodisme chez les angiospermes. Le maintien et l’évolution de la gynodioécie intriguent beaucoup de scientifiques. L’objectif de ma thèse était de déterminer les forces évolutives impliquées dans le maintien d’un tel polymorphisme sexuel et d’étudier certaines conditions nécessaires à l’occurrence d’une meilleure performance des individus femelles et à la variation de l’ampleur de cet avantage chez Silene nutans. Par une approche de génomique des populations, j’ai comparé le polymorphisme des trois génomes (nucléaire, mitochondrial et chloroplastique) de deux espèces, une gynodioïque ; S. nutans et une dioïque : Silene otites. J’ai montré la gynodioécie se maintien chez S. nutans grâce à une sélection fréquence-dépendante négative. Un deuxième volet de ma thèse concerne l’occurrence et la variation de l’amplitude de l’avantage femelle. Grâce à une approche de biologie et de génétique des populations, j’ai comparé le succès reproducteur des femelles et hermaphrodites. J’ai montré que l’avantage femelle dépend de l’efficacité de pollinisation et du taux d’autofécondation qui varient selon le sexe ratio en conditions expérimentales. Par ailleurs, j’ai montré qu’en population naturelle les flux de pollen étaient majoritairement restreints dans l’espace. J’ai aussi montré que dans la population naturelle étudiée le déterminisme génétique de la gynodioécie est nucléaire. Enfin, j’ai mis en évidence une meilleure contribution des pollinisateurs nocturnes au succès reproducteur chez S. nutans par rapport aux pollinisateurs diurnes de cette espèce
Gynodioecy - the coexistence of female and hermaphrodite individuals, is one of the most common systems after hermaphroditism in angiosperms. The maintenance and evolution of gynodioecy intrigued many evolutionary biologists. The aim of my thesis was to determine the evolutionary forces involved in maintaining such a sexual polymorphism and study some necessary conditions for the occurrence of a better performance of female and the variation of the magnitude of this advantage in Silene nutans. By population genomics approach, I compared the polymorphism of three genomes (nuclear, mitochondrial and chloroplast) of two species, gynodioïque, S. nutans and dioecious: Silene otites. I showed that gynodioecy is maintained in S. nutans through a frequency-dependent negative selection. A second part of my thesis concerns the occurrence and variation of the amplitude of the female advantage. With biology and genetic of population approach, I compared the reproductive success of females and hermaphrodites. I showed that the female advantage depends on the efficiency of pollination and selfing rates that vary according to the sex ratio in experimental conditions. Furthermore, I showed that natural population pollen flow were mainly restricted in space. I also showed that in the studied natural population the genetic determinism of gynodioecy is nuclear. Finally, I highlighted a greater contribution of nocturnal pollinators to reproductive success in S. nutans in relation to diurnal pollinators of this species
APA, Harvard, Vancouver, ISO, and other styles
6

Aubier, Thomas G. "Diversity of warning signals, speciation and clade diversification." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTG019/document.

Full text
Abstract:
Les signaux d'avertissement que portent les proies toxiques (ou autrement défendues) offrent une opportunité unique de développer une vision intégrative de la diversification biologique. Ces signaux sont soumis à une forte sélection naturelle et sexuelle. D'une part, la stratégie d'échantillonnage utilisée par les prédateurs, caractérisée par l'apprentissage des signaux associés à la toxicité, protège les signaux en forte fréquence dans la communauté de proies. Cette sélection fréquence-dépendante positive favorise l'uniformité des phénotypes et la convergence de signaux entre espèces toxiques (mimétisme mutualiste dit "Müllerien") dans de nombreux taxons. D'autre part, les signaux d'avertissement sont utilisés comme critères de choix entre partenaires sexuels et sont donc soumis à de la sélection sexuelle avec des conséquences importantes pour l'émergence de l'isolement reproducteur et la spéciation. Paradoxalement, malgré une forte sélection naturelle favorisant la convergence, les signaux d'avertissement sont incroyablement diversifiés, à la fois au sein de la même espèce et entre espèces. Cette diversification morphologique est souvent associée à une importante diversification des espèces à l'échelle des clades. Dans cette thèse, j'apporte quelques explications à ce paradoxe et j'affine ainsi notre compréhension de l'effet de la sélection fréquence-dépendante positive et du mutualisme sur la diversification à l'échelle micro- et macro-évolutive. Premièrement, je montre que la stratégie d'échantillonnage des prédateurs peut favoriser la diversification des signaux d'avertissement malgré une sélection fréquence-dépendante positive. Deuxièmement, je dissèque les conditions permettant l'évolution d'un isolement reproducteur stable, nécessaire à la spéciation, dans certaines situations écologiques où les signaux mimétiques sont sous sélection naturelle et sexuelle. Troisièmement, je décris des effets indirect de la sélection fréquence-dépendante sur la diversification à l'échelle macro-évolutive par le biais de contraintes spatiales et de convergences écologiques secondaires
The display of warning signals by unpalatable (or otherwise defended) prey provides a wonderful opportunity for establishing an integrative view of biological diversification. Warning signals are known to be under strong natural and sexual selection. On the one hand, the sampling strategy of predators, characterized by a learned avoidance of signals associated with unpalatability, generates natural selection in favour of warning signals in high frequency in the prey community. Such positive frequency-dependent selection favours phenotypic uniformity and causes unpalatable species to converge on common warning signals (mutualistic "Müllerian" mimicry), as seen in a large panel of taxa. On the other hand, warning signals are used as a phenotypic cue for mate choice, generating sexual selection with important consequences for reproductive isolation and speciation. Paradoxically, despite powerful selection favouring phenotypic convergence, warning signals are fantastically diverse, both within and between species, and this morphological diversification is often associated with extensive species diversification at the clade level. In this thesis, I tackle this apparent paradox from the ground up and I thereby refine our understanding of the role of positive frequency-dependent selection and mutualistic interactions for evolutionary diversification at micro- and macroevolutionary scales. First, I show that the predator sampling strategy can favour the emergence of diversity of warning signals despite positive frequency-dependent selection. Second, I dissect the conditions allowing the evolution of strong and stable reproductive isolation, necessary for speciation to occur, in a number of ecological situations where warning signals are under natural and sexual selection. Third, I highlight important indirect effects of frequency-dependent selection on diversification at macro-evolutionary scale via spatial constraints and by-product ecological convergence
APA, Harvard, Vancouver, ISO, and other styles
7

Llaurens, Violaine. "Mise en évidence des forces évolutives agissant au locus d'auto-incompatibilité chez Arabidopsis halleri." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-165.pdf.

Full text
Abstract:
L'auto-incompatibilité est un système empêchant l'autofécondation et la reproduction entre apparentés: chez les espèces auto-incompatibles, chaque individus porte une spécificité déterminée à partir du locus d'auto-incompatibilité (locus S), les pistils ne peuvent être fécondée qu'avec du pollen portant une spécificité différente de la leur. Le locus S est donc soumis à une sélection fréquence-dépendante, puisque les pollens portant une spécificité rare ont un nombre de partenaires plus élevés dans la population. Chez les Brassicaceae, le système d' auto-incompatibilité est « sporophytique », c'est-à-dire que les spécificités portées par le pollen et le pistil sont codées par le génotype au locus S des parents. Des relations de dominance entre allèles du locus S déterminent donc les spécificités exprimées dans le pollen et pistil. D'autre part, le locus S ayant une fort hétérozygotie et étant situé dans une région à faible taux de recombinaison, il peut être associé à des mutations délétères. Au cours de cette thèse, nous nous sommes donc intéressés aux forces évolutives agissant au locus d'auto-incompatibilité chez Arabidopsis halleri en suivant quatre axes principaux (1) Quels sont les patrons de reproduction en population naturelle? (2) Quelle est l'influence de la sélection fréquence-dépendante, des relations de dominance et de la dérive sur le polymorphisme au locus S ? (3) Existe-t-il un fardeau génétique lié au locus S ? Dépend-t-il du niveau de dominance de l'allèle S associé? (4) La dominance peut-elle évoluer au locus S ?
APA, Harvard, Vancouver, ISO, and other styles
8

Akgul, Yeter. "Gestion de la consommation basée sur l’adaptation dynamique de la tension, fréquence et body bias sur les systèmes sur puce en technologie FD-SOI." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20132/document.

Full text
Abstract:
Au-delà du nœud technologique CMOS BULK 28nm, certaines limites ont été atteintes dans l'amélioration des performances en raison notamment d'une consommation énergétique devenant trop importante. C'est une des raisons pour lesquelles de nouvelles technologies ont été développées, notamment celles basées sur Silicium sur Isolant (SOI). Par ailleurs, la généralisation des architectures complexes de type multi-cœurs, accentue le problème de gestion de la consommation à grain-fin. Les technologies CMOS FD-SOI offrent de nouvelles opportunités pour la gestion de la consommation en permettant d'ajuster, outre les paramètres usuels que sont la tension d'alimentation et la fréquence d'horloge, la tension de body bias. C'est dans ce contexte que ce travail étudie les nouvelles possibilités offertes et explore des solutions innovantes de gestion dynamique de la tension d'alimentation, fréquence d'horloge et tension de body bias afin d'optimiser la consommation énergétique des systèmes sur puce. L'ensemble des paramètres tensions/fréquence permettent une multitude de points de fonctionnement, qui doivent satisfaire des contraintes de fonctionnalité et de performance. Ce travail s'intéresse donc dans un premier temps à une problématique de conception, en proposant une méthode d'optimisation du placement de ces points de fonctionnement. Une solution analytique permettant de maximiser le gain en consommation apporté par l'utilisation de plusieurs points de fonctionnement est proposée. La deuxième contribution importante de cette thèse concerne la gestion dynamique de la tension d'alimentation, de la fréquence et de la tension de body bias, permettant d'optimiser l'efficacité énergétique en se basant sur le concept de convexité. La validation expérimentale des méthodes proposées s'appuie sur des échantillons de circuits réels, et montre des gains en consommation moyens allant jusqu'à 35%
Beyond 28nm CMOS BULK technology node, some limits have been reached in terms of performance improvements. This is mainly due to the increasing power consumption. This is one of the reasons why new technologies have been developed, including those based on Silicon-On-Insulator (SOI). Moreover, the standardization of complex architectures such as multi-core architectures emphasizes the problem of power management at fine-grain. FD-SOI technologies offer new power management opportunities by adjusting, in addition to the usual parameters such as supply voltage and clock frequency, the body bias voltage. In this context, this work explores new opportunities and searches novel solutions for dynamically manage supply voltage, clock frequency and body bias voltage in order to optimize the power consumption of System on Chip.Adjusting supply voltage, frequency and body bias parameters allows multiple operating points, which must satisfy the constraints of functionality and performance. This work focuses initially at design time, proposing a method to optimize the placement of these operating points. An analytical solution to maximize power savings achieved through the use of several operating points is provided. The second important contribution of this work is a method based on convexity concept to dynamically manage the supply voltage, the frequency and the body bias voltage so as to optimize the energy efficiency. The experimental results based on real circuits show average power savings reaching 35%
APA, Harvard, Vancouver, ISO, and other styles
9

Berrada, Salim. "Etude théorique de nouveaux concepts de nano-transistors en graphène." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01059811.

Full text
Abstract:
Cette thèse porte sur l'étude théorique de nouveaux concepts de transistors en graphène par le formalisme des fonctions de Green dans l'hypothèse du transport balistique. Le graphène est un matériau bidimensionnel composé d'atomes de carbone organisés en nid d'abeille. Cette structure confère des propriétés uniques aux porteurs de charge dans le graphène, comme une masse effective nulle et un comportement ultra-relativiste (fermions de Dirac), ce qui conduit à des mobilités extraordinairement élevées. C'est pourquoi des efforts très importants ont été mis en œuvre dans la communauté scientifique pour la réalisation de transistors en graphène. Cependant, en vue de nombreuses applications, le graphène souffre de l'absence d'une bande d'énergie interdite. De plus, dans le cas des transistors conventionnels à base de graphène (GFET), cette absence de bande interdite, combinée avec l'apparition de l'effet tunnel de Klein, a pour effet de dégrader considérablement le rapport I_ON/I_OFF des GFET. L'absence de gap empêche également toute saturation du courant dans la branche N - là où se trouve le maximum de transconductance pour des sources et drain dopés N - et ne permet donc pas de tirer profit des très bonnes performances fréquentielles que le graphène est susceptible d'offrir grâce aux très hautes mobilités de ses porteurs. Cependant, de précédents travaux théorique et expérimentaux ont montré que la réalisation d'un super-réseau d'anti-dots dans la feuille de graphène - appelée Graphene NanoMesh (GNM) - permettait d'ouvrir une bande interdite dans le graphène. On s'est donc d'abord proposé d'étudier l'apport de l'introduction de ce type de structure pour former canal des transistors - appelés GNMFET - par rapport aux GFET " conventionnels ". La comparaison des résultats obtenus pour un GNM-FET avec un GFET de mêmes dimensions permettent d'affirmer que l'on peut améliorer le rapport I_ON/I_OFF de 3 ordres de grandeurs pour une taille et une périodicité adéquate des trous. Bien que l'introduction d'un réseau de trous réduise légèrement la fréquence de coupure intrinsèque f_T, il est remarquable de constater que la bonne saturation du courant dans la branche N, qui résulte de la présence de la bande interdite dans le GNM, conduit à une fréquence maximale d'oscillation f_max bien supérieure dans le GNM-FET. Le gain en tension dans ce dernier est aussi amélioré d'un ordre de grandeur de grandeur par rapport au GFET conventionnel. Bien que les résultats sur le GNM-FET soient très encourageants, l'introduction d'une bande interdite dans la feuille de graphène induit inévitablement une masse effective non nulle pour les porteurs, et donc une vitesse de groupe plus faible que dans le graphène intrinsèque. C'est pourquoi, en complément de ce travail, nous avons exploré la possibilité de moduler le courant dans un GFET sans ouvrir de bande interdite dans le graphène. La solution que nous avons proposée consiste à utiliser une grille triangulaire à la place d'une grille rectangulaire. Cette solution exploite les propriétés du type "optique géométrique" des fermions de Dirac dans le graphène, qui sont inhérentes à leur nature " Chirale ", pour moduler l'effet tunnel de Klein dans le transistor et bloquer plus efficacement le passage des porteurs dans la branche P quand le dopage des sources et drains sont de type N. C'est pourquoi nous avons choisi d'appeler ce transistor le " Klein Tunneling FET " (KTFET). Nous avons pu montrer que cette géométrie permettrait d'obtenir un courant I_off plus faible que ce qui est obtenu d'habitude, pour la même surface de grille, pour les GFET conventionnels. Cela offre la perspective d'une nouvelle approche de conception de dispositifs permettant d'exploiter pleinement le caractère de fermions de Dirac des porteurs de charges dans le graphène.
APA, Harvard, Vancouver, ISO, and other styles
10

Allain, Guillaume. "Prévision et analyse du trafic routier par des méthodes statistiques." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/351/.

Full text
Abstract:
La société Mediamobile édite et diffuse de l'information sur le trafic aux usagers. L'objectif de ce travail est l'enrichissement de cette information par la prévision et la complétion des conditions de route. Notre approche s'inspire parfois de la modélisation physique du trafic routier mais fait surtout appel à des méthodes statistiques afin de proposer des solutions automatisables, modulaires et adaptées aux contraintes industrielles. Dans un premier temps, nous décrivons une méthode de prévision de la vitesse de quelques minutes à plusieurs heures. Nous supposons qu'il existe un nombre fini de comportements types du trafic sur le réseau, dus aux déplacements périodiques des usagers. Nous faisons alors l'hypothèse que les courbes de vitesses observées en chaque point du réseau sont issues d'un modèle de mélange. Nous cherchons ensuite à améliorer cette méthode générale de prévision. La prévision à moyen terme fait appel à des variables bâties sur le calendrier. Nous retenons le modèle de mélange des courbes de vitesse et nous proposons également des modèles de régression fonctionnelle pour les courbes de vitesses. Ensuite nous proposons une modélisation par régression locale afin de capturer la dynamique physique du trafic à très court terme. Nous estimons la fonction de noyau à partir des observations du phénomène en intégrant des connaissances a priori sur la dynamique du trafic. La dernière partie est dédiée à l'analyse des vitesses issues de véhicules traceurs. Ces vitesses sont irrégulièrement observées en temps et en espace sur un axe routier. Nous proposons un modèle de régression locale à l'aide de polynômes locaux pour compléter et lisser ces données
The industrial partner of this work is Mediamobile/V-trafic, a company which processes and broadcasts live road-traffic information. The goal of our work is to enhance traffic information with forecasting and spatial extending. Our approach is sometimes inspired by physical modelling of traffic dynamic, but it mainly uses statistical methods in order to propose self-organising and modular models suitable for industrial constraints. In the first part of this work, we describe a method to forecast trafic speed within a time frame of a few minutes up to several hours. Our method is based on the assumption that traffic on the a road network can be summarized by a few typical profiles. Those profiles are linked to the users' periodical behaviors. We therefore make the assumption that observed speed curves on each point of the network are stemming from a probabilistic mixture model. The following parts of our work will present how we can refine the general method. Medium term forecasting uses variables built from the calendar. The mixture model still stands. Additionnaly we use a fonctionnal regression model to forecast speed curves. We then introduces a local regression model in order to stimulate short-term trafic dynamics. The kernel function is built from real speed observations and we integrate some knowledge about traffic dynamics. The last part of our work focuses on the analysis of speed data from in traffic vehicles. These observations are gathered sporadically in time and on the road segment. The resulting data is completed and smoothed by local polynomial regression
APA, Harvard, Vancouver, ISO, and other styles
11

Harmand, Noémie. "Evolution expérimentale et spécialisation dans le paysage adaptatif d'un gradient environnemental." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTT062/document.

Full text
Abstract:
De nos jours plus que jamais, il est nécessaire d’anticiper et de comprendre les réponses évolutives des organismes vivants, face à des habitats instables et hétérogènes. Mais à quel point cela est-il possible ? Reproduire l’ensemble du déroulé d’une trajectoire évolutive nécessite de pouvoir décrire, d’une part, le « matériel » disponible pour s’adapter (c’est-à-dire les effets phénotypiques associés à la variabilité génétique produite), d’autre part, comment agissent les forces évolutives, associées à un contexte écologique, pour aboutir à un certain « assemblage » de ce matériel. Dans sa version la plus simple, ce processus évolutif peut-être décrit par plusieurs cycles d’évènements de mutations-sélection conduisant à l’adaptation d’une population à son environnement. Cette dynamique correspond assez bien à celle qui est décrite par les populations bactériennes dans les expériences d’évolution contrôlées en laboratoire. Parallèlement, les modèles de paysages adaptatifs (phénotypiques), et en particulier le modèle géométrique de Fisher, sont des outils très puissants pour formuler des prédictions générales et quantitativement testables sur ces trajectoires évolutives. Cependant, ils restent très théoriques et ont été largement pensés dans un contexte écologique simplifié. Au cours de cette thèse, nous avons identifié les déterminants (mutationnels et sélectifs) des trajectoires évolutives à long terme de populations bactériennes s’adaptant dans différents contextes environnementaux. Une première partie des résultats est mise en lumière par la validation expérimentale et la reconstruction de la topographie du paysage adaptatif généré par différentes doses d’un antibiotique, le long d’un gradient. Une deuxième partie expérimentale vise à intégrer une composante biotique (une autre bactérie) à ce même contexte environnemental. Les processus évolutifs intervenant au cours d’une coévolution à long terme maintenue par sélection fréquence-dépendante, y sont étudiés
Today more than ever, it is crucial to anticipate and understand the evolutionary responses of living organisms faced with heterogeneous and unstable habitats. But to what extent is this possible? To reproduce an entire evolutionary trajectory, we must first describe the “material” available for adaptation (e.g. the phenotypic effects associated with the existing and novel genetic variability), and second describe the way evolutionary forces, shaped by the ecological context, result in specific “assemblies” of this material. At its simplest, this evolutionary process can be described by several cycles of mutation-selection events, leading to the adaptation of a population to an environment. This process is reflected in the evolutionary trajectories of bacterial lineages undergoing controlled experimental evolution in the lab. Concurrently, adaptive (phenotypic) landscape models, and especially Fisher’s geometrical model of adaptation, are powerful tools to formulate general predictions, which can then be tested on such evolutionary trajectories. However, they remain highly theoretical, and are widely conceived in a simple ecological context. In this thesis, we identified the (mutational and selective) determinants of the evolutionary trajectories of bacterial lines adapting to various environmental contexts. A first set of results regards evolution along a gradient of antibiotic doses, and their relevance is highlighted by experimental validation and by the reconstruction of the underlying adaptive landscape. A second experimental part integrates a biotic component (another bacteria) to the same environmental context. The evolutionary processes acting throughout the resulting long-term coevolution – maintained by frequency-dependent selection – are studied
APA, Harvard, Vancouver, ISO, and other styles
12

Hijazi, Samah. "Semi-supervised Margin-based Feature Selection for Classification." Thesis, Littoral, 2019. http://www.theses.fr/2019DUNK0546.

Full text
Abstract:
Dans le domaine de l’apprentissage automatique, la sélection d’attributs est une étape d’une importance capitale. Elle permet de réduire les coûts de calcul, d’améliorer les performances de la classification et de créer des modèles simples et interprétables.Récemment, l’apprentissage par contraintes de comparaison, un type d’apprentissage semi-supervisé, a suscité un vif intérêt pour la sélection d’attributs. En effet, celui-ci est moins contraignant car il n’impose pas la connaissance des labels des classes.Dans ce contexte semi-supervisé avec contraintes, nous avons proposé un algorithme de sélection d’attributs à large marge appelé Relief-Sc. Il s’agit d’une modification de l’algorithme supervisé Relief. Il utilise uniquement les contraintes de comparaison cannot-links pour résoudre un problème d’optimisation convexe donnant une solution unique. Les contraintes sont généralement générées aléatoirement, de manière passive et dans certains cas, défavorables aux performances de l’algorithme. Pour cela, nous proposons une méthodologie de sélection active des contraintes suivie d’une étape de propagation des contraintes. Nous avons appliqué la théorie de la perturbation sur la matrice de similarité du graphe Laplacien. Les contraintes cannot-links sont choisies parmi les couples de données ayant le plus d’influence sur la matrice de similarité. La procédure de propagation des contraintes est appliquée pour assurer une augmentation des informations de supervision tout en réduisant l’effort humain. De plus, dans un souci de gestion de la redondance des attributs, nous avons proposé d’étendre l’algorithme Relief-Sc en y intégrant une procédure de classification non supervisée des attributs. Cette approche permet de traiter les deux aspects fondamentaux de la sélection des attributs : maximiser la pertinence tout en minimisant la redondance (maximisation de la diversité) entre les attributs. Finalement, nous avons validé expérimentalement les algorithmes proposés en les comparant à d’autres algorithmes de sélection d’attributs sur plusieurs bases de données UCI. Nous avons montré qu’avec peu d’information de supervision, les performances des algorithmes proposés sont comparables aux algorithmes de sélection supervisée et supérieures aux algorithmes non supervisés
Feature selection is a preprocessing step crucial to the performance of machine learning algorithms. It allows reducing computational costs, improving classification performances and building simple and understandable models. Recently, using pairwise constraints, a cheaper kind of supervision information that does not need to reveal the class labels of data points, received a great deal of interest in the domain of feature selection. Accordingly, we first proposed a semi-supervised margin-based constrained feature selection algorithm called Relief-Sc. It is a modification of the well-known Relief algorithm from its optimization perspective. It utilizes cannot-link constraints only to solve a simple convex problem in a closed-form giving a unique solution. However, we noticed that in the literature these pairwise constraints are generally provided passively and generated randomly over multiple algorithmic runs by which the results are averaged. This leads to the need for a large number of constraints that might be redundant, unnecessary, and under some circumstances even inimical to the algorithm’s performance. It also masks the individual effect of each constraint set and introduces a human labor-cost burden. Therefore, we suggested a framework for actively selecting and then propagating constraints for feature selection. For that, we made use of the similarity matrix based on Laplacian graph. We assumed that when a small perturbation of the similarity value between a data couple leads to a more well-separated cluster indicator based on the second eigenvector of the graph Laplacian, this couple is expected to be a pairwise query of higher and more significant impact. Constraints propagation, on the other side, ensures increasing supervision information while decreasing the cost of human labor. Besides, for the sake of handling feature redundancy, we proposed extending Relief- Sc to a feature selection approach that combines feature clustering and hypothesis margin maximization. This approach is able to deal with the two core aspects of feature selection i.e. maximizing relevancy while minimizing redundancy (maximizing diversity) among features. Eventually, we experimentally validate our proposed algorithms in comparison to other known feature selection methods on multiple well-known UCI benchmark datasets which proved to be prominent. Only with little supervision information, the proposed algorithms proved to be comparable to supervised feature selection algorithms and were superior to the unsupervised ones
APA, Harvard, Vancouver, ISO, and other styles
13

Omnès, Thierry J.-F. "Acropolis : un précompilateur de spécification pour l'exploration du transfert et du stockage des données en conception de systèmes embarqués à Haut Débit." Paris, ENMP, 2001. http://www.theses.fr/2001ENMP0995.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Jalón, Rojas Isabel. "Évaluation des changements hydro-sédimentaires de l'estuaire de la Gironde en lien avec les pressions sur le milieu." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0165/document.

Full text
Abstract:
La dynamique sédimentaire estuarienne joue un rôle très important pour la qualité de l'eau, les écosystèmes et la navigation. Les estuaires macrotidaux comme la Gironde se caractérisent par la formation de régions très chargées en matière en suspension (MES), appelées zones de turbidité maximale (ZTM), qui influencent le transport et le dépôt des sédiments fins, l'envasement des chenaux, la consommation d'oxygène dissous et le devenir des polluants. L'objectif de ce travail est de comprendre la dynamique hydro-sédimentaire, particulièrement de la ZTM, dans la section fluviale, encore peu étudié, de l'estuaire de la Gironde en lien avec les facteurs de forçage environnementaux et les perturbations du système (changements hydrologiques et morphologiques naturels et anthropiques). La méthodologie de ce travail est basée sur l'analyse de 10 années de données continues de turbidité enregistrées par le réseau de surveillance MAGEST. L'exploitation de telles séries de données, assez novatrice dans les estuaires, a notamment impliqué le développement d'une méthode d'analyse basée sur la combinaison de plusieurs méthodes spectrales. Cette approche est complétée par l'analyse des profils de turbidité et de vitesse de courant lors de cycles de marée, l'analyse de séries temporelles historiques de marée et l'exploitation d'un modèle semi-analytique 2DV. La dynamique sédimentaire de l'estuaire fluvial est d'abord détaillée à toutes les échelles de temps représentatives. A l'échelle de temps intratidale, la distribution verticale des MES et des courants, en deux points d'une même section transversale, a permis de détailler les mécanismes de transport sédimentaire. Les flux particulaires résiduels (totaux, advection, pompage tidal) ainsi estimés pour plusieurs conditions hydrologiques, démontrent le contrôle du pompage tidal sur les flux de MES lors de l'étiage. A l'échelle de temps subtidale, la réponse de la ZTM aux fluctuations hydrologiques (crues, périodes d'augmentation ou diminution continue du débit, variabilité inter-anuelle) est analysée. Ceci a permis de définir plusieurs indicateurs hydrologiques des caractéristiques de la ZTM, qui suggèrent l'intensification de la ZTM au cours des dernières décennies en lien avec la diminution des débit. La contribution relative des facteurs de forçage à la variabilité de la turbidité a été quantifiée pour différentes régions estuariennes et échelles de temps (saisonnière et plurianuelle). L'application de la méthodologique développée à l'estuaire de la Loire, qui dispose de séries de données similaires (réseau SYVEL), a permis de généraliser ces résultats. Enfin, l'effet des changements pluri-décennaux hydrologiques et morphologiques sur la propagation de la marée et la dynamique sédimentaire est détaillé dans la Garonne tidale. Il ressort une amplification du marnage et de la asymétrie de la marée au cours des six dernières décennies, principalement liée aux changements morphologiques naturels dans la Gironde en aval, les extractions de granulat et le changement de régime hydrologique. L'implémentation d'un modèle semi-analytique a permis de vérifier ces résultats et d'analyser leurs implications sur les concentrations de MES et la limite amont de la ZTM
Estuarine suspended sediment dynamics play an important role in water quality, ecosystems and navigation. The formation of regions of high suspended sediments (SS) concentrations, called turbidity maximum zones (TMZ), is a characteristic feature of macrotidal estuaries, such as the Gironde. The TMZ influences the transport and deposition of fine sediments, channel siltation, oxygen conditions and the particulate transport of pollutants. This work aims to understand the hydro-sedimentary dynamics of the fluvial Gironde estuary, still poorly studied, in relation with environmental forcings and system perturbations (natural and anthropic hydrological and morphological changes). The methodology of this work is based on the analysis of the 10-years continuous time series of turbidity recorded by the MAGEST monitoring network. The exploitation of such time series, quite innovative in estuaries, required the development of an analysis method based on the combination of spectral techniques. This approach is completed by the analysis of turbidity and current velocity profiles over tidal cycles, the analysis of historical tide time series, and the exploitation of a 2DV semi-analytical model. First, SS dynamics of the fluvial Gironde is detailed at all representative time scales. At the intratidal time scale, the mechanisms of SS transport were described from the vertical depth of SSC and current velocities at two points of the same section. Residual fluxes (total, advective and tidal pumping), estimated for different hydrological conditions, demonstrated the control of tidal pumping on SS fluxes during periods of low river flow. At the subtidal time scale, the TMZ response to hydrological fluctuations (floods, periods of continuous river flow increase and decrease, interannual changes) was analyzed. Hydrological indicators of the TMZ features were thus defined, which suggest the TMZ intensification over the last decades in relation to the river flow decrease. The relative contributions of environmental forcings to the turbidity variability were quantified for different estuarine regions and time scales (seasonal and multiannual). The application of the same methodology to the Loire estuary, which counts on equivalent time series (SYVEL network), allowed the generalization of these results. Finally, the impact of pluri-decades hydrological and morphological changes on tidal propagation and suspended sediments dynamics is detailed in the tidal Garonne. Both tidal range and asymmetry appear to be amplified over the last six decades, mainly due to natural changes of the down Gironde, gravel extraction in the tidal Garonne and hydrological regime shifts. The implementation of an idealized model allowed verifying such results and analyzing their implications for SS concentrations and the upper TMZ limit
APA, Harvard, Vancouver, ISO, and other styles
15

Saliba, Pamela. "High-frequency trading : statistical analysis, modelling and regulation." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX044.

Full text
Abstract:
Cette thèse est constituée de deux parties liées l’une à l’autre. Dans la première, nous étudions empiriquement le comportement des traders haute fréquence sur les marchés financiers européens. Nous utilisons les résultats obtenus afin de construire dans la seconde partie de nouveaux modèles multi-agents. L’objectif principal de ces modèles est de fournir aux régulateurs et plateformes de négociation des outils innovants leur permettant de mettre en place des règles pertinentes pour la microstructure et de quantifier l’impact des divers participants sur la qualité du marché.Dans la première partie, nous effectuons deux études empiriques sur des données uniques fournies par le régulateur français. Nous avons accès à l’ensemble des ordres et transactions des actifs du CAC 40, à l’échelle de la microseconde, avec par ailleurs les identités des acteurs impliqués. Nous commençons par comparer le comportement des traders haute fréquence à celui des autres intervenants, notamment pendant les périodes de stress, en termes de provision de liquidité et d’activité de négociation. Nous approfondissons ensuite notre analyse en nous focalisant sur les ordres consommant la liquidité. Nous étudions leur impact sur le processus de formation des prix et leur contenu informationnel selon les différentes catégories de flux : traders haute fréquence, participants agissant pour compte client et participants agissant pour compte propre.Dans la seconde partie, nous proposons trois modèles multi-agents. À l’aide d’une approche à la Glosten-Milgrom, nous parvenons avec notre premier modèle à construire l’ensemble du carnet d’ordres (spread et volume disponible à chaque prix) à partir des interactions entre trois types d’agents : un agent informé, un agent non informé et des teneurs de marché. Ce modèle nous permet par ailleurs de développer une méthodologie de prédiction du spread en cas de modification du pas de cotation et de quantifier la valeur de la priorité dans la file d’attente. Afin de se concentrer sur une échelle individuelle, nous proposons une deuxième approche où les dynamiques spécifiques des agents sont modélisées par des processus de type Hawkes non linéaires et dépendants de l’état du carnet d’ordres. Dans ce cadre, nous sommes en mesure de calculer en fonction des flux individuels plusieurs indicateurs pertinents relatifs à la microstructure. Il est notamment possible de classer les teneurs de marché selon leur contribution propre à la volatilité. Enfin, nous introduisons un modèle où les fournisseurs de liquidité optimisent leurs meilleurs prix à l’achat et à la vente en fonction du profit qu’ils peuvent générer et du risque d’inventaire auquel ils sont confrontés. Nous mettons alors en évidence théoriquement et empiriquement une nouvelle relation importante entre inventaire et volatilité
This thesis is made of two related parts. In the first one, we study the empirical behaviour of high-frequency traders on European financial markets. We use the obtained results to build in the second part new agent-based models for market dynamics. The main purpose of these models is to provide innovative tools for regulators and exchanges allowing them to design suitable rules at the microstructure level and to assess the impact of the various participants on market quality.In the first part, we conduct two empirical studies on unique data sets provided by the French regulator. It covers the trades and orders of the CAC 40 securities, with microseconds accuracy and labelled by the market participants identities. We begin by investigating the behaviour of high-frequency traders compared to the rest of the market, notably during periods of stress, in terms of liquidity provision and trading activity. We work both at the day-to-day scale and at the intra-day level. We then deepen our analysis by focusing on liquidity consuming orders. We give some evidence concerning their impact on the price formation process and their information content according to the different order flow categories: high-frequency traders, agency participants and proprietary participants.In the second part, we propose three different agent-based models. Using a Glosten-Milgrom type approach, the first model enables us to deduce the whole limit order book (bid-ask spread and volume available at each price) from the interactions between three kinds of agents: an informed trader, a noise trader and several market makers. It also allows us to build a spread forecasting methodology in case of a tick size change and to quantify the queue priority value. To work at the individual agent level, we propose a second approach where market participants specific dynamics are modelled by non-linear and state dependent Hawkes type processes. In this setting, we are able to compute several relevant microstructural indicators in terms of the individual flows. It is notably possible to rank market makers according to their own contribution to volatility. Finally, we introduce a model where market makers optimise their best bid and ask according to the profit they can generate from them and the inventory risk they face. We then establish theoretically and empirically a new important relationship between inventory and volatility
APA, Harvard, Vancouver, ISO, and other styles
16

Trollé, Arnaud. "Evaluation auditive de sons rayonnés par une plaque vibrante à l'intérieur d'une cavité amortie : ajustement des efforts de calcul vibro-acoustique." Phd thesis, INSA de Lyon, 2009. http://tel.archives-ouvertes.fr/tel-00881029.

Full text
Abstract:
Les travaux ont traité de l'ajustement des efforts de calcul vibro-acoustique dans le cadre d'une étude de qualité sonore sur un système vibro-acoustique dès le stade de la conception. Cette recherche d'ajustement a été appliquée au système vibro-acoustique constitué d'une plaque vibrante couplée à une cavité amortie. Pour un calcul fréquentiel, un premier pas dans ce sens demandait à ajuster deux paramètres de simulation importants : la fréquence maximale de calcul, puis le pas fréquentiel de calcul. En termes de contraintes perceptives, il a été cherché pour ces paramètres une valeur ajustée permettant de conserver les tendances qualitatives originellement établies à partir d'une évaluation auditive portant sur les sons réels rayonnés par la plaque dans la cavité. Les sons réels ont été collectés via l'expérimentation sur un banc d'essai constitué d'une plaque en acier couplée à une cavité parallélépipédique ; ces sons correspondaient au son rayonné par la plaque vibrante à l'intérieur de la cavité, enregistré dans diverses configurations structurales du système. Ces configurations impliquaient différentes combinaisons des modalités prises par les 3 paramètres structuraux variables retenus : l'épaisseur de la plaque, les conditions de serrage de la plaque et les propriétés en absorption de la cavité. Les sons enregistrés ont ensuite été soumis par paires à un jury d'auditeurs auxquels il était demandé d'évaluer leur dissimilarité et de donner un jugement de préférence. A partir de l'analyse des informations recueillies, des tendances qualitatives de référence ont été établies, en termes d'espace perceptif de dissimilarité, d'espace perceptif de préférence et de classement de préférence. Dès lors, en travaillant à partir des sons enregistrés, le processus d'ajustement a consisté, i) à déterminer, à partir d'un filtrage passe-bas appliqué aux sons, la fréquence de coupure ajustée qui permettait de préserver les tendances qualitatives de référence, ii) à rechercher le pas fréquentiel ajusté, à imposer aux spectres des sons avant synthèse, qui permettait de maintenir les tendances qualitatives précédemment établies.
APA, Harvard, Vancouver, ISO, and other styles
17

Cornec, Clément. "Communication chez un oiseau à système socio-sexuel de type lek : étude des signaux acoustiques et visuels pendant la parade des mâles d'outarde houbara Chlamydotis undulata undulata." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA11T026/document.

Full text
Abstract:
Dans un contexte de sélection sexuelle, les systèmes de communication permettant l’attraction et la stimulation du partenaire sexuel et la compétition entre individus du même sexe sont indispensables. Ceci est particulièrement vrai chez les espèces à système d’appariement polygyne de type lek, où les mâles rassemblés dans l’espace sont en compétition pour l’accès aux femelles. Chez notre sujet d’étude, l’outarde houbara nord-africaine les males réalisent des parades incluant des démonstrations visuelles et des vocalisations appelées booms, sur des sites espacés les uns des autres par des distances importantes dans un système qualifié de lek explosé. Notre objectif était d’étudier les systèmes de codage-décodage des informations exprimées durant la parade des mâles chez cette espèce. Nous avons démontré l’existence d’un codage de l’identité individuelle porté par des paramètres visuels et des paramètres acoustiques des vocalisations. Des associations significatives entre des paramètres des booms et des caractéristiques physiques et comportementales des mâles susceptibles de refléter leur qualité, ont également été mises en évidence. Ainsi, les mâles qui produisent les booms les plus graves avaient les masses les plus importantes et paradaient le plus intensément. Lorsque des interactions agonistiques étaient simulées expérimentalement en diffusant des leurres acoustiques, les mâles avaient des réponses comportementales différentes en fonction de la fréquence des booms diffusés. Ainsi le niveau fréquentiel des booms des autres mâles est effectivement perçu et décodé par les individus en compétition. Par ailleurs, plusieurs paramètres des booms sont génétiquement déterminés et héritables, et pourraient porter une information sur l’apparentement entre individus.Certains paramètres sont également liés à la consanguinité des individus. Nous avons montré également que les booms sont particulièrement bien adaptés à la communication à grande distance. En effet, les booms sont de très basse fréquence, se propagent à des distances supérieures à 640 m, et les paramètres supportant le codage-décodage de l’information sont résistants à la propagation et produits de manière redondante. Enfin, les signaux acoustiques et des signaux visuels et semblent agir en synergie (multimodalité) ce qui pourraient améliorer l’efficacité de la communication à grande distance. Ainsi notre étude a démontré que des informations complexes sont transmises durant la parade des mâles au travers de signaux acoustiques et visuels au sein d’un réseau de communication à grande distance
Résumé en anglais ;In a context of sexual selection, the communication between individuals is essential to optimize both intra-sexual (competition between male) and inter-sexual (mate choice) processes. This is particularly true in species with lek mating systems, where both processes reach their full expression. The North African Houbara bustard, Chlamydotis undulata undulata, is a lekking bird where courting males aggregate in a so called ‘exploded-lek’, i.e. where aggregation is detectable only when mapped over a large area. During the breeding season, males perform a conspicuous and spectacular courtship including visual and acoustic (booms) signals. Our aim was to decipher the coding-decoding systems of the courtship in this species. We found that males can be individually discriminated on the basis of visual and acoustic parameters. The booms produced during the courtship are also related to males’ characteristics susceptible to reflect their quality. Individuals who produced the lowest frequency booms were those with the greatest weights and performed the highest intensity courtships. Playback experiment shows that the frequency content of the booms was perceived and decoded by males during agonistic interaction, leading to significantly different behavioural responses according to the frequency of the signals played back. Furthermore, several acoustic parameters of the booms are significantly heritable through genetic transmission and these parameters are also related to the level of inbreeding. Finally, we showed that the booms and the acoustic parameters supporting information are particularly well adapted to the transmission of information at long range as required in a long distance communication network constituted by an exploded lek. First, booms are of very low-frequency and propagate up to 640 m. Second, coding-decoding of information relies on sequentially redundant and propagation-resistant features. Third, acoustic signals are combined with visual signalling (multimodality) which may improve the long distance transmission of the information. This study brought evidence that complex information is conveyed by visual and acoustic signals during the courtship of males within a long distance network
APA, Harvard, Vancouver, ISO, and other styles
18

Deschatre, Thomas. "Dependence modeling between continuous time stochastic processes : an application to electricity markets modeling and risk management." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED034/document.

Full text
Abstract:
Cette thèse traite de problèmes de dépendance entre processus stochastiques en temps continu. Ces résultats sont appliqués à la modélisation et à la gestion des risques des marchés de l'électricité.Dans une première partie, de nouvelles copules sont établies pour modéliser la dépendance entre deux mouvements Browniens et contrôler la distribution de leur différence. On montre que la classe des copules admissibles pour les Browniens contient des copules asymétriques. Avec ces copules, la fonction de survie de la différence des deux Browniens est plus élevée dans sa partie positive qu'avec une dépendance gaussienne. Les résultats sont appliqués à la modélisation jointe des prix de l'électricité et d'autres commodités énergétiques. Dans une seconde partie, nous considérons un processus stochastique observé de manière discrète et défini par la somme d'une semi-martingale continue et d'un processus de Poisson composé avec retour à la moyenne. Une procédure d'estimation pour le paramètre de retour à la moyenne est proposée lorsque celui-ci est élevé dans un cadre de statistique haute fréquence en horizon fini. Ces résultats sont utilisés pour la modélisation des pics dans les prix de l'électricité.Dans une troisième partie, on considère un processus de Poisson doublement stochastique dont l'intensité stochastique est une fonction d'une semi-martingale continue. Pour estimer cette fonction, un estimateur à polynômes locaux est utilisé et une méthode de sélection de la fenêtre est proposée menant à une inégalité oracle. Un test est proposé pour déterminer si la fonction d'intensité appartient à une certaine famille paramétrique. Grâce à ces résultats, on modélise la dépendance entre l'intensité des pics de prix de l'électricité et de facteurs exogènes tels que la production éolienne
In this thesis, we study some dependence modeling problems between continuous time stochastic processes. These results are applied to the modeling and risk management of electricity markets. In a first part, we propose new copulae to model the dependence between two Brownian motions and to control the distribution of their difference. We show that the class of admissible copulae for the Brownian motions contains asymmetric copulae. These copulae allow for the survival function of the difference between two Brownian motions to have higher value in the right tail than in the Gaussian copula case. Results are applied to the joint modeling of electricity and other energy commodity prices. In a second part, we consider a stochastic process which is a sum of a continuous semimartingale and a mean reverting compound Poisson process and which is discretely observed. An estimation procedure is proposed for the mean reversion parameter of the Poisson process in a high frequency framework with finite time horizon, assuming this parameter is large. Results are applied to the modeling of the spikes in electricity prices time series. In a third part, we consider a doubly stochastic Poisson process with stochastic intensity function of a continuous semimartingale. A local polynomial estimator is considered in order to infer the intensity function and a method is given to select the optimal bandwidth. An oracle inequality is derived. Furthermore, a test is proposed in order to determine if the intensity function belongs to some parametrical family. Using these results, we model the dependence between the intensity of electricity spikes and exogenous factors such as the wind production
APA, Harvard, Vancouver, ISO, and other styles
19

Boitel, Guillaume. "Efficience énergétique et modifications du mouvement propulseur lors d'une tâche de locomotion aquatique d'intensité maximale et sous-maximale : le cas de la monopalme de surface." Phd thesis, 2012. http://tel.archives-ouvertes.fr/tel-00690416.

Full text
Abstract:
L'objectif de ce travail est d'étudier la relation entre l'efficience énergétique et les modifications du mouvement propulseur lors de tâches d'intensité maximale et sous-maximale. Une analyse descriptive de l'activité monopalme a été préalablement réalisée, permettant de caractériser le profil bioénergétique des monopalmeurs de haut niveau (Etude 1). Ce premier travail montre que l'amplitude des réponses cardiorespiratoires et métaboliques est significativement moins importante chez des monopalmeurs réalisant une épreuve maximale in situ comparativement à un exercice réalisé surergocycle. Ces différences d'adaptations physiologiques aigues à l'exercice maximal entre les deux épreuves suggèrent une influence de la position spécifique du corps et de la faible masse musculaire recrutée en monopalme.L'étude 2 s'est intéressée à l'influence de la fréquence d'ondulation (FO comme paramètre du mouvement) sur le coût énergétique (CE) et les réponses métaboliques au cours d'épreuves de nage de durée constante et d'intensité sous-maximale. Les résultats mettent en évidence que le choix d'une fréquence d'ondulation élevée (> FO librement choisie, FOLC) en comparaison à un intervalle de basses fréquences induit une optimisation du CE, pouvant se traduire par une réduction des résistances hydrodynamiques à l'avancement. L'étude 3 s'est intéressée à l'effet de la fréquence d'ondulation sur l'évolution des indicateurs de l'efficience énergétique (CE et composante lente de la consommation d'oxygène, VO2CL ) au cours d'un temps limite (Tlim) effectué à intensité maximale. La sélection d'une fréquence basse et élevée (exprimée en % de la FOLC) est associée à une altération du Tlim alors qu'une amélioration de la performance est observée lors de la condition FOLC. L'absence de différences significatives des valeurs de CE et de VO2CL entre les conditions suggère que la performance est plus dépendante de la manipulation du mouvement que des réponses physiologiques induites. Des études ultérieures sont nécessaires pour identifier les mécanismes internes et externes (e.g. activité musculaire et/ou contrôle moteur) qui peuvent potentiellement affecter laperformance en monopalme de surface.
APA, Harvard, Vancouver, ISO, and other styles
20

Hébert-Brassard, Cynthia. "L'influence de la sélection fréquence-dépendante sur le choix de partenaire chez le diamant mandarin (Taeniopygia guttata)." Thèse, 2014. http://hdl.handle.net/1866/11528.

Full text
Abstract:
La sélection fréquence-dépendante est un mécanisme d’évolution selon lequel l’aptitude d'un type varie en fonction de sa fréquence dans la population. Ce mécanisme joue un rôle important dans de nombreuses interactions autant interspécifiques (parasitisme, prédation, compétition), qu'intra-spécifiques entre les différents phénotypes d'une même espèce. La sélection fréquence-dépendante peut être positive ou négative et favoriser alors les phénotypes communs ou rares, respectivement. Elle a été mise en évidence dans le contexte du choix de partenaire chez plusieurs espèces, notamment chez certaines espèces d'insectes (ex.: demoiselles, drosophiles, cantharide de Pennsylvanie) et de poissons (ex.: guppys, xiphos), mais elle a été aussi récemment découverte chez l’humain. L'importance de la sélection fréquence-dépendante dans le choix de partenaire chez les espèces monogames reste tout de même peu explorée et cette étude vise à combler cette lacune en utilisant le diamant mandarin, un passereau monogame, comme modèle biologique. Nous avons étudié l'importance de ce mécanisme lorsqu'un trait est neutre et lorsque celui-ci constitue un indicateur de qualité. De plus, nous avons tenté de déterminer si la présence de rivales peut modifier la préférence initiale des femelles pour les phénotypes rares ou communs.
Frequency-dependant selection is an evolution mechanism in which the fitness of a type depend of its frequency in the population. This mechanism play an important role in several interspecific (parasitism, predation, competition) and intraspecific interactions within different phenotypes of a same species. Frequency-dependant selection can be positive or negative and favor, respectively, either common or rare phenotype. This selection has been found in context of mated choice of several species, especially in insects (damselfly, drosophila, soldier beetle) and fishes (guppy, swordtail) and it has even been recently discover in humans. The significance of frequency-dependent selection in mated choice of monogamous species is still less explored and this study used the zebra finches (a monogamous passerine) in order to explored this field. We studied the significance of this mechanism when a character is neutral and when it is rather a quality cue. Also, we attempt to establish if rivals' presence affect or modify the initial preference of females for common or rare phenotypes.
APA, Harvard, Vancouver, ISO, and other styles
21

Bellemare, Pascale. "Validité du test de marche de 6 minutes et du test navette progressif auprès de personnes qui souffrent de fibrillation auriculaire chronique et/ou d'insuffisance cardiaque sévère." Thèse, 2004. http://hdl.handle.net/1866/15432.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Villandré, Luc. "Effet de l'échantillonnage non proportionnel de cas et de témoins sur une méthode de vraisemblance maximale pour l'estimation de la position d'une mutation sous sélection." Thèse, 2008. http://hdl.handle.net/1866/8196.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Bekraoui, Nabyl. "Coût bioenergetique des modes de déplacements irréguliers en sport." Thèse, 2015. http://hdl.handle.net/1866/13503.

Full text
Abstract:
The objective of this thesis was to quantify the physiological responses such as O2 uptake (VO2), heart rate (HR) and blood lactate ([LA]) to some types of activities associated with intermittent sports in athletes. Our hypothesis is that the introduction of accelerations and decelerations with or without directional changes results in a significative increase of the oxygen consumption, heart rate and blood lactate. The purpose of the first study was to measure and compare the VO2 and the HR of 6 on-court tennis drills at both high and low displacement speeds. These drills were done with and without striking the ball, over full and half-width court, in attack or in defense mode, using backhand or forehand strokes. Results show that playing an attacking style requires 6.5% more energy than playing a defensive style (p < 0.01) and the backhand stroke required 7% more VO2 at low speed than forehand stroke (p < 0.05) while the additional cost of striking the ball lies between 3.5 and 3.0 mL kg-1 min-1. Finally, while striking the ball, the energy expanded during a shuttle displacement on half-width court is 14% higher than running on full-width court. Studies #2 and #3 focused on different modes of displacement observed in irregular sports. The objective of the second study was to measure and compare VO2, HR and [LA] responses to randomly performed multiple fractioned runs with directional changes (SR) and without directional changes (FR) to those of in-line running (IR) at speeds corresponding to 60, 70 and 80% of the subject’s maximal aerobic speed (MAS). All results show that IR’s VO2 was significantly lower than SR’s and FR’s (p<0.05). SR’s VO2 was greater than FR’s only at speeds corresponding to 80%MAS. On the other hand, HR was similar in SR and FR but significantly higher than IR’s (p<0.05). [LA] varied between 4.2 ± 0.8 and 6.6 ± 0.9 mmol L-1 without significant differences between the 3 displacement modes. Finally, the third study’s objective was to measure and compare VO2 , HR and [LA] responses during directional changes at different angles and at different submaximal running speeds corresponding to 60, 70 and 80% MAS. Subjects randomly performed 4 running protocols 1) a 20-m shuttle running course (180°) (SR), 2) an 8-shaped running course with 90-degree turns every 20 m (90R), 3) a Zigzag running course (ZZR) with multiple close directional changes (~ 5 m) at different angle values of 91.8°, 90° and 38.6°, 4) an In-line run (IR) for comparison purposes. Results show that IR’s was lower (p<0.001) than for 90R’s, SR’s and ZZR’s at all intensities. VO2 obtained at 60 and 70%MAS was 48.7 and 38.1% higher during ZZR when compared to IR while and depending on the intensity, during 90R and SR was between 15.5 and 19.6% higher than during IR. Also, ZZR’s VO2 was 26.1 and 19.5% higher than 90R’s, 26.1 and 15.5% higher than SR’s at 60 and 70%MAS. SR’s and 90R’s VO2 were similar. Changing direction at a 90° angle and at 180° angle seem similar when compared to continuous in-line running. [LA] levels were similar in all modalities. Overall, the studies presented in this thesis allow the quantification of the specific energetic demands of certain types of displacement modes in comparison with conventional forward running. Also, our results confirm that the energy cost varies and increase with the introduction of accelerations and decelerations with and without directional changes.
L’objectif de cette thèse est de quantifier trois réponses physiologiques: la consommation d’oxygène VO2, la fréquence cardiaque (FC) et la lactatémie ([LA]) pour différentes modalités de déplacement observées lors de sports irréguliers (ex: tennis, soccer, basketball et handball) chez des sportifs adultes. Notre hypothèse est que l’accélération et décélération avec et sans changements de direction résultent dans une augmentation significative de la consommation d’oxygène, de la fréquence cardiaque. Le but de la première étude menée dans le cadre de la présente thèse fut de mesurer et comparer le VO2 requis et la réponse de la FC de six types d’activités spécifiques au tennis (Attaque avec frappe de balle, défense avec et sans frappe de balle, coup droit, coup de revers, déplacement latéral) et ce, à des vitesses de déplacement basses et élevées. Ces activités furent exécutées en mode attaque et en mode défense avec utilisation du coup droit et du revers. Les résultats montrent qu’attaquer, nécessite 6.5% plus d’énergie que de défendre (p < 0.01) et que le coût associé au revers est supérieur de 7% à celui du coup droit (p < 0.05) lors des déplacements à vitesses faibles et que la frappe de balle coûte entre 3.5 et 3.0 mL kg-1 min-1. Enfin, frapper la balle et se déplacer en pas chassé sur la moitié de la largeur du court coûte 14% plus d'énergie que de se déplacer sur la largeur totale du court. La deuxième et troisième études présentées portent sur différents modes de déplacement observés dans des sports irréguliers. Ainsi, l’objectif de la seconde étude était de mesurer VO2, FC et [LA] lors des déplacements fractionnés avec (SR) ou sans (FR) changements de direction et de les comparer à ceux de la course continue (IR) à des intensités de 60, 70 et 80% de la vitesse aérobie maximale (VAM) observée en IR. Les résultats montrent que le VO2 requis pour IR fut significativement inférieur à celui de FR et de SR (p<0.05). Le VO2 lors des SR fut supérieur à celui observé lors des FR seulement à 80% VAM. Par contre, la FC fut similaire dans SR et FR mais significativement supérieure à celle de IR (p<0.05). [LA] varia entre 4.2 ± 0.8 et 6.6 ± 0.9 mmol L-1 sans différences significatives entre les 3 modes de déplacement. Enfin, l’objectif de la troisième et dernière étude fut de mesurer la réponse de VO2, de FC et de [LA] lors de déplacements avec changements de direction à différents angles à 60, 70 et 80% de la VAM des sujets. Les modalités de déplacement étaient 1) course navette avec changement de direction à 180° tous les 20 m (SR), 2) course en forme de 8 à angles droits (90R) tous les 20 m, 3) course en zigzag (ZZR) avec plusieurs virages rapprochés (~ 5 m) à différents angles de 91.8°, 90° et 38.6°, 4) course continue (IR) sans virage à des fins de comparaison. Les résultats montrent que le VO2 associé à IR est significativement inférieur à celui observé lors de ZZR, SR et 90R (p<0.001). Le VO2 atteint à 60 et 70% VAM lors de ZZR fut de 48.7 et 38.1% supérieur à celui atteint lors de IR, alors que selon l’intensité, les VO2 lors de 90R et SR furent entre 15.5 et 19.6 % supérieur à celui associé à IR. Toujours à 60 et 70%VAM, le VO2 atteint lors de ZZR fut respectivement de 26.1 et de 19.5% supérieur à celui atteint lors de 90R, et de 26.1 et 15.5% supérieur à celui atteint lors de SR. En ZZR, les sujets furent incapables de compléter la tâche à 80% VAM. En mode SR et 90R et à toutes les intensités, les VO2 mesurés furent similaires. Virer à 90° semble donc aussi exigeant qu’à 180° par rapport à la course continue. Enfin, [LA] était similaire dans toutes modalités. D’une façon générale, les études de cette thèse ont permis de quantifier les exigences énergétiques spécifiques de certaines formes de déplacements par rapport à la course avant conventionnelle. Ceci confirme que les coûts énergétiques varient et augmentent avec les accélérations et décélérations avec et sans changements de direction.
APA, Harvard, Vancouver, ISO, and other styles
24

Koné, N'Golo. "Optimal portfolio selection with transaction costs." Thesis, 2020. http://hdl.handle.net/1866/24835.

Full text
Abstract:
Le choix de portefeuille optimal d'actifs a été depuis longtemps et continue d'être un sujet d'intérêt majeur dans le domaine de la finance. L'objectif principal étant de trouver la meilleure façon d'allouer les ressources financières dans un ensemble d'actifs disponibles sur le marché financier afin de réduire les risques de fluctuation du portefeuille et d'atteindre des rendements élevés. Néanmoins, la littérature de choix de portefeuille a connu une avancée considérable à partir du 20ieme siècle avec l'apparition de nombreuses stratégies motivées essentiellement par le travail pionnier de Markowitz (1952) qui offre une base solide à l'analyse de portefeuille sur le marché financier. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature en proposant divers outils économétriques pour améliorer le processus de sélection de portefeuilles sur le marché financier afin d'aider les intervenants de ce marché. Le premier chapitre, qui est un papier joint avec Marine Carrasco, aborde un problème de sélection de portefeuille avec coûts de transaction sur le marché financier. Plus précisément, nous développons une procédure de test simple basée sur une estimation de type GMM pour évaluer l'effet des coûts de transaction dans l'économie, quelle que soit la forme présumée des coûts de transaction dans le modèle. En fait, la plupart des études dans la littérature sur l'effet des coûts de transaction dépendent largement de la forme supposée pour ces frictions dans le modèle comme cela a été montré à travers de nombreuses études (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). Ainsi, pour résoudre ce problème, nous développons une procédure statistique, dont le résultat est indépendant de la forme des coûts de transaction, pour tester la significativité de ces coûts dans le processus d'investissement sur le marché financier. Cette procédure de test repose sur l'hypothèse que le modèle estimé par la méthode des moments généralisés (GMM) est correctement spécifié. Un test commun utilisé pour évaluer cette hypothèse est le J-test proposé par Hansen (1982). Cependant, lorsque le paramètre d'intérêt se trouve au bord de l'espace paramétrique, le J-test standard souffre d'un rejet excessif. De ce fait, nous proposons une procédure en deux étapes pour tester la sur-identification lorsque le paramètre d'intérêt est au bord de l'espace paramétrique. Empiriquement, nous appliquons nos procédures de test à la classe des anomalies utilisées par Novy-Marx and Velikov (2016). Nous montrons que les coûts de transaction ont un effet significatif sur le comportement des investisseurs pour la plupart de ces anomalies. Par conséquent, les investisseurs améliorent considérablement les performances hors échantillon en tenant compte des coûts de transaction dans le processus d'investissement. Le deuxième chapitre aborde un problème dynamique de sélection de portefeuille de grande taille. Avec une fonction d'utilité exponentielle, la solution optimale se révèle être une fonction de l'inverse de la matrice de covariance des rendements des actifs. Cependant, lorsque le nombre d'actifs augmente, cet inverse devient peu fiable, générant ainsi une solution qui s'éloigne du portefeuille optimal avec de mauvaises performances. Nous proposons deux solutions à ce problème. Premièrement, nous pénalisons la norme des poids du portefeuille optimal dans le problème dynamique et montrons que la stratégie sélectionnée est asymptotiquement efficace. Cependant, cette méthode contrôle seulement en partie l'erreur d'estimation dans la solution optimale car elle ignore l'erreur d'estimation du rendement moyen des actifs, qui peut également être importante lorsque le nombre d'actifs sur le marché financier augmente considérablement. Nous proposons une méthode alternative qui consiste à pénaliser la norme de la différence de pondérations successives du portefeuille dans le problème dynamique pour garantir que la composition optimale du portefeuille ne fluctue pas énormément entre les périodes. Nous montrons que, sous des conditions de régularité appropriées, nous maîtrisons mieux l'erreur d'estimation dans le portefeuille optimal avec cette nouvelle procédure. Cette deuxième méthode aide les investisseurs à éviter des coûts de transaction élevés sur le marché financier en sélectionnant des stratégies stables dans le temps. Des simulations ainsi qu'une analyse empirique confirment que nos procédures améliorent considérablement la performance du portefeuille dynamique. Dans le troisième chapitre, nous utilisons différentes techniques de régularisation (ou stabilisation) empruntées à la littérature sur les problèmes inverses pour estimer le portefeuille diversifié tel que définie par Choueifaty (2011). En effet, le portefeuille diversifié dépend du vecteur de volatilité des actifs et de l'inverse de la matrice de covariance du rendement des actifs. En pratique, ces deux quantités doivent être remplacées par leurs contrepartie empirique. Cela génère une erreur d'estimation amplifiée par le fait que la matrice de covariance empirique est proche d'une matrice singulière pour un portefeuille de grande taille, dégradant ainsi les performances du portefeuille sélectionné. Pour résoudre ce problème, nous étudions trois techniques de régularisation, qui sont les plus utilisées : le rigde qui consiste à ajouter une matrice diagonale à la matrice de covariance, la coupure spectrale qui consiste à exclure les vecteurs propres associés aux plus petites valeurs propres, et Landweber Fridman qui est une méthode itérative, pour stabiliser l'inverse de matrice de covariance dans le processus d'estimation du portefeuille diversifié. Ces méthodes de régularisation impliquent un paramètre de régularisation qui doit être choisi. Nous proposons donc une méthode basée sur les données pour sélectionner le paramètre de stabilisation de manière optimale. Les solutions obtenues sont comparées à plusieurs stratégies telles que le portefeuille le plus diversifié, le portefeuille cible, le portefeuille de variance minimale et la stratégie naïve 1 / N à l'aide du ratio de Sharpe dans l'échantillon et hors échantillon.
The optimal portfolio selection problem has been and continues to be a subject of interest in finance. The main objective is to find the best way to allocate the financial resources in a set of assets available on the financial market in order to reduce the portfolio fluctuation risks and achieve high returns. Nonetheless, there has been a strong advance in the literature of the optimal allocation of financial resources since the 20th century with the proposal of several strategies for portfolio selection essentially motivated by the pioneering work of Markowitz (1952)which provides a solid basis for portfolio analysis on the financial market. This thesis, divided into three chapters, contributes to this vast literature by proposing various economic tools to improve the process of selecting portfolios on the financial market in order to help stakeholders in this market. The first chapter, a joint paper with Marine Carrasco, addresses a portfolio selection problem with trading costs on stock market. More precisely, we develop a simple GMM-based test procedure to test the significance of trading costs effect in the economy regardless of the form of the transaction cost. In fact, most of the studies in the literature about trading costs effect depend largely on the form of the frictions assumed in the model (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). To overcome this problem, we develop a simple test procedure which allows us to test the significance of trading costs effect on a given asset in the economy without any assumption about the form of these frictions. Our test procedure relies on the assumption that the model estimated by GMM is correctly specified. A common test used to evaluate this assumption is the standard J-test proposed by Hansen (1982). However, when the true parameter is close to the boundary of the parameter space, the standard J-test based on the chi2 critical value suffers from overrejection. To overcome this problem, we propose a two-step procedure to test overidentifying restrictions when the parameter of interest approaches the boundary of the parameter space. In an empirical analysis, we apply our test procedures to the class of anomalies used in Novy-Marx and Velikov (2016). We show that transaction costs have a significant effect on investors' behavior for most anomalies. In that case, investors significantly improve out-of-sample performance by accounting for trading costs. The second chapter addresses a multi-period portfolio selection problem when the number of assets in the financial market is large. Using an exponential utility function, the optimal solution is shown to be a function of the inverse of the covariance matrix of asset returns. Nonetheless, when the number of assets grows, this inverse becomes unreliable, yielding a selected portfolio that is far from the optimal one. We propose two solutions to this problem. First, we penalize the norm of the portfolio weights in the dynamic problem and show that the selected strategy is asymptotically efficient. However, this method partially controls the estimation error in the optimal solution because it ignores the estimation error in the expected return, which may also be important when the number of assets in the financial market increases considerably. We propose an alternative method that consists of penalizing the norm of the difference of successive portfolio weights in the dynamic problem to guarantee that the optimal portfolio composition does not fluctuate widely between periods. We show, under appropriate regularity conditions, that we better control the estimation error in the optimal portfolio with this new procedure. This second method helps investors to avoid high trading costs in the financial market by selecting stable strategies over time. Extensive simulations and empirical results confirm that our procedures considerably improve the performance of the dynamic portfolio. In the third chapter, we use various regularization (or stabilization) techniques borrowed from the literature on inverse problems to estimate the maximum diversification as defined by Choueifaty (2011). In fact, the maximum diversification portfolio depends on the vector of asset volatilities and the inverse of the covariance matrix of assets distribution. In practice, these two quantities need to be replaced by their sample counterparts. This results in estimation error which is amplified by the fact that the sample covariance matrix may be close to a singular matrix in a large financial market, yielding a selected portfolio far from the optimal one with very poor performance. To address this problem, we investigate three regularization techniques, such as the ridge, the spectral cut-off, and the Landweber-Fridman, to stabilize the inverse of the covariance matrix in the investment process. These regularization schemes involve a tuning parameter that needs to be chosen. So, we propose a data-driven method for selecting the tuning parameter in an optimal way. The resulting regularized rules are compared to several strategies such as the most diversified portfolio, the target portfolio, the global minimum variance portfolio, and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography