Academic literature on the topic 'Espaces séquentiels'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Espaces séquentiels.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Espaces séquentiels"

1

Fong, Kevin Pat. "L’art séquentiel – espace expérimental." Voix Plurielles 10, no. 2 (November 28, 2013): 224–29. http://dx.doi.org/10.26522/vp.v10i2.859.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Petitjean, Cécile, Anca Sterie, Carla Vaucher, and Esther Gonzalez-Martinez. "‘Je me permets de te déranger pour te demander un petit conseil’ : la gestion de l'expertise lors d'un appel téléphonique infirmier au service des Soins intensifs." Cahiers du Centre de Linguistique et des Sciences du Langage, no. 42 (September 6, 2015): 33–56. http://dx.doi.org/10.26034/la.cdclsl.2015.637.

Full text
Abstract:
Les conversations téléphoniques entre infirmières sont instrumentales dans le sens où elles visent la prise en charge des patients mais constituent également un espace de production et de reconnaissance des expertises des professionnelles qui y sont engagées. Afin de rendre compte des compétences interactionnelles mobilisées dans cette double organisation, à la fois pratique et épistémique, cet article propose l'analyse conversationnelle d'un appel en particulier : une jeune infirmière diplômée contacte le service des Soins intensifs pour demander conseil au sujet de l'administration d'un produit. L'analyse séquentielle de cet appel donne à voir l'interrelation entre l'activité de demande et l'attribution d'expertises.
APA, Harvard, Vancouver, ISO, and other styles
3

Mouni, Meryem, and Abdallah Boumalek. "Les interactions en ligne et la construction du savoir dans les dispositifs de formation complètement à distance: Quels rapports?" ITM Web of Conferences 39 (2021): 03007. http://dx.doi.org/10.1051/itmconf/20213903007.

Full text
Abstract:
Cette contribution se propose d’étudier la relation entre les interactions en ligne et la construction collaborative du savoir dans trois MOOC. Son objectif principal est l’examen, dans l’ingénierie pédagogique adoptée, du rôle envisagé pour les interactions en ligne dans le processus d’apprentissage. Elle tentera également de comprendre comment les forums de discussion contribuent à une co-construction des savoirs entre les participants. Le modèle d’analyse des interactions adopté dans ce travail est l’analyse conversationnelle d’inspiration ethnométhodologique qui renvoie aux actions. Elle étudie les conversations dans un espace écologique et tâche de comprendre leur organisation séquentielle. Ce modèle est foncièrement centré sur les interactions, en vue de décrire les stratégies adoptées par les participants présents lors des tours de paroles. Dans cette perspective, ce travail n’ambitionne pas l’étude des aspects iconographiques que véhiculent les interactions en ligne. Le corpus d’étude est composé de forums de discussion enregistrés sur des MOOC dans le but de répondre à notre objectif de recherche.
APA, Harvard, Vancouver, ISO, and other styles
4

Rippstein, Georges, G. Allard, and J. Corbin. "Gestion par les feux des pâturages naturels et productivité des bovins sur les prairies des basses plaines orientales de Colombie." Revue d’élevage et de médecine vétérinaire des pays tropicaux 53, no. 4 (April 1, 2000): 337. http://dx.doi.org/10.19182/remvt.9712.

Full text
Abstract:
La productivité et la valeur alimentaire des différents types de pâturages naturels des basses plaines orientales de Colombie (Llanos), gérées par des feux annuels de saison sèche, ont été généralement faibles: les biomasses aériennes annuelles ont été de l'ordre de 2 à 3,5 tonnes de matière sèche par hectare et les teneurs en matières azotées totales des fourrages ont été comprises entre 5 et 11 p. 100 de la matière sèche suivant les saisons et le stade phénologique. Dans les conditions traditionnelles d'exploitation (pâture continue, pas de feu ou des feux en début de saison sèche, chargement de 8-10 ha par animal), les gains de poids des bovins ont été faibles en saison des pluies (gains quotidiens moyens entre 150 à 300g) et ils ont perdu généralement du poids en saison sèche (de 150 à 250g par jour). Des expérimentations en station ont montré une différence significative de productivité des animaux selon la composition botanique, ou mieux, la valeur pastorale (indice synthétique de valeur du pâturage intégrant productivité, valeur nutritive et appétence des espèces) des pâturages naturels suivant qu'ils étaient sur des sols à texture sablo-argileuse ou argilo-limoneuse. Les feux annuels de saison sèche ont permis la production de repousses vertes mais, répétés d'année en année et associés à la libre pâture en continu, ils ont dégradé la flore. Les auteurs ont testé, sur un ensemble de parcelles en rotation, deux systèmes séquentiels de feux permettant de les espacer de 16 mois et de mettre à la disposition du bétail des repousses protégées de la pâture toutes les quatre semaines. Malgré un doublement de la charge moyenne annuelle (4 ha par tête), les gains de poids individuels de bovins en croissance ont été significativement améliorés et ce résultat a été obtenu sans dégradation de la végétation.
APA, Harvard, Vancouver, ISO, and other styles
5

Nyobe, Samuel, Fabien Campillo, Serge Moto, and Vivien Rossi. "The one step fixed-lag particle smoother as a strategy to improve the prediction step of particle filtering." Revue Africaine de Recherche en Informatique et Mathématiques Appliquées Volume 39 - 2023 (December 14, 2023). http://dx.doi.org/10.46298/arima.10784.

Full text
Abstract:
Sequential Monte Carlo methods have been a major breakthrough in the field of numerical signal processing for stochastic dynamical state-space systems with partial and noisy observations. However, these methods still present certain weaknesses. One of the most fundamental is the degeneracy of the filter due to the impoverishment of the particles: the prediction step allows the particles to explore the state-space and can lead to the impoverishment of the particles if this exploration is poorly conducted or when it conflicts with the following observation that will be used in the evaluation of the likelihood of each particle. In this article, in order to improve this last step within the framework of the classic bootstrap particle filter, we propose a simple approximation of the one step fixed- lag smoother. At each time iteration, we propose to perform additional simulations during the prediction step in order to improve the likelihood of the selected particles. Les méthodes de Monte Carlo séquentielles ont constitué une percée majeure dans le domaine du traitement numérique du signal pour les systèmes dynamiques stochastiques à espace d'état avec observations partielles et bruitées. Cependant, ces méthodes présentent encore certaines faiblesses. L'une des plus fondamentales est la dégénérescence du filtre due à l'appauvrissement des particules : l'étape de prédiction permet aux particules d'explorer l'espace d'état et peut conduire à l'appauvrissement des particules si cette exploration est mal menée ou lorsqu'elle entre en conflit avec l'observation suivante qui sera utilisée dans l'évaluation de la vraisemblance de chaque particule. Dans cet article, afin d'améliorer cette dernière étape dans le cadre du filtre particulaire bootstrap classique, nous proposons une approximation simple du lisseur à retard fixe à un pas. A chaque itération temporelle, nous proposons d'effectuer des simulations supplémentaires pendant l'étape de prédiction afin d'améliorer la vraisemblance des particules sélectionnées.
APA, Harvard, Vancouver, ISO, and other styles
6

Grimal, Richard. "Reducing car traffic? Welfare costs and environmental benefits of different economic and technological scenarios by 2060." Les Cahiers Scientifiques du Transport - Scientific Papers in Transportation 73 | 2018 (March 31, 2018). http://dx.doi.org/10.46298/cst.12171.

Full text
Abstract:
Along with the growing car traffic, pollutant and GHG emissions have constantly been increasing. Facing this evidence, the French government and local authorities have implemented willful policies during the last two decades in order to reduce car use in French cities. However, such policies could be nearly reaching their limits, in particular as they fail in dealing with the issue of car dependency in low-density areas. So, in a context of increa­sing fuel prices on the long-run, more attention has to be paid to social costs and equity issues related to sustainable travel policies, in addition to a more environmentally-focused approach. In order to do so, several scenarios were considered with various assumptions regarding the evolution of fuel prices, incomes and vehicle fuel efficiency up to 2060, of which consequences on GHG emissions, average car mileage per adult, and fuel budget coefficients were analyzed. A sequential model of traffic generation was used, accoun­ting for the number of driving license holders and main users of a vehicle. Forecasting results suggest that technical progress could simultaneously reduce GHG emissions and household budget coefficients, thus providing a satisfactory answer to both sustainability and equity issues. On the other hand, rising fuel prices have limited efficiency in reducing GHG emissions because of car dependency, while strongly lifting up budget coefficients. We finally suggest more in-depth insights into this issue, including a sensitivity analysis to different values of mileage cost elasticities, a comprehensive research about the long-term relationship between fuel prices and fuel efficiency gains, the existence of possibly paradoxical effects of fuel price increases that would reduce their environmental efficiency, and an assessment of scenario probabilities. Avec l’augmentation du trafic automobile, les externalités négatives de l’usage de la voiture n’ont cessé de progresser, en particulier les émissions de polluants et de gaz à effet de serre. Face à ce constat, les pouvoirs publics ont mis en œuvre des politiques volontaristes pour réduire l’usage de la voiture, qui semblent toutefois atteindre leurs limites, échouant notamment à traiter le problème de la dépendance automobile dans les espaces peu denses. Aussi, dans un contexte de renchérissement de l’énergie à long terme, apparaît-il de plus en plus nécessaire de compléter l’analyse des politiques de mobilité non seulement au regard des enjeux environnementaux mais également en termes d’équité. Pour cela, plusieurs scénarios sont considérés, correspondant à des hypothèses différenciées en matière d’évolution des prix des carburants, des revenus et de la consommation des véhicules, dont les répercussions sur les émissions de gaz à effet de serre, l’usage moyen de la voiture et l’effort budgétaire des ménages, analysées à l’horizon 2060. Afin de projeter ces indicateurs, un modèle séquentiel de génération de trafic est utilisé, tenant compte de l’évolution du nombre de détenteurs du permis de conduire équipés d’un véhicule personnel. Les résultats obtenus suggèrent que le progrès des motorisations représente un moyen efficace de réduire simultanément les émissions et l’effort budgétaire des ménages, en répondant donc à la fois aux enjeux sociaux et environnementaux. En revanche, une forte augmentation du prix du carburant présente une efficacité limitée au niveau de la réduction des émissions en raison de la dépendance automobile, tout en causant une forte augmentation de l’effort financier des ménages. Pour finir, quelques pistes de recherche sont indiquées en vue d’approfondir la présente étude, comme un test de la sensibilité des résultats à différentes valeurs de l’élasticité de l’usage de la voiture par rapport au coût kilométrique, une étude approfondie de la relation entre progrès technique et prix du carburant sur le long terme, l’existence de possibles effets paradoxaux des hausses de prix du carburant qui tendraient à en réduire l’efficacité environnementale, ainsi qu’une évaluation des probabilités attachées à chaque scénario.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Espaces séquentiels"

1

Lombardi, Carlos Alberto. "Espaces de réductions dans les systèmes de réécriture non-séquentiels et les systèmes de réécriture infinitaires." Paris 7, 2014. http://www.theses.fr/2014PA077168.

Full text
Abstract:
On aborde dans cette thèse certaines propriétés formelles de systèmes de réécriture qui concernent leurs espaces des dérivations. Les calculs choisis présentent des caractéristiques particulières qui font l'étude des propriétés choisies des défis intéressants. Les contributions les plus importantes de ce travail sont: (1) nous définons une stratégie de réduction multiradicaux pour le Pure Pattern Calculus, un calcul d'ordre supérieur non-séquentiel, et nous prouvons que cette stratégie est normalisante; (2) nous proposons une manière de formaliser le concept de réduction standard pour I Linear Substitution Calculus, un calcul avec substitutions explicites agissent à la distance dont les réductions sont considérés modulo une rélation d'équivalence dans l'ensemble des termes, et nous aboutissons à des résultats d'existence et unicité des reductions standards pour cette formalisation; et (3)nous donnons une charactérisation de l'équivalence entre réductions pour les systèmes de réécriture des termes infinitaires de premier ordre linéares à gauche, et nous nous servons de cette charactérisation pour développer une preuve d'une version renforcée du résultat de compression des réductions infinitaires. Un trait commun a ces trois sujets est l'utilisation de formalismes génériques de systèmes de réécriture. L'étude sur le Pure Pattern Calculus et celui concernant le Linear Substitution Calculus reposent sur le concept de Système Abstrait de Réécriture De son côté, pour le travail sur la réécriture infinitaire, on se sert d'un modèle fondé sur la notion de proof term. Des extensions à ces formalismes génériques sont des contributions additionnelles de cette thèse
We study different aspects related to the reduction spaces of diverse rewriting systems. These systems include features which make the study of their reduction spaces a far from trivial task. The main contributions of this thesis are: (1)we define a multistep reduction strategy for the Pure Pattern Calculus, a non-sequential higher-order term rewriting system, and we prove that the defined strategy is normalising;(2)we propose a formalisation of the concept of standard reduction for the Linear Substitution Calculus, a calculus of explicit substitutions whose reductions are considered modulo an equivaience relation defined on the set of terms, and we obtain a result of uniqueness of standard reductions for this formalisation; and finally, (3) we characterise the equivalence of reductions for the infinitary, first-order, left-linear term rewriting systems, and we use this characterisation to develop an alternative proof of the compression result. We remark that we use generic models of rewriting systems: a version of the notion of Abstract Rewriting Systems is used for the study of the Pure Pattern Calculus and the Linear Substitution Calculus, while a model based on the concept of proof terms is used for the study of infinitary rewriting. We include extensions of both used generic models; these extensions can be considered as additional contributions of this thesis
APA, Harvard, Vancouver, ISO, and other styles
2

Tang, Yiyu. "Topics in Fourier analysis : uncertainty principles and lacunary approximation." Electronic Thesis or Diss., Université Gustave Eiffel, 2024. http://www.theses.fr/2024UEFL2026.

Full text
Abstract:
Cette thèse a pour l'étude des principes d'incertitude et des problèmes d'approximation en analyse de Fourier. Elle se compose de deux parties. La première partie se concentre sur les principes d'incertitude dans l'analyse de Fourier. En utilisant une technique récemment inventée par Avi Wigderson et Yuval Wigderson, nous donnons une nouvelle preuve du principe d'incertitude de Heisenberg, répondant ainsi positivement à plusieurs questions posées par Wigderson & Wigderson. Nous obtenons également des nouvelles généralisations du principe d'incertitude, qui illustre la puissance de la nouvelle méthode. La deuxième partie concerne l'approximation sur les espaces séquentiels pondérés. Nous généralisons un ancien résultat dû à Douglas, Shapiro et Shields sur les vecteurs cycliques de l'opérateur de décalage dans les espaces séquentiels. L'esprit général du théorème affirme que si un élément dans les espaces séquentiels l^2 a un spectre clairsemé, alors ses décalages ne peuvent pas être concentrés sur un sous-ensemble, ils doivent donc se répandre dans tout l'espace. Ce phénomène peut également être considéré comme un principe d'incertitude, et il est également vrai pour p supérieur à 2 et faux pour 1
This thesis is devoted to the study of uncertainty principles and approximation problems in Fourier analysis. It consists two parts.The first part focus on uncertainty principles in Fourier analysis. Using a technique recently invented by Avi Wigderson and Yuval Wigderson, we give a new proof of the classical Heisenberg uncertainty principle, hence answering several questions affirmatively posed by Wigderson & Wigderson. Also, we obtain some other new generalization on uncertainty principle, which illustrates the power of the new method.The second part is about approximation on weighted sequence spaces. We generalize an old result due to Douglas, Shapiro and shields on cyclic vectors of shift operator in sequence spaces, which asserts that if an element in l^2 spaces has a ``sparse" spectrum, then its shifts can not be concentrated on a proper subset, hence they must spread out in the whole space. This phenomenon can also be roughly considered as an uncertainty principle, and it is also true for p greater than 2 and false for 1
APA, Harvard, Vancouver, ISO, and other styles
3

Chopin, Nicolas. "Applications des méthodes de Monte Carlo séquentielles à la statistique bayésienne." Paris 6, 2003. http://www.theses.fr/2003PA066057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Cochet, Fabrice. "Stratigraphie séquentielle dans les carbonates de l'oxfordien terminal - kimméridgien du Jura français." Lyon 1, 1995. http://www.theses.fr/1995LYO10326.

Full text
Abstract:
Une analyse en termes de stratigraphie sequentielle est proposee pour le systeme de depot carbonate de l'oxfordien terminal kimmeridgien du jura francais. Les depots de l'oxfordien terminal comportent une barriere bioclastique (seuil) separant un domaine confine (plate-forme interne) d'un domaine ouvert sur la mer (plate-forme externe). L'extension vers le sud de la plate-forme carbonatee au kimmeridgien etait interprete comme le resultat d'une simple progradation vers le bassin subalpin. L'analyse realisee montre que, au passage oxfordien kimmeridgien, le depot de facies oolitiques peu profond sur la plate-forme externe n'est pas la consequence d'une progradation a niveau marin constant, mais le resultat d'une regression forcee, c'est a dire d'une baisse du niveau marin relatif dont la cause est ensuite etudiee. Paradoxalement, les correlations realisees entre la plate-forme jurassienne et le domaine vocontien montrent que la surface localement emersive (limite de sequence) sur la plate-forme se raccorde avec la surface de transgression d'un cycle de 3 ordre dans la serie pelagique vocontienne. Ce paradoxe peut s'expliquer par la superposition, sur un cycle de 3 ordre, d'une cyclicite haute frequence dont l'amplification temporaire provoque des oscillations du niveau marin relatif suffisantes pour faire emerger temporairement les seuils oxfordiens. Deux mecanismes peuvent expliquer cette baisse generalisee: 1 - une amplification temporaire du signal glacio-eustatique a haute frequence ; 2 - des mouvements tectoniques. La comparaison avec d'autres plates-formes souligne le caractere general de la baisse temporaire du niveau marin relatif au passage oxfordien kimmeridgien
APA, Harvard, Vancouver, ISO, and other styles
5

Chagneux, Mathis. "Multi-target tracking and novel variational approaches for high-dimensional sequential data : an application to object counting in videos." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT036.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à de nouvelles approaches pour les problèmes de prédiction associés à des données séquentielles en grande dimension, en s'intéressant particulièrement aux données faiblement annotées et à l'économie de ressources computationelles. Dans le cadre d'un problème spécifique de comptage de macrodéchets à partir de vidéos, nous développons d'abord une solution robuste basée sur une approches de poursuite multi-cibles, qui combine l'apprentissage profond et l'estimation bayésienne récursive classique. Etant donné les récentes formulations de problèmes similaires sous forme d'estimateurs statistiques dans des modèles à données latentes de grande dimension, nous nous concentrons sur les extensions récentes des méthodes d'inférence variationelles au cadre séquentiel. Dans ce cadre, nous étudions les aspects théoriques et computationels de la factorization dite "backward", qui est une paramétrisation prometteuse pour les approximations variationnelles des distributions de lissage dans les modèles à espaces d'états. En particular, sous ces approximations "backward", nous obtenons une borne théorique pour l'erreur d'approximation d'espérances de fonctionnelles additives, et nous développons un algorithme efficace pour l'inférence d'état recursive et l'apprentissage en ligne des paramètres variationels. Ces contributions renforcent la pertinence des approches variationelles en tant qu'alternatives au méthodes Monte Carlo pour les données séquentielles, et ouvrent la voie à leur adoption en tant qu'estimateurs génériques pour la prévision non supervisée dans les données temporelles en grande dimension, comme pour le comptage dans les vidéos
This thesis studies novel approaches for prediction in high-dimensional sequential data, with a particular focus on scalability and weakly annotated settings. Motivated by the specific task of macrolitter counting in videos, we first derive a robust solution based on the multi-target tracking methodology, which combines deep learning and classical recursive Bayesian estimation.Then, we focus on the recent extensions of variational inference methods to the sequential setting, motivated by recent formulations of multi-target problems as statistical estimates in high-dimensional latent data models. Here, we study theoretical and computational aspects of the so-called backward factorization as a promising parameterization for variational approximations of the smoothing distributions in general state-space models. In particular, under such backward variational approximations, we derive a theoretical bound for the approximation error when considering expectations of additive state functionals, and develop an efficient algorithm for recursive latent estimation and online learning of the variational parameters. These contributions strengthen the relevance of variational approaches as alternatives to Monte Carlo methods in sequential settings, and pave the way to their adoption as generic solutions for unsupervised prediction in high-dimensional temporal data, such as for video object counting
APA, Harvard, Vancouver, ISO, and other styles
6

Schulbaum, Laurent. "Traduction des surfaces stratigraphiques et des géométries deltaïques lors du passage de l'échelle puits à l'échelle sismique." Nancy 1, 1996. http://www.theses.fr/1996NAN10328.

Full text
Abstract:
La géométrie des dépôts est charpentée par un ensemble de surfaces stratigraphiques dont les principales sont: les surfaces de transgression, les surfaces d'inondation maximum et les surfaces de régression brutale. Elles sont repérées et hiérarchisées en surfaces majeures et mineures, à partir de l'observation du motif d'empilement des faciès sédimentaires. L'enregistrement physique de ces surfaces géologiques, par les outils d'analyse (diagraphies et sismique), est encore mal compris. En effet, l'observation sur carottes, la mesure diagraphique et la sismique, n'appréhendent pas l'objet géologique de la même manière. Le passage du puits (carottes et diagraphies) à la sismique (sismique réflexion) implique, de façon inhérente, un changement d'échelle d'observation ou d'enregistrement. On passe donc d'une stratigraphie séquentielle haute-résolution (métrique à plurimétrique) à une stratigraphie séquentielle s. L. (décamétrique à pluridécamétrique) ou stratigraphie sismique. La démarche développée ici, est une approche intégrée de la géologie, qui tente d'établir un pont entre sédimentologie et géophysique. La liaison entre les données de puits et les données sismiques est assurée par les diagraphies. Pour ce faire, on procède selon les étapes suivantes: => La construction du schéma géologique 20 : - les diagraphies sont d'abord corrigées des effets d'environnement du forage - un modèle de faciès diagraphiques est établi sur un intervalle carotté et interprété en milieux de dépôt. Ce modèle est mis en correspondance avec le modèle de faciès sédimentaires pour calibrer la réponse diagraphique - le modèle dia graphique, alors validé, est projeté sur les zones non carottées - à partir de l'analyse séquentielle 10 des puits, les surfaces stratigraphiques sont identifiées et hiérarchisées, pour la construction du schéma de corrélation 20. => La modélisation sismique: - le schéma géologique est alors traduit en termes d'impédance, paramètre qui contrôle la propagation des ondes (soniques et sismiques). L'impédance correspond au produit de la densité par la vitesse sonique. Il convient donc de corriger encore plus finement ces diagraphies - la simulation sismique 10 (convolution par un signal) et 2D (équation d'ondes) permet de traduire le modèle en impédance (en profondeur) en une image sismique synthétique (en temps), comparable à la sismique réelle. La démarche est appliquée au champ "onshore" d'Erema, dans le delta du Niger (fig. 2). Les réservoirs étudiés sont argilo-gréseux et appartiennent à la Formation Agbada, d'âge Miocène. Le piège est de nature structural, il est associé à un anticlinal de type "roll-over", visible sur section sismique. L'objectif est donc de caractériser la réponse sismique des surfaces et corps géologiques. Il s'avère que les réflecteurs sismiques ne sont pas toujours là où on les attend, par le fait même du changement d'échelle. De plus, il peut se produire des phénomènes autres que la pure réflexion, d'énergie équivalente, appelés diffusion d'interface.
APA, Harvard, Vancouver, ISO, and other styles
7

Ouertani, Rym. "Algorithmes de décodage pour les systèmes multi-antennes à complexité réduite." Phd thesis, Paris, Télécom ParisTech, 2009. https://pastel.hal.science/pastel-00718214.

Full text
Abstract:
Les systèmes à antennes multiples permettent d’accroitre significativement la capacité. Toutefois, le décodage de tels systèmes présente une grande complexité qui croit en fonction du nombre d'antennes et de la taille de la constellation. Nous proposons un décodeur, appelé SB-Stack basé sur la stratégie de recherche du décodeur séquentiel Stack et la région de recherche du décodeur par sphères. Ce décodeur a une complexité moindre par rapport aux décodeurs existants tout en offrant des performances optimales. Une version paramétrée de ce décodeur est aussi proposée, offrant des performances sous-optimales avec des complexités décroissantes. L’utilisation de codes correcteurs d'erreurs nécessite des sorties souples fournies par le décodeur espace-temps, qui seront utilisées comme entrées par les premiers décodeurs. Nous proposons alors une version modifiée du décodeur SB-Stack délivrant des sorties souples sous forme de taux de vraisemblance logarithmiques. En pratique, il est important d'avoir une complexité faible mais également constante dans certaines applications. Nous proposons alors un décodeur adaptatif qui permet de sélectionner le décodeur le plus adéquat selon la qualité du canal de transmission et la qualité de service souhaitée. Nous présentons une implémentation pratique du décodage adaptatif utilisant le décodeur SB-Stack paramétré. Le décodage des codes espace-temps peut être amélioré en le précédant par une phase de pré-traitement. Nous présentons et nous étudions alors les performances d'une chaine complète de décodage utilisant diverses techniques de pré-traitement combinées avec les décodeurs espace-temps étudiés précédemment
MIMO systems offer large capacity. Several decoders of such systems exist in the literature. Unfortunately, their complexity increases drastically with the lattice dimension and the constellation size. Then, we propose a sequential algorithm (SB-Stack) based on the stack decoder search strategy and the sphere decoder search region. The proposed decoder outperforms the existing ones in term of complexity while achieving ML performance. Furthermore, introducing a bias parameter, the SB-Stack gives a range of performances from ML to ZF-DFE with proportional complexities. So, different performance/complexity trade-offs could be obtained. When channel coding is used, soft decoding becomes necessary. The SB-Stack is then extended to support soft-output detection. A straightforward idea was to exploit the nodes stored in the stack at the end of hard decoding process to calculate LLR. The gain of such method is rather large then classical soft decoders. The big variation of the complexity between low and high SNR is an additional problem because of the variable decoding time. We propose an adaptive decoder based on the SB-Stack that switches between several decoders according to the channel realization and the system specifications. This decoder has an almost constant complexity while keeping good performance. Lattice reduction is used to accelerate the decoding of infinite lattice. Using the MMSE-GDFE, it becomes possible to apply lattice reduction when finite constellations are considered. Therefore, interesting results are obtained when considering MIMO schemes combining the lattice reduction, the MMSE-GDFE process and the sequential decoders given previously
APA, Harvard, Vancouver, ISO, and other styles
8

Ouertani, Rym. "Algorithmes de décodage pour les systèmes multi-antennes à complexité réduite." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00718214.

Full text
Abstract:
Durant ces dernières années, un grand intérêt a été accordé aux systèmes de communication sans fil ayant plusieurs antennes en émission et en réception. Les codes espace-temps permettent d'exploiter tous les degrés de liberté de tels systèmes. Toutefois, le décodage de ces codes présente une grande complexité qui croit en fonction du nombre d'antennes déployées et de la taille de la constellation utilisée. Nous proposons un nouveau décodeur, appelé SB-Stack (Spherical Bound-Stack decoder) basé sur un algorithme de recherche dans l'arbre. Ce décodeur combine la stratégie de recherche du décodeur séquentiel Stack (dit également décodeur à pile) et la région de recherche du décodeur par sphères. Nous montrons que ce décodeur présente une complexité moindre par rapport à tous les décodeurs existants tout en offrant des performances optimales. Une version paramétrée de ce décodeur est aussi proposée, offrant une multitude de performances allant du ZF-DFE au ML avec des complexités croissantes, ainsi plusieurs compromis performances-complexités sont obtenus. Comme pour tous les systèmes de communication, les codes espace-temps pour les systèmes à antennes multiples peuvent être concaténés avec des codes correcteurs d'erreurs. Généralement, ces derniers sont décodés par des décodeurs à entrées et sorties souples. Ainsi, nous avons besoin de sorties souples fournies par le décodeur espace-temps qui seront utilisées comme entrées par les premiers décodeurs. Nous proposons alors une version modifiée du décodeur SB-Stack délivrant des sorties souples sous forme de taux de vraisemblance logarithmiques (Log-Likelihood Ratio - LLR). Pour la mise en oeuvre pratique des décodeurs, il est important d'avoir une complexité faible mais avoir également une complexité constante est indispensable dans certaines applications. Nous proposons alors un décodeur adaptatif qui permet de sélectionner, parmi plusieurs algorithmes de décodage, celui qui est le plus adéquat selon la qualité du canal de transmission et la qualité de service souhaitée. Nous présentons une implémentation pratique du décodage adaptatif utilisant le décodeur SB-Stack paramétré. Le décodage des codes espace-temps peut être amélioré en le précédant par une phase de pré-traitement. En sortie de cette phase, la matrice du canal équivalente est mieux conditionnée ce qui permet de réduire la complexité d'un décodeur optimal et d'améliorer les performances d'un décodeur sous-optimal. Nous présentons et nous étudions alors les performances d'une chaine complète de décodage utilisant diverses techniques de pré-traitement combinées avec les décodeurs espace-temps étudiés précédemment.
APA, Harvard, Vancouver, ISO, and other styles
9

Besson, Rémi. "Decision making strategy for antenatal echographic screening of foetal abnormalities using statistical learning." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX037/document.

Full text
Abstract:
Dans cette thèse, nous proposons une méthode pour construire un outil d'aide à la décision pour le diagnostic de maladie rare. Nous cherchons à minimiser le nombre de tests médicaux nécessaires pour atteindre un état où l'incertitude concernant la maladie du patient est inférieure à un seuil prédéterminé. Ce faisant, nous tenons compte de la nécessité dans de nombreuses applications médicales, d'éviter autant que possible, tout diagnostic erroné. Pour résoudre cette tâche d'optimisation, nous étudions plusieurs algorithmes d'apprentissage par renforcement et les rendons opérationnels pour notre problème de très grande dimension. Pour cela nous décomposons le problème initial sous la forme de plusieurs sous-problèmes et montrons qu'il est possible de tirer partie des intersections entre ces sous-tâches pour accélérer l'apprentissage. Les stratégies apprises se révèlent bien plus performantes que des stratégies gloutonnes classiques. Nous présentons également une façon de combiner les connaissances d'experts, exprimées sous forme de probabilités conditionnelles, avec des données cliniques. Il s'agit d'un aspect crucial car la rareté des données pour les maladies rares empêche toute approche basée uniquement sur des données cliniques. Nous montrons, tant théoriquement qu'empiriquement, que l'estimateur que nous proposons est toujours plus performant que le meilleur des deux modèles (expert ou données) à une constante près. Enfin nous montrons qu'il est possible d'intégrer efficacement des raisonnements tenant compte du niveau de granularité des symptômes renseignés tout en restant dans le cadre probabiliste développé tout au long de ce travail
In this thesis, we propose a method to build a decision support tool for the diagnosis of rare diseases. We aim to minimize the number of medical tests necessary to achieve a state where the uncertainty regarding the patient's disease is less than a predetermined threshold. In doing so, we take into account the need in many medical applications, to avoid as much as possible, any misdiagnosis. To solve this optimization task, we investigate several reinforcement learning algorithm and make them operable in our high-dimensional. To do this, we break down the initial problem into several sub-problems and show that it is possible to take advantage of the intersections between these sub-tasks to accelerate the learning phase. The strategies learned are much more effective than classic greedy strategies. We also present a way to combine expert knowledge, expressed as conditional probabilities, with clinical data. This is crucial because the scarcity of data in the field of rare diseases prevents any approach based solely on clinical data. We show, both empirically and theoretically, that our proposed estimator is always more efficient than the best of the two models (expert or data) within a constant. Finally, we show that it is possible to effectively integrate reasoning taking into account the level of granularity of the symptoms reported while remaining within the probabilistic framework developed throughout this work
APA, Harvard, Vancouver, ISO, and other styles
10

Pinto-Bull, Fernando. "Evolution tectono-sédimentaire d'un bloc basculé au cours du Jurassique : le massif du Rochail-Lauvitel ( Alpes occidentales, France) . Sédimentologie, stratigraphie et tectonique synsédimentaire." Phd thesis, Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00509909.

Full text
Abstract:
L'étude de la série jurassique de la couverture du massif cristallin externe (Rochail-Lauvitel) a permis de préciser les différentes étapes de l'évolution d'un bloc basculé de ce secteur de la paléo-marge de la Téthys jurassique. L'étude sédimentologique a permis de distinguer 12 faciès caractérisant des milieux de dépôts compris entre les étages supralittoral et bathyal. L'analyse séquentielle met en évidence les différentes étapes d'approfondissement de ces milieux de dépôt au cours du rifting téthysien en fonction des variations biologiques et de la microfaune typique. Du point de vue séquentiel, l'Hettangien est représenté par une méga-séquence d'approfondissement découpée en 5 séquences limitées par des horizons de discontinuité. Les corrélations des différentes coupes ont permis de montrer que les variations d'épaisseur de l'Hettangien sont d'origine tectonique, mais résultent également de l'existence d'une paléo-topographie qui n'était pas plane. L'étude stratigraphique a permis, au point de vue paléontologique, de situer avec précision l'activité tectonique et l'approfondissement qui se sont produits au cours de l'Hettangien supérieur, de confirmer l'hétérochronie de la formation des Calcaires du Petit Renaud, et de mettre en évidence l'existence d'une série normale du Jurassique supérieur au sein de la formation des Calcaires du Paletas. La confrontation de l'étude sédimentologique et de l'étude stratigraphique permet d'affiner les corrélations entre les différentes coupes. L'étude paléo-structurale a permis la mise en évidence d'une activité qui a été perçue différemment par la sédimentation : • Au cours de l'Hettangien : apparition de failles normales synsédimentaires limitant de petits demi-grabens qui se sont arrêtés de fonctionner au début du Sinémurien. • L'érosion qui se manifeste sur les zones hautes entre le Domérien et l'Oxfordien moyen, est responsable du développement d'une formation biodétritique particulière sur les pentes du demi-graben : les Calcaires du Petit Renaud. • De l'Oxfordien moyen au Néocomien, la poursuite de l'instabilité des dépôts sur les pentes est responsable de la mise en place de 2 paquets glissés.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography